- 梁正、張輝:構建平衡包容的人工智能治理體系
- 信息來源: | 更新時間:2023-03-07 | 閱讀量:201次
近年來,隨著我國新型基礎設施建設提速,經濟實現高質量發展的動能更加強勁。人工智能作為新基建的重要組成部分,是新一輪科技革命和產業變革的核心驅動因素,也是支撐新舊動能轉換的重要力量。穩經濟大盤背景下,人工智能如何更好地發揮其作用,助力經濟社會實現高質量發展,并在此過程中,為人工智能發展把錨定向的人工智能治理,又將構建怎樣的體系,發揮怎樣的作用,成為一項必須關注的前沿議題。
黨的十八大以來,伴隨國家治理體系和治理能力現代化持續推進,以人工智能治理為代表的新興科技治理進入了一個新的發展階段。全球范圍內,各主要國家或代表性地區先后發布了人工智能相關戰略、規劃或重大計劃,以期在新一輪科技革命中取得競爭優勢。人工智能應用不僅極大提高了交通、醫療、金融、教育、制造和農業等傳統經濟社會部門的生產效率,也提升了法治社會、政府管理、公共安全、危機應對等多方面的現代化治理水平。與之相伴的是,全球范圍內,對人工智能帶來的倫理風險、隱私侵犯、就業替代和技術安全等各方面的諸多爭議不絕于耳;世界諸國或地區漸有從“人工智能技術創新競賽”向“人工智能技術規制競賽”轉變之勢。構建符合我國國家治理現代化需要的人工智能治理體系,勢在必行。
國家人工智能治理面臨的治理困境
人工智能作為新興科技的集大成者,本身就存在技術、社會、經濟、政治等多方面的不確定性。世界諸國面對人工智能的態度各異,但是治理措施存在著一定的一致性。一方面,世界諸國都在積極發展人工智能技術、制定人工智能產業規劃,大力促進人工智能的技術創新、發展與應用;另一方面,世界諸國又通過立法、議案、規范等制度性約束,限制他國的人工智能企業或產業發展。因此,國家人工智能治理面臨來自國際和國內的多重挑戰與治理困境。
在國際范圍內,散落在世界各國或主要地區的治理原則與實踐經驗,還無法跟上人工智能發展的步伐,人工智能治理問題隨著快速的技術創新與廣泛的社會嵌入而日益突出。目前,國內外人工智能治理的研究處于剛剛起步的階段,來自哲學、經濟學、社會學、管理學、法學以及計算機、電子電氣等學科的學者都從各自領域進行了一定的探討,但世界諸國對于什么是人工智能治理、什么是人工智能倫理、為什么進行治理以及如何治理等還沒有形成深刻的成果與共識,從而制約了人工智能治理的發展。
而在國內,人工智能技術的復雜系統特征和技術不確定性特征,使得國內技術創新面臨著“高端產業低端化”的實踐傾向,產業促進政策和技術治理措施往往難以落地。人工智能治理的國內難題一方面來自于國際競爭,另一方面在于地方政府競爭格局導致的產業競爭問題。前者關注人工智能技術體系的發展及其規制問題,重點在于國家整體的技術實力的提升。后者側重于通過地方標準、規范或地方立法等制度性約束單方面促進人工智能的技術創新,而忽視了人工智能負外部性的規制議題。
人工智能的特征與風險
關于人工智能的定義本身就存在以偏概全的風險。對人工智能的本質的哲學討論是人工智能技術創新和人工智能治理的基礎,但由于技術哲學流派眾多,定義“人工智能”幾乎是一件不可能的事情。在1950年,圖靈的文章《計算機與智能》建議通過“行為”來界定“思維”和“智能”,就此拉開了人工智能的序幕。其后幾十年,各路人物輪番登臺,但至今這場大戲的主題尚欠共識。據統計,世界范圍內對“人工智能”存在著不下百種定義。從技術工程實現的角度來看,人工智能不是某種單一技術,而是包含一系列技術(如語音識別與計算機視覺)與分支學科(如生物學與心理學)的概念組合,但邊界模糊不清。從發展水平看,人工智能可分為“弱人工智能”和“強人工智能”。弱人工智能(WAI)只能在一些具體的單項領域表現出一定的超出人類智能的水平,而強人工智能(AGI,也被稱為“通用人工智能”)可以舉一反三,具有接近人類的通用性智能,目前一般只有在科幻作品中才能看到。當前階段,人工智能主要是指,由大量依賴標注數據驅動的、基于反向傳播算法基礎上的一系列神經網絡算法,來模擬人類專項智能的人工程序及其系統。
(一)新一代人工智能發軔于深度學習
考慮到人工智能技術對政治、經濟、社會、法律、歷史、心理、環境等方面存在廣泛影響,對人工智能的特征與風險的認識,有助于后續開展人工智能治理的相關工作。當前階段,人工智能的技術特征的本質來源于以“神經網絡”為技術實現的“智慧即網絡”技術模擬理念。神經網絡算法的本質在于從構造結構上模擬人類大腦產生智能的過程——神經元之間的聯結過程決定著人類認知的發起和人類智慧的產生。此技術理念的缺點在于誤解有效解釋該神經元聯結過程中的邏輯關系,無論是人類神經元,還是“機器神經元”。實際上,機器神經元之間的決策權重關系的生成過程本質上與人類神經元的鏈接過程已經存在諸多差異。以神經網絡為基礎的機器學習算法和深度學習算法,對神經元權重關系的設置過程,更多的是一種根據預測目的或結果的精確度、擬合度等性能指標需求拉動的反向作用的迭代過程。
(二)大數據是人工智能的基礎驅動因素
驅動前述迭代過程的基礎要素是大數據。通過在大數據中提取實體的特征向量和特征值,并分析實體之間的關聯關系,決定著當前人工智能的技術性能。利用概率統計和模式匹配的方法,從海量數據中將實體之間的關聯關系進一步提煉為相關規則,產生最終預測、決策和執行的依據。在此過程中可以看出,用于最終預測和決策的依據并不由人類外部給定,而是由人工智能系統在數據海洋中不斷進行迭代訓練,并由相關模型來決定,其決策邏輯更多基于概率統計與模型匹配,而非因果關系?;诖?,人工智能技術被視為具有顯著的不可解釋性,即“技術黑箱”特征。因此,外部觀察者雖然了解其算法及其系統的基礎運行原理,但是卻很難理解算法的決策過程,即使對技術專家而言,也是如此。這種技術不確定性嵌入在“輸入—算法—輸出”各個環節之中,如數據質量的偏差,算法參數的隨機,以及難以避免的人為因素(如算法開發人員的價值觀),使得追蹤決策結果的影響根源,在技術原理層面上,顯得十分困難。因此,人工智能雖然大概率上能夠高效地解決很多預測類問題,但是技術的非因果性和不可解釋性,將是懸在人工智能系統使用者頭上的“達摩克利斯之劍”。一旦出現決策偏差,將對個人生命安全、健康或財產,或者組織甚至社會的安全帶來十分嚴重的不利影響。
(三)技術內生性不確定性
在技術不確定性的基礎上,人工智能的社會應用及其與人類的互動將會帶來更大的不確定性。人工智能就如電力一樣,是一種通用目的技術,可以被國民經濟的多種行業部門和生產生活環節使用。然而,人類行為自身也同樣存在非常高的復雜性和不確定性,如何使用、何時使用、在哪使用、誰來使用等問題始終伴隨著人工智能技術與社會的互動過程。換言之,社會不確定性與人工智能技術不確定性的交織混合,導致人工智能應用結果的不確定性以更大的指數級上升,利益相關方更加難以追蹤和掌控。尤其是在法律、醫療、安全和教育等領域,人工智能應用的某些不確定性,可能為社會帶來非常大的風險。
除了不可解釋性的隱憂,人工智能的技術內核——數據驅動型算法還可能引致技術系統“自我強化”困境和“主體性”的難題。一方面,機器學習的原理在于對訓練數據——歷史數據集的高度依賴,從而使得人工智能使用者獲得的參數模型最大程度地集成訓練數據的統計性特征,繼而使得后續的測試集和新生成的數據中不符合其特征分布的數據被視為異常值而被忽視。久而久之,人工智能技術使用者會就陷入“回音壁效應”,形成自我強化的心理困境。人工智能的核心優勢就是基于個性化大數據訓練出來的“精準”算法與模型,但是其風險也恰來源于算法和模型的“精準”,因為人工智能算法能夠最大程度上滿足個體特征和喜好,而這恰恰限制了使用者接觸集合外的其他多元信息和新奇信息的機會,從而造成不斷追求信息卻又難以超越自我的平庸的內卷化狀態。另一方面,人工智能廣泛而深入地應用與擴散,勢必使得人與機器的分工界限越來越模糊,從而形成人工智能的“主體性”難題。根植于傳統制造業或農業領域的社會化大生產,在強調技術工具在生產力的根本性構成作用的同時,也將之與技術使用者——人類進行了清晰的劃分。但是,隨著人工智能技術廣泛而深入地滲透到社會之中,技術的權利、責任與義務的承擔主體在人與機器之間難以進行清晰準確的劃分,這在人工智能程序生產的文學作品的著作權界定、自動駕駛引致的交通事故的責任認定等關涉人的權利權益的應用場景中表現尤為明顯;其直接結果是權利界定、利益分配、過失懲罰等傳統意義上的獎懲機制的失效。
(四)人工智能的應用性隱憂
人工智能技術深度嵌入經濟社會生活,將會深刻地改變社會主體之間的權利關系,造成強者越強、弱者越弱的極化效應。人工智能技術集合涵蓋了云計算、大數據等技術偏向性非常明顯的子技術系統,使得本就已經在經濟社會中處于支配地位的技術擁有者和使用者,能夠通過人工智能技術更進一步地鞏固、擴張或壟斷權力工具。在人工智能時代,數據成為國民經濟社會中的新型“石油”。數據不僅在價值生產中起到越來越重要的作用,在知識生產和公共管理過程中的作用也越來越關鍵。在微觀企業層面,擁有人工智能技術、數據和資本的平臺型企業在社會經濟發展過程中擁有越來越大的權力;平臺企業掌握大量用戶數據,包括其具象化的雙邊或多邊市場中的多方技術使用者的狀態數據和行為數據;平臺企業可以利用人工智能技術分化用戶群體,分割用戶權益而不容易被監管部門和社會公眾覺察(梁正等,2020)。與此同時,公共部門能夠使用人工智能技術提高公共服務效率,但這一過程也強化了政府部門管理個體公民的工具。在宏觀層面,以政府為代表的公共部門,往往難以及時跟進人工智能技術和知識快速增長的需求,而人工智能企業和平臺將在公共政策甚至非正式制度改變中擁有越來越多的影響力。在此情景下,政府等公共部門和普通公民的話語權都將受到侵蝕,政府組織能力也會被平臺組織稀釋。一方面,公共部門和普通公民都可能成為經濟組織廉價攫取數據燃料的供給者,卻難以分享相應的收益;另一方面,他們可能在被動使用人工智能技術的過程中,不斷單向度演化,造成內卷化的風險。更值得擔憂的是,如果人工智能被武器化和軍用化,其精確度和自動化響應速度非傳統武器所能比,而這將導致國際社會形成更加激烈的自動武器軍備競賽,給整個人類安全帶來嚴重威脅。
人工智能治理的定義
治理是各種公共的或私人的機構和個人管理其共同事務的諸多方式的總和。治理過程是使相互沖突的或不同的利益得以調和,并且采取聯合行動的持續過程。保障該過程得以順利執行的關鍵在于制度建構,既包括需要人們服從的正式制度和規則,也包括各種人們同意或以為符合其利益的非正式的制度安排。治理(Governance)與傳統的統治(Government)存在很大的區別。在傳統的統治中,政府是唯一權威,而治理需要公私合作;在傳統的統治中,政府權力運行一般采用自上而下的執行過程,而治理一般需要多個相關利益主體通過互動的過程來有限度地運用各自的權力;統治一般以國家為邊界,而治理一般超越國家;統治權威一般源自法規命令,而治理權威依賴社會共識。
“治理”的概念和理念已經應用到很多新興技術領域,人工智能治理這個概念還處于定義之中,而人工智能定義的混亂使得人工智能治理的定義和內涵分析也面臨更多的挑戰。第一,人工智能本身存在著諸多流派,如符號主義、聯結主義和行為主義;且流派之間的定義在特定的技術發展階段,因技術實現條件而存在諸多沖突之處。人工智能的內涵界定同樣非常模糊;同時,作為通用目的技術,人工智能與多個學科領域存在交叉現象,也導致人工智能的概念邊界存在諸多模糊之處。第二,人工智能內部運行的算法邏輯難以厘清,其可能造成的經濟社會影響很難判斷,對人工智能治理的對象存在“無的放矢”和“自說自話”的現象。第三,人工智能治理因為人工智能技術而不可避免地涉及多元治理主體,但是,不同領域的相關利益主體對人工智能治理的內涵存在不同的認知和理解。從微觀的技術視角來看,相關利益主體主要包括各種類型的人工智能技術設計者和產品設計者,人工智能治理被視為“運用技術實現的手段讓人工智能透明化、可解釋性更強、或者合乎技術倫理的過程與安排”。從中觀的組織視角來看,利益相關主體主要包括掌握人工智能和應用人工智能的各類組織,而人工智能治理一般被定義為在運用一系列工具、方案和手段來降低人工智能安全風險的基礎上充分開發利用人工智能的技術潛力。而從更加宏觀的視角出發,利益相關主體主要包括國家、政府和人類社會整體,人工智能治理則被認為是為了確保人工智能的負責任創新和可持續發展而設計的標準、法律、規范、政策等一系列制度。
一般而言,人工智能治理包括兩類過程。其一,各技術利益相關主體利用人工智能技術優化國家治理、社會治理或技術治理等治理體系的結構,并利用人工智能技術提高其治理的效率和效能,即“用人工智能進行治理(AIForGovernance)”。其二,人工智能的相關利益主體在一定的制度環境中對人工智能的技術風險進行有效預測并制定相應的治理方案,對已經出現的消極影響加以控制,即“對人工智能進行治理(GovernanceofAI)”。然而,人工智能治理過程的階段性還需要考慮技術相關利益主體的參與和退出。理論上,人工智能治理體系需要考慮治理的核心價值(如發展、安全與人類自主性),多方治理主體的治理訴求和利益協調,以及相應的治理機制和制度保障。因此,筆者認為,人工智能治理是指政府、社會、市場等領域的利益相關主體通過正式或非正式的制度安排,共同推動人工智能體系的創新、科研、生產及應用,并利用人工智能提升人類福利;同時,識別、預防和應對人工智能技術創新和應用引致的政治經濟社會風險與不良影響。
人工智能的綜合性治理框架
總體上,目前人工智能治理的定義和邊界還比較寬泛,缺乏一個廣受國際社會認可的界定。人工智能治理的研究散落于各個具體的應用領域和層面,較少從社會經濟系統的整體層面進行探索。
從治理的要素來看,現有研究對于治理的價值(目標)、機制和對象的研究明顯不足?,F有研究主要關注人工智能治理的現狀、問題以及對策,但是對為什么進行治理還沒有較多的討論和共識。
從治理對象來看,現有研究多只是把人工智能作為一個籠統的對象,或者關注某個具體算法或應用領域,而較少從整體上考察數據、算法以及應用之間的關系。實際上,數據、算法和場景具有不同的應用范圍,需要分層次進行治理。例如,數據雖然是人工智能發展的基礎,但也是其他數字技術和商業模式的重要投入,是第四次工業革命背景下的基礎市場要素,因而是一個需要社會進行整體治理的對象,而不僅僅是針對人工智能。
具體到應用領域,雖然都體現人工智能技術的共性特征,但是場景特征與風險千差萬別,治理問題與挑戰各有不同,需要對技術和場景做出分類,才能精準治理。此外,人工智能技術應用不可避免地帶來一些負外部性問題,這也需要納入人工智能治理對象中。從治理機制來看,雖然不少主體都提出了各自的治理理念,尤其是組織層面的治理實踐已經開始,但是尚未形成政府、產業和社會等多主體之間的協調互動機制。未來研究需要更多結合相關政策和應用場景,深入研究政府、市場和社會的合作分工互動機制,既需要歸納普遍性的治理原則,也需要因地、因時、因業制宜的具體治理策略。
人工智能的綜合性治理分析框架在于綜合考慮多元化的治理主體、多層級的治理對象、主體之間的價值共識、科學合理的治理過程和治理方式等與人工智能治理密切相關的治理要素。對于人工智能而言,廣義上的治理主體包括每一個被人工智能技術覆蓋的社會主體,包括社會公眾、市場組織、非營利機構、政府部門等。雖然多元治理主體參與治理的合法性地位毋庸置疑,但是每一類治理主體因其概念化、判斷、分析、綜合、比較、推理、計算等方面的能力存在不同程度的差異,而展現出不同的治理能力。因此,人工智能治理需要在綜合理性思維的基礎上,兼顧相關治理主體的治理能力。
對于人工智能技術及其治理的利益相關方而言,無論是組織,還是個人,有限理性同樣決定了其作為治理主體的理性維度的選擇。而人工智能治理主體作為決策主體參與治理的過程中,實際上存在各自獨有的理性維度的權重序列。同時,在參與治理的過程中,差異化的治理能力分化了平臺利益相關方,由此形成治理實踐中不同利益相關方的參與程度各有不同。因此,為了兼顧人工智能的治理成本和治理效率,圍繞人工智能技術提供者和使用者,勢必需要將相關利益方分類為人工智能治理的核心治理主體與外圍治理主體;其中,人工智能技術的核心治理主體主要是指直接參與人工智能技術提供和使用的利益相關方,人工智能技術的外圍治理主體主要是指間接參與人工智能技術應用的利益相關方。在此基礎上探索構建人工智能的綜合性治理框架,以指導后續多主體協同的治理體系與互動治理機制的構建。
運用綜合理性分析框架在于明確人工智能的理性內涵,有助于為后續人工智能治理提供治理抓手。在多元治理主體理性偏好與治理能力分析的基礎上,將理性維度和主體維度加以整合,從而構建人工智能治理所需的全景式治理分析框架。因此,人工智能治理的綜合性治理分析框架應當包括治理主體的專業化選擇、多理性維度、治理能力(包括治理工具、治理手段等)的三維治理體系。綜合性治理框架為人工智能治理提供了“理性坐標系”,通過精準定位治理主體和理性維度,能夠為“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理”等治理原則和理念提供足夠的執行空間,有助于明確多元治理主體之間的分工與合作機制,有助于確立人工智能治理的治理對象、治理方向和治理路徑,為構建人工智能治理的協同治理體系提供分析框架。
人工智能治理實踐建議
依托人工智能治理的綜合性分析框架,人工智能治理實踐需要重視價值導向、囊括多元治理主體、厘清治理對象、明確治理機制,并運用多尺度的治理工具。
(一)重視價值導向
首要考慮是保證人們生產生活的安全,在此基礎上賦能經濟發展,而更高層次的目標是助力解決當前人類社會面臨的可持續發展挑戰。就人工智能領域而言,一方面要對人工智能的發展保持支持和鼓勵的基本態度,另一方面也要對人工智能發展的不確定性、潛在風險和負面影響給予充分的關注,在確保人工智能有序發展和安全可控的同時,著力防止人工智能的濫用。因此,對人工智能的發展應該保持包容審慎的基本態度,在確保人工智能安全和平等的底線基礎上,破除限制人工智能產業發展的制度束縛,利用人工智能賦能經濟,以及服務社會可持續發展的目標。
保證人工智能技術安全,是人工智能治理的底線目標。在保證人類身體和財產安全的基礎上,人工智能治理需要維護公民精神上的尊嚴與平等。人工智能治理的一個現實目標是減少阻礙人工智能技術發展的不利因素,推動技術的廣泛利用,使得更多生產部門和人口可以享受技術帶來的紅利。在更高層面上,人工智能技術對于應對人類的重大挑戰如氣候變化、環境污染、傳染病擴散等方面具有巨大的潛力。
(二)囊括多元治理主體
人工智能技術研發、應用與擴散涉及多個異質主體的權利與責任。因此,圍繞著人工智能治理議題,筆者梳理其核心治理主體和外圍治理主體,并明確各個治理主體的定位與治理職責。多元治理主體在人工智能社會技術系統中擁有不同的權限、資源、利益與限制,通過各種正式與非正式渠道不斷博弈平衡,構成治理機制復合體。
人工智能正推動著不同治理主體角色的轉變。例如,數據隱私保護條例的出臺涉及數據生成者(用戶)、數據聚合者(使用人工智能的平臺企業)、數據使用者(研發機構)和數據監管者(政府及其他)等多方利益主體之間的博弈和互動,各方都應當具有人工智能治理的知識合法性或參與合法性。上述技術發展路徑和商業模式,同樣決定了人工智能治理與傳統技術治理框架存在諸多不同。政府通常是治理的核心,保有對社會(即各類非政府主體)的引導控制能力。因此,人工智能治理應該構建由人工智能企業(技術提供者或技術使用者)、公眾(技術使用者)、高校、科研機構、政府部門、社會團體等共同組成的治理主體集合,明確權責的歸屬,有效地實現不同治理主體之間的靈活互動和敏捷溝通,從而更加高效地應對人工智能帶來的多重治理挑戰。
(三)厘清多重治理對象
人工智能是個籠統的概念,包含眾多要素、技術和場景,若不加區別地把整個人工智能作為治理對象,將會造成治理問題的失焦。在人工智能技術的研發、生產、應用和產生影響的過程中,既涉及人工智能算法和應用的特殊性問題,也包括普遍性的基礎問題,如數據治理和個人信息保護,它們不僅是人工智能發展中面臨的問題,也是許多其他數字技術和商業模式發展所需解決的問題。因此,人工智能治理的對象需要有一個從普遍到特殊的分層治理過程,需要社會對共性的基礎問題達成共識,在人工智能的具體領域形成分場景、分級別的治理措施。對共性的數據和算法問題形成共性的底線約束,對應用場景的個性化問題形成專門治理規則。
遵循分而治之的原則,從專項治理入手,為人工智能治理提供有效的抓手??梢詫⑷斯ぶ悄苤卫聿鸾鉃閿祿卫?、信息治理、算法治理、算力治理、場景治理和外部環境治理等分項治理。繼而,在分項治理的基礎上,捋清各個分項領域的耦合關系和治理協同機制,進行整體性治理。
(四)推進多條治理機制
除了傳統技術治理強調政府聯合第三方組織規制人工智能服務提供商的經濟行為之外,人工智能綜合性治理框架強調,治理不僅僅需要政府、人工智能組織和第三方組織積極參與,還需要將廣大的人工智能技術利益相關方納入治理過程中來。在確立人工智能治理價值共識的基礎上,梳理不同人工智能治理主體的價值分工,結合人工智能治理主體的治理能力,選擇與之契合的治理方式和治理工具,最終形成有針對性的人工智能的合作協同治理機制。
首先,針對人工智能治理,需要多元治理主體形成價值共識,這是多元治理主體進行合作和協同治理的根基所在,也是全景式治理框架的內在要求之一,應當全方位科學看待人工智能治理。其次,梳理人工智能治理主體的價值分工,治理主體之間取長補短,相互促進,充分發揮治理主體各自的治理優勢,最終形成治理合力。最后,人工智能治理主體之間形成動態互動的協同共治機制,并根據人工智能技術創新發展與治理的適時需求,創新治理方式和治理工具。
(五)運用多尺度的治理工具
治理工具是治理主體用來解決治理問題的途徑、方法和手段。不同的工具有不同的優勢和局限,在不同尺度、場景中發揮不同的作用。法律是治理最有強制力的工具,但法律制定一般無法跟上人工智能迅速變化的節奏,普適性和原則性較強的法律條款也難以滿足人工智能許多個性化應用場景的需求。治理宣言、技術標準、行為規范、國際倡議等也逐漸被納入人工智能治理工具的范疇,并根據具體的治理問題和治理需求加以利用,實現治理工具的多樣化。因此,人工智能治理需要形成一個有層次的工具體系,各種工具各施所長,形成人工智能治理的合力。
在宏觀尺度上,國家政策是引導人工智能發展方向的重要工具,是一個國家體現人工智能治理價值的重要載體,不僅要規劃技術和產業發展的目標和進程,也需對如何負責任開發與應用提出要求。在中觀尺度上,社會實驗是一種有效的嘗試。在微觀尺度,則需要擁有更多的工具組合,主要包括技術標準、組織內部治理規范和監管科技。
- 【中國中小城市指數網】