人工智能治理
(Governance of AI)已經成為世界各國政府最重視的領域之一,只有在更廣泛的維度和更深的層面上對人工智能進行良好治理,才能真正推進人工智能的安全可靠發展。
首先,準確的定義能夠更好地涵蓋議題的內涵和外延,使得治理更加精準。
通常而言,人工智能治理的描述性定義(Descriptive definition) 是指人工智能決策制定和實現的過程,具體包括規范、政策、制度和法律。
而規范性定義(Normative definition) 則是指此類過程的良好集合,良好的治理通常意味著有效性、合法性、包容性和適應性。
良好的人工智能并不是一個能夠很容易實現的結果,原因在于人工智能技術本質是一種基礎性共性技術(General Purpose Technology, GPT),能夠從根本上改變經濟、社會和軍事進程,其方式往往難以治理。
美國核物理學家利奧·西拉德 (Leo Szilard) 在 1978 年寫到,“(對于技術創新)保守的做法是假設技術創新會發生并采取所有必要的預防措施?!?/p>
因此,應對人工智能風險,提前進行人工智能治理研究是十分重要的。
筆者在 2017 年《人工智能治理 : 研究議程》(AI Governance:A research agenda) 中提出一個具體的分析框架,從技術布局(Technical landscape)、政治(Politics)、理想治理(Ideal Governance) 和政策(Policy) 四個方面考察人工智能治理。
技術布局包括能力、圖景、預測和安全;政治包括國際地緣政治、國內和大眾政治、國際職位評估(IPE)、國際安全;理想治理包括價值觀、原則、積極愿景、制度設計、規范制定;政策包括將長期目標轉化為具體的短期政策行動。
針對人工智能技術布局,可以從更細化的 7 個維度來討論。①快速而廣泛的進步;②種類、功能和屬性;③技術的戰略屬性;④工具輸入、能力和性能;⑤人工智能建模進程;⑥預測與指標;⑦人工智能安全。
對于算法政治屬性的研究, 應當包括:隱私、公平、透明度、可解釋性、可審核性、問責制、魯棒性、安全、保障、準確性和創新。同時,在研究人工智能技術布局時,要注重人工智能系統與其他技術方向的互動,Ben Garfinkel 博士在《密碼學的最新發展和可能的長期后果》(Rencent Developments In Cryptography And Possible Long-run Consequences) 一文中討論了人工智能技術與密碼發展的相關性,包括在監視、隱私保護、防偽計劃、可信計算各個方面。
在政治方面,人工智能治理主要包括四個維度。國內政治方面包括勞動轉移和不平等、監測和控制、影響、政策反彈和抵制。國際政治經濟方面包括全球自然寡頭壟斷、稅法、競爭政策 ( 壟斷 )。國際安全:法律和網絡、權力轉移、戰略穩定、軍事化。
總體而言,可將人工智能的治理屬性總結為:①危害和利益擴散(Diffuse harms and benefits); ② 高不確定性(High uncertainty); ③ 快速變革和動態問題(Fast moving, dynamic problem); ④ 成就不可逆性(Irreversible achievements);⑤ 責任不清(Unclear responsibility); ⑥ 兩用性和廣泛使用(Dual-use, broadly available); ⑦ 高技術性(Highly technical); ⑧ 競爭導向(Competitive incentives)。
具體而言,現在的安全人工智能通常是指防止人工智能的兩種風險,惡意使用或事故風險。
Brundage 等人在《惡意使用人工智能:預測、預防和緩解》(The Malicious Use of Artificial Intelligence:Forecasting, Prevention, and Mitigation) 一文中對此做了詳細的介紹,探討了在數字、物理和政治三個安全域下,人工智能的惡意濫用和事故風險導致的威脅,包括深度造假、合成媒體、網絡攻擊、無人機濫用等一系列新技術的應用方向。
但是這種視角通常將人工智能惡意濫用歸結為人類本身的惡性,犯罪、政治或經濟利益驅動,以及因設計者或用戶不正確使用導致的事故等,并不能真正剖析技術風險的諸多變化,以及與政策、環境的互動。
因此,需要從結構的角度來看待行為主體所面臨的激勵機制、信息流態、權力分布等。
Remco Zwetsloot 與筆者合著的《思考來自人工智能的風險 : 事故、惡用和結構》(Thinking About Risks From AI: Accidents, Misuse and Structure)中,曾嘗試揭示人工智能治理與結構之間的互動關系,包括人工智能技術對于政治、經濟和社會結構的沖擊,以及結構作為一種整體環境對于人工智能主體的影響。
比如在2018 年初 Uber 公司無人駕駛汽車造成的第一例行人死亡事故,最初的事故調查結果將原因歸結于“脆弱”的視覺系統和“遲鈍”的剎車系統,但是最終的原因卻是公司工程師故意將緊急剎車敏感度降低,選擇了此種“安全的危險權衡” 是為了保證 Uber 無人駕駛汽車在市場有足夠的競爭力,因為過于敏感的剎車制動將會極大提高錯誤率,影響用戶體驗。
同樣的原因也可以在波音 737 墜機事件中看到,波音面臨的競爭壓力、向飛行員等相關利益相關者傳達的信息不足,以及監管機構資源不足共同導致了技術層面的悲劇。
因此,將人工智能風險簡單地分為濫用和事故是不夠的,必須深刻考慮結構環境的影響。
新技術的發展給人類更強大的自信,使得人類有時會轉向激進的新政治技術來進行治理, 比如區塊鏈,盡管加密技術可以為治理提供新的功能,但是不太可能克服基本問題。
在這種情況下,人類不應該完全寄希望于技術創新發展能夠自動解決治理問題,根本政治問題的解決方式必須綜合而廣泛。
有效治理的重要部分是更好地理解關鍵涉眾如何看待問題。在任何國家,公共空間和輿論會形成對許多政策的辯論探討,這種觀點和情緒集合對于管理者制定明智的政策,以及公共宣傳是至關重要的。
2019 年 1 月,在牛津大學人類未來研究所人工智能管理中心發布的《人工智能:美國人的態度和趨勢》(Artificial Intelligence: American Attitudes and Trends) 中, 對具有全國代表性的 2000 名美國成年人完成了調查。
例如,報告顯示在調查中提出的 13 項人工智能治理挑戰中,防止人工智能輔助監視侵犯隱私和公民自由,防止人工智能被用于在線傳播虛假和有害內容,防止針對政府、公司、組織和個人的人工智能網絡攻擊和保護數據隱私這三項風險是美國公眾最為關注的,這也就意味著美國政策制定者需要在這些領域對公眾的質疑有所回應,才能更好地推進人工智能治理。
最后,人類社會必須意識到,人工智能技術的發展和影響是全球性的,增進主要國家之間的了解、互信、政策協調和技術合作是必不可少的。在人工智能治理方面,隨著全球范圍內的貿易摩擦增多和技術管控更加保守,需要各國更加努力推進人工智能的發展。
艾倫·達福(Allan Dafoe),牛津大學副教授,牛津大學人類未來研究所人工智能治理中心主任,研究方向為人工智能治理。
責任編輯:韓希宇
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。