隨著人工智能(AI)技術的快速發展和廣泛應用,與之相關的倫理問題越發得到各界重視。各國政府、國際組織、學術機構和企業界都積極參與相關倫理標準的討論和制定,確保人工智能技術發展“以人為本”、技術向善。
聯合國是推動建立全球AI倫理規范的重要力量。2019年,聯合國教科文組織啟動了全球AI倫理建議書的撰寫,并于2020年9月完成草案,提交193個會員國協商,預計將于2021年末發布。聯合國教科文組織還于2017年聯同世界科學知識與技術倫理委員會發布了《機器人倫理報告》。經合組織(OECD)也高度重視AI準則的制定,于2019年5月發布首套政府間人工智能政策指南,共42個國家簽署,隨后也被G20采納。
各國政府也積極推進AI倫理標準的制定。目前,全球已有28個國家發布了有關人工智能的國家戰略及政策,而倫理問題是各國政策的重要領域之一。美國2019年修訂了《國家人工智能研究與發展戰略計劃》,提出包括應對倫理、法律和社會影響、確保人工智能系統安全等八項戰略重點。歐盟在2019年4月發布了《可信賴的AI倫理指南》,并在2020年2月發布《人工智能白皮書》,將倫理監管作為重要政策目標。去年10月,歐洲議會通過了三項有關監管人工智能的立法倡議,以更好地平衡技術創新和社會治理的關系。
與此同時,行業組織、學術機構和企業界也提出了相關倡議。國際化標準化組織(ISO)于2017年成立人工智能委員會,負責涵蓋算法偏見、隱私保護等領域的標準研制工作。電氣和電子工程師協會(IEEE)在2017年提出了“人權、福祉、問責、透明、慎用”的五項原則,已成為國際上最具影響的AI倫理原則之一。在學術界,牛津大學、劍橋大學和Open AI公司等7家機構于2018年共同發布《人工智能的惡意使用:預測、預防和緩解》,分析了人工智能可能帶來的安全威脅并提出應對建議。在企業界,微軟、谷歌、IBM等科技企業制定了人工智能開發的倫理原則,臉書也在2019年初聯合慕尼黑工業大學建立了AI倫理研究所。
中國政府高度重視人工智能產業發展中的倫理問題。2017年7月,國務院在《新一代人工智能發展規劃》中提出,要“制定促進人工智能發展的法律法規和倫理規范;開展人工智能行為科學和倫理等問題研究;制定人工智能產品研發設計人員的道德規范和行為守則”。2019年2月,國家新一代人工智能治理專業委員會成立,并于6月發布了《新一代人工智能治理原則——發展負責任的人工智能》。同年4月,國家人工智能標準化總體組發布了《人工智能倫理風險分析報告》,提出“人類根本利益原則”和“責任原則”。
中國的學界和企業界也積極關注AI倫理問題。2019年5月,由科技部和北京市政府指導成立的北京智源人工智能研究院成立了人工智能倫理與安全研究中心,并聯合北大、清華、中科院、新一代人工智能產業技術創新戰略聯盟(發起成員包括百度、阿里、騰訊、華為等)和其他學術機構及產業組織共同發布《人工智能北京共識》,提出了人工智能研發、使用和治理應遵循的“有益于人類命運共同體的構建和社會發展”的15條原則。2019年8月,深圳人工智能行業協會與曠視科技、科大訊飛等數十家企業聯合發布《新一代人工智能行業自律公約》。百度、騰訊等主要科技企業也提出了企業自身的AI倫理準則;曠視科技成立了人工智能道德委員會,以推動“可持續、負責任、有價值的人工智能生態”。
(作者系海通國際首席經濟學家)
責任編輯:王超
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。