以生成式人工智能為代表的人工智能快速發展,帶來新一輪全球發展變革。來自全球各地的互聯網企業和科技公司紛紛加碼人工智能,以期在未來發展變局中搶占先機?,F在以及不遠的未來,如何搶先布局產業落地,成為人工智能發展的關鍵。
與此同時,人工智能治理也提上日程。相較于其他產業,人工智能無法真正實現零風險,而需達到一個各方面綜合治理平衡的狀態;同時產業上下游聯系愈發緊密,產業鏈一榮俱榮、一損俱損。針對如此特征,AI治理如何切入?近日,由北京理工大學法學院主辦的第六屆智能科技法治論壇在北京舉行,與會專家就人工智能相關問題展開討論。
AI產業鏈榮辱與共
以生成式人工智能為代表的人工智能引得國內多家公司“競折腰”,百模大戰甚至是千模大戰競爭激烈,人工智能產業給予未來更多的想象空間。
人工智能未來或將成為基礎設施從而賦能其他產業發展?!艾F在的人工智能產業,經過百模大戰競爭,形成了一定的行業領先優勢,或者是形成了一定的產業規模,市場份額確定了之后,這種深層次的AI它一定也是具有一個公共服務的基礎設施?!敝袊ù髮W數字法治研究院教授張凌寒在發言時說道。
不僅如此,北京師范大學法學院教授汪慶華提出,人工智能還具有數字基礎設施的屬性。需要注意的是,機器學習中模型是不支持字符串數據的,模型要順利有效地學習,必須對字符串數據先數值化。
特定能力在達到一定規模時就會出現“涌現”,是這一輪人工智能發展過程中的一個顯著特點,何以涌現出現、其中工作機制如何理解尚不可知,但這并不影響大模型的快速更新迭代及更加智能模型的出現。
汪慶華引用Open AI一位科學家的觀點稱,大模型現在還不具備的能力,不是它不行(it doesn't work),而是它還沒有(perspective of yet)??赡苡械哪芰υ诂F有模型之下未達到,但在未來很快就能到達。隨著模型的更迭,會不斷有新的洞見涌現。
人工智能一日千里,人工智能治理也提上日常。相比較之前,人工智能治理的難點和痛點如何理解?
當前,更加緊密的上下游結構,一榮俱榮、一損俱損,主體責任如何配適提出現實挑戰。人工智能產業鏈主要分為基礎層、技術層、應用層,包含AI芯片、云計算、生物識別、機器學習、算法理論等多個產業鏈上下游高精尖的產業。
“生成式人工智能,使得我們整個人工智能從1.0時代過渡到2.0時代,從原來作坊式的生產、平臺主體擔任單一主體地位的生產方式,到今天上中下游要密切合作,一榮俱榮,一損俱損?!睂ν饨涃Q大學法學院副教授張欣表示。
人工智能產業落地中,需要解決一個核心問題:如何保障內容安全。值得關注的是,生成式人工智能的工作原理是通過深度學習框架來學習大量自然語言和文本數據,可以理解為接龍游戲,給出的答案主要基于概率分布。也就是說,即便是使用非常重要的材料,保證訓練數據百分百準確,由生成式人工智能最后回答的內容也8無法保證完全可控及幻覺消失。
生成式AI如何規制?
人工智能治理隨著產業快速發展而提上日程,具體又該如何著手展開?
中國海洋大學法學院教授李晟表示需要關注三點,一是從產業發展角度,關注到的是國家間的人工智能產業競爭,不同國家、不同企業,誰能夠發展出更具有優勢的甚至是人工智能。二是作為一個數字基礎設施,所希望實現的是要有獨立自主可控的數據基礎設施。三是具體到應用層面,也就是公眾接觸層面,如何避免公眾使用過程中產生的各類風險成為關注重點,希望公眾使用的模型能夠提前避免一些應用當中的問題。
隨著產業落地化加速,生成式人工智能需要回答一個關鍵問題:如何保障生成內容安全?以及相關法律責任該如何劃定?又該如何科學有效通過法律手段規范和促進新技術發展?
工業和信息化部產業政策與法規司法規處處長楊艷秋表示,堅持在法治軌道上推進智能科技發展和監管工作,更好發揮法治固根本、穩預期、利長遠的保障作用。短期內可以考慮通過推動在小范圍法律法規依法對普及性高、風險很大的新技術、新應用進行規定,加強制度登記處理。長遠來看可以探索研究數字領域綜合性立法,如風險評估等等新型監管手段,優化對各項數字技術的管理,防范智能科技可能帶來的風險。
積極推進人工智能立法。圍繞新一代人工智能技術產業發展的主要問題,加強人工智能法重點問題立法研究工作,在法治軌道上促進人工智能產業健康有序發展。
如何治理、選擇什么樣的治理方式?李晟指出,從價值判斷和利益的權衡來看,甘蔗沒有兩頭甜,針對公眾日常生活中暴露出來的問題需要加強規則治理,但如果因此導致產業發展受限、影響產業競爭和國家安全,又陷入相對被動的階段。治理時是否能夠提出一種兩全其美的手段需要進一步考慮。另一個問題是,分層監管如何細化也需基于價值判斷和利益考量做出。
具體到生成式人工智能來看,與會專家分別提出雙邊規制、基于產業鏈的雙邊規制、分層治理等治理思路。
汪慶華表示,從生成式人工智能產業發展的角度,法律規制應當是為生成式人工智能設定護欄,他提出了雙邊規制的思路。
具體來看,在輸入端以數據法律體系規制數據,大模型上主要關注數據控制者/數據處理者的主體責任。在輸入端適當寬松,對于數據抓取規制以民事行政調節為主、避免利用刑事手段帶來的寒蟬效應,對于已公開的個人信息予以豁免等。在輸出端繼續原有的內容監管敏捷規制、多元規制、靠前規制的特點,防范AI帶來的各種內容風險。
人工智能生成內容的監管上,基于AI產業鏈一榮俱榮、一損俱損的特點,張欣認為,邁向“模型泛在”的人工智能2.0時代,生成式人工智能的治理應遵循敏捷治理與韌性治理并重、精準治理和參與式治理協同的原則。同時提出要建立基于產業價值鏈的治理,未來的生成式人工智能內容治理應從基于API的模式、基于插件的模式和基于模型垂直部署的模式協同推進。
如何在現有網絡法律體系中,給予生成式人工智能相關權益雙方進行權責劃分?張凌寒提出分層治理。在她看來,對于生成式人工智能的規制,應構建“基礎模型—專業模型—服務應用”的分層治理體系,在不同的層次適配不同的規制思路與工具。在基座模型層以發展為導向,將其作為數字社會新型基礎設施設置法律制度;在專業模型層以審慎包容為理念,進行分級分類并設置合理避風港規則;在服務應用層實施敏捷治理,建立合理容錯制度。
責任編輯:王超
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。