<listing id="lnlbz"></listing>

      <address id="lnlbz"></address>
      <form id="lnlbz"><th id="lnlbz"><listing id="lnlbz"></listing></th></form>

          <form id="lnlbz"></form>

          <progress id="lnlbz"><nobr id="lnlbz"></nobr></progress>

          <address id="lnlbz"><sub id="lnlbz"><menuitem id="lnlbz"></menuitem></sub></address><listing id="lnlbz"><font id="lnlbz"><cite id="lnlbz"></cite></font></listing><thead id="lnlbz"></thead><rp id="lnlbz"></rp>

          1. 移動端
            訪問手機端
            官微
            訪問官微

            搜索
            取消
            溫馨提示:
            敬愛的用戶,您的瀏覽器版本過低,會導致頁面瀏覽異常,建議您升級瀏覽器版本或更換其他瀏覽器打開。

            AI契約論①:駛入新航海時代 人機規則來到變革前夜

            王俊 胡暄悅 來源:21世紀經濟報道 2023-05-25 15:38:53 AI 人工智能 金融AI
            王俊 胡暄悅     來源:21世紀經濟報道     2023-05-25 15:38:53

            核心提示AI幕布之下,公眾、學界、業界、監管理應加入討論,把握新的社會契約時刻。

            即使在信息更迭速度如此迅速的時代,也沒辦法忽略ChatGPT給全世界帶來的沖擊。這種沖擊,總讓人忍不住聯想起改變歷史進程的重要時刻。

            2022年11月30日,ChatGPT面世,5天時間便擁有百萬用戶,到2023年1月活躍用戶過億。

            ChatGPT的出現,已有太多的定義與標簽:人工智能(AI)的iPhone時刻、AI的奇點時刻,AI向2.0階段認知智能躍遷……

            把時針撥回到1492年10月12日,哥倫布的船隊跨越大西洋,發現了美洲新大陸。

            自此,海洋與陸地秩序重塑,七大洲、四大洋鏈接,歐洲崛起,全球貿易肇始,大航海時代到來。

            如果說大航海帶來了現代歷史的前夜,那這場由ChatGPT刮起的AI風暴,是否也將人類帶到了新一輪歷史變革的節點?

            在過去的幾個月里,各大公司搶灘大模型、GPT商用化探索、算力基礎設施看漲……如同15世紀開啟的大航海時代,人類交往、貿易、財富有了爆炸性增長,空間革命席卷全球。

            但是,大航海伴隨著鮮血與苦難,海洋霸主多輪更替、槍炮與病菌全球傳播、海陸秩序持續對抗。直到100多年后,格勞秀斯以《戰爭與和平法》、《海洋自由論》輸出海洋自由論,“自由的海洋,穩固的陸地”新世界秩序的法權規則體系確立。

            時間來到當下,ChatGPT面世以來,數據泄露、個人隱私風險、著作權侵權、虛假信息等一直引起爭議。此外,AI帶來的后人類主義危機已然擺在桌面,面對“硅基生物”超速迭代,人類社會的權力結構是否也將重塑,人們該以何種姿態迎接人機混雜帶來的迷思?

            面對超萬億參數的GPT大模型,搭載數萬塊A100與H100 GPU的超級計算機硬件,數億的用戶數目,指數爆炸速度發展的AI科技,人類似乎沒辦法等待100年的周期再確立規則體系。于是,尋求AI治理的共識、重塑新秩序成了各國共同面對的課題。

            奇點時刻

            兩個月時間,ChatGPT的月活躍用戶已達1億,成為歷史上增長最快的消費者應用。要知道,Instagram在全球推出兩年后才達到1億用戶,Facebook則用了兩年半的時間。 

            現象級的應用必然帶來新一輪商業迭代。

            ChatGPT“出圈”的表層是改變了以往人機交互方式,給內容行業帶來深層次改變,它可以根據你的提問進行互動,并且能聯系上下文持續溝通,還可以寫詩、寫郵件、寫代碼。

            深層來看,ChatGPT帶來的更是范式變革。

            ChatGPT是基于Open AI在GPT預訓練語言大模型迭代生成的程序,背后為AI大模型。2018年初代GPT-1模型參數為1.17億,GPT-2、GPT-3模型參數分別為15億、1750億,2023年3月最新發布的GPT-4參數數量是GPT-3的16倍,達到1.6萬億規模。而人腦擁有的神經元數目為860億個。

            “大力出奇跡”。大模型有隨著訓練時間、參數量和訓練數據規模的增加,某些能力會“突然”出現拐點,性能肉眼可見地驟然提升,即出現“涌現”效應。涌現的能力包括多步算術、詞義消歧、邏輯推導、概念組合、上下文理解等,可以將人工智能從原來的感知提升至理解、推理,甚至近似人類“無中生有”的原創能力。

            作為“大數據+大算力+強算法”的結合物,經過大規模數據訓練之后,大模型無需微調或僅需少量數據的微調就能適應千變萬化的場景,模型泛用能力顯著增強。

            因此,大模型可以通過在海量、多類型的場景數據中學習,總結不同場景、不同業務下的通用能力,擺脫小模型場景碎片化、難以復用的局限性,為大規模落地人工智能應用提供可能。

            這似乎使得過去兩年持續探討的互聯網經濟第二曲線瞬間失去價值,隨著深度學習模型不斷完善、開源模式推進、大模型探索商業化的可能,不少業內人士認為,AIGC有望加速發展,互聯網奇點正逐漸臨近。

            奇績創壇創始人兼CEO陸奇認為,任何改變社會、改變產業的,永遠是結構性改變。這個結構性改變往往是一類大型成本,從邊際成本變成固定成本。

            在他看來,模型的成本開始從邊際走向固定,大模型是技術核心、產業化基礎。

            ① 它封裝了世界上所有知識。

            ② 它有足夠強的學習和推理能力,GPT-3能力在高中生和大學生之間,GPT-4不光是進斯坦福,而且是斯坦福排名很靠前的人。

            ③ 它的領域足夠寬,知識足夠深,又足夠好用。自然語言最大的突破是好用。擴展性也足夠好。

            “加在一起,范式的臨界點到了。拐點已經到來?!?/p>

            疾馳中剎車

            商業的狂歡并不相通,拐點時刻踩下剎車。具有顛覆性的新事物,帶來的可能性未知。

            3月底,在ChatGPT熱潮中,美國億萬富翁埃隆·馬斯克和人工智能領域頂尖專家、圖靈獎得主約書亞·本吉奧等人聯名簽署了一封公開信,呼吁暫停開發比GPT-4更強大的AI系統至少6個月,稱其“對社會和人類構成潛在風險”。

            信中連續拋出四個疑問:我們是否應該讓機器用宣傳和謊言淹沒我們的信息渠道?我們是否應該讓所有的工作自動化,包括那些令人滿意的工作?我們是否應該發展最終可能在數量上超過我們、在智能上超越我們、能夠淘汰并取代我們的非人類思維?我們應該冒著失去對我們文明控制的風險嗎?

            公開信還呼吁開發人員和政策制定者合作,大幅加快強大的AI治理系統的開發。這其中至少應當涉及監管機構、審計和認證系統、監督和追蹤高性能AI系統、人工智能造成傷害后的責任問題、為AI技術安全研究提供公共資金等方面。

            盡管有聲音質疑已經離開OpenAI董事會的馬斯克呼吁“暫?!笔窍胙泳廜penAI研發GPT系列大語言模型的節奏,但對于ChatGPT引發的人工智能憂云,確實懸浮在各國各地區的監管機構上空。

            南財合規科技研究院從業界了解到,目前針對ChatGPT為代表的生成式AI監管難題集中在訓練模型數據合規、虛假信息治理、“提供者”責任分配等方面。

            上述提到,大語言模型是算力與數據加持下的“暴力美學”,不斷給模型“喂料”、加參數,語料庫大量的互聯網數據,存在高度的數據合規風險。歐盟數字權利活動人士表示,公眾經常在不知不覺中被大規模監控系統進行實驗,或在未經同意的情況下被收集數據來訓練人工智能。對于龐大的語料庫,提供者、開發者、使用者該如何做好合規工作?

            此外,據學者解釋,大語言模型本質是一個猜詞模型,是基于對訓練語料庫的概率性預測,在給定輸入序列的情況下選擇最有可能出現在訓練數據中的詞,因此,大語言模型缺乏對對錯的認知。大型語言模型是自回歸的,即使當它們做出我們可能認為糟糕的猜測時,這些猜測的詞匯仍會被添加到它們自己的輸入中以猜測下一個詞。

            根據OpenAI在2023年3月發表的論文《GPT-4 System Card》,GPT-4具有“幻覺”傾向,即“在某些來源中產生無意義或不真實的內容?!彪S著模型變得越來越令人信服和可信,這種傾向可能會特別有害,導致用戶過度依賴它們。

            面對這些“硬傷”,如何匹配相應的主體責任?這成為監管治理的關鍵。

            在生成式AI發展進程中,產業結構已經發生變化,傳統以信息為介質開展商業化的平臺企業并不一定仍是軸心,產業鏈條可能演變為大模型開發者、部署者、應用終端。監管思路又該如何轉變應對?

            歐盟委員會《人工智能法案》提案的談判授權草案將風險加以區分,圍繞四類人工智能系統構建,分為:不可接受的風險、高風險、有限風險以及最低風險。其中前三類將受到法案的監管。

            《人工智能法案》草案還細化了主體責任分配,對訓練集數據來源的合法性、對基礎模型提供者義務以及投入市場應用后的檢測進行監管。對于ChatGPT等生成式人工智能,開發者還必須保證用于模型訓練中的數據不違反著作權法,談并為“高風險”應用建立風險管理系統。同時,每個歐盟成員國都將設立一個監督機構,確保這些規則得到遵守。 

            2023年4月,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》并征求意見,想要完善中國人工智能治理體系的框架。目前對中國而言,在大模型開發方面進度條慢了一拍,因此在這項未知的技術面前,以何種姿態進行監管,考驗著政策制定者的智慧。

            往哪兒走

            這幾個月的行業圈,最常聽到的話大概就是:如果抓不住GPT這場新工業革命,就會被“革命”。但我們是否真的做好了迎接這場變革的準備?

            無法預測的涌現性,生成式AI帶來的幻覺,海量數據泄露風險,以及創作、對藝術、對勞動力市場的沖擊……這些近在咫尺的問題,是最先需要應對的。

            往賽博空間一步步走深,所有現實似乎都可以被代碼化,代碼管理模式背后的權力結構,隱秘而深刻。Code is law,但這套規則掌握在誰的手中,個體如何反饋與對抗?

            To be or not to be?它既關乎技術進步、產業發展、國家競爭力,可能也關乎每個人未來的每一天。

            AI幕布之下,公眾、學界、業界、監管理應加入討論,把握新的社會契約時刻。

            借此,南財合規科技研究院將推出AI契約論系列報道,從中外監管模式、主體責任分配、語料庫數據合規、AI倫理、產業發展等維度,進行剖析,以期為AI治理方案提供一些思路,保障負責任的創新。

            責任編輯:王超

            免責聲明:

            中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。

            為你推薦

            猜你喜歡

            收藏成功

            確定
            1024你懂的国产日韩欧美_亚洲欧美色一区二区三区_久久五月丁香合缴情网_99爱之精品网站

            <listing id="lnlbz"></listing>

                <address id="lnlbz"></address>
                <form id="lnlbz"><th id="lnlbz"><listing id="lnlbz"></listing></th></form>

                    <form id="lnlbz"></form>

                    <progress id="lnlbz"><nobr id="lnlbz"></nobr></progress>

                    <address id="lnlbz"><sub id="lnlbz"><menuitem id="lnlbz"></menuitem></sub></address><listing id="lnlbz"><font id="lnlbz"><cite id="lnlbz"></cite></font></listing><thead id="lnlbz"></thead><rp id="lnlbz"></rp>