<listing id="lnlbz"></listing>

      <address id="lnlbz"></address>
      <form id="lnlbz"><th id="lnlbz"><listing id="lnlbz"></listing></th></form>

          <form id="lnlbz"></form>

          <progress id="lnlbz"><nobr id="lnlbz"></nobr></progress>

          <address id="lnlbz"><sub id="lnlbz"><menuitem id="lnlbz"></menuitem></sub></address><listing id="lnlbz"><font id="lnlbz"><cite id="lnlbz"></cite></font></listing><thead id="lnlbz"></thead><rp id="lnlbz"></rp>

          1. 移動端
            訪問手機端
            官微
            訪問官微

            搜索
            取消
            溫馨提示:
            敬愛的用戶,您的瀏覽器版本過低,會導致頁面瀏覽異常,建議您升級瀏覽器版本或更換其他瀏覽器打開。

            生成式AI發展與監管白皮書②:知產侵權、算法黑箱何解?

            王俊 鄭雪 來源:21世紀經濟報道 2023-07-28 08:58:01 生成式AI 金融AI
            王俊 鄭雪     來源:21世紀經濟報道     2023-07-28 08:58:01

            核心提示人工智能能否如同最初所設想走在正確道路之上、助力人類發展,同樣面臨來自現實的挑戰和考驗。

            記者 王俊 鄭雪 南方財經全媒體記者馮戀閣 北京報道

            編者按:自1956年“人工智能”的概念首次被提出已過60余年,此間,人工智能從虛化的代碼逐漸轉化成實踐應用,催生出一批批商業故事。不過,人工智能規?;逃貌⒎翘雇?,概念的火熱一直以來未能助推技術突破與商業應用。

            時間來到2022年,生成式AI發展為人工智能發展再注入一針強心劑。ChatGPT橫空出世,被視為通用人工智能的起點和強人工智能的拐點,引發新一輪人工智能革命。人工智能發展似乎找到了自己的主流敘事。

            不過,技術創新的同時也帶來了監管難題。如何平衡發展與安全,中國正在摸索自己的AI治理路徑。南財合規科技研究院與觀韜中茂律師事務所推出《中國AI治理的獨立思考——生成式人工智能發展與監管白皮書》,通過分析生成式AI的發展現狀、政策導向、實操中面臨的風險,以及各國的監管路徑,以期為未來的AI治理提供有益思路。

            海量數據、龐大算力、巧妙算法,是生成式人工智能發展的三個核心要素。在“海量數據”這一暴力美學催生下,生成式人工智能突破了某種桎梏,變得無所不知,可以就任何問題侃侃而談。

            正如海面上的冰山,只是我們所能看見冰山的一部分,巨大的風險和未知隱藏在冰山之下。

            海量數據作為燃料催動大模型,但因大模型廠商數據來源的不合規,現實生活中面臨來自知識產權保護創意和創新的反擊,不少企業面臨侵權訴訟提告。

            而作為人工智能“發動機”的算法,驅動人工智能繼續發展,但考慮算法本身透明度和可知性的有限,人工智能能否如同最初所設想走在正確道路之上、助力人類發展,同樣面臨來自現實的挑戰和考驗。

            海量數據:或侵犯知識產權及商業秘密

            大模型面臨的數據侵權風險,是其發展過程中的先天不足??梢钥吹降氖?,當前中國,數據已經成為生產要素之一在發揮著自己作用。但同時,數據權利歸屬復雜,相關產業鏈多方主體間利益糾葛、應用場景的復雜多樣,都給數據發展和利用蒙上了一層不確定性的面紗。

            大模型亦無法解決因不確定性帶來的知識產權法律挑戰。如近日,一批匿名人士向OpenAI,以及其投資方之一的微軟公司發起集體訴訟。因OpenAI 秘密從互聯網上竊取了 3000 億個單詞,竊聽了“書籍、文章、網站和帖子——包括未經同意獲得的個人信息”。這并不是OpenAI第一次陷入數據安全、個人信息泄露相關的指控,同樣也不會是最后一次。

            具體來看,生成式人工智能的知識產權法律風險主要來自于著作權侵權、侵犯商業秘密等。

            著作權侵權方面,基于大模型對語料豐富度的較高需求,無論是模型輸入端,還是模型輸出端,均存在較大的侵犯著作權的可能性與風險。

            在輸入端,大模型在構建過程中需要“學習”大量文本語料,而在獲取文本語料時,可能會因未征得權利人許可復制、改變或者傳播而涉嫌侵犯他人著作權。例如,某全球知名圖片提供商起訴了某AI繪畫工具的開發者,稱其未經許可從自己的網站上竊取了數百萬張圖片。需要注意的是,將生成式AI模型應用于商業用途本身已經明顯超出知識產權法律中界定的“合理使用”的范疇。

            在輸出端,判斷著作權侵權的第一步是看生成內容能否被判定為著作權法中所定義的“作品”。根據以往判例,法院在對“作品”進行判斷時,曾認定“作品的創作主體應限定為自然人”;同時,是否滿足“獨創性”也是判定是否構成作品的標準。

            不過,就算生成內容無法達到作品的標準,與原作品構成實質性近似,仍可能構成知識產權侵權。此外,大模型訓練的文本語料數量越是匱乏,生成內容的知識產權侵權風險就會越高。生成內容還將受到使用者提問方式的影響,如使用者的提示詞極為限縮、精準,也將增大生成內容侵犯他人知識產權的風險。

            商業秘密侵權方面,訓練數據是修煉大模型的“原材料”,在大模型的靜態與動態訓練的過程中,可能會出現使用來源不明或者非法的數據信息的情況,如果前述信息中包含商業秘密,那么依據競爭法下的相關規定,將構成對他人商業秘密的侵害。

            同時,隨著大模型影響力的擴大,企業可能會將其納入辦公系統以提升工作效率。而企業員工在訓練和使用模型的過程中,如不慎輸入企業的商業秘密,不僅可能造成公司商業秘密的直接泄露, 甚至可能被模型存儲于數據庫中作為訓練數據, 如遭受黑客攻擊, 公司將進一步蒙受損失。

            從企業防止商業秘密外泄的角度,如何約束員工在利用大模型提高工作效率的同時,又能避免對企業商業秘密的侵犯,也將成為相關法律合規部門需要思考的問題。

            技術底座:或存不正當競爭和壟斷風險

            生成式人工智能的未來,不只是對話和溝通,甚至會成為新的基礎設施,賦能行業和產業的發展。以目前趨勢,大模型將成為上層應用的技術底座,會支撐智能終端、系統、平臺等產品應用落地。

            競爭角度來看,生成式人工智能或將面臨不正當競爭和反壟斷風險。

            不正當競爭方面,大模型在協助編程、廣告設計、文學創作等領域表現優異。用戶在使用大模型生成廣告文案時,其生成內容可能與他人廣告文案、知名商品名稱、知名企業名稱等存在相似??紤]到這類文案、名稱等通常篇幅簡短,較難被視作著作權法上的“作品”,此時,如果用戶直接將生成內容進行商業使用,可能構成競爭法下中的“混淆行為”。

            此外,由于多數企業將公開爬取作為獲取數據的渠道之一,如果使用非法爬取的數據進行生成式AI模型訓練,形成的數據產品若達到足以實質性替代其他經營者提供的相關產品或者服務的程度,其仍可能構成不正當競爭。

            同時,雖然互聯網上存在大量可以自由訪問的信息, 但如果從具有禁止第三方爬取數據條款的網站收集海量數據, 該等數據很有可能被認定為競爭性財產權益, 因此如何避免對該等數據的收集違反競爭法的相關規定,也將成為相關開發者和服務提供者所要面臨的一大挑戰。

            另一方面,大模型也可能引發競爭法下反壟斷相關風險。

            一是基于技術的高尖性,由于目前生成式AI技術主要掌握在全球大型科技公司手中,如何防止生成式AI技術的研發與應用成為大公司新型的壟斷手段?就該問題,歐美地區也正在籌劃制定專門針對生成式AI的反壟斷法。

            二是部分企業之間試圖通過人工智能達成“壟斷協議”,也即價格算法合謀,例如,某公司通過某生成式人工智能模型對消費者數據進行消費習慣分析,從而對消費者采取有針對性的算法壟斷定價。如何防止這種新型壟斷現象對消費者權益可能帶來的損害,也將成為需要思考的問題。

            算法驅動:算法黑箱、信息失真何解?

            算法,一組解決問題的步驟和規則,可以用來執行特定的計算或操作。通常用于設計和實現計算機程序,以解決各種問題。其作為人工智能“發動機”而存在。

            需要注意的是,因“算法黑箱”而導致的人工智能系統的不透明與不可解釋一直是人工智能信任與問責的一大困擾。

            實踐過程中,算法具有不可解釋和不可知的黑箱特性,或將導致結果不可預知,造成決策風險。算法或將帶來歧視,影響效率和公平。而其中最嚴重的,因算法所引起的信息失真風險或將成為貫穿人工智能發展史的最重要問題。

            算法黑箱。由于大模型的算法內部機制和決策過程不可解釋或難以理解,會導致算法的輸出結果存在無法解釋的“黑洞”。全球最大的生成式AI模型ChatGPT也因至今未曾公布算法規則而飽受詬病。

            算法的輸出結果不僅僅取決于輸入數據,還會受到算法自身的運行過程、模型參數、超參數等多方面因素的影響。這種風險可能會導致企業難以理解模型的決策過程和預測結果,從而難以評估模型的可靠性和穩定性。另一方面,企業也難以響應用戶關于解釋算法結論的要求。

            例如,某企業在使用生成式AI模型生成推薦內容時,發現該模型頻繁生成與特定人群利益相關的內容,但無法確定這種情況是因為算法本身存在偏見還是數據集本身就存在偏見,此時企業可能難以發現問題的根源和解決方案。

            算法歧視。大模型算法在應用、決策或預測時,如其本身的算法規則對某些特定的個體或群體存在偏見,將會導致企業的商業決策不公正,進而影響用戶對其的信任和企業商譽與形象。對用戶而言,其將遭受歧視和不公正的待遇。

            例如,某企業使用生成式AI模型為客戶提供智能客服服務,但由于該模型算法規則本身存在種族、性別等方面的偏見,導致部分群體的問題無法得到利于其立場或身份的解答,進而影響客戶對該企業的認知與評價。

            算法決策風險。在使用大模型進行決策時,由于模型的不確定性或數據量欠缺等原因,可能會導致錯誤的決策或不良后果。同時,由于算法決策形態本身的多元性,算法決策機制的隱蔽性,以及算法決策主體的模糊性,都有可能給算法決策帶來風險。

            例如,某醫療保險公司使用生成式AI模型來決定是否批準某個人的理賠申請。如果該模型的算法規則中沒有納入部分潛在的判定因素,例如此人的醫療病史、病情危重程度等,就可能會錯誤地拒絕該人的申請。這種錯誤決策可能會導致患者的疾病無法得到及時治療,甚至危及生命,給公司和患者帶來不良后果。

            信息失真風險。信息失真風險并非算法的固有風險。當算法所處理的數據本身存在錯誤時,算法的處理結果就會出現信息失真;此外,如果企業或者用戶出于某種目的故意規避對算法和數據的監管,也有概率導致訓練出的模型生成違法、欺詐、誹謗、侵犯隱私等類型的內容。這種風險可能導致用戶通過算法模型得到錯誤的結論,產生負面影響;企業可能因為錯誤的或違法的內容受到監管機構處罰,影響企業聲譽和業務發展。

            特別是對于擬自行部署生成式AI模型的開發者而言,如模型算法本身的語言推理能力有限,造成信息失真甚至“臆想”現象將愈發嚴重。

            例如,某用戶在使用某企業提供的生成式AI模型時,由于數據有誤,導致其在商業決策中決策失誤,并由此虧損,其認為該企業提供的模型應當承擔相應責任。

            大模型研發者、使用者應在算法設計、實現、應用等環節,不斷提升透明性、可解釋性、可靠性,逐步實現可審核、可監督、可追溯、可預測、可信賴;研發主體加強對數據采集和算法開發倫理審查,充分考慮差異化訴求,避免可能存在的數據采集與算法偏見,努力實現人工智能系統的普惠性、公平性和非歧視性。

            白皮書出品團隊:南財合規科技研究院X觀韜中茂律師事務所

            白皮書撰寫者:王俊 馮戀閣 鄭雪 王渝偉 楊欣如 周丹 錢雨晴 溫泳珊 林婉娜 羅洛

            (陸釔潼 王敏 朱敏婕 對白皮書撰寫亦有貢獻)

            責任編輯:王超

            免責聲明:

            中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。

            為你推薦

            猜你喜歡

            收藏成功

            確定
            1024你懂的国产日韩欧美_亚洲欧美色一区二区三区_久久五月丁香合缴情网_99爱之精品网站

            <listing id="lnlbz"></listing>

                <address id="lnlbz"></address>
                <form id="lnlbz"><th id="lnlbz"><listing id="lnlbz"></listing></th></form>

                    <form id="lnlbz"></form>

                    <progress id="lnlbz"><nobr id="lnlbz"></nobr></progress>

                    <address id="lnlbz"><sub id="lnlbz"><menuitem id="lnlbz"></menuitem></sub></address><listing id="lnlbz"><font id="lnlbz"><cite id="lnlbz"></cite></font></listing><thead id="lnlbz"></thead><rp id="lnlbz"></rp>