ChatGPT熱度不減,但人們逐漸開始關注到了安全性的問題。4月10日,中國支付清算協會發布了《關于支付行業從業人員謹慎使用ChatGPT等工具的倡議》(以下簡稱《倡議》)。
《倡議》表示,近期,ChatGPT等工具引起各方廣泛關注,已有部分企業員工使用ChatGPT等工具開展工作。但是,此類智能化工具已暴露出跨境數據泄露等風險。為有效應對風險、保護客戶隱私、維護數據安全,提升支付清算行業的數據安全管理水平,中國支付清算協會向行業發出三條倡議。
具體看:一是提高思想認識,依法依規使用;二是不上傳關鍵敏感信息;會員單位加強內部管理和引導。
《倡議》表示,支付行業從業人員要遵守所在地區的網絡使用規定,正確認識ChatGPT等工具的機遇和風險,全面評估使用ChatGPT等工具處理工作內容的風險,依法合規使用ChatGPT等工具。在使用ChatGPT等工具時,要嚴格遵守國家及行業相關法律法規要求,不上傳國家及金融行業涉密文件及數據、本公司非公開的材料及數據、客戶資料、支付清算基礎設施或系統的核心代碼等。
此外,《倡議》還要求會員單位進一步健全信息安全內控管理制度,開展有針對性的數據風險防控工作,加強宣傳和引導,提升員工的風險防范和數據保護意識,切實維護國家金融及支付清算行業安全。
值得一提的是,ChatGPT是基于巨大的數據集訓練出來的,這意味著它在回答問題可能存在偏見和錯誤;ChatGPT 以及其他類似的模型可能被用于惡劣的,例如傳播虛假信息和濫用個人信息。
虎符智庫研究員李建平告訴21世紀經濟報道記者,如同其他人工智能模型一樣,ChatGPT是把雙刃劍,既可以是提升效率的工具,同時也可能被繞過安全機制,用于實施有害的活動。對于如何規避ChatGPT所帶來的安全問題,他認為,從安全防護的角度來看,ChatGPT的運營機構需采取針對性的應對措施。對ChatGPT等類似模型進行培訓,標記惡意的活動和惡意代碼,避免其向惡意人員提供;同時對ChatGPT設置難以繞過護欄,提升惡意人員利用其生成惡意內容、開展惡意活動的門檻。
責任編輯:王超
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。