當前,AI繪畫、AI語音合成、ChatGPT等人工智能生成內容(以下簡稱“AIGC”) 因極高的擬真度快速獲得了市場的青睞。不過在為生產帶來便利的同時,AIGC也正淪為不法分子侵害網絡安全和民眾權益的工具。
在9月11日舉行的2023年國家網絡安全宣傳周上海地區高峰論壇活動現場,多位網絡安全的業內人士就AIGC的發展和安全治理話題發表了各自見解。
AIGC是“雙刃劍”
在享受AIGC為生產和生活帶來便利的同時,不少人發現由于不法分子的介入,人工智能的“科技樹”開始長歪。8月10日,公安部在北京召開新聞發布會,通報全國公安機關打擊整治侵犯公民個人信息違法犯罪行為的舉措成效。針對“AI換臉”導致群眾被欺詐的問題,公安機關發起專項會戰,截至目前,已偵破相關案件79起,抓獲犯罪嫌疑人515名。
對此,上海觀安信息技術股份有限公司聯合創始人胡紹勇認為,當前,以大模型為代表的人工智能以及其生成的AIGC一方面本身存在著很多的敏感數據和違規應用的可能性,但同時這些技術和內容也能夠在一定程度上幫助提升網絡安全和數據安全。
胡紹勇指出,對于傳統的通用大模型,人們可以建立行業領域的小模型,在數據安全領域可以通過各種數據標簽、數據類型、日志等,形成數據安全的助手。
“數據安全治理過程中,數據安全運營是非常重要的,數據安全專家或者安全助手這一類是我們現在正在落地和實踐的方向。另外可以利用大模型對數據資產的識別進行進一步提升,很多安全企業在這方面已經做了一些嘗試,比如在做傳統網安態勢以及日志解析的時候,可以將一段日志輸入大模型,讓其做解析?!彼f。
此外,據胡紹勇介紹,由于大模型生成的內容本身和傳統的結構化、非結構化的數據完全不一樣,有很多是通過向量化的,而且沒有具體的特征,因此對于像AIGC或者文聲圖的內容,人們可以采用人工智能的方式檢測這個內容究竟來自于人還是機器。
就目前而言,AIGC的應用還存在諸多合規性的挑戰。中國信通院華東分院院長廖運發強調,AIGC在基礎設施和數據安全跟傳統的一些軟件、系統安全類似,但是算法安全以及應用安全是跟AIGC特點緊密相關的,尤其像算法設計、算法黑箱,應用安全包括外部攻擊、深度偽造等等,這些都是AIGC大模型安全需要注意的。
為AIGC設立“數字安全”空間
今年早先時候,國內市場迎來了一波大模型的爆發,“百模大戰”已拉開序幕。據統計,今年7月份全國已經有130個大模型發布,8月底網信辦也公布了大模型的備案,現在國內有8個企業,包括上海的人工智能實驗室、百度、商湯科技、Minimax都通過了備案,正式向公眾提供服務。
2022年全球人工智能產業市場達到了3619億美元的規模,增長速度約為20%。而國內方面2022年人工智能產業規模已經達到5080億人民幣,平均增長速度也將近達到20%。中國信通院預計,到2030年,中國人工智能產業會達到1萬億人民幣的規模。
對此,不少業內人士倡導為AIGC大模型建構一個“數字安全”空間。所謂“數字安全”包含了網絡安全、數據安全、相關的基礎設施安全以及應用安全。數字安全是一個包容萬象的更廣闊的概念,特別是對于AIGC大模型來說,建立數字安全的空間對整個AIGC大模型發展是至關重要的。
廖運發強調,對于AIGC來說,“發展”與“安全”是兩個重要的命題。從技術上要加快AI技術進一步的研發,特別是可信人工智能的邏輯可控等等。從產業維度上,需要加快可信人工智能的落地,形成共識。從生態維度,我們要加快標準的研究、制定,以及從監管的維度如何推動底線政策的監管??傮w來看,這些監管都不是抑制AIGC大模型的產業發展,而是要統籌發展與安全。
另外,廖運發建議,從企業管理上來看,當前多數大模型的開發企業以及使用的企業,都應要求對大模型從技術上、內容上,進行深度的審核、管理、治理。另外,從技術上應要求監測人工智能算法是否有缺陷、內容是否符合要求,包括法律法規要求以及政策監管,包括涉及到一些政策支持、版權歸屬等等。
責任編輯:韓希宇
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。