近日,話題#AI詐騙正在全國爆發#沖上熱搜,引起廣泛關注!
我們在網上經常能看到用AI換臉技術把A明星的臉,替換到B明星的影視片段上。但是,你能想到嗎?AI換臉除了用來娛樂,也被用瘋狂的用于電信網絡詐騙!
AI換臉電信網絡詐騙真實案例
2023年4月20日中午,福州市某科技公司法定代表人郭先生的好友突然通過微信視頻聯系他,稱自己的朋友在外地競標,需要430萬元保證金,且需要公對公賬戶過賬,想要借郭先生公司的賬戶走賬。好友向郭先生要了銀行卡號,聲稱把錢打到了郭先生的賬戶上,還把銀行轉賬回單的截圖微信發給了他?;趯糜训男湃?,加上已經視頻聊天核實了身份,郭先生沒有核實錢款是否到賬,就分兩筆把430萬元轉到了好朋友的銀行卡上,并給好友發了一條微信消息,說事情已經辦妥。好友懵圈了,什么情況?給郭先生回了一個“?”。郭先生也懵了,趕緊撥打好友電話,聽到對方說沒有這回事,才意識到自己被騙了。騙子通過智能AI換臉和擬聲技術,佯裝好友對他實施了詐騙。
“從頭到尾都沒有和我提借錢的事情,就說會先把錢給我打過來,再讓我給他朋友賬戶轉過去,而且當時是給我打了視頻的,我在視頻中也確認了面孔和聲音,所以才放松了戒備”,郭先生說。
幸運的是,接到郭先生的報警后,警銀迅速啟動止付機制,成功止付攔截336.84萬元,但仍有93.16萬元被轉移,目前正在全力追繳中。
AI詐騙常用手法
第一種:聲音合成
騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。
第二種:AI換臉
人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再通過視頻方式進行信息確認。騙子首先分析公眾發布在網上的各類信息,根據所要實施的騙術,通過AI技術篩選目標人群。在視頻通話中利用AI換臉,騙取信任。
第三種:轉發微信語音
騙子在盜取微信號后,便向其好友“借錢”,為取得對方的信任,他們會轉發之前的語音,進而騙取錢款。盡管微信沒有語音轉發功能,但他們通過提取語音文件或安裝非官方版本(插件),實現語音轉發。
第四種:AI程序篩選受害人
騙子利用AI來分析公眾發布在網上的各類信息,根據所要實施的騙術對人群進行篩選,在短時間內便可生產出定制化的詐騙腳本,從而實施精準詐騙。例如:實施感情詐騙時,可以篩選出經常發布感情類信息的人群;實施金融詐騙時,可以篩選經常搜索投資理財信息的人群。
如何防范AI詐騙
1. 多重驗證,確認身份
如果有人要求你分享個人身份信息,如你的地址、出生日期或名字,要小心。
對突如其來的電話保持警惕,即使是來自你認識的人,因為來電顯示的號碼可能是偽造的。
網絡轉賬前要通過電話等多種溝通渠道核驗對方身份,一旦發現風險,及時報警求助。
如果有人自稱“熟人”、“領導”通過社交軟件、短信以各種理由誘導你匯款,務必通過電話、見面等途徑核實確認,不要未經核實隨意轉賬匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等信息。
2. 保護信息,避免誘惑
不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等。
陌生鏈接不要點,陌生軟件不要下載,陌生好友不要隨便加,防止手機、電腦中病毒,微信、QQ等被盜號。
3. 提高安全防范意識
公檢法沒有安全賬戶,警察不會網上辦案,如果有網絡警察說你犯事了,讓他聯系你當地的派出所,你也可以主動撥打110咨詢。
如果不慎被騙或遇可疑情形,請注意保護證據立即撥打96110報警。
責任編輯:韓希宇
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。