昨天一個新聞上熱搜了,內容是 “ AI 詐騙 ” 。
這個熱搜的詞條,其實是有些夸大的,但里面實際發生的事兒,也的確離譜。
事情發生在福州,一位科技公司的老板,老郭,某天突然接到了個好友的微信視頻,說是自己的朋友在外地競標,需要 430 萬的保證金,想走他的公司賬戶過個賬。
老郭想著也不是啥大事兒,于是在確認視頻通話里的人和聲音都是他朋友之后,就同意了。
隨后,對方就給老郭發了一張銀行卡轉賬成功的截圖,說是錢已經轉到老郭的戶頭上了。
由于老郭之前已經確認了朋友的身份,在沒確認錢到帳與否的情況下,也沒有多想,直接就把 430 萬轉到了好友給的銀行卡上。
整個過程不過短短十分鐘。。。
轉賬完成之后,當老郭再次和好友打電話核實時,這才驚呼,剛才的一切,居然都是詐騙人員使用各種技術手段偽造的!
不僅好友視頻的人像是 AI 生成的,就連好友的音頻都是通過 AI 技術模擬的,好在警方跟銀行通力合作,截停了錢在銀行的走向,幫老郭止損了大部分損失。
你還別不信,現在的 AI 擬人和擬聲都非常簡單了,世超自己都能煉一個簡單的出來。
還記得之前咱們使用 AI 擬聲工具和 AI 視頻工具模擬的數字人蛋蛋嗎?
這個數字人視頻只使用了一張照片做素材,其中的動作和聲音都是使用 AI 生成的。
整個視頻制作訓練花了不過數小時,而音頻在訓練完模型后推理的時間不超過五分鐘。。。
可以說,在現在這個時代,不但是語音消息不保真了,這以后連視頻通話見到真人都不能信了。
警方沒有公布太多的細節,估計是太細了容易被別的騙子當教材學過去,但根據僅有的細節,我們能分析出幾點:
①詐騙團伙在給郭先生打視頻電話時,使用的就是他好友的微信號,把他朋友的微信號盜了; ②騙子掌握了比較多的郭先生朋友的圖片、音視頻信息,用來訓練模型; ③騙子擁有實時渲染數字人的技術,因為警方新聞中提到了郭先生和他朋友打的是微信視頻; ④騙子應該對郭先生及其朋友的過往對話風格有比較深入的了解,知道怎么跟郭先生溝通( 微信是僅能云同步很有限的聊天記錄的 )。 以上所有的條件,無論哪一個,具體到實施上,都是很有難度的操作。
但,它卻就這么真實的發生了。
這個案子,還真的沒那么簡單。
首先是百思不得其解的微信登錄問題。對于這點,各位大佬們都覺得這個其實不難,主要有兩個方法能夠做到。
一種方式是微信二維碼釣魚,另一種則是獲取Session ( 可以簡單理解成是 cookie ,能保持登錄狀態 )。
微信二維碼釣魚這個不難理解,就是利用釣魚網站或者鏈接,讓受害者的朋友通過微信掃碼登錄電腦微信,這樣詐騙人就可以用自己的設備使用他朋友的微信了。( 不過其中一位老哥指出,微信異地掃碼登錄會觸發風控 )
第二種獲取 Session ,只要受害者朋友的電腦上設置了微信自動登錄,那只要獲取相應的 Session ,理論上就能在詐騙人的電腦上登錄受害者朋友的微信了。
不過出于安全考慮,咋獲取這個 Session ,這位業內人士沒細說。
對了,還有另外一種簡單粗暴的方式,就是被盜號的人自己電腦是登錄微信的,電腦處于開機狀態,但是被騙子用木馬遠控了。
登錄微信之后,接下來的操作才是重頭戲。
詐騙人應該 “ 蹲點 ” 了很久,知道被盜號者微信上誰有錢誰沒錢,跟誰關系好,事先挑好了下手對象。同時,騙子還對他的生活習慣非常了解,這樣才能趁對方不注意登上他的微信,進行視頻通話詐騙。
而想要在微信視頻的同時 AI 換臉和變聲,詐騙人員還得將攝像頭和麥克風的數據,替換成 AI 換過臉和變過聲的數據流。
至于訓練素材,極有可能是通過被盜號者自己的朋友圈或者與別人的聊天記錄獲取。
最后,結合所有獲取的信息,訓練好素材,編造一個劇本來對受害者實施詐騙。
也就是說,這群詐騙人員,不僅有技術,耐心也不差。 像這種詐騙,別說是家里的老人分辨不出來了,就算是神仙來了,都能給你晃迷糊。
不過朋友們還是給了大家一個安慰:像這次的詐騙事件,理論上技術可行,但終究還是一個小概率事件。
畢竟在這次的案件里,個人微信被盜用是更主要的原因,而這也是詐騙過程中需要花費最多功夫的步驟。假如沒有這一步,受騙人必然會更加警惕,整個詐騙環節的漏洞也會更多。
想要讓騙子花那么多精力來騙你,前提條件是你值得。。。
但是,高策劃詐騙難度高,并不代表著低策劃詐騙就騙不到人了。
使用 AI 詐騙的案件現在其實已經屢見不鮮了。
看看之前那個數字蛋蛋的制作過程就知道, AI 對于那些實施語音電信詐騙的人員來說,簡直不要太高效。
而且類似的詐騙案件在國內國外也已經層出不窮了。
之前就有一個國外的詐騙公司,使用 AI 模擬了 “ 卷福 ” 的音頻,打電話給一家新西班牙的小電影公司,稱想要和對方合作,并要求對方先打款 20 萬英鎊才能見面。
結果在電影公司付完錢之后,他們才發現這次事件,完完全全就是一場 AI 騙局。。。
這件事情讓我們非常擔心那些跟不上高速發展的科技的長輩們,他們可能很難相信正在跟自己視頻通話的兒女是假的,騙子找他們要錢可能會輕松得手。。。
在音視頻都不可信的情況下,以后或許要給父母一個密保問題了。可以告訴父母,萬一微信自己找他們要錢,讓他們問一些只有你們自己才知道的細節,比如:
“ 兒子,你小時候我經常用衣架打你還是拖鞋打你? ”
這個問題最好也有陷阱,正確回答應該是 “ 你用掃把打我 ” 。
除了多提高防范意識、多給長輩們科普最新騙術,世超還是要啰嗦一下各位差友,咱們在對個人信息的敏感度上,還是得多上一點心。 隨著技術,特別是 AI 技術的爆發,個人信息泄露的危害已經開始顯而易見地越來越大。大伙再這么躺,就純純是對騙子們的不尊重了。
到那時候,你泄露的個人的信息,指不定轉頭就把身邊的人騙了,這該上哪說理去? |