作 者丨耿康祁
(資料圖片)
“人工智能之父”杰弗里·欣頓做了個(gè)末日預言:
人工智能可能對人類(lèi)構成巨大威脅,因為“很難找到防止壞人用它做壞事的方法”。
不幸的是,掌握人工智能的壞人,越來(lái)越多了。
01.高端局來(lái)了
4月20日11時(shí)40分左右,福州市某科技公司法人代表郭先生,遭遇了一場(chǎng)高端騙局。
一位好友,突然打了個(gè)微信視頻:
“老郭,我一個(gè)朋友在外地競標,需要430萬(wàn)保證金。你看看能不能先走你的公司賬戶(hù),幫忙過(guò)個(gè)賬?”
好友說(shuō)錢(qián)已打過(guò)來(lái),還發(fā)了銀行轉賬底單截圖。因為是視頻聊天,郭先生就沒(méi)核實(shí)錢(qián)是否到賬,直接給對方賬戶(hù)轉了430萬(wàn)。
事后,郭先生給好友打了電話(huà),稱(chēng)“事情辦妥了”,對方卻十分驚訝,回應完全沒(méi)有這回事。
9分鐘,430萬(wàn)沒(méi)了!坑了郭先生的,是一起典型的AI詐騙。
這個(gè)騙局分三步:
1,不法分子用AI機器人騷擾電話(huà),獲取目標的聲音素材,然后進(jìn)行聲音偽造;
2,盜取目標的社交賬號,尋找受害人;
3,用AI換臉技術(shù),和受害人視頻通話(huà),博取信任,實(shí)施詐騙。
這個(gè)詐騙手段環(huán)環(huán)相扣、用時(shí)短、難防范。它標志著(zhù)詐騙犯罪的升級,進(jìn)入了AI智能化、定制化的時(shí)代。
傳統互聯(lián)網(wǎng)“發(fā)個(gè)語(yǔ)音”、“打個(gè)視頻”的防詐手段,在A(yíng)I詐騙面前基本失效。更可怕的是,掌握AI詐騙的騙子,越來(lái)越多了!
公開(kāi)信息顯示,自2021年以來(lái)多個(gè)省份都出現了AI詐騙及不當牟利案件。中國互聯(lián)網(wǎng)協(xié)會(huì ) 5月24日稱(chēng),利用“AI換臉”“AI換聲”等進(jìn)行詐騙、誹謗的違法行為屢見(jiàn)不鮮。
AI詐騙不只盯著(zhù)數百萬(wàn)的“肥肉”,幾千元的“蒼蠅肉”也來(lái)者不拒。假扮大學(xué)同學(xué)、親戚、供貨商等視頻借錢(qián)案件,層出不窮。
如果覺(jué)得從不借錢(qián)便不會(huì )中招,就太天真了。
當騙子偽裝成領(lǐng)導,以匯款、資金周轉等緊急理由,要求下屬立即轉賬,很少有人能頂住壓力。更有甚者,騙子直接偽造子女、父母車(chē)禍入院等借口,利用親人感情實(shí)施欺詐。
2006年,搞了20多年的中國臺灣詐騙集團,把目光投向互聯(lián)網(wǎng)普及不久的大陸。他們在東南亞等國家建立詐騙基地,招募員工進(jìn)行人設、話(huà)術(shù)包裝的統一培訓。
最終,誘導戀愛(ài)或裸聊的“殺豬盤(pán)”、非法買(mǎi)彩票、網(wǎng)上賭場(chǎng)、借貸騙局等發(fā)明,開(kāi)始橫掃內地。
電信詐騙,由此成了懸在14億人頭頂的一把利刃。甚至有人戲稱(chēng),從未接到過(guò)詐騙電話(huà)的,都有可以去買(mǎi)彩票的運氣。
不過(guò),大部分人仍對電信詐騙,沒(méi)太大概念。傳統認知里,其受騙對象多是經(jīng)不起誘惑、社會(huì )經(jīng)驗少的“冤大頭”,以及一些不常上網(wǎng)的老年人。
比如上世紀80年代最知名的尼日利亞王子來(lái)信,以及最近令人笑掉大牙的“上門(mén)槍斃”通知短信。這些夸張劇本,似乎只為篩選那些“缺乏基本辨識能力”的群體。
但正如微博大V@全民防詐騙所說(shuō):“你目前還沒(méi)被騙,并不是因為你多聰明,也不是因為你沒(méi)錢(qián),而是適合你的‘劇本‘還在路上?!?/p>
只要給幾張照片和幾秒語(yǔ)音,就能復刻出“假人”的AI詐騙,以細思極恐的手段,讓每個(gè)人都可能難逃一劫。
據湖北網(wǎng)警巡查執法公布消息,AI技術(shù)新騙局詐騙成功率竟接近100%,其成功率之高、涉案金額之大、詐騙速度之快令人咋舌。
比如安徽安慶經(jīng)開(kāi)區發(fā)生的一起AI詐騙案中,詐騙分子只用一段9秒智能AI換臉視頻佯裝“熟人”,就順利從受害人手上騙走245萬(wàn)元。
更令人毛骨悚然的是,信息泄露、隱私不安全的普遍現實(shí),為AI詐騙造就了“天然溫床”。
2月15日,一則“幾乎無(wú)人幸免,疑似45億條電商或快遞信息泄露”的消息,沖上熱搜。有網(wǎng)友稱(chēng),“自己10年前的收貨信息,都被扒出來(lái)了?!?/p>
對此,人們忍不住吐槽道:“要有多強的防范意識,才能想到跟你視頻通話(huà)的親友,不是一個(gè)大活人???要有多強的隱私意識,才能保證自己信息不泄露或被竊???”
AI詐騙的降維打擊,也引發(fā)了社會(huì )的廣泛關(guān)注和部分恐慌情緒?!癆I詐騙在全國爆發(fā)”的話(huà)題,一度登頂熱搜,引爆超2億閱讀。
隨即,公安部門(mén)專(zhuān)門(mén)進(jìn)行了辟謠,稱(chēng)AI詐騙案件目前占比仍較低。同時(shí),承諾已注意到此犯罪新手法,并將加大力度開(kāi)展技術(shù)反制和防范宣傳。
數據顯示,公安機關(guān)2022年全年破獲電信網(wǎng)絡(luò )詐騙案件46.4萬(wàn)起,緊急攔截涉案資金3180余億元。從詐騙案件量級及涉案金額來(lái)看,其仍然是一塊社會(huì )“頑疾”。
一個(gè)悲觀(guān)預期是,新型AI詐騙的降臨及加速迭代,可能讓“人人警惕,全民反詐”,成為未來(lái)社會(huì )不得不面對的嚴峻問(wèn)題之一。
02.全球大爆發(fā)
4月末的一天,美國一位叫詹妮弗·德斯特凡諾的母親接到一通陌生電話(huà)。
“媽媽?zhuān)让?!”大女兒布里安娜,似乎陷入了大麻煩?/p>
詹妮弗嚇呆了,一個(gè)低沉的男人聲音威脅到:“如果你打電話(huà)報警,就永遠別想再見(jiàn)到她了!”
掛斷后,身邊朋友勸她報警。詹妮弗卻急著(zhù)給贖金,因為“女兒”的哭泣聲實(shí)在太真實(shí)且撕心裂肺。幸運的是,女兒正好打來(lái)電話(huà),騙局“不攻自破”。
但心有余悸的詹妮弗,仍無(wú)比驚訝:“就算隔一棟樓,我也不會(huì )認錯自己孩子的哭泣聲?!?/p>
詹妮弗絕對想不到,突飛猛進(jìn)的AI技術(shù),早已比一個(gè)母親更了解自己的孩子。而騙子支付的代價(jià),可能還不到每月5美元。
2017年,名為“Deepfakes”的社交網(wǎng)站用戶(hù),利用AI技術(shù)發(fā)布了將色情演員換臉成蓋爾·加朵、泰勒·斯威夫特、斯嘉麗·約翰遜等名人的視頻片段,引發(fā)軒然大波。
此后,AI換聲及換臉技術(shù)進(jìn)入大眾視野,并被稱(chēng)為“深度偽造”(Deepfake)。
2018年,美國不法分子還主要通過(guò)使用非法機器人呼叫,偽裝成慈善機構或谷歌數據服務(wù)代理,進(jìn)行詐騙。
但機器人語(yǔ)音系統,往往存在卡頓、音色機械化、多輪對話(huà)“鬼打墻”等問(wèn)題,“唬人”能力有限。
此后,AI換聲迅猛發(fā)展到克隆級別。2019年3月,一詐騙犯冒充一家英國能源公司大老板,強勢要求公司CEO立即將22萬(wàn)歐元,轉到匈牙利的供應商銀行賬戶(hù)。
這位高管毫不猶豫照做了,因為大老板的語(yǔ)調一如平時(shí),甚至連他“微妙的德國口音”也毫無(wú)破綻。這一事件,被認為是全球首例涉及人工智能的詐騙案。
其實(shí),AI技術(shù)流行的美國、歐洲等發(fā)達國家,AI詐騙也早已一馬當先。
過(guò)去一年里,美國AI詐騙同比上漲了50%到75%。美國聯(lián)邦調查局年度報告顯示,2022年美國網(wǎng)絡(luò )詐騙損失達103億美元,創(chuàng )五年來(lái)新高,面向老年人的AI語(yǔ)音騙局則是重災區。
世界經(jīng)濟論壇研究與分析主管布魯內曼稱(chēng),“在過(guò)去一年里,26%的小公司和38%的大公司經(jīng)歷過(guò)深度偽造欺詐”。她甚至預測到2026年,超90%的網(wǎng)絡(luò )攻擊內容都將是AI合成。
AI技術(shù)快速升級,不僅讓換聲、換臉越來(lái)越以假亂真。相應的,AI詐騙技術(shù)的門(mén)檻和成本,卻在不斷降低。
美國加州大學(xué)伯克利分校教授法里德表示,AI聲音合成一兩年前還需要大量音頻數據,現在僅需十幾秒的短視頻或錄音。收集人臉信息則更簡(jiǎn)單,一張照片就可實(shí)現。
相應的AI程序使用費,卻僅需每月5美元到數百美元不等??植赖氖?,任何人都能由此進(jìn)行不法活動(dòng)。
AI詐騙受害對象從老年人到精英人群,從普通人到明星偶像無(wú)所不包,甚至章程規范的商業(yè)公司、學(xué)校機構,也極易中招。
智能化程度更高的AI技術(shù),還使得騙局變得花樣更多、更難防范。
通過(guò)信息收集及大數據分析,AI可以智能篩選出“易騙人群”。比如進(jìn)行金融詐騙時(shí),經(jīng)常搜集投資信息的人群會(huì )成為潛在目標。
甚至,AI還能分析目標的社交網(wǎng)絡(luò ),進(jìn)而掌握其個(gè)性化表達方式、人際關(guān)系、興趣愛(ài)好等生活習慣,實(shí)現“詐騙劇本”定制化。
法里德驚呼:“這很可怕,就像一場(chǎng)完美的風(fēng)暴,具備了釀成大禍的所有條件?!?/strong>
更可怕的是,盡管風(fēng)險顯而易見(jiàn),AI語(yǔ)音及視頻合成技術(shù)卻仍在狂奔??萍季揞^的AI競賽,也在持續加碼。
今年1月,微軟團隊發(fā)布了AI語(yǔ)音合成模型VALL-E。只需3秒指定素材,即可精確地模擬說(shuō)話(huà)者聲音,甚至連環(huán)境背景音也能準確還原。
AI簽名、AI聲音克隆、AI換臉……這些新技術(shù),本來(lái)是創(chuàng )造美好和便利的象征。
但當這類(lèi)高端技術(shù)變得廉價(jià)且輕易獲取,并被不法分子惡意利用時(shí),無(wú)數人和機構的財產(chǎn)、信息及現實(shí)安全卻形同“裸奔”,又會(huì )是多么巨大的風(fēng)險?
全球大爆發(fā)的AI詐騙,無(wú)疑給人類(lèi)敲響了警鐘。
03.沒(méi)有真相的時(shí)代
“現在已經(jīng)到了,大規模、集中化討論AI風(fēng)險的關(guān)鍵時(shí)刻”,清華大學(xué)教授沈陽(yáng)如此呼吁。
其實(shí),對AI詐騙的警惕與治理方案,早已在路上。
美國安全中心發(fā)布的《人工智能與國家安全》,明確將人工智能偽造技術(shù)列為威脅國家安全的重點(diǎn)技術(shù)。中國也開(kāi)始通過(guò)政策管理和技術(shù)限制等途徑,來(lái)應對其潛在安全風(fēng)險。
但AI詐騙,似乎是打不死的“小強”。
比如美國聯(lián)邦貿易委員會(huì )近年來(lái)加強了對非法機器人電話(huà)的監管行動(dòng),但數據顯示,2019年美國境內民眾接到的“機器人騷擾電話(huà)”總數超過(guò)500億個(gè),即平均每個(gè)美國人每月至少接到15個(gè)“機器人騷擾電話(huà)”。
一個(gè)怪圈出現了——美國不斷升級法案打擊電信詐騙,機器人來(lái)電數量卻屢創(chuàng )歷史新高。
根本原因,還是法律法規制定、推廣的護欄建設速度,趕不上AI技術(shù)迭代和傳播速度。產(chǎn)業(yè)、大眾對AI危害的反應,也很容易慢半拍。
甚至于,AI騙局已經(jīng)超出“詐騙”范疇,蔓延到人類(lèi)社會(huì )的各個(gè)角落。
3月份,一組由Midjourney生成的特朗普“被捕照”傳遍全球。一覺(jué)醒來(lái),人們看著(zhù)這位美國前總統被警察包圍并按倒在地的狼狽狀態(tài),深感不可思議。
但這,不過(guò)是一網(wǎng)站創(chuàng )始人艾略特·希金斯精心制作的“AI假照片”。盡管他的賬號被查封,人們當時(shí)無(wú)比真實(shí)的震撼和驚訝,卻因此成為“笑話(huà)”。
這更像是,AI騙局對人類(lèi)分辨能力和真實(shí)情感的“嘲弄”。很快,人們又經(jīng)歷了更嚴重的被戲耍。
5月22日,一張五角大樓附近發(fā)生爆炸的照片,廣泛流傳。這張虛假照片的出圈,甚至導致標普500指數瞬間從漲轉跌。
在國內,假新聞、假圖片案件也甚囂塵上。
5月7日,甘肅省平?jīng)鍪泄簿志W(wǎng)安大隊成功破獲了一起AI造假案件。不法分子利用ChatGPT,偽造了一條“今晨甘肅一列火車(chē)撞上修路工人,導致9人死亡”的虛假新聞,即刻獲得超1.5萬(wàn)次點(diǎn)擊量。
5月24日,科大訊飛受一篇名為《科大訊飛出現重大風(fēng)險的警示文》的文章影響,股價(jià)也迅速跳水。公司緊急回應稱(chēng),股價(jià)下跌系某生成式AI寫(xiě)作虛假“小作文”導致。
人們越來(lái)越驚恐地發(fā)現,自己被AI置身于一個(gè)“沒(méi)有真相的時(shí)代”。
造假,甚至成為某種普遍且必要的“謀生手段”。一項國外調查報告指出,全是由AI生成的假新聞網(wǎng)站已有49家之多。且這些信息受眾并不少,粉絲大多超10萬(wàn)量級。
無(wú)處不在的造假熱潮,更讓無(wú)論是普通人還是明星都難以阻擋。
一邊是,幾十元的“AI換臉教程”大行其道;一邊是,在地鐵上被“AI一鍵脫衣”造謠的女性,無(wú)力申訴。偽裝成“楊冪”“迪麗熱巴”“成龍”等明星的直播帶貨,更肆無(wú)忌憚。
面對鋪天蓋地的“AI孫燕姿”合成視頻,佛系的孫燕姿無(wú)奈表示,“你跟一個(gè)每幾分鐘就推出一張新專(zhuān)輯的‘人’,還有什么好爭的?”
真相被“捏造”已經(jīng)夠可怕,人們無(wú)力分辨則讓現實(shí)變得愈發(fā)混亂。
4月13日索尼世界攝影獎頒獎禮,大獎得主卻沖上舞臺奪過(guò)話(huà)筒,悲憤地說(shuō)這是AI偽作。他的反問(wèn)發(fā)人深思,“如果索尼世界攝影獎的評委都分不清真假照片,其他人還能怎么辦?”
當AI騙局從專(zhuān)業(yè)級走向“平民化”,熟悉的親友、日常的新聞、權威的知識、眼見(jiàn)為實(shí)的原則甚至是集體記憶等,原本刻在骨子里的“確信”都在被逐一顛覆。
AI監管,由此愈加任重道遠。畢竟人類(lèi)不能沒(méi)有真相,就像時(shí)鐘不能沒(méi)有指針。
關(guān)鍵詞: