<ruby id="zpo55"></ruby>
  1. <mark id="zpo55"></mark>
    <ruby id="zpo55"><video id="zpo55"></video></ruby>

    <progress id="zpo55"></progress>
    <mark id="zpo55"></mark>
      <strong id="zpo55"></strong>

    1. 警惕!史上最聰明大騙局,很多人已被坑慘!

      時(shí)間: 2023-07-04 23:19:46 來(lái)源: 鳳凰網(wǎng)

      作 者耿康祁


      (資料圖片)

      “人工智能之父”杰弗里·欣頓做了個(gè)末日預言:

      人工智能可能對人類(lèi)構成巨大威脅,因為“很難找到防止壞人用它做壞事的方法”。

      不幸的是,掌握人工智能的壞人,越來(lái)越多了。

      01.高端局來(lái)了

      4月20日11時(shí)40分左右,福州市某科技公司法人代表郭先生,遭遇了一場(chǎng)高端騙局。

      一位好友,突然打了個(gè)微信視頻:

      “老郭,我一個(gè)朋友在外地競標,需要430萬(wàn)保證金。你看看能不能先走你的公司賬戶(hù),幫忙過(guò)個(gè)賬?”

      好友說(shuō)錢(qián)已打過(guò)來(lái),還發(fā)了銀行轉賬底單截圖。因為是視頻聊天,郭先生就沒(méi)核實(shí)錢(qián)是否到賬,直接給對方賬戶(hù)轉了430萬(wàn)。

      事后,郭先生給好友打了電話(huà),稱(chēng)“事情辦妥了”,對方卻十分驚訝,回應完全沒(méi)有這回事。

      9分鐘,430萬(wàn)沒(méi)了!坑了郭先生的,是一起典型的AI詐騙。

      這個(gè)騙局分三步:

      1,不法分子用AI機器人騷擾電話(huà),獲取目標的聲音素材,然后進(jìn)行聲音偽造;

      2,盜取目標的社交賬號,尋找受害人;

      3,用AI換臉技術(shù),和受害人視頻通話(huà),博取信任,實(shí)施詐騙。

      這個(gè)詐騙手段環(huán)環(huán)相扣、用時(shí)短、難防范。它標志著(zhù)詐騙犯罪的升級,進(jìn)入了AI智能化、定制化的時(shí)代。

      傳統互聯(lián)網(wǎng)“發(fā)個(gè)語(yǔ)音”、“打個(gè)視頻”的防詐手段,在A(yíng)I詐騙面前基本失效。更可怕的是,掌握AI詐騙的騙子,越來(lái)越多了!

      公開(kāi)信息顯示,自2021年以來(lái)多個(gè)省份都出現了AI詐騙及不當牟利案件。中國互聯(lián)網(wǎng)協(xié)會(huì ) 5月24日稱(chēng),利用“AI換臉”“AI換聲”等進(jìn)行詐騙、誹謗的違法行為屢見(jiàn)不鮮。

      AI詐騙不只盯著(zhù)數百萬(wàn)的“肥肉”,幾千元的“蒼蠅肉”也來(lái)者不拒。假扮大學(xué)同學(xué)、親戚、供貨商等視頻借錢(qián)案件,層出不窮。

      如果覺(jué)得從不借錢(qián)便不會(huì )中招,就太天真了。

      當騙子偽裝成領(lǐng)導,以匯款、資金周轉等緊急理由,要求下屬立即轉賬,很少有人能頂住壓力。更有甚者,騙子直接偽造子女、父母車(chē)禍入院等借口,利用親人感情實(shí)施欺詐。

      2006年,搞了20多年的中國臺灣詐騙集團,把目光投向互聯(lián)網(wǎng)普及不久的大陸。他們在東南亞等國家建立詐騙基地,招募員工進(jìn)行人設、話(huà)術(shù)包裝的統一培訓。

      最終,誘導戀愛(ài)或裸聊的“殺豬盤(pán)”、非法買(mǎi)彩票、網(wǎng)上賭場(chǎng)、借貸騙局等發(fā)明,開(kāi)始橫掃內地。

      電信詐騙,由此成了懸在14億人頭頂的一把利刃。甚至有人戲稱(chēng),從未接到過(guò)詐騙電話(huà)的,都有可以去買(mǎi)彩票的運氣。

      不過(guò),大部分人仍對電信詐騙,沒(méi)太大概念。傳統認知里,其受騙對象多是經(jīng)不起誘惑、社會(huì )經(jīng)驗少的“冤大頭”,以及一些不常上網(wǎng)的老年人。

      比如上世紀80年代最知名的尼日利亞王子來(lái)信,以及最近令人笑掉大牙的“上門(mén)槍斃”通知短信。這些夸張劇本,似乎只為篩選那些“缺乏基本辨識能力”的群體。

      但正如微博大V@全民防詐騙所說(shuō):“你目前還沒(méi)被騙,并不是因為你多聰明,也不是因為你沒(méi)錢(qián),而是適合你的‘劇本‘還在路上?!?/p>

      只要給幾張照片和幾秒語(yǔ)音,就能復刻出“假人”的AI詐騙,以細思極恐的手段,讓每個(gè)人都可能難逃一劫。

      據湖北網(wǎng)警巡查執法公布消息,AI技術(shù)新騙局詐騙成功率竟接近100%,其成功率之高、涉案金額之大、詐騙速度之快令人咋舌。

      比如安徽安慶經(jīng)開(kāi)區發(fā)生的一起AI詐騙案中,詐騙分子只用一段9秒智能AI換臉視頻佯裝“熟人”,就順利從受害人手上騙走245萬(wàn)元。

      更令人毛骨悚然的是,信息泄露、隱私不安全的普遍現實(shí),為AI詐騙造就了“天然溫床”。

      2月15日,一則“幾乎無(wú)人幸免,疑似45億條電商或快遞信息泄露”的消息,沖上熱搜。有網(wǎng)友稱(chēng),“自己10年前的收貨信息,都被扒出來(lái)了?!?/p>

      對此,人們忍不住吐槽道:“要有多強的防范意識,才能想到跟你視頻通話(huà)的親友,不是一個(gè)大活人???要有多強的隱私意識,才能保證自己信息不泄露或被竊???”

      AI詐騙的降維打擊,也引發(fā)了社會(huì )的廣泛關(guān)注和部分恐慌情緒?!癆I詐騙在全國爆發(fā)”的話(huà)題,一度登頂熱搜,引爆超2億閱讀。

      隨即,公安部門(mén)專(zhuān)門(mén)進(jìn)行了辟謠,稱(chēng)AI詐騙案件目前占比仍較低。同時(shí),承諾已注意到此犯罪新手法,并將加大力度開(kāi)展技術(shù)反制和防范宣傳。

      數據顯示,公安機關(guān)2022年全年破獲電信網(wǎng)絡(luò )詐騙案件46.4萬(wàn)起,緊急攔截涉案資金3180余億元。從詐騙案件量級及涉案金額來(lái)看,其仍然是一塊社會(huì )“頑疾”。

      一個(gè)悲觀(guān)預期是,新型AI詐騙的降臨及加速迭代,可能讓“人人警惕,全民反詐”,成為未來(lái)社會(huì )不得不面對的嚴峻問(wèn)題之一。

      02.全球大爆發(fā)

      4月末的一天,美國一位叫詹妮弗·德斯特凡諾的母親接到一通陌生電話(huà)。

      “媽媽?zhuān)让?!”大女兒布里安娜,似乎陷入了大麻煩?/p>

      詹妮弗嚇呆了,一個(gè)低沉的男人聲音威脅到:“如果你打電話(huà)報警,就永遠別想再見(jiàn)到她了!”

      掛斷后,身邊朋友勸她報警。詹妮弗卻急著(zhù)給贖金,因為“女兒”的哭泣聲實(shí)在太真實(shí)且撕心裂肺。幸運的是,女兒正好打來(lái)電話(huà),騙局“不攻自破”。

      但心有余悸的詹妮弗,仍無(wú)比驚訝:“就算隔一棟樓,我也不會(huì )認錯自己孩子的哭泣聲?!?/p>

      詹妮弗絕對想不到,突飛猛進(jìn)的AI技術(shù),早已比一個(gè)母親更了解自己的孩子。而騙子支付的代價(jià),可能還不到每月5美元。

      2017年,名為“Deepfakes”的社交網(wǎng)站用戶(hù),利用AI技術(shù)發(fā)布了將色情演員換臉成蓋爾·加朵、泰勒·斯威夫特、斯嘉麗·約翰遜等名人的視頻片段,引發(fā)軒然大波。

      此后,AI換聲及換臉技術(shù)進(jìn)入大眾視野,并被稱(chēng)為“深度偽造”(Deepfake)。

      2018年,美國不法分子還主要通過(guò)使用非法機器人呼叫,偽裝成慈善機構或谷歌數據服務(wù)代理,進(jìn)行詐騙。

      但機器人語(yǔ)音系統,往往存在卡頓、音色機械化、多輪對話(huà)“鬼打墻”等問(wèn)題,“唬人”能力有限。

      此后,AI換聲迅猛發(fā)展到克隆級別。2019年3月,一詐騙犯冒充一家英國能源公司大老板,強勢要求公司CEO立即將22萬(wàn)歐元,轉到匈牙利的供應商銀行賬戶(hù)。

      這位高管毫不猶豫照做了,因為大老板的語(yǔ)調一如平時(shí),甚至連他“微妙的德國口音”也毫無(wú)破綻。這一事件,被認為是全球首例涉及人工智能的詐騙案。

      其實(shí),AI技術(shù)流行的美國、歐洲等發(fā)達國家,AI詐騙也早已一馬當先。

      過(guò)去一年里,美國AI詐騙同比上漲了50%到75%。美國聯(lián)邦調查局年度報告顯示,2022年美國網(wǎng)絡(luò )詐騙損失達103億美元,創(chuàng )五年來(lái)新高,面向老年人的AI語(yǔ)音騙局則是重災區。

      世界經(jīng)濟論壇研究與分析主管布魯內曼稱(chēng),“在過(guò)去一年里,26%的小公司和38%的大公司經(jīng)歷過(guò)深度偽造欺詐”。她甚至預測到2026年,超90%的網(wǎng)絡(luò )攻擊內容都將是AI合成。

      AI技術(shù)快速升級,不僅讓換聲、換臉越來(lái)越以假亂真。相應的,AI詐騙技術(shù)的門(mén)檻和成本,卻在不斷降低。

      美國加州大學(xué)伯克利分校教授法里德表示,AI聲音合成一兩年前還需要大量音頻數據,現在僅需十幾秒的短視頻或錄音。收集人臉信息則更簡(jiǎn)單,一張照片就可實(shí)現。

      相應的AI程序使用費,卻僅需每月5美元到數百美元不等??植赖氖?,任何人都能由此進(jìn)行不法活動(dòng)。

      AI詐騙受害對象從老年人到精英人群,從普通人到明星偶像無(wú)所不包,甚至章程規范的商業(yè)公司、學(xué)校機構,也極易中招。

      智能化程度更高的AI技術(shù),還使得騙局變得花樣更多、更難防范。

      通過(guò)信息收集及大數據分析,AI可以智能篩選出“易騙人群”。比如進(jìn)行金融詐騙時(shí),經(jīng)常搜集投資信息的人群會(huì )成為潛在目標。

      甚至,AI還能分析目標的社交網(wǎng)絡(luò ),進(jìn)而掌握其個(gè)性化表達方式、人際關(guān)系、興趣愛(ài)好等生活習慣,實(shí)現“詐騙劇本”定制化。

      法里德驚呼:“這很可怕,就像一場(chǎng)完美的風(fēng)暴,具備了釀成大禍的所有條件?!?/strong>

      更可怕的是,盡管風(fēng)險顯而易見(jiàn),AI語(yǔ)音及視頻合成技術(shù)卻仍在狂奔??萍季揞^的AI競賽,也在持續加碼。

      今年1月,微軟團隊發(fā)布了AI語(yǔ)音合成模型VALL-E。只需3秒指定素材,即可精確地模擬說(shuō)話(huà)者聲音,甚至連環(huán)境背景音也能準確還原。

      AI簽名、AI聲音克隆、AI換臉……這些新技術(shù),本來(lái)是創(chuàng )造美好和便利的象征。

      但當這類(lèi)高端技術(shù)變得廉價(jià)且輕易獲取,并被不法分子惡意利用時(shí),無(wú)數人和機構的財產(chǎn)、信息及現實(shí)安全卻形同“裸奔”,又會(huì )是多么巨大的風(fēng)險?

      全球大爆發(fā)的AI詐騙,無(wú)疑給人類(lèi)敲響了警鐘。

      03.沒(méi)有真相的時(shí)代

      “現在已經(jīng)到了,大規模、集中化討論AI風(fēng)險的關(guān)鍵時(shí)刻”,清華大學(xué)教授沈陽(yáng)如此呼吁。

      其實(shí),對AI詐騙的警惕與治理方案,早已在路上。

      美國安全中心發(fā)布的《人工智能與國家安全》,明確將人工智能偽造技術(shù)列為威脅國家安全的重點(diǎn)技術(shù)。中國也開(kāi)始通過(guò)政策管理和技術(shù)限制等途徑,來(lái)應對其潛在安全風(fēng)險。

      但AI詐騙,似乎是打不死的“小強”。

      比如美國聯(lián)邦貿易委員會(huì )近年來(lái)加強了對非法機器人電話(huà)的監管行動(dòng),但數據顯示,2019年美國境內民眾接到的“機器人騷擾電話(huà)”總數超過(guò)500億個(gè),即平均每個(gè)美國人每月至少接到15個(gè)“機器人騷擾電話(huà)”。

      一個(gè)怪圈出現了——美國不斷升級法案打擊電信詐騙,機器人來(lái)電數量卻屢創(chuàng )歷史新高。

      根本原因,還是法律法規制定、推廣的護欄建設速度,趕不上AI技術(shù)迭代和傳播速度。產(chǎn)業(yè)、大眾對AI危害的反應,也很容易慢半拍。

      甚至于,AI騙局已經(jīng)超出“詐騙”范疇,蔓延到人類(lèi)社會(huì )的各個(gè)角落。

      3月份,一組由Midjourney生成的特朗普“被捕照”傳遍全球。一覺(jué)醒來(lái),人們看著(zhù)這位美國前總統被警察包圍并按倒在地的狼狽狀態(tài),深感不可思議。

      但這,不過(guò)是一網(wǎng)站創(chuàng )始人艾略特·希金斯精心制作的“AI假照片”。盡管他的賬號被查封,人們當時(shí)無(wú)比真實(shí)的震撼和驚訝,卻因此成為“笑話(huà)”。

      這更像是,AI騙局對人類(lèi)分辨能力和真實(shí)情感的“嘲弄”。很快,人們又經(jīng)歷了更嚴重的被戲耍。

      5月22日,一張五角大樓附近發(fā)生爆炸的照片,廣泛流傳。這張虛假照片的出圈,甚至導致標普500指數瞬間從漲轉跌。

      在國內,假新聞、假圖片案件也甚囂塵上。

      5月7日,甘肅省平?jīng)鍪泄簿志W(wǎng)安大隊成功破獲了一起AI造假案件。不法分子利用ChatGPT,偽造了一條“今晨甘肅一列火車(chē)撞上修路工人,導致9人死亡”的虛假新聞,即刻獲得超1.5萬(wàn)次點(diǎn)擊量。

      5月24日,科大訊飛受一篇名為《科大訊飛出現重大風(fēng)險的警示文》的文章影響,股價(jià)也迅速跳水。公司緊急回應稱(chēng),股價(jià)下跌系某生成式AI寫(xiě)作虛假“小作文”導致。

      人們越來(lái)越驚恐地發(fā)現,自己被AI置身于一個(gè)“沒(méi)有真相的時(shí)代”。

      造假,甚至成為某種普遍且必要的“謀生手段”。一項國外調查報告指出,全是由AI生成的假新聞網(wǎng)站已有49家之多。且這些信息受眾并不少,粉絲大多超10萬(wàn)量級。

      無(wú)處不在的造假熱潮,更讓無(wú)論是普通人還是明星都難以阻擋。

      一邊是,幾十元的“AI換臉教程”大行其道;一邊是,在地鐵上被“AI一鍵脫衣”造謠的女性,無(wú)力申訴。偽裝成“楊冪”“迪麗熱巴”“成龍”等明星的直播帶貨,更肆無(wú)忌憚。

      面對鋪天蓋地的“AI孫燕姿”合成視頻,佛系的孫燕姿無(wú)奈表示,“你跟一個(gè)每幾分鐘就推出一張新專(zhuān)輯的‘人’,還有什么好爭的?”

      真相被“捏造”已經(jīng)夠可怕,人們無(wú)力分辨則讓現實(shí)變得愈發(fā)混亂。

      4月13日索尼世界攝影獎頒獎禮,大獎得主卻沖上舞臺奪過(guò)話(huà)筒,悲憤地說(shuō)這是AI偽作。他的反問(wèn)發(fā)人深思,“如果索尼世界攝影獎的評委都分不清真假照片,其他人還能怎么辦?”

      當AI騙局從專(zhuān)業(yè)級走向“平民化”,熟悉的親友、日常的新聞、權威的知識、眼見(jiàn)為實(shí)的原則甚至是集體記憶等,原本刻在骨子里的“確信”都在被逐一顛覆。

      AI監管,由此愈加任重道遠。畢竟人類(lèi)不能沒(méi)有真相,就像時(shí)鐘不能沒(méi)有指針。

      關(guān)鍵詞:

      責任編輯:QL0009

      為你推薦

      關(guān)于我們| 聯(lián)系我們| 投稿合作| 法律聲明| 廣告投放

      版權所有 © 2020 跑酷財經(jīng)網(wǎng)

      所載文章、數據僅供參考,使用前務(wù)請仔細閱讀網(wǎng)站聲明。本站不作任何非法律允許范圍內服務(wù)!

      聯(lián)系我們:315 541 185@qq.com

      精品成人精品无码区_欧亚乱色熟女一区二区_91在线精品国产丝袜超清_色欲久久久久综合网
      <ruby id="zpo55"></ruby>
      1. <mark id="zpo55"></mark>
        <ruby id="zpo55"><video id="zpo55"></video></ruby>

        <progress id="zpo55"></progress>
        <mark id="zpo55"></mark>
          <strong id="zpo55"></strong>