回到頂端
|||
熱門: 黃子佼 徐巧芯 地震

詐騙加入AI,仿人聲語調百分百—

品觀點/許怡雯 2023.03.16 15:39

AI人工智慧超高速發展,引起關注,除了寫作、運算、解答等,現在居然還能仿真人聲音達百分百,還成為詐騙集團工具:加拿大一對老夫妻就接到AI冒充兒子聲音的電話後,被詐騙了約台幣64萬元。網友說,聲音都能仿,未來會不會有假人出現,成了詐騙集團的AI人。

根據美國聯邦貿易委員會(FTC)的數據顯示,AI相關詐騙案件在2022年已經來到240萬件,整體損失的金額也來到了88億美元(近新台幣2700億元)。這個數字引起非常大的討論,大家除了擔心工作會被AI取代,還會被詐騙,到底該怎麼辦?

根據外媒《INSIDER》7日報導,加拿大一對夫婦接到一通電話,聲稱是他們的兒子,並且告訴他們自己因為駕車撞死一名外交官而需要入獄,因此需要付2萬1000美元(約台幣64萬2921元)的法律相關費用。

老夫妻在聽這通電話時,因為聲音實在太像兒子,所以幾乎完全相信了。老夫妻隨後開始籌錢並透過虛擬貨幣付款給詐騙集團,事後回想起來時,老夫妻也坦承當時「假兒子」的談話內容有些奇怪,但已經於事無補,遭詐騙的金錢也已經無法尋回。

然而AI是如何找到老夫妻兒子的聲音?根據報導,很可能是透過兒子在YouTube上所上傳的一部關於雪地摩托車的影片中,擷取音軌等方式來進行合成與偽造,才讓老夫妻誤信而上鉤。

根據美國聯邦貿易委員會報告,這些冒名的詐騙在2022年通報數量已經來到240萬件,雖然低於2021年的數字,但是損失的整體金額卻是更高的,共遭詐騙損失88億美元(近新台幣2700億元),新型態的詐騙手法層出不窮,民眾仍需多加提防。

淡江大學管理科學學系主任陳水蓮表示,AI的發展是未來無法避免的趨勢與發展,無論是取代工作或是詐騙集團工具,取決在大家對於AI的熟悉與運用,尤其是愈早去熟悉與學習,成為AI的使用者,並運用來進行決策,就不必擔心受到AI的影響生活與未來。

 

圖說:淡江管科系主任陳水蓮提醒,及早學習與運用AI人工,不必擔心被詐騙及取代。

社群留言

台北旅遊新聞

台北旅遊新聞