回到頂端
|||
熱門: nba 天氣 mlb

遠離AI深偽詐騙 高市刑大提醒多方查證勿上當

焦點時報/焦點時報 2024.05.26 11:00
遠離AI深偽詐騙 呼籲民眾勿上當。〈圖/記者翻攝〉

〈焦點時報/記者蔡宗憲報導〉

隨著科技不斷進步,AI換臉偽造的詐騙案件也隨之出現。透過AI技術,只需數秒的音頻或畫面,就能生成逼真的假人臉和表情動作。有些AI模型更可以在3秒內將人聲和臉部互換,製作出極為相似的情緒和動作影像,用來偽造名人或財經專家的影像,騙取民眾加入投資群組。

分析AI換臉偽造的手法,詐騙者只需盜用「財經專家」或「理財專員」的照片或影片,然後透過AI自動進行臉部互換,再利用電話或通訊軟體與民眾聯繫,要求他們提供新手機號碼或LINE ID。隨著科技的迅速發展,有心人士利用AI的「深偽(DeepFake)技術」,使詐騙手法更加逼真,讓民眾更容易上當受騙,遭受財產損失。

近年來,人工智慧技術的快速發展為社會帶來了許多便利,但同時也衍生了一些新的問題。為提醒民眾防範被騙,本大隊創新拍攝新型AI防詐宣導短影片,利用AI技術竄改語音或影像,擬真男女朋友因投資失利欲借錢詐騙方式,加強宣導「眼見未必為憑」、「耳聽亦非為證」等識詐工作。

為吸引青年學子,影片最後由2位活潑小學生以彈奏烏克麗麗搭配雙語(中英文對照)宣導AI深偽技術破解之道:1.要求對方揮揮手、轉轉頭、變換姿勢或露出牙齒。2.請對方說出事先約定的「通關密語」,3.打電話給對方確認身分、多方查證或撥打165反詐騙諮詢專線詢問喔。

高市刑大大隊長鄢志豪提醒市民朋友,來電聲稱換電話號碼、要求加LINE、FACEBOOK借錢,現在還加上AI深偽技術變臉成親朋好友跟你視訊,讓你信以為真!若是談到「錢」,請存疑,先撥打親友原本的電話查證喔。若遇詐騙情況,請撥打165反詐騙專線諮詢。

#高市刑大、AI詐騙、換臉技術、科技犯罪、深偽技術、大隊長鄢志豪

社群留言

台北旅遊新聞

台北旅遊新聞