回到頂端
|||
熱門: 黃仁勳 00919 博愛座

高市刑大拍攝新型AI防詐宣導短影片 提醒民眾要小心

今傳媒/今傳媒 2024.05.26 17:34

【今傳媒/記者張淑慧報導】隨著科技不斷進步,AI換臉偽造的詐騙手法也隨之出現。只需數秒的音頻或影像,AI就能生成逼真的假人臉和表情動作。有些AI甚至只需3秒的時間就能將人聲和臉部互換,製作出非常逼真的假影像。詐騙者利用這些偽造的名人財經專家影像,欺騙民眾加入投資群組。

分析AI換臉偽造的手法,詐騙者盜用財經專家或理財專員的照片或影片,通過AI自動進行臉部互換,然後通過電話或通訊軟體與民眾聯繫,要求他們提供新手機號碼或LINE ID。隨著科技的快速發展,有心人士利用AI的深偽技術,使詐騙手法更加逼真,讓民眾更容易上當受騙並遭受財產損失。

近年來,人工智慧技術的快速發展為社會帶來了許多便利,但同時也衍生了一些新的問題。為提醒民眾防範被騙,本大隊創新拍攝新型AI防詐宣導短影片,利用AI技術竄改語音或影像,擬真男女朋友因投資失利欲借錢詐騙方式,加強宣導「眼見未必為憑」、「耳聽亦非為證」等識詐工作。

圖/高雄市政府警察局刑事警察大隊大隊5/23福誠國中宣導刑大拍攝防制AI深偽詐騙宣導

為吸引青年學子,影片最後由2位活潑小學生以彈奏烏克麗麗搭配雙語(中英文對照)宣導AI深偽技術破解之道:1.要求對方揮揮手、轉轉頭、變換姿勢或露出牙齒。2.請對方說出事先約定的「通關密語」,3.打電話給對方確認身分、多方查證或撥打165反詐騙諮詢專線詢問喔。

高雄市政府警察局刑事警察大隊大隊長鄢志豪提醒市民朋友,來電聲稱換電話號碼、要求加LINE、FACEBOOK借錢,現在還加上AI深偽技術變臉成親朋好友跟你視訊,讓你信以為真!若是談到「錢」,請存疑,先撥打親友原本的電話查證喔。若遇詐騙情況,請撥打165反詐騙專線諮詢。(圖/ 記者翻攝)

社群留言

台北旅遊新聞

台北旅遊新聞