回到頂端
|||
熱門: 黃子佼 徐巧芯 地震

屏警破解AI技術詐騙 呼籲民眾冷靜、小心查證

藍雀新傳媒/ 2024.01.05 16:20

記者廖銘瑞、吳文隆/屏東報導

屏東縣政府警察局為宣導防範詐騙集團運用AI科技詐騙,與觀昇有線電視股份有限公司合作製拍防詐宣導短影片,希藉由詼諧劇情,吸引民眾關注,喚起防詐意識,提醒民眾在接獲親友電話語音來電或視訊通話,內容如提到因發生車禍須付醫藥費或遭綁架要付贖金或要借錢應急等理由而要求匯款時,不要因擔心或慌張、惶恐而貿然匯款,平時要建立存疑與查證的觀念,才不會遭詐受害。

警方分析,因AI科技設備發達,國內外都有發生透過AI科技偽(變)造聲音及影像詐騙的案例,詐騙集團先會用各種方法蒐集個人或名人、網紅、藝人等的聲音檔及臉部表情等特徵,再竄改內容,以佯稱發生車禍須付醫藥費或遭綁架要付贖金或要借錢應急等理由誘騙親友匯款,或以名人、網紅、藝人本身投資獲利經驗要回饋鄉親,而要求匯款投資,詐騙集團就是利用民眾擔心、惶恐心理及名人、網紅、藝人等高知名度來取信受害民眾,誘騙民眾匯款詐騙。

屏東縣政府警察局局長蔡文峰表示,AI科技技術蓬勃發展,造成許多的便利性,歹徒也會利用AI合成技術(Deepfake)製造出逼真的音訊與影像,進行詐騙或破壞他人形象等犯罪行為,要破解AI詐騙,除平時要與親友建立通關密語或暗號,或在視訊通話中請對方左右移動、轉轉頭、揮揮手,因現行科技無法偵測分析及套用人的側臉、脖子等部位,如在鏡頭前做出左右移動、轉轉頭、揮揮手等動作,視訊影像可能會有模糊狀態或出現明顯不同膚色色差等破綻來分辨鏡頭中的影像是否為AI技術變臉。

呼籲民眾如忽然接獲親友來電或視訊通話,不管通話內容如何驚悚或有多好康的投資,只要提到與『錢』相關事項,就有可能是詐騙,要先保持冷靜、不要過度慌張或高興過頭,只要保持「1聽2掛3查證」防詐箴言,遇有疑問,立即撥打「165」或「110」專線諮詢,就是防範AI變聲變臉技術詐騙最好的方法。


圖:屏警與觀昇有線電視股份有限公司合作製拍防詐宣導短影片。(屏東縣警察局)

社群留言

台北旅遊新聞

台北旅遊新聞