回到頂端
|||
熱門: 黃子佼 徐巧芯 地震

網紅里長芝寧推薦投資管道!不要被AI換臉技術詐騙

CNMA新聞聯合網/ 2024.04.13 08:00
記者劉博正/新竹報導
                                                 

AI人工智慧的進步,讓深偽技術(Deepfake)變得更加成熟,深偽技術可以將影片中的人臉替換成另一張臉,最常見的應用是電影製作;然而,近年詐騙手法不斷翻新,不肖人士可能利用AI換臉進行詐騙,為提升新竹市民對這種新型態騙術的警覺性,新竹市警察局邀請網紅里長何芝寧拍攝防詐宣導短片,提醒市民朋友慎防AI換臉詐騙。
  
宣導短片的開場竟然是芝寧里長推廣「零風險、高報酬、穩賺不賠」投資管道的片段!?為讓市民朋友親眼見證AI換臉技術的真實性,新竹市警察局刑警大隊特地拍攝假投資推廣影片,再利用深偽技術將影片中的人臉換成芝寧里長,幾可亂真假冒甜美里長推廣投資管道,乍看之下真的會不小心上當!短片中同時呈現換臉前(後)的影片,讓民眾高度感知換臉技術確實存在。短片最後,由刑警大隊小編及芝寧里長提醒大家,若在網路上看到可疑影片或與親友視訊聯繫時,可運用4個方法防止AI換臉詐騙:
1.    事先約定視訊通關密語
2.    視訊時請對方在臉部前方揮揮手或搖搖頭
3.    直接打電話給對方再次確認身分
4.    撥打165反詐騙專線查證。
新竹市警察局表示,社交媒體盛行,多數人都是使用網路聯繫,如果沒有保管好自己的身份資訊及帳號密碼,就有可能發生Facebook、Instagram、 Line等社交帳號遭盜用的情形,連帶的也會增加親友被詐騙的機會。

局長邱紹洲強調,科技發展一日千里,民眾對任何社交平臺或通訊軟體所收到的訊息,都要有查證的意識及行動,並謹記在AI「深偽技術」的發展下,要保持「眼見不一定為實、影像不一定是真」的警覺,如果有任何疑問,都可以撥打165反詐騙專線查證!
                                                    

社群留言

台北旅遊新聞

台北旅遊新聞