回到頂端
|||
熱門:

眼見不一定真實,小心別被AI換臉技術詐騙!  竹市警攜手網紅里長拍短片宣導慎防新騙術

台灣捷報/陳 梅 2024.04.12 20:51
▲竹市警察局邀請網紅里長何芝寧(左)拍攝防詐宣導短片,若在網路上看到可疑影片或與親友視訊聯繫時,可運用4個方法防止AI換臉詐騙。(圖/竹市警察局提供)

【記者羅蔚舟/新竹報導】
AI換臉技術詐騙係金ㄟ!千萬小心別被騙!AI人工智慧的進步,讓深偽技術(Deep fake)變得更加成熟,深偽技術可以將影片中的人臉替換成另一張臉,最常見的應用是電影製作;然而,近年詐騙手法不斷翻新,不肖人士可能利用AI換臉進行詐騙,為提升新竹市民對這種新型態騙術的警覺性,新竹市警察局邀請網紅里長何芝寧拍攝防詐宣導短片,提醒市民朋友慎防AI換臉詐騙。

▲在AI「深偽技術」的發展下,竹市警察局提醒市民朋友要保持「眼見不一定為實、影像不一定是真」的警覺,慎防AI換臉詐騙!(圖/竹市警察局提供)

宣導短片的開場,竟然係網紅里長何芝寧推廣「零風險、高報酬、穩賺不賠」投資管道的片段?!為讓市民朋友親眼見證AI換臉技術的真實性,新竹市警察局刑警大隊特地拍攝假投資推廣影片,再利用深偽技術將影片中的人臉換成芝寧里長,幾可亂真假冒甜美里長推廣投資管道,乍看之下真的會不小心上當!短視頻中同時呈現換臉前(後)的影片,讓民眾高度感知換臉技術確實存在。

▲竹市警察局邀請網紅里長何芝寧(左)拍攝防詐宣導短片,提醒市民朋友要保持「眼見不一定為實、影像不一定是真」的警覺,慎防AI換臉詐騙!(圖/竹市警察局提供)

短片最後,由刑警大隊小編及芝寧里長提醒大家,若在網路上看到可疑影片或與親友視訊聯繫時,可運用4個方法防止AI換臉詐騙:1.事先約定視訊通關密語;2.視訊時請對方在臉部前方揮揮手或搖搖頭;3.直接打電話給對方再次確認身分;4.撥打165反詐騙專線查證。

▲竹市警察局邀請網紅里長何芝寧(左)拍攝防詐宣導短片,若在網路上看到可疑影片或與親友視訊聯繫時,可運用4個方法防止AI換臉詐騙。(圖/竹市警察局提供)

新竹市警察局表示,社交媒體盛行,多數人都是使用網路聯繫,如果沒有保管好自己的身份資訊及帳號密碼,就有可能發生Facebook、Instagram、 Line等社交帳號遭盜用的情形,連帶的也會增加親友被詐騙的機會。

▲竹市警察局邀請網紅里長何芝寧(左)拍攝防詐宣導短片,提醒市民朋友慎防AI換臉詐騙,如果有任何疑問,都可以撥打165反詐騙專線查證!(圖/竹市警察局提供)

局長邱紹洲強調,科技發展一日千里,民眾對任何社交平臺或通訊軟體所收到的訊息,都要有查證的意識及行動,並謹記在AI「深偽技術」的發展下,要保持「眼見不一定為實、影像不一定是真」的警覺,如果有任何疑問,都可以撥打165反詐騙專線查證!

The post 眼見不一定真實,小心別被AI換臉技術詐騙!  竹市警攜手網紅里長拍短片宣導慎防新騙術 first appeared on 台灣捷報.

社群留言

台北旅遊新聞

台北旅遊新聞