回到頂端
|||
熱門: 黃子佼 徐巧芯 地震

科技打破三觀眼見不能為憑 警提醒慎防AI深偽科技詐騙

民生電子報/包 克明 2023.12.30 20:43

刑事警察局發布4AI變臉詐騙宣導圖。(圖/刑事警察局提供)

刑事警察局發布4AI變臉詐騙宣導圖。(圖/刑事警察局提供)
刑事警察局發布4AI變臉詐騙宣導圖。(圖/刑事警察局提供)

深偽影像技術的進步為人類社會帶來劃時代的意義,打破三觀!有別以往的眼見為憑,現在已不復見,警方提醒,這樣先進的科技倘若運用在電影拍攝還原或改變演員容貌,能夠創作出更多元精采的影視作品,然而若遭不肖人士將此項科技用在詐騙,對民眾肖像隱私之人格權及財產法益無非是一大威脅。

刑事警察局指出,最早「深偽」專用於替換人臉的軟體名稱,以「自動生成編碼器」的深度學習系統為基礎,以AI掌握對象特徵點,訓練判別生成高度相似的臉孔影像或聲音,目前「Deepfake」已經成為利用深度生成技術生成影像、聲音、文字等多媒體內容的總稱,包括臉部特徵變換、性別與年齡轉換、圖像風格轉換。

刑事警察局表示,隨著深偽內容的氾濫,成為時代產物下的全新詐騙犯罪手法,近期就有接獲詐騙方利用Deepfake影片詐騙金錢、感情的案例,似乎已演變成另一場科技犯罪風暴。

刑事警察局說明,舉案例來說,有一間外商公司的執行長,因為接到英國母公司上司一通電話,要求他緊急將新台幣620萬元匯至指定供應商的帳戶,而該執行長認為其對上司聲音相當熟悉不疑有它,隨即派人轉帳,但上司的聲音是透過聲音轉換(Voice Conversion)的技術偽造的,單純的聲音深偽的犯罪手法,對嫌犯來說更加容易,使民眾降低戒心而上當受騙。

刑事警察局提醒,隨著近年來深度學習技術模型技術的快速發展,大幅提升做出高仿真內容偽造的效能,深偽技術變得更容易取得、偽造時間縮短、技術獲取門檻變低的趨勢,在AI來臨的時代,民眾遇到親友或陌生人以影片或電話請求借錢或威脅匯款等,應以其他方式聯繫當事親友以多方聯繫管道或撥打165反詐騙諮詢專線查證,才能避免避免AI科技造成的危害或財產損失。

 

The post 科技打破三觀眼見不能為憑 警提醒慎防AI深偽科技詐騙 appeared first on 民生電子報.

社群留言

台北旅遊新聞

台北旅遊新聞