回到頂端
|||

【曾子固專欄】AI技術穩步入侵競選活動

銳傳媒/特別報導 2024.04.10 08:52

今年舉行選舉的國家有近 20 億人口,其中一些已經投票。印尼和巴基斯坦等國家今年 2 月舉行的選舉讓我們初步了解了人工智慧 (AI) 技術穩步入侵選舉領域的前景。正在出現的情況令人深感擔憂,而且擔憂的範圍遠不止於錯誤訊息或假新聞的擴散。魯曼·喬杜里 Rumman Chowdhury發表在最新一期《自然》(Nature)的<人工智慧推動的競選活動已經到來——規則在哪裡?>( AI-fuelled election campaigns are here — where are the rules?)指出,政治候選人越來越多地使用人工智慧生成的「軟贗品」來推動他們的競選活動。這引起了深刻的道德擔憂。

作為Twitter 機器學習、道德、透明度和問責(META) 團隊(在成為X 之前)的前任主管,我可以證明,為識別和製止由生成人工智能(GAI) 帶來的與選舉相關的虛假信息,我們正在付出巨大的努力。但政客和政黨出於非公開惡意的目的使用人工智慧也會引起深刻的道德擔憂。

GAI 正在迎來一個「軟贗品」時代。這些圖像、影片或音訊片段經過修改,以使政治候選人看起來更具吸引力。深度造假(數位化改變的視覺媒體)和廉價造假(低品質改變的媒體)與惡意行為者有關,而軟化行為者通常是由候選人的競選團隊自己製作的。

如何阻止人工智慧深度造假讓社會和科學陷入困境

例如,在印尼總統選舉中,獲勝候選人普拉博沃·蘇比安托(Prabowo Subianto)嚴重依賴 GAI,創造和推廣卡通化身,將自己重新命名為gemoy,意思是“可愛又可愛”。這種由人工智慧驅動的改造是更廣泛嘗試的一部分,目的是吸引年輕選民,並消除有關他在擔任高級軍官期間侵犯人權的指控。BBC 稱他為“印尼的‘可愛的爺爺’,有著血腥的過去”。此外,有些人認為,巧妙利用深度偽造技術,包括支持蘇比安託的團體用人工智慧「投票」虛擬復活印尼已故前總統蘇哈托,被一些人認為是他意外獲勝的原因之一。

Nighat Dad 是位於巴基斯坦拉合爾的研究和倡導組織數位權利基金會的創始人,他記錄了孟加拉國和巴基斯坦的候選人如何在競選中使用 GAI,包括以候選人的名義撰寫的人工智慧文章。南亞和東南亞的選舉充斥著候選人用多種語言說話、唱懷舊歌曲等的深度造假影片——以候選人自己在現實中無法做到的方式使這些影片變得人性化。

選舉中適當使用 GAI 制定全球準則

應該做什麼?可以考慮圍繞選舉中適當使用 GAI 制定全球準則,但它們應該是什麼?已經有一些嘗試。例如,美國聯邦通訊委員會禁止在電話中使用人工智慧產生的聲音,即自動呼叫。 Meta 等企業推出了浮水印——添加到圖像或影片中的標籤或嵌入程式碼——來標記被操縱的媒體。

但這些都是生硬且往往是自願的措施。從產生人工智慧內容的公司到分發這些內容的社群媒體平台,整個通訊管道都需要製定規則。

歐盟嚴格的人工智慧法對研究和 ChatGPT 意味著什麼

內容生成公司應該仔細研究如何定義浮水印的使用方式。水印可以像郵票一樣明顯,也可以像內容分發者取得的嵌入式元資料一樣複雜。

分發內容的公司應該建立適當的系統和資源,不僅要監控錯誤訊息,還要監控透過候選人認可的官方管道發布的破壞選舉穩定的虛假訊息。當候選人不遵守水印時(這些做法都不是強制性的),社交媒體公司可以標記並向觀眾提供適當的警報。媒體機構可以而且應該對軟假貨制定明確的政策。例如,他們可能允許將勝利演講翻譯成多種語言的深度偽造,但不允許支持候選人的已故政客的深度偽造。

我們必須培養反應能力

選舉監管機構和政府機構應密切關注參與虛假媒體開發的公司的崛起。總部位於紐約市的人工智慧公司 Eleven Labs 的文字轉語音和語音模擬軟體被部署來產生機器人電話,試圖勸阻選民在一月份的新罕布夏州初選中投票給美國總統喬·拜登。在巴基斯坦前總理伊姆蘭汗(Imran Khan) 2024 年競選活動中,他在牢房裡製作了他的軟贗品。我不建議對公司通過軟假監管,這可能會扼殺模仿等允許的用途,而是建議建立 GAI 使用的選舉標準。長期以來,法律一直限制候選人競選的時間、方式和地點,以及他們可以發表的言論。

公民也可以發揮作用。我們都知道您不能相信您在網路上閱讀的內容。現在,我們必須培養反應能力,不僅能夠發現經過修改的媒體,而且還要避免認為候選人的軟造作品「有趣」或「可愛」的情感衝動。這些的目的並不是對你撒謊——它們通常顯然是人工智慧生成的。目標是讓候選人討人喜歡。

軟假已經影響了世界上一些最大民主國家的選舉。隨著正在進行的民主年(大約有 70 次選舉)在接下來的幾個月中展開,我們應該明智地學習和適應。

社群留言

台北旅遊新聞

台北旅遊新聞