回到頂端
|||

【柳子厚專欄】青少年正在傳播彼此的深度偽造裸照

銳傳媒/特別報導 2024.06.11 10:40

今年2月,比佛利山莊(Beverly Hills)的一群中學生通過分享使用人工智慧的深度偽造的裸照,使16名同學受害。據報導,在新澤西州,一所高中的男生在學校官員發現之前瞄準了30多名女生。學校和家庭正在努力解決在線應用程式,這些應用程式允許某人將普通的穿著照片變成虛假的裸體圖像。RIANA PFEFFERKORN發表在最新一期《科學美國人》(Scientific American)的<青少年正在傳播彼此的深度偽造裸照。這不是開玩笑>( Teens Are Spreading Deepfake Nudes of One Another. It’s No Joke)指出,青少年互相發送同學的深度偽造裸照,擾亂了生活。學校、技術開發人員和家長需要立即採取行動。

這篇文章是《科學美國人》專欄「育兒科學」的一部分。RIANA PFEFFERKORN是斯坦福互聯網天文臺的研究學者。她是最近一篇關於人工智慧生成的兒童性虐待材料的法律和政策影響的論文的作者。

父母應該儘早與孩子談論身體自主權

加利福尼亞州和新澤西州發生的事件是涉及青少年、技術和不可預見的法律後果的眾多事件中的兩起。雖然家長和學校官員通常都知道青少年拍攝或分享另一個孩子的裸照是違法行為,但許多人不明白,從真實孩子的穿著照片中製作和分享虛假色情圖像是一種聯邦犯罪,大量“裸體”或“脫衣服”應用程式使擁有手機的青少年很容易觸犯法律。這些應用程式使用人工智慧 (AI) 來生成個人穿著照片的逼真裸體版本,這些照片通常來自社交媒體。

在這些應用程式出現之前,犯罪者可以使用Photoshop將兒童的臉粘貼到成人色情演員的身體上(或者更糟糕的是,將另一個兒童的虐待圖像粘貼到成人色情演員的身上)。但這需要時間,一台筆記型電腦或台式電腦,以及一些技術熟練程度。現在,這些人工智慧驅動的應用程式將快速、免費地完成所有工作,從而可以在他們不知情或未經同意的情況下輕鬆快速創建多個受害者的照片。

雖然一些員警和州立法者越來越關注,但當青少年使用這些技術時,學校、管理人員甚至員警部門往往措手不及。這些地方實體最終辜負了受害者,其中絕大多數是女性。父母可以通過儘早與孩子談論身體自主權和同意,並鼓勵尊重和同理心來説明防止孩子成為肇事者。當青少年確實創建或分享深度偽造的裸體時,學校和執法部門必須採取適當行動,保護青少年的生活不受干擾。

學生抱怨圖像不值得向警方報告

聯邦法律對兒童性虐待材料 (CSAM) 的定義不僅涵蓋實際虐待的真實圖像,還包括縱成看起來像真實、可識別的兒童(例如班上的特定學生或兒童名人)正在從事露骨性行為或姿勢的圖像。這包括用生成式人工智慧改變的圖像,正如聯邦調查局最近的警報所警告的那樣。

一些州現在禁止這些所謂的「變形」圖像,包括佛羅里達州、路易士安那州、南達科他州和華盛頓州,其他地方也有類似的法案。教育部最近認為,未經同意分發深度偽造的裸體是一種基於性別的騷擾形式,學校必須根據第九條解決。作為一名研究人工智慧對兒童安全影響的研究人員,我希望這些更新能夠讓更多的學生和學校認真對待深度偽造的裸體照片——這與西雅圖郊區的學校官員不同,儘管學生抱怨,他們認為圖像不值得向警方報告,因為它們是假的。

13歲和14歲的男孩面臨三級重罪指控

在這些犯罪發生之前阻止它們至關重要的眾多原因之一是成年人的反應會使事情變得更糟。在邁阿密,兩名年齡分別為13歲和14歲的男孩去年冬天被捕,並面臨三級重罪指控。這是已知的第一個兒童因深度偽造裸體而被逮捕和指控的案例,它應該是最後一個。對兒童的刑事起訴會適得其反:我們充滿虐待的少年司法系統對年輕罪犯造成了持久的傷害。對於早期的青少年來說,這尤其難以證明,他們可能不理解為什麼他們所做的事情是錯誤的,因為他們的道德推理能力沒有得到充分發展。他們可能認為深度偽造的裸體是一個有趣的惡作劇,或者沒有預料到副本會如何失控地傳播。

也就是說,未經同意的裸體深度偽造是極度厭惡女性的,而“男孩就是男孩”的舊藉口不是(也從來都不是)對性欺淩的可接受的回應。深度偽造裸照的受害者可能會遭受「重大」的情感和聲譽傷害。製作或分享圖像的青少年需要被追究責任,但除了刑事定罪之外還有其他選擇。比佛利山莊中學開除五名學生,一名新澤西州深度偽造的受害者正在起訴她的同學。

阻止深度偽造裸體的最好方法是預防

除了懲罰之外,另一種方法是“恢復性司法”,它以治癒和建立相互尊重為中心,同時接受對自己行為的責任。學校恢復性做法的一個例子是使用討論圈,在這個討論圈中,受害者和被告都可以發表意見,並要求被告對造成傷害和修復傷害負責。恢復性司法方法並不容易,但它可以在學校取得成功,並且可能比起訴、訴訟或開除對所有相關人員更具建設性和治癒性。

對於家長和教育工作者來說,阻止深度偽造裸體的最好方法是預防,而不是反應。這意味著與孩子溝通——即使它變得尷尬。

對於年輕人來說,對性感到好奇或對同齡人有好感並不是不健康的,但父母往往不願意與孩子討論性和性行為,而學校往往沒有充分解決這些話題。教你的孩子或青少年,深度偽造裸體是不行的,原因與我們教年幼的孩子安全與不安全的觸摸相同:“你的身體屬於你,所以你可以設定界限並對你的身體做出選擇。其他人在自己的身體里有隱私和代理權,你需要尊重他們的身體,就像他們需要尊重你的身體一樣。

這是一種邊界侵犯,就像不必要的觸摸一樣

這種身體自主權包括圖像。從受害者的角度來看,深度偽造裸體不是一個有趣的惡作劇,不是無害的好奇心放縱,比性更安全,也不是比看色情片更不違法。這是一種邊界侵犯,就像不必要的觸摸一樣。製作或分享這樣的圖像可能會給孩子帶來麻煩,但更重要的是,它會傷害另一個孩子的隱私、代理權、尊嚴和聲譽。它對某人的身體做出了其他人無法做出的選擇。

如果您的孩子成為深度偽造裸體的受害者或旁觀者,信任和開放將是必不可少的。如果您的孩子知道其他孩子成為目標,他們需要自信和正直來告訴您或學校。如果你的孩子是受害者,他們需要知道他們可以把問題帶到你面前,並聽到這不是他們的錯,他們不必感到羞恥。你的孩子需要知道你支持他們。

在孩子的設備上安裝監控軟體會破壞親子信任

除了圍繞性和身體自主權的對話之外,父母還可以做一些具體的事情來阻止深度偽造裸體的傳播。與您的孩子討論他們訪問的網站和手機上的應用程式。適合年齡的家長控制可以有其用途,但請記住,孩子們也應該有隱私,年齡越大越好。在他們的設備上安裝監控軟體會破壞親子信任,同時將侵入性監控正常化到個人生活中。此外,許多“面向父母”的監控應用程式只是家庭虐待者使用的更名跟蹤軟體。

宣導您孩子的學校在家長和學生的意見下制定全面的深度偽造裸體計劃。它應該包括對教育工作者進行培訓,讓他們瞭解管理虛假(和真實)裸體圖像的法律及其在學生傷害其他學生時的法律義務,為受影響的學生提供諮詢和支援,以及將深度偽造裸體和性勒索等相關主題納入性教育課程。

完全根除裸體應用程式是不現實的

孩子們可以通過應用商店、搜尋引擎和社交媒體上的廣告找到裸體應用程式。像蘋果、Instagram、X和Patreon這樣的公司往往會對糟糕的公關做出反應,而人工智慧服務本身也害怕CSAM的責任。呼籲科技平臺加大力度,推出裸體化應用程式和未經同意的裸體圖像;以及人工智慧公司承諾確保只負責任地使用其產品。

如果您的孩子出現在網上傳播的裸照(真實或假)中,一項名為Take It Down的服務可以將其從參與的社交媒體服務中刪除。這是國家失蹤和受虐兒童中心提供的免費工具。聯邦政府新的Know2Protect活動為兒童和家庭提供了其他資源。

雖然新的州法律和新的第九條規則可能有助於解決學校的深度偽造裸體問題,但厭女症和兒童性虐待是由來已久的問題,兩者的新技術總是會不斷出現。完全根除裸體應用程式是不現實的,但關閉一些不良行為者是可能的。為了獲得最大的效果,目標應該是那些知道他們的軟體正在啟用CSAM的陰暗開發人員,而不是他們的青少年使用者。對受創傷的孩子的答案不是給更多的孩子帶來創傷。

社群留言

台北旅遊新聞

台北旅遊新聞