每當我們上網時,我們可能會發現自己是實驗的一部分——而不自知。數位平台追蹤用戶的行為以及他們對功能的反應。這些測試越來越對其參與者產生現實影響。提姆·韋斯 Tim Weiss發表在最新一期權威期刊《自然》(Nature)的<為什麼我們都是數位世界的實驗室老鼠>( Why we are all lab rats in the digital world)指出,研究人員需要為線上實驗建立健全的道德協議。(Researchers need to establish robust ethical protocols for online experiments.)
以負責任且合乎道德的方式利用人工智慧在研究中的潛力
研究了為自由工作者提供有償任務和工作的工作清單平台。平台嘗試使用不同的方法對人們的工作進行評分,並改變他們的技能在個人資料頁面上的列出方式以及他們與承包商互動的方式。這些變化影響了人們的評級和他們所收到的工作量。
二十年前,這類實驗是透明的。零工工人可以選擇參加或不參加測試。但今天,這些實驗都是秘密進行的。零工工人在創建帳戶時放棄了自己的權利。
進行實驗可能會令人不安和喪失能力。想像一下,每次您進入辦公室時,它都會被重新設計。如何評估你以及如何在你不知情或未經你同意的情況下與你的上級交談也是如此。這種持續的改變會影響你的工作方式和感受。
零工表示,在注意到列表平台上未經他們同意而頻繁發生的變化後,他們開始將自己視為實驗室小白鼠,而不是有價值的用戶。由於他們的訊息被聊天機器人封鎖,他們無法向平台投訴或選擇退出變更。沮喪情緒油然而生,冷漠情緒油然而生。
這令人擔憂,不僅因為它對零工工人的影響,還因為學者們越來越多地參與數位實驗的設計。社會科學家遵循嚴格的機構審查委員會 (IRB) 程序,這些程序管理涉及人類的實驗的道德規範,例如通知他們並要求他們同意,但這些規則不適用於科技公司。這會導致可疑的做法和可能不可靠的結果。
人工智慧救援:如何利用科技工具加強災難預警
科技公司利用其服務條款授權他們收集數據,而沒有義務告知人們他們參與其中,或為他們提供任何退出的機會。因此,數位實驗面臨的監督很少。
鑑於科技公司覆蓋數百萬人,使用其數據進行的實驗可以提供豐富的資訊。例如,學者和職業平台 LinkedIn 於 2022 年進行的一項研究回答了有關人們社交網絡中的薄弱環節如何影響工作成果的問題(K. Rajkumar等人,Science 377,1304–1310;2022)。該平台改變了為超過 2000 萬用戶推薦新聯絡人的演算法。這些人並不知道,儘管這可能會影響他們的工作前景。
科學家本身也可能受到這種隱藏做法的影響。例如,9 月,《科學》雜誌承認,其發表的利用社交媒體平台 Facebook 的用戶信息探索政治極化的研究因科技巨頭在研究期間在科學家不知情的情況下改變了算法而受到損害。
學術界必須對他們透過與科技公司合作產生的數據更加警惕,並重新思考他們如何進行這項研究。科學與產業合作需要一個道德上健全的框架,以確保實驗不會損害大眾對科學的信任。
連鎖撤回:如何阻止不良科學透過文獻傳播
首先,學者應該透過審核潛在的合作夥伴並確保他們遵循IRB原則來進行徹底的道德檢查。他們可以與中介監督組織合作或創建中介監督組織,就像總部位於英國牛津的 Fairwork 保護零工工人的權利一樣,該組織可以審查實驗實踐並引入資料收集的透明度。他們可以傳播和執行實驗的道德規範,告知產業夥伴如何進行符合道德的研究並追究他們的責任。
其次,學者需要評估實驗的社會影響,以研究和減輕任何潛在的危害。這並不是一件小事,因為實驗很少考慮參與者的福祉,也不會評估潛在的意外後果。
科技公司應該建立自己的內部審查委員會,有權評估和審查實驗。產業需要灌輸道德穩健的實驗文化,包括了解參與者可能面臨的潛在不利影響。
監管至關重要。一個很好的例子是歐盟的《人工智慧法案》,該法案以消費者的資料隱私和保護權為中心,旨在建立「一個安全且受控的實驗空間」。
消費者和使用者應該組成第三方組織,類似於零工工人使用的工會,對公司是否徵求同意並允許人們選擇退出實驗以及它們的透明度進行評級。
推動科學工業實驗的前沿需要實踐、規則和法規,以確保人們、組織和社會互利共贏。