回到頂端
|||
熱門: 柯文哲 京華城 摩羯颱風

【劉伯倫專欄】人工智慧使抄襲變得更加複雜

銳傳媒/特別報導 2024.07.31 22:05

從一月導致哈佛大學校長辭職的指控,到二月同行評審報告中抄襲文本的曝光,學術界今年一直被抄襲案件攪亂。戴安娜權 Diana Kwon發表在最新一期《自然》(Nature)的<人工智慧使抄襲變得更加複雜。科學家該如何應對?>( AI is complicating plagiarism. How should scientists respond?)指出,生成式人工智慧在寫作中的爆炸性增長引發了關於何時應允許使用該技術的難題。(The explosive uptake of generative artificial intelligence in writing is raising difficult questions about when use of the technology should be allowed.)

在什麼情況下應該允許抄襲

學術寫作中存在著一個更大的問題。生成式人工智慧(AI)工具(根據提示創建文字)的快速普及引發了人們的疑問:這是否構成抄襲以及在什麼情況下應該允許抄襲。路易斯安那州新奧爾良的版權和抄襲顧問喬納森·貝利 (Jonathan Bailey) 表示:“人工智能的使用範圍很廣,從完全由人類編寫到完全由人工智能編寫,中間存在著巨大的混亂荒原。”

ChatGPT 等生成式人工智慧工具基於大型語言模型 (LLM) 演算法,可節省時間、提高清晰度並減少語言障礙。許多研究人員現在認為,在某些情況下它們是允許的,並且它們的使用應該完全公開。

人工智慧將使剽竊行為更容易且更難被發現

但這些工具使圍繞不當使用他人作品的爭論變得更加複雜。大型語言模型經過訓練,可以透過消化大量先前發表的文章來產生文本。因此,它們的使用可能會導致類似於剽竊的情況——例如,如果研究人員將機器的工作冒充為自己的工作,或者如果機器生成與人的工作非常接近的文本而不註明來源。這些工具還可以用來掩飾故意抄襲的文本,很難發現它們的任何使用。英國普利茅斯大學的生態學家皮特·科頓 (Pete Cotton) 表示:“定義學術不誠實或剽竊的真正含義以及界限在哪裡,將非常非常困難。”

在2023 年對 1,600 名研究人員進行的一項調查中,68% 的受訪者表示人工智慧將使剽竊行為更容易且更難被發現。 「每個人都擔心其他人使用這些系統,他們也擔心自己在應該使用它們的時候沒有使用它們,」柏林應用科學大學的抄襲專家 Debora Weber-Wulff 說。 “每個人都對此感到興奮。”

抄襲遇上人工智慧

美國研究誠信辦公室將剽竊定義為“未經適當註明而盜用他人的想法、過程、結果或文字”,這是一個常見的問題。 2015 年的一項研究估計,1.7% 的科學家承認存在剽竊行為,其中 30% 的科學家認識犯有剽竊行為的同事1。

大型語言模型可能會讓事情變得更糟。如果有人要求大型語言模型先解釋措辭,那麼故意抄襲人類書寫的文本就很容易被掩蓋。加拿大溫哥華不列顛哥倫比亞大學的電腦科學家和語言學家穆罕默德·阿卜杜勒-馬吉德 (Muhammad Abdul-Mageed) 表示,這些工具可以以複雜的方式提示釋義,例如學術期刊的風格。

一個核心問題是,使用完全由機器而非人類編寫的未註明來源的內容是否算是抄襲。許多研究人員表示,不一定。例如,包括大學和個人在內的歐洲學術誠信網絡將禁止或未聲明使用人工智慧工具進行寫作的行為定義為“未經授權的內容生成”,而不是抄襲。韋伯-武爾夫說:“對我來說,抄襲是指那些可歸因於另一個可識別的人的事情。”她補充說,儘管有生成式人工智慧生成的文字看起來與現有的人類編寫的內容幾乎相同的例子,但它通常還不夠接近,不足以被視為抄襲。

同行評審報告中的抄襲可能只是“冰山一角”

然而,有些人認為生成式人工智慧工具侵犯了版權。剽竊和侵犯版權都是對他人作品的不當使用,剽竊是違反學術道德的行為,而未經授權使用受版權保護的作品則可能違反法律。 「這些人工智慧系統是建立在數百萬或數億人的努力之上的,」安娜堡密西根大學電腦科學家 Rada Mihalcea 說。

一些媒體公司和作者對他們認為的人工智慧侵犯版權的行為提出了抗議。 2023 年 12 月,《紐約時報》對科技巨頭微軟和 OpenAI 發起版權訴訟,OpenAI 是 LLM GPT-4 背後的美國公司,該公司為聊天機器人 ChatGPT 提供支援。該訴訟稱,兩家公司複製並使用了該報紙的數百萬篇文章來培訓大型語言模型,這些文章現在與該出版物的內容競爭。該訴訟包括一些情況,其中提示導致 GPT-4 幾乎逐字複製該報紙文章的幾個段落。

今年 2 月,OpenAI 向聯邦法院提出動議,駁回部分訴訟,稱“ChatGPT 無論如何都不能替代《紐約時報》的訂閱” 。微軟發言人表示,“合法開發的人工智慧工具應該被允許負責任地發展”,並且“它們也不能取代記者所發揮的重要作用”。

如果法院裁定未經許可對人工智慧進行文字訓練確實構成版權侵權,“這對人工智慧公司來說將是一個巨大的震動”,貝利說。他說,如果沒有廣泛的訓練集,ChatGPT 等工具「就不可能存在」。

人工智慧在學術寫作中的使用呈爆炸式增長

無論是否被稱為抄襲,自 2022 年 11 月 ChatGPT 發布以來,人工智慧在學術寫作中的使用呈爆炸式增長。在 7 月3 日更新的預印本中,研究人員估計,2024 年前六個月的生物醫學論文摘要中至少有 10% 使用了大型語言模型進行寫作,相當於每年 15 萬篇論文。由德國蒂賓根大學資料科學家 Dmitry Kobak 領導的作者分析了學術資料庫 PubMed 中 2010 年至 2024 年 6 月期間發表的 1400 萬條摘要。詞彙——例如「delves」、「showcasing」和「underscores」——然後使用這些不尋常的詞語模式來估計使用人工智慧處理的摘要的比例。他們寫道:“大型語言模型寫作助理的出現對科學文獻產生了前所未有的影響。”

科巴克和他的同事發現,來自中國和韓國等國家的論文顯示出比來自英語為主要語言的國家的論文更多地使用大型語言模型的跡象。然而,科巴克表示,後一組國家的作者可能同樣經常使用這些工具,但使用方式更難以發現。科巴克預測,大型語言模型的使用“肯定會繼續增加”,並且“可能會變得更難被發現”。

在學術寫作中未公開使用軟體的情況並不新鮮。自 2015 年以來,法國圖盧茲大學的電腦科學家 Guillaume Cabanac 和他的同事一直在揭露由 SCIgen 軟體編寫的胡言亂語論文,以及包含由翻譯或解釋文本的自動化軟體創建的“折磨短語”的論文。卡巴納克說:“即使在生成式人工智慧出現之前,人們就已經有了可以在雷達下飛行的工具。”

何時構成抄襲或違反道德,人們仍存在困惑

在學術寫作中使用人工智慧是有價值的。研究人員表示,它可以使文本和概念更加清晰,減少語言障礙,並騰出時間進行實驗和思考。利雅德沙烏地國王大學的資訊科技研究員 Hend Al-Khalifa 表示,在生成式人工智慧工具出現之前,她的許多以英語為第二語言的同事很難寫出論文。 「現在,他們正專注於研究並消除使用這些工具寫作的麻煩,」她說。

但對於人工智慧的使用何時構成抄襲或違反道德,人們仍存在困惑。馬裡蘭大學帕克分校的電腦科學家 Soheil Feizi 表示,利用大型語言模型來解釋現有論文的內容顯然是抄襲。但是,使用大型語言模型來幫助表達想法——無論是通過根據詳細提示生成文本,還是通過編輯草稿——如果透明地完成,就不應該受到懲罰。 「我們應該讓人們利用大型語言模型,能夠輕鬆、更清晰地表達他們的想法,」

許多期刊現在都有允許一定程度的大型語言模型使用的政策。在最初禁止 ChatGPT 生成文本後,《Science》雜誌於 2023 年 11 月 更新了其政策,並表示應完整披露在撰寫稿件時使用人工智慧技術的情況,包括所使用的系統和提示。聲明稱,作者對準確性負責,並「確保不存在抄襲」。《自然》雜誌也表示,研究手稿的作者應該使用方法部分來記錄任何大型語言模型的使用。 (《自然》的新聞和專題團隊在編輯上獨立於其期刊團隊。)

「顯然是 ChatGPT」——審稿人如何指責我進行科學欺詐

對 100 家大型學術出版商和 100 種排名靠前的期刊的分析發現,到 2023 年 10 月,24% 的出版商和 87% 的期刊擁有關於生成式 AI 的使用指南4。幾乎所有提供指導的人都表示,人工智慧工具不能被列為作者,但政策在允許的人工智慧使用類型和所需的揭露程度方面存在差異。韋伯-武爾夫表示,迫切需要在學術寫作中使用人工智慧的更明確的指導方針。

語言模型很難準確地提供你想要的東西

阿卜杜勒-馬吉德表示,目前,大型語言模型在撰寫科學論文方面的廣泛使用因其局限性而受到限制。使用者需要建立詳細的提示來描述受眾、語言風格和研究子領域。 「實際上,語言模型很難準確地提供你想要的東西,」他說。

但阿卜杜勒-馬吉德表示,開發人員正在建立應用程序,使研究人員更容易產生專門的科學內容。他說,用戶將來可以簡單地從選項的下拉式選單中進行選擇,然後按下按鈕從頭開始產生整篇論文,而不必編寫詳細的提示。

偵探工作

快速採用大型語言模型來編寫文本伴隨著一系列旨在檢測文本的工具。儘管許多人都誇耀自己的準確率很高(在某些情況下超過 90%),但研究表明大多數人並沒有達到他們的要求。在去年 12 月5 日發表的一項研究中,Weber-Wulff 和她的同事評估了 14 種學術界廣泛使用的人工智慧檢測工具。只有 5 家能夠準確識別 70% 或更多的文字是人工智慧或人類編寫的,而且沒有一家得分超過 80%。

當發現人工智慧產生的文字被某人透過替換同義詞和重新排序句子進行輕微編輯時,偵測器的準確率平均下降到 50% 以下。作者寫道,此類文本「目前的工具幾乎無法檢測到」。其他研究表明,要求人工智慧多次解釋文字會大大降低偵測器的準確性6。

人工智慧與科學:1,600 位研究人員的想法

人工智慧探測器還存在其他問題。一項研究表明,如果英語寫作的作者不是英語,他們更有可能將其錯誤地歸類為人工智慧生成的。飛子表示,偵測器無法可靠​​地區分完全由人工智慧編寫的文字和作者使用基於人工智慧的服務透過幫助語法和句子清晰度來潤飾文字的情況。 「區分這些病例將非常困難且不可靠,並可能導致大量誤報,」他說。他補充說,被錯誤地指控使用人工智慧可能「對這些學者或學生的聲譽造成很大損害」。

合法和非法使用人工智慧之間的界線可能會進一步模糊。 2023 年 3 月,微軟開始將生成式 AI 工具納入其應用程式中,包括 Word、PowerPoint 和 Outlook。其人工智慧助理的某些版本稱為 Copilot,可以起草或編輯內容。 6 月,谷歌也開始將其生成式 AI 模型 Gemini 整合到 Docs 和 Gmail 等工具中。

英國普利茅斯馬洪大學高等教育專家黛比·科頓(Debby Cotton) 表示:「人工智慧正變得如此深入我們使用的一切事物中,我認為要知道你所做的事情是否受到人工智慧的影響將變得越來越困難。 “我認為它的發展速度將超出我們的步伐。”

社群留言

台北旅遊新聞

台北旅遊新聞