AI生成論文恐助長學術不端?專家這樣說...
最近有幾起藉助生成式AI寫學術論文的事件引發關注:教授署名的論文中出現ChatGPT常用提示語,醫生用AI製作論文插圖疑似違反常識……網友懷疑這屬於造假、抄襲等學術不端行為。
央視訪問了大陸學者的觀點,學者以自己的經驗表示,用AI有利有弊,看你怎麼用。
同濟大學馬克思主義學院副教授、博士生導師王少表示,「據了解,目前已經有學生在用AI,去寫論文和課程作業了。」「照目前的發展情況看,將AI作為輔助研究工具,很有可能會成為一個流行的趨勢。」
某高校法學院研究生張立清(化名)是AI的「輕度使用者」。「我一般用它來做檢索,AI比網頁檢索更方便、快捷,而且更有效率。」在嘗試過AI的各種用法之後,張立清認為效果最好的是用AI做潤色。
不過,一年後即將從某高校博士畢業的楊佑宜(化名)就表示,生成式AI對於要求較高的博士論文用途不大。「AI生成的內容比較淺顯且準確率不高,會編造不存在的論文,或者把相同意思的內容反覆去說。我2023年用過一次之後就沒有再用過了」。
另一所高校在讀本科生鄔小涵(化名)也認為,用AI寫論文有點大材小用了。「平時的作業主要是相對基礎的思考和研究,比如一些思考題、主觀題和1000字的小論文。自己查查資料、看看書就可以完成。」鄔小涵說,「做學術的比較專業的人,或者未來在工作上可能會用得到。目前本科裡面很少有同學用AI,我個人就沒有用過。」
王少表示,「對於推動創意完善,實現重複內容的大規模創造,生成式AI都具有極大的價值。這些工具在加深人與人工智慧交互的同時,也會給學術研究等各種知識生產工作帶來新的發展機遇。我們的學術研究人員,包括教師、學生,都可以從一些重複性的閱讀和材料整理工作當中解放出來,從而將更多的時間放到創新之上。所以有利之處也是比較多的。」
但是,生成式AI的弊端同樣很明顯,比如它對學術不端治理造成了很大的衝擊。王少介紹,學術不端通常是指違背學術倫理、科研誠信的行為,或者是侵害著作權、誤導科研界的行為。從外延的角度看,經典的學術不端行為主要是「FFP」,也就是捏造、篡改和剽竊,此外,還有不當署名、重複發表、侵占他人研究成果、數據管理不善、未披露利益衝突等一些表現形式。
生成式AI會助長學術不端嗎?
「在ChatGPT等生成式AI興起之前,AI在學術研究中的主要功能是輔助,像輔助繪圖、輔助整理文獻等等。雖然也可能涉及學術不端,但總的來說風險不大。但是生成式AI,無論是ChatGPT還是GPT-4,都是以內容生產為核心功能,它直接指向論文撰寫,這樣就使得學術不端的風險增大了。」王少介紹。
王少認為,理論上,使用AI可能發生全部類型的學術不端行為,其中最可能的是剽竊和捏造。
既然AI增加了學術不端的風險,是否應該在寫論文時使用AI呢?王少表示:「一般來說,我們不應當直接使用AI寫學術論文,這是不被接受的。因為在現有的技術條件和學術不端治理的政策框架之下,直接使用AI去撰寫論文無法規避學術不端風險。」
王少表示:「目前我們只能將AI作為研究輔助工具,而不應該直接用於撰寫論文。」不過,完全禁止使用AI也是一種因噎廢食的做法。
王少說:「在大學裡可以開設一些相關的課程,不僅要教學生怎麼去使用生成式AI,還要教會學生怎麼用才是合理的、規範的,才是合乎學術倫理的。我覺得後面這一點可能更重要。」