文章專區

2023-03-15ChatGPT可以被列為論文作者嗎?學術期刊發布相關使用規則 495 期

Author 作者 編譯|陳亭瑋

去(2022)年11月OpenAI發布的人工智慧(artificial intelligence, AI)聊天機器人ChatGTP,在非常短的時間內掀起了一波運用AI協助寫作的浪潮。ChatGPT屬於大型語言模型(large language model),可以協助編寫出流暢的短文、組織寫作內容、回答問題,甚至產生有用的程式語言。在此過程中,有人發現可以運用ChatGPT寫出學術論文,已經出現一些預印發表與正式的發表文章將ChatGPT正式列為文章作者的行列。面對此情況,《自然》(Nature)與《科學》(Science)等重要學術出版商,均於今(2023)年針對大型語言模型制定相關的使用規則,並且已經正式列入現有的投稿指南。

人工智慧出現在作者欄位,掀起出版領域波瀾

隨著ChatGPT在社群媒體大放異彩,此類運用龐大文本、足以產生有如真人寫作成品的大型語言模型也進一步挑戰了學術寫作的認知。截至今年2月,ChatGPT已經出現在至少四篇正式的科學論文與預印發表的作者欄位,在學術出版領域掀起一陣討論。

在此之前,雖然也存在著少數學術論文將寵物、虛擬人名等列入作者欄的例子,然而過去這類狀況僅為該期刊漏失了相關檢查的特例,並不如這次代表了某種對於作者定義的重新審視。讓ChatGPT署名發表的其中一個單位為醫學預印發表平台medRxiv,該預印發表共有12位作者,文章內容主要有關使用ChatGPT進行醫學教育的潛力。根據medRxiv共同創辦人賽佛(Richard Sever)的說明,medRxiv與姊妹站bioRxiv的經營團隊仍在討論使用AI工具如ChatGPT進行學術論文寫作、列入作者欄位是否合適,或者應依據過去的慣例將AI僅視作一種工具於材料方法或其他欄位中作說明。賽佛認為在這個討論中,最重要的部分可能是釐清學術論文的正式作者與一般文本的寫作者這兩者的差異。學術論文正式作者對於成品具有一定的法律責任,因此一般認為僅能列入自然人。

與ChatGPT共同發表文章於《腫瘤科學》(Oncoscience)的扎沃龍科夫(Alex Zhavoronkov)為香港藥物新創公司Insilico的執行長,該公司運用AI研發新藥,目前已經發表了超過80篇使用生成式AI工具輔助撰寫的論文。依據扎沃龍科夫的說法,ChatGPT在此文章中以帕斯卡的賭注(Pascal's Wager)討論服用藥物的利弊,寫作的品質遠比前幾代AI工具更好。

語言流暢但概念不正確,挑戰學術寫作的語言模型

目前普遍認為如ChatGPT這類的AI技術,主要是基於人類的回饋強化學習、訓練而得出的語言模型,使它本身具有很多強的互動性;但從科學正確性的角度,這類AI技術仍會寫出看起來合理但實際上完全不正確、甚至非常荒謬的答案。也有許多例子顯示,此種AI技術在事實層面會犯下許多錯誤,比如引用(或者可以說是捏造)不存在的科學研究內容。

此外,也有人擔憂ChatGPT對於學術發表寫作的影響。近期有一項研究測試,將ChatGPT產生的論文摘要提交給審稿者,僅有63%的摘要被審稿者發現是由ChatGPT生成,這顯示了如果未有明確的規範與管理機制,ChatGPT這類AI生成的文本將有機會大舉入侵學術發表的世界。

雖然靠人工大量分辨大型語言模型有它的困難性,但實際上經過審視後並非完全無跡可循。有編輯指出在多個段落而且牽涉科學內容的寫作時,ChatGPT特別容易犯下簡單的錯誤。目前也有一些基於大型語言模型的工具正在開發中,希望可以透過AI自動分辨出這類作品,或甚至加上「浮水印」讓這類成品可以清晰標註為AI生成的。

出版商共識:AI無法為作品負責,因此不應列入作者

考慮到AI應用於學術發表的貢獻將愈來愈普遍,目前學術發表界已經出現許多討論,甚至延伸出正式的規範。在該領域具代表性的《自然》與《科學》期刊均已表態認為ChatGPT不符合作者身分的標準——因為標註作者身分也伴隨了對學術發表內容的責任,且ChatGPT沒有對使用條款表示同意與否的能力。但對於大型語言模型是否可應用於輔助學術論文發表的寫作,顯然目前不同的出版社有不同的方針。

針對此波討論,今年1月底《自然》期刊為大型語言模型制定了兩項規則,並納入作者指南中。首先,大型語言模型不應被列入論文作者的行列,因為作者署名也代表了相關工作的責任歸屬,但AI作為工具無法為成品負責。其次,使用大型語言模型協助研究的研究人員,應在方法或致謝的段落標註大型語言模型的使用,如果論文本身不含這類段落,也可以標註在引言或其他部分。

與此同時,《科學》期刊的主編索普(Holden Thorp)也發表社論,認為根據《科學》系列期刊要求作者投稿時聲明「作品為原創」,投稿的文章原本就不可使用大型語言模型如ChatGPT的成品進行寫作,作者應全權為投稿文章中的文字負責。但《科學》期刊仍進一步更新了編輯政策,明確規定任何AI工具包括ChatGPT生成的文字、繪圖、影像皆不可用於投稿文章。在《科學》系列期刊的規範中,AI不僅不能被列為作者,甚至不得使用於協助內容的製作。

雖然已經引起了廣泛的討論,但AI在學術發表領域可以作出哪些貢獻,又應該受到哪些規範,目前顯然仍處於非常早期的階段。隨著AI技術能力的進展,可以預見將有更多的爭議逐漸浮現,未來將需要更多的智慧應對解決。

新聞來源
1. Stokel-Walker, C. (18 January 2023). ChatGPT listed as author on research papers: many scientists disapprove. Nature. https://www.nature.com/articles/d41586-023-00107-z
2. Thorp, H. H. (2023). ChatGPT is fun, but not an author. Science,379(6630), 313-313.
3. Editorial. (24 January 2023). Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature. https://www.nature.com/articles/d41586-023-00191-1