文章專區

2024-10-21聊天機器人成功挑戰陰謀論?新研究顯示AI有機會說服人類 514 期

Author 作者 編譯|羅億庭

在現代社會中,你可能會認識某些人——他們認為登月是假的、新冠疫苗裡面安裝了微晶片。這些「陰謀論」(conspiracy theory)的信徒堅持著幾乎不符合現實狀況的論點,且即使見到相關證據也不為所動。但根據上(9)月發表在《科學》(Science)期刊上的研究,當具有事實根據的論點由人工智慧(artificial intelligence, AI)聊天機器人而非「一般人」提出時,確實有些陰謀論者會改變想法。

根據統計,近一半的美國人相信某種陰謀論。許多心理學家也認為,這些信念有助於滿足人們潛在的心理需求,例如對安全的渴望,但我們實際上很難測試人們內心的潛在動機。而陰謀論信徒在現實生活中辯論時,經常會快速地提出許多論點來攻擊反對者。雖然很難有人類能一次性地回應這些所有的論點,但AI理論上可以做到這件事。為了驗證此想法,來自美國美利堅大學(American University)的心理學家科斯特洛(Thomas Costello)和他的同事,希望能了解像GPT-4 Turbo這類能在數秒鐘內處理、生成大量訊息的大型語言模型(large language models, LLMs),是否能藉由個人化、量身定制的說法來揭穿陰謀論。

在研究中,團隊招募了2000多名至少相信一種陰謀論的參與者。研究人員將陰謀論定義為,對於重要的事件或情況有與現況不同的相信或認知,例如認為甘迺迪(Robert Kennedy)遇刺或新冠疫情是由有權勢的人或組織祕密策劃。接下來,他們讓這些人與LLM聊天機器人進行簡短對話。每個人都向AI分享他們的信念,以及他們認為能夠支持這項信念的證據,同時也評估他們
對於該事件真實性的信心程度。在對話過程中,LLM聊天機器人會使用來自書籍、線上討論和其他來源的公開資料,以具體、基於事實的證據來反駁陰謀論者提出的每一個論點。研究結果顯示,人們對於陰謀論的信心在與LLMs對話過後平均減少了約20%,且持續時間長達兩個月。普羅伊延推測,這種辟謠機器人之所以能成功,原因可能是它在對話過程中非常有禮貌;但真實人類在討論類似話題時,對話容易變得激烈且不尊重。

瑞士蘇黎世大學(University of Zürich)的研究員傑爾馬尼(Federico Germani)指出,說服技巧中涉及的修辭可能也至關重要。由於LLMs的訓練過程奠基於真實的對話,因此它們會掌握那些使論點更具說服力的微妙修辭策略。但英國肯特大學(University of Kent)的心理學家則質疑,該篇研究的作者並未直接測量參與者在與聊天機器人交談後,他們的需求是否得到滿足,因此無法知道這項試驗是否真的改變了他們的想法。不過來自荷蘭阿姆斯特丹自由大學(Free University of Amsterdam)的行為科學家普羅伊延(Jan-Willem van Prooijen)認為,可以看到AI在打擊錯誤資訊和陰謀論方面發揮作用,是一項非常具有希望的事。在過去,生成式AI常因傳播虛假訊息而臭名昭著,而這項研究可以讓人們看到它被用於正面的用途,十分鼓舞人心。

雖然陰謀論者不太可能自願與辟謠機器人接觸,但目前許多社交媒體網站中已會使用某些標記指出潛在的錯誤訊息,像是X上的Community Notes功能,闢謠機器人就能依據此類資料提供額外的訊息給閱聽人。此外,人們也可以使用辟謠機器人來快速確認他們聽到的新說法,以培養健康的懷疑態度,不輕易陷入錯誤資訊的漩渦。

新聞來源
Jacobs, P. (12 September 2024). AI chatbot shows promise in talking people out of conspiracy theories. Science, https://reurl.cc/8XOMQ7.