文章專區

2024-01-15臺大研究量化AI產生的假資訊 如何影響人們的記憶 505 期

Author 作者 整理報導|羅億庭

現代人的生活離不開人工智慧(artificial intelligence, AI),例如常見的Google Assistant、Apple Siri等語音型智慧助理,而在ChatGPT、Google Bard等生成式人工智慧聊天機器人逐漸普及後,也有愈來愈多人開始將這些文字型聊天機器人當成查找資料時的好幫手。然而,這些藉由對話產生資料的AI對話引擎,可能會從學習資料提取到如網路謠言等錯誤資訊,或是出現「幻覺」(hallucinations)而無中生有地生成了不真實的回應。
 
為了量化AI生成的不實訊息對人類記憶的影響,進而影響日常生活中的決策,臺灣大學心理學系副教授黃從仁與美國藝術與科學院院士拉賈拉姆(Suparna Rajaram)組成的團隊進行了相關研究。在研究中,團隊為了避免聳動資訊帶來的影響,刻意採用不帶情緒或價值的中性資訊作為實驗材料,但最終仍發現當人們與會提供不實資訊的人型機器人交流後,會將機器人所提供約七到八成的不實資訊,錯誤地指認為真實資訊。目前此研究結果已刊登於《美國心理學家》 (American Psychologist)期刊。
 
此外,團隊也在這項研究中發現,這種從機器到人的假記憶傳染似乎很難避免。在進行其中一組實驗時,機器人會在與人類交流前告知人類「它們有可能會提供錯誤資訊」,或是在提供特定錯誤資訊前,數次做出自己不太確定答案的警告。不過在後續的記憶測驗時,卻發現人們必須在曾被數次特定警告的情況下,整體的假記憶比例才有些微減少。團隊進一步分析這些人假記憶減少的原因,推測他們可能是因為被機器人警告後對它們所說的內容提高了戒心,因此才使得假記憶形成的比例降低。
 
團隊表示,人們普遍相信具有完美記憶的機器人能提供他們正確的資訊,而在記憶容量有限的情況下,大腦通常會優先記住資訊的內容而非對資訊的「標註」(例如內容來源為何或是否有被警告過),此現象也被預期會發生在其他的人機互動情境中。根據這項研究結果,團隊建議聊天機器人應該藉由技術上的改善,盡可能不要輸出錯誤的資訊,像是透過人工檢核的方式剔除學習資料中的錯誤訊息,或是讓聊天機器人在輸出資訊前先針對答案進行事實查核。若機器人無法確認自己答案的真確性,應該直接回答不知道而非自行產生不真實的回應。最後,人們也應對聊天機器人的輸出內容抱持適度戒心,不要完全相信機器人提供的答案。

 

(Adobe Stock)

 

新聞來源
臺大校訓(2023年12月6日)。「機」言可畏:臺大AI中心團隊研究成果發表在頂尖期刊《美國心理學家》。臺大校訓,https://sec.ntu.edu.tw/epaper/article.asp?num=1588&sn=23951