文章專區

2024-06-15ChatGPT到底在「想」什麼? 科學家以心理學與神經科學研究人工智慧 510 期

Author 作者 編譯|陳亭瑋

人工智慧(artificial intelligence, AI)大型語言模型(large language models, LLM)的能力逐漸被肯定,但它的內在運作模式仍然是個謎。為了探究此謎題,科學家開始採取「逆向工程」的方法,應用心理學與神經科學的研究方式,嘗試解構AI的運作邏輯以理解它的運作。
 

機器學習帶來謎團,AI如何得出結論?

現階段最新的AI技術主要倚賴大量機器學習(machine learning)技術,在這種情況下,AI會自行辨識資料中的模式,而無需事先給予任何規則組織或分類資訊。最先進的機器學習系統使用的是神經網路(neural networks),設計概念來自於人類大腦的架構,它們模擬神經元層的運作,讓資訊在每一層中轉換。然而,最終由AI生成的模型產生結論背後的理由,對人類來說可能難以理解。正如人類大腦一樣,這些網路在學習過程中會強化或削弱神經連接,但我們往往難以看出為何某些連接會受到影響。因此,科學家們經常將AI比作「黑盒子」,AI的內部如何運作是一個謎。
 
為了解決這一項難題,科學家們轉向發展可解釋AI(explainable AI, XAI)領域,發展更多的工具與研究技巧,並以逆向工程了解AI的運作,理解哪些情況會影響AI做出特定的建議或診斷。雖然XAI幫助研究人員破解了一部分黑箱內容,但XAI仍在發展中。
 

LLM蓬勃發展,危機與疑問並存

對於LLM來說,這個問題尤其嚴重。LLM的應用十分廣泛,例如最廣為人知的ChatGPT等聊天機器人,就是它的應用之一。由於LLM擁有數量龐大、約數百萬億的「參數」,所以給出的答案常常難以解釋、亟待研究了解。因此,在LLM開始蓬勃發展後,XAI也跟著迅速發展。
 
隨著AI的應用逐漸廣泛,人們正在使用LLM尋求醫療建議、撰寫電腦程式碼、彙整新聞、撰寫學術論文等,LLM這類難以解釋的AI現在正在承擔重要的任務。然而,眾所周知,這種模型可能會產生錯誤的資訊、延續社會刻板印象並洩漏私人資訊。有些人形容LLM為「隨機鸚鵡」(stochastic parrot),認為LLM主要會根據機率排列組合文字模式完成寫作,但實際上並未實質理解寫出來的內容。不過,也有人指出實際上的情況更為複雜,包括在許多情況下,都有人發現LLM出現推理等類似人類的能力。
 
許多研究努力研究LLM背後的原理,以便未來能創建更安全、更高效且更準確的AI。也能藉此建立標準,了解何時該相信聊天機器人的輸出,或者如何進行監控,以設定AI相關的防護措施。
 

透過交談與掃描,了解LLM運作的邏輯

科學家們採取了多種方法來探索LLM的內部運作。其中一種與心理學研究使用的方法相似,僅通過問問題來了解它的運作方式。這類研究方法將LLM視為與人類類似的主體,並與它進行對話,希望藉此了解來自於簡單的類神經網路所產生的複雜行為。Google團隊曾在2022年推出「思維鏈指令」(chain-of-thought prompting),藉由示範的方式讓LLM展示自己推導的邏輯。但也有研究團隊指出,思維鏈指令給出的答案仍有被誤導的空間。雖然尚無定論,但目前此類研究已經顯示了LLM比人類更容易受到語言措辭暗示,提供有偏見的答案。
 
還有其他研究人員從神經科學中獲取靈感,以探索LLM的內部運作。為了探查聊天機器人是如何「欺騙」,他們對LLM提出問題、要求AI「說謊」,然後觀察它的「神經元」活化情況。這項研究方式與為人類進行神經影像掃描的過程有些相似,有點像是研發一款LLM專用的測謊器。目前有多種不同的LLM掃描技術,部分採用由上而下的方式,將概念或事實歸因於底層的神經運作;也有一些則採用由下而上的方式,藉由觀察不同「神經元」運作的時間點,以了解它們個別代表什麼。以AI進行研究的好處,是研究人員可以在短時間內重複非常多次的測量與參數改換,相較於生物大腦來說能更快速的獲得相關資料。
 
現階段有許多科學家致力於了解AI。但同時,社會開始逐漸形成一種共識,認為開發AI的公司有義務為自家模型提供解釋,例如歐盟的《人工智慧法案》(AI Act)就要求在遠端生物辨識、公共服務系統運作的AI屬於「高風險人工智慧系統」,需要一定程度的解釋。而對於開發和使用LLM的公司來說,這是一個必須面對的挑戰,需要負責進行科學研究,或者至少要讓其他人進行研究。現階段AI仍在蓬勃發展階段,但開放其應用的同時,持續解開AI的運作方式這個謎題,才是負責任的態度,以確保未來不會因為缺乏對AI的了解,而對社會運作造成額外的風險。

 

(Adobe Stock)

 

新聞來源
Hutson, M. (14 May 2024). How does ChatGPT'think'? Psychology and neuroscience crack open AI large language models. Nature. https://www.nature.com/articles/d41586-024-01314-y