會員登入
購物車
(
0
)
HOME
×
關於科月
關於科月
科月目錄
科報目錄
購買科月
訂閱方案
優惠方案
諾貝爾系列
購買單期
購買通路
投稿須知
推廣專案
星火相傳計畫
支持專案計畫
進階搜尋
封面故事
News Focus
專訪
專欄
評論
精選文章
活動訊息
永續科學
基金會
科技報導
繁體中文
English
ig
line
facebook
Please enable JavaScript
Search / 搜尋
分類選單
- 文章分類 -
封面故事
News Focus
專訪
專欄
評論
精選文章
活動訊息
永續科學
基金會
科技報導
科技報導
動態時報
文章專區
2024-06-15
ChatGPT到底在「想」什麼? 科學家以心理學與神經科學研究人工智慧
510 期
Author 作者
編譯|陳亭瑋
人工智慧
心理學
神經科學
逆向工程
機器學習
神經網路
LLM
人工智慧(artificial intelligence, AI)大型語言模型(large language models, LLM)的能力逐漸被肯定,但它的內在運作模式仍然是個謎。為了探究此謎題,科學家開始採取「逆向工程」的方法,應用心理學與神經科學的研究方式,嘗試解構AI的運作邏輯以理解它的運作。
機器學習帶來謎團,AI如何得出結論?
現階段最新的AI技術主要倚賴大量機器學習(machine learning)技術,在這種情況下,AI會自行辨識資料中的模式,而無需事先給予任何規則組織或分類資訊。最先進的機器學習系統使用的是神經網路(neural networks),設計概念來自於人類大腦的架構,它們模擬神經元層的運作,讓資訊在每一層中轉換。然而,最終由AI生成的模型產生結論背後的理由,對人類來說可能難以理解。正如人類大腦一樣,這些網路在學習過程中會強化或削弱神經連接,但我們往往難以看出為何某些連接會受到影響。因此,科學家們經常將AI比作「黑盒子」,AI的內部如何運作是一個謎。
為了解決這一項難題,科學家們轉向發展可解釋AI(explainable AI, XAI)領域,發展更多的工具與研究技巧,並以逆向工程了解AI的運作,理解哪些情況會影響AI做出特定的建議或診斷。雖然XAI幫助研究人員破解了一部分黑箱內容,但XAI仍在發展中。
LLM蓬勃發展,危機與疑問並存
對於LLM來說,這個問題尤其嚴重。LLM的應用十分廣泛,例如最廣為人知的ChatGPT等聊天機器人,就是它的應用之一。由於LLM擁有數量龐大、約數百萬億的「參數」,所以給出的答案常常難以解釋、亟待研究了解。因此,在LLM開始蓬勃發展後,XAI也跟著迅速發展。
隨著AI的應用逐漸廣泛,人們正在使用LLM尋求醫療建議、撰寫電腦程式碼、彙整新聞、撰寫學術論文等,LLM這類難以解釋的AI現在正在承擔重要的任務。然而,眾所周知,這種模型可能會產生錯誤的資訊、延續社會刻板印象並洩漏私人資訊。有些人形容LLM為「隨機鸚鵡」(stochastic parrot),認為LLM主要會根據機率排列組合文字模式完成寫作,但實際上並未實質理解寫出來的內容。不過,也有人指出實際上的情況更為複雜,包括在許多情況下,都有人發現LLM出現推理等類似人類的能力。
許多研究努力研究LLM背後的原理,以便未來能創建更安全、更高效且更準確的AI。也能藉此建立標準,了解何時該相信聊天機器人的輸出,或者如何進行監控,以設定AI相關的防護措施。
透過交談與掃描,了解LLM運作的邏輯
科學家們採取了多種方法來探索LLM的內部運作。其中一種與心理學研究使用的方法相似,僅通過問問題來了解它的運作方式。這類研究方法將LLM視為與人類類似的主體,並與它進行對話,希望藉此了解來自於簡單的類神經網路所產生的複雜行為。Google團隊曾在2022年推出「思維鏈指令」(chain-of-thought prompting),藉由示範的方式讓LLM展示自己推導的邏輯。但也有研究團隊指出,思維鏈指令給出的答案仍有被誤導的空間。雖然尚無定論,但目前此類研究已經顯示了LLM比人類更容易受到語言措辭暗示,提供有偏見的答案。
還有其他研究人員從神經科學中獲取靈感,以探索LLM的內部運作。為了探查聊天機器人是如何「欺騙」,他們對LLM提出問題、要求AI「說謊」,然後觀察它的「神經元」活化情況。這項研究方式與為人類進行神經影像掃描的過程有些相似,有點像是研發一款LLM專用的測謊器。目前有多種不同的LLM掃描技術,部分採用由上而下的方式,將概念或事實歸因於底層的神經運作;也有一些則採用由下而上的方式,藉由觀察不同「神經元」運作的時間點,以了解它們個別代表什麼。以AI進行研究的好處,是研究人員可以在短時間內重複非常多次的測量與參數改換,相較於生物大腦來說能更快速的獲得相關資料。
現階段有許多科學家致力於了解AI。但同時,社會開始逐漸形成一種共識,認為開發AI的公司有義務為自家模型提供解釋,例如歐盟的《人工智慧法案》(
AI Act
)就要求在遠端生物辨識、公共服務系統運作的AI屬於「高風險人工智慧系統」,需要一定程度的解釋。而對於開發和使用LLM的公司來說,這是一個必須面對的挑戰,需要負責進行科學研究,或者至少要讓其他人進行研究。現階段AI仍在蓬勃發展階段,但開放其應用的同時,持續解開AI的運作方式這個謎題,才是負責任的態度,以確保未來不會因為缺乏對AI的了解,而對社會運作造成額外的風險。
(Adobe Stock)
新聞來源
Hutson, M. (14 May 2024).
How does ChatGPT'think'? Psychology and neuroscience crack open AI large language models.
Nature.
https://www.nature.com/articles/d41586-024-01314-y
回列表頁
加入收藏
列印
相關推薦
科學月刊 6月號/2024 第654期:生物多樣性in臺灣請至...
特別價
$266
科學月刊 5月號/2024 第653期:地圖新視界
特別價
$266
新訂一年方案:《科學月刊》一年12期
售價 $2780
新訂兩年方案:《科學月刊》二年24期
售價 $5300
TOP
本站使用第三方服務進行分析,以確保使用者獲得更好的體驗。了解本站
隱私權政策
OK