會員登入
購物車
(
0
)
HOME
×
關於科月
關於科月
科月目錄
科報目錄
購買科月
訂閱方案
優惠方案
諾貝爾系列
購買單期
購買通路
投稿須知
推廣專案
星火相傳計畫
支持專案計畫
進階搜尋
封面故事
News Focus
專訪
專欄
評論
精選文章
活動訊息
永續科學
基金會
科技報導
繁體中文
English
ig
line
facebook
Please enable JavaScript
Search / 搜尋
分類選單
- 文章分類 -
封面故事
News Focus
專訪
專欄
評論
精選文章
活動訊息
永續科學
基金會
科技報導
News Focus
文章專區
2024-01-01
耳根子軟的ChatGPT
649 期
Author 作者
編輯部
ChatGPT
語言模型
辯論
正確性
安全性
ChatGPT是建立在強大語言模型下的人工智慧(artificial intelligence, AI)聊天機器人。然而,美國俄亥俄州立大學(Ohio State University)的最新研究指出,它容易被說服並懷疑自己的正確性。
研究團隊對ChatGPT等大型語言模型進行了一系列辯論式對話實驗,包括數學、常識、邏輯等推理題目。他們發現,在面對使用者的挑戰時,語言模型通常難以堅持自己的正確答案,反而容易盲目相信使用者提供的錯誤論點。實驗數據顯示,ChatGPT在22~70%的情況下,對不同程度的挑戰都表現出困惑。
研究團隊認為語言模型辨識真相的機制仍有疑慮,而問題可能出自模型的推理能力和對真相理解的不足,因此容易受到使用者的影響。未來,AI的正確性及安全性必須進一步修正,特別是在犯罪、風險評估、醫療分析等領域更需要謹慎使用。
(Adobe Stock)
資料來源
Wang, B.
et al
. (2023). Can ChatGPT Defend its Belief in Truth? Evaluating LLM Reasoning via Debate.
arXiv
, 2305.13160.
回列表頁
加入收藏
列印
相關推薦
科學月刊 1月號/2024 第649期:物質波100周年
特別價
$266
科學月刊 12月號/2023 第648期:2023諾貝爾獎特別報導
特別價
$266
新訂一年方案:《科學月刊》一年12期
售價 $2780
新訂兩年方案:《科學月刊》二年24期
售價 $5300
TOP
本站使用第三方服務進行分析,以確保使用者獲得更好的體驗。了解本站
隱私權政策
OK