文章專區

2021-02-18機械公敵夢靨?科學家擔心人類將無法控制超級AI 470 期

Author 作者 編譯|吳佳穎。
電影《機械公敵》中,威爾‧史密斯飾演的警探,生活在人類廣泛使用智慧型機器人的年代。然而,一場機器人發明者離奇死亡的命案,讓人類與機器人的關係岌岌可危。掌控機器人的中央控制系統,以追求人類最高福祉、避免人類間自相殘殺,自主發展出「保護人類計畫」,但為了達成這個目標卻痛下毒手殺人。在人工智慧(artificial intellegence, AI)技術發展的現在,不免讓人擔心,未來這樣的情節會不會在真實世界上演?

隨著AI技術發展,部分科學家、哲學家示警,不受控的超級AI(superintelligent AI)將帶來危險,其中來自德國馬克思‧普朗克研究院(Max-Planck Institutes)人類發展中心的研究團隊指出依照理論推演,人類無法控制超級智能AI。相關研究刊登於《人工智慧研究期刊》(Journal of Artificial Intelligence Research)。

該研究共同作者塞布里安(Manuel Cebrian)表示,失控的超級AI聽起來像科幻小說,但如今已有AI獨立執行重要任務,研發者卻無法完全了解AI是如何習得這些能力,「未來失控的超級電腦是否將成為人類危機?」

目前科學家提出2大構想,嘗試控制超級AI,其中一項為,透過切斷AI連網,或與其他科技產品的連接,讓超級電腦無法連結外在世界,但這將使得超級智能電腦的功能大幅下降,難以達成人類的需求。

另一個構想則是將AI出發點設定為追求人類最高福祉,如將道德準則編寫進程式中,就像科幻作家艾西莫夫(Isaac Asimov)的「機器人三大法則」一樣。研究團隊也嘗試以涂靈(Alan Turning)的「停機問題」(Halting Problem)為架構,去探討用「遏止演算法」(containment algorithm),來避免AI行為脫序的可行性。他們模擬AI行為,並在發現這可能對人類造成危害時中斷,以確保在任何情況下,超級智能AI都不會傷害人類。

然而研究指出,上述的「遏止演算法」根本做不出來。人類與機器中心主任拉萬(Iyad Rahwan)指出,如果將問題拆解,從電腦演算法的基礎規則出發,會發現「命令AI不能破壞世界」的演算法,可能會在人類未察覺的情況下停止運行,我們將無法得知它是否仍在分析可能的威脅,或已經沒有阻止AI危害行為的能力。

簡言之,要發展遏止演算法基本上是難上加難,研究也強調:「任何單一的演算法都無法判定AI是否會對人類造成傷害」;此外,研究也指出,科學家甚至無法得知超越人類智慧的超級AI何時將實現,「要確定一個電腦的智慧已經超越人類,這個問題的困難程度與遏止演算法相當。」

新聞來源
1. Manuel Alfonseca et al., Superintelligence Cannot be Contained: Lessons from Computability Theory, Journal of Artificial Intelligence Research, Vol. 70: 65-76, 2021.
2. Computer Scientists: We Wouldn’t Be Able to Control Superintelligent Machines, Max Planck Institute for Human Development, 2021/1/11.