文章專區

2019-12-20新規範有望終結AI犯的錯? 456 期

Author 作者 編輯部
【本刊訊】機器學習的演算法常發生所謂的不良行為(undesirable behavior),隨之而來的各式偏誤(bias)也可能造成使用者財務損失,或延誤醫學上的診斷。為避免人工智慧(artificial intelligence, AI)產品得出錯誤的結論並降低它們的錯誤率,日前研究員於Science期刊發表一款通用架構 (general framework),以規範AI的行為。

過去幾年,人工智慧在深度學習(deep learning)方面取得長足的進步,雖說在許多任務方面(如臉部識別)的錯誤率降低許多,然而在某些情況下,任務是不容許失敗的。當前的系統會將責任轉移至最終用戶身上,不過這些用戶多半不是計算科學的專家,有可能會在不了解操作的狀況下產生其他問題。受科幻小說家艾西莫夫(Isaac Asimov)提出的機器人三大法則(Three Laws of Robotics)﹝註一﹞啟發,美國麻薩諸塞州立大學(University of Massachusetts)、史丹佛大學(Stanford University)與巴西南里奧格蘭德聯邦大學(Universidade Federal do Rio Grande do Sul)研究團隊打造新方法來優化AI行為, 避免產生不必要的傷害。

研究過程中,團隊透過兩個具體案例強調這個問題。第一個案例是利用AI輔助胰島素幫浦(insulin pump)自動化管理糖尿病患者的療程,此工具可容忍的錯誤率極低,因為病人稍有過量就會引發昏迷;第二個則是利用入學考試對大學成績做預測,在此之前,這個動作經常出現性別上的偏誤。這個名為Seldoniens的演算法,是以艾西莫夫基地系列(Foundation series) 中的智慧偉人哈里.謝頓(Hari Seldon) 為靈感所創,與傳統的方法相比,該法不僅使糖尿病患者出現低血糖症的機率減少,對成績預測的可靠性也較高。

雖說演算法的規範有助於改善機器的安全程度,但回歸人性化的考量,若能按情境調整不同的限制,或許能更受到青睞!

﹝註一﹞機器人三大法則即為:① 機器人不得傷害人類,或在人類受到傷害時沒有任何行動;② 機器人必須在不違背第一法則的前提下服從人類命令;③ 除非違背第一或第二法則,否則機器人必須保護自己。

新聞來源
1. Fabrice Auclert, Un algorithme pour éviter que les robots ne s'en prennent aux humains, Futura, 2019.
2. Philip S. Thomas et al., Preventing undesirable behavior of intelligent machines, Science, 2019.