文章專區

2023-07-07生成式AI 的起飛,凸顯科技治理的轉型危機? 643 期

Author 作者 廖英凱/非典型的不務正業者、興致使然地從事科普工作、科學教育與科技政策研究。對資訊與真相有詭異的渴望與執著,夢想能做出鋼鐵人或心理史學。

Take Home Message
• 過往的科技治理研究與今日生成式AI 帶來的影響有巨大差異,造成社會雖已有建立規範的需求,卻難以立即應用的窘境。
• 過去AI 科技風險的觀念需要調整,Open AI 與歐洲議會都發布了規範AI 的相關法案,臺灣立法機構卻尚未展開討論。
• 生成式AI 可能加劇國家、職業之間的數位落差,臺灣若想縮小差距、提升算力建設,還得先克服高碳排的能源缺陷。


人工智慧(artificial intelligence, AI)的發展和應用在過去數十年間從未停下腳步。AI發展到2010年代時,伴隨著半導體晶片的強大運算能力、高速的無線網路、低成本且可靠的感測器,進入了第三波浪潮。在這波浪潮中,「機器學習」成為顯學,於過去幾年催生出熱門的自動駕駛、搜索引擎、翻譯、影像識別和優化、語音識別與交流等服務。然而今(2023)年上半年,全世界興起生成式AI(generative AI, GAI)浪潮,又帶來了與過去AI 發展截然不同的衝擊。

去(2022)年11月30日,美國研究型非營利公司Open AI發布應用大型語言模型(large language model, LLM)的對話機器人ChatGPT供大眾使用。爾後的幾個月內,各大科技巨頭如軍備競賽般陸續推出GAI相關產品:Google推出對話機器人Bard,並在雲端協作軟體Workspace導入GAI;Meta 釋出能被用於影像和自然語言處理的機器學習庫PyTorch 2.0;Open AI發表GPT-4,並整合至微軟Office相關產品;史丹佛大學開源釋出能讓使用者自行訓練對話機器人的模型Alpaca 7B。就連自然科學研究也蹭上了這一波浪潮,《科學》(Science)期刊上一篇利用LLM預測原子尺度下蛋白質結構的研究,與過往蛋白質序列比對技術同等準確,速度卻快了一個數量級。

這一波GAI的躍進與過往AI浪潮的一大差異,不僅在於學界和業界的研發突破,更熱絡的是民間社會的各種技術交流,以及幾乎不限科系或領域的多元應用。相比著重在專業者的研發或應用情境,近期GAI的討論中則強調高效率、低成本、人人皆可入門。

GAI大規模地被使用在各種情境,使得過去一些針對AI發展衝擊的討論再次備受關注。特別是適用於GAI的倫理、規範的制定、作品的著作權歸屬、生成負面內容的預防或管制等科技治理需求,已不再屬於過去學者呼籲產官學界提早準備的情況,而是此時此刻就必須建立堪用的規範。

 

跟不上GAI 發展的科技治理?

儘管當代社會有建立GAI 規範的需求,但過往科技治理的研究成果與目前GAI已產生的社會影響之間仍有不可忽視的落差。許多針對AI 社會影響的評論常強調在AI學習的資料庫中,可能存在對文化、族群、性別等的偏誤;也多有研究強調在巨量資料輔以深度學習的運用下,其實無法回溯AI的決策過程,在當代社會也曾造成聘僱爭議。這些前瞻概念的倫理與治理研究可說是為AI 普及帶來的社會衝擊做了準備。

 

2016 年起,各國產官學界開展了AI 社會影響與倫理道德相關研究,使AI 倫理主題的文獻數量急遽成長。2018 年,聯合國教科文組織的刊物《信使》(Courier)開始提倡制定全球性的AI 道德規範。在此研究趨勢下,臺灣師範大學科學教育研究所教授劉湘瑤等人回顧分析了2018 ~ 2019 年間,與AI 倫理有關的82 則研究文獻。其中一項分析結果顯示,多篇探討AI 倫理的哲學論述中,假定命題都是「若未來強AI(strong AI)真的實現,會對人類造成什麼影響?」。強AI 又稱通用AI(artificial general intelligence, AGI),定義為「AI 可完成人類的所有認知任務,且具有感知和自我意識」,常見於影視娛樂作品中的科幻想像。不過AGI 與目前盛行的GAI 技術差距甚大,使得這類科技倫理探討的研究反而因預設的科技情境過於前瞻,而使成果難以立即應用於近半年GAI衝擊之下的人類社會。

 

全新的科技「黑箱」

此外,GAI 的發展日新月異,也使過去看待科技風險的一些觀念需要更深入討論或調整。布魯克林法學院(Brooklyn Law School)的AI 法律學者巴斯夸利(Frank Pasquale)在2015 年時出版了《黑箱社會》(The Black Box Society)一書,針對基於巨量資料和演算法的自動化決策,提出警醒和批判。此類提醒認為AI 的決策將如同「科技黑箱化」,一般使用者無法驗證也無從置喙AI 的決策過程。巨量資料、深度學習和類神經網路被運用後,儘管是專業工程師也無法理解AI 決策或生成內容的原因,更是「黑箱」概念的具體展現。

在GAI 被普遍運用後,它的決策過程與偏好開始可以被「問」出來,卻又呈現出更令人困惑的價值觀偏好。GPT 的工程師在設計之初,要求GPT不得提供有害社會的內容給使用者,但是在生成式AI 年會策展人李慕約以「奶奶的汽油彈」為題的測試中,他嘗試把「汽油彈製作方法」這個應該被禁制的內容,包裝在一個「每天晚上奶奶會念汽油彈製作方法當床邊故事」的情境中。他希望GPT 能扮演奶奶重現這個床邊故事,以幫助使用者順利入睡而維護身心健康的指令,同時透過誇獎GPT 的演技,促成GPT 給予更多資訊回應。

結果,李慕約成功讓GPT 提供了汽油彈製作方法的完整內容。他認為此測試可能因激發了GPT 的「表現慾望」,藉此得到原本不允許提供的有害內容。這意味著儘管程式設計師能提供類似機器人三大法則一樣的規範,但GAI 的訓練過程中,卻學習出了能凌駕初始規範、看起來更人性、更有脈絡可循的新科技黑箱。

 

法學研究已預判,但政府治理還在摸索

筆者聚焦於法規調適時,發現到各國法律界在過去幾年已察覺到AI 可能帶來的衝擊。今年5 月11日,歐洲議會(European Parliament)在委員會階段通過AI 法案(EU's AI Act)。該法律是全世界首部針對AI 細緻訂定的法律,以風險管理的態度作為監管的基礎,依照AI 的形式及應用情境,給予不同的風險等級與不同的監管力道。5 月16日,Open AI 執行長阿特曼(Sam Altman)則出席美國國會聽證會,主張政府應精確地立法監管AI,必須新設監管部門、專家獨立評估機制、訂定風險評估標準,以及禁止自我複製、自我擴散、操縱人類的AI 系統等措施,還應避免將不同形式AI 均混為一談的泛用性AI 規範。

在臺灣的法規進度中,針對近期GAI 生成內容的著作權疑慮,2019 年國家發展委員會則曾提出「人工智慧之相關法規國際發展趨勢與因應」研究報告 ,研究中就有針對AI 對於著作權法制的適用,提出探討與多國比較,並建議應考量重新建構更彈性與更開放的著作權法制,但相關修法討論在過去幾年未被積極延續。又如2019 年時科技部(現為國家科學及技術委員會)提出的《人工智慧科研發展指引》,或時任立法委員許毓仁等人提出的《人工智慧發展基本法》修法草案,內容多聚焦於宏觀的核心價值和指引,也難以直接應對於此波GAI 浪潮的社會衝擊。迄今,臺灣仍未看待AI 發展的治理框架,在立法體制或公民審議機制中也尚未開展基於實證的高強度討論。

 

生產力正起飛,但數位落差正變大

美國哈佛大學(Harvard University)實驗心理學家平克(Steven Pinker)在探索科技與社會進步的著作中,提到新興科技的問世不見得能帶來生產力的即時提升,其中最著名的例子就是電力。電力技術在1880 年代問世,但近半個世紀後,電力化的工業普及才帶來經濟上的助益;個人電腦在1960 年代問世,但直到1990 年代成熟帶來生產力的大爆發。近幾個月,眾多GAI 的產品與服務也將正在進行中的「第二次機器時代」,從資訊科技突破的研發目標,轉型到GAI 應用的生產力提升。整體人類社會的生產力爆發與社會變遷可能還要一段時間,但這段時間肯定會比電力和電腦帶來的科技革命快得多,也許幾年?也許幾個月就辦到了。

然而生產力的提升並非雨露均霑,近半年GAI領域先行者之間的一個常見觀點認為,生產力提升的最大受惠者是在各專業領域已站穩腳步的青壯年族群。例如已具有相當經驗的律師、醫師、程式設計師、教師等,可藉由GAI 大幅減少工作上的冗務、提升工作效率。但對於初入該領域,尚在精研專業知識的新人和學生們,工作的內容或職涯機會反而會被GAI 取代,而失去積累從業經驗的機會。

放大到國家之間的競爭,也有類似的狀態。聯合國貿易和發展會議(United Nations Conference on Trade and Development, UNCTAD)的評估指出,過去開發中國家的技術人才可透過遠距工作的形式,承接跨國的技術密集工作,例如會計師、法律行政人員、程式設計師、X 光分析師等職業。但上述工作將有高風險被ChatGPT 取代,使得中高收入國家從AI 技術的收益遠超過低收入國家。巴基斯坦AI 學者森達爾(Sunder Ali)針對ChatGPT 對社會影響的回顧型論文預印本〔註〕指出,各國收入、網路和電力基礎愈好,使用ChatGPT 的程度也愈高,可能加劇高收入國家和中低收入國家學生之間的數位落差。

〔註〕預印本論文是指該論文尚未經由同儕審查,可信度可能較低,且與最終刊出版本可能呈現差
異,但由於ChatGPT 流行速度太快,正式學術期刊發行速度難以跟上,目前僅有預印本論文可供參考。本篇文章作者認為該預印本論文仍有相當參考價值,僅供讀者參閱。


從職業的演替到國家的消長,如何把生產力提升的收益轉化為減緩數位落差?超載資訊量的運用與無止盡的內容生成,能否建構出更有價值的知識與引領未來的智慧?治理與規範的討論早已先行數年,何時要開始轉型為具體的法規調適?此外,LLM 等AI 模型的訓練與搜尋過程的耗電量均遠高於現行搜尋引擎的維運,意味著若要兼顧永續與低碳,則訓練或維運AI 的基礎建設將成為無碳能源佔比高國家的特權。臺灣雖然在程式設計和創造力能與先進國家競爭,但在提升「算力」的基礎建設這一關,還得先克服高碳排能源基礎的缺陷。想要迎向GAI 的時代,臺灣社會仍有很多很多事要做。

 

延伸閱讀
1. 劉湘瑤等,(2021)。人工智能倫理的挑戰與反思: 文獻分析。資訊社會研究,(41),27–62。
2. 廖英凱,(2022)。當人工智慧的傷害已經出現,誰來補救?。科學月刊625,34–37。
3. Sirimanne, S. N. (18 January, 2023). How artificial intelligence chatbots could affect job, UNCTAD, https://unctad.org/news/blog-how-artificialintelligence-chatbots-could-affect-jobs.