文章專區

2023-03-31ChatGPT風潮下 幾個值得重視的生成式AI發展隱憂

Author 作者 甘偵蓉/清華大學人社AI應用與發展研究中心博士後研究學者

在ChatGPT於去(2022)年11月底發布並風靡全球之後,有更多類似的生成式人工智慧(generative AI)加入戰局。在全世界瘋狂測試AI的風潮之下,許多尚未被重視與討論的議題,可能潛在著相當嚴重的後果。接下來我們將討論三個生成式人工智慧可能造成,但卻尚未受到足夠重視的隱憂。

 

隱憂一:生成式AI成為知識生產基礎設施

雖然ChatGPT是一款聊天機器人,但開發出ChatGPT的公司OpenAI從成立以來,都以研發目前世界上還不存在的通用AI(artificial general intelligence, AGI)為職志。有別於過往一般將AGI定義為與人類的能力相當,OpenAI在官網將AGI定義為「在最有經濟價值的工作中表現優於人類的高度自治系統」或是「通常比人類更聰明的AI系統」,意味著這家公司想推出的是建立、支援各種可以使工作產能更高的自動化巨型網絡或基礎模型,更接近2021年歐盟在《人工智慧法草案》(AI Act)提出的GPAI(general-purpose AI),而不是一般將AGI定義為與人類能力表現相當的AI系統。

事實上OpenAI長期以來開發的文本生成GPT系列模型,未來就有可能支援所有以文字對話或文本生成的工作,如線上或語音客服、新聞、廣告文案等,並成為進一步客製化訓練的基礎模型。所以,不論是微軟結合ChatGPT,還是Google結合PaLM,它們目前爭奪的重點其實是:誰能成為數位世界中生產知識的基礎設施建構者!

為什麼爭奪建構知識生產的基礎設施如此重要?因為這將涉及到決定人們可以看到哪些知識、知識如何生成、誰有資格近用那些知識。以美國科技新聞網CNET為例,為因應Google搜尋引擎的演算法將新文章排序在前的設定,該公司每兩週會以AI重新生成原先已發布的新聞內容,但相關內容在重複多次後就會錯誤百出,人類編輯大約每四個月就得介入修正AI生成的新聞內容。CNET網站使用低價且能大量生成文本的AI來更新文章,爭取搜尋位置的作法正突顯了人們最終看得到哪些新聞,並不是提供新聞的媒體說了算,而是由新聞載體如Google等搜尋引擎的演算法決定。

微軟日前推出結合GPT的新搜尋引擎New Bing,搜尋引擎龍頭Google也推出結合LaMDA的新搜尋引擎Bard,APPLE與百度則緊追在後。以整體趨勢來看,大型語言模型很有機會成為數位平臺產出知識的基礎設施。但訓練及支持大型模型的運作需要耗費大量的計算力、電力與資金,ChatGPT目前雖提供免費方案,但付費者獲得的生成文本將來自於最新資訊,可預期Google未來也將採取類似作法。往後或許會有更多結合生成式AI的搜尋網頁,並以免費或付費方案分流。甚至可能依據付費方案提供不同品質的文本,像是最新資訊、文本品質較佳,或有毒文本比例較低的資料。

ChatGPT的成功以及過去幾個月的持續除錯與修正,顯示OpenAI確實成功平衡技術,讓ChatGPT可以輸出盡量有意義的文本,但他們是如何做到的?相關技術細節一直未對外公布,甚至還有報導指出在這些過程中依舊存在不少肯亞廉價勞工的協助。不過再怎麼廉價,這些持續除錯的工作還是需要大量成本,所以可預期在生成式AI的世界中,仍由高科技巨頭說了算。

事實上全球普羅大眾現階段對於ChatGPT的測試風潮,正像17世紀的土耳其自動機器人騙局一般——看似完全自動化的機器人,其實是由真人躲在櫃子底下秘密操作——眾人對於塑造ChatGPT的神奇形象,其實也有巨大的貢獻。但在風潮之餘,如何應對這些大型語言模型成為建構這世界知識的基礎設施,而且皆由高科技巨頭壟斷鋪設?它們對於未來人類獲取與建構知識將造成巨大影響,如何才能增進技術與產品的公共性?大型語言模型需要的資料、財力與算力,並非一般公私機構甚至一般國家政府能建構與匹敵的,但如何在它的基礎上建立適合本地,且不以求取最大商業利潤作為唯一目標,而是可以促進公共善(public good),或至少在醫療照護、教育、公共服務等社會民生上更有幫助的AI,是亟待認真面對的議題。有關這些討論都需要更多元的想像AI、人類、社會之間的關係,想像公共化而非技術與資本化的AI成為可能。

人類過去在網路上貢獻的巨量網路資料,被擁有技術與資本的科技公司全面免費搜刮,而現階段全球人民作為被世界高科技巨頭壟斷的商業生成式AI的臨床受試者,實驗結果所獲得的巨額利潤由科技巨頭賺取,但所產生的傷害,則由個人與各地社群——甚至全體人類共同承擔。至今皆無有效的法令規範要求企業負責,因為現在將AI技術與產品放入市場競爭的遊戲規則就是如此。

 

隱憂二:AIGC的人工知識論信賴問題與寫作再定義

此外,生成式AI興起後,大量生成的文本與圖像等內容(AI generated content, AIGC)將帶來另一層問題。即使OpenAI與許多AI專業技術人員都再三提醒,ChatGPT只是對話式的語言模型,並非真實資訊的提供者,且AIGC也只是比Google搜尋引擎更高效整合資訊但不保證為真的內容。但從這幾個月ChatGPT與GPT-4引起的各種討論、焦慮以及因應政策來看,許多證據都顯示人們逐漸接受AIGC是值得參考的意見與文本,可以拿來輔助學習、工作與決策,甚至還能直接當作學習與工作成果來展現,忽略了AIGC是在真偽、邏輯推理、內容一致性等方面尚待檢證的文本。簡言之,人類對於AGIC的信心程度快速提升,因而產生人工知識論信賴問題(artificial epistemology confidence problem)。隨著人們對於AIGC的信賴程度有所差異,AIGC應該被使用的範圍與界線、人機協作究竟應該達到什麼程度等各種爭論,可以預期將會不斷出現且永遠無法解決。

此外,這項爭論伴隨而來的另一個潛在副作用是ChatGPT可能會挑戰甚至侵蝕人們的寫作能力。這樣的情境是否真的會發生?會有什麼影響?「寫」通常被視為語言的聽說讀寫四種技能中最困難的。過去一直被認為是人類專屬的高階認知能力,且必須對世界有一定認識才可能具備。不僅如此,寫作常被視為知識的一種輸出方式,在輸出之前不但要先輸入與世界對應的資訊,還得對於那些輸入資訊予以過濾、拆解、分析、重組、統整等統稱為「思考」的過程,最後才有辦法完成輸出,也就是寫作。而要寫出可理解、合理、前後一致與連貫有組織性,甚至具有說服力的文本,對多數人來說都是需要不斷練習才可以習得的技能。

然而由大型語言模型為基底的文本生成式AI,最擅長的正是看似有條理的「寫作」。人們即使知道它會一本正經的胡說八道,但只要在一定範圍或事項上借助它來協助寫作,其實頗有效率又方便。久而久之,AI在寫作上扮演的角色及影響將遠超過抄襲的爭論,以及有無能力辨識出真假訊息的資訊素養問題。而是有了AI的輔助之後,會不會影響人們以完整的文字敘述表達個人思考結果,並將這些結果作為知識建構過程的能力?想想GPS與Google地圖對個人方向感與空間認知能力的影響,這問題將值得關注。

AIGC可能減損人們寫作與建構知識能力的觀點,目前看起來雖有些悲觀,但也不排除另一種可能性。目前有一種寫作技巧就是研讀「提示詞工程學」,學習如何向生成式AI提出正確或適當的問題與要求,並在提示詞與生成文本之間來回修正,最終得到理想文本。若有人認為這種方式不是寫作,那麼就換個詞稱呼吧!正如同借助攝影機製造的成品被稱呼為攝影作品,而不是繪畫作品一樣。

不僅如此,人們未來或許也能接受有一種類型的藝術創作,不論是成品是圖畫或音樂等,都是靠「問」與「寫」得出,而所謂的創作過程,就是精煉提示詞的人機協作過程,或以時下最流行的用語「詠唱」──彷彿魔法師不斷對於生成式AI下咒語一般。這類AIGC內容,或許不再只有知識層面的實用價值,而是可以逐漸產生美學或文學等藝術價值。

 

隱憂三:AIGC充斥的世界將難以求證「真實」

當愈來愈多人使用生成式AI時,AIGC日後將有可能成為主流的語言及數位文本。然而,目前的AIGC都是來自生成式AI,由於它的預訓練來源為大型語言模型,因此有著會產生幻覺(hallucination)與偏見的根本缺陷,可能產生假的或錯誤文本。另外一方面,AIGC因為能大量快速生成,不論人們是否蓄意製造,未來世界上可能充斥許多有問題的AIGC,這些問題包括文字陳述不精確或陳腔濫調、內容存在常見刻板印象、充斥網路強勢使用地區的社會文化概念,以及偏離事實或完全虛假的內容。萬一這些AIGC被納入大型語言模型的訓練語料庫中,AI本身便會陷入自我強化幻覺的惡性迴圈。

當未來生成式AI充斥生活,整個世界是否將從目前的後真相時代進一步成為無真相時代,完全放棄或無能追求真實呢?美國哲學家法蘭克福特(Harry G. Frankfurt)在他的著作《放屁!名利雙收的詭話》(On Bullshit)一書中已指出,屁話比說謊話長久下來對於社會的危害更大在於,說謊者知道什麼是真實,但說屁話者則是整個否定或不在乎真實。一旦社會充斥這類語言,人們便難以區辨真實與虛假、不再認真看待他人提供的文本,或是對於任何文本都採取不信任的懷疑態度。無論是哪一種,最終都導致人們對於彼此的不信任。

此外,目前在個人照片上常見到以美肌應用程式(App)修飾的效果,未來這類修飾將可能從個人照片,一路延伸到個人性格展現或是其他各種社會特徵。因為個人可以透過生成式AI在文字表述、對話方式、語音等各方面獲得更多協助。從正面來看,人們將被生成式AI賦能,讓自己在他人心中的社會形象更加完美,或至少朝向自己所期待的方向前進;但從負面來看,人們若想從個人的論述文字或語音對話等方式來]認識他人的話,想認識「真實」的當事人就有可能變得更加困難了。久而久之,人們在開啟真人溝通模式時彼此不認得的事小,但人們逐漸不信任彼此則事大。

以上有關世界與個人的真實性問題,在AIGC時代,或是OpenAI倡議最終每個人都有自己的生成式AI的理想中將更顯挑戰。當每個人都透過自己的生成式AI認識世界與他人時,個人最終會不會只活在由自己與自己的鏡像反射所包圍起來的空間?社群中的每個人則名符其實地活在多重平行時空中,沒有真正的交集?

追求真實或真相的好奇心似乎是人類天生就有的,期待跟真正的人而非機器溝通,也似乎是認可彼此屬於相同社群成員不可或缺的因素。在目前假資訊充斥的後真相時代,已經有許多人常抱怨他人同溫層太厚,或抱怨他人拒絕看見真實卻寧可相信自己偏狹的觀點。那麼,AIGC即將帶來的無真相時代又會如何發展?由技術與資本壟斷的科技巨頭聯合為人們積極打造的AGI,究竟會帶來烏托邦還是反烏托邦世界呢?

本文感謝中正大學哲學系教授許漢提供寶貴意見,以及參與深受啟發的由清華大學人文社會AI 應用與發展研究中心主任林文源、副主任王道維執行的國科會「公共化AI—II:朝向公共化的生態圈」計畫。

延伸閱讀

  1. Bratton, B. & Arcas, B. A. Y. (12 July 2022). The Model Is the Message. NOEMA Magazine, 230(4730). https://www.noemamag.com/the-model-is-the-message/

  2. 林文源、王道維(2023年3月12日)。林文源、王道維觀點:淺談AI時代的台灣優勢與發展策略。風傳媒。https://reurl.cc/b7Wrrr

  3. Frankfurt, H. G. (2019)。放屁!名利雙收的詭話(南方朔譯)。時報出版。(原著出版於2005)