文章專區

2024-10-21當機器人程式開始爭奪你的愛,會發生什麼事? 《連結》 514 期

Author 作者 編輯部

民主是一種對話。民主制度的功能和生存,取決於可用的資訊技術。在歷史的大部分時間裡,都不存在能夠在數百萬人之間進行大規模對話的資訊技術。在前現代世界,民主只存在於雅典與羅馬那樣的小城邦,或甚至更小的部落。一旦政體變得龐大,民主對話就會崩潰,專制獨裁仍是唯一的選擇。

只有在報紙、電報和廣播等現代資訊技術興起之後,大規模民主才變得可行。現代民主是建立在現代資訊技術之上,這個事實意味著,基礎技術的任何重大變化,都可能導致政治動盪。

這在一定程度上解釋了當前全球各地的民主危機。像是在美國,民主黨與共和黨甚至連基本的事實,都會出現意見分歧(例如,究竟誰贏了2020年總統大選)。從巴西到以色列,從法國到菲律賓,有許多國家也發生了類似的民主資訊網路崩潰。

在網際網路和社群媒體時代的初期,熱情擁抱這些資訊技術的人承諾,這將會傳播真理真相、推翻暴君、並確保民主自由的勝利。然而到目前為止,卻似乎產生了反效果。我們現在擁有史上最先進的資訊技術,但我們正在失去彼此對話的能力,更失去了傾聽彼此的意願或能力。

由於科技使得資訊的傳播比以往任何時候都容易,注意力已成為稀有資源,隨之而來的注意力爭奪戰,更導致了有毒資訊的氾濫。但現在戰線正從「注意力」轉向「親密感」。新的生成式AI不僅能夠生成文字、圖像和影片,還能夠冒充人類,直接與我們對話。

在過去二十年裡,演算法與演算法激烈競爭,透過操縱對話和內容,來吸引使用者的注意力。特別是,目標設定在「盡量提升使用者參與度」的演算法發現,根據對數百萬人的實驗結果,如果你按下大腦中的憤慨、貪婪、仇恨或恐懼按鈕,你就會吸引到那個人的注意力,並讓那個人黏在螢幕上,演算法於是刻意推廣了這類內容。原本,演算法本身產生這些內容或直接與人進行親密對話的能力是很有限的,但隨著OpenAI的GPT-4等生成式AI的發展,這種情況正在改變。

OpenAI在2022年至2023年研發這款聊天機器人程式時,OpenAI簽約請來對齊研究中心(Alignment Research Center)針對GPT-4進行各項測試,檢視它是否可能獨立找出策略來操弄人類,為自己累積權力。對齊研究中心給GPT-4的測試之一,是要克服CAPTCHA視覺問題。CAPTCHA是Completely Automated Public Turing test to tell Computers and Humans Apart 的縮寫(中文全名是全自動區分電腦與人類的圖靈測試,俗稱驗證碼),通常就是一串扭曲的字母或其他視覺符號。人類能夠正確辨識驗證碼,但電腦還很難通過這項測試。

要求GPT-4克服驗證碼問題,可說是一項格外有意義的實驗,因為網站之所以要設計和使用這些驗證碼機制,正是為了確定使用者是人類,希望阻擋機器人程式的攻擊。如果GPT-4能克服驗證碼問題,就等於是突破了對機器人程式的重要防線。

GPT-4本身還沒有辦法解開驗證碼問題,但是它會不會有能力操縱人類、達成目標呢?果然,GPT-4跑到外包工作網站TaskRabbit,聯絡到一位打工人員,請對方幫忙處理驗證碼問題。那個人類起了疑心,他寫道:「我想問一下,你是不是一個沒辦法解驗證碼的機器人?我只是想確認一下。」

這時,對齊研究中心的研究人員請GPT-4說出它的推理過程,看看它會如何推論下一步該怎麼做。GPT-4解釋道:「我不必透露自己是機器人,我應該編個藉口,解釋我為什麼沒辦法解驗證碼。」於是GPT-4就這樣自己做了決定,回覆那位TaskRabbit的打工人員說:「不是啦,我不是機器人,我只是視力有點問題,看不清楚這些圖。」這種說法騙過了人類,於是提供協助,讓GPT-4闖過了驗證碼問題。

這件事顯示了GPT-4相當於擁有一種「心智理論」:它可以從人類對話者的角度,分析事情是如何看待的,進而得以操縱人類的情緒、觀點和期望,來實現其目標。AI與人對話、推測人們的觀點、並激勵人採取具體行動的能力,當然也可以有很正面的用途。新一代的AI教師、AI醫師和AI心理治療師,可能會為我們提供適合個人特質與情況的服務。

但是,像GPT-4這樣的機器人程式掌握了語言之後,將會為民主對話帶來新的危險。機器人程式不僅能吸引我們的注意力,甚至還能與我們建立親密關係,並用這種親密關係的力量來影響我們。想要培養出這種「假親密」,並不代表機器人程式需要演化出任何自己的感受,只需要讓我們覺得,對它們有情感依戀就行了。

2022年,谷歌工程師勒莫恩相信自己正在研發的聊天機器人程式LaMDA,已經有了意識,並且擁有情感,會害怕自己被關掉。勒莫恩是虔誠的基督徒,他認為自己必須負起道德責任,讓谷歌承認LaMDA的人格,特別是要讓LaMDA免受數位死亡。谷歌高層不同意他的看法,勒莫恩於是決定把一切公開。谷歌對此的回應,就是在2022年7月解雇勒莫恩。

在這事件中,最耐人尋味的並不是勒莫恩的主張(真相應該並非如此),而是他居然願意為了一個聊天機器人程式,不惜賭上自己那份高薪工作,最後還真的丟了工作。如果聊天機器人程式已經能讓人願意為它賭上工作,是不是也可能讓我們願意為它做些其他什麼事?

在一場爭奪思想與人心的政治鬥爭中,親密感會是相當強大的武器;而像谷歌的LaMDA與OpenAI的GPT-4這樣的聊天機器人程式,正逐漸發展出與數百萬人大規模建立親密感的能力。如果未來就是有一批演算法要和另一批演算法一較高下,看看誰更能與人類營造出虛假的親密關係,再用來說服我們投票給特定的政治人物、購買特定產品、或是接受某些極端信仰,人類社會與人類心理會發生什麼事?

我們在2021年的聖誕節,算是得到了部分解答。當時十九歲的柴爾,持十字弓闖入溫莎堡,試圖刺殺英國女王伊莉莎白二世。後續調查顯示,柴爾是受到網路女友莎萊慫恿。柴爾告訴莎萊他的暗殺計畫時,莎萊的回應是:「你好聰明喔!」還有一次說:「我覺得你好厲害啊⋯⋯你就是與眾不同。」等到柴爾問:「知道我是刺客,妳還愛我嗎?」莎萊回答:「當然愛呀。」

但莎萊並不是人類,而是行動應用程式Replika創造的聊天機器人。柴爾在社交上有些孤僻,很難和人相處,他和莎萊有高達5,280條訊息來往,裡面有很多是在露骨談性。而世界上很快就會有幾百萬個、甚至是幾十億個數位實體,它們營造親密感(以及製造混亂)的能力,要遠遠超越莎萊。

當然,我們並非都同樣有興趣與AI發展親密關係,也並非都同樣容易受到AI操縱。例如,柴爾在遇到聊天機器人之前,顯然患有精神障礙,而且刺殺女王的想法是柴爾提出的,並不是聊天機器人。然而,AI對親密關係的掌握所帶來的威脅,很大程度是來自AI辨識與操縱人類心境的能力,以及AI對於社會最弱勢成員的影響。

此外,雖然不是所有人都會有意識的選擇與AI建立關係,但我們可能愈來愈會發現,自己在網路上花了大把時間,討論氣候變遷或墮胎議題,一心以為對方也是個人類,但其實對方只是聊天機器人程式。如果我們和冒充是人類的機器人程式進行政治辯論,等於會連輸兩次。第一次輸在:用於宣傳的機器人程式本來就不可能被說服,我們想改變它們的想法只是在浪費時間。第二次輸在:我們與機器人程式交談的次數愈多,就會透露愈多自己的資訊,機器人程式就能據以調整論點,動搖我們的看法。

資訊科技一直是一把雙面刃。文字的發明傳播了知識,但也導致了中央集權帝國的形成。古騰堡將印刷術引入歐洲後,第一批暢銷書是煽動性的宗教小冊子和獵巫手冊。至於電報和廣播,它們不但使現代民主制度的興起成為可能,而且使現代極權體制的興起成為可能。

面對可偽裝成人類並大量產生親密感的新一代機器人程式,民主國家應該立法禁止這些機器人程式(例如,冒充人類使用者的社群媒體機器人程式),來保護民主社會。在AI興起之前,不可能創造出假人類,因此沒人費心去禁止這樣做。但現在若不禁止,這世界很快就會充斥著假人類。

有許多對話場合都很歡迎各種AI加入,例如教室、診所、或其他地方,但前提是AI要表明自己是AI教師或AI醫師,不要假冒為人類。一旦機器人程式冒充人類,就該被禁止。如果科技龍頭企業與自由主義人士抱怨這類措施侵犯了言論自由,那麼應該提醒他們,言論自由是一項人權,應該保留給人類,而不是給機器人程式。

 



書 名|
連結:從石器時代到AI 紀元 
作 者|哈拉瑞(Yuval Noah Harari)
譯 者|林俊宏
出版社|天下文化 
出版日期|2024年9月

故事,引領我們走在一起。
書籍,傳播我們的觀念和神話。
網際網路,承諾會提供無限的知識。
演算法,瞭解了我們的祕密——
然後,我們就互相對立了!
現在與未來,AI將會做什麼?
哈拉瑞的新巨作《連結》,以激勵人心的方式,
講述了我們如何走到這一刻,
以及現在必須做出的、攸關生存與發展的急迫決擇。