- 評論
文章專區
2015-08-01何者該為臉書用戶看到的同質化內容負責?
548 期
Author 作者
鄭宇君/玄奘大學大眾傳播學系助理教授,國立政治大學新聞系博士。研究興趣:社交媒體研究、科學傳播、風險與危機傳播、科技文化研究。
究竟是個人的交友選擇或是臉書的演算法,造成臉書用戶看到同質化內容的影響較大呢?
Science期刊五月份登出一篇臉書研究的論文,主要目的是探討用戶曝露在同質或異質意識型態內容之情況,進而比較前述兩者的效應。這是少數能刊登在Science上的社會科學研究結果,特別是使用了一般研究者難以取得的臉書大數據(big data),因而引起許多人關注與討論。本文主要是說明這類研究的困難與研究發現之價值。
社群媒體大數據研究的價值
對人文社會學者而言,進行社群媒體大數據的研究,最困難的是研究者不容易取得大量的資料,因這些資料皆由Facebook、Twitter、Google等大公司所擁有,即便這些公司透過應用程式介面(API)釋出部分資料給開發者及學術研究者利用,但能取得的數據仍是有限、不完整的資料。相較之下,本篇論文第一作者任職於臉書公司,可取得臉書的大量使用者資料及用戶行為記錄(user log),包括用戶塗鴉牆上出現的動態消息,哪幾則消息用戶會實際點閱,哪些不會等等。這些用戶行為記錄是一般研究者無法透過臉書API獲取的資料,只有臉書公司本身擁有這些記錄,這是本研究的價值所在。
本篇論文作者主要透過臉書的大數據驗證「迴聲室」(echo chambers)與「過濾泡泡」(filter bubbles)這二個概念,何者在臉書的用戶行為中較具影響力。用淺白的話來說,「迴聲室效應」的重點在於用戶的個人選擇,個體會選擇與自己立場相近的人成為好友,所以看到的朋友分享訊息跟自己立場相近;或是反過來,個體從臉書朋友中看到的立場來決定自己的立場。無論是哪一種,當個人從臉書好友分享訊息中所見的都是相似立場,他便以為社會上的主流意見皆是如此。
另一個重要概念「過濾泡泡」,則意指臉書演算法如何影響用戶所觀看到的訊息。臉書經由演算法先篩選出他們認為用戶「想看」的動態消息,接著這些訊息才會出現在用戶的動態消息上。演算法計算基礎來自於用戶先前的行為,包括用戶訂閱專頁、友人互動的頻率(按讚、分享、留言)及是否點閱內容觀看。
無論是迴聲室效應或過濾泡泡,儘管成因不同,但造成的共同結果是——用戶沉浸在一個同質性非常高的內容群體中,甚至誤認為這就是社會上的主流意見。這是批評者經常抨擊社交媒體的負面效應,這篇論文想要證明的就是迴聲室效應(個人選擇)或過濾泡泡(演算法過濾),何者該負起較大責任?
資料的分析與測量
本篇論文使用的資料集來自於1010萬名美國臉書的活躍用戶,這些用戶在個人檔案中自我揭露其意識型態傾向,以及在資料收集的六個月內(2014年7月7日~2015年1月7日)這些用戶所分享的700萬筆的網頁超連結(URL)。研究者透過機器學習區分大量超連結內容為硬性內容(如:全國新聞、政治、世界大事)或軟性內容(如:娛樂、運動、旅遊)。結果發現,700萬筆超連結中有13%為硬性內容,研究者進一步將資料集限縮於其中被20個以上有標明意識型態傾向的用戶所分享的22.6萬筆硬性新聞,並對這些內容進行校準測量。
換言之,研究者所收集的臉書用戶資料,是那些在個人檔案中強烈表態政治傾向的用戶,至於立場模糊或中立的用戶行為就不納入研究範圍;研究者將這些用戶的意識型態傾向分為保守派vs.自由派,各為正負1分,當一則硬性新聞被20個以上的用戶所分享,則將此新聞的所有分享人數之分數平均計算(保守派為+1分、自由派為-1分,加總起來除以分享人數),就得到該則新聞之意識型態平均分數。研究者透過這種方式給予22.6萬則硬性新聞評分,進行內容校準(content alignment)的測量,重點不在於測量新聞媒體的傾斜程度,而是捕捉一群人所分享的內容差異。測量的結果發現:福斯電視網偏向保守派(+0.8)、哈芬登郵報(Huffington Post,美國大型新聞網站)傾向自由派(-0.65)。研究者觀察到用戶分享的硬性內容裡有極化現象(polarization),最多被分享的連結來自大部分的保守派或自由派,也就是中立很少。
作者進一步申論,臉書與政治部落格的連結很不相同,臉書是以友誼建立的人際網路,雖然很多友誼會被政治意識型態打斷,但朋友當中還是有保守及自由派。在個人檔案中標示自己是自由派的,朋友中約有20%是保守派;反之,標示自己為保守派者,朋友約有18%是自由派。因此,透過朋友分享內容,理論上用戶應該有接近20%機會看到相反陣營的內容,但研究者計算用戶實際點閱的超連結後發現,保守派用戶對於相對立場文章的點擊率只有17%,而自由派則是6%。然而,作者坦承這分析的其中一個限制在於曝露(訊息出現在用戶動態消息)與消費(用戶點進該則消息瀏覽)的概念區分並不完美,個體也許已經在動態消息中看到內容摘要,儘管他沒點進去,也已曝露在某些內容下。
歸咎於個人選擇?
某些批評者認為,這篇論文把用戶看到同質性高的內容歸因為個人選擇而非臉書演算法,是為臉書卸責。但細讀本文的資料分析及推論,作者並沒有這樣宣稱,研究計算了個人選擇及演算法都會影響用戶閱讀內容,前者影響略高於後者,但測量時並無法排除另一個因素的影響。筆者認為本研究結果可能更受到取樣的用戶資料集之偏頗影響,由於這些用戶皆為明確表態個人政治傾向,他們在閱讀時可能較一般中立用戶更傾向排拒與自己立場相異的內容,因而這樣的研究結果並無法推論到多數未表態政治傾向的用戶。
另一方面,這也反映了社群媒體巨量資料研究之困難所在,即便像本研究作者有機會使用臉書的用戶行為資料。但人類的社交行為十分複雜,如何把研究問題轉化為可操作化測量的指標是個難題,本論文作者選擇以政治立場明確的保守派vs.自由派用戶出發,作為測量計分的依據,這種作法必然在過程中省略了用戶分享內容的差異性,這部分也有待後續研究者尋找更有效的分類或計算指標。
Bakshy, E., Messing, S. & Adamic, L., Exposure to ideologically diverse news and opinion on Facebook, Science, Vol. 348: 1130-1132, 2015.