首頁 » 新聞 » 「怪我囉?」臉書研究撇清演演演算法造成言論濾泡挨轟

「怪我囉?」臉書研究撇清演演演算法造成言論濾泡挨轟

「怪我囉?」臉書研究撇清演演演算法造成言論濾泡挨轟

常有抱怨臉書的個人化演演演算法,造成臉書牆上只見到自己喜歡的內容,言論越來越單一。最近臉書資料科學團隊的研究成果登上 Science,針對演演演算法對言論濾泡 (filter bubble)的現象研究,但被批評在幫自家澄清演演演算法的負面影響,另外就是研究取樣有問題,聲稱結果能適用全美,但實際上只有 9%對政治表態的用戶,比例偏低。

臉書團隊針對美國有填寫政治傾向的臉書用戶,從去年七月開始為期六個月,研究演演演算法到底會怎麼影響不同想法的用戶。結果臉書資料科學團隊認為個人選擇遠高於演演演算法造成的影響。儘管演演演算法會讓自己喜愛的貼文有較高機會出現,但跟自己政治立場相異的貼文仍會出現。演演演算法對自由派來說,減少8% 的保守派貼文,對保守派則會減少 5% 自由派貼文。相比之下,使用者的點擊行為對保守派的影響更大,減少 17%的顯示機會,而自由派則只有 6%。

廣告-請繼續往下閱讀

研究樣本小,並不能推論至全美

臉書的研究團隊指出他們在全美有高達 1,010萬用戶數量,但由於研究團隊限定有嚴格的四項條件,使得實際運用在統計數的樣本遠低於美國的臉書用戶數量。你必須年滿 18 歲,每週至少登入4/7 天,必須在牆上分享實驗團隊定議的嚴肅文章,臉書個人檔案的政治傾向必須能夠識別其政黨或是政治立場,不能亂寫。

但是臉書的研究成果出爐,被不少人批評,最顯而易見的是研究樣本問題。批評者指出臉書團隊的取樣有問題,有在自己個人資料表態填寫政治傾向的用戶並沒有那麼多。美國的臉書用戶只有9% 會填寫政治傾向,而其中 54% 是亂寫並不能辨識是保守或是自由派。因此符合條件的用戶只有4%。一般填寫政治傾向的用戶,比較高的機率在政治上比較活躍。採用只有對政治表態的用戶當樣本,要推論到美國整體情況,會有失真情形。

廣告-請繼續往下閱讀

「怪我囉?」臉書研究撇清演演演算法造成言論濾泡挨轟

▲ 保守派、中立派、自由派的臉書用戶,分享的保守、中立、自由派文章比例 (圖片來源:Science)

每週 4/7 天登入臉書,則移除 30% 的用戶。要推論到全美 1,010 萬臉書用戶的狀況,其實是不行的。因此西北大學的教授Eszter Hargittai 批評 Science雜誌的同儕評審機制出問題,怎麼讓取樣這麼有問題的論文刊出。無法推論到美國的用戶狀況,更何況全球的臉書用戶。而對研究重要的取樣方式,竟然沒有在本文出現,得在補充資料找,容易造成讀論文時解讀錯誤。

臉書讓言論濾泡現象更嚴重

臉書試圖把用戶內容偏食現像,歸究到使用者自己的選擇,有人批評臉書演演演算法造成的內容單一性,問題遠大過用戶自己的選擇。使用者牆上看到的內容,已經先經過演演演算法處理過,才顯示出來,這時候再統計用戶會不會看跟自己立場相異的文章,統計上已經偏差了。

這並不是臉書的研究第一次出問題,先前就有操弄使用者的情緒而惹爭議。那次總共有 69萬用戶涉入而不自知,違反研究論理。

言論濾泡,或者是迴音室 (echo chambers)現像,指是社交網路交流的人常會只聽到跟自己類似想法的論述。指出網路濾泡現像的 Eli Pariser,同時他也是內容農場網站Upworthy 的創辦人。

臉書讓言論濾泡現象更加嚴重,讓社會上不同聲音減少彼此溝通交流管道,甚至對民主政治造成危機。

(首圖來源:Flickr/7aya net CC BY 2.0)

廣告

看看這個吧

這個警察本想呼叫同仁閃避,下一秒他竟然「被車撞」…最後往生!「這畫面」讓所有人暴哭!

>>今晚的好伴侶,高清1080 ...

出租房竟飄出「異味」,沒想到一開門整張床「滿滿的都是這個」…房東嚇到去收驚!

>>每日更新50片,高清108 ...