cwlogo

切換側邊選單 天下全閱讀 切換搜尋選單
切換會員選單

臉書和Google廣告系統  成了助長歧視言論的幫兇?

精華簡文

臉書和Google廣告系統  成了助長歧視言論的幫兇?

圖片來源:flickr@cquintanomedia CC BY 2.0

瀏覽數

1078

臉書和Google廣告系統  成了助長歧視言論的幫兇?

Web Only

記者實際測試臉書和Google廣告之後,發現兩大巨人引以為傲的精準廣告投放工具,竟成了助長仇恨和歧視言論的幫兇。而且,這個問題短時間內難以獲得解決,「他們創造了複雜的廣告系統,卻一點也不了解自己創造的系統。」

Google和臉書已成為全球最大的廣告平台。根據英國《衛報》報導,2016年全球廣告費用中,Google和臉書佔了五分之一。Google的廣告營收達794億美元(約台幣2兆3,820億元),臉書為269億美元(約台幣8,070億元)。兩家公司總計佔全球廣告支出費用的20%。

如此驚人的廣告市佔率,卻隱含令人不安的暗黑效應。長期以來兩大廣告系統引以為傲的精準廣告投放工具,如今卻成了助長仇恨和歧視言論的幫兇。可說是成也演算法,敗也演算法。

9月中旬,ProPublica記者進行測試,花費30美元,挑選三則貼文投放廣告。臉書的自動廣告系統可以讓使用者自行設定投放的目標對象,只要在目標族群的欄位內輸入關鍵字,系統便會自動推薦相關的目標族群類別,這些類別的產生,是透過演算法,而非人力創造。

ProPublica記者嘗試輸入「jew hater」(仇恨猶太人)關鍵字,結果發現符合此類別的目標族群僅有2,274人,數量太少,無法投放廣告,必須新增其他類別。當記者輸入「jew h」時,系統跳出了其他建議,像是「如何焚燒猶太人」(how to burn jews)、「關於猶太人如何毀滅世界的歷史」(history of “why jews ruin the world”)。但這兩個類別的人數分別只有兩人和一人。

之後記者輸入關鍵字「希特勒」(Hitler),並選了系統推薦的其中一個類別「希特勒沒有做錯事」(Hitler did nothing wrong),但符合此類別的也只有15人,人數還是太少。記者又再加上「德國黨衛軍」(German Schutzstaffel)和「納粹黨」(Nazi Party)兩個類別,潛在目標族群的人數分別為3,194和2,449,依舊沒有達到廣告投放的門檻。最後,記者增加了德國極右派政黨「國家民主黨」這個類別,對此議題有興趣的潛在人數為194,600。

確定人數達到門檻之後,記者便提出廣告投放申請,15分鐘內就獲得核准。幾天之後,記者收到臉書寄來的廣告成效報告,三則貼文的廣告總計觸及5,897人、101次點擊、13次互動(按讚、分享、留言)。

ProPublica記者聯絡臉書之後,多數反猶太人的目標族群類別都已撤除。同時,臉書也將移除部分目標族群設定選項,限縮廣告主可以投放的標的類別,避免出現仇恨性言論的類別。

儘管臉書創辦人祖克伯(Mark Zuckerberg)信誓旦旦的表示,「在臉書的社群,沒有仇恨存在的空間。」但是,臉書平台的演算機制,卻讓仇恨言論可以輕易的自由流竄。然而,堵得了一時,賭不了永久,除非臉書真能找到完善的解決方法。

就在ProPublica記者測試隔兩天,美國另一個新聞網站Buzzfeed的記者針對Google關鍵字廣告進行測試,結果同樣發現,使用者可以針對特定具仇恨性言論的關鍵字下廣告。Buzzfeed記者進入Google廣告系統之後,在關鍵字欄位內輸入「為何猶太人毀了一切」(why do jews ruin everything),結果系統自動跳出77個相關的關鍵字推薦,例如:「黑人毀了一切」(black people ruin everything)、「猶太寄生蟲」(jewish parasite)等等。

記者又嘗試另一組關鍵字「白人毀了一切」(white people ruin),此時系統跳出其他14各推薦的關鍵字。同樣的,就在Buzzfeed主動聯繫之後,Google撤除了相關的關鍵字。第二天,Google資深廣告副總裁拉馬斯瓦米(Sridhar Ramaswamy)再度發出聲明,強調他們會繼續改善系統,沒有任何藉口。

上述的測試結果顯示,臉書和Google並沒有做好準備,「他們創造了複雜的廣告系統,卻一點也不了解自己創造的系統,」哈佛商學院副教授(Benjamin Edelman)說

機器能完全取代人力?

當今的機器學習(machine learning)和自然語言處理(natural language processing)技術確實有突破性發展,但至今電腦仍無法準確判斷一段字句是否屬於仇恨性言論。「要讓機器學習與自然語言處理自動進行篩選,目前仍是困難的科技挑戰,」美國史丹福大學博士候選人漢彌頓(William Hamilton)接受Quartz採訪時表示。「要判斷某段字句是否屬於仇恨性言論的困難點在於,必須在演算機制中 納入更多關於歷史、社會脈絡、和文化等知識內容。」

雖然現在的電腦可以判斷特定的字句或組合是否為仇恨性言論,但是不同字句的組合有太多可能性,根本無法一網打盡。雖然工程師可以將數千種可能的仇恨性言論輸入系統中,讓機器學習哪些字句屬於仇恨性言論,但機器缺乏必要的脈絡知識,可以百分之百正確的判斷。

「你不希望有人將廣告投放給『仇恨猶太人』的目標族群,」漢彌頓說,「但是,如果有人在他個人資料中寫著『驕傲的猶太人,討厭你的人無論如何都會討厭你』,這樣的內容通常不會有問題。這應該不算是仇恨性言論,但裡面含有『仇恨』、『仇恨者』、『猶太人』等字眼。要判斷一段字句是否屬於仇恨性言論,必須了解這些字句的『組合性』(compositionality)。」但漢彌頓表示,以目前的科技,「還做不到這一點。」

去年開始,已經有大型廣告主撤除在YouTube平台刊登的廣告,包括Verizon、沃爾瑪百貨(WalMart)、匯豐銀行等,因為他們發現自己的廣告出現在鼓吹種族主義和恐怖主義的影片。

就現階段而言,短期的解決方法必須依靠機器和人力共同合作,由機器標示出可能含有仇恨性言論的字句,再由人力判斷是否屬於仇恨性言論,以及是否適合做為投放廣告的標的。再由人力將這些資訊回饋給機器。Google便雇用大量的臨時人力,監看使用Google廣告的網站,特別是YouTube影片內容,一旦發現有仇恨性言論,就會將訊息回傳給機器學習系統,提升機器判讀的準確率。

但這不是一件容易的事情,根據《連線》雜誌的報導,人力審核的速度遠遠趕不上新增的內容數量。Google的業務長辛德勒(Philipp Schindler)4月份接受彭博社採訪時便提到,未來Google將會減少人力,因為「這問題無法透過人力解決,也不該用人力解決。」

問題是,現階段的科技無法仍解決問題,人力判讀作為輔助勢必無法避免。或許,終有一天機器智慧有可能完全取代人力,只是不知道要等待多長的時間。

(資料來源:ProPublicaBuzzfeedNew York TimesQuartzWiredGuardian

關鍵字:

好友人數

文章下載

PDF下載 付費閱讀
 
登入會員看更多

訂閱全閱讀,全站通行