本文作者為言論自由行行政總裁黃永
《華爾街日報》聲稱獲得Facebook內部文件,指臉書正修改其人工智能針對仇恨言論的內容調控(content moderation)運算法。新政策會根據「嚴重程度」和「社會共識」作為兩大考量點,把仇恨言論分為以下四類:
四大種類
一、嚴重程度較輕×較高社會共識=
「也算公道」(Fair Enough)類別:
這些帖文多數是令人看得不舒服卻未有造成極大迴響,且一般人亦同意應刪除的侮辱性及暴力內容。
二、嚴重程度較高×較高社會共識=
「劣中之劣」(Worst of the Worst)類別:
臉書內部又稱之為「WoW」,也就是大部分人持續認同相關內容會對社會整體帶來傷害。
三、嚴重程度較高×較低社會共識=
「人人不同意」(People Disagree)類別:
指極度尖銳又針對個別群組的仇恨言論,但透過其表達手法隱藏背後惡意,甚至反過來批評投訴人過度解讀或扭曲原意,故有較大爭議。
四、嚴重程度較低×較低社會共識=
「男人是垃圾」(Men are Trash)類別:
此乃批評社會內「支配階層」之帖文,在美國的情況則主要是指「白種雙性戀男性」這個族群,而牽涉的內容往往是關於白人至上主義者。
Facebook如今終於認同,不分種族(race-blind)的內容調控方式,最終只會令支配階層有更大優勢,深化結構性歧視的問題──例如批評「男人是垃圾」和「黑人是垃圾」的帖文對社會所造成的傷害,應該作出清晰區別。最近的調查亦發現,因George Floyd死亡事件而引發的騷亂期間,臉書系統自動移除得最多的三類侮辱字眼,兩個跟白種人有關(white trash和cracker),而另一個則跟同性戀者有關;在美國全國上下關心種族問題的那段日子,歧視遭邊緣化族群的仇恨言論,竟然刪除得較少,反映其人工智能系統存在明顯漏洞。
AI撤帖文
理論歸理論,實際上會如何執行?據相關文件透露,臉書的人工智能系統會按帖文內各語句的「攻擊程度」逐點計分,然後按照總分再分類。
例如:「同性戀者令人不安」相對「男人都是豬」會因為較高的攻擊點數,會較快被系統移除。換言之,人工智能將會第一時間令劣中之劣的WoW帖文從臉書消失,文件的舉例包括明顯針對非洲裔、猶太人、多種族人士、伊斯蘭教信徒、LGBTQ族群等的侮辱字句。另外,最富爭議的「人人不同意」類別則估計由臉書專用「最高法院」(即Facebook Oversight Board,可參閱本欄今年5月19日的文章)負責處理,再按這些專家的建議改良其內容調控系統。
除此之外,臉書終於宣布會立即移除有關新冠疫苗的誤導資訊,決定不再沿用過去只是發出警告或減少發放的方式──隨着特朗普只顧如何為自己和家人脫罪,有關疫情的假新聞大幅減少,Facebook承受的壓力亦隨之下調。然而,眼見美國的COVID-19確診和死亡人數屢達新高,這次內容調控政策的轉變也實在來得太遲。
原文轉載自《信報》 2020年12月9日
請Follow我們的YouTube頻道:https://bit.ly/2kgU8qg
下載我們的手機應用程式,收看第一手精彩內容:https://www.speakout.hk/app
評論