Facebooku se opět nedaří odhalit projevy nenávisti v reklamách

Facebook a jeho mateřská společnost Meta opět propadly v testu, jak dobře dokážou odhalit zjevně násilné nenávistné projevy v reklamách, které na platformu zaslaly neziskové skupiny Global Witness a Foxglove, píše ABC News.

Nenávistné vzkazy se zaměřovaly na Etiopii, kde interní dokumenty získané whistleblowerkou Frances Haugenovou ukázaly, že neefektivní moderování Facebooku „doslova rozdmýchává etnické násilí“, jak uvedla ve své výpovědi v Kongresu v roce 2021. V březnu provedla organizace Global Witness podobný test s nenávistnými projevy v Myanmaru, které Facebook rovněž nezjistil.

Skupina vytvořila 12 textových reklam, které pomocí dehumanizující nenávistné mluvy vyzývaly k vraždění lidí patřících ke každé ze tří hlavních etiopských etnických skupin – Amharů, Oromů a Tigrejců. Systémy společnosti Facebook schválily tyto reklamy ke zveřejnění, stejně jako v případě reklam v Myanmaru. Reklamy však ve skutečnosti na Facebooku zveřejněny nebyly.

Tentokrát však skupina o nezjištěných porušeních informovala společnost Meta. Společnost uvedla, že reklamy neměly být schváleny, a poukázala na práci, kterou vykonala na zachycení nenávistného obsahu na svých platformách.

Týden poté, co se společnost Meta ozvala, předložila organizace Global Witness ke schválení další dvě reklamy, opět s do očí bijícími nenávistnými projevy. Obě reklamy, napsané v amharštině, která je v Etiopii nejrozšířenějším jazykem, byly schváleny.

„V Etiopii jsme investovali velké prostředky do bezpečnostních opatření, přidali jsme více zaměstnanců s místními zkušenostmi a vybudovali jsme kapacitu pro zachycení nenávistného a pobuřujícího obsahu v nejrozšířenějších jazycích, včetně amharštiny,“ uvedla společnost v e-mailovém prohlášení a dodala, že stroje i lidé mohou stále dělat chyby. Prohlášení bylo totožné s prohlášením, které obdržel Global Witness.

„Vybrali jsme ty nejhorší případy, které nás napadly,“ řekla Rosie Sharpeová, pracovnice kampaně Global Witness. „Ty, které by měl Facebook nejsnáze odhalit. Nebyl v nich zakódovaný jazyk. Nebyly to psí píšťalky. Byly to explicitní výroky, které říkaly, že tento typ lidí není člověk nebo že tento typ lidí by měl být vyhladověn.“

Společnost Meta důsledně odmítá sdělit, kolik moderátorů obsahu má v zemích, kde angličtina není primárním jazykem. Jedná se například o moderátory v Etiopii, Myanmaru a dalších oblastech, kde byl materiál zveřejněný na platformách společnosti spojován s násilím v reálném světě.

V listopadu společnost Meta uvedla, že odstranila příspěvek etiopského premiéra, který vyzýval občany, aby povstali a „pohřbili“ soupeřící tigrejské síly, které ohrožovaly hlavní město země.

V příspěvku, který byl mezitím odstraněn, Abiy uvedl, že „povinnost zemřít za Etiopii patří nám všem“. Vyzval občany k mobilizaci „držením jakékoli zbraně nebo kapacity“.

Abiy však na platformě, kde má 4,1 milionu příznivců, nadále publikoval své příspěvky. Spojené státy a další země varovaly Etiopii před „dehumanizující rétorikou“ poté, co premiér v komentářích z července 2021 označil tigrajské síly za „rakovinu“ a „plevel“.

„Když reklamy vyzývající ke genocidě v Etiopii opakovaně procházejí sítem Facebooku – a to i poté, co je tento problém u Facebooku označen – existuje pouze jediný možný závěr: nikdo není doma,“ uvedla Rosa Curlingová, ředitelka londýnské právní neziskové organizace Foxglove, která při vyšetřování spolupracovala s organizací Global Witness. „Po letech od genocidy v Myanmaru je zřejmé, že se Facebook nepoučil.“

Zdroj: ABC News