Meta Facebook, Instagram hate speech

Facebook zakazuje postów, które zawierają bezpośrednie ataki na ludzi ze względu na ich rasę, Kraj pochodzenia, religię, orientację seksualną i inne wrażliwe atrybuty. Aby złapać mowę nienawiści, firma wykorzystuje sztuczną inteligencję do skanowania obrazów i tekstów, które wyglądają na naruszające jej zasady i usuwania ich lub wysyłania do recenzentów w celu podjęcia ostatecznej decyzji.

Z dokumentów Haugen wynika, że Facebook oszacował, że działa tylko na mniej niż 5% mowy nienawiści na platformie. Firma, która w zeszłym miesiącu zmieniła nazwę firmy na Meta z Facebook Inc., powiedział, że statystyka odnosi się do mowy nienawiści, która jest automatycznie usuwana i nie zawiera treści, które są usuwane po ludzkiej recenzji lub które są zdegradowane. 

Facebook i Instagram usunęły 13,6 miliona treści, które naruszały jego politykę wobec przemocy i podżegania. Firma stwierdziła, że wykryła większość spornych postów, zanim zostały zgłoszone przez użytkowników. 

Dyrektor technologiczny Meta Mike Schroepfer powiedział podczas rozmowy prasowej z dziennikarzami, że firma wdrożyła bardziej uogólnione systemy moderacji treści oparte na sztucznej inteligencji, które mogą analizować posty pod kątem potencjalnych naruszeń w wielu kategoriach iw kilku językach jednocześnie. 

“Problemy, z którymi mamy do czynienia, zawsze ewoluują, podobnie jak sposób, w jaki do nich podchodzimy” – powiedział. 

Subskrybuj Ad Age teraz, aby uzyskać wielokrotnie nagradzane wiadomości i informacje.

– Bloomberg News