Facebook pochwalił się, że aż 95% mowy nienawiści, która pojawia się na platformie, AI jest w stanie wyłapać zupełnie samo, zanim jeszcze nawet ktokolwiek ją zgłosi. Jedynie około 5% z 22 milionów przykładów mowy nienawiści, które zostały zarejestrowane w ostatnim kwartale, zostało wykryte po zgłoszeniu przez użytkowników.
Wydawałoby się, że to to powód do dumy dla serwisu, ale chociaż po części tak jest, ale firma i tak kładzie bardzo duży nacisk na ludzkich moderatorów, szczególnie w kwestiach szczególnie wrażliwych. Jest jednak jeden poważny problem.
Spis treści
Facebook wykorzystuje zewnętrznych moderatorów, którym kazano wrócić do biur
Facebook zatrudnia swoich własnych pracowników, którzy w dużej mierze nie mają na co narzekać w kontekście podejścia firmy do pandemii koronawirusa. Wszyscy, w przypadku których nie jest absolutnie konieczne fizyczne przebywanie w biurze, mogą pracować zdalnie co najmniej do lipca 2021 roku, a w niektórych przypadkach może być nawet permanentnie.
Problem jednak w tym, że lwia część moderatorów Facebooka pochodzi z zewnętrznych firm i nie jest bezpośrednio pracownikami tego portalu. Już wcześniej grupa ta składała zażalenia, twierdząc, że pracują w bardzo stresujących warunkach i nie są należycie traktowani. Teraz ponad 200 pracowników, którym nakazano powrót do pracy w biurze i nie wydano zgody na pracę zdalną, podpisało list, w którym twierdzą, że firma naraża ich życie.
Podczas gdy pandemia COVID-19 nadal zakłóca pracę naszych pracowników zajmujących się weryfikacją treści, obserwujemy, jak niektóre wskaźniki egzekwowania zasad powracają do poziomów sprzed pandemii. – Facebook
Zdaniem Facebooka nie da się moderacji przeprowadzać całkowicie zdalnie
Według Facebooka niektóre materiały są na tyle wrażliwe, że m.in. dla bezpieczeństwa i prywatności osób w nich zawartych przeglądanie ich poza biurem jest niemożliwe, a do tego nie powinno ich przeglądać tylko AI, ale też ludzie. Dlatego kluczowe jest, aby przynajmniej część moderatorów znajdowała się właśnie w biurach, a nie pracowała zdalnie.
Nawet przy ograniczonych możliwościach moderacji nadal traktujemy priorytetowo najbardziej wrażliwe treści do sprawdzenia, które obejmują takie obszary, jak samobójstwa i samookaleczenia oraz nagość dzieci. – Facebook
Warto przypomnieć, że jakiś czas temu Facebook zgodził się na zapłacenie 52 milionów dolarów w ramach ugody z byłymi moderatorami, którzy oskarżyli firmę o to, że zlecone im zadania doprowadziły do wystąpienia u nich zespół stresu pourazowego (PTSD).
Co sądzicie o całej tej sprawie? Uważacie, że moderatorzy nie mają racji, nie chcąc wracać do biur? Czy może sądzicie, że Facebook igra ze zdrowiem i życiem swoich pracowników? Koniecznie dajcie znać w komentarzach!
