Jak wszystkie miejsca w Internecie, gdzie można anonimowo coś dodawać lub zmieniać (vide Wikipedia), Google Maps mierzy się z poważnym trollingiem. Jeśli jednak wierzyć doniesieniom firmy, że dzięki sztucznej inteligencji zablokowała aż 100 milionów podejrzanych zmian, to radzi sobie z nim naprawdę dobrze.
Usunięto 7 milionów fałszywych profili i 200 milionów zdjęć
Sztuczna inteligencja (a konkretnie uczenie maszynowe) pomogła zapobiec ponad 100 milionom prób nieuczciwej edycji profili firm w Google, ale nie tylko. Udało się dzięki niej również usunąć 7 milionów fałszywych profili, z czego tylko 630 000 w oparciu o zgłoszenia użytkowników.
To nie koniec. Google rzekomo powstrzymało też 12 milionów prób podszywania się pod firmy i 8 milionów prób nieuczciwego przejęcia profili firmowych. Dodatkowo, z Map Google usunięto niespełna 200 milionów zdjęć i filmów czy to niskiej jakości, czy w jakiś inny sposób naruszających zasady.
Wzięto pod lupę podejrzane recenzje – usunięto aż 95 milionów recenzji niezgodnych z zasadami (z tego 60 000 tysięcy dotyczyło naruszeń zasad związanych z pandemią COVID-19). Google przyznało jednak, że AI było wspierane przez “ludzkich operatorów”, więc ciężko powiedzieć, na ile to był realnie sukces sztucznej inteligencji.
Moderacja przez AI brzmi świetnie, ale…
Automatyczna moderacja w Internecie to grząski temat. Ściąga ona wiele obowiązków z ludzkich moderatorów, którzy mogą dzięki niej zajmować się bardziej złożonymi sprawami i odwołaniami. Treści w sieci jest coraz więcej i brakuje osób, które mogłyby je weryfikować.
Szukanie alternatyw do tradycyjnej moderacji jest szczególnie istotne, jeśli weźmiemy pod uwagę, jak moderacja może wpływać na ludzi – niedawno pisaliśmy chociażby o tym, że byłe moderatorki pozwały TikToka za “traumę psychologiczną”.
Sztuczna inteligencja i oparte na niej rozwiązania nie są jednak idealne. Zwłaszcza, jeśli mowa o moderacji opartej na uczeniu maszynowym, czyli technice polegającej na tym, że oprogramowanie uczy się samo na podstawie dostarczonych mu danych.
Jeśli zestawy danych są nieodpowiednio dobrane, AI może być mniej skuteczne lub wręcz przejąć z nich niepokojące nawyki. Wystarczy sobie przypomnieć historie z sztuczną inteligencją uczącą się z kierowanych do niej tweetów na Twitterze. Internauci zdołali bardzo szybko zamienić bota w zadeklarowanego nazistę, seksistę i rasistę.
A Wy spotkaliście się z jakimś przykładem dezinformacji albo trollingu w Google Maps? Dajcie koniecznie znać w komentarzac
WARTO PRZECZYTAĆ: