OpenAI, jeden z największych graczy w branży AI, właśnie zdecydował się na wycofanie jednego ze swoich narzędzi, które miało w teorii stanowić ogromną pomoc m.in. dla osób ze świata edukacji (nauczycieli, wykładowców akademickich). Pomimo wcześniejszych optymistycznych zapowiedzi, firma stwierdziła, że nie spełniło ono oczekiwań.

Narzędzie miało chronić świat nauki przed plagiatami

AI Classifier, ponieważ tak właśnie nazywało się narzędzie, miało umożliwiać wykrywanie, czy dany tekst został napisany przez człowieka, czy wygenerowany przez AI, a w szczególności przez własne narzędzie OpenAI — ChatGPT. Celem było m.in. ocenianie, czy studenci i uczniowie nie korzystali z niedozwolonej pomocy przy tworzeniu swoich prac.

Jednak po zaledwie półrocznym okresie funkcjonowania, firma przyznała, że narzędzie nie było w stanie skutecznie wykonać powierzonego mu zadania. Zdecydowano się je zamknąć, ale o decyzji poinformowano w nietypowy sposób. OpenAI, zamiast stworzyć nowy wpis na blogu czy świeżą notatkę prasową, dodało nowe informacje do wpisu sprzed kilku miesięcy, w którym ogłaszało debiut narzędzia.

Od 20 lipca 2023 r. AI Classifier nie jest już dostępny ze względu na niską precyzję. Pracujemy nad uwzględnieniem opinii i obecnie badamy skuteczniejsze techniki detekcji tekstu oraz zobowiązaliśmy się do opracowania i wdrożenia mechanizmów, które umożliwią użytkownikom zrozumienie, czy treści dźwiękowe lub wizualne są generowane przez sztuczną inteligencję — OpenAI

OpenAI od początku ostrzegało, aby nie polegać na AI Classifierze

We wspomnianym wpisie blogowym ze stycznia 2023 roku, w którym OpenAI przedstawiało AI Classifiera, firma od razu przyznała, że nie jest to jeszcze perfekcyjnie działające narzędzie. Wręcz przeciwnie.

Wskazano, że w teście wykonanym przez twórców na zestawie tekstów w języku angielskim, narzędzie poprawnie rozpoznało 26% treści jako prawdopodobnie napisane przez AI, a niewłaściwie oznaczyło teksty autorstwa ludzi jako stworzone przez sztuczną inteligencję w 9% przypadków.

Im dłuższy tekst, tym lepsze wyniki. Rzekomo niska skuteczność wykrywacza była szczególnie widoczna w przypadku tekstów poniżej 1000 znaków. Jak widać, od początku było wiadomo, że na tym narzędziu nie można w pełni polegać, więc ciekawym jest, że OpenAI zdecydowało się po czasie zamknąć je z powodu niskiej skuteczności.

Warto wspomnieć, że AI Classifier to nie pierwsze tego typu dzieło OpenAI. Organizacja stworzyła wcześniej GPT-2 Output Detector, czyli wykrywacz treści stworzonych przez model GPT-2. Teraz jesteśmy już na modelu GPT-4, więc jego skuteczność znacznie spadła. Twórcy twierdzą, że AI Classifier znacznie lepiej radzi sobie z nowymi modelami niż poprzednie narzędzie.

Co o tym wszystkim sądzicie? Koniecznie dajcie znać w komentarzach!


Redaktor naczelna TechPolska od 2019 roku. W przerwach między nabijaniem kolejnych setek godzin w Genshin Impact recenzuje każdy kawałek elektroniki, który wpadnie jej w ręce.

Udostępnij

WARTO PRZECZYTAĆ:

Marathon Marathon bez FOMO i innych toksycznych mechanik?
W dniu wczorajszym zadebiutował Marathon, a studio Bungie ujawniło szczegóły dotyczące monetyzacji i nagród sezonowych. Twórcy stawiają na model pozbawiony presji czasu oraz mechanik typu
lol splash Administracja Trumpa rozważa usunięcie kapitału Tencent z amerykańskiego sektora gier
Biały Dom debatuje nad przyszłością inwestycji chińskiego giganta technologicznego w USA ze względu na obawy o bezpieczeństwo narodowe i ryzyko szpiegostwa. Potencjalne zagrożenie dla Riot
Steam Next Fest Najpopularniejsze dema na Steam Next Fest
Lutowa edycja festiwalu Steam Next Fest przekroczyła półmetek, a Valve udostępniło dane dotyczące najchętniej ogrywanych tytułów. W zalewie tegorocznych promocji na platformie, których zaplanowano aż

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *