Model GPT-4 od OpenAI, wykorzystywany m.in. przez ChatGPT i wyszukiwarkę Bing, daje ogromne możliwości… ale nie jest pozbawiony wad. Jedną z najważniejszych z nich jest skłonność do tzw. halucynacji. Twórcy są tego świadomi i właśnie ogłosili, że stworzyli nową metodę trenowania sztucznej inteligencji, która ma ją (przynajmniej częściowo) wyeliminować.

Sztuczna inteligencja ma tendencje do zmyślania

Na czym dokładnie polegają “halucynacje” sztucznej inteligencji? Tak nazywa się sytuację, gdy AI z pełnym przekonaniem podaje informacje, które są całkowicie nieprawidłowe. Cytuje książki, które naprawdę nie istnieją, wymyśla wydarzenia, które nigdy nie miały miejsca, czy tworzy zupełnie nowych ludzi lub lokalizacje.

Nawet najnowocześniejsze modele mają skłonność do konfabulacji – wykazują tendencję do wymyślania faktów w chwilach niepewności. Te halucynacje są szczególnie problematyczne w dziedzinach wymagających wieloetapowego rozumowania, ponieważ wystarczy jeden błąd logiczny, aby “wykoleić” całe znacznie większe rozwiązanie – OpenAI

W związku z tym tak naprawdę nie można ufać żadnej odpowiedzi, jaką dostanie się od chatbota opartego na AI. Przekonał się o tym boleśnie amerykański prawnik Peter LoDuca, który niedawno… przesłał do sądu dokument, w którym opierał swoje argumenty na fikcyjnych sprawach, które wymyśliło je AI, gdy poprosił je o pomoc.

OpenAI chce, aby AI skupiało się na ścieżce do celu, a nie tylko wyniku

Dotychczas OpenAI stosowało przy trenowaniu sztucznej inteligencji strategię “outcome supervision”, czyli nadzoru wyników. Model był nagradzany za ukończenie zadania, gdy wyciągnął prawidłowy (niekoniecznie zgodny z faktami, ale logiczny) wniosek.

W swoim nowym artykule firma omówiła inne rozwiązanie – “process supervision”, czyli nadzór procesu. W tym przypadku modele AI są nagradzane za każdy pojedynczy prawidłowy krok rozumowania na drodze do końcowego wniosku. Taka metoda treningu ma upodobnić działania AI do ludzkiego procesu myślowego.

Nie jest to pomysł zupełnie nowy, ale OpenAI rzekomo go rozwinęło, przede wszystkim z myślą o problemach matematycznych.

metody trenowania ai
Porównanie skuteczności AI w rozwiązywaniu problemów przy metodzie nadzoru wyników (niebieski) i procesu (pomarańczowy) | Źródło: OpenAI

Na razie artykuł nie był jeszcze oficjalnie recenzowany przez innych specjalistów z branży, nie wiadomo też, czy i kiedy nowa metoda treningu przełoży się na oferowane przez OpenAI produkty, ale firma jest dobrej myśli.

Wykrywanie i mitygowanie błędów logicznych modelu lub halucynacji jest kluczowym krokiem w kierunku zbudowania AGI [ogólnej sztucznej inteligencji]. Motywacją stojącą za tymi badaniami jest poradzenie sobie z halucynacjami, aby modele były bardziej zdolne do rozwiązywania trudnych problemów rozumowania — Karl Cobbe, badacz w OpenAI

Jak sądzicie, czy OpenAI ostatecznie uda się wyeliminować “halucynacje” sztucznej inteligencji, czyli jeden z jej największych problemów? Dajcie znać w komentarzach! A jeśli AI kiedyś wymyśliło w odpowiedzi na Wasze pytanie jakąś kompletną głupotę, koniecznie się nią podzielcie.


Redaktor naczelna TechPolska od 2019 roku. W przerwach między nabijaniem kolejnych setek godzin w Genshin Impact recenzuje każdy kawałek elektroniki, który wpadnie jej w ręce.

Udostępnij

WARTO PRZECZYTAĆ:

musk Elon Musk chce kupić OpenAl. Atmosfera jest naprawdę napięta
Musk, który był jednym z pierwszych inwestorów i członków zarządu OpenAI, opuścił firmę w 2018 roku. Teraz, po latach, wyraża chęć powrotu do OpenAI, ale
Sztuczna inteligencja nie zadowoliła Polaków. ,,Nowa” aplikacja z nawigacją nie przypadła im do gustu
Zaledwie kilka dni temu pisaliśmy, że kierowcy już nie usłyszą legendarnego głosu w najpopularniejszej aplikacji z nawigacją. Spodziewaliśmy się, że Polacy wypowiedzą wojnę Mapom Google,
radio off kraków konczy eksperyment Al jednak nie jest takie wspaniałe? Radio OFF Kraków kończy swój eksperyment
Po dużych rozmiarów internetowej awanturze Radio OFF Kraków postanowiło zakończyć swój kontrowersyjny eksperyment. Początkowo miał trwać aż kwartał, ale sztuczna inteligencja zniknęła już po zaledwie

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *