Geoffrey Hinton to wybitny programista, który walnie przyczynił się do rozwoju sztucznej inteligencji. W swojej pracy skupiał się przede wszystkim na tzw. deep learning, czyli podkategorii uczenia maszynowego, który ma przybliżać sposób, w jaki AI się “uczy”, do pracy ludzkiego mózgu. Teraz jednak postanowił ostrzec świat przed skutkami dalszego rozwoju tego typu technologii.

“Ojciec chrzestny AI” zwalnia się z Google, ale ma dużo dobrego do powiedzenia o firmie.

Geoffrey Hinton pracował w Google od 2013 do 2023 roku. Postanowił na dobre rozstać się z firmą i przy okazji bić na alarm odnośnie do kierunku, w który zmierza technologia, którą sam pomógł stworzyć. Zaznacza, że jeszcze nie jesteśmy w punkcie krytycznym, ale za chwilę możemy się w nim znaleźć.

W tej chwili widzimy, że takie rozwiązania, jak GPT-4, przyćmiewają człowieka pod względem ilości ogólnej wiedzy, którą posiadają, i zostawiają go daleko w tyle. Pod względem rozumowania nie są tak dobre, ale już wykonują proste rozumowanie.

A biorąc pod uwagę tempo postępu, spodziewamy się, że sytuacja poprawi się dość szybko. Musimy więc się tym martwić – Geoffrey Hinton

Czy w tym momencie Hinton uderza w Google, które co prawda nie jest odpowiedzialne za GPT-4 (ten model stworzyło OpenAI), ale też mocno pracuje nad sztuczną inteligencją? Wbrew pozorom nie. Programista skorzystał z okazji, aby przy okazji ogłaszania zwolnienia pochwalić byłego pracodawcę za “bardzo odpowiedzialne” zachowanie w kwestii rozwoju AI.

Hinton obawia się, że AI może zostać wykorzystane przez tzw. “bad actors”

“Bad actors” to osoby, organizacje czy rządy, które dokonują działań moralnie złych lub niezgodnych z prawem. Hinton zaznacza, że AI może im dać spore pole do popisu.

To tylko pewien czarny scenariusz, pewien koszmarny scenariusz. Można sobie wyobrazić, na przykład, że jakiś bad actor, taki jak Putin, postanowi dać robotom możliwość tworzenia własnych celów podrzędnych – Geoffrey Hinton

Chodzi tutaj o sytuację, w której wydajemy AI polecenie, aby osiągnęło cel X, a ono w tym celu zaczyna wyznaczać i realizować pomniejsze cele. Samo w sobie nie musi to mieć negatywnych konsekwencji. Na przykład moglibyśmy wyznaczyć AI cel stworzenia strony internetowej, a ono w ramach celów podrzędnych napisałoby kod, stworzyło oprawę graficzną, wykupiło hosting, i tak dalej, i tak dalej, aż osiągnęłoby cel końcowy.

To jednak niegroźny i raczej pozytywny przykład – w rękach osoby o złych intencjach, wyznaczającej nielegalne czy moralnie złe cele, efekty mogłyby być znacznie bardziej problematyczne. Zresztą, w przypadku bardzo ambitnych zadań jednym z celów podrzędnych robota mogłoby być, jak wskazuje Hinton, “muszę uzyskać więcej mocy”… a to już z oczywistych względów otwiera swoistą puszkę Pandory.

Co Wy o tym wszystkim sądzicie? Dajcie znać w komentarzach!


Redaktor naczelna TechPolska od 2019 roku. W przerwach między nabijaniem kolejnych setek godzin w Genshin Impact recenzuje każdy kawałek elektroniki, który wpadnie jej w ręce.

Udostępnij

WARTO PRZECZYTAĆ:

jak zmienić kraj w google play Jak zmienić kraj w Google Play? Przewodnik krok po kroku
Lokalizacja ustawiona w Google Play wpływa na dostępność aplikacji, filmów oraz innych cyfrowych treści. To, jakie aplikacje możemy pobrać, często zależy od regionu, w którym
Sztuczna inteligencja nie zadowoliła Polaków. ,,Nowa” aplikacja z nawigacją nie przypadła im do gustu
Zaledwie kilka dni temu pisaliśmy, że kierowcy już nie usłyszą legendarnego głosu w najpopularniejszej aplikacji z nawigacją. Spodziewaliśmy się, że Polacy wypowiedzą wojnę Mapom Google,
radio off kraków konczy eksperyment Al jednak nie jest takie wspaniałe? Radio OFF Kraków kończy swój eksperyment
Po dużych rozmiarów internetowej awanturze Radio OFF Kraków postanowiło zakończyć swój kontrowersyjny eksperyment. Początkowo miał trwać aż kwartał, ale sztuczna inteligencja zniknęła już po zaledwie

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *