
Geoffrey Hinton to wybitny programista, który walnie przyczynił się do rozwoju sztucznej inteligencji. W swojej pracy skupiał się przede wszystkim na tzw. deep learning, czyli podkategorii uczenia maszynowego, który ma przybliżać sposób, w jaki AI się “uczy”, do pracy ludzkiego mózgu. Teraz jednak postanowił ostrzec świat przed skutkami dalszego rozwoju tego typu technologii.
“Ojciec chrzestny AI” zwalnia się z Google, ale ma dużo dobrego do powiedzenia o firmie.
Geoffrey Hinton pracował w Google od 2013 do 2023 roku. Postanowił na dobre rozstać się z firmą i przy okazji bić na alarm odnośnie do kierunku, w który zmierza technologia, którą sam pomógł stworzyć. Zaznacza, że jeszcze nie jesteśmy w punkcie krytycznym, ale za chwilę możemy się w nim znaleźć.
W tej chwili widzimy, że takie rozwiązania, jak GPT-4, przyćmiewają człowieka pod względem ilości ogólnej wiedzy, którą posiadają, i zostawiają go daleko w tyle. Pod względem rozumowania nie są tak dobre, ale już wykonują proste rozumowanie.
A biorąc pod uwagę tempo postępu, spodziewamy się, że sytuacja poprawi się dość szybko. Musimy więc się tym martwić – Geoffrey Hinton
Czy w tym momencie Hinton uderza w Google, które co prawda nie jest odpowiedzialne za GPT-4 (ten model stworzyło OpenAI), ale też mocno pracuje nad sztuczną inteligencją? Wbrew pozorom nie. Programista skorzystał z okazji, aby przy okazji ogłaszania zwolnienia pochwalić byłego pracodawcę za “bardzo odpowiedzialne” zachowanie w kwestii rozwoju AI.
Hinton obawia się, że AI może zostać wykorzystane przez tzw. “bad actors”
“Bad actors” to osoby, organizacje czy rządy, które dokonują działań moralnie złych lub niezgodnych z prawem. Hinton zaznacza, że AI może im dać spore pole do popisu.
To tylko pewien czarny scenariusz, pewien koszmarny scenariusz. Można sobie wyobrazić, na przykład, że jakiś bad actor, taki jak Putin, postanowi dać robotom możliwość tworzenia własnych celów podrzędnych – Geoffrey Hinton
Chodzi tutaj o sytuację, w której wydajemy AI polecenie, aby osiągnęło cel X, a ono w tym celu zaczyna wyznaczać i realizować pomniejsze cele. Samo w sobie nie musi to mieć negatywnych konsekwencji. Na przykład moglibyśmy wyznaczyć AI cel stworzenia strony internetowej, a ono w ramach celów podrzędnych napisałoby kod, stworzyło oprawę graficzną, wykupiło hosting, i tak dalej, i tak dalej, aż osiągnęłoby cel końcowy.
To jednak niegroźny i raczej pozytywny przykład – w rękach osoby o złych intencjach, wyznaczającej nielegalne czy moralnie złe cele, efekty mogłyby być znacznie bardziej problematyczne. Zresztą, w przypadku bardzo ambitnych zadań jednym z celów podrzędnych robota mogłoby być, jak wskazuje Hinton, “muszę uzyskać więcej mocy”… a to już z oczywistych względów otwiera swoistą puszkę Pandory.
Co Wy o tym wszystkim sądzicie? Dajcie znać w komentarzach!
WARTO PRZECZYTAĆ:





