OpenAI chce odkrywać zagrożenia związane ze sztuczną inteligencją, również te mniej oczywiste, i skutecznie im zapobiegać. W tym celu powołano właśnie nowy zespół (nazwany zespołem gotowości), a do tego uruchomiono specjalne wyzwanie.
Zespół gotowości ma chronić przed „katastrofalnym” ryzykiem
Zespół zajmie się takimi potencjalnymi zagrożeniami, jak zindywidualizowana perswazja, bezpieczeństwo cybernetyczne, zagrożenia chemiczne, biologiczne, radiologiczne i nuklearne (CBRN), a nawet autonomiczna replikacja i adaptacja (ARA).
Szefem nowej jednostki został pochodzący z Polski profesor Aleksander Mądry. Jednocześnie wciąż są w niej wolne miejsca, a OpenAI zachęca do wzięcia udziału w rekrutacji specjalistów z różnych „technicznych” dziedzin.
Wierzymy, że pionierskie modele sztucznej inteligencji, które przewyższą możliwości obecne w najbardziej zaawansowanych istniejących modelach, mają potencjał, aby przynieść korzyści całej ludzkości. Stanowią jednak także coraz poważniejsze ryzyko […] Zespół pomoże śledzić, oceniać, prognozować i chronić przed katastrofalnymi ryzykami obejmującymi wiele kategorii.
Przygotowano też wyzwanie dla pasjonatów cyberbezpieczeństwa
Przy okazji ogłoszenia nowego zespołu, OpenAI zdecydowało się też rzucić swojej społeczności wyzwanie. Zadaniem jest wymyślenie unikalnych, ale realnych sposobów, na które osoby o złych intencjach mogłyby wykorzystać modele sztucznej inteligencji firmy. Chodzi tutaj zarówno o narzędzia do generowania tekstu i obrazu, jak i transkrypcji oraz zamiany tekstu na dźwięk.
Uczestnicy muszą także opisać, w jaki sposób chcieliby mierzyć prawdopodobieństwo wystąpienia takich nadużyć, i jak najlepiej ich zdaniem można byłoby im zapobiegać. Nagroda? Kredyty pozwalające korzystać z modeli OpenAI o wartości 25 000 dolarów dla 10 najlepszych, a potencjalnie nawet… zaproszenie do dołączenia do nowego zespołu firmy!
Zgłoszenia będą akceptowane do 31 grudnia 2023 roku. Planujecie wziąć udział wyzwaniu? Dajcie znać w komentarzach!
WARTO PRZECZYTAĆ: