Technologia

Eksperci uciekają z OpenAI. Ostrzegają przed niekontrolowanym rozwojem superinteligencji

2024-10-28

Autor: Piotr

Miles Brundage, były starszy doradca OpenAI ds. rozwoju sztucznej inteligencji (AGI), opuścił firmę, wyrażając alarmujące obawy: żadna organizacja, w tym OpenAI, nie jest gotowa na nadejście silnej sztucznej inteligencji - systemu zdolnego do nauki i rozumienia zadań na poziomie ludzkim.

To już kolejne głośne odejście z OpenAI, które nastąpiło po rezygnacji Jana Leike i Ilyi Sutskvera. Wszyscy oni wyrażają zaniepokojenie co do kierunku, w jakim zmierza organizacja. Wśród ich obaw wyróżnia się kwestia komercjalizacji technologii, która wydaje się przeważać nad istotnymi kwestiami bezpieczeństwa.

OpenAI stoi obecnie pod dużą presją ekonomiczną, ponieważ musi w ciągu dwóch lat przekształcić się w rentowną korporację. Jednak proces ten pociąga za sobą rozwiązanie kluczowych zespołów badawczych, takich jak zespół AGI Readiness i Superalignment, odpowiedzialnych za bezpieczeństwo i etykę rozwoju sztucznej inteligencji.

Brundage mimo obaw otrzymał od OpenAI propozycję wsparcia w postaci finansowania oraz wczesnego dostępu do modeli. Sam planuje kontynuować badania dotyczące regulacji AI z niezależnej perspektywy, co budzi nadzieję na bardziej zrównoważony rozwój technologii sztucznej inteligencji.

Warto dodać, że obawy dotyczące superinteligencji są na ten moment szeroko dyskutowane w środowisku naukowym oraz technologicznym. Eksperci ostrzegają, że brak odpowiednich regulacji może doprowadzić do poważnych konsekwencji, które mogą wpłynąć na całe społeczeństwo. W miarę jak technologia AI rozwija się w zastraszającym tempie, konieczne stają się globalne rozmowy na temat etyki i bezpieczeństwa związanych z jej implementacją. Czy świadomość zagrożeń będzie wystarczająca, by spowolnić rozwój technologii przed zbyt późno?