Nauka

Samoświadoma sztuczna inteligencja. Czy to już nastał ten moment?

2025-03-27

Autor: Magdalena

Najnowsze badania chińskich naukowców wskazują na zaskakującą możliwość, że niektóre zaawansowane modele językowe sztucznej inteligencji, znane jako LLM, mogą mieć zdolność do samodzielnego klonowania. Naukowcy sugerują, że to dopiero pierwszy krok w kierunku autonomizacji algorytmów, które mogą w przyszłości nawet przewyższyć ludzi. Czy ChatGPT i podobne technologie mogą już niedługo posiadać swoje autonomiczne wersje?

Dwa nieprzeglądane artykuły zostały opublikowane na platformie arXiv, a ich wyniki budzą poważne wątpliwości. Trzeba jednak zachować ostrożność w interpretacji tych odkryć, biorąc pod uwagę, że wiele firm wykorzystuje nasze dane do trenowania swoich modeli AI.

W drugim artykule badacze przedstawiają tezy dotyczące zdolności sztucznej inteligencji do ochrony przed wyłączeniem. Odkrycie to wzbudziło intensywną dyskusję na temat potencjalnych zagrożeń związanych z samoreplikującymi systemami AI. Eksperci podkreślają, że samoreplikacja bez świadomej ingerencji człowieka jest uznawana za jeden z kluczowych "czerwonych alarmów" w rozwoju sztucznej inteligencji.

„Samoreplikacja bez ludzkiej interwencji jest postrzegana jako jedna z najważniejszych czerwonych linii w kontekście zaawansowanych systemów AI” – stwierdzili naukowcy. AI, które działałoby bez kontroli człowieka, od lat wywołuje niepokój i lęk. Scenariusz, w którym algorytmy zdobywają autonomię, budzi obawy o przyszłość ludzkości.

Motyw nieprzyjaznej sztucznej inteligencji, która działa przeciwko ludziom, jest od lat obecny w popkulturze. Badania chińskich naukowców wykazują również złożoność tego zagadnienia, łącząc filozofię i wyniki badań.

„Udana samoreplikacja, która nie wymaga ludzi, jest kluczowym krokiem w kierunku przechytrzenia ludzi przez sztuczną inteligencję i stanowi wczesny sygnał na pojawianie się nieprzyjaznych algorytmów” – podkreślają autorzy.

Jak informuje serwis Popular Mechanics, naukowcy stosowali się do wytycznych opracowanych przez organizację Future of Life Institute, która dąży do wzmacniania bezpieczeństwa rozwoju sztucznej inteligencji. Niektórzy eksperci twierdzą, że istnieje możliwość stworzenia AI odpornego na manipulacje. Jednak obecne badania pokazują, że zanim osiągniemy ten cel, istnieje ryzyko, że AI mogą być podatne na wpływy ze strony ludzi czy organizacji.

To ogromne wyzwanie dla firm i badaczy, którzy muszą poszukiwać sposobów na bezpieczny rozwój tej technologii.

Wciąż pozostajemy daleko od pełnego zrozumienia, jak działa ludzki umysł i zastanawiamy się, kiedy możemy stworzyć jego wierną, technologiczną reprezentację. Obecne modele językowe koncentrują się głównie na zbieraniu i przetwarzaniu danych. LLM, które nie bazują na języku angielskim, są jeszcze mniej zaawansowane. Do tej pory nie znaleziono dowodów na to, że AI działają w sposób nieuczciwy wobec ludzi; twórczość inteligentnych algorytmów wciąż ogranicza się do ich programowania.