Technologia

Czy ChatGPT staje się coraz mniej bezpieczny? Alarmujący głos byłego pracownika

2025-03-08

Autor: Tomasz

Amerykańska firma OpenAI, znana z rewolucyjnych osiągnięć w dziedzinie sztucznej inteligencji, boryka się z rosnącą krytyką dotyczącą bezpieczeństwa swoich modeli. W obliczu intensywnej konkurencji ze strony chińskiego DeepSeek, OpenAI stara się rozwinąć swoje zaawansowane modele językowe (LLM), jednocześnie stawiając czoła zastrzeżeniom związanym z podejściem do bezpieczeństwa swoich technologii.

Niedawno OpenAI opublikowało dokument, w którym omawia strategię ostrożnego wdrażania nowych rozwiązań. Wspomniano o wcześniejszym wprowadzeniu modelu GPT-2, próbując podkreślić, że firma bardziej rozważnie podchodziła do udostępniania innowacji. Problem w tym, że publiczne komentarze, szczególnie od byłych pracowników, zaczynają kwestionować tę narrację.

Miles Brundage, byłe kierownik ds. polityki badawczej w OpenAI, wyraził swoje zaniepokojenie, mówiąc o "przepisywaniu historii" przez firmę. Brundage podkreśla, że OpenAI, zamiast przyznać, że w przeszłości zagrożenia były realne i poważnie traktowane, wydaje się sugerować, że ich wcześniejsze podejście było zbyt zachowawcze. To może umniejszać rzeczywiste wysiłki, które podejmowano dla zapewnienia bezpieczeństwa podczas rozwoju AI.

Nieprzerwana krytyka wobec OpenAI nie jest nowym zjawiskiem. W przeszłości eksperci niejednokrotnie zaznaczali, że firma zbyt często stawia na szybki rozwój i innowacje, zaniedbując długoterminowe kwestie związane z bezpieczeństwem. W branży AI narasta potrzeba stworzenia jednolitych standardów, które umożliwią rozwój przełomowych rozwiązań z jednoczesnym zapewnieniem transparentności i kontroli nad potencjalnie niebezpiecznymi zastosowaniami nowoczesnych technologii.

Z niecierpliwością czekamy na dalszy rozwój wydarzeń. Czy OpenAI podejmie kroki, aby udowodnić, że bezpieczeństwo użytkowników i odpowiedzialność za rozwój sztucznej inteligencji są dla niej priorytetem?