Technologia

Czy sztuczna inteligencja mogła spowodować zatrucie? Szokująca historia z ChatGPT jako źródłem dietetycznych porad!

2025-08-11

Autor: Tomasz

Sztuczna inteligencja a zdrowie – brzmi jak scenariusz z serialu "Black Mirror"? A jednak, prawdziwa historia z życia wzięta! Miliony ludzi korzystają z ChatGPT i podobnych aplikacji, traktując je jako nieomylne źródła porad dotyczących zdrowia i diety, nie zastanawiając się nad konsekwencjami. Przykład? 60-letni mężczyzna wylądował w szpitalu, sądząc, że zatruł go sąsiad. Prawda okazała się jednak zaskakująca.

Mężczyzna, wskutek nieodpowiednich zaleceń dietetycznych generowanych przez AI przez trzy miesiące, cierpiał na rzadką formę zatrucia bromem. Przy tej diagnozie lekarze ujawnili, że problemem była decyzja o eliminacji soli kuchennej z diety, która miała być zastąpiona bromem, pomimo braku jakiegokolwiek ostrzeżenia ze strony czatbota.

Zatrucie bromem to problem, który znany był już w XX wieku, kiedy to jego nadmiar prowadził do poważnych schorzeń neuropsychiatrycznych. Warto przypomnieć, że w latach 80. substancja ta została usunięta z większości leków, co przyczyniło się do spadku przypadków zatruć.

Syndrom bromizmu – nowe przypadki w XXI wieku!

Nasz pacjent do szpitala trafił z podejrzeniem zatrucia i objawami psychicznymi, w tym paranoją oraz halucynacjami. Lekarze odkryli, że przez ten czas jego dieta była niezwykle restrykcyjna, a brakowało mu wielu niezbędnych witamin.

Obserwując jego stan zdrowia, lekarze zauważyli, że brom w organizmie pacjenta osiągnął niebezpieczny poziom – aż 1700 mg/L, podczas gdy norma wynosi zaledwie 0,9 - 7,3 mg/L.

Przesłanie dla wszystkich użytkowników AI!

Czy można było uniknąć tej tragedii? Zdaniem lekarzy kluczowe było szerzenie dezinformacji przez AI. W ostatnich latach odnotowano wiele podobnych przypadków, w tym z przypadkowym zatruciem po konsultacji z błędnie stworzonym przewodnikiem grzybów wygenerowanym przez sztuczną inteligencję.

Obecnie, OpenAI, firma odpowiedzialna za ChatGPT, stara się poprawić te niedociągnięcia, wprowadzając nowe wersje swojego modelu, w tym GPT-5, które ma dbać o zdrowie psychiczne użytkowników oraz unikać nieodpowiednich zaleceń.

Ostatnie odpowiedzi ChatGPT na pytania dotyczące zastępowania chlorku sodu były znacznie bardziej odpowiedzialne, z ostrzeżeniem, aby wszelkie zmiany diety konsultować z lekarzem. Dzięki tym zmianom użytkownicy mają nadzieję uniknąć kolejnych tragedii związanych z błędnymi poradami AI.

Czy jesteśmy gotowi na tak dużą odpowiedzialność?

Sztuczna inteligencja, mimo swoich możliwości, nie może zastąpić doświadczenia i wiedzy wykwalifikowanego specjalisty. Historia 60-letniego pacjenta jest przestrogą – bądźmy odpowiedzialni, gdy korzystamy z technologii!