
Sztuczna inteligencja oskarżyła niewinnego człowieka o morderstwo! Ten prawdziwy horror wydarzył się w Norwegii!
2025-03-21
Autor: Andrzej
Kim jest Arve Hjalmar Holmen? To norweg, który zyskał niechlubną sławę po tragicznej śmierci swoich dwóch synów, znalezionych martwych w stawie niedaleko Trondheim w grudniu 2020 roku. Chłopcy mieli zaledwie siedem i dziesięć lat. Ta tragiczna sytuacja stała się jeszcze bardziej dramatyczna, gdy sztuczna inteligencja, ChatGPT, oskarżyła go o popełnienie tego morderstwa, wywołując ogromny szok w Norwegii.
Poniżająca informacja rozprzestrzeniła się w internecie, szczególnie w serwisie radia RMF FM, które powołało się na BBC, co jeszcze bardziej spotęgowało dramat Holmena. Mimo że ChatGPT poprawnie obliczył wiek dzieci w 2020 roku, cała sytuacja miała wynikać z błędów sztucznej inteligencji.
Norweg postanowił podjąć kroki prawne. Złożył oficjalną skargę do norweskiego organu ochrony danych osobowych, żądając grzywny dla OpenAI, twórcy ChatGPT. Organizacja Noyb, która zajmuje się prawami cyfrowymi, reprezentuje Holmena, podkreślając, że nigdy nie był on oskarżany ani skazany za jakiekolwiek przestępstwo i że ta nieprawdziwa informacja narusza europejskie przepisy ochrony danych osobowych.
Akcja ta ujawnia poważny problem związany z zjawiskiem, które nazywane jest „halucynacjami sztucznej inteligencji” – sytuacjami, gdy AI tworzy fikcyjne informacje, które są prezentowane jako prawdziwe. Eksperci wskazują, że to niepokojące, że ludzie mogą uwierzyć w takie wytwory AI, a przypadek Holmena jest tego najlepszym przykładem.
Czemu ChatGPT myli fakty? Chatboty, w tym ChatGPT, są wykorzystywane przez setki milionów ludzi, a ich zdobyta popularność zmienia sposób, w jaki poszukujemy informacji. Niestety, gdyż nie ma pewności, że te systemy zawsze będą dostarczać rzetelnych danych. ChatGPT nie korzysta z internetu do weryfikacji swoich odpowiedzi; zamiast tego buduje zdania na podstawie wcześniej przetrenowanego modelu, co może prowadzić do pojawiania się błędnych lub nieprawdziwych informacji.
Problem ten nie jest więc marginalny. Wielu ekspertów obawia się, że użytkownicy mogą zbyt mocno polegać na AI, zwłaszcza w dostępie do informacji krytycznych, takich jak porady medyczne czy prawne. Chociaż ChatGPT potrafi w przystępny sposób wyjaśniać skomplikowane zagadnienia, kluczowe jest, aby pamiętać, że nie zawsze mówi prawdę. Ostatni incydent z Arve Hjalmar Holmenem to ostrzeżenie o tym, jak niebezpieczne mogą być błędy AI w realnym życiu.