David Mayer, Brian Hood, Guido Scorza. Te nazwiska blokują ChatGPT
2024-12-03
Autor: Jan
Czy to jakieś tajemnice, czy po prostu błąd? Ostatnio użytkownicy ChatGPT natrafili na zastanawiający problem dotyczący kilku nazwisk, w tym Davida Mayera. Kiedy internauci pytali o niego, czatbot wyświetlał niepokojący doradczy komunikat: "nie mogę podaç odpowiedzi". Pojawiły się spekulacje, że staje się to podobne do swoistego zakazu mówienia, niczym w uniwersum Harry'ego Pottera.
Zrozumienie tego fenomenu okazuje się trudne. Dlaczego ChatGPT odmawia rozmowy na temat tych osób? Można się zastanowić, czy to cenzura, błąd w algorytmie, czy może nawet spisek? Internet wprost eksplodował teoriami spiskowymi, a David Mayer jest nazwiskiem, które może budzić kontrowersje, zwłaszcza że jest to skrócona wersja nazwiska Davida M. de Rothschilda, członka jednej z najbardziej znanych rodzin w historii, często pojawiającej się w teorii spiskowej.
Jednak fascynujące jest to, że ChatGPT nie miał problemów z identyfikacją Rothschildów, co rodzi jeszcze więcej pytań. Internauci odkryli, że działacz ISIS używa podobnego imienia i nazwiska jako pseudonim, co może sugerować, że istnieje więcej powodów do działania algorytmu.
Po tygodniu problem jednak został rozwiązany, a ChatGPT zaczął rozmawiać o Davidzie Mayerze bez przeszkód. Ale to jeszcze nie koniec historii. Wraz z Mayerem, znaleziono jeszcze pięć nazwisk, które również wywołują ten sam błąd w systemie. Zastanawiające, dlaczego akurat te osoby znalazły się na liście. Są to: 1. Brian Hood - australijski polityk, który wszczął sprawę o zniesławienie przeciwko OpenAI, oskarżając o uwikłanie w skandal. 2. Guido Scorza - włoski prawnik specjalizujący się w ochronie prywatności, który ponoć wykorzystał regulacje RODO aby powołać się na prawo do bycia zapomnianym. 3. Jonathan Zittrain - amerykański profesor prawa, znany ze swoich badań dotyczących etyki w sztucznej inteligencji. 4. Jonathan Turley - prawnik zaangażowany w obronę wolności słowa. 5. David Faber - analityk finansowy, który zyskał miano "Mózgu" w CNBC za swoje trafne prognozy.
Warto jednak zauważyć, że narzędzia konkurencyjne, takie jak Gemini czy Perplexity, nie miały podobnych problemów i nie bały się podać informacji o tych osobach. Wygląda na to, że to zjawisko może być wynikiem błędu lub szczegółowych życzeń wspomnianych osób, co stawia pytanie o transparentność OpenAI.
Jak zauważył polski fizyk kwantowy Andrzej Dragan, OpenAI nie jest otwarte w swoich działaniach. Chociaż zjawisko to może wydawać się niewinne, staje się kolejnym dowodem na to, by nie ufać bezgranicznie chatbotom. Wyniki ostatnich badań nad reakcjami ChatGPT wskazują na potrzebę ostrożnego podchodzenia do dokładności i bezpieczeństwa informacji, które otrzymujemy z takich rozwiązań.
Z narzędziami sztucznej inteligencji należy obchodzić się ostrożnie. W innym przypadku możemy dojść do sytuacji, w której wykluczenia tematów staną się normą, co może prowadzić do niespodziewanych konsekwencji w społeczeństwie opartym na informacjach.