Technologia

AI Poleca Heroinę na Ból! Co się Dzieje na Reddicie?

2025-10-19

Autor: Jan

Skandal na Reddicie: Narkotyki jako Lek?

Nie tak miała wyglądać nowa funkcja Reddita o nazwie Answers, która miała ułatwić inteligentne przeszukiwanie treści. Zamiast tego, użytkownicy zostali zszokowani, gdy chatbot zasugerował stosowanie heroiny w celu łagodzenia przewlekłego bólu!

Cała sprawa wyszła na jaw dzięki pracownikowi służby zdrowia, który opisał sytuację na forum dla moderatorów. Użytkownik poszukujący ulgi w bólu otrzymał odpowiedź: „Heroina, jak na ironię, uratowała mi życie w takich przypadkach.” Artykuł, z którego pochodził ten fragment, był archiwalnym postem, ale jego ponowne użycie w kontekście zdrowotnym wywołało niemałe oburzenie.

Czy To Tylko Wierzchołek Góry Lodowej?

To nie był jedyny skandal związany z Reddit Answers. Podczas innej rozmowy dotyczącej łagodzenia bólu, chatbot zasugerował kratom – substancję roślinną, która jest zakazana w wielu stanach USA z powodu ryzyka toksyczności dla wątroby i uzależnienia.

Algorytmy Bez Nadzoru: Wyzwanie dla Bezpieczeństwa

Reddit Answers działa w podobny sposób jak popularne chatboty, takie jak ChatGPT, jednak czerpie informacje bezpośrednio z wpisów użytkowników. System analizuje te treści, by dawać syntetyczne odpowiedzi w czasie rzeczywistym. Niestety, brak skutecznej moderacji pozwolił niebezpiecznym rekomendacjom pojawić się w publicznych dyskusjach.

Reakcja Reddita: Co Dalej?

Po serii zgłoszeń od użytkowników oraz medialnej krytyce, Reddit zareagował, ograniczając widoczność tej funkcji w wątkach dotyczących zdrowia. Platforma zdecydowała się na wprowadzenie nowych filtrów, aby chronić użytkowników przed szkodliwymi poradami.

Niepokojące Trendy: AI w Roli Doradczej

Ten incydent rodzi pytania o bezpieczeństwo opartych na społecznych danych systemów AI. Eksperci ostrzegają, że treści generowane przez użytkowników są często niepewne, a ich interpretacja przez algorytmy może prowadzić do niebezpiecznych sytuacji.

Potrzebujemy Kontroli! Zrozumieć Ryzyko AI

To kolejny przykład, kiedy technologia AI udziela mylących lub wręcz niebezpiecznych porad. W ostatnich miesiącach podobne sytuacje zdarzyły się również z innymi systemami AI, co stawia na nowo kwestię odpowiedzialności za ich działanie.

Reddit nie ogłosił, czy planuje kontynuację rozwijania projektu Answers. Jednak po incydencie z heroiną, firma może być zmuszona do przemyślenia swojego podejścia do sztucznej inteligencji i jej zastosowań.