Technologia

Zaskakujące błędy AI: Jak ChatGPT, Gemini, Copilot i Perplexity psują informacje?

2025-10-24

Autor: Tomasz

Nowy raport ujawnia niepokojące wyniki

Najnowszy raport Europejskiej Unii Nadawczej rzuca światło na niepokojące wyniki jakości tekstów generowanych przez sztuczną inteligencję. Okazało się, że aż 45% materiałów stworzonych przez AI zawiera poważne błędy, co może wpłynąć na zaufanie do informacji w mediach.

Znaczne błędy w treściach AI

Badania przeprowadzone przez Europejską Unię Nadawczą ujawniają, że najczęstsze problemy dotyczą brakujących źródeł (31%), przestarzałych danych oraz zjawiska tzw. "halucynacji" AI (20%). Zdaniem ekspertów, błędy te są systemowe i występują w różnych językach, co podważa zaufanie odbiorców.

Aż 76% pomyłek w Gemini!

Analiza objęła popularne narzędzia, takie jak ChatGPT, Copilot, Gemini i Perplexity. Najgorzej wypadł Gemini, generując błędy w aż 76% przypadków! To niepokojący wynik dla użytkowników, którzy polegają na tych technologiach.

Co dalej z zaufaniem do mediów?

Jean Philip De Tender z Europejskiej Unii Nadawczej ostrzega, że niska jakość informacji z AI może prowadzić do utraty zaufania do mediów. "Kiedy odbiorcy zaczynają wątpić w rzetelność informacji, zaburza to publiczne zaufanie i zaangażowanie" - podkreślił.

Apel o zmiany i monitorowanie

Unia wzywa Parlament Europejski do zaostrzenia regulacji dotyczących jakości informacji oraz regularnego monitorowania narzędzi AI. Tylko w ten sposób można zapewnić wiarygodność przekazywanych treści.

AI w codziennej informacji

Interesujące dane wskazują, że 7% internautów regularnie korzysta z AI do przeglądania wiadomości, a wśród młodszych użytkowników odsetek ten sięga nawet 15%. To potwierdza, jak ważne jest dalsze badanie i regulacja technologii, aby zapewnić, że AI rzeczywiście dostarcza rzetelnych informacji.