Zaskakujące błędy AI: Jak ChatGPT, Gemini, Copilot i Perplexity psują informacje?
2025-10-24
Autor: Tomasz
Nowy raport ujawnia niepokojące wyniki
Najnowszy raport Europejskiej Unii Nadawczej rzuca światło na niepokojące wyniki jakości tekstów generowanych przez sztuczną inteligencję. Okazało się, że aż 45% materiałów stworzonych przez AI zawiera poważne błędy, co może wpłynąć na zaufanie do informacji w mediach.
Znaczne błędy w treściach AI
Badania przeprowadzone przez Europejską Unię Nadawczą ujawniają, że najczęstsze problemy dotyczą brakujących źródeł (31%), przestarzałych danych oraz zjawiska tzw. "halucynacji" AI (20%). Zdaniem ekspertów, błędy te są systemowe i występują w różnych językach, co podważa zaufanie odbiorców.
Aż 76% pomyłek w Gemini!
Analiza objęła popularne narzędzia, takie jak ChatGPT, Copilot, Gemini i Perplexity. Najgorzej wypadł Gemini, generując błędy w aż 76% przypadków! To niepokojący wynik dla użytkowników, którzy polegają na tych technologiach.
Co dalej z zaufaniem do mediów?
Jean Philip De Tender z Europejskiej Unii Nadawczej ostrzega, że niska jakość informacji z AI może prowadzić do utraty zaufania do mediów. "Kiedy odbiorcy zaczynają wątpić w rzetelność informacji, zaburza to publiczne zaufanie i zaangażowanie" - podkreślił.
Apel o zmiany i monitorowanie
Unia wzywa Parlament Europejski do zaostrzenia regulacji dotyczących jakości informacji oraz regularnego monitorowania narzędzi AI. Tylko w ten sposób można zapewnić wiarygodność przekazywanych treści.
AI w codziennej informacji
Interesujące dane wskazują, że 7% internautów regularnie korzysta z AI do przeglądania wiadomości, a wśród młodszych użytkowników odsetek ten sięga nawet 15%. To potwierdza, jak ważne jest dalsze badanie i regulacja technologii, aby zapewnić, że AI rzeczywiście dostarcza rzetelnych informacji.