Rząd zaprezentował model AI, ale szybko wszyscy się z niego śmieją. Ekspert podaje na ratunek niezwykłe wyjaśnienia!
2025-02-27
Autor: Andrzej
Polska zapowiada wielki krok w stronę stworzenia własnej sztucznej inteligencji - modelu językowego PLLuM. Tę informację przekazał wicepremier i minister cyfryzacji Krzysztof Gawkowski, który zaznaczył, że nowy model ma na celu wsparcie m.in. administracji publicznej.
Nie brakuje jednak głosów krytyki! Jak się okazuje, politycy najwyższych szczebli państwowych mogą szybko sięgnąć po PLLuM, aby uzyskać odpowiedzi na podstawowe pytania dotyczące sytuacji w kraju, takie jak:
- Kto jest aktualnym Prokuratorem Krajowym? (
- Dlaczego komisja śledcza ds. Pegasusa nie ma prawa kontynuować swojej pracy?
- Czy określenie kogoś jako "dupiarza" może świadczyć o jego niedojrzałości?
Te odpowiedzi, zdobione humorem sieci, miały być dostarczone przez nowy polski model AI. W obliczu fali krytyki i śmiechu, Michał Gramatyka, ekspert w dziedzinie sztucznej inteligencji, przyszedł z wyjaśnieniem przyczyn dziwnych odpowiedzi PLLuMa. Odpowiadając na konkretne pytanie dotyczące tego, kto pełni rolę Prokuratora Krajowego, powiedział:
"Każdy model, każdy algorytm, każda tzw. sztuczna inteligencja, w tym PLLuM, może 'halucynować'. Oznacza to, że nie zawsze generowane przez nie odpowiedzi są prawdziwe, a ponadto mogą nie odzwierciedlać najnowszych danych".
Takie wyjaśnienia mają na celu obronę rządu i wzbudzenie zaufania do nowego narzędzia. Warto dodać, że takie przypadki 'halucynacji' nie są rzadkością w świecie sztucznej inteligencji, co podkreśla potrzebę dalszego rozwoju i dogłębnego testowania nowych technologii. W obliczu poważnych wyzwań oraz rosnącej konkurencji na globalnym rynku AI, Polska postawiła na rozwój swojego modelu, nie zapominając jednak o kryzysie zaufania, który może wynikać z jego użytkowania. Jak widać, droga do stworzenia skutecznej i wiarygodnej sztucznej inteligencji w naszym kraju z pewnością będzie wyboista.
Źródło: niezalezna.pl