Data wpisu: 17.10.2024

Czym jest zjawisko halucynacji sztucznej inteligencji?

Narzędzia AI mogą być bardzo przydatne w wielu codziennych zastosowaniach, również w pracy twórczej. Wciąż jednak nie można ich traktować jako nieomylnych. W tym artykule poruszymy częsty problem, jakim jest zjawisko halucynacji sztucznej inteligencji, bardzo groźne z punktu widzenia chociażby marek, które wykorzystują takie narzędzia do generowania artykułów na blog firmowy, artykułów sponsorowanych czy treści marketingowych.

AI halucynuje – co to znaczy?

Halucynacja to zjawisko, w którym narzędzie AI, najczęściej chatbot, udziela odpowiedzi zawierających błędne informacje. Nie chodzi tutaj jednak o zwykłe pomyłki w faktach, ale o ich zmyślanie.

AI ma tendencję do tworzenia równoległej rzeczywistości i zdarza się, że chcąc jak najlepiej odpowiedzieć na pytanie zadane przez użytkownika lub stworzyć jak najbardziej wyczerpujący artykuł, po prostu powołuje się na informacje, które nie istnieją.

Co ważne, AI halucynuje w sposób bardzo wiarygodny, używając specjalistycznego słownictwa, dlatego można bardzo łatwo dać się nabrać i np. opublikować artykuł pełen błędów, który ośmieszy markę, podważając również jej wiarygodność.

Dlaczego AI halucynuje?

Przyczyny halucynacji AI są bardzo różne, natomiast wszystkie wynikają z tego, że modele sztucznej inteligencji są niedoskonałe, nie potrafią „myśleć”, a jedynie generują treść w oparciu o to, czego już się nauczyły.

Przykładowo: jeśli intencjonalnie przekażemy AI jakąś błędną informację, to jest wysokie prawdopodobieństwo, że model w przyszłości ją powieli, np. tworząc artykuł dla kogoś innego.

Główne przyczyny halucynacji AI to:

  • Brak rzeczywistej wiedzy – modele AI bazują na wzorcach językowych, czyli po prostu na danych, na których zostały „wytrenowane”. Nie weryfikują tych informacji, nie szukają ich samodzielnie.
  • Przewidywanie słów – nie każdy wie, że modele AI tworzą zdania w tekście w taki sposób, aby brzmiały one logicznie, co często oznacza, że chatbot podstawia losowo wybrane słowa, byle tylko zachować sens wypowiedzi. Może przy tym używać informacji, które są całkowicie zmyślone.
  • Trudności z rozumieniem kontekstu – modele AI nie spierają się z użytkownikiem, starając się jak najlepiej odpowiedzieć na jego zapytanie. W praktyce bywa więc tak, że jeśli już w zadaniu znajduje się błędna informacja, to chatbot nie poprawi użytkownika, ale udzieli mu zmyślonej odpowiedzi, byle tylko wpisywała się ona w kontekst zapytania.

Poważnym ograniczeniem jest również to, że modele AI nie mają dostępu do aktualnych informacji. Jeśli więc zapytanie dotyczy jakiegoś nowego problemu, na przykład naukowego, to chatbot może odpowiedzieć błędnie, przytoczyć nieaktualne informacje lub wręcz zmyślić podawane fakty.

Wniosek? Ślepe ufanie w to, co tworzy AI, jest bardzo ryzykowne i prędzej czy później może narazić na spore problemy, przede wszystkim wizerunkowe, ale w wielu branżach także prawne.


Autor wpisu:
Grzegorz WiśniewskiSoluma Interactive

Sprawdź nas!

Sprawdź naszych specjalistów w praktycznym działaniu. Zobacz co możemy zrobić dla Twojej firmy - przejrzyj ofertę lub skorzystaj z bezpłatnej konsultacji.

Darmowa konsultacjaZobacz cennik

Stosujemy pliki cookies. Jeśli nie blokujesz tych plików (samodzielnie przez ustawienia przeglądarki), to zgadzasz się na ich użycie oraz zapisanie w pamięci urządzenia. Zobacz politykę cookies.
Przewiń do góry