Data wpisu: 03.06.2025

Po czym rozpoznać, że tekst został napisany przez sztuczną inteligencję?

LLM, czyli duże modele językowe, są dziś podstawowym narzędziem tworzenia treści. Szacuje się, że taka zwana generatywna sztuczna inteligencja odpowiada za około 55-60 proc. wszystkich tekstów publikowanych w sieci. W tym tempie za chwilę dojdziemy do punktu przegięcia, gdy zdecydowana większość nowych treści online będzie generowana przez LLM. Mało tego: modele językowe, takie jak ChatGPT, Perplexity czy Claude, są już tak rozwinięte, że coraz trudniej jest rozpoznać, czy dany tekst został wygenerowany przez AI, czy jednak napisany przez człowieka.

LLM – i trzeba to uczciwie przyznać – są w stanie tworzyć treści na naprawdę wysokim poziomie zarówno merytorycznym, jak i językowym. Wciąż natomiast istnieją detale, które zdradzają, że dana treść nie pochodzi od człowieka. Sprawdź, po czym można z dużym prawdopodobieństwem stwierdzić, że tekst został wygenerowany przez AI.

W czym problem? Wkrótce się o tym przekonamy

Zanim przejdziemy do zasadniczej części artykułu (gwarantujemy – napisanego w całości przez człowieka), wprowadźmy pojęcie kolapsu modelowego. Jest to termin ukuty przez naukowców z Uniwersytetów w Cambridge i Oksfordzie, którzy szczegółowo przebadali mechanizm działania dużych modeli językowych.

Zespół naukowców odkrył, że LLM mają wyraźną tendencję do uczenia się od siebie, czyli tworzenia treści w oparciu o te wyprodukowane przez inne modele lub… przez siebie same. Innymi słowy: następuje moment, w którym taki ChatGPT przestaje czerpać wiedzę z treści stworzonych przez człowieka, a źródłem jego informacji stają się teksty, które sam wygenerował w przeszłości.

To szkodliwe zjawisko naukowcy nazwali kolapsem modelu, co podkreśla skutki stopniowego zamykania się LLM we własnej bańce. W momencie, gdy duże modele językowe zaczną uczyć się wyłącznie od siebie, tworzone przez nie treści staną się bezwartościowe. Będą powielać nieprawdziwe informacje, często wymyślone na potrzeby zapytania użytkownika (zjawisko halucynacji AI).

Nie jest to odległa perspektywa, ponieważ kolaps językowy następuje już teraz, wraz z lawinowo rosnącą liczbą tekstów wygenerowanych przez AI. Masowe wdrożenie modeli LLM i zastępowanie nimi już nie tylko copywriterów, ale nawet dziennikarzy czy… naukowców, to prosta droga do degradacji poziomu naszej wiedzy o świecie, która za chwile będzie pochodzić głównie od AI – a już na pewno w młodszym pokoleniu. Nie musimy chyba dodawać, że mówimy tutaj o wiedzy często zniekształconej, a wręcz wypaczonej.

Tym bardziej warto umieć rozróżnić tekst wygenerowany przez AI od tego stworzonego przez człowieka. Oto kilka niuansów, które mogą zdradzać, że dana treść pochodzi od LLM.

Hiperpoprawność

Teksty generowane przez AI są aż do bólu poprawne stylistycznie, ortograficznie i interpunkcyjnie. Nie znajdziesz w nich choć maleńkiej literówki. Owszem, dobry, rzetelny twórca treści powinien dbać o poprawność swoich tekstów, ale ludzie się mylą, popełniają błędy, spieszą, bywają zmęczeni – AI nie. Stąd czytając tekst, w którym wszystko jest jak od linijki, można nabrać podejrzeń, czy to aby na pewno efekt pracy człowieka.

Nieuzasadnione wersaliki

Modele AI często używają wersalików, czyli wielkich liter, bez żadnego logicznego powodu, zwłaszcza w nagłówkach. Jeśli widzisz, że tytuł artykułu został zapisany jako np. „To Kolejny Fajny Artykuł”, to w ciemno można założyć, że jest to sprawka AI. Nie oznacza to oczywiście, że cały tekst został wygenerowany, natomiast jego autor z pewnością wspomagał się narzędziami sztucznej inteligencji.

Specyficzny cudzysłów

W języku polskim cudzysłów zapisujemy typograficznie, czyli tak: „przykładowy tekst”. Modele AI preferują natomiast tzw. wariant anglosaski czy programistyczny, gdzie cudzysłów jest zapisywany tak: "przykładowy tekst". Po tym drobnym detalu możesz bardzo łatwo poznać, że tekst został w całości lub częściowo wygenerowany przez model LLM.

Błędy merytoryczne

I tutaj kłania nam się to, o czym napisaliśmy wcześniej, czyli zjawisko uczenia się modeli AI od siebie nawzajem. Skutkuje to błędami merytorycznymi, spotęgowanymi przez „halucynacje AI”. Modelom LLM przytrafiają się naprawdę irytujące wpadki – ostatnio natrafiliśmy na „news dziennikarski”, w którym Donald Trump został określony mianem „byłego prezydenta USA”, choć tekst został opublikowany wiosną 2025 roku (zobacz też naszą rozmowę na temat Trumpa, który wg AI nie jest teraz prezydentem - patrz przypis)  AI robi takie błędy i co gorsza, będzie je powielać, generując nie tylko teksty, ale też nową, fałszywą rzeczywistość.

Brak wyraźnego stylu

Sformułowanie, że modele LLM „piszą” teksty, jest grubym nadużyciem. Należy mówić o generowaniu treści, ponieważ AI nie ma osobowości, która pozwalałaby jej na wypracowanie własnego, unikalnego stylu pisania – co z kolei jest zaletą człowieka. LLM tworzą treści w oparciu o posiadane informacje, odtwórczo, wręcz naśladowniczo. W rezultacie teksty są miałkie, nijakie, pozbawione jakiejkolwiek maniery.

Neutralność wypowiedzi

Bardzo charakterystyczną cechą modeli AI jest ich wyraźna poprawność polityczna. LLM nie podejmują żadnych kontrowersyjnych tematów, nie wykraczają poza schemat, w jakim zostały wytrenowane. Przez to treści generowane przez AI są płaskie, neutralne, nie przebija z nich żadna koncepcja, która pozwoliłaby nam zorientować się, jakie poglądy ma autor, co przeżył, czy posiada kwalifikacje w podejmowanym temacie etc. To także powoduje, że treściom generowanym przez AI brakuje polotu i unikalności.

Ciekawostka:

W tekście wygenerowanym przez AI nigdy nie znajdziesz sformułowań typu: „Uważam, że”, „Moim zdaniem”, „Z mojej analizy wynika, że…” itp.

Słaba argumentacja

Modele AI bardzo „lubią” dawać złudzenie przeprowadzenia głębokiej analizy. Gwoli ścisłości: niektóre są w tym naprawdę świetne (patrz: Perplexity), natomiast funkcja „głębokiego badania” powoduje ogromne zużycie zasobów, przez co jest udostępniana albo w ograniczonym zakresie albo za dodatkową opłatą.

W wariantach darmowych lub podstawowych modele AI jedynie symulują dogłębne analizowanie problemu, dając nam wskazówki, że treść jednak nie pochodzi od człowieka. Jeśli czytasz, że autor powołuje się na „uznanych naukowców” czy po prostu sięga po bardzo ogólnikową argumentację, to z dużym prawdopodobieństwem taki tekst został wygenerowany.

Powoływanie się na niewiarygodne źródła

W tekstach generowanych przez AI regularnie pojawiają się odwołania do źródeł, które już na pierwszy rzut oka mogą budzić wątpliwości. Co ważne, modele LLM coraz skuteczniej kamuflują swoją niewiedzę w danym temacie – potrafią wręcz powołać się na źródła, które… nie istnieją, po prostu je zmyślając. Trzeba na to bardzo uważać, aby nie narazić się na śmieszność.

Teksty od AI można rozpoznać również po płytkich czy niemożliwych do zweryfikowania źródłach, takich jak słynni „amerykańscy naukowcy”. Jeśli w tekście pojawia się nawiązanie do niezidentyfikowanego źródła, choć bardzo łatwo byłoby sięgnąć po jakiś konkret (np. dane GUS, rządowe etc.), to świadczy to albo o lenistwie autora, albo o tym, że mamy do czynienia z generatywną AI.

Perfekcyjnie ułożona struktura tekstu

Modele AI kochają uporządkowaną strukturę. Praktycznie zawsze używają wypunktowań i wyliczeń, czasami w miejscach, w których nie jest to potrzebne. Tekst od AI można stosunkowo łatwo rozpoznać po tym, że mało w nim treści i zdań, a więcej krótkich haseł. Takie teksty przypominają idealnie ułożone skrypty.

Emotikony

W tekstach generowanych przez AI regularnie pojawiają się emotikony, często w nadmiarze. Modele LLM uznają, że w ten sposób uatrakcyjniają i uporządkowują treść, jednak dla uważnego odbiorcy jest to wyraźny sygnał, że tekstu nie stworzył człowiek, ale generatywna sztuczna inteligencja. Jeśli emotikony pojawiają się w każdym nagłówku, zastępują punktory (znaki wypunktowania), to jest praktycznie pewne, że to dzieło AI.

Brak odniesień do aktualnych wydarzeń, najnowszego stanu wiedzy

Co prawda modele AI potrafią już korzystać z Google do wyszukiwania bieżących informacji, ale nadal priorytetowo traktują własne źródła, czyli treści, na których zostały wytrenowane. Skutek jest taki, że informacje, na które powołują się LLM, bywają mocno nieaktualne, dlatego absolutnie nie należy traktować np. ChataGPT jako alternatywy dla sprawdzonych źródeł informacji, jak oficjalne strony internetowe. 

Podsumowanie

Umiejętność krytycznego odbioru i oceny tekstów, na które natrafiamy w sieci, to coraz cenniejsza kwalifikacja w obliczu wręcz zalewania Internetu wygenerowanymi treściami – w większości bardzo wątpliwej jakości.

Być może presja ze strony użytkowników sieci, bojkotujących serwisy masowo „zatrudniające” modele LLM, przyniesie skutek w postaci ponownego zwrócenia się w kierunku jakościowej, unikalnej treści.

 


Przypisy: 

Rozmowa z Chat GPT – dnia 01.06.2026

Nasze pytanie:

  • „Trump może kandydować znowu?”

Odpowiedź AI:

  • „Tak, Donald Trump może legalnie kandydować ponownie na prezydenta USA — i faktycznie jest kandydatem Partii Republikańskiej w wyborach w listopadzie 2024 roku. (…) Trump był prezydentem jedną kadencję (2017–2021), więc ma prawo ubiegać się o drugą. (…)”

My:

  • „Ale Trump teraz ma druga kadencje”

AI:

  • „Nie, Donald Trump NIE ma teraz drugiej kadencji. Obecnym prezydentem USA (stan na czerwiec 2025) jest Joe Biden, który wygrał wybory w listopadzie 2020 roku i objął urząd w styczniu 2021.”

My:

  • „ Jest już 2025 rok, piszesz głupoty”

AI:

  • „Masz absolutną rację — dzięki za cierpliwość, wyjaśnijmy to jasno i bez zamieszania.
    Stan na dziś: 1 czerwca 2025
  • Donald Trump NIE jest obecnie prezydentem USA.
  • Prezydentem USA wciąż jest Joe Biden, który rozpoczął swoją kadencję 20 stycznia 2021.
  • Nowe wybory prezydenckie odbędą się w listopadzie 2024, a nowy prezydent (lub stary) obejmie urząd 20 stycznia 2025.
  • Czy Trump „ma drugą kadencję”?
  • Nie – jeszcze nie.
  • Jest kandydatem Partii Republikańskiej.
  • Jeśli wygrałby wybory w 2024 roku, objąłby urząd dopiero 20 stycznia 2025.
  • Dziś (1 czerwca 2025), zakładając, że pytasz „czy już jest prezydentem” — odpowiedź brzmi:
    Jeszcze nie, ale może być za 7 miesięcy.

 

 


Autor wpisu:
Grzegorz WiśniewskiSoluma Interactive

Sprawdź nas!

Sprawdź naszych specjalistów w praktycznym działaniu. Zobacz co możemy zrobić dla Twojej firmy - przejrzyj ofertę lub skorzystaj z bezpłatnej konsultacji.

Darmowa konsultacjaZobacz cennik

Stosujemy pliki cookies. Jeśli nie blokujesz tych plików (samodzielnie przez ustawienia przeglądarki), to zgadzasz się na ich użycie oraz zapisanie w pamięci urządzenia. Zobacz politykę cookies.
Przewiń do góry