Hogyan hazudik (vagy nem hazudik) a mesterséges intelligencia?
Avagy: miért mond néha sületlenségeket a ChatGPT, és miért nem hazugság ez?

Picture of Nagy Nikolett
Nagy Nikolett

Full-Stack Marketer
2025.07.03.

A mesterséges intelligencia (AI), különösen a nagy nyelvi modellek (LLM-ek), mint a ChatGPT vagy a Gemini, nap mint nap válaszolnak kérdésekre, írnak szövegeket, segítenek dolgozatban, prezentációban, programozásban. De talán Te is találkoztál már azzal a furcsa jelenséggel, amikor egy ilyen rendszer magabiztosan közöl valamit… ami teljesen hamis.

Ilyenkor szoktuk kérdezni:
„Ez most hazudott nekem?”
És a válasz meglepő lehet: nem. De nem is az igazat mondta.

Mi történik ilyenkor valójában?

Amikor egy nyelvi modell válaszol, nem „gondolkodik”, nem ellenőriz tényeket, és főleg: nincs szándéka. Nem akar hazudni, sem igazat mondani, egyszerűen valószínűséget számol.

A ChatGPT például a következőhöz hasonló módon működik:

„A jelen szöveg alapján, a következő szó legnagyobb eséllyel ez lesz: …”

Így épít fel mondatokat, bekezdéseket, cikkeket. A háttérben egy statisztikai minta alapján „tippel” arra, mi következhet logikusan egy adott szövegrészlet után. És ez a „tippelés” nagyon sokszor lenyűgözően pontos, de néha teljesen hibás.

Ezt hívjuk „hallucinációnak” az AI világában.

Mit jelent az, hogy „hallucinál” a mesterséges intelligencia?

Nem pszichedelikus látomásokról van szó, hanem arról, hogy a rendszer valódinak tűnő, de valójában hamis információt generál. Például:

  • Kitalált könyvcímeket ad.
  • Létező embereknek hamis idézeteket tulajdonít.
  • Nem létező tudományos cikkeket idéz forrásként.

És ezt gyakran rendkívül magabiztos hangnemben teszi, ami megtévesztő lehet.

Az emberi hazugság szándékos megtévesztés. A mesterséges intelligenciánál azonban nincs szándék. Nincs tudata, nincs célja, és nincs erkölcsi érzéke. Nem tudja, hogy amit mond, igaz vagy hamis és nem is érdekli.

Ha a modell „hazudik”, az nem hazugság, hanem inkább:

  • rosszul becsült statisztika,
  • pontatlan adatbázis,
  • vagy egyszerűen csak a nyelvi minták logikája szerint „valószínű” folytatás.

De miért hisszük mégis el, amit mond? Mert az AI emberi nyelven, emberi stílusban beszél. Használja azokat a szófordulatokat, hanglejtést utánzó ritmust, meggyőző szerkezeteket, amik megbízhatónak hangzanak. Ráadásul (statisztikai alapon) nagyon sokszor helyesen is mondja azt, amit mond.

 

Mit tehetünk mi, emberek?

  1. Kételkedjünk, amikor meglepően pontosnak tűnik valami.
    Ha egy AI „túl okosnak” hangzik, mindig nézzünk utána a tényeknek.
  2. Tanuljunk meg jól kérdezni.
    A pontos és kontextusos kérdések csökkentik a tévedés esélyét.
  3. Ne felejtsük el, hogy az AI nem forrás, csak eszköz.
    Nem tudja mit mond, csak valószínűsíti.

A mesterséges intelligencia nem hazug barát, nem is őszinte tanácsadó. Inkább olyan, mint egy hihetetlenül gyors szöveggenerátor, ami a világ összes írott nyelvi mintája alapján próbál „elég jót” mondani.

És bár nem hazudik, néha téved.
Nekünk, embereknek, pedig még mindig ott van a felelősség: tudni, mikor érdemes hinni neki. És mikor nem.