Hogyan hazudik (vagy nem hazudik) a mesterséges intelligencia?
Avagy: miért mond néha sületlenségeket a ChatGPT, és miért nem hazugság ez?

Nagy Nikolett
Full-Stack Marketer
2025.07.03.
A mesterséges intelligencia (AI), különösen a nagy nyelvi modellek (LLM-ek), mint a ChatGPT vagy a Gemini, nap mint nap válaszolnak kérdésekre, írnak szövegeket, segítenek dolgozatban, prezentációban, programozásban. De talán Te is találkoztál már azzal a furcsa jelenséggel, amikor egy ilyen rendszer magabiztosan közöl valamit… ami teljesen hamis.
Ilyenkor szoktuk kérdezni:
„Ez most hazudott nekem?”
És a válasz meglepő lehet: nem. De nem is az igazat mondta.
Mi történik ilyenkor valójában?
Amikor egy nyelvi modell válaszol, nem „gondolkodik”, nem ellenőriz tényeket, és főleg: nincs szándéka. Nem akar hazudni, sem igazat mondani, egyszerűen valószínűséget számol.
A ChatGPT például a következőhöz hasonló módon működik:
„A jelen szöveg alapján, a következő szó legnagyobb eséllyel ez lesz: …”
Így épít fel mondatokat, bekezdéseket, cikkeket. A háttérben egy statisztikai minta alapján „tippel” arra, mi következhet logikusan egy adott szövegrészlet után. És ez a „tippelés” nagyon sokszor lenyűgözően pontos, de néha teljesen hibás.
Ezt hívjuk „hallucinációnak” az AI világában.
Mit jelent az, hogy „hallucinál” a mesterséges intelligencia?
Nem pszichedelikus látomásokról van szó, hanem arról, hogy a rendszer valódinak tűnő, de valójában hamis információt generál. Például:
- Kitalált könyvcímeket ad.
- Létező embereknek hamis idézeteket tulajdonít.
- Nem létező tudományos cikkeket idéz forrásként.
És ezt gyakran rendkívül magabiztos hangnemben teszi, ami megtévesztő lehet.
Az emberi hazugság szándékos megtévesztés. A mesterséges intelligenciánál azonban nincs szándék. Nincs tudata, nincs célja, és nincs erkölcsi érzéke. Nem tudja, hogy amit mond, igaz vagy hamis és nem is érdekli.
Ha a modell „hazudik”, az nem hazugság, hanem inkább:
- rosszul becsült statisztika,
- pontatlan adatbázis,
- vagy egyszerűen csak a nyelvi minták logikája szerint „valószínű” folytatás.
De miért hisszük mégis el, amit mond? Mert az AI emberi nyelven, emberi stílusban beszél. Használja azokat a szófordulatokat, hanglejtést utánzó ritmust, meggyőző szerkezeteket, amik megbízhatónak hangzanak. Ráadásul (statisztikai alapon) nagyon sokszor helyesen is mondja azt, amit mond.
Mit tehetünk mi, emberek?
- Kételkedjünk, amikor meglepően pontosnak tűnik valami.
Ha egy AI „túl okosnak” hangzik, mindig nézzünk utána a tényeknek. - Tanuljunk meg jól kérdezni.
A pontos és kontextusos kérdések csökkentik a tévedés esélyét. - Ne felejtsük el, hogy az AI nem forrás, csak eszköz.
Nem tudja mit mond, csak valószínűsíti.
A mesterséges intelligencia nem hazug barát, nem is őszinte tanácsadó. Inkább olyan, mint egy hihetetlenül gyors szöveggenerátor, ami a világ összes írott nyelvi mintája alapján próbál „elég jót” mondani.
És bár nem hazudik, néha téved.
Nekünk, embereknek, pedig még mindig ott van a felelősség: tudni, mikor érdemes hinni neki. És mikor nem.