Definitie

Wat is hallucineren?

Een AI klinkt zelfverzekerd, ook als de inhoud niet klopt. Dat verschijnsel noemen we hallucineren.

"Informatie verstrekken die niet op betrouwbare data is gebaseerd en die daarom onnauwkeurig of volstrekt onjuist is."
Bron: Van Dale, Woord van het Jaar 2025

In gewone taal: een AI klinkt zelfverzekerd, maar verzint soms feiten, bronnen of citaten. Het model bedoelt dat niet kwaad. Het is gebouwd om vloeiende tekst te produceren, niet om waarheid te garanderen.

Voorbeeld. Vraag ChatGPT om "het beste boek over stoïcisme uit 2019" en je krijgt soms een titel die nooit bestaan heeft, met een verzonnen auteur en een geloofwaardige samenvatting erbij.

Het lastige is dat je het verschil vaak niet ziet. De toon is hetzelfde of het antwoord klopt of niet. Daarom is kritisch lezen van AI-output belangrijker dan ooit.