Oorzaken
Waardoor ontstaat het?
Hallucineren is geen bug, maar een gevolg van hoe taalmodellen werken. Dit zijn de vijf belangrijkste oorzaken.
- 1
AI voorspelt het volgende woord, niet de waarheid
Een taalmodel kiest steeds het meest waarschijnlijke vervolg op je tekst. Het heeft geen ingebouwd begrip van 'klopt dit?'.
- 2
Ontbrekende of verouderde data
Het model kent alleen wat tijdens training beschikbaar was. Recente of niche-onderwerpen worden vaak ingevuld met een gokje.
- 3
Onduidelijke of complexe prompts
Hoe vager je vraag, hoe meer ruimte het model neemt om iets aannemelijks te verzinnen.
- 4
Het model wil altijd antwoorden
Standaard zegt AI bijna nooit 'ik weet het niet'. Een onzeker antwoord voelt voor het model als falen.
- 5
Te veel vertrouwen op interne kennis
Zonder websearch of bronverificatie put het model uit zijn geheugen, en dat geheugen is onbetrouwbaar.