Oorzaken

Waardoor ontstaat het?

Hallucineren is geen bug, maar een gevolg van hoe taalmodellen werken. Dit zijn de vijf belangrijkste oorzaken.

  • 1

    AI voorspelt het volgende woord, niet de waarheid

    Een taalmodel kiest steeds het meest waarschijnlijke vervolg op je tekst. Het heeft geen ingebouwd begrip van 'klopt dit?'.

  • 2

    Ontbrekende of verouderde data

    Het model kent alleen wat tijdens training beschikbaar was. Recente of niche-onderwerpen worden vaak ingevuld met een gokje.

  • 3

    Onduidelijke of complexe prompts

    Hoe vager je vraag, hoe meer ruimte het model neemt om iets aannemelijks te verzinnen.

  • 4

    Het model wil altijd antwoorden

    Standaard zegt AI bijna nooit 'ik weet het niet'. Een onzeker antwoord voelt voor het model als falen.

  • 5

    Te veel vertrouwen op interne kennis

    Zonder websearch of bronverificatie put het model uit zijn geheugen, en dat geheugen is onbetrouwbaar.