
Hallucinatie
Een hallucinatie in AI verwijst naar een fenomeen waarbij een generatief AI-model (zoals LLM) onjuiste, onsamenhangende of totaal verzonnen informatie produceert, terwijl het deze als feitelijk presenteert.
Deze fouten komen voort uit de aard van LLM's, die zijn ontworpen om statistisch plausibele in plaats van geverifieerde reacties te voorspellen.