
Hallucination
Une hallucination en IA désigne un phénomène où un modèle d’IA générative (comme les LLM) produit une information incorrecte, incohérente ou totalement inventée, tout en la présentant comme factuelle.
Ces erreurs découlent de la nature même des LLM, conçus pour prédire des réponses statistiquement plausibles plutôt que vérifiées.