Alucinación

Alucinación

Una alucinación en IA se refiere a un fenómeno en el que un modelo generativo de IA (como LLM) produce información incorrecta, incoherente o totalmente inventada, mientras la presenta como factual.

Estos errores se derivan de la propia naturaleza de los LLM, que están diseñados para predecir respuestas estadísticamente plausibles en lugar de verificadas.