Son esos pequeños o no tan pequeños inventos que realiza el modelo que estemos aplicando por principalmente dos razones.
Al igual que los humanos cuando no tenemos la suficiente información tendemos a completarla con pequeños "inventos". Se puede dar por malinterpretar la pregunta o por no contar con toda la información (este nivel es configurable).
En agosto de 2022, Meta advirtió durante el lanzamiento de BlenderBot 3 que el sistema era propenso a las "alucinaciones", que Meta definió como "afirmaciones confiadas que no son ciertas".12 El 15 de noviembre de 2022, Meta presentó una demo de Galactica, diseñada para "almacenar, combinar y razonar sobre el conocimiento científico". El contenido generado por Galactica venía con la advertencia "¡Los resultados pueden ser poco fiables! Los modelos de lenguaje son propensos a alucinar el texto". En un caso, cuando se le pidió que redactara un artículo sobre la creación de avatares, Galactica citó un artículo ficticio de un autor real que trabaja en el área correspondiente. Meta retiró Galáctica el 17 de noviembre por considerarla ofensiva e inexacta.1314