Un modelo de lenguaje puede decirte con total seguridad que una ley entró en vigor en una fecha que no existe, que un estudio científico concluye algo que no dice o que una persona dijo algo que nunca dijo. Lo hace sin titubear, sin señales de duda, con el mismo tono con el que te daría una información completamente correcta.

Esto no es un bug que se va a arreglar. Es una característica estructural de cómo funcionan estos modelos. Y entenderlo cambia la forma en que deberías usar la IA en cualquier contexto donde los datos importan.

Qué es una alucinación y por qué ocurre

Los modelos de lenguaje no “saben” cosas en el sentido en que lo sabes tú. No tienen una base de datos interna que consultan para verificar hechos. Generan texto token a token, eligiendo en cada paso la continuación más probable dado el contexto.

Cuando el contexto apunta hacia un tipo de respuesta —por ejemplo, una respuesta que incluya datos estadísticos, citas o fechas— el modelo genera texto que tiene la forma de esos datos aunque no los tenga disponibles con precisión. El resultado es una respuesta que suena exacta, tiene el formato correcto y es plausible en su estructura pero puede ser completamente inventada en su contenido.

El modelo no sabe que está mintiendo. No tiene la capacidad de distinguir entre lo que sabe y lo que está fabricando.

Esto ocurre con más frecuencia en preguntas sobre datos muy específicos (estadísticas, cifras, fechas exactas), referencias bibliográficas, nombres de personas y sus afirmaciones, y legislación o normativa detallada.

Los patrones que más se repiten

Con el tiempo, he aprendido a reconocer las situaciones donde la probabilidad de alucinación sube.

Citas y referencias. Si pides que te dé la fuente de una afirmación, el modelo puede inventar un estudio con un título plausible, autores reales de un campo relacionado y una revista que existe pero que nunca publicó ese artículo. El resultado parece completamente válido hasta que intentas encontrarlo.

Estadísticas sin fuente. “El 67% de los empleados…” “Según un estudio de 2023…” Si no hay una fuente verificable adjunta a esa cifra, trátala como aproximada hasta que puedas confirmarla.

Normativa y legislación. Los modelos conocen marcos legales generales pero pueden inventar artículos específicos, números de ley o fechas de entrada en vigor que no corresponden a la realidad. En cualquier cuestión legal que tenga consecuencias, verificar es obligatorio.

Personas y sus palabras. Las citas atribuidas a personas reales son especialmente problemáticas. El modelo conoce el estilo de pensamiento y las posiciones generales de muchos autores y puede fabricar citas que suenan auténticas porque son coherentes con lo que esa persona realmente podría haber dicho.

Cómo verificar: el proceso paso a paso

No se trata de verificar todo. Se trata de saber qué verificar y cómo.

Identifica las afirmaciones críticas. Antes de actuar sobre la información que te da la IA, pregúntate: ¿qué pasaría si esto fuera incorrecto? Si la respuesta es “nada importante”, probablemente no necesitas verificar. Si la respuesta es “tomaría una decisión equivocada” o “compartiría información incorrecta”, verifica.

Busca la fuente primaria. No preguntes al modelo si lo que te ha dicho es correcto. Ya te ha dicho que lo es. Busca la fuente original: el estudio, la ley, el libro, la declaración. Si no puedes encontrar la fuente primaria, la información está sin verificar.

Haz preguntas que fuercen la incertidumbre. En lugar de “¿cuál es la estadística sobre X?”, pregunta “¿qué tan seguro estás de esta cifra? ¿Tienes una fuente concreta o es una aproximación?”. Algunos modelos responden mejor a esta formulación y señalan ellos mismos su incertidumbre.

Usa el modelo para buscar contraejemplos, no para confirmar. Si quieres saber si algo es cierto, no preguntes “¿es verdad que…?”. Pregunta “¿qué argumentos existen en contra de esto?” o “¿hay excepciones o casos donde esto no aplica?”. Es más difícil para el modelo fabricar contraejemplos plausibles que confirmar lo que ya estás asumiendo.

Cuándo no fiarse aunque parezca correcto

Hay un sesgo cognitivo que opera en contra tuya cuando usas la IA: si la respuesta tiene el formato correcto, incluye detalles específicos y está bien redactada, tu cerebro la evalúa como más probable de ser cierta. El aspecto de credibilidad activa la misma heurística que usas con las personas: “si suena tan seguro y preciso, probablemente lo sabe”.

Esto es exactamente al revés de cómo funciona la probabilidad de alucinación. Cuanto más específica y detallada es la afirmación, mayor es la probabilidad de que algún detalle sea inventado.

Las preguntas con respuestas largas y bien estructuradas son más propensas a contener errores específicos que las preguntas con respuestas cortas. La confianza en el tono no correlaciona con la precisión en el contenido.

La regla práctica que uso: cuanto más importante sea la información y cuanto más específica sea la afirmación, más necesito verificarla fuera del modelo. No porque la IA sea mala. Sino porque no está diseñada para ser un repositorio de hechos verificados, sino para producir texto coherente y útil. A veces esas dos cosas coinciden. No siempre.

Saberlo es la mitad del trabajo.