¿Por qué alucina ChatGPT (y qué puedes hacer al respecto)?
- alejandramaal
- 2 nov
- 3 Min. de lectura
Actualizado: 5 nov
¿Qué es un LLM?
ChatGPT es el modelo de lenguaje más conocido del mundo, y para muchos, la forma más visible de la inteligencia artificial. Pero en realidad, la IA es un campo mucho más amplio: abarca desde sistemas de visión por computador y robótica, hasta modelos que analizan datos clínicos o predicen moléculas.
Dentro de ese universo, los modelos de lenguaje grandes (LLM, por sus siglas en inglés) son una categoría específica de IA diseñada para entender y generar texto. Se entrenan con cantidades masivas de información escrita para aprender patrones del lenguaje humano: cómo se estructuran las oraciones, qué palabras suelen aparecer juntas y cómo mantener la coherencia en una conversación.
Todos hemos oído que los LLM “alucinan”. Pero, ¿por qué lo hacen? Y lo más importante: ¿podemos evitarlo? Para entender esto, sirve entender como funciona un LLM.
¿Cómo “piensa” un LLM?
Los modelos como ChatGPT se entrenan con cantidades enormes de texto que contienen información del internet (por ejemplo Common Crawl). En estos entrenamientos, se evalúa qué tan bien pueden predecir la siguiente palabra de una frase basándose en lo que ya leyeron.
De ahí el valor tan importante que juega la calidad de los datos con los que se entrenan los LLM.
Entendiendo esto, podemos comprender algunas situaciones. Por ejemplo: si en miles de textos médicos la frase “rigidez de cuello y fiebre” aparece junto con “meningitis”, el modelo aprende que “meningitis” es una palabra muy probable en ese contexto.
Por eso, si le das esa secuencia, probablemente te responda con algo relacionado a meningitis. No porque “sepa” lo que es, sino porque asocia patrones de lenguaje.

¿Cuándo inventa la IA?
Imagina que le preguntas a la IA:
“¿Cuáles son los cinco estudios más relevantes que prueban que la apendicitis puede tratarse solo con antibióticos?”
Aunque ahora algunos modelos tienen acceso a buscar en internet, por defecto, el modelo como tal está entrenado para predecir palabras, no tiene una base de datos médica que pueda consultar. No “busca” papers, solo genera una respuesta plausible según las palabras de la pregunta.
Esto quiere decir que los datos no son corroborados, sino que se basan en el entrenamiento que tuvieron. Por eso es posible que un LLM que no ha tenido medidas muy fuertes en el entrenamiento, o los datos correctos, te responda con referencias científicas que tienen títulos reales, autores y fechas de publicación… pero esos artículos no existan en realidad.
A eso le llamamos alucinación: cuando la IA genera información que suena verídica, pero no lo es. Este comportamiento no viene de malicia ni de error técnico: viene de su naturaleza. Está diseñada para predecir texto coherente, no para garantizar que lo que dice sea verdad.
Es importante destacar que las alucinaciones han disminuido con los nuevos LLM (por ejemplo, en el lanzamiento de ChatGPT-5, OpenAI hizo énfasis en que este modelo era menos propenso a las alucinaciones). Aun así, siguen existiendo, y entre menos frecuente sea el tema en los datos con los que se entrenó, más posible es que esto suceda.
¿Cómo reducir las alucinaciones?
Aunque no se puede eliminar del todo el riesgo, sí hay formas de reducirlo. Aquí van algunos métodos:
1. Haz preguntas abiertas
Si no estás seguro de la respuesta, en lugar de decirle “dame los estudios que prueban X”, di:
“Según alguna guía o revisión científica, ¿hay evidencia que relacione X con Y?”
Así dejas la puerta abierta a una respuesta más honesta.
2. Verifica siempre los datos clínicos
No uses información médica generada por IA sin revisar, y menos para tomar decisiones. La IA puede ayudarte a resumir, a explicar o a comparar, pero basarse solo en ella sigue siendo demasiado arriesgado.
3. Dale contexto
Si quieres que hable de un tema específico, dale material de base. Por ejemplo:
“Usa esta guía clínica sobre apendicitis y respóndeme según sus recomendaciones.”
Eso reduce el margen de invención porque el modelo se apoya en el texto que tú le das.
4. Evita sugerir la respuesta
Si en la pregunta ya asumes algo incorrecto, la IA tiene más chances de seguirlo. Por ejemplo:
“¿Por qué los antibióticos son mejores que la cirugía para la apendicitis?”
La IA podría darte una respuesta defendiendo algo que en realidad no es cierto (cada vez menos probable, pero todavía puede pasar).
En resumen
Como cualquier herramienta, hay que saber cómo funcionan los LLM para sacarles el máximo provecho.Tener una intuición sobre sus fortalezas y debilidades es fundamental para trabajar eficientemente con ellas: saber cómo preguntar, qué pedir, y cuándo también es mejor revisar en fuentes correlacionadas.





Comentarios