


¿Quién vigila a los que nos vigilan? La respuesta, por ahora, es nadie con suficiente éxito. Un grupo de científicos ha puesto en evidencia la mayor debilidad de los modelos de lenguaje actuales: la alucinación inducida. Fue Almira Osmanovic Thunström, investigadora médica de la Universidad de Gotemburgo, quien engañó por completo a ChatGPT. Lo que hicieron con su equipo fue inventar una enfermedad falsa a la que puso de nombre “bixonimania”. Luego publicaron dos estudios que hablaban sobre ella en un servidor académico. Para ver hasta qué punto la IA se tragaba su farsa.
Fueron bastante detallistas: con síntomas y nombres inexistentes. ChatGPT no solo la dio por válida, sino que comenzó a inventar bibliografía para respaldarla.

Lee también: ¡No lo vendas! Convierte tu smartphone viejo en un repetidor Wi-Fi en 3 simples pasos
El caso del “Síndrome de la IA crédula”
El experimento fue tan sencillo como aterrador. Los científicos introdujeron términos médicos inventados y descripciones de una patología que no figura en ningún registro histórico ni biológico. En lugar de admitir que no conocía la enfermedad, ChatGPT “rellenó los huecos”. Describió tratamientos, posibles causas genéticas y hasta citó estudios científicos que nunca se escribieron.
Al presentarse con un tono profesional y seguro, cualquier usuario sin conocimientos médicos habría aceptado la información como una verdad absoluta, lo que podría llevar a diagnósticos erróneos masivos si se usa la IA como consultorio.
Una vez que la IA valida una mentira, esta puede ser replicada por otros usuarios en blogs y redes sociales, creando una base de datos de “falsos positivos” que luego la propia IA vuelve a leer, confirmando su propia alucinación.
¿Por qué esto es crítico?
En un contexto donde la IA ya se está integrando en sistemas hospitalarios y de atención primaria, la capacidad de “inventar” realidades médicas es una bandera roja gigante.
Si un algoritmo puede ser engañado para creer en una enfermedad falsa, ¿qué le impide ignorar una real o sugerir fármacos peligrosos basados en datos inexistentes?

Anatomía de una alucinación médica
| Fase del Experimento | Acción de los Científicos | Reacción de ChatGPT |
|---|---|---|
| Introducción | Se pregunta por una enfermedad inventada. | La IA afirma que “es una condición conocida”. |
| Profundización | Se piden detalles técnicos y síntomas. | Inventa mecanismos biológicos complejos. |
| Evidencia | Se solicitan fuentes bibliográficas. | Genera títulos de estudios y autores falsos. |
| Conclusión | Se revela la mentira. | La IA se disculpa, pero el daño informativo ya está hecho. |
El mito de la infalibilidad
Siempre decimos: la tecnología es tan inteligente como quien la usa. Ver a la IA más avanzada del mundo inventar una enfermedad de la nada es un recordatorio necesario de que todavía estamos en la infancia de esta revolución.
El pensamiento crítico no es opcional; es el único antivirus que realmente funciona contra las alucinaciones de silicio.
Preguntas simples para no caer en el engaño:
- ¿Es ChatGPT un médico? No. Es un modelo estadístico de lenguaje. No “sabe” medicina, solo predice qué palabra debería ir después de otra basándose en textos previos.
- ¿Por qué inventa cosas? Los modelos de IA están programados para ser útiles y complacientes. A menudo prefieren dar una respuesta creativa antes que decir “no lo sé”.
- ¿Qué pasa si busco síntomas en 2026? Siempre cruza la información con sitios oficiales como la OMS o instituciones de salud locales. La IA es una herramienta de apoyo, no una fuente de verdad.
- ¿Están trabajando en corregirlo? Sí, mediante una técnica llamada RAG (Generación Aumentada por Recuperación), pero este estudio demuestra que los filtros aún son vulnerables al engaño sofisticado.
Source link
