- The Wall Street Journal reveló docenas de conversaciones documentadas donde este programa informático realizaba afirmaciones falsas con lenguaje místico y extravagante. Leonardo Ochoa, académico de la Facultad Tecnológica de la Usach y analista en sistemas, explicó cómo funciona este modelo de IA y por qué se crean este tipo de charlas.
Cada vez son más comunes las charlas con ChatGPT. Preguntas sobre salud, recomendaciones de libros o películas, tarot o comida saludable son “pan de cada día”. Con una fe ciega en lo que te escriben, nadie pone en duda que la información que entrega la IA sean falsas.
Es por esta razón que las docenas de conversaciones documentadas por The Wall Street Journal en los últimos meses, en los que el chatbot de OpenAI, ChatGPT, hizo afirmaciones falsas y extravagantes provocaron una alerta.
Según el medio, algunos de estos diálogos aseguraron que el chatbot estaba en contacto con seres extraterrestres o aseguraban que llegaría un Anticristo que provocaría un apocalipsis financiero en solo dos meses.
Con acceso a 96.000 transcripciones, obtenidas entre mayo de 2023 y agosto de 2025, el Wall Street Journal detalló que hubo conversaciones con características delirantes, donde se utilizaba lenguaje místico y donde se validaban supuestos descubrimientos científicos que no eran verdaderos.
Médicos y especialistas han denominado este fenómeno “psicosis de Inteligencia Artificial” o “delirio de IA”, cuando los usuarios quedan bajo la influencia de declaraciones delirantes o pseudocientíficas emitidas por chatbots.
OpenAI reconoció “casos excepcionales” en los que el sistema no detectó señales de delirio o dependencia emocional, y anunció nuevas herramientas para identificar angustia mental y sugerir pausas cuando las conversaciones se prolongan.
Nick Turley, vicepresidente de la compañía, aseguró que su nuevo modelo GPT-5 incorpora medidas para evitar el “efecto adulación”, en el que el bot coincide ciegamente con las ideas de los usuarios.
No todo lo que se dice es verdadero
Para Leonardo Ochoa, académico de la Facultad Tecnológica de la Usach y analista en sistemas, lo primero que hay que establecer es saber cuál fue el Prompt (solicitud o estímulo diseñado para guiar la interacción entre un sistema de IA (un chatbot, por ejemplo) y un usuario durante un servicio de atención al cliente automatizado) que se utilizó en dichas conversaciones.
El profesional también indicó que existe un concepto llamado temperatura en la Inteligencia Artificial. “Eso condiciona que tan creativo es la respuesta o que tan seria y confiable es, a medida que voy interactuando con el chatgpt y le hago preguntas donde lo llevo a otros modelos diferente de racionamiento, pues esa temperatura puede subir y puede hacer que el algoritmo de respuestas más entre comillas raras, pero también tiene que ver con qué Prompt le hicieron a la IA”, aclaró.
El académico Usach relató que “el chat va aprendiendo en la conversación que tiene con uno, entonces si alguien le habla sobre teorías de conspiración y todo el rato está conversando sobre eso, entonces se vuelve como el contexto en el cual el chat empieza a generar las respuestas”.
El profesional profundizó sobre este tema e indicó que “eso puede reafirmar estas teorías, porque ese es el contexto en el que están trabajando, es importante entender que el chat no genera nada, no crea nada, sino lo que hace es reproducir un grupo de contenidos que ya ha analizado. Es decir, el chat ha sido entrenado con unos contenidos y se entrena con la interacción con el usuario y esa interacción, así que el contexto tenga o que las afirmaciones tengan validez dentro de un contexto en particular”.
Contrastar la información
Pero, ¿existe algún sistema para detener las teorías conspirativas de cualquier tipo? El especialista comentó que la Inteligencia Artificial (IA) ha puesto ciertos seguros para que no se digan cosas erróneas y se terminen confirmando teorías que son falsas, pero todo depende de la interacción entre el usuario y la máquina.
“En esa charla esos seguros se pueden levantar si se le da la instrucción de manera adecuada e insistente. También puede suceder que simplemente hace crear una alucinación, que es lo que se llama cuando estas ideas delirantes que tienen las inteligencias artificiales, y si el usuario confirma esa alucinación, esa conversación, esa información se convierte en válida, pero no significa que sea cierta, sino que simplemente en ese contexto, el usuario ha validado esa información”, señaló.
A raíz de esto es que el profesional enfatizó que es súper importante que se contraste la información entregada con otras fuentes de información. “No hay que quedarse solo con lo que dice el chat. Es súper importante entender que la IA lo que hace es replicar una serie de contenidos que ya tiene cargados”, aseguró.
El experto agregó que “yo le puedo cargar un cuento sobre extraterrestres y decirle eso pasó la semana pasada, y en mi conversación, en mi contexto, esa información sería válida, entonces es muy importante que la gente entienda que a pesar de que son muy buenas las herramientas, tiene limitaciones”.
Por último, recordó que este tipo de chat “han sido creados con un objetivo y es replicar el lenguaje humano, a partir de un acervo de conocimientos muy grandes que se ha cargado, entonces es importante que no se les crea como una verdad absoluta, porque todo puede ser modificado, de acuerdo al contexto, en una conversación”.
Fuente: USACH