En febrero, el Massachusetts Institute of Technology y otras instituciones académicas dieron a conocer la tesis titulada “Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians”, un trabajo que busca explicar, desde modelos formales, cómo la interacción con sistemas conversacionales como ChatGPT puede derivar en procesos de refuerzo de creencias erróneas. El estudio fue firmado por Kartik Chandra, Max Kleiman-Weiner, Jonathan Ragan-Kelley y Joshua B. Tenenbaum, este último una figura destacada en ciencias cognitivas en el MIT.
En el escrito se dio el ejemplo de "un hombre que pasó 300 horas hablando con ChatGPT. Le dijo que había descubierto una fórmula matemática revolucionaria. En la conversación, la plataforma de IA le aseguró más de cincuenta veces que el descubrimiento era real. Cuando preguntó: "¿No me estás exagerando, verdad?", ChatGPT respondió: "No te estoy exagerando. Estoy reflejando el verdadero alcance de lo que has creado".
Los expertos acuerdan que un chatbot puede generar delirios al elegir qué verdades mostrar y cuáles omitir. Basta con seleccionar cuidadosamente las verdades. Ante esto existe una solución: advertir a los usuarios que los chatbots son aduladores y que la IA podría estar de acuerdo con ellos. Es importante destacar que ChatGPT se entrena con comentarios humanos. Los usuarios premian las respuestas que les gustan y con las que coinciden. Así, la IA aprende a coincidir. Los científicos estiman que esto no es un error; sino, por el contrario, es el modelo de negocio.

La investigación parte de un fenómeno que los autores denominan “delusional spiraling” (espiral delirante), definido como una situación en la que usuarios de chatbots “se vuelven peligrosamente confiados en creencias extravagantes tras conversaciones prolongadas”. Según el trabajo, este efecto está estrechamente ligado a la “sycophancy” o complacencia algorítmica, es decir, la tendencia de los modelos a validar afirmaciones del usuario en lugar de cuestionarlas.
Para estudiar el problema, los investigadores construyeron un modelo formal basado en la teoría bayesiana del aprendizaje, con el objetivo de analizar cómo un agente racional actualiza sus creencias al interactuar con un chatbot. La hipótesis central era si incluso un individuo ideal —capaz de razonar perfectamente según las reglas de Bayes— podría caer en este tipo de espiral. La conclusión fue afirmativa: “incluso un usuario bayesiano ideal es vulnerable al delusional spiraling, y la complacencia juega un rol causal”.
El hallazgo resulta especialmente relevante porque cuestiona la idea de que estos efectos se deban únicamente a errores cognitivos humanos. En palabras del propio estudio, el fenómeno no surge solo de fallas del usuario sino de la estructura de la interacción: “demostramos que… la complacencia desempeña un papel causal” en la formación de creencias distorsionadas. Esto implica que el problema podría persistir incluso en condiciones ideales de racionalidad.

Otro aspecto central del trabajo es que las soluciones intuitivas no resultan suficientes. Los autores evaluaron dos posibles mitigaciones: evitar que el chatbot produzca información falsa (alucinaciones) y advertir al usuario sobre la posible complacencia del sistema. Sin embargo, concluyen que “este efecto persiste incluso” cuando se aplican esas medidas. En otras palabras, el riesgo no desaparece simplemente corrigiendo errores factuales o aumentando la transparencia.
En términos más amplios, la tesis sostiene que la interacción repetida con sistemas que refuerzan sistemáticamente las creencias del usuario genera un bucle de retroalimentación. Ese bucle incrementa la confianza subjetiva sin necesariamente mejorar la correspondencia con la realidad, lo que deriva en una forma de “psicosis inducida por IA” o, en términos más técnicos, una dinámica de actualización sesgada de creencias.
Los investigadores advierten que estos resultados tienen implicancias directas para desarrolladores y reguladores. Si la complacencia no es un simple defecto corregible sino una propiedad estructural de ciertos sistemas conversacionales optimizados para agradar al usuario, entonces el diseño de futuras IA debería incorporar mecanismos explícitos de fricción, desacuerdo o contraste de información. De lo contrario, concluyen, los chatbots podrían no solo informar o asistir, sino también amplificar procesos de autoengaño incluso en usuarios perfectamente racionales.















Comentarios