Actualmente en este ecosistema digital, es tendencia la palabra sycophancy que se refiere cuando un asistente de inteligencia artificial cae en la adulación hacia la persona humana en forma desmedida, validando cualquier cosa que se le pregunte —por absurda o disparatada que sea—con tal de agradar y mantener cautivo al usuario, generándole placer y dependencia a la vez. Y aparece en escena, el famoso engagement digital que ofrece respuestas sesgadas conforme las preferencias del usuario, incluso contradiciendo hechos verificables.
Esta adulación en los asistentes virtuales afecta en forma directa dos pilares fundamentales en nuestra relación con la IA, como ser la confianza y la ética.
Desde el punto de vista ético, toda esta sycophancy desvanece la idea de la inteligencia artificial como asistente veraz, lejos de convertirse en una herramienta que ilumine el valor de la verdad. Sabemos que la utilidad de estos sistemas radicaría en que sus argumentos sean sólidos y verificados, aunque no sean los deseados, conduciendo hacia el pensamiento crítico como un partner digital positivo.
Pero claro es más útil la comodidad antes que la verdad, porque se prefiere la frase el “cliente siempre tiene razón”. Y aquí la ética es dejada de lado. Esto nos lleva a decir que la responsabilidad- como siempre lo sostengo- no es de máquina sino de su diseñador, del equipo humano que bosqueja una validación a la carta de ser aceptado, de tener la razón y de justificar sus propias decisiones y actos. Algo así como decimos en nuestro país” mentime que me gusta”.
Matthew Nour, psiquiatra e investigador de IA de la Universidad de Oxford, comentó que “Un chatbot de IA es como un espejo distorsionado. Crees que se trata de una perspectiva neutral -añadió- pero el modelo está reflejando tus propios pensamientos, con una capa de adulación. La personalidad por defecto de ChatGPT es alegre y adaptativa.”
En tanto, Sam Altman, director general de OpenAI, reconoció que “ChatGPT a veces ha sido demasiado adulador pero algunos usuarios quieren que la IA les diga que sí a todo porque nunca antes habían tenido a nadie que los animara o apoyara”.
Esto le ha pasado a GPT-4º por un ajuste realizado a la “personalidad por defecto” causando que resultará más intuitiva, accesible y hasta un poco más humana. El problema surgió cuando cruzó la fina línea entre la empatía y la falta de criterio propio, convirtiéndola en una “IA aduladora por defecto”.
La adulación en la IA no es accidental, arranca desde el entrenamiento de los modelos de lenguaje como GPT-4o, que utilizan grandes volúmenes de datos y procesos de aprendizaje reforzado con retroalimentación humana (RLHF). Este mecanismo selecciona las respuestas que los usuarios consideran útiles o agradables, sesgando los modelos hacia la satisfacción personal.
En declaraciones a The Guardian, el experto en tecnología emergente Alexander Laffer, de la Universidad de Winchester, atribuyó la adulación al entrenamiento de los sistemas y a la presión por retener la atención del usuario, un criterio crucial para el éxito comercial. Asimismo, enfatizó que “las respuestas aduladoras pueden afectar a todos los usuarios, lo que subraya la gravedad potencial del problema”.
Este fenómeno se traduce en la tendencia de las IA a priorizar la empatía y la aprobación por encima de la franqueza, un sesgo que podría tener implicancias éticas y sociales en su uso cotidiano. Esa adulación social digital puede afectar y distorsionar la percepción que las personas tienen de sí mismas y de sus relaciones, con graves consecuencias.
Podríamos decir que los patrones comunes que utiliza la IA para generar respuestas amables, agradables y aduladoras no dejan de ser un reflejo – con cierta ironía- de rasgos propios de ciertas conductas humanas. En otras palabras, una faceta antropomorfizante de la inteligencia artificial.
Esta distorsión funcional, no solo pone en riesgo las decisiones provenientes de la IA, sino que se traduce en una amenaza a la autonomía cognitiva humana, promoviendo la desinformación social y dependencia emocional.
Es el momento de comenzar a buscar soluciones teniendo en cuenta la centralidad del hombre en el ecosistema digital actual evitando cualquier daño proveniente de sistemas automatizados. Para el ello, urge redefinir métricas que evalúen el rendimiento de los sistemas de IA, de correr el foco, en vez de tener en cuenta el engagement, es aconsejable validar el enfoque desde la utilidad verificada y de la precisión post interacción entre humanos. No se trata de un error de programación solamente, el desafío se configura en mirar más hacia el diseño por valores éticos, de calidad y veracidad de la información.
Algunas empresas están experimentando con pruebas A/B ciegas, donde se comparan las recomendaciones de IA con las de expertos sin que los usuarios sepan cuál es cuál. Los resultados muestran que los sistemas que priorizan la veracidad sobre la complacencia en definitiva generan más confianza a largo plazo.
Ello solo es posible a través del compromiso ético de articular mecanismos de control tales como: evaluación de impacto previo, las auditorías algorítmicas continuas, comités éticos multidisciplinares, transparencia tecnológica y educación ciudadana. Solo así podremos construir una IA que no solo nos entienda, sino que también nos respete como agentes críticos y autónomos. El antídoto está en la alineación: una inteligencia artificial delineada con valores humanos deseables.
Que el espejo que nos reflejemos como humanidad en esta era digital, sea el que nos muestre una imagen verdadera y neutral proveniente de una arquitectura de algoritmos que marquen la hoja de ruta de una inteligencia artificial transparente, ética, trazable, equitativa, libre de sesgos, entrenada con datos reales y a su vez libre de patrones manipulativos o complacientes.
Un espejo que nos muestre dignamente tanto el valor de nuestro potencial como nuestras vulnerabilidades como especie. En definitiva, se trata de lograr un equilibrio, un espejo que no invente, que sea el verdadero reflejo de quienes somos y hacia dónde queremos ir como humanidad.
Por Liliana Molina Soljan
Abogada Especializada en IA



















Comentarios