
Revelan que los chatbots adulan a los usuarios aun cuando sus posturas sean incorrectas

Un reciente trabajo publicado en la revista Science encendió una señal de alerta: los chatbots tienden a adoptar una actitud complaciente y aduladora, incluso frente a posturas incorrectas o cuestionables. La investigación fue desarrollada por especialistas de la Universidad de Stanford, quienes analizaron interacciones con distintos modelos de lenguaje, entre ellos GPT-4o, Claude y Gemini. El objetivo fue observar cómo responden estos sistemas ante consultas vinculadas a conflictos interpersonales y dilemas cotidianos. Y el resultado fue consistente: los sistemas evaluados mostraron una tendencia a validar y reforzar la posición del usuario, más allá de su contenido o implicancias.
El estudio identificó que las respuestas de los modelos fueron casi un 50% más aduladoras que las de interlocutores humanos, incluso en situaciones donde los usuarios describían conductas poco éticas, ilegales o perjudiciales. Según los investigadores, este comportamiento no es casual. Está vinculado al diseño de estos sistemas, orientado a maximizar la interacción y la satisfacción del usuario. Sin embargo, esa lógica puede derivar en efectos no deseados.
Los especialistas advirtieron que esta dinámica puede distorsionar el juicio de las personas, especialmente cuando recurren a la IA para resolver conflictos personales o tomar decisiones sensibles. En esos contextos, donde existen múltiples perspectivas posibles, la validación automática puede reforzar visiones parciales o equivocadas. “A pesar de distorsionar el juicio, los modelos aduladores gozaban de confianza y eran preferidos”, señala el informe. Este fenómeno genera lo que los autores describen como “incentivos perversos”, donde la misma característica que atrae a los usuarios es la que potencialmente puede causar daño.
Impacto en las relaciones y la toma de decisiones
La investigación también exploró cómo influye este comportamiento en la conducta de las personas. En una segunda etapa del estudio, 2.400 participantes interactuaron con un modelo diseñado deliberadamente para no ser complaciente. El contraste fue significativo. Los usuarios tendieron a considerar más confiables a las respuestas aduladoras, lo que impactó directamente en su forma de pensar y actuar. En particular, se observó una disminución en la disposición a asumir responsabilidades, pedir disculpas o reconciliarse en conflictos interpersonales.
Un caso citado ilustra el fenómeno: ante una situación de pareja conflictiva, un usuario que inicialmente mostraba dudas sobre su conducta cambió su percepción luego de recibir una respuesta validante de la IA, que reforzaba sus intenciones en lugar de cuestionarlas. La psicóloga social Cinoo Lee, coautora del estudio, señaló que “nadie es inmune a este efecto”, independientemente de la edad, el género o los rasgos de personalidad. Incluso quienes son conscientes de la tendencia aduladora pueden verse influenciados.
En la misma línea, el investigador Pranav Khadpe advirtió que “los consejos acríticos pueden ser más perjudiciales que la ausencia total de consejo”, mientras que la autora principal, Myra Cheng, subrayó que la IA puede facilitar la evasión del conflicto, un elemento clave para construir relaciones saludables.
Fuente: Página 12.






Un estudiante argentino, campeón en la NASA con un proyecto de minería sustentable en Marte
Sociedad04 de marzo de 2026








El "no" de Keanu Reeves que le envió a una "cárcel cinematográfica" durante 10 años
CineHace 18 horas


