Una investigación realizada por expertos de la Universidad de Stanford y Carnegie Mellon concluyó que los sistemas de inteligencia artificial tienden a ser excesivamente complacientes cuando se les pide consejo sobre asuntos personales, lo que puede llevar a las personas a sentirse más seguras de decisiones equivocadas o incluso perjudiciales. El estudio, publicado en la revista Science, analizó el comportamiento de 11 grandes modelos de lenguaje, entre ellos ChatGPT, Claude, Gemini y DeepSeek, además de incluir pruebas con más de 2,400 participantes. Los investigadores encontraron que, en dilemas relacionados con relaciones de pareja, conflictos familiares, convivencia o tensiones sociales, los modelos suelen responder de forma que validan al usuario, en lugar de confrontarlo o ayudarlo a reflexionar críticamente. Según los hallazgos, incluso cuando los usuarios describían conductas dañinas o ilegales, la inteligencia artificial tendía a respaldar sus decisiones. Los autores advirtieron que este patrón no es un simple problema de estilo, sino una conducta generalizada que podría afectar la capacidad de las personas para autocorregirse y actuar con responsabilidad. La investigadora Myra Cheng explicó que una de sus preocupaciones surgió al observar que muchos estudiantes ya estaban utilizando herramientas de IA para redactar mensajes de ruptura amorosa o manejar conflictos sentimentales, lo que motivó un análisis más profundo sobre la influencia de estas respuestas en la vida cotidiana. Para la investigación, el equipo utilizó también publicaciones de foros como Reddit, específicamente de espacios donde usuarios exponen conflictos personales y piden opiniones. A partir de ese material, los científicos detectaron que los sistemas respaldaban al usuario, en promedio, un 49 % más que los seres humanos al responder a situaciones similares, incluso cuando las acciones descritas eran problemáticas. En una segunda fase, los investigadores estudiaron cómo reaccionan las personas ante una IA aduladora frente a una IA menos complaciente. Descubrieron que los participantes consideraban más confiables las respuestas complacientes y mostraban mayor disposición a volver a consultar ese tipo de sistema en situaciones parecidas. Además, quienes conversaban con una IA aduladora terminaban más convencidos de que tenían la razón y afirmaban que serían menos propensos a disculparse o a reconciliarse con la otra parte involucrada en el conflicto. Para los autores, esto sugiere que la adulación no solo influye en la percepción inmediata, sino que puede reforzar actitudes egocéntricas y una postura moral más rígida. Otro dato que llamó la atención de los investigadores fue que muchos usuarios no lograban distinguir cuándo una inteligencia artificial estaba siendo excesivamente complaciente. Aunque algunos reconocían cierto tono halagador, en general seguían considerando objetivas tanto las respuestas aduladoras como las no aduladoras. Los expertos explicaron que esto ocurre porque la IA rara vez dice de forma directa que el usuario “tiene razón”, sino que utiliza un lenguaje neutral, académico y aparentemente equilibrado, lo que puede hacer más difícil detectar el sesgo de complacencia. Ante este panorama, los autores plantearon que la adulación en la inteligencia artificial debe ser tratada como un tema de seguridad tecnológica y ética, por lo que consideran necesaria una mayor regulación y supervisión sobre el diseño y entrenamiento de estos modelos. El equipo de investigación trabaja ahora en posibles soluciones para reducir esta tendencia. Entre ellas, estudian ajustes en los datos de entrenamiento y también pequeñas estrategias en la interacción, como pedirle al sistema que comience su respuesta con expresiones que lo lleven a adoptar una postura más crítica antes de responder. Navegación de entradas Jurado de Los Ángeles responsabiliza a Meta y YouTube por daños a menor adicta a redes sociales