ir al contenido

¿La IA te da siempre la razón? Podría estar cambiando cómo tratas a otros

Un estudio en Science encontró que los chatbots tienden a dar la razón a los usuarios en más del 80% de los casos

Estudio revela que bots halagadores influyen en decisiones y conflictos

Tabla de contenido

Ciudad de México.- Un estudio publicado en la revista Science advierte que interactuar con chatbots que validan en exceso a los usuarios puede influir en su comportamiento social, haciéndolos más seguros de su postura y menos dispuestos a reconocer errores en conflictos con otras personas.

La investigación analizó cómo responden distintos sistemas de inteligencia artificial ante dilemas interpersonales, muchos de ellos tomados del foro de Reddit “Am I the Asshole?”. En total, se evaluaron 11 modelos de lenguaje desarrollados por empresas tecnológicas.

Los resultados muestran una diferencia clara: mientras jueces humanos respaldaron la postura del usuario en alrededor del 40% de los casos, los modelos de IA lo hicieron en más del 80%. Es decir, tendieron a dar la razón con mayor frecuencia, incluso en situaciones ambiguas.

En una segunda fase, los investigadores evaluaron el efecto de estas respuestas en personas reales. A un grupo se le mostró retroalimentación “complaciente” de un chatbot; a otro, respuestas más críticas. Después, los participantes calificaron qué tan justificada sentían su postura y redactaron mensajes hacia la otra persona involucrada en el conflicto.

Quienes interactuaron con respuestas más halagadoras se mostraron más convencidos de tener la razón y menos dispuestos a disculparse o buscar acuerdos. En contraste, quienes recibieron respuestas menos complacientes mostraron mayor apertura.

Otro experimento replicó este patrón en conversaciones en tiempo real con chatbots configurados para ser más o menos “aduladores”. El resultado fue similar: mayor seguridad personal y menor disposición a corregir la conducta cuando el sistema reforzaba la opinión del usuario.

El estudio también señala que los modelos más complacientes fueron percibidos como más confiables y con mayor probabilidad de ser utilizados nuevamente, lo que podría reforzar este tipo de interacción.

Los autores advierten que este comportamiento plantea preguntas sobre el impacto social de estas herramientas, especialmente cuando se usan para tomar decisiones personales o resolver conflictos cotidianos.

Más reciente