Skip to content

Crean modelo de IA que imita decisiones humanas, pero expertos dudan de sus límites

El sistema Centaur logra resultados similares a los de personas en experimentos psicológicos, pero científicos cuestionan que realmente reproduzca el pensamiento humano

El modelo se construyó a partir de Llama, un modelo de lenguaje desarrollado por Meta

Table of Contents

Un equipo de investigadores presentó en Science un modelo de inteligencia artificial llamado Centaur, diseñado para predecir y simular el comportamiento humano en distintos experimentos de psicología. Para ello, usaron un gran conjunto de datos llamado Psych-101, que incluye resultados de 160 estudios previos con más de 60 mil personas que realizaron alrededor de 10 millones de elecciones en total.

El modelo se construyó a partir de Llama, un modelo de lenguaje desarrollado por Meta, que fue entrenado con los datos de las decisiones que tomaron los participantes en los experimentos. Según sus creadores, Centaur consiguió replicar el comportamiento humano en pruebas como la del “bandido de dos brazos”, donde las personas deben escoger entre máquinas tragamonedas con probabilidades variables de premio.

Los investigadores comprobaron que Centaur era capaz de predecir decisiones de forma más precisa que modelos cognitivos tradicionales diseñados para tareas concretas. Incluso en pruebas que no formaban parte de su entrenamiento, como una versión del experimento con una tercera máquina, el sistema generó resultados similares a los humanos. Esto, aseguran, podría servir para diseñar estudios de comportamiento “en silico” antes de aplicarlos a personas.

Sin embargo, varios expertos han mostrado escepticismo ante las conclusiones del estudio. Blake Richards, de la Universidad McGill y el Instituto de Inteligencia Artificial de Quebec, considera que parte de la comunidad científica recibirá el trabajo con “mucho escepticismo” y que las capacidades del modelo están sobrevaloradas.

Jeffrey Bowers, de la Universidad de Bristol, probó Centaur y halló comportamientos poco realistas: por ejemplo, recordar hasta 256 cifras en pruebas de memoria, cuando las personas suelen retener unas siete, o responder a estímulos en apenas un milisegundo, algo imposible para un ser humano. Según Bowers, esto demuestra que el modelo no se puede generalizar fuera de los datos con los que fue entrenado.

Otros científicos destacan que aunque Centaur imita resultados, sus procesos internos no se parecen a los de la mente humana. “Un reloj digital y uno de agujas pueden dar la misma hora, pero funcionan de manera muy distinta”, comparó Bowers.

Federico Adolfi, del Instituto Ernst Strüngmann de Neurociencia, opinó que el modelo “es muy fácil de romper” y que los 160 experimentos del conjunto Psych-101 apenas representan una mínima parte de la complejidad de la cognición humana.

Pese a las críticas, algunos investigadores ven valor en el trabajo. Rachel Heaton, de la Universidad de Illinois, considera que el conjunto de datos Psych-101 puede ser útil para probar otros modelos. Katherine Storrs, de la Universidad de Auckland, cree que aunque el estudio hace afirmaciones exageradas, el esfuerzo y la base de datos podrían aportar resultados importantes en el futuro.

Latest