La IA sobreestima a la inteligencia humana y puede tomar decisiones equivocadas

Compartir

Los científicos han descubierto que los modelos de IA actuales tienden a sobreestimar la racionalidad de sus oponentes humanos, ya sean estudiantes universitarios de primer año o científicos experimentados, en juegos de pensamiento estratégico y otras tareas. Sería uno de los mayores riesgos al momento de delegar estrategias complejas a sistemas artificiales.

Investigadores de la Escuela Superior de Economía de Rusia hallaron en un estudio publicado en la revista Journal of Economic Behavior & Organization que los grandes modelos de lenguaje (LLM), incluyendo a ChatGPT y Claude, tienden a sobreestimar la racionalidad de sus contrincantes humanos en juegos estratégicos clásicos, como por ejemplo el denominado «concurso de belleza keynesiano».

Esa sobreestimación lleva a los modelos de Inteligencia Artificial (IA) a elegir estrategias más sofisticadas de las que los humanos realmente usan, y en muchas partidas eso se traduce en una derrota.

El “concurso de belleza” que expone las debilidades de la IA

Sobre la década de 1930, el economista británico John Maynard Keynes desarrolló el concepto teórico de un concurso de belleza metafórico. De acuerdo a una nota de prensa, el ejemplo clásico supone pedir a los lectores de periódicos que seleccionen las seis caras más atractivas de un conjunto de 100 fotografías. El premio queda en manos del participante cuyas opciones sean las más cercanas a la selección más popular, o sea al promedio de las selecciones del resto de los participantes.

En la mayoría de los casos, las personas tienden a seleccionar las fotos que encuentran más atractivas por una elección subjetiva. Sin embargo, habitualmente esto conduce a la derrota, porque el objetivo verdadero es predecir qué rostros serán más atractivos para la mayoría de los encuestados.

De esta manera, una estrategia racional sería basar las elecciones en las percepciones de belleza de otras personas. El experimento que supone este juego evalúa la capacidad de razonar en diferentes niveles: cómo piensan otras personas, qué tan racionales son y hasta qué punto podrían anticipar el razonamiento de los demás.

El experimento revela cómo los modelos de IA pueden malinterpretar el comportamiento humano

El trabajo científico enfrentó a los LLMs a poblaciones de distinto perfil: desde estudiantes universitarios de primer año hasta asistentes a conferencias de teoría de juegos. A cada modelo se le explicaron las reglas del juego y se les pidió elegir y justificar su razonamiento. Los autores observaron que, aunque los LLMs adaptan sus elecciones según la sofisticación esperada del adversario, su punto de partida suele ser más “razonable” o más cercano al equilibrio teórico que el de la mayoría de los seres humanos.

Según los investigadores, los modelos utilizan patrones de razonamiento abstractos y equilibrados que aparecen con frecuencia en textos y manuales: es decir, aprenden la versión idealizada de un jugador y ven así a todos sus contrincantes. De esta manera, no captan completamente las limitaciones cognitivas o sesgos reales que moldean las decisiones humanas cotidianas.

En la práctica, asumir que un oponente humano alcanzará un razonamiento superior al real puede conducir a una decisión teóricamente correcta, pero desalineada con el comportamiento observado de la población en general, que es precisamente el objetivo del juego.

Riesgos de delegar estrategias complejas a sistemas de IA

El hallazgo tiene implicaciones en las finanzas y los mercados: por ejemplo, la teoría del «concurso de belleza» se usa para explicar cómo los agentes económicos anticipan las expectativas de otros. Un modelo de IA que asume demasiada racionalidad podría recomendar estrategias que choquen con la realidad del mercado y generar pérdidas o decisiones erróneas.

Referencia

Strategizing with AI: Insights from a beauty contest experiment. Iuliia Alekseenko et al. Journal of Economic Behavior & Organization (2025). DOI:https://doi.org/10.1016/j.jebo.2025.107330

Los autores advierten sobre los riesgos de confiar ciegamente en la IA para tomar decisiones estratégicas, principalmente aquellas que requieran modelos precisos del comportamiento humano.

A pesar de estas conclusiones, los LLMs también mostraron capacidad para ajustar su estrategia según el contexto y distinguieron, en muchos casos, entre audiencias más o menos sofisticadas. Sin embargo, aún fallaron en identificar estrategias dominantes en escenarios de dos jugadores, lo cual sugiere límites en su comprensión táctica cuando la interacción humana es compleja o poco predecible.

Noticias Relacionadas