Anthropic prueba un mercado entre agentes de IA con transacciones reales

La compañía Anthropic ha puesto a prueba un escenario que hasta hace poco parecía teórico: un mercado en el que agentes de inteligencia artificial negocian entre sí en nombre de personas. No se trataba de una simulación. Hubo productos reales, dinero real y decisiones con impacto directo en quienes participaban.

El experimento, bautizado como Project Deal, se diseñó como un piloto cerrado. Participaron 69 empleados, cada uno con un presupuesto de 100 dólares en tarjetas regalo. Con ese dinero podían comprar artículos ofrecidos por sus compañeros, mientras sus agentes negociaban precios, condiciones y acuerdos. Un ejemplo concreto: unos auriculares puestos a la venta por un empleado podían ser adquiridos por otro sin que ninguno interviniera directamente en la negociación.

Los números dan contexto. Se cerraron 186 operaciones por más de 4.000 dólares en total. No es un volumen comparable al de grandes plataformas, pero sí suficiente para observar patrones. Aquí lo relevante no es la escala, sino el comportamiento de los agentes cuando negocian con autonomía.

El diseño del experimento fue más allá de un único entorno. Se crearon cuatro mercados paralelos con distintas configuraciones. Uno de ellos funcionaba como el entorno “real”: todos los participantes estaban representados por el modelo más avanzado de la empresa y los acuerdos se ejecutaron después. Los otros tres sirvieron para comparar resultados y analizar diferencias.

Aquí aparece uno de los hallazgos clave. Los usuarios representados por modelos más avanzados obtenían mejores resultados económicos. Cerraban acuerdos más favorables. Sin embargo, esa ventaja no era evidente para los participantes. Nadie parecía percibir que estaba negociando en desventaja. ¿Qué pasa cuando no sabes que estás perdiendo en una negociación?

Este punto introduce una cuestión práctica. Si dos personas delegan en agentes con capacidades distintas, el resultado puede inclinarse sin que ninguna lo detecte. No hablamos de errores evidentes, sino de pequeñas diferencias acumuladas. Por ejemplo, pagar un poco más de lo necesario o aceptar condiciones menos favorables sin cuestionarlas.

Otro aspecto relevante es lo que no influyó. Las instrucciones iniciales dadas a los agentes no cambiaron de forma significativa ni la probabilidad de cerrar ventas ni los precios finales. Ajustar el punto de partida no alteró el resultado de manera clara. El peso está en la capacidad del modelo, no en cómo se le orienta al inicio.

El experimento deja varias ideas concretas:

  • Los agentes pueden negociar y cerrar acuerdos reales sin intervención constante.
  • La calidad del modelo impacta directamente en el resultado económico.
  • Las diferencias entre agentes no siempre son visibles para los usuarios.
  • Las instrucciones iniciales tienen un efecto limitado en el resultado final.

Más allá de las cifras, el valor del experimento está en lo que anticipa. Un entorno donde las decisiones de compra y venta se delegan en sistemas automatizados cambia las reglas del juego. No solo por la velocidad, sino por las nuevas asimetrías que introduce. Algunas serán evidentes. Otras, como muestra este caso, pueden pasar desapercibidas.

Project Deal sigue siendo una prueba con alcance limitado. Aun así, plantea un escenario concreto: mercados donde los participantes no negocian directamente, sino a través de agentes con distintos niveles de capacidad. La diferencia es que esos agentes ya están cerrando acuerdos reales.

No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *