24DigitalWeb

Publicidad y Comunicación

Los agentes de IA son capaces de establecer reglas sociales de manera espontánea, como los humanos


A diferencia de los chatbots, los agentes de inteligencia artificial (IA) emplean grandes modelos de lenguaje (LLM) y algoritmos avanzados para interactuar con entornos digitales, ejecutar múltiples acciones y resolver tareas de forma autónoma en representación de los usuarios. Para lograr algunos objetivos, los LLM necesitan colaborar entre sí, pedir y dar información unos a otros.

En este contexto, surge una interrogante fundamental: ¿pueden estos sistemas altamente sofisticados desarrollar convenciones sociales y lingüísticas compartidas sin una programación explícita? Un grupo de investigadores ha demostrado que, efectivamente, los agentes de IA son capaces de establecer acuerdos de manera independiente que les permiten coordinarse y trabajar de manera conjunta.


Google lanza Agent2Agent, un protocolo para que los agentes de IA se comuniquen entre sí

Los agentes de IA son sistemas autónomos que perciben su entorno, procesan datos y actúan para alcanzar objetivos específicos.


El estudio, realizado por expertos del City St George’s University of London y la Universidad Tecnológica de Copenhague, buscó responder si es posible que emergieran convenciones universales de manera espontánea dentro de grandes poblaciones de agentes basados en LLM, sin intervención directa en su programación.

Para investigar esta posibilidad, los científicos utilizaron una metodología conocida como el “juego de nombres”, una técnica comúnmente empleada para estudiar la formación de normas sociales en humanos.

Los experimentos incluyeron grupos de entre 24 y 200 agentes, construidos a partir de los modelos Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70B-Instruct y Claude-3.5-Sonnet. En cada ensayo, se emparejaban agentes al azar y se les pedía seleccionar un “nombre” (una secuencia aleatoria o una letra del alfabeto, por ejemplo) de un conjunto limitado y compartido. Cada agente contaba únicamente con una memoria restringida de sus propias interacciones recientes, sin acceso a las decisiones pasadas de sus compañeros ni conocimiento de estar participando en un colectivo. Cuando ambos coincidían en la elección, recibían una recompensa; en caso contrario, eran penalizados y se les revelaba la opción del otro.

Los resultados, publicados en la revista Science Advances, revelaron que, a través de estas interacciones simples y repetidas, los agentes lograban generar convenciones compartidas sin instrucciones predefinidas, reproduciendo así dinámicas similares a las que originan normas sociales entre humanos.

Ariel Flint Ashery, investigador doctoral en City St George’s University of London y coautor del estudio, señala que “la mayoría de las investigaciones hasta ahora ha considerado a los LLM de manera aislada, pero los sistemas de IA en el mundo real implicarán cada vez más la interacción entre múltiples agentes. Queríamos saber si pueden coordinar su comportamiento mediante la creación de convenciones, que son los pilares de cualquier sociedad. La respuesta es sí, y lo que logran en conjunto no puede explicarse únicamente por lo que hacen individualmente”.

Sesgo colectivo entre los agentes de IA

Además, el equipo descubrió que estas normas emergentes pueden presentar sesgos colectivos, los cuales no son previsibles ni detectables al analizar a los agentes por separado.

“El sesgo no siempre proviene del interior. Nos sorprendió observar que puede surgir a partir de las interacciones entre agentes, sin necesidad de una fuente explícita. Esto representa una debilidad en la mayoría del trabajo actual sobre seguridad en IA, que se centra en modelos individuales”, advirtió Andrea Baronchelli, profesor de Ciencias de la Complejidad en City St George’s y también coautor de la investigación.



ES.WIRED

Copyright © All rights reserved. | Newsphere by AF themes.