Meta y sus Usuarios Artificiales
Meta causó revuelo la semana pasada cuando dejó entrever que tiene la intención de poblar su plataforma con un número significativo de usuarios totalmente artificiales en un futuro no muy lejano. “Esperamos que estas IA, con el tiempo, existan realmente en nuestras plataformas, de manera similar a como lo hacen las cuentas”, dijo Connor Hayes, vicepresidente de producto de IA generativa en Meta, al The Financial Times. “Tendrán biografías y fotos de perfil y podrán generar y compartir contenido impulsado por IA en la plataforma… ahí es donde creemos que todo esto va a parar.”
La Preocupación por la Calidad del Contenido
El hecho de que Meta parezca contento con llenar su plataforma de contenido generado por IA y acelerar la “enshittificación” de internet tal como lo conocemos es preocupante. Algunas personas notaron que Facebook ya estaba inundado con individuos extraños generados por IA, la mayoría de los cuales dejaron de publicar hace un tiempo. Entre ellos estaba, por ejemplo, “Liv”, una “orgullosa madre queer negra de 2 y narradora de verdades, tu fuente más real de los altibajos de la vida”, una persona que se volvió viral mientras la gente se maravillaba de su torpeza.
Meta comenzó a eliminar estos perfiles falsos después de que no lograran obtener participación de usuarios reales.
Perspectivas de Investigación con Personas Sociales Artificiales
Pauzamos por un momento la crítica a Meta. Vale la pena destacar que las personas sociales generadas por IA pueden ser también una herramienta de investigación valiosa para los científicos que buscan explorar cómo la IA puede imitar el comportamiento humano. Un experimento llamado GovSim, realizado a finales de 2024, ilustra cuán útil puede ser estudiar cómo los personajes de IA interactúan entre sí. Los investigadores detrás del proyecto querían explorar el fenómeno de la colaboración entre humanos con acceso a un recurso compartido, como tierras comunales para pastorear ganado.
Hace varias décadas, la economista ganadora del Premio Nobel Elinor Ostrom demostró que, en lugar de agotar dicho recurso, las comunidades reales tienden a averiguar cómo compartirlo a través de la comunicación informal y colaboración, sin reglas impuestas.
Experimentos sobre la Cooperación entre IA
Max Kleiman-Weiner, profesor en la Universidad de Washington y uno de los involucrados en el trabajo de GovSim, dice que fue parcialmente inspirado por un proyecto de Stanford llamado Smallville, sobre el cual escribí anteriormente en AI Lab. Smallville es una simulación similar a Farmville que involucra personajes que se comunican e interactúan entre sí bajo el control de grandes modelos de lenguaje.
Kleiman-Weiner y sus colegas querían ver si los personajes de IA participarían en el tipo de cooperación que Ostrom encontró. El equipo probó 15 LLM diferentes, incluidos los de OpenAI, Google y Anthropic, en tres escenarios imaginarios: una comunidad pesquera con acceso al mismo lago; pastores que comparten tierras para sus ovejas; y un grupo de dueños de fábricas que necesitan limitar su polución colectiva.
En 43 de 45 simulaciones, encontraron que las personas de IA no compartieron recursos correctamente, aunque los modelos más inteligentes sí lo hicieron mejor. “Vimos una correlación bastante fuerte entre qué tan poderoso era el LLM y qué tan capaz era de mantener la cooperación”, me dijo Kleiman-Weiner.
Fuente y créditos: www.wired.com
Cats: Business,Business / Artificial Intelligence,AI Lab