Cosinski y la Comprensión de la Mente en la IA
Michal Kosinski es un psicólogo de investigación en Stanford con una especial habilidad para identificar temas de actualidad. Él ve su trabajo como un avance en el conocimiento y una alerta al mundo sobre los peligros potenciales ocasionados por los sistemas de computación. Sus proyectos más conocidos implicaron analizar cómo Facebook (ahora Meta) adquirió un entendimiento sorprendentemente profundo de sus usuarios a partir de cada “me gusta” que daban en la plataforma. Ahora ha cambiado su enfoque al estudio de las capacidades sorprendentes que puede tener la inteligencia artificial (IA).
Investigación sobre GTP-4 y la Teoría de la Mente
Kosinski ha llevado a cabo experimentos que indican que las computadoras podrían predecir la sexualidad de una persona al analizar una foto digital de su rostro. Me he familiarizado con Kosinski a través de mis escritos sobre Meta y me volví a conectar con él para discutir su último artículo, publicado esta semana en las Actas de la Academia Nacional de Ciencias. Su conclusión es impactante. Modelos de lenguaje grandes, como los de OpenAI, han cruzado una frontera y utilizan técnicas análogas al pensamiento humano, una habilidad considerada anteriormente un dominio exclusivo de los seres humanos (o al menos de los mamíferos). Específicamente, probó GPT-3.5 y GPT-4 para ver si habían dominado lo que se llama “teoría de la mente,” que es la capacidad de los humanos, desarrollada en la infancia, para entender los procesos de pensamiento de otros humanos.
Implicaciones de los Modelos de Lenguaje
Kosinski señala que si un sistema informático no puede interpretar correctamente lo que piensa la gente, su comprensión del mundo será limitada y cometerá muchos errores. Si estos modelos poseen la teoría de la mente, estarán un paso más cerca de igualar e incluso superar las capacidades humanas. Kosinski sometió a los modelos de lenguaje a pruebas y ahora afirma que sus experimentos muestran que en GPT-4 en particular, una capacidad similar a la teoría de la mente “puede haber surgido como un subproducto no intencionado de las habilidades lingüísticas en mejora de los modelos de lenguaje… Significan la llegada de una IA más poderosa y socialmente hábil.”
Preocupaciones sobre la IA y la Personalidad
Kosinski ve su trabajo en IA como una continuación natural de su estudio previo de los “me gusta” en Facebook. “No estaba realmente estudiando redes sociales, estaba estudiando humanos,” dice. A medida que OpenAI y Google comenzaron a construir sus últimos modelos de IA generativa, creyeron que estaban entrenándolos principalmente para manejar el lenguaje. “Pero en realidad entrenaron un modelo de la mente humana, porque no puedes predecir qué palabra voy a decir a continuación sin modelar mi mente.” Kosinski es cuidadoso al no afirmar que los modelos de lenguaje han dominado por completo la teoría de la mente; en sus experimentos presentó algunos problemas clásicos a los chatbots, algunos de los cuales resolvieron muy bien. Sin embargo, incluso el modelo más sofisticado, GPT-4, falló un 25% de las veces. Los éxitos, escribe, colocan a GPT-4 en un nivel comparable al de niños de 6 años, lo cual no está mal, considerando el estado inicial del campo.
“Si la teoría de la mente emergió espontáneamente en esos modelos, también sugiere que otras habilidades pueden surgir a continuación,” me dice. “Pueden ser mejores para educar, influir y manipularnos gracias a esas habilidades.” Está preocupado de que no estemos realmente preparados para modelos de lenguaje que entiendan cómo piensan los humanos. Especialmente si llegan al punto en que entienden a los humanos mejor de lo que los propios humanos lo hacen.
“Nosotros, los humanos, no simulamos la personalidad; tenemos personalidad,” afirma. “Así que estoy un poco atrapado con mi personalidad. Estas cosas modelan la personalidad. Hay una ventaja en que pueden tener cualquier personalidad que deseen en cualquier momento.” Cuando le menciono a Kosinski que parece que está describiendo a un sociópata, se ilumina. “¡Uso eso en mis charlas!” dice. “Un sociópata puede ponerse una máscara; no están realmente tristes, pero pueden representar a una persona triste.” Este poder camaleónico podría hacer de la IA un estafador superior, sin remordimientos.
Fuente y créditos: www.wired.com
Cats: Business