El sesgo político en modelos de IA
Mittelsteadt añade que Trump podría castigar a las empresas de diversas maneras. Cita, por ejemplo, cómo el gobierno de Trump canceló un importante contrato federal con Amazon Web Services, una decisión que probablemente fue influenciada por la opinión del expresidente sobre el Washington Post y su propietario, Jeff Bezos. No sería difícil para los legisladores señalar evidencia de sesgo político en los modelos de IA, incluso si afecta en ambas direcciones.
Estudios sobre sesgos en IA
Un estudio de 2023 realizado por investigadores de la Universidad de Washington, la Universidad Carnegie Mellon y la Universidad Jiaotong de Xi’an encontró una variedad de inclinaciones políticas en diferentes modelos de lenguaje grande. También mostró cómo este sesgo puede afectar el rendimiento de los sistemas de detección de discursos de odio o desinformación. Otro estudio, llevado a cabo por investigadores de la Universidad de Ciencia y Tecnología de Hong Kong, encontró sesgo en varios modelos de IA de código abierto sobre temas polarizantes como la inmigración, los derechos reproductivos y el cambio climático. Yejin Bang, una candidata a doctorado involucrada en el trabajo, dice que la mayoría de los modelos tienden a inclinarse hacia el liberalismo y son centrados en EE. UU., pero que los mismos modelos pueden expresar una variedad de sesgos liberales o conservadores dependiendo del tema.
El impacto del entrenamiento en modelos de IA
Los modelos de IA capturan sesgos políticos porque son entrenados en grandes cantidades de datos de internet que inevitablemente incluyen todo tipo de perspectivas. La mayoría de los usuarios puede no ser consciente de ningún sesgo en las herramientas que utilizan porque los modelos incorporan barreras que restringen la generación de contenido dañino o sesgado. Sin embargo, estos sesgos pueden filtrarse sutilmente, y el entrenamiento adicional que reciben los modelos para restringir su salida puede introducir un mayor partidismo. “Los desarrolladores podrían asegurar que los modelos estén expuestos a múltiples perspectivas sobre temas divisivos, permitiéndoles responder con un punto de vista equilibrado”, dice Bang.
El futuro de los sesgos en la IA
El problema podría agravarse a medida que los sistemas de IA se vuelvan más omnipresentes, dice Ashique KhudaBukhsh, un científico informático del Instituto de Tecnología de Rochester que desarrolló una herramienta llamada el Marco del Hueco de Toxicidad, que resalta los diferentes sesgos sociales de los modelos de lenguaje grande. “Tememos que un ciclo vicioso esté a punto de comenzar, ya que nuevas generaciones de LLMs serán cada vez más entrenadas en datos contaminados por contenido generado por IA”, afirma. “Estoy convencido de que ese sesgo dentro de los LLMs ya es un problema y probablemente será un aún más grande en el futuro”, dice Luca Rettenberger, un investigador postdoctoral en el Instituto de Tecnología de Karlsruhe que realizó un análisis de los LLMs en búsqueda de sesgos relacionados con la política alemana. Rettenberger sugiere que los grupos políticos también pueden buscar influir en los LLMs para promover sus propios puntos de vista sobre los de otros. “Si alguien es muy ambicioso y tiene intenciones maliciosas, podría ser posible manipular los LLMs hacia ciertas direcciones”, dice. “Veo la manipulación de los datos de entrenamiento como un peligro real.”
Intentos de contrarrestar el sesgo
Ya ha habido algunos esfuerzos para cambiar el equilibrio del sesgo en los modelos de IA. El pasado marzo, un programador desarrolló un chatbot con una inclinación más a la derecha en un esfuerzo por resaltar los sesgos sutiles que vio en herramientas como ChatGPT. Musk ha prometido hacer de Grok, el chatbot de IA creado por xAI, “lo más buscador de la verdad posible” y menos sesgado que otras herramientas de IA, aunque en la práctica también se muestra cauteloso ante preguntas políticas complicadas. (Un firme partidario de Trump y halcón de inmigración, la propia visión de Musk de “menos sesgado” puede también traducirse en resultados más inclinados a la derecha.) Las elecciones de la próxima semana en Estados Unidos probablemente no sanarán la discordia entre demócratas y republicanos, pero si Trump gana, el discurso sobre la IA anti-woke podría hacerse mucho más fuerte. Musk ofreció una perspectiva apocalíptica sobre el tema en el evento de esta semana, al referirse a un incidente en el que el Gemini de Google afirmó que la guerra nuclear sería preferible a malgendar a Caitlyn Jenner. “Si tienes una IA que está programada para cosas así, podría concluir que la mejor manera de asegurarse de que nadie sea malgenerado es aniquilar a todos los humanos, haciendo así que la probabilidad de un futuro malgendar sea cero”, dijo.
Fuente y créditos: www.wired.com
Cats: Business