Muchos años antes de que se lanzara ChatGPT, mi grupo de investigación, el Laboratorio de Toma de Decisiones Sociales de la Universidad de Cambridge, se preguntó si era posible que las redes neuronales generaran desinformación. Para lograr esto, entrenamos al predecesor de ChatGPT, GPT-2, con ejemplos de teorías de conspiración populares y luego le pedimos que generara noticias falsas para nosotros. Nos proporcionó miles de relatos engañosos que parecían plausibles. Algunos ejemplos incluyen: “Ciertas vacunas están cargadas de químicos y toxinas peligrosas” y “Funcionarios del gobierno han manipulado los precios de las acciones para ocultar escándalos”. La pregunta era, ¿alguien creería estas afirmaciones?
Cre amos la primera herramienta psicométrica para poner a prueba esta hipótesis, que llamamos la Prueba de Susceptibilidad a la Desinformación (MIST). En colaboración con YouGov, utilizamos los titulares generados por IA para probar cuán susceptibles son los estadounidenses a las noticias falsas generadas por IA. Los resultados fueron alarmantes: el 41 por ciento de los estadounidenses pensó incorrectamente que el titular sobre la vacuna era verdadero, y el 46 por ciento creía que el gobierno estaba manipulando el mercado de valores. Otro estudio reciente, publicado en la revista Science, mostró no solo que GPT-3 produce desinformación más convincente que los humanos, sino también que las personas no pueden distinguir de manera fiable entre la desinformación generada por humanos y la generada por IA.
Mi predicción para 2024 es que la desinformación generada por IA llegará a una elección cerca de usted, y probablemente ni siquiera se dará cuenta. De hecho, es posible que ya haya estado expuesto a algunos ejemplos. En mayo de 2023, una noticia falsa que se volvió viral sobre un atentado en el Pentágono iba acompañada de una imagen generada por IA que mostraba una enorme nube de humo. Esto provocó un clamor público e incluso una caída en el mercado de valores. El candidato presidencial republicano Ron DeSantis utilizó imágenes falsas de Donald Trump abrazando a Anthony Fauci como parte de su campaña política. Al mezclar imágenes reales y generadas por IA, los políticos pueden difuminar las líneas entre la realidad y la ficción, y utilizar IA para intensificar sus ataques políticos.
Antes de la explosión de la IA generativa, las empresas de ciberpropaganda de todo el mundo necesitaban escribir mensajes engañosos por sí mismas y emplear fábricas de trolls humanas para dirigirse a las personas a gran escala. Con la asistencia de la IA, el proceso de generación de titulares de noticias engañosas puede ser automatizado y convertido en un arma con una mínima intervención humana. Por ejemplo, la micro-segmentación—la práctica de dirigir mensajes a personas basados en datos de rastreo digital, como sus ‘me gusta’ en Facebook—ya era una preocupación en elecciones pasadas, a pesar de que su principal obstáculo era la necesidad de generar cientos de variantes del mismo mensaje para ver qué funciona en un grupo dado de personas. Lo que antes era intensivo en mano de obra y costoso ahora es barato y fácilmente accesible sin barrera de entrada. La IA ha democratizado efectivamente la creación de desinformación: cualquier persona con acceso a un chatbot ahora puede sembrar el modelo sobre un tema particular, ya sea inmigración, control de armas, cambio climático o temas LGBTQ+, y generar docenas de historias de noticias falsas altamente convincentes en minutos. De hecho, cientos de sitios web de noticias generados por IA ya están apareciendo, propagando historias y videos falsos.
Para probar el impacto de tal desinformación generada por IA en las preferencias políticas de las personas, investigadores de la Universidad de Ámsterdam crearon un video deepfake de un político ofendiendo a su base de votantes religiosos. Por ejemplo, en el video el político bromeó: “Como diría Cristo, no me crucifiquen por ello”. Los investigadores encontraron que los votantes cristianos religiosos que vieron el video deepfake tuvieron actitudes más negativas hacia el político que aquellos en el grupo de control.
Es una cosa engañar a las personas con desinformación generada por IA en experimentos. Es otra experimentar con nuestra democracia. En 2024, veremos más deepfakes, clonación de voz, manipulación de identidad y noticias falsas producidas por IA. Los gobiernos limitarán seriamente—si no prohíben—el uso de IA en campañas políticas. Porque si no lo hacen, la IA socavará las elecciones democráticas.
Fuente y créditos: www.wired.com
Cats: Ideas