¿Sugerió Barack Obama que los demócratas estaban detrás del intento de asesinato fallido de Donald Trump?
Circulan varias grabaciones de audio en EE. UU., que supuestamente muestran a Obama conversando con su ex asesor, David Axelrod, sobre las próximas elecciones presidenciales. En uno de los fragmentos, una voz que suena como la de Obama dice: “Era su única oportunidad y estos idiotas la perdieron. Si tan solo pudieran deshacerse de Trump, garantizaríamos su victoria contra cualquier candidato republicano”.
Sin embargo, el audio ha sido identificado como falso, lo que significa que Obama nunca dijo eso. En realidad, el audio fue generado sintéticamente con la ayuda de inteligencia artificial (IA).
NewsGuard, una organización que vigila la desinformación y los medios en EE. UU., publicó un análisis de las grabaciones. Utilizó múltiples herramientas de detección de IA y entrevistó a un experto en forenses digitales antes de concluir que eran falsificaciones. También habló con un portavoz de Obama, quien confirmó que no eran auténticas.
No solo Obama ha sido víctima de deepfakes de su voz. A principios de este año, se conoció un audio generado por IA de la voz del presidente Joe Biden instando a los votantes en las primarias de New Hampshire a no votar.
Este problema no se limita a EE. UU. El año pasado, poco antes de las elecciones en Eslovaquia, se hizo público un deepfake de audio imitando al líder del partido liberal, Michal Simecka. En el Reino Unido, el alcalde de Londres, Sadiq Khan, también cayó víctima de una grabación falsa de IA en la que supuestamente hacía comentarios controvertidos.
Deepfakes: Manipulando elecciones con IA
Los deepfakes de audio se han convertido en una amenaza significativa de desinformación, especialmente en tiempos de incertidumbre política, como durante las elecciones. Los audios generados por IA pueden ser particularmente dañinos en los ciclos electorales porque son fáciles de crear y difundir.
“Requieren menos datos de entrenamiento y poder de cómputo en comparación con los deepfakes de video para producir resultados casi realistas”, decía Anna Schild, experta en medios y comunicación del equipo de Innovación de DW. Ha estado examinando el impacto de los deepfakes de audio y explica por qué están creciendo rápidamente en popularidad.
Su aplicabilidad versátil, desde llamadas robóticas hasta mensajes de voz y voces en off en video, ofrece muchos canales de difusión diferentes. Además, los deepfakes de audio son más difíciles de detectar que otras formas de desinformación. “Los falsos audios son un poco más difíciles de reconocer que los deepfakes de video porque simplemente tenemos menos pistas”, señala Nicolas Müller, ingeniero de aprendizaje automático en el Instituto Fraunhofer de Alemania.
¿Qué hacer ante audios sospechosos?
Entonces, ¿qué pueden hacer los usuarios si encuentran un archivo de audio que sienten que pudo haber sido creado por IA? Una solución podría ser combinar técnicas de verificación estándar con el uso de software de IA especializado en identificar deepfakes de audio.
Una forma de verificar si las grabaciones de audio son reales o no es comprobar el archivo en busca de patrones que podrían indicar interferencia de IA. En el ejemplo mencionado de Barack Obama, eso significaría comparar el archivo sospechoso con una pista de audio conocida y verificada de su voz para encontrar cualquier posible desviación de su forma habitual de hablar.
Además, mirar más de cerca el audio también podría implicar buscar ruido de fondo o sonidos poco naturales. Encontrar estas pistas puede ser difícil para oyentes no entrenados, pero se han diseñado varias herramientas para ayudar a las personas a practicar el reconocimiento de este tipo de desinformación.
Usando herramientas de IA para combatir la desinformación
Una capa adicional de verificación implica usar software respaldado por IA entrenado para detectar deepfakes de audio. En nuestro ejemplo con la voz sintética de Obama, NewsGuard utilizó verificadores de deepfakes que pueden responder a solicitudes de verificación en la plataforma de redes sociales X (anteriormente Twitter).
El Instituto Fraunhofer, por su parte, desarrolló Deepfake Total, una plataforma donde los usuarios pueden subir archivos de audio sospechosos para ser analizados. Todos los archivos subidos reciben una calificación con un puntaje en un “falso-metro”, que indica la probabilidad de que el archivo sea artificial.
Es importante, sin embargo, enfatizar que las herramientas para detectar deepfakes no son infalibles. Mientras pueden estimar la probabilidad de que un archivo sea generado por IA, no siempre son correctas, por lo que esas herramientas deben utilizarse con precaución, como un paso más en el proceso de verificación. Esto podría incluir navegar por sitios de verificación de hechos y plataformas para ver si el audio en cuestión ya ha sido desmentido por otros verificadores de hechos.
Varias organizaciones de medios también han desarrollado herramientas para identificar deepfakes de audio, como VerificAudio, de PRISA Media, que busca detectar falsificaciones en el mundo de habla hispana.
Jose Gutiérrez de PRISA Media explicó a DW que la herramienta se basa en dos procesos guiados por IA: mientras que el primero compara archivos de audio sospechosos con grabaciones auténticas de la misma persona, el segundo analiza características acústicas como ancho de banda, tono, frecuencia y textura del sonido.
Revisando el contexto
Si todo esto parece demasiado complicado o técnico, enfocarse en habilidades de verificación más tradicionales que no se limitan a grabaciones de audio también puede ayudar a identificar deepfakes de audio. El equipo de Innovación de DW sugiere “alejarse” para revisar contenidos, fuentes y cualquier otra información relevante sobre el archivo en cuestión. Algunos consejos útiles incluyen comparar el contenido del audio con hechos conocidos, revisar los canales de redes sociales de la persona y buscar contexto adicional en fuentes de noticias confiables.
Al final, se trata de utilizar una mezcla de técnicas. Como señala DW Innovation, “no hay una solución única que pueda ayudar a detectar cualquier forma de manipulación en el audio”.
Fuente y créditos: www.dw.com
Cats: TOP STORIES