Abuso de imágenes íntimas: El problema del software de código abierto
“Cuando miramos el abuso de imágenes íntimas, la gran mayoría de las herramientas y usos malintencionados provienen del espacio de código abierto”, dice Ajder. Pero a menudo, estos comienzan con desarrolladores bien intencionados. “Alguien crea algo que piensa que es interesante o genial y alguien con malas intenciones reconoce su potencial malicioso y lo convierte en un arma.”
Comunidades en torno a herramientas específicas
Algunas, como el repositorio deshabilitado en agosto, tienen comunidades diseñadas para usos explícitos. Este modelo se posicionó como una herramienta para pornografía de deepfake, afirma Ajder, convirtiéndose en un “embudo” para el abuso, que principalmente afecta a mujeres. Otros videos subidos a un sitio de pornografía por una cuenta que acredita modelos de inteligencia artificial descargados de GitHub presentaron las caras de objetivos populares de deepfake, como las celebridades Emma Watson, Taylor Swift y Anya Taylor-Joy, así como otras mujeres reales menos conocidas, superpuestas en situaciones sexuales.
Desafíos para la prevención de deepfakes
Los creadores describieron libremente las herramientas que utilizaron, incluyendo dos que fueron eliminadas por GitHub pero cuyo código sobrevive en otros repositorios existentes. Los perpetradores en busca de deepfakes se congregan en muchos lugares en línea, incluyendo foros comunitarios encubiertos en Discord y a la vista en Reddit, lo que complica los intentos de prevención de deepfakes. Un usuario de Reddit ofreció sus servicios utilizando el software del repositorio archivado el 29 de septiembre. “¿Podría alguien hacer a mi prima?”, preguntó otro.
La dificultad de regular el software de código abierto
Torrentes del repositorio principal prohibido por GitHub en agosto también están disponibles en otros rincones de la web, mostrando cuán difícil es controlar el software de deepfake de código abierto en general. Otras herramientas de pornografía deepfake, como la aplicación DeepNude, también han sido eliminadas antes de que nuevas versiones aparecieran. “Hay tantos modelos, tantas bifurcaciones diferentes en los modelos, tantas versiones diferentes, puede ser difícil rastrearlas todas”, dice Elizabeth Seger, directora de política digital en el think tank británico Demos. “Una vez que un modelo se hace disponible públicamente como código abierto, no hay forma de revertirlo públicamente,” añade.
Consecuencias del contenido abusivo
Un creador de pornografía de deepfake con 13 videos explícitos manipulados de celebridades femeninas acreditó un repositorio destacado de GitHub comercializado como una versión “NSFW” de otro proyecto que fomentaba el uso responsable y pedía explícitamente a los usuarios que no lo usaran para desnudos. “Aprendiendo todo el Face Swap AI de GitHub, sin usar servicios en línea,” dice su perfil en el sitio. GitHub ya había deshabilitado esta versión NSFW cuando WIRED identificó los videos deepfake. Pero otros repositorios marcaron como versiones “desbloqueadas” del modelo estaban disponibles en la plataforma el 10 de enero, incluyendo uno con 2,500 “estrellas”.
Posibilidades de control y legislación
“Es técnicamente cierto que una vez que [un modelo está] ahí no se puede revertir. Pero aún podemos hacer más difícil que las personas accedan a ello,” dice Seger. Si se deja sin control, agrega, el potencial de daño de la “pornografía” deepfake no es solo psicológico. Sus efectos colaterales incluyen la intimidación y manipulación de mujeres, minorías y políticos, como se ha visto con deepfakes políticos que afectan a políticas a nivel mundial. Pero no es demasiado tarde para controlar el problema, y plataformas como GitHub tienen opciones, dice Seger, incluyendo intervenir en el punto de carga. “Si pones un modelo en GitHub y GitHub dice no, y todas las plataformas de alojamiento dicen no, para una persona normal se vuelve más difícil obtener ese modelo.”
Controlar la pornografía deepfake hecha con modelos de código abierto también depende de los responsables de políticas, empresas tecnológicas, desarrolladores y, por supuesto, creadores de contenido abusivo. Al menos 30 estados de EE. UU. tienen alguna legislación que aborda la pornografía deepfake, incluyendo prohibiciones, según el rastreador de legislación de la organización sin fines de lucro Public Citizen, aunque las definiciones y políticas son dispares, y algunas leyes cubren solo a menores. Los creadores de deepfake en el Reino Unido también pronto sentirán el peso de la ley después de que el gobierno anunciara la criminalización de la creación de deepfakes explícitos sexualmente, así como su difusión, el 7 de enero.
Fuente y créditos: www.wired.com
Cats: Business