La innovación tecnológica y el dilema de los deepfakes
En la búsqueda de la innovación tecnológica, los defensores de la IA generativa han puesto en manos del ciudadano común herramientas para crear falsificaciones sintéticas altamente realistas y no consensuadas, más comúnmente conocidas como pornografía deepfake. Los anuncios de aplicaciones de “nudificación” pueden aparecer en los laterales de sitios web populares y entre publicaciones de Facebook, mientras que imágenes sexuales manipuladas de figuras públicas se propagan como un tema candente para las masas. El problema ha permeado el ámbito en línea hasta las vidas reales de los usuarios, incluidos los jóvenes. En todo esto están implicados los creadores y distribuidores de IA. Los líderes gubernamentales están atacando el problema mediante esfuerzos legislativos fragmentarios. Los sectores tecnológico y social están equilibrando su responsabilidad hacia los usuarios con la necesidad de innovar. Sin embargo, combatir los deepfakes es un concepto complicado que no se puede resolver simplemente con políticas corporativas.
Un problema alarmante sin solución única
Resolver el problema de los deepfakes se complica por la dificultad de identificarlos y la falta de acuerdo sobre quién es responsable de las falsificaciones sintéticas no consensuadas.
La organización de defensa y investigación, Cyber Civil Rights Initiative, que lucha contra la distribución no consensuada de imágenes íntimas (NDII), define las falsificaciones digitales sexualmente explícitas como cualquier foto o video manipulado que falsamente (y casi indistinguiblemente) representa a una persona real desnuda o involucrada en conductas sexuales. Aunque NDII no implica inherentemente IA (piensa en Photoshop), las herramientas de IA generativa ahora se asocian comúnmente con su capacidad para crear deepfakes, un término acuñado en 2017 que se refiere a cualquier representación visual o auditiva manipulada.
En términos generales, las imágenes “deepfake” pueden referirse a ediciones menores o a una representación completamente irreal de la semejanza de una persona. Algunas pueden ser explícitamente sexuales, pero muchas más no lo son. Pueden ser creadas consensualmente o utilizadas como una forma de Abuso Sexual Basado en Imágenes (IBSA). Pueden ser reguladas desde el momento de su creación a través de políticas y limitaciones impuestas a las herramientas de IA, o ser reguladas después de su creación, mientras se difunden en línea. Podrían incluso ser prohibidas completamente, o limitadas mediante responsabilidades civiles o penales para sus creadores o distribuidores, dependiendo de la intención.
Las respuestas de las empresas tecnológicas
Las empresas han definido la amenaza de los deepfakes no consensuados de manera independiente, eligiendo ver las falsificaciones sintéticas sexuales de varias maneras: como un crimen abordado mediante una vigilancia directa, como una violación de los términos de servicio existentes (como los que regulan la “pornografía de venganza” o la desinformación), o, simplemente, como no siendo su responsabilidad. Aquí hay una lista de algunas de esas empresas, cómo encajan en el panorama y sus propias políticas en torno a los deepfakes.
Anthropic: Los desarrolladores de IA como Anthropic deben responder por los productos y sistemas que se pueden utilizar para generar contenido artificial. Se han mantenido firmes en una política estricta anti-NSFW y prohíben la creación de contenido sexualmente explícito, así como la generación de imágenes de cualquier tipo.
Apple: A diferencia de empresas como Anthropic, los conglomerados tecnológicos desempeñan un papel de anfitrión o distribuidor de contenido sintético. Han enfrentado críticas recientemente por permitir aplicaciones de deepfake explícitas en su App Store, aunque han reforzado las políticas anti-pornografía.
Google: Google actúa como un anfitrión y desarrollador en la creación de imágenes sintéticas. Ha anunciado varios cambios de políticas para mitigar el acceso a y la difusión de contenido sintético no consensuado en sus plataformas.
YouTube: Prioriza la moderación de las subidas de usuarios y proporciona mecanismos de denuncia para las víctimas de falsificaciones. Cualquier contenido explícito destinado a la gratificación sexual no está permitido.
Microsoft: Ofrece herramientas de IA generativa y ha implementado políticas de contenido para prevenir la creación y el intercambio de imágenes íntimas sexuales sin consentimiento.
OpenAI: Ha establecido términos de uso rigurosos para protegerse de los efectos de la utilización de sus modelos de IA, prohibiendo específicamente la generación de pornografía y deepfakes.
Meta (Facebook e Instagram): Aunque está explorando la integración de IA generativa, se ha visto sometida a un intenso escrutinio por no controlar adecuadamente las falsificaciones sintéticas de contenido sexual.
Snapchat y TikTok: Ambas plataformas también han establecido directrices y han prohibido el contenido generado que implique falsificaciones explícitas o sea sexualmente sugerente.
X/Twitter: Recientemente, ha añadido capacidad de generación de imágenes a su chatbot y ha hecho declaraciones sobre permitir contenido consensual, sin especificar el tratamiento de las falsificaciones digitales sexuales.
Esta historia se actualizará periódicamente a medida que las políticas evolucionen.
Fuente y créditos: mashable.com
Cats: Tech