Hoy

    OpenAI Sora está restringiendo las representaciones de personas debido a preocupaciones de seguridad.

    OpenAI Sora is restricting depictions of people due to safety concerns

    Limitaciones en la representación de personas en Sora

    OpenAI Sora está limitando las representaciones de personas reales y tomando otras medidas de seguridad estrictas para prevenir el mal uso. El generador de video, que fue anunciado el lunes como parte de su evento de 12 Días de OpenAI, cuenta con diversas capacidades de edición para que los usuarios creen y personalicen videos generados por IA. Sin embargo, hay ciertas cosas que no se pueden hacer con Sora, como los usuarios pronto descubrieron.

    Control de la creación de videos

    Según su tarjeta del sistema, “la capacidad de subir imágenes de personas estará disponible para un subconjunto de usuarios”, lo que significa que la mayoría de los usuarios no pueden crear videos de personas basándose en una imagen subida. Estos usuarios forman parte de un “piloto de semejanza” que OpenAI está probando con un grupo selecto. Un portavoz de OpenAI declaró que los videos generados por IA de personas están limitados para “abordar las preocupaciones alrededor de la apropiación de la semejanza y los deepfakes.” OpenAI “monitoreará activamente los patrones de mal uso, y cuando se encuentre, eliminaremos el contenido, tomaremos las acciones apropiadas con los usuarios, y utilizaremos estas primeras lecciones para iterar sobre nuestro enfoque de seguridad”, continuó el portavoz.

    Medidas contra el mal uso

    Limitar la representación de personas en los videos de Sora tiene sentido desde el punto de vista de la responsabilidad. Hay muchas formas en que la herramienta podría ser mal utilizada: deepfakes no consensuales, la representación de menores, estafas y desinformación, por nombrar algunas. Para combatir esto, Sora ha sido entrenada para rechazar ciertas solicitudes de prompts de texto o imágenes subidas. Rechazará solicitudes para contenido NSFW (No Seguro Para el Trabajo) y NCII (Imágenes Íntimas No Consentidas), así como la generación de niños realistas, aunque se permiten imágenes ficticias. OpenAI ha añadido metadatos C2PA a todos los videos de Sora y ha hecho que una marca de agua visible sea la predeterminada, aunque se puede eliminar, y ha implementado una búsqueda inversa de imágenes interna para evaluar la procedencia del video. A pesar de que se han implementado muchas medidas para prevenir el mal uso, la pregunta de cómo responderá Sora a pruebas de estrés masivas sigue en pie. Actualmente, el acceso a Sora está disponible debido a la alta demanda.

    Fuente y créditos: mashable.com

    Cats: Tech

    Deja un comentario

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


    Mi resumen de noticias

    WhatsApp