OpenAI lanza una junta de seguridad ‘independiente’ que puede detener el lanzamiento de sus modelos

Vector illustration of the ChatGPT logo.

OpenAI establece un comité de supervisión de seguridad independiente

OpenAI está transformando su Comité de Seguridad en un “Comité de Supervisión de la Junta” independiente que tiene la autoridad para retrasar lanzamientos de modelos debido a preocupaciones de seguridad, según una publicación en el blog de OpenAI. El comité hizo la recomendación de crear la junta independiente tras una reciente revisión de 90 días de los “procesos y salvaguardas relacionados con la seguridad y la protección” de OpenAI.

Composición del nuevo comité

El comité, presidido por Zico Kolter e integrado por Adam D’Angelo, Paul Nakasone y Nicole Seligman, “será informado por la dirección de la empresa sobre las evaluaciones de seguridad para los lanzamientos importantes de modelos y, junto con la junta completa, ejercerá supervisión sobre los lanzamientos de modelos, incluyendo la autoridad para retrasar un lanzamiento hasta que se aborden las preocupaciones de seguridad”, afirma OpenAI. La junta directiva completa de OpenAI también recibirá “informes periódicos” sobre “asuntos de seguridad y protección”.

Independencia y estructura del comité

Los miembros del comité de seguridad de OpenAI también forman parte de la junta directiva más amplia de la compañía, por lo que no está claro cuán independiente es el comité o cómo se estructura esa independencia. (El CEO Sam Altman formó parte del comité anteriormente, pero ya no está.) Hemos solicitado un comentario a OpenAI.

Aproximación similar a la Junta de Supervisión de Meta

Al establecer una junta de seguridad independiente, parece que OpenAI está adoptando un enfoque algo similar al de la Junta de Supervisión de Meta, que revisa algunas de las decisiones de política de contenido de Meta y puede emitir fallos que Meta debe seguir. Ninguno de los miembros de la Junta de Supervisión está en la junta directiva de Meta.

La revisión del Comité de Seguridad y Protección de OpenAI también ayudó a “identificar oportunidades adicionales para la colaboración en la industria y el intercambio de información para avanzar en la seguridad de la industria de la IA.” La empresa también afirma que buscará “más formas de compartir y explicar nuestro trabajo de seguridad” y “más oportunidades para pruebas independientes de nuestros sistemas.”

Actualización, 16 de septiembre: Se añadió que Sam Altman ya no forma parte del comité.

Fuente y créditos: www.theverge.com

Cats:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Mi resumen de noticias

WhatsApp