Los demócratas presionan a Sam Altman sobre el historial de seguridad de OpenAI.

Jerome Powell Testifies Before Senate Banking Committee

Preocupaciones sobre las prácticas de seguridad de OpenAI

“Dada la discrepancia entre sus comentarios públicos y los informes sobre las acciones de OpenAI, solicitamos información sobre las protecciones para denunciantes y conflictos de interés de OpenAI para comprender si es necesaria una intervención federal”, escribieron Warren y Trahan en una carta compartida exclusivamente con The Verge. Los legisladores citaron varias instancias en las que los procedimientos de seguridad de OpenAI han sido cuestionados. Por ejemplo, mencionaron que en 2022, una versión no publicada de GPT-4 estaba siendo probada en una nueva versión del motor de búsqueda de Microsoft Bing en India antes de recibir la aprobación de la junta de seguridad de OpenAI. También recordaron la breve destitución del CEO de OpenAI, Sam Altman, en 2023 debido a preocupaciones de la junta, en parte, “sobre la comercialización de avances antes de entender las consecuencias”.

Respuesta de OpenAI a las preocupaciones

La carta de Warren y Trahan a Altman llega en un momento en que la compañía se ve afectada por una larga lista de preocupaciones de seguridad, que a menudo están en desacuerdo con las declaraciones públicas de la empresa. Por ejemplo, una fuente anónima le dijo a The Washington Post que OpenAI apresuró las pruebas de seguridad, el equipo de Superalignment (que era parcialmente responsable de la seguridad) fue disuelto y un ejecutivo de seguridad renunció, alegando que “la cultura y los procesos de seguridad han pasado a un segundo plano frente a productos atractivos”. Lindsey Held, portavoz de OpenAI, negó las afirmaciones del informe de The Washington Post, diciendo que la compañía “no escatimó esfuerzos en nuestro proceso de seguridad, aunque reconocemos que el lanzamiento fue estresante para nuestros equipos”. Otros legisladores también han buscado respuestas sobre las prácticas de seguridad de la empresa, incluyendo a un grupo de senadores liderados por Brian Schatz (D-HI) en julio. Warren y Trahan solicitaron mayor claridad sobre las respuestas de OpenAI a ese grupo, incluida la creación de una nueva “Línea de Integridad” para que los empleados informen sus preocupaciones.

Iniciativas recientes de OpenAI

Mientras tanto, OpenAI parece estar a la ofensiva. En julio, la compañía anunció una asociación con el Laboratorio Nacional de Los Álamos para explorar cómo los modelos de IA avanzada pueden ayudar de manera segura en la investigación bioscientífica. La semana pasada, Altman anunció a través de X que OpenAI está colaborando con el Instituto de Seguridad de Inteligencia Artificial de EE. UU. y enfatizó que el 20 por ciento de los recursos informáticos de la compañía se dedicarán a la seguridad (una promesa originalmente hecha al ahora extinto equipo de Superalignment). En la misma publicación, Altman dijo que OpenAI ha eliminado cláusulas de no difamación para empleados y disposiciones que permitían la cancelación de acciones adquiridas, un tema clave en la carta de Warren y Trahan.

Solicitud de más información sobre la seguridad de la IA

Warren y Trahan pidieron a Altman que proporcionara información sobre cómo se está utilizando la nueva línea de atención para la seguridad de la IA para empleados y cómo la empresa sigue los informes. También solicitaron “una contabilidad detallada” de todas las ocasiones en que los productos de OpenAI han “eludido los protocolos de seguridad” y en qué circunstancias se permitiría que un producto omitiera una revisión de seguridad. Los legisladores también están buscando información sobre la política de conflictos de OpenAI. Preguntaron a Altman si se le ha requerido desinvertir en algún activo externo y “qué protecciones específicas están en su lugar para proteger a OpenAI de sus conflictos de interés financieros”. Solicitaron que Altman respondiera antes del 22 de agosto.

Warren también señala lo vocal que ha sido Altman acerca de sus preocupaciones sobre la IA. El año pasado, frente al Senado, Altman advirtió que las capacidades de la IA podrían ser “significativamente desestabilizadoras para la seguridad pública y la seguridad nacional” y enfatizó la imposibilidad de anticipar cada posible abuso o fallo de la tecnología. Estas advertencias parecieron resonar en los legisladores; en el estado natal de OpenAI, California, el senador estatal Scott Wiener está impulsando un proyecto de ley para regular los modelos de lenguaje de gran tamaño, incluidas restricciones que harían que las empresas sean legalmente responsables si su IA se utiliza de maneras perjudiciales.

Fuente y créditos: www.theverge.com

Cats:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Mi resumen de noticias

WhatsApp