Aumentando la Seguridad de la IA
OpenAI y Anthropic han acordado permitir que el gobierno de EE. UU. acceda a nuevos modelos de IA importantes antes de su lanzamiento para ayudar a mejorar su seguridad. Las empresas firmaron memorandos de entendimiento con el Instituto de Seguridad de IA de EE. UU. para proporcionar acceso a los modelos tanto antes como después de su lanzamiento público, anunció la agencia el jueves. El gobierno afirma que este paso les ayudará a trabajar juntos para evaluar los riesgos de seguridad y mitigar posibles problemas.
Colaboración Internacional
La agencia estadounidense indicó que proporcionará retroalimentación sobre mejoras de seguridad, en colaboración con su agencia homóloga en el Reino Unido. Compartir el acceso a los modelos de IA es un paso significativo en un momento en que los legisladores federal y estatales están considerando qué tipo de restricciones colocar sobre la tecnología sin sofocar la innovación.
Nueva Legislación en California
El miércoles, los legisladores de California aprobaron la Ley de Innovación Segura y Segura para Modelos Avanzados de Inteligencia Artificial (SB 1047), que requiere que las empresas de IA en California adopten medidas de seguridad específicas antes de entrenar modelos de base avanzados. Esta ley ha enfrentado resistencia por parte de empresas de IA, incluidos OpenAI y Anthropic, que advierten que podría perjudicar a los desarrolladores más pequeños de código abierto, aunque desde entonces ha experimentado algunos cambios y aún está esperando la firma del gobernador Gavin Newsom.
Una Nueva Era para la IA
La directora del Instituto de Seguridad de IA de EE. UU., Elizabeth Kelly, declaró en un comunicado que los nuevos acuerdos son “solo el comienzo, pero son un hito importante a medida que trabajamos para ayudar a gestionar de manera responsable el futuro de la IA”.
Fuente y créditos: www.theverge.com
Cats: