La urgencia de regular la inteligencia artificial
La inteligencia artificial avanza rápidamente. Ahora puede imitar a los humanos de manera lo suficientemente convincente como para alimentar enormes estafas telefónicas o generar imágenes deepfake no consensuadas de celebridades utilizadas en campañas de acoso. La urgencia de regular esta tecnología nunca ha sido más crítica, por lo que California, hogar de muchos de los principales actores de la IA, está tratando de hacerlo con un proyecto de ley conocido como SB 1047.
Detalles del proyecto de ley SB 1047
SB 1047, que pasó por la Asamblea del Estado de California y el Senado a finales de agosto, ahora está en el escritorio del Gobernador de California, Gavin Newsom, quien determinará el destino del proyecto. Mientras que la UE y otros gobiernos han estado trabajando en la regulación de la IA durante años, SB 1047 sería el marco más estricto en EE. UU. hasta ahora. Los críticos han pintado un cuadro casi apocalíptico de su impacto, calificándolo como una amenaza para startups, desarrolladores de código abierto y académicos. Los partidarios lo llaman una salvaguarda necesaria para una tecnología potencialmente peligrosa y una corrección a años de falta de regulación.
Reacciones de los actores clave de la IA
La versión original de SB 1047 fue audaz y ambiciosa. Introducida por el senador estatal Scott Wiener como la Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera de California, se propuso regular estrictamente los modelos avanzados de IA con una cantidad suficiente de poder computacional, alrededor del tamaño de los mayores sistemas de IA de hoy (10^26 FLOPS). El proyecto requería que los desarrolladores de estos modelos de frontera realizaran pruebas de seguridad exhaustivas e incluyeran evaluaciones de terceros. Los desarrolladores también debían implementar un “interruptor de emergencia” para apagar modelos rebeldes y reportar incidentes de seguridad a una nueva agencia regulatoria.
Aún así, este proyecto ha encontrado resistencia significativa en partes de la industria tecnológica.
Cambios en la propuesta original
Como resultado de las críticas, el segundo borrador de SB 1047 fue significativamente más suave, aprobándose el 15 de agosto. En esta nueva versión, se eliminó la agencia reguladora propuesta y el procurador general ya no podía demandar a los desarrolladores por incidentes de seguridad importantes. En lugar de someter certificaciones de seguridad bajo la amenaza de perjurio, los desarrolladores ahora solo necesitan proporcionar “declaraciones” públicas sobre sus prácticas de seguridad, sin responsabilidad penal.
Aun así, eso no significa que la ley no valga la pena, según sus partidarios. Incluso en su forma debilitada, si SB 1047 “hace que incluso una compañía de IA reflexione sobre sus acciones, o tome más en serio la alineación de los modelos de IA con los valores humanos, será para bien”, escribió Gary Marcus, profesor emérito de psicología y ciencia neural en NYU.
Presión sobre el Gobernador Newsom
Sin embargo, Newsom ha permanecido notablemente callado sobre el proyecto. No es ninguna noticia que regular la tecnología siempre ha implicado un grado de maniobra política, y mucho de esto se evidencia en el enfoque reservado de Newsom sobre esta regulación controvertida. En California, hogar de algunas de las compañías tecnológicas más grandes del mundo, los ejecutivos tecnológicos influyentes también son grandes donantes para campañas políticas. Mientras los legisladores intentan encontrar un equilibrio delicado entre regulación e innovación, la IA es nebulosa y sin precedentes, y muchas de las viejas reglas parecen no aplicarse.
Por ahora, Newsom tiene hasta septiembre para tomar una decisión que podría revolucionar la industria de la IA tal como la conocemos.
Fuente y créditos: www.theverge.com
Cats: