Hoy

    Cómo una victoria de Trump podría desatar una inteligencia artificial peligrosa

    How a Trump Win Could Unleash Dangerous AI

    Requisitos de Informes para Modelos de IA

    Los requisitos de informes son esenciales para alertar al gobierno sobre nuevas capacidades potencialmente peligrosas en modelos de IA cada vez más poderosos, afirma un funcionario del gobierno de EE. UU. que trabaja en asuntos de IA. El funcionario, que solicitó el anonimato para hablar libremente, señala la admisión de OpenAI sobre la “negativa inconsistente” de su último modelo a sintetizar agentes nerviosos. Asegura que el requisito de informes no es excesivamente gravoso y argumenta que, a diferencia de las regulaciones de IA en la Unión Europea y China, la orden ejecutiva de Biden refleja “un enfoque muy amplio y ligero que sigue fomentando la innovación”.

    Opiniones sobre la Orden Ejecutiva de Biden

    Nick Reese, quien fue el primer director de tecnología emergente del Departamento de Seguridad Nacional de 2019 a 2023, rechaza las afirmaciones conservadoras de que el requisito de informes pondrá en peligro la propiedad intelectual de las empresas. Él sostiene que podría beneficiar a las startups al alentarlas a desarrollar modelos de IA “más computacionalmente eficientes” y menos pesados en datos que se encuentren por debajo del umbral de informes. La potencia de la IA hace que la supervisión gubernamental sea imperativa, dice Ami Fields-Meyer, quien ayudó a redactar la orden ejecutiva de Biden como funcionaria tecnológica de la Casa Blanca.

    Preocupaciones sobre el Futuro de la IA

    “Estamos hablando de empresas que dicen que están construyendo los sistemas más poderosos en la historia del mundo”, dice Fields-Meyer. “La primera obligación del gobierno es proteger a las personas. ‘Confía en mí, tenemos esto’ no es un argumento especialmente convincente”. Los expertos alaban la guía de seguridad del NIST como un recurso vital para construir protecciones en la nueva tecnología. Señalan que los modelos de IA defectuosos pueden causar graves daños sociales, incluyendo discriminación en alquileres y préstamos y la pérdida indebida de beneficios gubernamentales.

    La agenda de seguridad de Biden ha sido mayormente bienvenida en la industria de la IA. “Lo que estamos oyendo es que es ampliamente útil tener estas cosas detalladas”, dice el funcionario de EE. UU. Para las nuevas empresas con equipos pequeños, “amplía la capacidad de su personal para abordar estas preocupaciones”.

    Posibles Cambios con un Nuevo Gobierno

    Deshacer la orden ejecutiva de Biden enviaría una señal alarmante de que “el gobierno de EE. UU. va a adoptar un enfoque de laissez-faire respecto a la seguridad de la IA”, dice Michael Daniel, un exasesor cibernético presidencial que ahora dirige la Cyber Threat Alliance, una organización sin fines de lucro para el intercambio de información. En cuanto a la competencia con China, los defensores de la orden ejecutiva sostienen que las reglas de seguridad ayudarán a EE. UU. a prevalecer al asegurar que los modelos de IA estadounidenses funcionen mejor que sus rivales chinos y estén protegidos contra el espionaje económico de Beijing.

    Si Trump gana la Casa Blanca el próximo mes, se espera un cambio radical en cómo el gobierno aborda la seguridad de la IA. Los republicanos quieren prevenir los daños de la IA aplicando “las leyes existentes de responsabilidad civil y estatutarias” en lugar de promulgar nuevas restricciones amplias sobre la tecnología, asegura Helberg, y favorecen “un enfoque mucho mayor en maximizar la oportunidad que ofrece la IA, en lugar de centrarse en la mitigación de riesgos”. Eso probablemente signifique el doom para el requisito de informes y posiblemente algunas de las directrices del NIST.

    El requisito de informes también podría enfrentar desafíos legales ahora que la Corte Suprema ha debilitado la deferencia que los tribunales solían otorgar a las agencias al evaluar sus regulaciones. Y la oposición del Partido Republicano podría incluso poner en peligro las asociaciones de pruebas de IA voluntarias del NIST con empresas líderes. “¿Qué sucede con esos compromisos en una nueva administración?”, pregunta el funcionario de EE. UU.

    Esta polarización en torno a la IA ha frustrado a los tecnólogos que temen que Trump socave la búsqueda de modelos más seguros. “Junto con las promesas de la IA hay peligros”, dice Nicol Turner Lee, directora del Centro de Innovación Tecnológica de Brookings, “y es vital que el próximo presidente continúe garantizando la seguridad de estos sistemas.”

    Fuente y créditos: www.wired.com

    Cats: Security

    Deja un comentario

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


    Mi resumen de noticias

    WhatsApp