Hoy

    Cumbre de IA en París: Regulación, innovación y dominio de EE. UU. en la agenda | Noticias de Ciencia, Clima y Tecnología

    View of the logo of the Artificial Intelligence (AI) Action Summit at the Grand Palais in Paris, France, February 10, 2025. REUTERS/Benoit Tessier

    Cumbres de líderes mundiales sobre inteligencia artificial en París

    Líderes de estado y jefes tecnológicos se están reuniendo, con algunos intentando romper la dominación de Estados Unidos y China en la inteligencia artificial. Altos funcionarios gubernamentales y científicos de alrededor de 100 países se encuentran en París para el AI Action Summit, que discutirá el futuro de la inteligencia artificial.

    Co-organizado por el primer ministro indio Narendra Modi, los invitados de la cumbre también incluyen al vicepresidente de EE. UU., JD Vance, al primer ministro de Canadá, Justin Trudeau, y al vicepresidente de China, Zhang Guoqing. Este es el primer viaje al extranjero de Vance en su nueva posición, pero muchos asistentes a la cumbre, incluido Modi, esperan romper la dominación de su país en inteligencia artificial.

    Desafíos y oportunidades en el sector AI

    Las diez principales empresas de inteligencia artificial del mundo se encuentran en EE. UU., incluyendo a Apple, Nvidia, Microsoft, Oracle, Meta y Alphabet. Hace dos semanas, la empresa china DeepSeek también desató el caos en la industria al revelar un modelo de IA más potente que ChatGPT y realizado a una fracción del costo, lo que demuestra el gran potencial de China en el sector. Modi ha afirmado que tiene la intención de involucrar a un mayor número de personas en el desarrollo de IA y prevenir que el sector se convierta en una batalla entre EE. UU. y China. Su secretario de Relaciones Exteriores, Vikram Misri, también enfatizó la necesidad de un acceso equitativo a la IA para evitar “perpetuar una brecha digital que ya existe en el mundo”.

    La carrera por la innovación y la regulación

    Sin embargo, romper la dominación de EE. UU. puede ser más fácil decirlo que hacerlo, especialmente para los países con regulaciones más estrictas en IA. El presidente Trump ya eliminó las normas impuestas por Joe Biden, diciendo que “obstaculizaban la innovación en IA e imponían un control gubernamental oneroso y innecesario sobre el desarrollo de IA”. Este sentir es compartido por grandes líderes tecnológicos. “Si queremos crecimiento, empleos y progreso, debemos permitir que los innovadores innoven, los constructores construyan y los desarrolladores desarrollen,” escribió Sam Altman, director ejecutivo de OpenAI, en Le Monde antes de la cumbre.

    El fundador de Google DeepMind, Sir Demis Hassabis, comentó en la cumbre: “Hay muchas preguntas complicadas por resolver” sobre temas como la capacidad de controlar los sistemas de IA. “Pero también creo que tal vez las preguntas geopolíticas son aún más complicadas.” Las empresas en los países de la UE, por ejemplo, pueden encontrar más difícil innovar que aquellas en EE. UU. o China después de que la UE introdujo la Ley de Seguridad de IA el año pasado, que impone estrictas restricciones sobre cómo se puede utilizar la IA en la región.

    Preocupaciones sobre la IA no regulada

    El Reino Unido también tiene directrices sobre cómo se puede utilizar la IA, pero en enero, Sir Keir Starmer prometió “integrar la IA en las venas” del país, diciendo que la IA podría aportar 47 mil millones de libras a la economía cada año. Además de políticos, la élite tecnológica está en la capital francesa, con Altman, el presidente de Microsoft, Brad Smith, y el director ejecutivo de Google, Sundar Pichai, entre los nombres destacados que asisten.

    Uno de los oradores será Yoshua Bengio, conocido como uno de los “padrinos de la IA”, quien recientemente expresó su preocupación por la posibilidad de que los humanos construyan sistemas “más inteligentes que nosotros que no sabemos controlar”. Proteger a las personas de la IA no regulada es uno de los temas a discusión en la conferencia, pero un borrador filtrado del documento que se firmará por los países asistentes mañana no parece mencionar la mitigación de los riesgos de la IA.

    Un asistente, el profesor del MIT Max Tegmark, quien es presidente del Future of Life Institute, instó a los países a no firmar el documento. “Para cosechar beneficios inimaginables sin poner en peligro millones de medios de vida y vidas, la IA necesita estándares de seguridad vinculantes – como los que tenemos para cada otra industria,” dijo en una declaración a Sky News. “Esto está respaldado por la historia, la ciencia, la opinión pública y el sentido común. Este momento crítico requiere líderes valientes que tomen medidas – no aquellos que esconden la cabeza en la arena para apaciguar a las grandes empresas tecnológicas.” Los países no deberían firmarlo.

    Fuente y créditos: news.sky.com

    Cats:

    Deja un comentario

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


    Mi resumen de noticias

    WhatsApp