Tendencia creciente de rechazo a la IA
Cada vez más personas y organizaciones están rechazando la imposición no solicitada de la inteligencia artificial (IA) en sus vidas. En diciembre de 2023, el periódico The New York Times demandó a OpenAI y Microsoft por infracción de derechos de autor. En marzo de 2024, tres autores presentaron una demanda colectiva en California contra Nvidia por supuestamente entrenar su plataforma de IA NeMo utilizando su obra protegida por derechos de autor. Dos meses después, la actriz de renombre Scarlett Johansson envió una carta legal a OpenAI al darse cuenta de que la nueva voz de ChatGPT era “sorprendentemente similar” a la suya. La tecnología no es el problema aquí; es la dinámica de poder.
Desconfianza pública hacia la IA
Las personas comprenden que esta tecnología se está construyendo sobre sus datos, a menudo sin nuestro consentimiento. No es sorprendente que la confianza pública en la IA esté disminuyendo. Un estudio reciente de Pew Research muestra que más de la mitad de los estadounidenses están más preocupados que emocionados por la IA, un sentimiento compartido por la mayoría de las personas de países de América Central y del Sur, África y Oriente Medio, según una encuesta mundial sobre riesgos.
Derecho a reparar la IA
En 2025, veremos a la gente exigir más control sobre cómo se utiliza la IA. Un ejemplo de esto es el “red teaming”, una práctica tomada del ámbito militar y utilizada en ciberseguridad. En un ejercicio de red teaming, se invita a expertos externos a “infiltrarse” o romper un sistema, lo que actúa como prueba de dónde pueden fallar las defensas, para que puedas corregirlas. Las grandes empresas de IA utilizan el red teaming para encontrar problemas en sus modelos, pero aún no es una práctica común en el uso público. Eso cambiará en 2025.
La firma de abogados DLA Piper, por ejemplo, ahora utiliza red teaming con abogados para probar directamente si los sistemas de IA cumplen con los marcos legales. Mi organización sin fines de lucro, Humane Intelligence, realiza ejercicios de red teaming con expertos no técnicos, gobiernos y organizaciones de la sociedad civil para probar la IA en busca de discriminación y sesgos. En 2023, llevamos a cabo un ejercicio de red teaming con 2,200 participantes que fue apoyado por la Casa Blanca. En 2025, nuestros eventos de red teaming se basarán en la experiencia vivida de personas comunes para evaluar modelos de IA en busca de islamofobia, y su capacidad para permitir el acoso en línea contra mujeres.
Control del usuario sobre la IA
Cuando organizo uno de estos ejercicios, la pregunta más común que me hacen es cómo podemos evolucionar de identificar problemas a solucionarlos nosotros mismos. En otras palabras, la gente quiere un derecho a reparar. Un derecho a reparar la IA podría verse así: un usuario podría tener la capacidad de ejecutar diagnósticos en una IA, reportar cualquier anomalía y ver cuándo la empresa las corrige. Grupos de terceros, como hackers éticos, podrían crear parches o soluciones para problemas que cualquiera pudiera acceder. O podrías contratar a una parte acreditada independiente para evaluar un sistema de IA y personalizarlo para ti. Aunque esta idea es abstracta hoy en día, estamos sentando las bases para que un derecho a reparar sea una realidad en el futuro. Cambiar la actual y peligrosa dinámica de poder requerirá esfuerzo; estamos siendo empujados rápidamente a normalizar un mundo en el que las empresas de IA simplemente implementan nuevos modelos de IA, sin probar, en sistemas del mundo real, con personas comunes como daños colaterales. Un derecho a reparar le da a cada persona la capacidad de controlar cómo se utiliza la IA en sus vidas.
El 2024 fue el año en que el mundo se dio cuenta de la omnipresencia y el impacto de la IA. El 2025 será el año en que exijamos nuestros derechos.
Fuente y créditos: www.wired.com
Cats: Business,Business / Artificial Intelligence,WIRED World