Predicciones sobre la Inteligencia Artificial General
El CEO de OpenAI, Sam Altman, espera que la inteligencia artificial general (AGI), que supera a los humanos en la mayoría de las tareas, llegue aproximadamente entre 2027 y 2028. Elon Musk ha pronosticado que esto sucederá entre 2025 y 2026, y ha afirmado que está “perdiendo el sueño por la amenaza del peligro de la IA”. Sin embargo, muchas de estas predicciones son incorrectas. A medida que se hacen más evidentes las limitaciones de la IA actual, la mayoría de los investigadores han llegado a la conclusión de que simplemente construir chatbots más grandes y poderosos no conducirá a la AGI.
Riesgos actuales de la IA
En 2025, la IA seguirá presentando un enorme riesgo, pero no por la superinteligencia artificial, sino por su uso indebido por humanos. En muchos casos, estos usos son no intencionales. Por ejemplo, después del lanzamiento de ChatGPT, varios abogados han sido sancionados por utilizar IA para generar informes judiciales erróneos, aparentemente sin conocer la tendencia de los chatbots a inventar información. En British Columbia, la abogada Chong Ke fue ordenada a pagar costos al abogado opositor tras incluir casos ficticios generados por IA en un archivo legal. En Nueva York, Steven Schwartz y Peter LoDuca fueron multados con $5,000 por proporcionar citas falsas.
Deepfakes y su proliferación
En enero de 2024, profundas falsificaciones sexualmente explícitas de Taylor Swift inundaron las redes sociales, creadas mediante la herramienta de IA “Designer” de Microsoft. Aunque la empresa había implementado medidas de seguridad para evitar esto, un error tipográfico en el nombre de Swift permitió eludirlas. Los deepfakes no consensuados están proliferando ampliamente, en parte debido a la disponibilidad de herramientas de código abierto. A nivel global, se están proponiendo legislaciones para combatir estas falsificaciones con la esperanza de limitar el daño.
Desafíos futuros de la IA
En 2025, será aún más difícil distinguir entre lo real y lo fabricado. La fidelidad de los audios, textos e imágenes generados por IA ha mejorado notablemente, y el video será el siguiente desafío. Esto puede llevar al “dividendo del mentiroso”: aquellos en posiciones de poder podrían repudiar pruebas de su mala conducta alegando que son falsas. En 2023, Tesla sugirió que un video de 2016 de Elon Musk podría haber sido un deepfake en respuesta a acusaciones de que el CEO exageró la seguridad del piloto automático de Tesla, lo que llevó a un accidente. Mientras tanto, las empresas están aprovechando la confusión pública para vender productos fundamentalmente dudosos etiquetándolos como “IA”. Esto puede resultar muy problemático cuando se utilizan tales herramientas para clasificar personas y tomar decisiones cruciales sobre ellas.
En los Países Bajos, la autoridad fiscal utilizó un algoritmo de IA para identificar casos de fraude en bienestar infantil, acusando erróneamente a miles de padres y exigiendo la devolución de decenas de miles de euros, lo que llevó a la renuncia del Primer Ministro y su gabinete. En 2025, esperamos que los riesgos de la IA no provengan de su actuación autónoma, sino de lo que la gente haga con ella. Esto incluye el uso excesivo en casos donde parece funcionar bien (abogados usando ChatGPT), usos indebidos cuando funciona bien (deepfakes no consensuados) y cuando simplemente no es adecuada para su propósito (negar derechos a las personas). Mitigar estos riesgos será una tarea titánica para empresas, gobiernos y la sociedad, y será lo suficientemente difícil sin distraernos con preocupaciones de ciencia ficción.
Fuente y créditos: www.wired.com
Cats: Security,Security / Privacy,Business,Business / Artificial Intelligence,WIRED World