¿Cómo llegar a la Inteligencia General Artificial? Piensa en algo más ligero.

How Do You Get to Artificial General Intelligence? Think Lighter

El auge de las aplicaciones impulsadas por IA en 2025

En 2025, los emprendedores desatarán una oleada de aplicaciones impulsadas por inteligencia artificial. Finalmente, la IA generativa cumplirá con las expectativas, ofreciendo una nueva generación de aplicaciones asequibles para consumidores y empresas. Sin embargo, esta no es la visión consensuada hoy en día. OpenAI, Google y xAI están inmersos en una carrera armamentista por entrenar el modelo de lenguaje grande (LLM) más poderoso, en busca de una inteligencia general artificial, conocida como AGI. Su batalla gladiatorial domina el interés y los ingresos del incipiente ecosistema de la IA generativa.

Inversiones masivas de grandes empresas

Por ejemplo, Elon Musk recaudó $6 mil millones para lanzar el recién llegado xAI y adquirió 100,000 GPUs Nvidia H100, los costosos chips utilizados para procesar IA, con un costo superior a $3 mil millones para entrenar su modelo, Grok. A esos precios, solo los magnates tecnológicos pueden permitirse construir estos gigantescos LLM. El increíble gasto por parte de empresas como OpenAI, Google y xAI ha creado un ecosistema desequilibrado, con un peso en la parte inferior y ligero en la parte superior. Los LLM entrenados por estas enormes granjas de GPUs suelen ser muy caros para la inferencia, el proceso de ingresar un prompt y generar una respuesta de los modelos de lenguaje grandes que está presente en cada aplicación que utiliza IA. Es como si todos tuvieran smartphones 5G, pero usar datos fuera demasiado caro para que alguien pudiera ver un vídeo de TikTok o navegar por redes sociales. Como resultado, los excelentes LLM con altos costos de inferencia han hecho que proliferar aplicaciones innovadoras sea inasequible.

El dilema de los desarrolladores de aplicaciones

Este ecosistema desequilibrado de ultra-ricos magnates tecnológicos luchando entre sí ha enriquecido a Nvidia, mientras obliga a los desarrolladores de aplicaciones a un dilema: usar un modelo de bajo costo y bajo rendimiento que seguramente decepcionará a los usuarios, o enfrentar costos de inferencia exorbitantes y arriesgarse a la quiebra.

Un nuevo enfoque para reducir costos de inferencia

En 2025, surgirá un nuevo enfoque que podría cambiar esto. Se volverá a lo que hemos aprendido de revoluciones tecnológicas anteriores, como la era de las PC con Intel y Windows, o la era móvil con Qualcomm y Android, donde la ley de Moore mejoró las PC y las aplicaciones, y la reducción de costos de banda ancha mejoró los teléfonos móviles y las aplicaciones año tras año.

Pero, ¿qué pasa con el alto costo de inferencia? Una nueva ley para la inferencia de IA está a la vista. El costo de la inferencia ha caído en un factor de 10 por año, impulsado por nuevos algoritmos de IA, tecnologías de inferencia y mejores chips a precios más bajos.

Como punto de referencia, si un desarrollador externo utilizara los modelos más avanzados de OpenAI para desarrollar una búsqueda de IA, en mayo de 2023, el costo sería de aproximadamente $10 por consulta, mientras que la búsqueda tradicional de Google sin IA generativa cuesta $0.01, una diferencia de 1,000 veces. Pero para mayo de 2024, el precio del modelo superior de OpenAI cayó a aproximadamente $1 por consulta. Con esta caída de precios sin precedentes del 10x por año, los desarrolladores de aplicaciones podrán utilizar modelos de calidad cada vez más alta y a menor costo, lo que llevará a una proliferación de aplicaciones de IA en los próximos dos años.

Fuente y créditos: www.wired.com

Cats: Business,Business / Artificial Intelligence,WIRED World

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Mi resumen de noticias

WhatsApp