Google Acaba de Lanzar Gemini 2.0 Flash y Pro para Usuarios y Desarrolladores

Google Just Launched Gemini 2.0 Flash and Pro for Users and Developers

Anuncios de modelos de IA de Google

Google ha emitido otra ronda de anuncios significativos sobre modelos de IA, actualizando sus ofertas de Gemini para proporcionar a los usuarios y desarrolladores motores de inteligencia artificial que son, según la empresa, más capaces y fiables. A raíz del auge de DeepSeek y los nuevos modelos de OpenAI, el ritmo de desarrollo de IA no está desacelerándose.

Modelo Gemini 2.0 Flash

El modelo Gemini 2.0 Flash, que apareció en diciembre para unos pocos selectos, ahora se está implementando para todos, así que lo verás en las aplicaciones de Gemini en escritorio y móvil (esto comenzó a aparecer la semana pasada, por lo que es posible que ya lo hayas utilizado). Los modelos Flash están diseñados para ser más rápidos y ligeros, sin demasiados compromisos en rendimiento.

Google también está haciendo disponible un modelo experimental de pensamiento Gemini 2.0 Flash para que todos los usuarios lo prueben. Es otro modelo “de razonamiento”, similar a los que hemos visto en ChatGPT, donde la IA muestra su razonamiento a medida que avanza, con la intención de producir resultados más precisos y transparentes.

Además, hay una versión de este modelo disponible para todos los usuarios con acceso a aplicaciones incluidas: Google Search, Google Maps y YouTube. Este modelo devolverá información en tiempo real de la web, así como referencias a datos de Google Maps (incluyendo tiempos de viaje y detalles de ubicación) e información extraída de videos de YouTube.

Modelo Gemini 2.0 Pro Experimental

El modelo experimental Gemini 2.0 Pro, más capaz, está aquí; es un poco más lento que los equivalentes Flash, pero mejor en pensar, escribir, codificar y resolver problemas. Este modelo ahora aparece en forma experimental para desarrolladores y para cualquier usuario que esté pagando $20 al mes por Gemini Advanced.

“Tiene el mejor rendimiento de codificación y la capacidad para manejar solicitudes complejas, con una mejor comprensión y razonamiento del conocimiento del mundo, que cualquier modelo que hayamos lanzado hasta ahora,” dice Google. También puede recibir dos millones de tokens por solicitud, lo que equivale a unas 1.4 millones de palabras—aproximadamente la Biblia, dos veces.

Esa es el doble de la capacidad de los modelos 2.0 Flash, y Google también proporcionó algunos puntos de referencia. En el benchmark general MMLU-Pro, tenemos puntajes de 71.6%, 77.6% y 79.1% respectivamente para Gemini 2.0 Flash-Lite, 2.0 Flash y 2.0 Pro, en comparación con 67.3% para 1.5 Flash y 75.8% para 1.5 Pro.

Hay mejoras similares en otras métricas de IA, con Gemini 2.0 Pro Experimental alcanzando un puntaje de 91.8% en una prueba matemática líder. Eso se compara con 90.9% para 2.0 Flash, 86.8% para Flash-Lite, 86.5% para 1.5 Pro y 77.9% para 1.5 Flash. Como es habitual en lanzamientos de modelos de IA como este, los detalles son escasos sobre los datos de entrenamiento utilizados, riesgos de alucinación e imprecisiones, y requisitos de energía—aunque Google afirma que los nuevos modelos Flash son los más eficientes hasta ahora, mientras que todos sus últimos modelos son mejores que nunca en razonamiento de retroalimentación y detener posibles hackeos de seguridad.

Fuente y créditos: lifehacker.com

Cats: Tech

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Mi resumen de noticias

WhatsApp