Investigación en Inteligencia Artificial
Para lograr esto, investigadores de Stanford y la Universidad de Washington utilizaron un método conocido como destilación, que permite que modelos más pequeños se basen en las respuestas producidas por modelos más grandes, para refinar s1 utilizando respuestas del modelo de razonamiento de IA de Google, Gemini 2.0 Flash Thinking Experimental. Los términos de servicio de Google señalan que no se puede usar la API de Gemini para “desarrollar modelos que compitan con” los modelos de IA de la compañía. The Verge se puso en contacto con Google para solicitar un comentario, pero no recibió respuesta inmediata.
Desarrollo del Modelo s1
Los investigadores basaron s1 en Qwen2.5, un modelo de código abierto de Alibaba Cloud. Inicialmente comenzaron con un conjunto de 59,000 preguntas para entrenar el modelo, pero encontraron que el conjunto de datos más grande no ofrecía “ganancias sustanciales” en comparación con un conjunto reducido de tan solo 1,000. Los investigadores indican que entrenaron el modelo en solo 16 GPUs Nvidia H100. El modelo s1 también utiliza una técnica denominada escalado en tiempo de prueba, lo que permite que el modelo “piense” durante un período más prolongado antes de producir una respuesta. Como se menciona en el documento, los investigadores obligaron al modelo a continuar razonando al añadir “Espera” a la respuesta del modelo. “Esto puede llevar al modelo a verificar su respuesta, a menudo corrigiendo pasos de razonamiento incorrectos”, dice el documento.
Competencia en el Sector de IA
El modelo de razonamiento o1 de OpenAI utiliza un enfoque similar, algo que la startup de IA DeepSeek buscó replicar con el lanzamiento de su modelo R1, que afirma fue entrenado a una fracción del costo. Desde entonces, OpenAI ha acusado a DeepSeek de destilar información de sus modelos para construir un competidor, violando sus términos de servicio. En cuanto a s1, los investigadores afirman que s1 “supera a o1-preview en preguntas de matemáticas de competencia en hasta un 27%.”
Impacto en la Industria de IA
El aumento de modelos de IA más pequeños y baratos amenaza con desestabilizar toda la industria. Podrían demostrar que grandes empresas como OpenAI, Microsoft, Meta y Google no necesitan gastar miles de millones de dólares en el entrenamiento de IA, mientras construyen enormes centros de datos llenos de miles de GPUs de Nvidia.
Fuente y créditos: www.theverge.com
Cats: AI,News,Tech