Apenas dos meses después del lanzamiento de Gemini, el gran modelo de lenguaje que Google espera lo lleve a la cima de la industria de la inteligencia artificial (AI, por sus siglas en inglés), la compañía anunció a su sucesor.
Google presentó el jueves Gemini 1.5 y lo pondrá a disposición de desarrolladores y usuarios empresariales antes de su lanzamiento completo para el consumidor próximamente.
La empresa ha dejado en claro que apuesta por Gemini como herramienta comercial, asistente personal y todo lo demás, y está impulsando con fuerza ese plan.
Hay muchas mejoras en Gemini 1.5: Gemini 1.5 Pro, el modelo de uso general en el sistema de Google, aparentemente está a la par con el Gemini Ultra de gama alta que lanzó recientemente, y superó a Gemini 1.0 Pro en un 87% de pruebas de referencia. Se creó utilizando una técnica cada vez más común conocida como “Mezcla de expertos” o MoE, lo que significa que solo ejecuta parte del modelo general cuando envía una consulta, en lugar de procesarlo todo todo el tiempo. (Aquí hay una buena explicación sobre el tema). Ese enfoque debería hacer que el modelo sea más rápido de usar y más eficiente para que Google lo ejecute.
Pero hay una cosa nueva en Gemini 1.5 que tiene a toda la empresa, empezando por el CEO Sundar Pichai, especialmente emocionado: Gemini 1.5 tiene una ventana de contexto enorme, lo que significa que puede manejar consultas mucho más grandes y ver mucha más información a la vez.
Esa ventana es la friolera de 1 millón de tokens, en comparación con los 128,000 del GPT-4 de OpenAI y los 32.000 del Gemini Pro actual. Los tokens son una métrica difícil de entender, por lo que Pichai lo simplifica: “Son aproximadamente 10 u 11 horas de video, decenas de miles de líneas de código”. La ventana contextual significa que puedes preguntarle al robot de AI sobre todo ese contenido a la vez.