Google lanza Gemma 4: IA abierta, más capaz y lista para Android

Google acaba de presentar Gemma 4 y, la verdad es que, aquí hay bastante más miga de la que sugiere el típico titular de "nuevo modelo de IA". No estamos hablando solo de otra iteración para desarrolladores: Google ha dejado claro que quiere llevar modelos más capaces al hardware local, desde portátiles con GPU hasta móviles Android, y además lo hace con un cambio de licencia que puede pesar casi tanto como el salto técnico.
Eso último no es menor. En los últimos meses hemos visto a media industria vender IA como servicio en la nube con suscripción, límites y ecosistemas cada vez más cerrados. Gemma 4 va justo en la dirección contraria: más apertura, más control local y menos dependencia del servidor ajeno. Y si llevas tiempo siguiendo el pulso entre IA en la nube e IA en el dispositivo, este movimiento encaja bastante bien con hacia dónde se está moviendo todo.
Qué ha anunciado Google exactamente
La nueva familia Gemma 4 llega en cuatro tamaños: E2B, E4B, 26B MoE y 31B Dense. Traducido a lenguaje normal: hay versiones pensadas para hardware relativamente contenido y otras orientadas a equipos bastante más serios, pero la idea de fondo es la misma en todos los casos: ofrecer más inteligencia por parámetro y facilitar que el modelo se pueda ejecutar en local.
Según Google, el modelo de 31B se coloca ya entre los mejores modelos abiertos del mercado y el de 26B también entra arriba en rankings como Arena. Ese tipo de tablas siempre conviene cogerlas con cierta distancia, porque cada laboratorio juega su partido como puede. Pero incluso filtrando el marketing, el mensaje es claro: Google quiere que Gemma deje de verse como el hermano pequeño de Gemini y pase a ser una opción seria para desarrollar productos reales.
La parte importante: IA local de verdad y foco claro en Android
Donde la noticia se pone realmente interesante es en los modelos E2B y E4B, que están pensados para funcionar con un consumo de memoria y batería mucho más razonable. Google dice que estos modelos pueden correr sin conexión en dispositivos como móviles, Raspberry Pi o placas Jetson, y que además están optimizados junto al equipo de Pixel, Qualcomm y MediaTek.
Ojo con esto, porque aquí no estamos hablando solo de una demo bonita para enseñar en una keynote. Google vincula Gemma 4 directamente con el AICore Developer Preview en Android y explica que lo que se construya ahora será compatible con la futura generación de Gemini Nano 4. Eso tiene bastante sentido estratégico: en vez de separar totalmente su IA abierta de su IA comercial, Google está usando Gemma como base para empujar la siguiente capa de IA en el propio dispositivo.
Dicho de otra forma: si Gemini es la gran marca de cara al usuario, Gemma 4 es una de las piezas que pueden hacer que esa IA baje al hardware real. Y eso importa mucho más que otro chatbot en el navegador.
Qué mejora frente a generaciones anteriores
Google habla de mejoras en razonamiento, matemáticas, seguimiento de instrucciones y flujos agentic. También añade soporte nativo para function calling, salida estructurada en JSON y mejores capacidades multimodales. En los modelos pequeños hay además soporte nativo para audio, mientras que toda la familia presume de trabajar con imágenes y vídeo, algo útil para OCR, lectura de gráficos y tareas visuales similares.
Otro detalle importante es el contexto: los modelos edge suben a 128K y los grandes llegan a 256K. No es la locura de algunas propuestas cloud, pero para un modelo local está francamente bien. Si alguna vez has intentado meter documentación, repositorios o textos largos en una IA que se ahoga a mitad de camino, ya sabes por qué esto importa.
- Modelos pequeños: más pensados para móvil, edge y baja latencia.
- Modelos grandes: orientados a razonamiento más serio, coding y flujos más complejos.
- Multimodalidad: soporte para imagen y vídeo en toda la familia, y audio en E2B/E4B.
- Idiomas: Google habla de entrenamiento nativo en más de 140 idiomas.
Apache 2.0: el cambio que muchos desarrolladores estaban esperando
Para mí, una de las claves reales del anuncio está en la licencia. Gemma 4 pasa a publicarse bajo Apache 2.0, una licencia mucho más permisiva y bastante más cómoda para empresas y desarrolladores que quieren construir encima sin mirar de reojo condiciones cambiantes. Puede sonar a detalle jurídico para muy cafeteros, pero no lo es tanto.
La verdad es que una IA abierta deja de ser tan abierta cuando la licencia genera dudas sobre uso comercial, derivados o restricciones futuras. Aquí Google parece haber leído bien el momento: si quiere que Gemma se use de verdad, tenía que bajar esa fricción. Y lo ha hecho.
Qué cambia para Android y para la IA local
Es fácil pensar que todo esto solo afecta a desarrolladores, pero sería quedarse corto. Cada vez más funciones que ves en el móvil dependen de modelos capaces de ejecutarse cerca del usuario: resúmenes, traducción, OCR, transcripción, asistentes contextuales o funciones de privacidad que no deberían salir del dispositivo. Si Google consigue que Gemma 4 y la futura Gemini Nano 4 funcionen bien en Android, el impacto acaba llegando al usuario corriente.
Además, esto vuelve a meter presión sobre el resto del mercado. Apple sigue jugando la carta de la IA local con mucho cuidado, Microsoft depende más del PC como plataforma y OpenAI continúa asociándose sobre todo a servicios cloud. Google, en cambio, está intentando cubrir las dos orillas a la vez: nube potente con Gemini y ejecución local con Gemma y Nano.
En resumen, Gemma 4 no es solo otra familia de modelos abiertos. Es una señal bastante clara de que Google quiere tomarse mucho más en serio la IA local, especialmente en Android, y hacerlo además con una licencia que invita más a construir que a desconfiar. Si esta estrategia sale bien, lo más interesante no será el titular de hoy, sino las funciones que empezaremos a ver mañana en móviles y apps reales.
Autor
