Gemma: Modelos Abiertos de Google Basados en la Tecnología Gemini
Google ha presentado Gemma, una nueva familia de modelos abiertos para inteligencia artificial. Los modelos Gemma se basan en la misma investigación y tecnología utilizada para crear los modelos insignia Gemini de Google, ofreciendo una alternativa accesible y de última generación, dirigida específicamente a desarrolladores e investigadores que buscan trabajar directamente con modelos de IA.

Características Principales de los Modelos Gemma
- Variantes de Modelos: Los modelos Gemma están disponibles en dos tamaños: Gemma 2B y Gemma 7B, ambos ofrecidos en versiones pre-entrenadas y ajustadas para instrucciones. Estos modelos están diseñados para ser lo suficientemente ligeros como para poder ejecutarse en un ordenador portátil o de escritorio de un desarrollador, haciéndolos accesibles para una amplia gama de aplicaciones y reduciendo significativamente la barrera de entrada en comparación con modelos más grandes.
Los términos "2B" y "7B" indican el tamaño del modelo, específicamente el número de parámetros que contiene. "B" significa mil millones, por lo que un modelo "7B" tiene aproximadamente 7 mil millones de parámetros, mientras que un modelo "2B" tiene alrededor de 2 mil millones. Estos parámetros son los pesos dentro del modelo que se optimizan durante el proceso de entrenamiento y determinan cómo el modelo realiza tareas como el procesamiento del lenguaje o la generación de imágenes. Generalmente, un mayor número de parámetros se correlaciona con un mejor rendimiento en diversas tareas, pero también requiere más recursos computacionales.
- Compatibilidad Multiplataforma y con Frameworks: Los modelos Gemma son compatibles con herramientas multi-framework (como JAX, PyTorch, TensorFlow a través de Keras 3.0) y son compatibles con diversos dispositivos, incluyendo portátiles, ordenadores de escritorio, dispositivos IoT, móviles y plataformas en la nube. Están optimizados para el rendimiento en GPUs NVIDIA y TPUs de Google Cloud, asegurando una amplia accesibilidad y un rendimiento líder en la industria para su clase de tamaño.
- Kit de Herramientas de IA Responsable: Junto con los modelos Gemma, Google ha lanzado un Kit de Herramientas de IA Generativa Responsable. Este kit de herramientas proporciona orientación e instrumentos para que los desarrolladores creen aplicaciones de IA más seguras, ayudando a filtrar entradas/salidas dañinas y fomentando el uso responsable y la innovación, en consonancia con los Principios de IA de Google.
- Filosofía de Modelo Abierto: A diferencia de algunos modelos tradicionales de código abierto, los modelos Gemma vienen con términos de uso que permiten el uso comercial responsable y la distribución. Si bien ofrecen un amplio acceso, este enfoque utiliza una licencia personalizada en lugar de una estándar aprobada por la OSI (como Apache 2.0). Google pretende lograr un equilibrio entre los beneficios del acceso abierto y la necesidad de mitigar los riesgos de uso indebido, promoviendo la innovación responsable dentro de la comunidad de la IA.
El término "de última generación" significa la tecnología, el método o el producto más avanzado disponible actualmente en un campo particular, representando el nivel de desarrollo más alto alcanzado hasta la fecha.
Aplicaciones y Accesibilidad
Los modelos Gemma están diseñados para diversas tareas basadas en el lenguaje, como la generación de texto, el resumen, la respuesta a preguntas y el funcionamiento de chatbots. Son particularmente adecuados para desarrolladores que buscan un alto rendimiento en modelos más pequeños y rentables que puedan ajustarse para necesidades específicas. Google afirma que los modelos Gemma, a pesar de su tamaño relativamente pequeño, superan significativamente a algunos modelos más grandes en benchmarks clave, al tiempo que requieren menos recursos.
Los desarrolladores e investigadores pueden acceder a los modelos Gemma a través de plataformas como Kaggle, Hugging Face, NVIDIA NeMo y Vertex AI de Google. Google ofrece acceso gratuito a Gemma en Kaggle, un nivel gratuito para los cuadernos de Colab, 300 dólares en créditos para los usuarios de Google Cloud que se registren por primera vez, y los investigadores pueden optar a hasta 500.000 dólares en créditos de Google Cloud.
Comparación de los Modelos Gemma y Gemini
-
Accesibilidad y Uso:
- Gemini: Se accede principalmente a través de usuarios finales mediante aplicaciones web/móviles, APIs y Google Vertex AI para el uso de modelos cerrados. Optimizado para la facilidad de uso sin manipulación directa del modelo.
- Gemma: Diseñado para desarrolladores, investigadores y empresas para la experimentación, el ajuste fino y la integración en aplicaciones; abiertamente accesible para su descarga y modificación bajo términos específicos.
-
Tamaño y Capacidades del Modelo:
- Gemini: Una familia de modelos de IA cerrados más grandes y altamente capaces (Ultra, Pro, Flash) adecuados para tareas complejas de propósito general, compitiendo directamente con modelos como GPT-4.
- Gemma: Modelos abiertos ligeros (parámetros 2B y 7B) optimizados para tareas específicas como chatbots, resumen o RAG, ofreciendo un sólido rendimiento para su tamaño en benchmarks clave.
-
Implementación y Compatibilidad:
- Gemini: Normalmente se accede a través de API, sin necesidad de implementación local por parte del usuario final; el backend se ejecuta en hardware de centros de datos especializados de Google.
- Gemma: Puede ejecutarse potencialmente en portátiles, estaciones de trabajo o implementarse fácilmente en Google Cloud (por ejemplo, Vertex AI, Google Kubernetes Engine); optimizado para diversos hardware, incluyendo GPUs NVIDIA y TPUs de Google Cloud.
-
Licencias y Filosofía:
- Gemini: Modelos cerrados con acceso restringido a través de APIs y productos de Google.
- Gemma: "Modelos abiertos" con términos de uso que permiten el uso comercial responsable y la distribución, enfatizando un equilibrio entre el acceso abierto y la mitigación de riesgos, en lugar de una licencia de código abierto totalmente permisiva.
-
Casos de Uso:
- Gemini: Mejor para las necesidades de máxima capacidad, facilidad de uso a través de API, razonamiento complejo, conversación de múltiples turnos, tareas de conocimiento general sin necesidad de infraestructura personalizada.
- Gemma: Ideal para tareas que requieren personalización/ajuste fino del modelo, menor coste, menor latencia, necesidades de implementación local o en el dispositivo (debido a requisitos de privacidad o sin conexión), investigación y educación.
Giro Estratégico de Google
El lanzamiento de Gemma marca un importante giro estratégico para Google hacia la adopción de modelos abiertos para la IA. Este movimiento se considera ampliamente como una respuesta a la creciente demanda en las comunidades de desarrolladores e investigadores de modelos de IA accesibles y de alta calidad, impulsada en parte por el éxito de los modelos abiertos de competidores como Meta (Llama) y Mistral AI. Es una forma para Google de fomentar la innovación, la colaboración y captar la atención de los desarrolladores dentro del ecosistema de la IA en general. Al ofrecer Gemma como modelos abiertos, Google pretende capacitar a los desarrolladores e investigadores para que construyan sobre su tecnología, manteniendo al mismo tiempo su compromiso con el desarrollo responsable de la IA.