Gemma : Les modèles ouverts de Google basés sur la technologie Gemini

Gábor Bíró 26 février 2024
4 min de lecture

Google a dévoilé Gemma, une nouvelle famille de modèles ouverts pour l'intelligence artificielle. Les modèles Gemma sont construits sur la même recherche et technologie que celles utilisées pour créer les modèles phares Gemini de Google, offrant une alternative accessible et à la pointe de la technologie, spécialement conçue pour les développeurs et les chercheurs souhaitant travailler directement avec des modèles d'IA.

Gemma : Les modèles ouverts de Google basés sur la technologie Gemini
Source: Création originale

Principales caractéristiques des modèles Gemma

  • Variantes de modèles : Les modèles Gemma sont disponibles en deux tailles : Gemma 2B et Gemma 7B, toutes deux proposées en versions pré-entraînées et ajustées pour les instructions. Ces modèles sont conçus pour être suffisamment légers pour potentiellement fonctionner sur l'ordinateur portable ou de bureau d'un développeur, les rendant accessibles à un large éventail d'applications et abaissant considérablement la barrière à l'entrée par rapport aux modèles plus grands.

Les termes "2B" et "7B" indiquent la taille du modèle, plus précisément le nombre de paramètres qu'il contient. "B" signifie milliard, donc un modèle "7B" possède environ 7 milliards de paramètres, tandis qu'un modèle "2B" en compte environ 2 milliards. Ces paramètres sont les poids au sein du modèle qui sont optimisés pendant le processus d'entraînement et qui déterminent comment le modèle effectue des tâches telles que le traitement du langage ou la génération d'images. Généralement, un nombre de paramètres plus élevé est corrélé à de meilleures performances dans diverses tâches, mais nécessite également davantage de ressources de calcul.

  • Compatibilité multiplateforme et multi-framework : Les modèles Gemma prennent en charge les outils multi-framework (tels que JAX, PyTorch, TensorFlow via Keras 3.0) et sont compatibles avec divers appareils, notamment les ordinateurs portables, les ordinateurs de bureau, les appareils IoT, les mobiles et les plateformes cloud. Ils sont optimisés pour les performances sur les GPU NVIDIA et les TPU Google Cloud, garantissant une large accessibilité et des performances de pointe dans l'industrie pour leur catégorie de taille.
  • Boîte à outils pour l'IA responsable : Parallèlement aux modèles Gemma, Google a publié une boîte à outils pour l'IA générative responsable. Cette boîte à outils fournit des conseils et des outils aux développeurs pour créer des applications d'IA plus sûres, aidant à filtrer les entrées/sorties nuisibles et encourageant une utilisation et une innovation responsables, conformément aux principes d'IA de Google.
  • Philosophie du modèle ouvert : Contrairement à certains modèles open-source traditionnels, les modèles Gemma sont assortis de conditions d'utilisation qui autorisent une utilisation et une distribution commerciales responsables. Bien qu'offrant un large accès, cette approche utilise une licence personnalisée plutôt qu'une licence standard approuvée par l'OSI (comme Apache 2.0). Google vise à trouver un équilibre entre les avantages de l'accès ouvert et la nécessité d'atténuer les risques de mauvaise utilisation, en promouvant une innovation responsable au sein de la communauté de l'IA.

Le terme "à la pointe de la technologie" signifie la technologie, la méthode ou le produit le plus avancé actuellement disponible dans un domaine particulier, représentant le plus haut niveau de développement atteint à ce jour.

Applications et accessibilité

Les modèles Gemma sont conçus pour diverses tâches basées sur le langage telles que la génération de texte, laSummarization, la réponse aux questions et l'alimentation de chatbots. Ils sont particulièrement adaptés aux développeurs recherchant des performances élevées dans des modèles plus petits et plus rentables qui peuvent être affinés pour des besoins spécifiques. Google affirme que les modèles Gemma, malgré leur taille relativement petite, surpassent significativement certains modèles plus grands sur des benchmarks clés tout en nécessitant moins de ressources.

Les développeurs et les chercheurs peuvent accéder aux modèles Gemma via des plateformes telles que Kaggle, Hugging Face, NVIDIA NeMo et Vertex AI de Google. Google offre un accès gratuit à Gemma sur Kaggle, un niveau gratuit pour les notebooks Colab, 300 $ de crédits pour les nouveaux utilisateurs de Google Cloud, et les chercheurs peuvent être éligibles jusqu'à 500 000 $ de crédits Google Cloud.

Comparaison des modèles Gemma et Gemini

  1. Accessibilité et utilisation :

    • Gemini : Principalement accessible aux utilisateurs finaux via des applications web/mobiles, des API et Google Vertex AI pour une utilisation en modèle fermé. Optimisé pour la facilité d'utilisation sans manipulation directe du modèle.
    • Gemma : Conçu pour les développeurs, les chercheurs et les entreprises pour l'expérimentation, l'affinage et l'intégration dans des applications ; ouvertement accessible au téléchargement et à la modification selon des conditions spécifiques.
  2. Taille et capacités des modèles :

    • Gemini : Une famille de modèles d'IA fermés plus grands et très performants (Ultra, Pro, Flash) adaptés aux tâches complexes et polyvalentes, en concurrence directe avec des modèles comme GPT-4.
    • Gemma : Modèles ouverts légers (2B et 7B paramètres) optimisés pour des tâches spécifiques comme les chatbots, la Summarization ou le RAG, offrant de solides performances pour leur taille sur des benchmarks clés.
  3. Déploiement et compatibilité :

    • Gemini : Généralement accessible via API, ne nécessitant aucun déploiement local par l'utilisateur final ; le backend fonctionne sur le matériel de centre de données spécialisé de Google.
    • Gemma : Peut potentiellement fonctionner sur des ordinateurs portables, des stations de travail ou être facilement déployé sur Google Cloud (par exemple, Vertex AI, Google Kubernetes Engine) ; optimisé pour divers matériels, y compris les GPU NVIDIA et les TPU Google Cloud.
  4. Licence et philosophie :

    • Gemini : Modèles fermés avec un accès restreint via les API et les produits Google.
    • Gemma : "Modèles ouverts" avec des conditions d'utilisation autorisant une utilisation et une distribution commerciales responsables, soulignant un équilibre entre l'accès ouvert et l'atténuation des risques, plutôt qu'une licence open-source entièrement permissive.
  5. Cas d'utilisation :

    • Gemini : Idéal pour les besoins de capacité les plus élevés, la facilité d'utilisation via API, le raisonnement complexe, la conversation multi-tours, les tâches de connaissances générales sans avoir besoin d'une infrastructure personnalisée.
    • Gemma : Idéal pour les tâches nécessitant une personnalisation/un affinage du modèle, un coût inférieur, une latence plus faible, des besoins de déploiement sur appareil ou local (en raison d'exigences de confidentialité ou hors ligne), la recherche et l'éducation.

Le pivot stratégique de Google

La sortie de Gemma marque un pivot stratégique important pour Google vers l'adoption de modèles ouverts pour l'IA. Cette décision est largement considérée comme une réponse à la demande croissante dans les communautés de développeurs et de chercheurs pour des modèles d'IA accessibles et de haute qualité, alimentée en partie par le succès des modèles ouverts de concurrents comme Meta (Llama) et Mistral AI. C'est pour Google un moyen de favoriser l'innovation, la collaboration et de capter l'attention des développeurs au sein de l'écosystème de l'IA au sens large. En proposant Gemma comme modèles ouverts, Google vise à donner aux développeurs et aux chercheurs les moyens de s'appuyer sur sa technologie tout en maintenant son engagement envers un développement responsable de l'IA.

Gábor Bíró 26 février 2024