Les données Jinshi du 13 mars ont annoncé que hier soir, Sundar Pichai, PDG de Google (GOOG.O), a déclaré que le dernier grand modèle multimodal Open Source, Gemma-3, se concentre sur des performances élevées à faible coût. Gemma-3 dispose de quatre ensembles de paramètres : 1 milliard, 4 milliards, 12 milliards et 27 milliards. Même avec le plus grand ensemble de 27 milliards de paramètres, une seule H100 suffit pour une inférence efficace, ce qui nécessiterait au moins une augmentation de 10 fois de la puissance de calcul pour les modèles similaires, en faisant actuellement le modèle de petit paramètre le plus puissant. Selon les données de test aveugle de LMSYS ChatbotArena, Gemma-3 se classe juste après R1-671B de DeepSeek, supérieur à o3-mini d'OpenAI, Llama3-405B et d'autres modèles populaires.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Google Open SourceGemma-3: comparable to DeepSeek, Puissance de calcul drastically reduced
Les données Jinshi du 13 mars ont annoncé que hier soir, Sundar Pichai, PDG de Google (GOOG.O), a déclaré que le dernier grand modèle multimodal Open Source, Gemma-3, se concentre sur des performances élevées à faible coût. Gemma-3 dispose de quatre ensembles de paramètres : 1 milliard, 4 milliards, 12 milliards et 27 milliards. Même avec le plus grand ensemble de 27 milliards de paramètres, une seule H100 suffit pour une inférence efficace, ce qui nécessiterait au moins une augmentation de 10 fois de la puissance de calcul pour les modèles similaires, en faisant actuellement le modèle de petit paramètre le plus puissant. Selon les données de test aveugle de LMSYS ChatbotArena, Gemma-3 se classe juste après R1-671B de DeepSeek, supérieur à o3-mini d'OpenAI, Llama3-405B et d'autres modèles populaires.