Google Open SourceGemma-3: comparable to DeepSeek, Puissance de calcul drastically reduced

robot
Création du résumé en cours

Les données Jinshi du 13 mars ont annoncé que hier soir, Sundar Pichai, PDG de Google (GOOG.O), a déclaré que le dernier grand modèle multimodal Open Source, Gemma-3, se concentre sur des performances élevées à faible coût. Gemma-3 dispose de quatre ensembles de paramètres : 1 milliard, 4 milliards, 12 milliards et 27 milliards. Même avec le plus grand ensemble de 27 milliards de paramètres, une seule H100 suffit pour une inférence efficace, ce qui nécessiterait au moins une augmentation de 10 fois de la puissance de calcul pour les modèles similaires, en faisant actuellement le modèle de petit paramètre le plus puissant. Selon les données de test aveugle de LMSYS ChatbotArena, Gemma-3 se classe juste après R1-671B de DeepSeek, supérieur à o3-mini d'OpenAI, Llama3-405B et d'autres modèles populaires.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)