Os dados do Jinsan em 13 de março, à noite, Sundar Pichai, CEO da Google (GOOG.O), anunciou que o mais recente modelo grande multimodal, Gemma-3, de Código aberto, é caracterizado por baixo custo e alta performance. Gemma-3 tem quatro conjuntos de parâmetros: 1 bilhão, 4 bilhões, 12 bilhões e 27 bilhões. Mas mesmo com o maior conjunto de 27 bilhões de parâmetros, apenas um H100 é necessário para inferência eficiente, sendo o modelo de pequenos parâmetros mais poderoso atualmente, exigindo pelo menos 10 vezes menos Poder de computação para alcançar o mesmo efeito que modelos semelhantes. De acordo com dados de testes cegos da LMSYS ChatbotArena, o Gemma-3 fica em segundo lugar, atrás apenas do R1-671B da DeepSeek, e à frente de modelos conhecidos como o o3-mini da OpenAI e o Llama3-405B.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Google Open Source Gemma-3: Comparable to DeepSeek, Computing Power Plummets
Os dados do Jinsan em 13 de março, à noite, Sundar Pichai, CEO da Google (GOOG.O), anunciou que o mais recente modelo grande multimodal, Gemma-3, de Código aberto, é caracterizado por baixo custo e alta performance. Gemma-3 tem quatro conjuntos de parâmetros: 1 bilhão, 4 bilhões, 12 bilhões e 27 bilhões. Mas mesmo com o maior conjunto de 27 bilhões de parâmetros, apenas um H100 é necessário para inferência eficiente, sendo o modelo de pequenos parâmetros mais poderoso atualmente, exigindo pelo menos 10 vezes menos Poder de computação para alcançar o mesmo efeito que modelos semelhantes. De acordo com dados de testes cegos da LMSYS ChatbotArena, o Gemma-3 fica em segundo lugar, atrás apenas do R1-671B da DeepSeek, e à frente de modelos conhecidos como o o3-mini da OpenAI e o Llama3-405B.