
Gemma 4 e Phi-4: Google e Microsoft no Open Source
@nascimentoab
Posted 3d ago · 3 min read
Quando se fala em IA open source, a conversa costuma girar em torno de Meta, DeepSeek e Alibaba. Mas Google e Microsoft também têm apostas sérias nesse campo — e estão colhendo resultados expressivos.
Gemma 4 e Phi-4 representam filosofias opostas: um aposta em múltiplos tamanhos com foco em eficiência; o outro prova que modelos pequenos podem superar gigantes em tarefas específicas.
Gemma 4: O Google Entra em Forma
Lançado em 2 de abril de 2026, o Gemma 4 foi disponibilizado pelo Google DeepMind com uma família de quatro tamanhos. O destaque é o modelo de 31 bilhões de parâmetros, que alcançou a 3ª posição global no Chatbot Arena — o leaderboard mais respeitado para preferência humana.
Os números são impressionantes para um modelo de tamanho médio:
AIME 2026 (matemática competitiva): 89,2% — resultado de nível frontier
GPQA Diamond (raciocínio científico doutoral): 84,3%
LiveCodeBench v6 (codificação real): 80,0%
O modelo de 26 bilhões ocupa a 6ª posição no mesmo leaderboard. Dois modelos da mesma família no top 10 mundial é um feito raramente visto.
O que o Gemma 4 Tem de Diferente?
O Gemma 4 foi treinado com técnicas derivadas do Gemini — o modelo proprietário de ponta do Google. A transferência de conhecimento entre as gerações está clara nos resultados.
A licença é Apache 2.0 — totalmente permissiva para uso comercial, sem restrições. Está disponível via Hugging Face, Vertex AI e Google AI Studio.
Para equipes que precisam de um modelo robusto, auditável e rodando em infraestrutura própria, o Gemma 4 31B é hoje uma das opções mais fortes disponíveis.
Phi-4: Pequeno, Inteligente, Surpreendente
A Microsoft foi na direção oposta. O Phi-4 tem apenas 14 bilhões de parâmetros — um tamanho que facilmente encaixa em uma única GPU de consumo.
A premissa do projeto é clara: qualidade de dados supera quantidade de parâmetros.
O Phi-4 foi treinado com dados sintéticos de alta qualidade, conteúdo acadêmico filtrado e conjuntos curados. O resultado é um modelo que performa acima do esperado para seu tamanho:
Raciocínio lógico complexo: competitivo com modelos de 70B+ em benchmarks específicos
Janela de contexto: 16K tokens (o Phi-4-mini, variante menor de 3,8B, oferece 128K)
Uso de memória: eficiente para o tamanho, viável em hardware de consumo
Para quem precisa rodar um modelo localmente — em um laptop de última geração ou servidor de médio porte — o Phi-4 é uma das poucas opções que entrega raciocínio de qualidade sem exigir infraestrutura pesada.
Dois Modelos, Dois Casos de Uso
O Gemma 4 é para quem precisa de performance máxima em ambiente corporativo controlado, com modelos de porte médio. O Phi-4 é para quem precisa de raciocínio sólido em hardware limitado — edge computing, dispositivos locais, aplicações embarcadas.
Juntos, eles mostram que Google e Microsoft levam a sério o open source não como caridade, mas como estratégia: desenvolvedores que adotam esses modelos tendem a rodar workloads nas nuvens das respectivas empresas.
Conclusão
Gemma 4 e Phi-4 provam que tamanho não é tudo. Com as técnicas certas de treinamento e dados de qualidade, modelos de porte médio e pequeno podem competir com gigantes.
Para arquitetos de solução que precisam balancear custo, privacidade e desempenho, essas duas famílias entregam opções concretas e viáveis.