Num movimento que marca a expansão contínua no campo da inteligência artificial, a equipe por trás da revolucionária família de modelos Gemma anunciou recentemente a introdução de duas novas variantes: CodeGemma e RecurrentGemma. Este desenvolvimento, anunciado por Tris Warkentin, Diretor de Gestão de Produtos, e Jane Fine, Gerente Sênior de Produtos, vem após o lançamento inicial da Gemma em fevereiro deste ano. A Gemma foi apresentada como uma série de modelos abertos, leves e de ponta, desenvolvidos utilizando a mesma pesquisa e tecnologia por trás dos aclamados modelos Gemini.
Desde o seu anúncio, a Gemma tem sido bem recebida pela comunidade, gerando uma resposta entusiasmada e inovadora. Isso inclui a criação de variantes ajustadas, a implementação em notebooks Kaggle, a integração em diversas ferramentas e serviços, além do desenvolvimento de aplicativos utilizando bases de dados como MongoDB. A expansão atual visa fortalecer a inovação responsável entre os desenvolvedores de Machine Learning (ML), introduzindo ferramentas aprimoradas para conclusão e geração de código, bem como para experimentação em pesquisa.
Introduzindo CodeGemma e RecurrentGemma
CodeGemma: Uma Ferramenta para Desenvolvedores e Empresas
CodeGemma, aproveitando a base sólida dos modelos Gemma, oferece funcionalidades de codificação avançadas e leves. Disponível em variantes pré-treinadas de 7B e 2B, CodeGemma é projetado para aperfeiçoar tarefas de conclusão e geração de código. Com um enfoque particular na precisão e multilíngue, essa variante promete reduzir o tempo de depuração e aprimorar a eficiência no desenvolvimento de software, suportando várias linguagens de programação, incluindo Python, JavaScript e Java.
RecurrentGemma: Otimização para Pesquisadores
Diferenciando-se tecnicamente, o RecurrentGemma utiliza redes neurais recorrentes para melhorar a eficiência da memória, ideal para a geração de amostras mais longas em dispositivos com recursos limitados. Essa variante se destaca pela capacidade de manter a velocidade de amostragem, independentemente do comprimento da sequência, uma vantagem significativa em comparação com modelos baseados em Transformer quando se trata de sequências mais extensas.
Ampliação das Capacidades com a Gemma
Ambas as adições, CodeGemma e RecurrentGemma, são construídas sobre os princípios originais dos modelos Gemma, oferecendo disponibilidade aberta, desempenho e eficiência aprimorados, e um compromisso com o design responsável. Estas variantes não apenas avançam as capacidades dos modelos abertos, como também oferecem flexibilidade para uma ampla gama de aplicações de software e hardware.
Gemma 1.1: Atualizações e Melhorias
Além das novas variantes, a equipe também lançou a Gemma 1.1, incluindo melhorias de desempenho e atualizações de termos para maior flexibilidade, em resposta ao feedback dos desenvolvedores.
Disponíveis globalmente, as primeiras variantes dos modelos Gemma podem ser acessadas por meio de diversas plataformas, incluindo Kaggle, Hugging Face e o Jardim de Modelos Vertex AI. Esta iniciativa convida a comunidade de IA a explorar, integrar e inovar com essas novas ferramentas, promovendo avanços significativos na criação e compreensão de conteúdo impulsionado por IA.