O serviço NVIDIA NeMo LLM ajuda desenvolvedores a personalizar modelos de linguagem enormes, o serviço NVIDIA BioNeMo ajuda pesquisadores a gerar e prever moléculas, proteínas e DNA
A NVIDIA anuncia dois novos grandes serviços de cloud de modelos de linguagem IA, o NVIDIA NeMo Large Language Model Service e o NVIDIA BioNeMo LLM Service, que permitem que os desenvolvedores adaptarem facilmente os LLMs e implantarem aplicações personalizadas de IA para geração de conteúdo, resumo de texto, chatbots, desenvolvimento de códigos, bem como estrutura de proteínas e previsões de propriedades biomolecular e muito mais.
O NeMo LLM Service permite que os desenvolvedores adaptem rapidamente uma série de modelos de base pré-treinados usando um método de treinamento chamado prompt learning na infraestrutura gerenciada pela NVIDIA. O NVIDIA BioNeMo Service é uma interface de programação de aplicações (API) em cloud, que expande os casos de uso do LLM para além da linguagem e em aplicações científicas, para acelerar a descoberta de medicamentos para empresas farmacêuticas e de biotecnologia.
“Grandes modelos de linguagem têm o potencial de transformar todos os setores”, diz Jensen Huang, fundador e CEO da NVIDIA. “A capacidade de ajustar modelos de base coloca o poder dos LLMs ao alcance de milhões de desenvolvedores, que agora podem criar serviços de linguagem e impulsionar descobertas científicas sem precisar construir um modelo maciço do zero.”
Serviço NeMo LLM aumenta a precisão com aprendizado imediato e acelera as implantações
Com o NeMo LLM Service, os desenvolvedores podem usar seus próprios dados de treinamento para personalizar modelos de fundação que variam de 3 bilhões de parâmetros até o Megatron de 530 bilhões, um dos maiores LLMs do mundo. O processo leva apenas alguns minutos ou horas, em comparação com as semanas ou meses necessários para treinar um modelo do zero.
Os modelos são personalizados com aprendizado imediato, que usa uma técnica chamada p-tuning. Isso permite que os desenvolvedores usem apenas algumas centenas de exemplos para personalizar rapidamente modelos de base treinados originalmente com bilhões de pontos de dados. O processo de personalização gera tokens de prompt específicos para tarefas, que são combinados com os modelos de base para oferecer maior precisão e respostas mais relevantes para casos de uso específicos.
Os desenvolvedores podem personalizar para vários casos de uso utilizando o mesmo modelo e gerando muitos tokens de prompt diferentes. Um recurso de playground oferece uma opção sem código para experimentar e interagir facilmente com os modelos, aumentando ainda mais a eficácia e a acessibilidade dos LLMs para casos de uso de setores específicos.
Depois de prontos para implantação, os modelos ajustados podem ser executados em instâncias na nuvem, sistemas locais ou por meio de API.
BioNeMo LLM Service permite que pesquisadores aproveitem o poder de modelos massivos
O BioNeMo LLM Service inclui dois novos modelos de linguagem BioNeMo para aplicações de química e biologia. O serviço fornece suporte para dados de proteínas, DNA e química para ajudar os pesquisadores a descobrirem padrões e insights em sequências biológicas.
O BioNeMo permite que os pesquisadores expandam o escopo de seu trabalho aproveitando modelos que contêm bilhões de parâmetros. Esses modelos maiores podem armazenar mais informações sobre a estrutura das proteínas, relações evolutivas entre genes e, até mesmo, gerar novas biomoléculas para aplicações terapêuticas.
“As soluções da NVIDIA oferecem um grande avanço na área de pesquisas científicas e para a área de saúde. O processamento de um enorme volume de dados em um curto período de tempo é benéfico em todos os aspectos da pesquisa e do desenvolvimento para o setor”, afirma Marcio Aguiar, Diretor da NVIDIA Enterprise para a América Latina.
API em nuvem oferece acesso a Megatron 530B, outros modelos prontos
Além de ajustar os modelos básicos, os serviços LLM incluem a opção de usar modelos prontos e personalizados por meio de uma API na nuvem.
Isso dá aos desenvolvedores acesso a uma ampla variedade de LLMs pré-treinados, incluindo Megatron 530B. Também fornece acesso a modelos T5 e GPT-3 criados com o framework NVIDIA NeMo Megatron — agora disponível em beta aberto — para suportar uma ampla gama de aplicações e requisitos de serviço multilíngue.
Líderes em setores automotivo, de computação, educação, saúde, telecomunicações e outros setores estão usando NeMo Megatron para serem pioneiros em oferecer serviços para clientes em chinês, inglês, coreano, sueco e outros idiomas.
Disponibilidade
Os serviços NeMo LLM e BioNeMo e APIs em cloud devem estar disponíveis com acesso antecipado a partir do próximo mês. Os desenvolvedores podem se inscrever agora para obter mais detalhes.
A versão beta do framework NeMo Megatron está disponível no NVIDIA NGC™ e é otimizada para ser executada no NVIDIA DGX™ Foudry e no NVIDIA DGX SuperPOD™, bem como em instâncias de cloud aceleradas da Amazon Web Services, Microsoft Azure e Oracle Cloud Infrastructure.
Para experimentar a estrutura do NeMo Megatron, os desenvolvedores podem testar os laboratórios do NVIDIA LaunchPad gratuitamente.
Confira a apresentação de Jensen Huang no GTC 22 para saber mais sobre grandes modelos de linguagem com tecnologia NVIDIA AI.
*Imagem: Divulgação/NVIDIA