Visão Geral

O Que É Inferência de IA?

Inferência de IA é onde os modelos de IA pré-treinados são implantados para gerar novos dados e onde a IA fornece resultados impulsionando a inovação em todos os setores. Os modelos de IA estão se expandindo rapidamente em tamanho, complexidade e diversidade, ampliando os limites do possível. Para o uso bem-sucedido da inferência de IA, as empresas precisam de uma abordagem completa que suporte o ciclo de vida da IA de ponta a ponta, além de ferramentas que permitam que as equipes alcancem suas metas.

Implantação de IA Generativa na Produção

Explore as principais considerações para a implantação e a dimensionamento de IA generativa na produção, incluindo o papel crítico da inferência de IA.

Vantagens

Explore os Benefícios da IA da NVIDIA para Inferência Acelerada

Padronize a Implantação

Padronize a implantação de modelos em aplicações, frameworks de IA, arquiteturas de modelos e plataformas.

Integre e Expanda com Facilidade

Faça integração facilmente com ferramentas e plataformas em nuvens públicas, em data centers locais e no edge.

Menor Custo

Obtenha alta taxa de transferência e utilização com infraestrutura de IA, reduzindo assim os custos.

Alto Desempenho

Experimente o desempenho líder do setor com a plataforma que estabeleceu consistentemente vários recordes no MLPerf, o principal benchmark do setor para IA.

Software

Explore Nosso Software de Inferência de IA

O NVIDIA AI Enterprise consiste no NVIDIA NIM™, no Servidor de Inferência NVIDIA Triton™, no NVIDIA® TensorRT™ e em outras ferramentas para simplificar a criação, o compartilhamento e a implantação de aplicações de IA. Com suporte, estabilidade, gerenciabilidade e segurança de nível empresarial, as empresas podem acelerar o tempo de geração de valor, eliminando o tempo de inatividade não planejado.

O Caminho Mais Rápido para a Inferência de IA Generativa

O NVIDIA NIM é um conjunto de microsserviços fáceis de usar, projetados para implantação segura e confiável de inferência de modelos de IA de alto desempenho em nuvens, data centers e workstations.

Servidor de Inferência Unificado para Todas as Suas Cargas de Trabalho de IA

O Servidor de Inferência NVIDIA Triton é um software de serviço de inferência de código aberto que ajuda as empresas a consolidar uma infraestrutura de serviço de modelos de IA personalizada, encurtar o tempo necessário para implantar novos modelos de IA em produção e aumentar a capacidade de inferência e previsão da IA.

Um SDK para Otimização de Inferência e Tempo de Execução

O NVIDIA TensorRT inclui otimizações de tempo de execução de inferência e modelos que oferecem baixa latência e alta taxa de transferência para aplicações de produção. O ecossistema do TensorRT inclui o TensorRT, o TensorRT-LLM, o TensorRT Model Optimizer e o TensorRT Cloud.

Hardware

Explore Nossa Infraestrutura de Inferência de IA

Obtenha desempenho de IA incomparável com o software de inferência de IA da NVIDIA otimizado para infraestrutura acelerada pela NVIDIA. As tecnologias NVIDIA H200, L40S e NVIDIA RTX™ oferecem velocidade e eficiência excepcionais para cargas de trabalho de inferência de IA em data centers, nuvens e workstations.

GPU NVIDIA H200 Tensor Core

A GPU NVIDIA H200 Tensor Core potencializa as cargas de trabalho de IA generativa e computação de alto desempenho (HPC) com recursos de desempenho e memória revolucionários. Como a primeira GPU com HBM3e, a memória maior e mais rápida do H200 impulsiona a aceleração da IA generativa e dos grandes modelos de linguagem (LLMs), ao mesmo tempo em que promove a computação científica para cargas de trabalho de HPC.

GPU NVIDIA L40S

A combinação do stack completo de software de serviço de inferência da NVIDIA com a GPU L40S fornece uma plataforma potente para modelos treinados prontos para inferência. Com suporte para dispersão estrutural e uma ampla variedade de precisões, a L40S oferece até 1,7 vezes o desempenho de inferência da GPU NVIDIA A100 Tensor Core.

Tecnologia NVIDIA RTX

A tecnologia NVIDIA RTX traz a IA para a computação visual, acelerando a criatividade ao automatizar tarefas e otimizar processos intensivos em computação. Com o poder dos núcleos CUDA®, o RTX aprimora a renderização em tempo real, a IA, os gráficos e o desempenho de computação.

Apresentando o NVIDIA Project DIGITS

O NVIDIA Project DIGITS traz o poder da Grace Blackwell para desktops de desenvolvedores. O GB10 Superchip, combinado com 128 GB de memória unificada do sistema, permite que pesquisadores de IA, cientistas de dados e estudantes trabalhem com modelos de IA localmente com até 200 bilhões de parâmetros.

Casos de Uso

Como a Inferência de IA Está Sendo Usada

Veja como a IA da NVIDIA é compatível com casos de uso do setor e comece sua jornada de desenvolvimento de IA com exemplos selecionados.

Humanos Digitais

O NVIDIA ACE é um conjunto de tecnologias que ajuda os desenvolvedores a dar vida aos humanos digitais. Vários microsserviços ACE são NVIDIA NIMs: microsserviços fáceis de implantar e de alto desempenho, otimizados para serem executados em PCs NVIDIA RTX com IA ou na NVIDIA Graphics Delivery Network (GDN), uma rede global de GPUs que oferece processamento de humanos digitais de baixa latência para 100 países. 

Geração de Conteúdo

Com a IA generativa, você pode gerar conteúdo altamente relevante, personalizado e preciso, baseado na experiência de domínio e no IP proprietário da sua empresa.

Geração Biomolecular

Os modelos generativos biomoleculares e o poder computacional das GPUs exploram de forma eficiente o espaço químico, gerando rapidamente diversos conjuntos de pequenas moléculas adaptadas a alvos ou propriedades específicas de medicamentos.

Detecção de Fraudes

As instituições financeiras precisam detectar e prevenir atividades fraudulentas sofisticadas, como roubo de identidade, aquisição de contas e lavagem de dinheiro. As aplicações habilitadas por IA podem reduzir os falsos positivos na detecção de fraudes em transações, aprimorar a precisão da verificação de identidade para requisitos de conheça seu cliente (KYC) e tornar os esforços de combate à lavagem de dinheiro (AML) mais eficazes, melhorando tanto a experiência do cliente quanto a saúde financeira da sua empresa.

Chatbot de IA

As empresas estão buscando criar chatbots de IA mais inteligentes usando geração aumentada via recuperação (RAG). Com RAG, os chatbots podem responder com precisão a perguntas específicas de domínio, recuperando informações da base de conhecimento de uma empresa e fornecendo respostas em tempo real em linguagem natural. Esses chatbots podem ser usados para aprimorar o suporte ao cliente, personalizar avatares de IA, gerenciar o conhecimento da empresa, simplificar a integração de funcionários, fornecer suporte de IT inteligente, criar conteúdo e muito mais.

Análise de Vulnerabilidade de Segurança

A aplicação de patches para problemas de segurança de software está se tornando cada vez mais desafiadora, à medida que o número de falhas de segurança relatadas no banco de dados de vulnerabilidades e exposições comuns (CVE) atingiu um recorde em 2022. Usando a IA generativa, é possível melhorar a defesa contra vulnerabilidades, diminuindo, ao mesmo tempo, o ônus das equipes de segurança.

Histórias de Clientes

Como os Líderes do Setor Estão Gerando Inovação com Inferência de IA.

Amdocs

Acelere o Desempenho de IA Generativa e Reduza os Custos

Leia como a Amdocs criou a amAIz, uma plataforma de IA generativa específica de domínio para empresas de telecomunicações, usando os microsserviços de inferência NVIDIA DGX™ Cloud e NVIDIA NIM para melhorar a latência, aumentar a precisão e reduzir custos.

Snapchat

Aprimorando as Compras de Roupas com IA

Saiba como o Snapchat aprimorou a experiência de compra de roupas e o reconhecimento óptico de caracteres com emojis usando o Servidor de Inferência Triton para dimensionar, reduzir custos e acelerar o tempo de produção.

Amazon

Acelere a Satisfação do Cliente

Descubra como a Amazon melhorou a satisfação do cliente ao tornar sua inferência 5 vezes mais rápida com o TensorRT.

Recursos

Últimas Novidades em Recursos de Inferência de IA

Comece a Usar a Inferência no NVIDIA LaunchPad

Você tem um projeto de IA em andamento? Inscreva-se para obter experiência prática em testes e prototipagem de suas soluções de IA.

Explore a IA Generativa e Caminhos de Aprendizagem para LLM

Aumente suas habilidades técnicas em IA generativa e grandes modelos de linguagem com nossos caminhos de aprendizagem abrangentes.

Comece a Usar a Inferência e IA Generativa no NVIDIA LaunchPad

Acelere sua jornada de IA generativa com acesso imediato e de curto prazo aos microsserviços de inferência e modelos de IA NVIDIA NIM, gratuitamente.

Implantação de IA Generativa na Produção com o NVIDIA NIM

Libere o potencial da IA generativa com o NVIDIA NIM. Este vídeo aborda como os microsserviços NVIDIA NIM podem transformar sua implantação de IA em uma potência pronta para a produção.

Os 5 Principais Motivos Pelos Quais o Triton Está Simplificando a Inferência

O Servidor de Inferência Triton simplifica a implantação de modelos de IA em escala na produção. Software de serviço de inferência de código aberto, ele permite que as equipes implementem modelos de IA treinados a partir de qualquer framework, a partir de armazenamento local ou plataforma em nuvem, em qualquer infraestrutura baseada em GPU ou CPU.

UneeQ

A NVIDIA Apresenta os NIMs

Você já se perguntou do que a tecnologia NIM da NVIDIA é capaz? Mergulhe no mundo dos humanos digitais e robôs alucinantes para ver o que os NIMs tornam possível.

Próximas Etapas

Pronto para Começar?

Explore tudo aquilo de que você precisa para começar a desenvolver sua aplicação de IA, incluindo a documentação mais recente, tutoriais, blogs técnicos e muito mais.

Fale Conosco

Converse com um especialista em produtos da NVIDIA sobre a mudança da fase de testes para a produção com a segurança, a estabilidade da API e o suporte do NVIDIA AI Enterprise.

Receba as Últimas Notícias sobre a IA da NVIDIA

Inscreva-se para receber as últimas notícias, atualizações e novidades da NVIDIA.

OSZAR »