Logotipo Mydra
Artificial Intelligence
DeepLearning.AI logo

DeepLearning.AI

Fundamentos de Quantização com Hugging Face

  • até 1 hora
  • Iniciante

Aprenda a comprimir modelos com a biblioteca Hugging Face Transformers e a biblioteca Quanto. Este curso cobre técnicas de quantização linear e downcasting para tornar os modelos de IA generativa mais eficientes e acessíveis.

  • Quantização de modelos
  • Quantização linear
  • Downcasting
  • Modelos de IA generativa
  • Biblioteca Hugging Face Transformers

Visão Geral

Neste curso, você aprenderá a comprimir modelos usando técnicas de quantização linear e downcasting. Você obterá uma base em métodos de quantização, permitindo otimizar modelos de IA generativa para melhor desempenho em vários dispositivos. Ao final do curso, você será capaz de aplicar essas técnicas aos seus próprios modelos, tornando-os mais eficientes e acessíveis.

  • Web Streamline Icon: https://streamlinehq.com
    Online
    localização do curso
  • Layers 1 Streamline Icon: https://streamlinehq.com
    Inglês
    idioma do curso
  • Ao seu próprio ritmo
    formato do curso
  • Aulas Ao vivo
    entregue online

Para quem é este curso?

Entusiastas de Aprendizado de Máquina

Indivíduos com um entendimento básico dos conceitos de aprendizado de máquina que desejam aprender sobre quantização de modelos.

Desenvolvedores de IA

Desenvolvedores interessados em otimizar modelos de IA generativa para melhor desempenho e eficiência.

Cientistas de Dados

Cientistas de dados que procuram tornar os modelos de IA mais acessíveis e eficientes para vários dispositivos.

Este curso ensinará técnicas essenciais de quantização para otimizar modelos de IA generativa, tornando-os mais eficientes e acessíveis. Ideal para iniciantes e profissionais que desejam aprimorar suas habilidades em IA e melhorar o desempenho dos modelos.

Pré-Requisitos

1 / 2

  • Entendimento básico dos conceitos de aprendizado de máquina

  • Alguma experiência com PyTorch

O que vai aprender?

Introdução à Quantização
Aprenda o básico sobre quantização de modelos e sua importância na otimização de modelos de IA.
Quantização Linear
Entenda a quantização linear e como ela pode ser aplicada para comprimir modelos usando a biblioteca Quanto.
Downcasting com Transformers
Aprenda sobre downcasting e como usar a biblioteca Transformers para carregar modelos no tipo de dado BFloat16.
Aplicações Práticas
Pratique a quantização de modelos multimodais e de linguagem de código aberto para torná-los mais eficientes.

Conheça seus instrutores

  • Younes Belkada

    Instrutor, DeepLearning.AI

    Younes Belkada é instrutor na DeepLearning.AI, com foco em tópicos de Machine Learning e Ciência de Dados.

  • Marc Sun

    Engenheiro de Machine Learning, Hugging Face

    Marc Sun é um Engenheiro de Machine Learning na Hugging Face, uma equipe de código aberto dedicada à democratização do machine learning. Ele também é instrutor na DeepLearning.AI.

Próximas turmas

  • Datas

    comece agora

Gratuito