DeepLearning.AI
Aprenda a comprimir modelos com a biblioteca Hugging Face Transformers e a biblioteca Quanto. Este curso cobre técnicas de quantização linear e downcasting para tornar os modelos de IA generativa mais eficientes e acessíveis.
Neste curso, você aprenderá a comprimir modelos usando técnicas de quantização linear e downcasting. Você obterá uma base em métodos de quantização, permitindo otimizar modelos de IA generativa para melhor desempenho em vários dispositivos. Ao final do curso, você será capaz de aplicar essas técnicas aos seus próprios modelos, tornando-os mais eficientes e acessíveis.
Entusiastas de Aprendizado de Máquina
Indivíduos com um entendimento básico dos conceitos de aprendizado de máquina que desejam aprender sobre quantização de modelos.
Desenvolvedores de IA
Desenvolvedores interessados em otimizar modelos de IA generativa para melhor desempenho e eficiência.
Cientistas de Dados
Cientistas de dados que procuram tornar os modelos de IA mais acessíveis e eficientes para vários dispositivos.
Este curso ensinará técnicas essenciais de quantização para otimizar modelos de IA generativa, tornando-os mais eficientes e acessíveis. Ideal para iniciantes e profissionais que desejam aprimorar suas habilidades em IA e melhorar o desempenho dos modelos.
1 / 2
Entendimento básico dos conceitos de aprendizado de máquina
Alguma experiência com PyTorch
Younes Belkada
Instrutor, DeepLearning.AI
Younes Belkada é instrutor na DeepLearning.AI, com foco em tópicos de Machine Learning e Ciência de Dados.
Marc Sun
Engenheiro de Machine Learning, Hugging Face
Marc Sun é um Engenheiro de Machine Learning na Hugging Face, uma equipe de código aberto dedicada à democratização do machine learning. Ele também é instrutor na DeepLearning.AI.
Custo
Gratuito
Duração
Datas
Localização