DeepLearning.AI
Aprende a comprimir modelos con la biblioteca Transformers de Hugging Face y la biblioteca Quanto. Este curso cubre técnicas de cuantización lineal y downcasting para hacer que los modelos de IA generativa sean más eficientes y accesibles.
En este curso, aprenderás a comprimir modelos utilizando técnicas de cuantización lineal y downcasting. Obtendrás una base en métodos de cuantización, lo que te permitirá optimizar modelos de IA generativa para un mejor rendimiento en varios dispositivos. Al final del curso, serás capaz de aplicar estas técnicas a tus propios modelos, haciéndolos más eficientes y accesibles.
Entusiastas del Aprendizaje Automático
Individuos con un entendimiento básico de los conceptos de aprendizaje automático que desean aprender sobre la cuantización de modelos.
Desarrolladores de IA
Desarrolladores interesados en optimizar modelos de IA generativa para un mejor rendimiento y eficiencia.
Científicos de Datos
Científicos de datos que buscan hacer los modelos de IA más accesibles y eficientes para varios dispositivos.
Este curso te enseñará técnicas esenciales de cuantización para optimizar modelos de IA generativa, haciéndolos más eficientes y accesibles. Ideal para principiantes y profesionales que buscan mejorar sus habilidades en IA y mejorar el rendimiento de los modelos.
1 / 2
Entendimiento básico de los conceptos de aprendizaje automático
Algo de experiencia con PyTorch
Younes Belkada
Instructor, DeepLearning.AI
Younes Belkada es instructor en DeepLearning.AI, centrándose en temas de aprendizaje automático y ciencia de datos.
Marc Sun
Ingeniero de aprendizaje automático, Hugging Face
Marc Sun es ingeniero de aprendizaje automático en Hugging Face, un equipo de código abierto dedicado a democratizar el aprendizaje automático. También es instructor en DeepLearning.AI.
Costo
Libre
Duración
Fechas
Ubicación