DeepLearning.AI
Este curso proporciona una explicación clara del mecanismo de atención en transformadores, una arquitectura innovadora que impulsa modelos de lenguaje grandes como ChatGPT. Aprende a codificar mecanismos de atención en PyTorch y mejora tu comprensión de las aplicaciones de IA.
En este curso, profundizarás en el mecanismo de atención, un componente clave de los transformadores, y aprenderás a implementarlo usando PyTorch. Explorarás las relaciones entre las incrustaciones de palabras, las incrustaciones posicionales y la atención, y comprenderás los roles de las matrices de Consulta, Clave y Valor. El curso cubre la autoatención, la autoatención enmascarada y la atención cruzada, proporcionando una comprensión completa de cómo estos conceptos se incorporan en los transformadores. Al final, estarás equipado con el conocimiento para construir aplicaciones de IA confiables y escalables.
Entusiastas de Python
Individuos con conocimientos básicos de Python interesados en aprender sobre el mecanismo de atención en LLMs.
Desarrolladores de IA
Desarrolladores que buscan entender la arquitectura fundamental de los transformadores para construir aplicaciones de IA escalables.
Científicos de Datos
Científicos de datos que desean mejorar su comprensión de los mecanismos de atención en modelos de lenguaje grandes.
Este curso ofrece una inmersión profunda en el mecanismo de atención, un componente crucial de los transformadores, permitiendo a los estudiantes entender e implementarlo usando PyTorch. Ideal para principiantes y profesionales, proporciona las habilidades necesarias para avanzar en IA y aprendizaje automático.
1 / 3
Conocimientos básicos de Python
Interés en IA y aprendizaje automático
Comprensión de conceptos matemáticos básicos
Costo
Libre
Duración
Fechas
Ubicación