DeepLearning.AI
Este curso oferece uma compreensão abrangente do mecanismo de atenção em transformers, um componente chave em grandes modelos de linguagem como o ChatGPT. Aprenda a codificar mecanismos de atenção em PyTorch e melhore suas habilidades de desenvolvimento de aplicações de IA.
Mergulhe profundamente no mecanismo de atenção que revolucionou a IA com transformers. Este curso, ministrado por Josh Starmer, cobre a evolução da atenção, o papel das matrizes Query, Key e Value, e as diferenças entre auto-atenção e auto-atenção mascarada. Ganhe experiência prática codificando esses conceitos em PyTorch e entenda como eles contribuem para a construção de aplicações de IA escaláveis.
Entusiastas de Python
Indivíduos com conhecimento básico de Python interessados em aprender sobre o mecanismo de atenção em LLMs como o ChatGPT.
Desenvolvedores de IA
Desenvolvedores que buscam aprimorar sua compreensão sobre transformers e mecanismos de atenção em aplicações de IA.
Cientistas de Dados
Cientistas de dados que desejam melhorar suas habilidades na construção de modelos de IA escaláveis usando PyTorch.
Desbloqueie o poder dos transformers dominando o mecanismo de atenção, um componente crucial em modelos de IA como o ChatGPT. Este curso é perfeito para iniciantes e profissionais que desejam aprimorar suas habilidades de desenvolvimento de IA usando PyTorch.
1 / 3
Conhecimento básico de Python
Compreensão de conceitos de aprendizado de máquina
Familiaridade com redes neurais
Custo
Gratuito
Duração
Datas
Localização