DeepLearning.AI
Este curso oferece uma imersão profunda nos principais componentes da arquitetura de transformadores que alimenta grandes modelos de linguagem (LLMs). Adquira uma base técnica sólida em transformadores, entenda as melhorias recentes e explore implementações na biblioteca Hugging Face Transformers.
Neste curso, você aprenderá como funciona uma arquitetura de rede de transformadores que alimenta os LLMs. Você desenvolverá a intuição de como os LLMs processam texto e trabalhará com exemplos de código que ilustram os principais componentes da arquitetura de transformadores. Ao final deste curso, você terá uma compreensão profunda de como os LLMs processam a linguagem e será capaz de ler artigos que descrevem modelos e entender os detalhes usados para descrever essas arquiteturas.
Entusiastas de IA
Indivíduos interessados em entender o funcionamento interno das arquiteturas de transformadores que alimentam os LLMs de hoje.
Cientistas de Dados
Profissionais que desejam aprofundar seu conhecimento sobre modelos de transformadores e suas aplicações em IA.
Desenvolvedores
Desenvolvedores que desejam construir aplicações usando grandes modelos de linguagem e entender sua arquitetura subjacente.
Adquira uma compreensão profunda das arquiteturas de transformadores que alimentam os LLMs de hoje. Aprenda componentes-chave como tokenização, embeddings e auto-atenção, e explore melhorias recentes. Ideal para entusiastas de IA, cientistas de dados e desenvolvedores que desejam avançar em suas carreiras.
1 / 3
Compreensão básica de conceitos de aprendizado de máquina
Familiaridade com linguagens de programação como Python
Interesse em IA e modelos de linguagem
Jay Alammar
Diretor e Engenheiro Sênior, Cohere
Coautor de Mãos à Obra com Modelos de Linguagem de Grande Escala
Maarten Grootendorst
Cientista de Dados Clínicos Sênior, Organização Holandesa de Combate ao Câncer
Custo
Gratuito
Duração
Datas
Localização