Logotipo Mydra
Artificial Intelligence
DeepLearning.AI logo

DeepLearning.AI

Matemática para Aprendizado de Máquina e Ciência de Dados Especialização

  • até 3 meses
  • Iniciante

Matemática para Aprendizado de Máquina e Ciência de Dados é uma especialização amigável para iniciantes onde você dominará o kit de ferramentas matemáticas fundamentais do aprendizado de máquina: cálculo, álgebra linear, estatística e probabilidade. Este curso ajudará você a entender o que faz os algoritmos funcionarem e como ajustá-los para implementações personalizadas, capacitando-o a se destacar em entrevistas de aprendizado de máquina e conseguir o emprego dos seus sonhos.

  • Análise de Dados
  • Cálculo
  • Vetores e Matrizes
  • Transformações Lineares
  • Autovetores e Autovalores

Visão Geral

Nesta especialização, você obterá uma compreensão profunda dos princípios matemáticos que sustentam os algoritmos de aprendizado de máquina. Você aprenderá a aplicar técnicas estatísticas para aprimorar sua análise de dados e adquirirá habilidades altamente procuradas pelos empregadores. Ao final do curso, você será capaz de implementar e otimizar algoritmos de aprendizado de máquina, tornando-se um ativo valioso no campo de IA e ciência de dados.

  • Web Streamline Icon: https://streamlinehq.com
    Online
    localização do curso
  • Layers 1 Streamline Icon: https://streamlinehq.com
    Inglês
    idioma do curso
  • Certificação Profissional
    após a conclusão do curso
  • Ao seu próprio ritmo
    formato do curso
  • Aulas Ao vivo
    entregue online

Para quem é este curso?

Aspirantes a Cientistas de Dados

Indivíduos que desejam construir uma base matemática sólida para uma carreira em ciência de dados.

Entusiastas de Aprendizado de Máquina

Qualquer pessoa interessada em entender os princípios matemáticos por trás dos algoritmos de aprendizado de máquina.

Profissionais em Transição para IA

Profissionais de outras áreas que desejam fazer a transição para funções de IA e aprendizado de máquina.

Esta especialização fornecerá a você as habilidades matemáticas essenciais necessárias para se destacar em aprendizado de máquina e ciência de dados. Você aprenderá tópicos essenciais como cálculo, álgebra linear e probabilidade, que são cruciais para entender e implementar algoritmos de aprendizado de máquina. Este curso é perfeito para iniciantes e profissionais que desejam avançar em suas carreiras em IA.

Pré-Requisitos

1 / 3

  • Matemática de nível de ensino médio

  • Compreensão básica de álgebra

  • Interesse em aprendizado de máquina e ciência de dados

O que vai aprender?

Álgebra Linear para Aprendizado de Máquina e Ciência de Dados
Semana 1: Sistemas de Equações Lineares Lição 1: Sistemas de Equações Lineares: duas variáveis Motivação para aprendizado de máquina Sistemas de sentenças Sistemas de equações Sistemas de equações como linhas Uma noção geométrica de singularidade Matrizes singulares vs não singulares Dependência e independência linear O determinante Lição 2: Sistemas de Equações Lineares: três variáveis Sistemas de equações (3×3) Singular vs não singular (3×3) Sistemas de equações como planos (3×3) Dependência e independência linear (3×3) O determinante (3×3) Semana 2: Resolvendo sistemas de Equações Lineares Lição 1: Resolvendo sistemas de Equações Lineares: Eliminação Motivação para aprendizado de máquina Resolvendo sistemas de equações lineares não singulares Resolvendo sistemas de equações lineares singulares Resolvendo sistemas de equações com mais variáveis Redução de linhas de matriz Operações de linha que preservam a singularidade Eliminação de Gauss Lição 2: Resolvendo sistemas de Equações Lineares: Forma Escalonada e Posto O posto de uma matriz O posto de uma matriz em geral Forma escalonada Forma escalonada em geral Forma escalonada reduzida Semana 3: Vetores e Transformações Lineares Lição 1: Vetores Norma de um vetor Soma e diferença de vetores Distância entre vetores Multiplicando um vetor por um escalar O produto escalar Produto Escalar Geométrico Multiplicando uma matriz por um vetor Laboratório: Operações com Vetores: Multiplicação Escalar, Soma e Produto Escalar de Vetores Lição 2: Transformações lineares Matrizes como transformações lineares Transformações lineares como matrizes Multiplicação de matrizes A matriz identidade Inversa da matriz Quais matrizes têm uma inversa? Redes neurais e matrizes Semana 4: Determinantes e Autovetores Lição 1: Determinantes em profundidade Motivação para aprendizado de máquina Singularidade e posto de transformação linear Determinante como uma área Determinante de um produto Determinantes de inversas Lição 2: Autovalores e Autovetores Bases em Álgebra Linear Span em Álgebra Linear Visualização interativa: Span Linear Autobases Autovalores e autovetores Análise de Componentes Principais (PCA)
Cálculo para Aprendizado de Máquina e Ciência de Dados
Semana 1: Funções de uma variável: Derivada e otimização Lição 1: Derivadas Exemplo para motivar derivadas: Velocímetro Derivada de funções comuns (c, x, x^2, 1/x) Significado de e e a derivada de e^x Derivada de log x Existência de derivadas Propriedades da derivada Lição 2: Otimização com derivadas Vídeo 1: Introdução à otimização: Exemplo de temperatura Vídeo 2: Otimizando funções de custo em ML: Perda quadrática Vídeo 3: Otimizando funções de custo em ML: Perda logarítmica Semana 2: Funções de duas ou mais variáveis: Gradientes e descida do gradiente Lição 1: Gradientes e otimização Introdução aos gradientes Exemplo para motivar gradientes: Temperatura Notação de gradiente Otimização usando método de inclinação: Regressão linear Lição 2: Descida do Gradiente Otimização usando descida do gradiente: 1 variável Otimização usando descida do gradiente: 2 variáveis Descida do gradiente para regressão linear Semana 3: Otimização em Redes Neurais e Método de Newton Lição 1: Otimização em Redes Neurais Perceptron sem ativação e perda quadrática (regressão linear) Perceptron com ativação sigmoide e perda logarítmica (classificação) Rede neural de duas camadas com ativação sigmoide e perda logarítmica Matemática da Retropropagação Lição 2: Além da Descida do Gradiente: Método de Newton Encontrando raízes com o método de Newton Adaptando o método de Newton para otimização Segundas derivadas e Hessianas Método de Newton multivariado
Probabilidade e Estatística para Aprendizado de Máquina e Ciência de Dados
Semana 1: Introdução à probabilidade e variáveis aleatórias Lição 1: Introdução à probabilidade Conceito de probabilidade: ensaios aleatórios repetidos Probabilidade condicional e independência Aprendizado discriminativo e probabilidade condicional Teorema de Bayes Lição 2: Variáveis aleatórias Variáveis aleatórias Função de distribuição cumulativa Variáveis aleatórias discretas: Distribuição de Bernoulli Variáveis aleatórias discretas: Distribuição binomial Função de massa de probabilidade Variáveis aleatórias contínuas: Distribuição uniforme Variáveis aleatórias contínuas: Distribuição gaussiana Variáveis aleatórias contínuas: Distribuição qui-quadrado Função de distribuição de probabilidade Semana 2: Descrevendo distribuições e vetores aleatórios Lição 1: Descrevendo distribuições Medidas de tendência central: média, mediana, moda Valores esperados Quantis e box-plots Medidas de dispersão: variância, desvio padrão Lição 2: Vetores aleatórios Distribuições conjuntas Distribuições marginais e condicionais Independência Medidas de relação: covariância Distribuição normal multivariada Semana 3: Introdução à estatística Lição 1: Amostragem e estimativas pontuais População vs. amostra Descrevendo amostras: proporção amostral e média amostral Distribuição da média amostral e proporção: Teorema do Limite Central Estimativas pontuais Estimativas tendenciosas vs. não tendenciosas Lição 2: Estimação de máxima verossimilhança Exemplo de motivação em ML: Análise Discriminante Linear Verossimilhança Intuição por trás da estimação de máxima verossimilhança MLE: Como obter o máximo usando cálculo Lição 3: Estatísticas bayesianas Exemplo de motivação em ML: Naive Bayes Estatísticas frequentistas vs. bayesianas Distribuições a priori/ a posteriori Estimadores bayesianos: média posterior, mediana posterior, MAP Semana 4: Estatísticas intervalares e Teste de Hipóteses Lição 1: Intervalos de confiança Margem de erro Estimação intervalar Intervalo de Confiança para a média da população IC para parâmetros em regressão linear Intervalo de Previsão Lição 2: Teste de Hipóteses Motivação em ML: Teste AB Julgamento criminal Dois tipos de erros Teste para proporção e médias Inferência de duas amostras para diferença entre grupos ANOVA Poder de um teste

O que dizem os alunos sobre este curso

  • Em poucos minutos e algumas slides, senti que poderia aprender qualquer conceito. Me senti como um super-herói após este curso. Eu não sabia muito sobre aprendizado profundo antes, mas senti que ganhei uma base sólida depois.

    Jan Zawadzki

  • Toda a especialização foi como uma loja única para mim para decifrar redes neurais e entender a matemática e a lógica por trás de cada variação delas. Posso dizer que as redes neurais são menos uma caixa preta para muitos de nós após fazer o curso.

    Kritika Jalan

  • Durante minha entrevista na Amazon, fui capaz de descrever, em detalhes, como um modelo de previsão funciona, como selecionar os dados, como treinar o modelo e os casos de uso em que esse modelo poderia agregar valor ao cliente.

    Chris Morrow

Conheça seu instrutor

  • Luis Serrano

    Nenhuma biografia disponível

Próximas turmas

  • Datas

    comece agora

Gratuito