Capa
Agradecimentos
1.
Introdução
1.1.
Visão Geral
1.1.1.
O que é Machine Learning?
1.1.2.
O que é inteligência?
1.1.3.
Supervised Learning
1.1.4.
Unsupervised Learning
2.
Supervised Learning
2.1.
Representação de modelos
2.2.
Regressão linear
2.3.
Função Custo (Cost Function)
2.4.
Gradiente Descendente (Gradient Descent)
2.4.1.
Algoritmo Gradiente Descendente
2.4.2.
Gradiente Descendente para Regressão Linear
2.5.
Álgebra Linear
2.5.1.
Matrizes e vetores
2.5.2.
Operações básicas com matrizes e vetores
2.5.3.
Multipĺicação entre matrizes e vetores
2.5.4.
Multiplicação entre duas matrizes
2.5.5.
Matriz identidade, inversa e transposta
2.6.
Regressão Linear com múltiplas variáveis
2.6.1.
Múltiplos parâmetros de entrada
2.6.2.
Gradiente Descendente com múltiplas variáveis
2.7.
Equação Normal (Normal Equation)
2.8.
Classificação
2.8.1.
Problemas de calssificação
2.8.2.
Representação da hipótese
2.8.3.
Limites de decisão (Decision Boundary)
2.8.4.
Classificação Multiclasse
2.9.
Regressão Logística (Logistic Regression)
2.9.1.
Função Custo (Cost Function)
2.9.2.
Gradiente Descendente para Regressão Logística
2.10.
Underfitting e overfitting
2.10.1.
Função custo em casos de overfitting
2.10.2.
Regressão linear regularizada
2.10.3.
Regressão logística regularizada
3.
Redes Neurais
3.1.
Redes Neurais: Representação
3.1.1.
Definição básica
3.1.2.
Hipótese não-linear
3.1.3.
Os Neurônios e o Cérebro
3.1.4.
Representação do modelo
3.1.5.
Aplicações
3.1.6.
Classificação Multiclasse
3.2.
Redes Neurais: Aprendizado
3.2.1.
Estrutura básica
3.2.1.1.
Camada linear
3.2.1.2.
Camada de ativação: Sigmoid layer
3.2.1.3.
Cross entropy loss
3.2.1.4.
Camada de ativação: Softmax layer
3.2.1.5.
Camada de ativação: Rectified Linear layer (ReLU)
3.2.1.6.
Camada de ativação: Hyperbolic tangent
3.2.2.
Função Custo (Cost Function)
3.2.3.
Backpropagation Algorithm
3.2.3.1.
Forward pass
3.2.3.2.
Backward pass
3.2.3.3.
Algoritmo
3.2.4.
Otimizadores
3.2.5.
Verificação do gradiente
3.2.6.
Inicialização aleatória
3.2.7.
Organização do conhecimento
3.3.
Aplicação de algoritmos de machine learning
3.3.1.
Valoração de algoritmos de aprendizagem
3.3.2.
Curvas de aprendizado
3.3.2.1.
High Bias
3.3.2.2.
High Variance
3.3.3.
Decisões a serem tomadas
3.3.4.
Diagnosticando Redes Neurais
3.3.5.
Support Vector Machines (SVMs)
3.4.
Naive Bayes
4.
Unsupervised Learning
4.1.
Clustering
4.1.1.
K-Means Algorithm
4.1.2.
Otimização
4.1.3.
Inicialização
4.2.
K-Nearest Neighbors
4.2.1.
Algoritmo
4.2.2.
Escolhendo o valor correto para K
4.3.
Redução de dimensionalidade
4.3.1.
Compressão de dados
4.3.2.
Visualização
4.3.3.
Ánalise do componente principal (PCA)
4.4.
Aprendizado por reforço (Reinforcement learning)
4.4.1.
Visão geral
4.4.2.
Exploration e Exploitation
4.4.3.
Markov Process
4.4.3.1.
Propriedade de Markov
4.4.3.2.
Cadeia de Markov
4.4.4.
Markov Decision Process (MDPs)
4.4.4.1.
Busca pela política ótima com MDP
4.4.5.
Monte-Carlo e Temporal-Difference Learning
4.4.5.1.
Valoração de Monte-Carlo
4.4.5.2.
TD Learning
4.4.6.
Q-Learning
5.
Otimizações no Aprendizado
5.1.
Detecção de anomalias
5.1.1.
Motivação
5.1.2.
Distribuição Gaussiana
5.1.3.
Algoritmo
5.2.
Aprendizado em larga escala
5.2.1.
Batch Normalization
5.2.2.
Stochastic Gradient Descent (SGD)
5.2.3.
Mini-batch Gradient Descent
5.2.4.
SGD + Momentum
5.2.5.
Nesterov Accelerated Gradient (NAG)
5.2.6.
AdaGrad
5.2.7.
Adam
5.2.8.
Mapreduce e Paralelismo de Dados
6.
Tópicos Avançados
6.1.
Redes neurais convolucionais (Convolutional neural networks)
6.1.1.
Visão geral
6.1.2.
Camadas de uma ConvNet
6.1.3.
Técnicas de otimização de treino
6.1.3.1.
Data Augmentation
6.1.3.2.
Modelos pré-treinados
6.1.3.3.
Fine Tuning
6.1.4.
Detecção e Segmentação
6.1.4.1.
Segmentação Semântica
6.1.4.2.
Localização
6.1.4.3.
Detecção de objetos
6.1.4.4.
Segmentação de instâncias
6.2.
Redes neurais recorrentes (Recurrent neural networks)
6.2.1.
Visão geral
6.2.2.
Vetores de palavras (word embeddings)
6.2.2.1.
One-hot encoding
6.2.2.2.
Word2Vec
6.2.3.
Arquitetura de uma RNN
6.2.4.
Aplicações
6.2.4.1.
One-to-one
6.2.4.2.
One-to-many
6.2.4.3.
Many-to-one
6.2.4.4.
Many-to-many
6.2.5.
Função Custo (Cost Function)
6.2.6.
Backpropagation
6.2.7.
Função de ativação e propriedades
6.2.8.
Gradiente de desaparecimento e explosão
6.2.9.
Long Short-Term Memory (LSTM)
6.2.10.
Bidirectional & Multi-layer RNNs
6.2.11.
Attention
6.2.12.
Redes neurais convolucionais para NLP
6.3.
Transformers
6.3.1.
Positional encoding
6.3.2.
Encoder
6.3.2.1.
Self-Attention
6.3.2.2.
Multi-head attention e geração de saída
6.3.3.
Decoder
6.3.3.1.
Masked Multi-head attention
6.3.3.2.
Encoder-Decoder attention
6.4.
Modelos generativos (Generative models)
6.4.1.
Visão geral
6.4.2.
Aplicações
6.4.3.
Auto-Regressive Models
6.4.3.1.
PixelRNN
6.4.3.2.
PixelCNN
6.4.4.
Variational Autoencoders (VAE)
6.4.5.
Generative Adversarial Networks (GANs)
6.4.5.1.
Treinamento: Jogo de dois jogadores
6.5.
Deep Q-Learning
6.6.
Busca de Monte Carlo
6.6.1.
Uninformed seaarch
6.6.2.
Monte Carlo Tree Search
Referências
Contatos
Light (default)
Rust
Coal
Navy
Ayu
Curso de Machine Learning
Regressão Logística (
Logistic Regression
)
Função Custo (Cost Function)
Gradiente Descendente para Regressão Logística