Otimizadores
Em algumas implementações do gradiente descendente, podemos encontrar diferentes formas de otimizações. A seguir estão listadas algumas formas de implementações.
-
Gradient Descent;
-
Stochastic Gradient Descent;
-
Mini-Batch Gradient Descent;
-
Momentum;
-
Nesterov Accelerated Gradient;
-
AdaGrad;
-
Adam;
Esses sistemas de otimização serão abordados e detalhados em seções seguintes.