La descente de gradient permet d'ajuster les paramètres W et b pour minimiser les erreurs, en calculant la dérivé ou gradient de la fonction coût.
Machine Learnia. Le perceptron - Deep Learning (02), 06/2021.
-
Descente de gradient
- Décomposition du gradient en dérivées partielles
-
Rappel des fonctions de classification, activation et coût
avec -
Dérivée de L par rapport à a
-
Dérivée de a par rapport à z
-
Dérivée de z par rapport à w1, w2 et b
-
Calcul du gradient par rapport à w1
on obtient le gradient par rapport à w2 et b en remplaçant x1 par x2 et 1 -
Gradients
Machine Learnia. Le perceptron - Deep Learning (02), 06/2021.
Commentaires
Enregistrer un commentaire