Callback d'écrêtage du gradient 🌐
Gradient clipping callback
🌐
Gradient clipping callbackluz_callback_gradient_clip.Rd
En ajoutant le callback GradientClip, la norme norm_type
(par défaut:2) des gradients
est écrêtée à la valeur max_norm
(par défaut: 1) utilisant torch::nn_utils_clip_grad_norm_()
,
ce qui peut éviter la divergence de la fonction de coût.
Références
Voir FastAI documentation pour le callback de GradientClip.