Passer au contenu

Cette galerie d’exemples utilise luz pour entraîner et valider une gamme d’architectures classique de réseaux d’apprentissage profond. La galerie propose également une utilisation de basique à avancée de luz.

CharGPT
intermédiaire

Un modèle de langage au niveau caractère avec GPT-2 sur des textes shakespeariens.

See code
Classifieur binaire
basique

Démonstration de l’usage d’un réseau pré-entraîné pour construire un classifieur binaire

See code
Autoencodeur
basique

Construit un autoencodeur pour le dataset MNIST. Démontre la possibilité de surcharger la méthode predict

See code
Illustration d’un lot d’entraînement de taille virtuelle
avancé

Montre comment créer une étape personnalisée de traitement sur un lot virtuel au cours de l’entraînement

See code
Réseau de convolution (CNN) simple
basique

Entraîne un réseau convolutif (CNN) similaire à un AlexNet pour classifier les chiffres du jeu de données MNIST

See code
DCGAN
intermédiaire

Réseau de convolution génératif et discriminant pour la génération d’images.

See code
Augmentation MixUp
intermédiaire

Démonstration de l’utilisation du callback MixUp

See code
Fonction de coût en Triplet
intermédiaire

Entraîne un modèle d’embedding qui minimise une fonction de coût en Triplet.

See code
Implémentation de UNET
intermédiaire

Implémente un modèle UNET pour segmenter le fond des images de chats et de chiens.

See code
Classification de texte à partir de zéro
basique

Implémente la classification de texte à partir de zéro.

See code
Entraîner un modèle linguistique causal à partir de zéro
avancé

Implémente des jeux de données et entraîne un modèle linguistique causal à partir de zéro en utilisant le code source R.

See code