Utiliser un callback ModelCheckpoint
Utiliser un objet ModelCheckpoint
pour sauvegarder les paramètres du modèle pendant l’entraînement est une pratique courante pour s’assurer que vous pouvez récupérer le meilleur modèle en cas d’interruption ou pour une évaluation ultérieure. Voici comment vous pouvez le faire en utilisant TensorFlow et Keras.
Étape 1 : Importer les bibliothèques nécessaires
Tout d’abord, assurez-vous d’importer les bibliothèques nécessaires.
Étape 2 : Définir le modèle
Définissez votre modèle. Pour cet exemple, nous utiliserons un modèle simple avec quelques couches de convolution et de dense.
Étape 3 : Instancier et compiler le modèle
Instanciez et compilez votre modèle.
Étape 4 : Préparer les données
Préparez vos données d’entraînement et de test. Pour cet exemple, nous utiliserons le jeu de données MNIST.
Étape 5 : Définir le callback ModelCheckpoint
Définissez un objet ModelCheckpoint
pour sauvegarder le modèle à des intervalles réguliers ou lorsque certaines conditions sont remplies.
Étape 6 : Entraîner le modèle avec le callback
Entraînez votre modèle en utilisant le callback ModelCheckpoint
.
Code complet
Voici le code complet pour définir un modèle, préparer les données, définir un callback ModelCheckpoint
, et entraîner le modèle avec ce callback.
Explication des paramètres de ModelCheckpoint
filepath
: Le chemin où le modèle sera sauvegardé.save_best_only
: SiTrue
, seul le meilleur modèle (en termes de la métrique surveillée) sera sauvegardé.monitor
: La métrique à surveiller pour déterminer le meilleur modèle.mode
: Le mode de surveillance (‘min’ pour minimiser la métrique, ‘max’ pour maximiser la métrique).verbose
: Le niveau de verbosité (0 pour silencieux, 1 pour afficher les messages).
En utilisant ce callback, vous pouvez vous assurer que le meilleur modèle est sauvegardé pendant l’entraînement, ce qui peut être très utile pour éviter de perdre des progrès en cas d’interruption ou pour une évaluation ultérieure.