Utiliser un Optimiseur sur Plusieurs Modèles Simultanément (PyTorch)

Problème :

Comment utiliser un optimiseur (optimizer) pour optimiser plusieurs modèles en même temps sur PyTorch?

Solution :

Convertissez les paramètres de chacun de vos modèles en listes, puis concaténez ces listes.

Donnez la liste obtenue par concaténation à votre optimiseur.

Une forme générale pour faire ça est donnée ci-dessous en exemple.

Exemple :

import torch
parameters_list = list(model1.parameters()) + list(model2.parameters())
optimizer = torch.optim.Adam(params=parameters_list)
# Il suffit donc de concaténer les listes des paramètres des différents modèles que l'on veut optimiser.

Laisser un commentaire