Étiquette : CUDA
-
Voir l’Utilisation de la Mémoire d’un GPU NVIDIA
Les GPU (Graphics Processing Units) sont des composantes très puissantes qui aident les calculs de deep learning en accélérant la vitesse de calcul des modèles d’apprentissage profond. Toutefois, la mémoire de cartes graphiques qui servent à réduire le temps de calcul est limitée. Ainsi, lorsque l’on utilise des modèles avec de très nombreux paramètres et…
-
Vérifier la disponibilité d’un GPU avec PyTorch
Lorsque l’on commence à utiliser un GPU pour faire des calculs en PyTorch, on fait déjà un premier pas en avant vers des calculs optimisés. Pour autant, comment vérifier si l’on dispose d’un GPU sur lequel passer nos tenseurs ? Heureusement, PyTorch dispose d’une fonction spécialement conçue pour vérifier la disponibilité d’un GPU. Problème :…
-
Mémoire Utilisée par mon GPU
Si vous rencontrez souvent une erreur de PyTorch qui vous indique que vous n’avez plus de place mémoire libre, vous aurez certainement envie de connaître l’espace mémoire disponible et utilisé par votre GPU. Mais comment faire? Je vous propose la solution suivante. La fonction mem_get_info de torch.cuda permet justement de récupérer un couple d’entiers donnant…
