NVIDIA double ses performances en matière d'intelligence artificielle
lun, 03/08/2015 - 10:00
NVIDIA a effectué des mises à jour sur ses GPU accélérés pour doubler les performances des systèmes de formation à l’intelligence artificielle (« Deep Learning »).
Le nouveau logiciel permettra aux scientifiques et aux chercheurs de dynamiser leurs projets de deep learning et le développement produit en créant des réseaux de neurones plus précis à l’aide d’un modèle d’apprentissage rapide doté d’un design plus complexe.
La nouvelle version du système de formation au deep learning GPU NVIDIA DIGITS (DIGITS 2) et la troisième version de NVIDIA CUDA Deep Neural Network (cuDNN 3) offrent une augmentation considérable des performances ainsi que de nouvelles fonctionnalités.
Pour les scientifiques, DIGITS 2 réalise désormais une graduation automatique de la formation des réseaux de neurones grâce à des GPU multiples hautement performants. La vitesse de formation des réseaux de neurones profonds pour la classification des images peut ainsi être doublée par rapport à un GPU unique.
La nouvelle bibliothèque cuDNN 3 devrait être intégrée dans les futures versions de deep learning Caffe, Minerva, Theano et Torche, qui sont essentiellement utilisées pour former des réseaux de neurones en profondeur.
«Les GPU haute performance sont la technologie fondamentale pour alimenter la recherche sur le deep learning et le développement produits dans les universités et dans les grandes entreprises du secteur informatique », a déclaré Ian Buck, vice-président de l’informatique accélérée chez NVIDIA. « Nous travaillons en étroite collaboration avec des scientifiques, des développeurs et la communauté du deep learning, pour appliquer les technologies GPU les plus puissantes et repousser les limites de l’impossible. »
DIGITS 2 – Une formation jusqu’à 2 fois plus rapide grâce à la graduation automatique multi-GPU
DIGITS 2 est un système graphique, tout en un, qui guide les utilisateurs à travers le processus de création, de formation et de validation des réseaux de neurones en profondeur pour la classification des images.
La nouvelle fonction de graduation automatique multi-GPU installée sur le DIGITS 2 augmente les ressources disponibles du GPU en distribuant automatiquement la charge de travail du deep learning sur tous les GPU du système. En utilisant DIGITS 2, les ingénieurs de NVIDIA ont entraîné le fameux modèle de réseau de neurones AlexNet deux fois plus vite en utilisant quatre GPU à l’architecture basée sur NVIDIA Maxwell™ qu’avec un GPU unique.1 Les résultats préliminaires issus des premiers clients montrent des résultats encore meilleurs.
« Entraîner un de nos réseaux en profondeur à l’étiquetage automatique sur un seul NVIDIA GeForce GTX TITAN prend environ 16 jours, alors qu’en utilisant la nouvelle graduation multi-GPU sur quatre GPU TITAN X, la formation est achevée au bout de seulement cinq jours », explique Simon Osindero, architecte en intelligence artificielle pour Flickr, Yahoo. « C’est un avantage clé et cela nous permet de voir les résultats plus vite, mais également d’explorer plus en détails l’espace des modèles pour atteindre des résultats plus précis ».
cuDNN 3 – Entraîne plus rapidement des modèles plus grands et plus complexes
CuDNN est une bibliothèque de GPU accélérés basée sur des méthodes mathématiques pour les réseaux de neurones en profondeur que les développeurs intègrent à des systèmes d’apprentissage automatique de niveau supérieur.
CuDNN 3 ajoute 16 bits de stockage de données en virgule flottante à la mémoire GPU, ce qui double la quantité de données pouvant être stockées et optimise la bande passante. Grâce à cette capacité, cuDNN 3 permet aux chercheurs d’entraîner des réseaux de neurones plus grands et plus complexes.
« Nous pensons que le mode de stockage FP16 des bibliothèques NVIDIA nous permettra de graduer encore mieux nos modèles, puisqu’il augmentera la capacité de mémoire effective de notre hardware, et d’augmenter notre efficacité puisque nous classifierons la formation d’un seul modèle sur plusieurs GPU », explique Bryan Catanzaro, chercheur chez Baidu Research. « Ainsi, nous obtiendrons des modèles plus précis ».
CuDNN 3 accélère également de manière significative les performances de formation de réseaux de neurones sur un seul GPU en comparaison avec cuDNN 2. Les ingénieurs d’NVIDIA ont formé le modèle AlexNet deux fois plus vite sur un seul GPU NVIDIA GeForce GTX TITAN X.2
Disponibilité
La version beta de DIGITS 2 est disponible dès aujourd’hui en téléchargement libre pour les développeurs inscrits dans le programme NVIDIA.
La bibliothèque cuDNN 3 devrait être disponible sur les principaux systèmes de deep learning dans les prochains mois. Pour en savoir plus, veuillez consulter la page cuDNN.