Q:
Pourquoi les entreprises s'approvisionnent-elles en GPU pour l'apprentissage automatique?
UNE:Si vous lisez sur l'apprentissage automatique, vous entendez probablement beaucoup parler de l'utilisation des unités de traitement graphique ou des GPU dans les projets d'apprentissage automatique, souvent comme alternative aux unités centrales de traitement ou aux CPU. Les GPU sont utilisés pour l'apprentissage automatique en raison de propriétés spécifiques qui les rendent mieux adaptés aux projets d'apprentissage automatique, en particulier ceux qui nécessitent beaucoup de traitement parallèle, ou en d'autres termes, le traitement simultané de plusieurs threads.
Téléchargement gratuit: apprentissage automatique et pourquoi c'est important |
Il existe de nombreuses façons d'expliquer pourquoi les GPU sont devenus souhaitables pour l'apprentissage automatique. L'une des façons les plus simples consiste à comparer le petit nombre de cœurs d'un processeur traditionnel avec un nombre de cœurs beaucoup plus important dans un GPU classique. Les GPU ont été développés pour améliorer les graphiques et l'animation, mais sont également utiles pour d'autres types de traitement parallèle - parmi eux, l'apprentissage automatique. Les experts soulignent que, bien que les nombreux cœurs (parfois des dizaines) dans un GPU typique aient tendance à être plus simples que le moins de cœurs d'un processeur, le fait d'avoir un plus grand nombre de cœurs conduit à une meilleure capacité de traitement parallèle. Cela rejoint l'idée similaire d '«apprentissage d'ensemble» qui diversifie l'apprentissage réel qui se déroule dans un projet ML: L'idée de base est qu'un plus grand nombre d'opérateurs plus faibles surclassera un plus petit nombre d'opérateurs plus forts.
Certains experts parleront de la façon dont les GPU améliorent le débit en virgule flottante ou utilisent efficacement les surfaces des matrices, ou comment ils accueillent des centaines de threads simultanés dans le traitement. Ils peuvent parler de repères pour le parallélisme des données et la divergence des branches et d'autres types de travaux que les algorithmes prennent en charge par les résultats du traitement parallèle.
Une autre façon d'examiner l'utilisation populaire des GPU dans l'apprentissage automatique consiste à examiner des tâches d'apprentissage automatique spécifiques.
Fondamentalement, le traitement d'image est devenu une partie importante de l'industrie du machine learning d'aujourd'hui. En effet, l'apprentissage automatique est bien adapté au traitement des nombreux types de fonctionnalités et de combinaisons de pixels qui composent les ensembles de données de classification d'images, et aide le train à reconnaître les personnes ou les animaux (par exemple les chats) ou les objets dans un champ visuel. Ce n'est pas une coïncidence si les CPU ont été conçus pour le traitement d'animation et sont maintenant couramment utilisés pour le traitement d'image. Au lieu de restituer des graphiques et des animations, les mêmes microprocesseurs multi-threads de grande capacité sont utilisés pour évaluer ces graphiques et animations afin d'obtenir des résultats utiles. Autrement dit, au lieu de simplement afficher des images, l'ordinateur «voit des images» - mais ces deux tâches fonctionnent sur les mêmes champs visuels et des ensembles de données très similaires.
Dans cet esprit, il est facile de comprendre pourquoi les entreprises utilisent des GPU (et des outils de niveau supérieur comme les GPGPU) pour en faire plus avec l'apprentissage automatique et l'intelligence artificielle.