Q:
Comment la loi de Moore a-t-elle contribué à la révolution actuelle de l'IA?
UNE:Il est tentant de penser que les progrès actuels de l'intelligence artificielle sont principalement liés à la résolution de problèmes logiques et orientés données, mais pour les entreprises qui tentent d'innover et d'aller de l'avant, il peut être utile de revenir en arrière et de réfléchir à la manière dont un matériel toujours plus puissant a également a contribué à l'apprentissage automatique et aux fonctionnalités d'intelligence artificielle d'aujourd'hui.
Certaines des façons les plus évidentes dont la loi de Moore a profité au progrès de l'intelligence artificielle sont évidentes pour quiconque a étudié l'informatique au cours des 30 dernières années. La première est que les postes de travail informatiques et les centres de données centralisés qui fonctionnent sur des ensembles de données d'intelligence artificielle sont plus petits qu'ils ne l'étaient dans les premiers jours de l'informatique - et cela fait une différence. Si de simples ordinateurs centraux occupaient encore l'espace d'un ensemble laveuse / sécheuse, cela aurait naturellement un effet d'amortissement sur le développement agile de toutes sortes de nouvelles technologies.
Cependant, plus important encore, les gains d'efficacité des entreprises basés sur la loi de Moore ont permis la prévalence d'appareils de collecte de données mobiles extrêmement petits. Les smartphones en sont le meilleur exemple, mais la loi de Moore nous a également fourni des appareils photo numériques, des lecteurs MP3 et de nombreux autres petits composants matériels qui collectent tous leurs propres données à un rythme stupéfiant. Maintenant, l'Internet des objets suralimente ce processus avec des appareils de cuisine intelligents et toutes sortes d'autres matériels très modernes qui reposent sur l'idée que les dispositifs porteurs de puces sont suffisamment petits pour être placés dans presque n'importe quoi.
Cependant, ce ne sont pas les seuls moyens par lesquels la loi de Moore a favorisé le développement de nouveaux progrès en matière d'apprentissage automatique et d'intelligence artificielle. Dans le MIT Technology Review, l'écrivain Tom Simonite affirme que la loi de Moore a également été utile comme une sorte de «dispositif de coordination» qui a servi à projeter ce qui arrivera sur le marché dans les années à venir, pour donner aux développeurs et à d'autres un semblant de route. carte et pointeurs vers l'innovation future.
Une autre perspective intéressante vient de Niel Viljoen qui explique comment la loi de Moore peut encore être critique pour les nouveaux systèmes basés sur le cloud et l'émergence d'une toute nouvelle technologie d'intelligence artificielle.
L'argument de Viljoen semble être que l'ajout de cœurs à usage général aux systèmes de mise à l'échelle n'est pas suffisant pour vraiment connecter le matériel à un réseau de manière complète, ce qui conduit à des goulots d'étranglement. Une idée correspondante est que les modèles de convergence accéléreront toutes sortes de fonctions des systèmes gourmands en données. En d'autres termes, étant donné que les systèmes informatiques ont continué à adapter leur utilisation des données en fonction de ce qu'ils pouvaient intégrer dans un matériel, les constructeurs n'ont jamais réussi à inclure certaines des fonctions corollaires du développement telles que le traitement d'image, le cryptage, le rendu vidéo, etc.
En conséquence, les centres de données modernes sont devenus très puissants, mais dépendent toujours d'éléments extérieurs pour effectuer le traitement requis - Viljoen postule l'émergence future de «systèmes sur puce» où le matériel hyperconvergé a tout ce dont il a besoin pour faire toutes les fonctionnalités de mise en réseau, pour rationaliser les flux de données et rendre les systèmes agiles et puissants.
En général, la loi de Moore a contribué à l'avancement des TI et continue de l'aider de manière fondamentale. Cela fait partie du modèle «la science-fiction est le présent» qui montre le chemin parcouru par l'humanité dans la construction de systèmes de données au cours d'un ou deux siècles.