Accueil l'audio Pourquoi Darpa recherche-t-il une IA explicable?

Pourquoi Darpa recherche-t-il une IA explicable?

Anonim

Q:

Pourquoi la DARPA recherche-t-elle «l'IA explicable»?

UNE:

En général, l'intelligence artificielle explicable devient une partie très annoncée des travaux de pointe en sciences des données. Elle aide à guider le contrôle humain d'un type de technologie intrinsèquement volatile et dynamique - l'IA explicable aide à répondre à beaucoup de nos questions collectives sur le fonctionnement de l'intelligence artificielle.

Pour comprendre l'IA explicable, il est utile de comprendre à quoi ressemble «l'IA ordinaire». Traditionnellement, au fur et à mesure que l'IA commence à prendre forme, le projet typique consiste en une nouvelle capacité logicielle sophistiquée, cachée dans des algorithmes et des ensembles de formation et du code linéaire, qui est une sorte de "boîte à blocs" pour les utilisateurs. Ils savent que cela fonctionne - ils ne savent tout simplement pas comment.

Cela peut conduire à des «problèmes de confiance» où les utilisateurs peuvent remettre en question la base sur laquelle une technologie prend des décisions. C'est ce que l'IA explicable est censée aborder: les projets d'IA explicables sont livrés avec une infrastructure supplémentaire pour montrer aux utilisateurs finaux l'intention et la structure de l'IA - pourquoi elle fait ce qu'elle fait.

À une époque où les meilleurs innovateurs comme Bill Gates et Elon Musk expriment leur inquiétude quant au fonctionnement de l'intelligence artificielle, l'IA explicable semble extrêmement attrayante. Les experts soutiennent qu'une bonne intelligence artificielle explicable pourrait aider les utilisateurs finaux à comprendre pourquoi les technologies font ce qu'elles font, à accroître la confiance, ainsi qu'à accroître la facilité d'utilisation et l'utilisation de ces technologies.

Plus précisément, cependant, la DARPA explique de manière spécifique pourquoi elle est intéressée par les nouveaux projets. Une page sur la DARPA montre que le ministère de la Défense prévoit un «torrent» d'applications d'intelligence artificielle et un certain chaos dans son développement.

«Les progrès continus promettent de produire des systèmes autonomes qui percevront, apprendront, décideront et agiront d'eux-mêmes», écrit David Gunning. «Cependant, l'efficacité de ces systèmes est limitée par l'incapacité actuelle de la machine à expliquer ses décisions et ses actions aux utilisateurs humains. … L'IA explicable - en particulier l'apprentissage automatique explicable - sera essentielle si les futurs combattants doivent comprendre, faire confiance de manière appropriée et gérer efficacement une nouvelle génération de partenaires machines artificiellement intelligents.

L'essai en ligne de Gunning suggère que les systèmes d'IA explicables aideront à «fournir la justification» des technologies, montrer leurs forces et leurs faiblesses et rendre les cas d'utilisation plus transparents. Un graphique sur la page montre comment un pipeline simple de fonctionnalités d'intelligence artificielle à partir des données de formation serait augmenté par quelque chose appelé un modèle explicable et une interface explicable qui aidera l'utilisateur à répondre aux questions. Gunning suggère en outre qu'un programme d'IA explicable aura deux principaux domaines d'intérêt - l'un serait de parcourir les données multimédias pour trouver ce qui est utile aux utilisateurs, et un deuxième objectif serait de simuler les processus de décision pour l'aide à la décision.

La DARPA espère fournir une «boîte à outils» pouvant aider à développer de futurs systèmes d'IA explicables.

Pourquoi Darpa recherche-t-il une IA explicable?