Q:
Pourquoi est-il important que les scientifiques des données recherchent la transparence?
UNE:La transparence est essentiellement importante dans les projets de science des données et les programmes d'apprentissage automatique, en partie en raison de la complexité et de la sophistication qui les animent - parce que ces programmes «apprennent» (générant des résultats probabilistes) plutôt que de suivre des instructions de programmation linéaire prédéterminées, et parce qu'en conséquence, il peut être difficile de comprendre comment la technologie tire des conclusions. Le problème de la «boîte noire» des algorithmes d'apprentissage automatique qui ne sont pas entièrement explicables aux décideurs humains est important dans ce domaine.
Dans cet esprit, être capable de maîtriser l'apprentissage automatique explicable ou l '«IA explicable» sera probablement un objectif principal dans la façon dont les entreprises recherchent l'acquisition de talents pour un scientifique des données. Déjà la DARPA, l'institution qui nous a apporté Internet, finance une étude de plusieurs millions de dollars sur l'IA explicable, essayant de promouvoir les compétences et les ressources nécessaires pour créer des technologies d'apprentissage automatique et d'intelligence artificielle transparentes pour les humains.
Une façon d'y penser est qu'il y a souvent une «étape d'alphabétisation» du développement des talents et une «étape d'hyperlittératie». Pour un scientifique des données, l'étape d'alphabétisation traditionnelle serait la connaissance de la façon de mettre sur pied des programmes d'apprentissage automatique et de construire des algorithmes avec des langages comme Python; comment construire des réseaux de neurones et travailler avec eux. L'étape d'hyperlittératie serait la capacité de maîtriser l'IA explicable, d'assurer la transparence dans l'utilisation des algorithmes d'apprentissage automatique et de préserver la transparence alors que ces programmes travaillent vers leurs objectifs et les objectifs de leurs gestionnaires.
Une autre façon d'expliquer l'importance de la transparence dans la science des données est que les ensembles de données utilisés continuent de devenir plus sophistiqués, et donc potentiellement plus intrusifs dans la vie des gens. Un autre moteur majeur de l'apprentissage automatique et de la science des données explicables est le règlement général européen sur la protection des données qui a été récemment mis en œuvre pour tenter de limiter l'utilisation contraire à l'éthique des données personnelles. En utilisant le RGPD comme cas de test, les experts peuvent voir comment la nécessité d'expliquer des projets de science des données s'intègre dans les préoccupations de confidentialité et de sécurité, ainsi que dans l'éthique des affaires.