Q:
Pourquoi certaines entreprises envisagent-elles d'ajouter des «contrôles de rétroaction humaine» aux systèmes d'IA modernes?
UNE:Certaines entreprises travaillant avec une technologie d'IA de pointe s'efforcent d'instaurer des contrôles humains pour ces systèmes, offrant aux outils d'apprentissage automatique et d'apprentissage en profondeur une surveillance humaine directe. Ces entreprises ne sont pas non plus de petits acteurs - DeepMind de Google et OpenAI d'Elon Musk sont deux exemples de grandes entreprises qui se familiarisent avec les avancées de l'intelligence artificielle. Dans cet esprit, les résultats diffèrent - par exemple, DeepMind a fait l'objet d'une controverse pour sa réticence perçue à fournir des données clés au public, tandis que OpenAI est beaucoup plus, eh bien, ouvert sur son travail sur le contrôle de l'intelligence artificielle.
Même des notables tels que Bill Gates ont pesé sur la question, Gates disant qu'il est l'un des nombreux qui s'inquiètent de l'émergence d'une superintelligence artificielle qui pourrait d'une certaine manière dépasser le contrôle humain. Musk, pour sa part, a également avancé un langage alarmant sur la possibilité d'une «IA voyou».
C'est probablement la raison la plus urgente pour laquelle les entreprises travaillent à appliquer des contrôles humains à l'IA - l'idée qu'une certaine singularité technologique se traduira par une technologie sensible ultra-puissante que les humains ne peuvent tout simplement plus contrôler. Depuis l'aube des ambitions humaines, nous avons mis en place des outils pour nous assurer que nous pouvons contrôler les pouvoirs que nous exerçons - que ce soit des chevaux avec des rênes et des harnais, de l'électricité dans des fils isolés ou tout autre type de mécanisme de contrôle, ayant le contrôle est une fonction intrinsèquement humaine et il est donc tout à fait logique dans le monde qu'à mesure que l'intelligence artificielle se rapproche de la fonctionnalité réelle, les humains appliquent leurs propres contrôles directs pour garder ce pouvoir sous contrôle.
Cependant, la peur des robots super intelligents n'est pas la seule raison pour laquelle les entreprises appliquent des contrôles humains aux projets d'apprentissage automatique et d'IA. Une autre raison majeure est le biais de la machine - c'est l'idée que les systèmes d'intelligence artificielle sont souvent limités dans la façon dont ils évaluent les données en question - de sorte qu'ils amplifient tout biais inhérent au système. La plupart des professionnels traitant de l'apprentissage automatique peuvent raconter des histoires d'horreur sur des systèmes informatiques qui n'ont pas pu traiter les groupes d'utilisateurs humains de la même manière - qu'il s'agisse de disparités entre les sexes ou ethniques, ou d'un autre échec du système à vraiment comprendre les nuances de nos sociétés humaines et comment nous interagissons avec les gens.
Dans un sens, nous pourrions mettre des contrôles humains sur les systèmes parce que nous avons peur qu'ils soient trop puissants - ou alternativement, parce que nous avons peur qu'ils ne soient pas assez puissants. Les contrôles humains aident à cibler les ensembles de données d'apprentissage automatique pour fournir plus de précision. Ils aident à renforcer les idées que l'ordinateur ne peut tout simplement pas apprendre par lui-même, soit parce que le modèle n'est pas assez sophistiqué, parce que l'IA n'a pas assez avancé, ou parce que certaines choses relèvent simplement de la cognition humaine. L'intelligence artificielle est excellente pour certaines choses - par exemple, un système basé sur des récompenses et des scores a permis à une intelligence artificielle de battre un joueur humain dans le jeu de plateau extrêmement complexe "Go" - mais pour d'autres choses, ce système basé sur des incitations est totalement inadéquat.
En résumé, il existe de nombreuses raisons impérieuses de maintenir les utilisateurs humains directement impliqués dans le fonctionnement des projets d'intelligence artificielle. Même les meilleures technologies d'intelligence artificielle peuvent faire beaucoup de réflexion par elles-mêmes - mais sans un véritable cerveau humain biologique capable de traiter des choses comme les émotions et les mœurs sociales, elles ne peuvent tout simplement pas voir la situation dans son ensemble d'une manière humaine.
Une entreprise de machine learning qualifiée peut aider à trouver cet équilibre avec un mélange d'experts en affaires et en la matière et des développeurs de machine learning capables de résoudre les problèmes des grandes entreprises.