Q:
Pourquoi le biais machine est-il un problème dans l'apprentissage machine?
UNE:Il est possible de répondre à cette question de deux manières différentes. Premièrement, pourquoi le problème de biais machine, comme dans, pourquoi existe-t-il dans les processus d'apprentissage machine?
L'apprentissage automatique, bien que sophistiqué et complexe, est dans une certaine mesure limité en fonction des ensembles de données qu'il utilise. La construction des ensembles de données implique un biais inhérent. Tout comme dans les médias, où les omissions et les choix délibérés d'inclusion peuvent montrer un biais particulier, dans l'apprentissage automatique, les ensembles de données utilisés doivent être examinés pour déterminer quel type de biais existe.
Téléchargement gratuit: apprentissage automatique et pourquoi c'est important |
Par exemple, c'est un problème courant pour les tests de technologie et les processus de conception de montrer une préférence pour un type d'utilisateur plutôt qu'un autre. Un grand exemple est la disparité entre les sexes dans le monde de la technologie.
Pourquoi cela fait-il une différence et pourquoi s'applique-t-il à l'apprentissage automatique?
Parce qu'un manque de femmes existantes dans un environnement de test peut conduire à une technologie produite qui est moins conviviale pour un public féminin. La façon dont certains experts décrivent cela est que sans les tests féminins existants, le produit final peut ne pas reconnaître l'apport des utilisatrices - il peut ne pas avoir les outils pour reconnaître les identités féminines ou pour traiter adéquatement l'apport des femmes.
Il en va de même pour diverses ethnies, personnes de religions différentes ou tout autre type de population. Sans les bonnes données, les algorithmes d'apprentissage automatique ne fonctionneront pas correctement pour un ensemble d'utilisateurs donné, de sorte que les données d'inclusion doivent être délibérément ajoutées à la technologie. Au lieu de simplement prendre des ensembles de données primaires et de renforcer les biais inhérents, les gestionnaires humains doivent vraiment examiner le problème.
Un autre exemple est un moteur d'apprentissage automatique qui prend des informations sur les emplois et les salaires et crache des résultats. Si cet ensemble de données inhérent n'est pas analysé, la machine renforcera le biais. S'il perçoit que les hommes occupent la grande majorité des postes de direction et que le processus d'apprentissage automatique implique de filtrer l'ensemble de données brutes et de renvoyer les résultats correspondants, il va renvoyer des résultats qui montrent un biais masculin.
La deuxième partie de la question porte sur la raison pour laquelle ce biais est si néfaste. Sans supervision et tests adéquats, les nouvelles technologies peuvent nuire, et non aider, notre sentiment d'inclusion et d'égalité. Si un nouveau produit technologique est déployé qui reconnaît les visages à la peau plus claire, mais pas ceux à la peau plus foncée, cela peut entraîner une escalade des tensions ethniques et le sentiment que l'entreprise en question n'est pas sensible à la diversité. Si un algorithme d'apprentissage automatique reproduit et accentue le biais dans les ensembles de données, cette intelligence artificielle va ajouter sa voix aux voix humaines et aux tendances humaines qui existent déjà dans le système social et qui favorisent un groupe de personnes plutôt qu'un autre.
La meilleure façon de résoudre ce problème consiste à examiner de près les ensembles de données sous-jacents, à utiliser la sélection de fonctionnalités, à ajouter des entrées variables et à manipuler les ensembles de données brutes eux-mêmes, et à augmenter la puissance réelle de l'apprentissage automatique avec une fabrication humaine délibérée des données résultat qui offre une grande puissance analytique, mais aussi certaines de ces connaissances humaines que les ordinateurs ne peuvent pas encore reproduire.