Table des matières:
- Définition - Que signifie l'intelligence artificielle explicable (XAI)?
- Techopedia explique l'intelligence artificielle explicable (XAI)
Définition - Que signifie l'intelligence artificielle explicable (XAI)?
L'intelligence artificielle explicable (XAI) est un terme clé dans la conception de l'IA et dans la communauté technologique dans son ensemble. Il fait référence aux efforts visant à garantir que les programmes d'intelligence artificielle sont transparents dans leurs objectifs et leur fonctionnement. L'IA explicable est un but et un objectif communs aux ingénieurs et à ceux qui tentent de progresser dans l'intelligence artificielle.
L'intelligence artificielle explicable est également connue sous le nom d'intelligence artificielle transparente.
Techopedia explique l'intelligence artificielle explicable (XAI)
L'idée derrière l'IA explicable est que les programmes et technologies d'IA ne devraient pas être des «modèles de boîte noire» que les gens ne peuvent pas comprendre. Trop souvent, disent les experts, les programmes d'intelligence artificielle sacrifient la transparence et l'explicabilité pour des résultats expérimentaux sophistiqués. Des algorithmes puissants peuvent donner des résultats utiles sans montrer comment ils sont arrivés à ces résultats.
L'intelligence artificielle explicable est également un élément clé de l'application de l'éthique à l'IA. Comme l'ont souligné des leaders technologiques comme Elon Musk, l'intelligence artificielle peut finir par avoir des effets positifs ou négatifs nets, selon la façon dont elle est utilisée par les humains et comment elle est construite par les humains.
L'IA explicable aide à la poursuite de l'IA éthique, car elle montre comment les machines effectuent un travail de calcul et où il peut y avoir des problèmes.
