Après avoir trouvé sa place dans des situations professionnelles, certains experts tirent la sonnette l’alarme en dénonçant son poids dans la prise de décisions arbitraires tout en insistant sur la nécessité de la rendre compréhensible, particulièrement l’aspect éthique venant des dérives de son usage quotidien.

L’intelligence artificielle livre tout type de conclusions, des plus banales à des sujets plus sensibles : suggestion de films, décisions clefs sur l’emploi, sur les comptes ou sur la forme de gestion d’une entreprise, et même validation sur le futur professionnel des personnes et de leur gouvernement. Une opinion générale se créer, suggérant l’introduction des aspects éthiques, propre aux personnes, au futur développement et à l’évolution de ces technologies.

Jugeant les décisions uniquement basées sur les résultats de l’apprentissage automatique dangereuses et biaisées, des voix s’élèvent pour proposer que toutes les technologies de ce type soient en premier lieu vérifiées et autorisées par les organismes publics et entités internationales, comme par exemple pour la validation des médicaments.

Une récente étude montre comment l’aspect éthique influencera la réputation de l’entreprise, qui pourrait être affectée par ses mauvaises pratiques. Les résultats indiquent que, même si l’éthique de l’apprentissage automatique et sa capacité à expliquer son usage sont deux sujets différents, ils sont liés entre eux.

Dans les deux cas, il est nécessaire de faire beaucoup de pédagogie en expliquant les résultats des modèles IA, son impact et ses résultats. Pour cela, il existe une série de techniques aidant à expliquer le fonctionnement de l’apprentissage automatique.

  • LIME (explication agnostique du modèle d’interprétation) est une technique qui, en fonction des différents types de données introduites, comprend comment changer les prédictions, et est capable d’expliquer le modèle d’apprentissage.
  • Les valeurs de Shapley emploient la théorie des jeux pour assigner l’importance des fonctions d’apprentissage automatique conduisant à une décision.
  • La dépendance partielle décrit l’impact marginal d’une caractéristique dans la prédiction d’un modèle, qui maintient en constance d’autres conditions.

Beaucoup de technologies développent des outils aux algorithmes admettant l’interprétation et l’explication des conclusions dérivées de ses données, pour offrir une vision de l’intelligence artificielle dans laquelle les consommateurs peuvent avoir confiance. Aussi raisonnable que difficile à mettre en pratique.

Pour finir, il y a une approche basée sur l’”explication contrastée” qui permet d’identifier les éléments manquants offrant une vision complète. Ce qui manque est parfois plus révélateur que ce qui est apparent ; les médecins pourront diagnostiquer une maladie non seulement grâce aux symptômes du patient, mais aussi à ceux qui ne sont pas apparent.

Créer une prise de décision de IA que les entreprises peuvent expliquer est un défi qui dépend non seulement de la technologie mais aussi des personnes.

Beaucoup de spécialistes en IT considèrent que cette capacité d’explication est une valeur en soi, mais d’autres suggèrent que la propre organisation et les normes gouvernementales reprennent en main ce sujet.

L’intérêt croissant pour l’impartialité de la prise de décision, basée sur l’intelligence artificielle, est tel qu’une première explication de son objet, et de ses attentes, est de plus en plus intéressante. Il ne serait donc pas surprenant que dans les prochaines années se développe toute une discipline capable de divulguer les bénéfices, conséquences et résultats de son application, avec une attention spéciale sur l’éthique de celle-ci.