La question éthique est un sujet brûlant pour le secteur des nouvelles technologies, en particulier dans les domaines où le développement est rapide, celui de l’intelligence artificielle (IA), du machine learning et des systèmes de prise de décisions automatisés par exemple.

Pourquoi est-ce un sujet important pour votre entreprise ? Voici les risques auxquels vous vous exposez si vous laissez de côté la question éthique :

  • Les clients pourraient vous abandonner au profit de professionnels plus éthiques.
  • Vos employés pourraient vous quitter pour des entreprises plus éthiques.
  • Vous pourriez nuire considérablement au grand public en aggravant, involontairement, des inégalités systémiques.
  • Vous pourriez perdre l’avantage concurrentiel lié à votre expertise technique au profit d’entreprises ou de pays qui ont une éthique dangereuse pour vos employés, vos clients ou le grand public en général.

 

Les consommateurs et les employés du secteur des nouvelles technologies s’expriment pour avoir une influence sur le type de systèmes de prise de décisions automatisés à concevoir, sur le type de décisions que l’on peut prendre et sur le type de jeux de données qui doivent être utilisés pour construire les modèles qui alimentent ces systèmes.

Google a promis d’investir 25 millions de dollars (22 millions d’euros) dans son nouveau programme « AI for Social Good » (ou « l’intelligence artificielle pour le bien de la société »). Certains craignent pourtant que les projets engagés par le géant technologique accélèrent l’hégémonie d’un mode de pensée au détriment d’autres groupes. Par exemple, une étude récente menée à l’échelle mondiale sur les problématiques éthiques de la conduite autonome (une étude dont les résultats serviront à concevoir la plupart des algorithmes impliqués dans les décisions cruciales dans les voitures sans conducteur) a été critiquée parce qu’elle ne présentait pas suffisamment d’exemples issus des économies en développement.

Pour faire baisser les perceptions négatives, le secteur des nouvelles technologies propose de plus en plus souvent de nouvelles règles en matière de confidentialité des données et de sécurité.  L’une des nouvelles stratégies identifiées consiste à avoir dans l’entreprise un directeur responsable des questions éthiques qui serait le mécanisme d’auto-contrôle de l’entreprise. Ce « Directeur Éthique » (Chief Ethics Officer en anglais) pourrait, comme le personnage éponyme du roman de Loïs Lowry, Le Passeur, porter seul la responsabilité de connaître et de se rappeler toutes les leçons douloureuses de l’Histoire quand les autres vivraient n’en sachant rien.

Naviguer dans l’océan des questions éthiques

Les discussions autour des problématiques de l’IA en matière d’éthique reflètent la large polarisation qui s’opère dans la société, entre ceux qui bénéficient des systèmes de pouvoir et ceux qui y sont sous-représentés, en sont exclus ou sont abandonnés.

Les plates-formes technologiques, les systèmes de prise de décisions automatisés notamment, peuvent exacerber ces fractures, mais ce ne sont pas les nouvelles technologies qui en sont à l’origine. Comment pouvons-nous créer une éthique pour l’IA quand nous n’avons pas d’approche éthique homogène pour les nouvelles technologies, ou pour la plupart des formes de comportement humain ?

Malgré l’absence de consensus, diverses approches sont développées pour créer des technologies et une IA plus éthiques, pour les campagnes de maîtrise des données, les listes comme les plans de vol, les codes de bonne conduite et les activités nouvelles d’audits par algorithme.

Qui gardera les gardiens ?

Est-il désirable ou même faisable pour le secteur des nouvelles technologies d’être le fer de lance de la question éthique ? Dans les autres secteurs, de nouveaux organismes de régulation et des réglementations voient le jour suite à la révélation publique de dangers pour la société et l’environnement (comme l’Agence européenne pour l’environnement ou l’Agence nationale de sécurité du médicament et des produits de santé en France). Alors, est-ce que les Directeurs Éthique ou les comités d’éthique créés par les entreprises technologiques elles-mêmes suffiront à développer la réglementation en matière d’éthique ?

Palmer Luckey, le fondateur d’Oculus et cofondateur d’Anduril, a défendu l’idée, lors du Web Summit 2018, qu’aux spécialistes des nouvelles technologies s’imposent l’impératif moral de créer des technologies éthiques et qu’ils ne doivent pas attendre que les législateurs prennent l’initiative.

Le Royaume-Uni tente, par exemple, de faire avancer le débat sur l’éthique, avec le concours d’organismes tels que l’Open Data Institute, CognitionX et Doteveryone, lesquels plaident pour un développement plus éthique de l’IA. Avec la création du Centre pour l’éthique des données et de l’innovation, nos voisins britanniques cherchent clairement à tirer parti de ces progrès. Mais le centre n’a qu’une fonction consultative : aura-t-il assez d’outils pour avoir un impact ?

Et après ?

Que doivent faire les dirigeants pour avoir une IA éthique ?

  • Réaliser un audit éthique Quelles sont les perceptions internes en matière de responsabilité éthique dans votre entreprise ? Les managers et les personnels pensent-ils avoir les moyens de prendre des décisions éthiques et de les assumer ? Certaines composantes de votre entreprise s’appuient-elles déjà sur des cadres éthiques pour guider leurs décisions ?
  • Définir l’éthique de votre entreprise. Déterminez un cadre éthique reposant sur un consensus autour des principes directeurs de votre entreprise. Dans quelle mesure ces principes sont-ils en phase avec les valeurs de l’entreprise ? Quelles ressources pouvez-vous utiliser pour créer le cadre qui protégera les employés et les clients ? Quelles sont vos considérations pour ce qui est de l’éthique de l’obéissance, du devoir de diligence et de l’éthique de la raison ?
  • Créer un mécanisme d’évaluation éthique dans vos projets. Ceci implique d’avoir des employés qui échangent les uns avec les autres ou d’avoir une liste clair des responsables. Par exemple, au stade de la conception et de l’expérimentation, un modèle développé pour favoriser la réflexion sur la conception peut encourager les équipes à faire des hypothèses sur l’utilisation des outils qu’ils sont en train de construire et les aider à anticiper ce qui pourrait poser problème plus tard.
  • Avoir un plan. Si vous avez un plan d’urgence en cas d’incendie ou de catastrophe naturelle, vous devez aussi avoir un plan pour protéger votre entreprise des scandales liés à l’IA. Pensez aux outils que vous pourrez utiliser en cas de risque et de problème sur le plan éthique.

Pour en savoir plus sur les tendances nouvelles en matière d’éthique des algorithmes, cliquez ici pour lire le rapport d’étude complet du Leading Edge Forum (LEF).