L’éthique, question centrale du développement de l’intelligence artificielle

Par admin

Partager cette publication

Robots de décontamination, applications de géolocalisation sociale, caméras intelligentes avec reconnaissance faciale et détection de température, plus que jamais, les technologies robotiques de pointe et l’intelligence artificielle (IA) sont appelées à la rescousse pour contrer la pandémie de COVID-19.

L’effet pervers cependant de l’irruption de ces technologies boostées à l’IA dans le quotidien de la population est le risque de voir grandir la méfiance envers ces outils du futur. En entrevue dans un média canadien, le professeur Yoshua Bengio, le célèbre directeur scientifique de Mila – l’institut de recherche en intelligence artificielle basé à Montréal, défendait récemment l’importance de la confiance que les Canadiens devront accorder à l’application qu’il a développée avec son équipe pour accepter de l’installer sur leur téléphone. Son système peut non seulement prévenir les usagers des risques de contamination, mais aussi remonter en temps réel des informations aux épidémiologistes chargés de comprendre le processus de transmission de la maladie. Sans aucun doute, la protection de la vie privée, si chère aux Canadiens, est un enjeu central, tant pour les gouvernements que pour les citoyens.

Depuis quelques années déjà, les impacts transformateurs de l’IA, tant sur les opérations que sur la compétitivité, se font déjà ressentir comme une onde de choc à travers de nombreuses industries – de l’assurance au marché des véhicules autonomes robotisés – alors que plusieurs entreprises adoptent cette technologie comme levier de croissance.

Toutefois, les investissements déployés en IA seront vains et les retours escomptés absents si le lien de confiance vis-à-vis des systèmes d’intelligence artificielle (SIA) venait à être brisé, malgré leur maturité technologique. L’élaboration d’un cadre éthique pour le développement et le déploiement de l’IA est donc une considération majeure, tant pour les éditeurs d’IA que pour les entreprises qui l’utilisent, et ce, des compagnies d’assurance qui font de l’analyse de risque aux entreprises de sécurité qui utilisent des robots de surveillance et des capteurs intelligents.

Éthique et IA, un chantier à ciel ouvert

La question de l’éthique en IA est inédite et donc tout à fait contemporaine. Elle se distingue de questions similaires applicables aux technologies RPA – de l’anglais Robotic Process Automation, c’est à dire « Automatisation des processus par la robotique » selon notre définition de la RPA – en raison des capacités d’apprentissage autonome des SIA, plus connues sous la dénomination anglaise de machine learning. Contrairement à la RPA dont chaque geste posé par le système doit être préprogrammé par un être humain, les SIA disposent de capacités d’apprentissage autonome ou supervisé qui leur permettent de poser des gestes dont ils sont auteurs. En conséquence, le contexte d’application de l’éthique dans le domaine de l’IA ne se limite pas à la phase de développement du système, mais doit accompagner celui-ci tout au long de son cycle de vie.

Concrètement, cela signifie élaborer un cadre éthique pour le développement et le déploiement de SIA; et soumettre ceux-ci à des évaluations périodiques pour contrôler leurs performances. En effet, un robot de sécurité qui aurait un biais d’apprentissage pourrait mal interpréter un comportement qu’il découvre et réagir de manière malencontreuse. Un logiciel de prévention des risques pourrait classer sans suite un dossier pourtant important.

L’adoption de règles d’éthique technologique, c’est-à-dire conçues spécialement pour le développement de logiciels et de technologies émergentes, est une première étape pour aligner et accompagner les divers intervenants d’un projet en IA. Tout comme les avocats adhèrent à un code de déontologie, l’éthique technologique aide à guider une équipe de projet travaillant sur un SIA potentiellement dangereux ou néfaste si non encadré.

La question de savoir ce que signifie l’utilisation responsable de l’IA et comment la garantir fait l’objet d’un débat permanent. Au cours des 12 à 24 derniers mois, on a observé une prolifération de directives éthiques émises par des organisations gouvernementales et non gouvernementales. Cette prolifération de publications témoigne d’une absence de consensus en la matière. Alors que certaines équipes de projet en IA adopteront ces directives, telle celle émise par The Geneva Association pour le développement responsable de SIA dans le domaine de l’assurance et du courtage en assurance ou La déclaration de Montréal pour un développement responsable de l’intelligence artificielle développée par l’Université de Montréal (la Déclaration de Montréal), d’autres feront le choix de développer la leur en fonction de leurs besoins.

Les grands principes de l’éthique en IA

Malgré l’absence de consensus, on observe une convergence globale vers cinq principes fondamentaux qu’on retrouve, notamment, dans la Déclaration de Montréal.

  1. La transparence, l’intelligibilité et le caractère justifiable : Les décisions des SIA devraient toujours être justifiables dans un langage compréhensible aux personnes qui les utilisent ou qui subissent les conséquences de leur utilisation. La justification consiste à exposer les facteurs et les paramètres les plus importants de la décision et doit être semblable aux justifications qu’on exigerait d’un être humain prenant le même type de décision.
  2. L’équité : Les SIA doivent être conçus et entraînés de sorte à ne pas créer, renforcer ou reproduire des discriminations fondées entre autres sur les différences sociales, sexuelles, ethniques, culturelles et religieuses.
  3. La sûreté : Les SIA doivent satisfaire des critères rigoureux de fiabilité, de sécurité et d’intégrité afin de ne pas porter préjudice à autrui ou le mettre en danger inutilement.
  4. La responsabilité : Le développement et l’utilisation des SIA ne doit pas mener à une déresponsabilisation des êtres humains lorsqu’une décision doit être prise.
  5. La protection de la vie privée : L’IA éthique considère la vie privée à la fois comme une valeur à défendre et comme un droit à être protégé.

Dans le cas d’un SIA robotisé, comme un véhicule autonome ou un robot de sécurité, les lois de la robotique d’Isaac Asimov offrent également des pistes de réflexion pour déterminer ce que signifie l’utilisation responsable de l’IA. Elles postulent que :

  1. Un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Quand bien même les lois de la robotique d’Isaac Asimov ne seraient pas applicables aux robots destinés à des fins militaires, leur développement et leur déploiement devraient se faire de manière responsable, encadrés par des principes éthiques. L’un d’entre eux, et non le moindre, adopté en février 2020 par le département de la Défense des États-Unis, stipule que les SIA doivent être dotés de fonctions qui leur permettent de détecter et d’éviter la perpétration d’actes dommageables involontaires.

L’IA, miroir de nos cultures

Au-delà de l’adoption de règles d’éthique technologique, le développement responsable de l’IA passe également par un degré d’attention qui se doit d’être porté au contexte dans lequel celle-ci est développée. En effet, étant donné que le développement d’IA consiste en des processus d’annotation de données et de validation sous supervision d’une équipe de projet, le SIA risque d’hériter et de perpétrer les préjugés de l’équipe de projet ou ceux contenus dans les données qui lui sont soumises. Ce constat rejoint celui de la loi de Conway, développée par l’ingénieur informatique américain du même nom vers la fin des années soixante, qui postule que la façon dont une organisation est structurée a un fort impact sur les systèmes qu’elle crée.

Plusieurs recours permettent de mitiger ces risques. Ils peuvent l’être par la mise sur pied d’une équipe dont les membres possèdent des profils et des expériences de vies et professionnelles variées. Ils le sont aussi durant la phase de tests qui connaît une importance toute particulière dans le cas de l’IA puisqu’à la fois préventive et formatrice. Finalement, certains auteurs promeuvent la diversité au sein d’un groupe de SIA affecté à une même tâche et argumentent que créer des profils variés d’IA en les soumettant à des banques de cas ou de données différentes entraînerait des bénéfices en termes de performance.

Pour reprendre l’expression de John Stackhouse, ancien rédacteur en chef du Globe and Mail et présentement vice-président à la Banque royale du Canada, « nous devons traiter les systèmes d’IA comme de nouveaux produits pharmaceutiques : leur faire subir des essais rigoureux pour comprendre leurs effets néfastes potentiels et repérer tout biais qui pourrait en affecter les résultats, avant que ces systèmes ne soient mis en application ». Si la comparaison est juste pour ce qui est de la phase de développement d’un SIA, elle omet d’adresser une différence majeure spécifique à l’IA : celle d’un développement continu, de façon plus ou moins autonome, tout au long du cycle de vie du SIA.

En ce sens, l’implication humaine est non seulement indispensable, en amont comme en aval du déploiement du SIA, pour assurer l’application des règles d’éthique technologique adoptées, mais surtout primordiale pour instaurer et maintenir le lien de confiance vis-à-vis les SIA, ainsi permettre aux entreprises qui les adoptent de les utiliser comme levier de croissance.

Ce billet a été rédigé avec la collaboration de Nathan Cudicio


Note éditoriale

Les auteurs jugent intéressant de faire mention d’un billet de blogue, publié par la US Federal Trade Commission (FTC), dont ils ont pris connaissance postérieurement à la publication du présent article. Reprenant les thèmes abordés ici, la FTC les examine cependant sous l’angle de la protection du consommateur, notamment en matière d’automatisation des processus dans l’industrie de l’assurance et du courtage en assurance.

Par Renato Cudicio,
Président de TechNuCom

Plus à explorer

Prenez une minute pour nous connaître

Les gens derrière TechNuCom