12 Oct Intelligence Artificielle : de l’éthique dans mes algorithmes
Le développement des modèles d’IA dans tous les domaines pose la question de l’engagement moral et éthique. La société de demain, transformée par l’Intelligence Artificielle, respectera-t-elle nos individualités ? Sera-t-elle représentative de la diversité humaine et sociale ? Le groupe de réflexion d’Optim’ease « Ethique & Digital » a échangé sur le thème des valeurs morales et humaines dans le numérique.
En juillet 2015, Google présentait ses excuses après que son logiciel de reconnaissance faciale avait confondu le portrait d’Afro-Américains avec des gorilles. Une telle bévue est arrivée parce que l’algorithme n’avait pas intégré les représentations d’hommes de couleur. Autre dérapage caractérisé : les objets connectés qui ne répondent pas aux dames, parce que l’algorithme ne reconnaît pas les voix féminines…
« Ces biais discriminants ne sont pas volontaires, les développeurs n’ayant pas pris en compte cette dimension, ni réfléchi à ses répercussions », explique Magali Germond, qui était l’invitée du groupe de réflexion. Mais selon elle, ces discriminations involontaires risquent d’être de plus en plus fréquentes avec la multiplication des programmes d’IA, et pourraient créer à terme un vrai clivage au sein de la société.
Alors, peut-on concilier le numérique et l’éthique ? A-t-on bien pensé les projets d’IA pour les encadrer ?
Responsable d’équipe de Datascientist chez ADELIAA, une société spécialisée dans l’accompagnement et l’évaluation éthique des projets digitaux, Magali Germond a soulevé de nombreuses questions sur l’éthique de l’IA. Pour elle, « L’éthique permet d’apporter du sens aux actions et tendre vers un bon comportement et usage au niveau individuel et collectif d’un projet digital. Elle constitue une régulation qui accompagne et encadre la technologie dans le temps pour tendre vers de l’IT de confiance auprès de la société. »
La finalité de ses travaux est de permettre la création et l’utilisation d’algorithmes qui soient acceptables d’un point de vue éthique.
Avant de développer un modèle d’IA, chaque développeur, chef de projet ou dirigeant devrait se poser des questions : Les données sont-elles intègres et pertinentes ? L’algorithme est-il pertinent ? Possède-t-il un jugement personnel ? Est-il discriminant ? Respecte-t-il le consentement des personnes ?
C’est dans cette optique qu’Adeliaa a créé un label de référence pionnier. Ce label ADEL est le fruit d’une dizaine d’années d’expériences et de recherches, conduites par Jérôme Béranger, docteur en éthique du digital et dirigeant de la société Adeliaa.
Ces labels sont appuyés par des politiques qui ont une réelle vision du numérique dans le futur. Dominique Pon, responsable du chantier numérique gouvernemental du plan « Ma santé 2022 » soutient des projets comme le label ADEL. Ce label a aussi été auditionné récemment à l’Assemblée Nationale pour discuter des valeurs éthiques, avec une orientation « Big data ».
L’objectif est de « donner du sens, de la sécurité, de la transparence et de la confiance », commente Magali Germond, « car on ne peut pas continuer à développer des algorithmes ‘boîtes noires’ sans explications, sans prise de recul, avec le risque d’être discriminants ou sexistes. »
Le label ADEL repose sur 44 critères spécifiques, répartis en 6 grands domaines (éthique de la donnée, éthique de l’algorithme, éthique des systèmes, éthique de l’environnement, éthique des pratiques, et éthique des décisions). Ces items vont permettre de se poser les bonnes questions et de faire des préconisations pragmatiques, réelles et concrètes.
Si un algorithme a été conçu et développé dans une acceptation éthique, rien ne garantit que ce cadre sera respecté dans la durée. Aussi le label ADEL propose-t-il deux approches complémentaires et transversales : une approche qui intègre des exigences et des préconisations éthiques dès la conception des algorithmes (Ethics by Design), et une approche qui comprend des recommandations et des règles éthiques évolutives dans le temps, depuis la mise en place des outils technologiques, jusqu’à leur utilisation et leur suivi (Ethics by Evolution).
Le label est donc limité dans le temps, parce qu’un projet digital conçu au départ dans une acceptation éthique, peut être détourné de ses intentions initiales et utilisé de façon malveillante. Se pose alors la question de la responsabilité…
Qui a la responsabilité d’un programme d’IA ?
Est-ce le datascientist qui a développé l’algorithme, est-ce le dirigeant de l’entreprise qui vend le programme ou est-ce le client qui l’utilise ?
Lionel Kerello, qui a travaillé pendant 20 ans dans le renseignement militaire, rappelle que « derrière chaque utilisation d’une IA, il y a une personne humaine responsable ». Si cette personne n’a pas confiance dans les données sur lesquelles repose l’analyse, elle ne lance pas le programme. Or, les pays utilisant l’intelligence artificielle ne prennent pas tous autant de précautions. Certains Etats n’hésitent pas à exploiter toutes les données à disposition, qu’elles soient bonnes ou mauvaises. Si en France, la CNIL joue en partie les garde-fous, à l’exportation, cela peut entraîner des conséquences fâcheuses. Il cite à titre d’exemple, la société Amesys qui a été « accusée d’avoir fourni du matériel de cybersurveillance au régime du dirigeant libyen Mouammar Kadhafi, et mise en examen pour complicité d’actes de torture » (AFP, 01/07/2021).
Didier Aït, organisateur et animateur du groupe de réflexion, rapporte les propos de Bernard Georges, prospectiviste travaillant sur l’IA et l’éthique : « Il ne faut pas contrôler les IA avec des polices d’IA, mais il faut contrôler les gouvernants qui contrôlent ces IA. » Cela signifie qu’il faut amener le groupe à réfléchir sur la portée éthique de l’outil développé et sur son utilisation.
Pour Magali Germond, cadrer chaque projet, réfléchir à la gouvernance, définir un périmètre, savoir qui exploite les informations issues d’une IA, c’est déjà poser les jalons de la responsabilité : « Chaque entreprise devrait idéalement se doter d’une gouvernance éthique. »
Si un label éthique peut être attribué à un projet d’IA, il ne peut l’être à une entreprise, « parce qu’un projet lambda peut être bien cadré d’un point de vue éthique, mais pas le projet bêta », précise Magali Germond. En revanche, au niveau de l’entreprise, il est opportun de mener un travail de sensibilisation et d’acculturation aux questions éthiques.
Comment amener les entreprises vers une acculturation de l’éthique ?
Lorsque des personnes développent des algorithmes discriminants, c’est le plus souvent parce qu’elles ne se sont pas posé de questions. L’acculturation au concept éthique des dirigeants d’entreprise et des développeurs est donc primordiale pour éviter les dérives. Elle doit permettre de s’assurer que tout le monde s’accorde sur une même éthique. Et c’est là que réside toute la difficulté, car « le concept éthique est différent selon les pays, les cultures, les entreprises, les personnes, explique Magali Germond. C’est pourquoi, nous organisons aussi des ateliers en entreprise pour développer une culture de l’éthique ». Selon elle, la culture de l’éthique devrait être enseignée dès le plus jeune âge dans les écoles.
Ludovic Turlin, développeur et chargé de cours à l’IUT de Schiltigheim, s’interroge : « La meilleure assurance-vie ne passe-t-elle pas par une simple évocation des risques concrets que tout un chacun peut être amené à vivre au travers de dérives liées à la gestion de la data ? » D’après lui, « la culture par l’anxiété est plus efficace dans bien des cas que la culture de la bienveillance, car les gens se projettent plus facilement dans une vision négative que positive. » Il s’agirait donc, non pas de former la société, mais d’évoquer des risques et de proposer des solutions pour les éviter.
L’approche éthique est essentielle dans le mode de recrutement de développeurs de programmes d’IA. « Ce poste est très compliqué, assure Magali Germond, qui intègre un cadre éthique dans la façon de recruter. Selon elle, « la manière de coder d’un homme ou d’une femme est un peu différente. La mixité dans la sphère numérique, et notamment dans l’IA, constitue un véritable enjeu. On a très concrètement besoin de cette complémentarité homme-femme dans des équipes de développeurs. » Les questions d’éthique touchent tous les métiers liés à la donnée, que ce soit pour développer des programme d’IA ou pour collecter et utiliser des données à grande échelle.
Roland Flouquet-Vilboux, Directeur Principal en charge du planning stratégique et de la gouvernance au niveau mondial chez Citrix (spécialiste des espaces de travail numériques), évoque la différence culturelle entre Français et Américains : « Il y a le temps de la prise de conscience (infinie) et le temps de l’action (finie). Les Américains sont en général beaucoup plus dans le temps de l’action, tandis que les Français favorisent davantage la réflexion. » Il fait remarquer que la France est peut-être le seul pays à enseigner la philosophie au lycée. Alors y a-t-il une approche française de l’éthique, voire une approche régionale ou locale ? Roland Flouquet-Vilboux observe que « l’on se retrouve pris entre l’ancrage culturel local et la sphère digitale globale que l’on ne maîtrise pas. Combien de smartphones (littéralement téléphones intelligents) possèdent des « backdoors » (c’est-à-dire des portes dérobées qui permettent un accès secret au contenu de l’utilisateur), ce qui donne lieu à de l’espionnage de masse, comme l’a révélé Edward Snowden ? »
Comment s’assurer que des données ne soient pas mal utilisées ?
« Regardons ce qu’il se passe aujourd’hui avec Palantir, remarque Lionel Kerello. Cette société américaine liée à la CIA, récupère et analyse toutes les données possibles en France et dans tous les pays, sans limite et sans contraintes règlementaires. Avec tous les risques que cela comporte de fuites et de réutilisation des données…
Roland Flouquet-Vilboux expose une autre problématique : « Imaginons une société de confiance qui traite avec une autre société de confiance, qui elle-même traite avec une autre société de confiance… C’est l’histoire du secret confié de personne en personne, qui finit par ne pas plus en être un, et qui risque d’être déformé et amplifié (par les fameux biais de l’IA), voire même monétisé à votre insu. Depuis de nombreuses années déjà, ces échanges d’informations en chaîne sont automatisés. Quel contrôle en gardons-nous ? Et souhaitons-nous le garder ? »
Pour Ludovic Turlin, la question n’est pas de savoir si l’IA ou la data est un outil « positif » ou « négatif » : « Ce qui compte, c’est la main qui va l’utiliser et l’intention qui est derrière. La différence, par rapport aux outils du moyen-âge, c’est le niveau d’intensité, de rapidité, de couverture sans précédent, et de capacités de nuisance quand c’est mal utilisé. »
Aujourd’hui le monde est devenu un village et chacun se retrouve dans la proximité grâce au numérique, ce qui n’est pas sans poser de problème sur le plan culturel et éthique. « Il faut comprendre les cultures des autres, s’approprier des valeurs qui sont différentes des nôtres, parce qu’on ne peut pas avancer en restant enfermé dans notre propre paradigme, conclut Didier Aït. Aujourd’hui, ce sont des questions de fond importantes et d’actualité. »
En savoir plus
Site web
Adeliaa, Expert de l’Accompagnement des projets de Data Science, de la Valorisation de la Donnée et de l’Evaluation Ethique du Digital.
Voir le site
Lire aussi
La responsabilité sociétale de l’intelligence artificielle : vers une IA éthique et écoresponsable, Jérôme Béranger, ISTE éditions, mars 2021.
Lire
Palantir : l’œil américain du renseignement français, Emission « Secrets d’info » sur France Inter, 22/09/2018.
Voir
Revoir l’actu
Le logiciel de reconnaissance faciale de Google confond le portrait d’Afro-américains avec des gorilles, Huffingtonpost, 02 juillet 2015. Lire
Participer au groupe de réflexion
Ethique & Digital
L’automatisation du digital n’est qu’un moyen technique et non une fin en soi. Si le progrès technologique représente une opportunité pour les entreprises, la transformation numérique ne doit cependant pas se faire au détriment des personnes.
« La vitesse imposée par le numérique aujourd’hui inhibe une grande partie de notre réflexion et donne bien plus de poids à la masse statistique qu’à l’introspection. »
Cette citation extraite du livre de Yannick Meneceur, dans son ouvrage L’intelligence artificielle en procès (éd. Bruylant, 2020), nous a encouragé à créer un groupe de réflexion sur l’Ethique et le Digital.
Pour participer au groupe de réflexion sur l’Ethique et le Digital, nous vous invitons à vous préinscrire ci-dessous.
Désolé, le formulaire de commentaire est actuellement clos.