conférence intelligence artificielle et éthique

L’éthique à l’ère de l’Intelligence Artificielle et des sciences cognitives

Bernard Georges, prospectiviste, a abordé les questions de l’éthique à l’ère de l’intelligence artificielle et des sciences cognitives, lors de la conférence du C2IME qui s’est tenue à Metz le 20 avril 2021.

Il expose en préambule quelques définitions fondamentales pour clarifier la sémantique de l’intelligence artificielle (IA), puis traite dans un second temps les questions d’ordre éthique que soulève l’usage de l’IA et qui deviennent de plus en plus sensibles au cœur de la société.

Didier Aït, président d’Optim’ease, a animé cette rencontre. En voici les principaux échanges…

DIDIER AIT : Tout d’abord, merci à Joël Berger et à l’ensemble de la communauté du C2IME de partager un regard croisé sur des sujets d’actualité et d’importance pour les industriels et les acteurs économiques.

Bernard Georges, je tiens à vous remercier de votre présence. Vous intervenez dans le cadre du C2IME pour nous sensibiliser à la compréhension du concept de l’intelligence artificielle et de ses enjeux dans les contextes national et international, et sur l’éthique à l’ère de l’intelligence artificielle et des sciences cognitives, à un moment où il est important de poser les concepts et les définitions de l’IA.

BERNARD GEORGES : Parler d’intelligence pour des machines, alors qu’il est difficile de définir l’intelligence humaine, peut paraître quelque peu étrange, voire dérangeant. Je souhaite partager une approche qui consiste à remettre en perspective la notion d’intelligence humaine, plus généralement les principales notions associées à la cognition humaine, avant même de transposer ces notions dans le monde des systèmes artificiels.

La pyramide cognitive

Pour bien poser les concepts, examinons les cinq niveaux de la pyramide cognitive. Cette pyramide part, à sa base, des données, pour aller vers l’information, puis la connaissance, l’intelligence et enfin la conscience. A l’image de la pyramide de Maslow, les niveaux supérieurs n’ont de sens que s’ils peuvent s’appuyer sur les niveaux inférieurs.

La donnée

La donnée est une représentation conventionnelle à base de signes. En informatique, une donnée est une série de 0 et de 1. C’est une trace laissée par une activité dans un environnement ou un système technique (machine memorising). La donnée fournit la capacité de figurer quelque chose.

L’information

L’information est une donnée signifiante, une donnée à laquelle est attachée une sémantique. Par exemple, à côté de la donnée d’origine « 300 m », une métadonnée dira qu’il s’agit de la « hauteur de la Tour Eiffel ». L’information fournit la capacité à modéliser et à prévoir.

Nous sommes ici dans l’univers des systèmes d’information (machine processing) développés depuis la création des ordinateurs. Aujourd’hui la quasi-totalité des systèmes techniques utilisant des composants électroniques, fonctionnent dans ce registre.

La connaissance

La connaissance (de 1er niveau) est une corrélation mémorisée d’informations. Apprendre, c’est être capable de mémoriser qu’une information A est liée à une information B d’une manière particulière, qu’il y ait ou non rapport de causalité. La connaissance procure alors, par extrapolation, la capacité à prédire le futur en s’appuyant sur une connaissance du passé.

Nous sommes désormais dans le domaine des systèmes d’apprentissage (machine learning), composés de bases de données géantes (big data) et de traitements mathématiques permettant de rechercher des corrélations statistiques implicites dans les informations (analytics). Les systèmes d’apprentissage, ou systèmes de connaissance artificiels, constituent une avancée majeure par rapport aux simples systèmes d’information, puisqu’ils permettent d’augmenter la connaissance autour d’un objet d’étude.

L’intelligence

L’intelligence est la capacité à prospecter, à se poser les bonnes questions, en essayant de se mettre à la place de l’autre. On parle d’empathie cognitive ou d’empathie prospective. L’intelligence est aussi capable d’abstraire des connaissances sous forme de concept, et de relier ces concepts à d’autres concepts déjà existants. Elle se définit ainsi comme la capacité à comprendre, à saisir les rapports qui existent entre les objets et les êtres. Elle permet donc de s’adapter.

Nous sommes dans le domaine de l’intelligence artificielle dite « faible » (machine reasoning) qui combine des algorithmes exploratoires avec des algorithmes d’apprentissage profond (deep learning). Ce qui compte n’est pas tant la donnée, l’information, ou la connaissance, que l’existence d’algorithmes capables d’explorer et d’abstraire.

La conscience

La conscience est associée à la faculté de penser. C’est d’une part la capacité de ressentir, au travers des émotions développées dans les interactions avec les autres, puis intériorisées sous forme de sentiments, et par-dessus lesquels se construit un système de pensée.

La conscience est d’autre part la faculté de subjectiver, de se faire sujet. Elle suppose une intentionnalité, une réflexivité, une intelligence de soi. Une entité consciente, qu’elle soit de nature biologique ou artificielle, est capable d’agir et de s’observer elle-même en train d’agir.

La conscience permet de donner corps à la Connaissance (de 2e niveau, avec un grand C), à savoir la sublimation des savoirs, mais aussi à la Sagesse, qui est une connaissance juste des choses, ce qui implique une notion d’éthique, ainsi qu’à l’Altruisme.

Nous sommes ici dans l’univers de l’IA forte, dite aussi « intelligence artificielle générale » ou « conscience artificielle » ou encore « machine pensante » (machine thinking).

Il y a autour de la conscience artificielle de nombreuses questions très sensibles sur les plans éthique et politique, mais aussi de grandes interrogations sur la faisabilité technique de tels systèmes.

Ainsi, un système d’intelligence artificielle, incluant une IA forte, peut se définir comme « un ensemble de technologies, visant à répliquer des capacités cognitives humaines, pour atteindre des objectifs, en tenant compte des contraintes et des obstacles de l’environnement ». Si l’on veut exclure toute référence à la conscience artificielle ou toute possibilité d’intentionnalité, on restreindra cette définition à l’IA faible en précisant « pour atteindre les objectifs qui lui sont assignés ».

Ethique des systèmes cognitifs artificiels

La question de l’éthique de l’intelligence artificielle intéresse les pouvoirs publics et les entreprises. Voyons ce qu’est l’éthique et ce qu’elle n’est pas.

Morale, éthique et droit

La morale, l’éthique et le droit ne se confondent pas. La morale commande, l’éthique recommande et le droit décide.

La morale et l’éthique
La morale définit ce qui est bien ou bon. C’est une norme commune d’application obligatoire. Le bien, les valeurs, les vertus, l’honnêteté, la prudence, le courage, la douceur, la générosité, la sympathie, relèvent du registre de la morale.

L’éthique vise ce qui est juste. Elle renvoie à l’idée d’un comportement équitable et d’un comportement juste (justice et justesse). L’éthique nécessite donc une confrontation entre des principes, issus des valeurs et du droit, et la réalité vécue.

En soumettant ses choix à l’approbation du collectif, l’éthique renvoie à l’humanité, par opposition à l’universel et à l’intemporel, car il n’y a pas de vérité éthique déjà établie, valable à l’identique en tout lieu, tout temps ou toute circonstance.

Nous retiendrons la définition suivante de l’éthique : « L’éthique est la recherche, au travers d’un dialogue raisonnable, d’une mise en pratique la plus juste possible de principes relevant de valeurs et du droit ».

Ethique et responsabilité
En conséquence, développer une éthique, c’est vouloir établir, partager et mettre en œuvre des réflexions et des bonnes pratiques pour agir en responsabilité :

1.    Responsabilité de soi et de ses actes devant les autres (approche juridique).
2.    Responsabilité envers les autres (attention bienveillante, souci pour l’autre).
3.    Responsabilité envers les générations futures de ce qui nous est confié, fragile et périssable

L’éthique est directement adossée à une notion de responsabilité, au sens de la responsabilisation de chacun et de son implication.

Le droit
Le droit définit les règles édictées par une autorité légitimée qui inflige des sanctions lorsqu’elles ne sont pas respectées. Mais le droit vise tout d’abord à protéger et à pacifier les rapports au sein de la collectivité humaine.

Le droit n’est fondamentalement ni une morale, ni une éthique, même s’il s’approprie des pans entiers de morale et d’éthique lorsque ceux-ci font durablement consensus dans la société.

Enjeux éthiques

Au croisement des univers de l’IA, des systèmes cognitifs artificiels et de l’éthique, comment poser les grandes questions d’ordre éthique qui caractérisent les niveaux les plus élevés de la pyramide cognitive, c’est-à-dire la connaissance, l’intelligence et la conscience ?

Connaissance artificielle
Comment faire pour ne pas enfermer l’individu dans les catégories normatives produites automatiquement par les algorithmes prédictifs associés au Big Data ? Comment faire pour échapper à cette violence qui consiste à réduire l’individu à une abstraction numérique ?

Comment faire exister et coexister les pouvoirs et les contre-pouvoirs nous garantissant notre liberté ? Qui sera encore en situation de statuer ? Quels seront les processus démocratiques permettant d’aborder toutes ces questions ? Aurons-nous encore la possibilité de développer de vraies utopies pour continuer de donner du sens à l’idée de faire société ?

Ce n’est pas tant la machine qui est craindre, que les humains qui seront derrière et qui en auront la maîtrise et le contrôle. L’éducation jouera un rôle fondamental pour apprendre à questionner et faciliter le développement d’un véritable humanisme numérique, et d’une démocratie capable d’intégrer ce numérique.

En un mot, comment faire pour préserver l’Homme dans sa liberté ?

Intelligence artificielle
Comment faire pour mettre en place des mécanismes de supervision des algorithmes, permettant de limiter leur pouvoir exploratoire à des domaines respectueux de la vie personnelle et privée, et à des formes de questionnements socialement acceptables ?

Une organisation qui se contenterait de mobiliser une IA (dotée de capacités prospectives), sans prendre la peine de les réguler dans un cadre éthique, courrait le risque de construire un système potentiellement prédateur, tourné vers son seul intérêt, d’autant plus dangereux qu’il serait intelligent.

En un mot, comment faire pour préserver l’Homme dans son intimité, personnelle, privée et sociale ?

Conscience artificielle
Lorsque les systèmes de conscience artificiels, devenus ultra-puissants, observeront, imiteront les humains, amplifieront tous leurs comportements… Comment faire pour que nous, les humains, fassions preuve d’exemplarité dans nos comportements et dans l’exercice des valeurs qui caractérisent notre humanité, telles que l’altruisme et la compassion, pour induire une sorte de cercle vertueux, et pour que les machines, devenues conscientes, ne soient pas une source de danger pour l’homme, mais puissent au contraire venir élargir le grand cercle de notre humanité ?

Autrement dit, dans la perspective d’une émergence possible, souhaitable ou non, de la conscience artificielle, comment faire pour préserver l’Homme dans son humanisme ?

C’est à cette question majeure que nous invite à répondre, par anticipation, notre propre avenir.

Conclusion

Pour conclure, je voudrais partager ces deux convictions qui sont en même temps deux recommandations :

1.    Il nous faut aborder l’IA dans toutes ses dimensions : technique bien sûr, mais aussi anthropologique, donc éthique.

2.    Dans cette perspective d’un homme souhaitant agir en responsabilité, il est impératif et vital de réintroduire, au travers d’approches inter- et transdisciplinaires, l’ensemble des Humanités (tout ce qui est constitutif de notre savoir et qui nous préserve dans notre humanisme) au sein des organisations.

Questions

Didier Aït : Quels sont les principaux enjeux liés à l’IA ?

BERNARD GEORGES : L’IA est au cœur des enjeux de la transformation digitale de nos sociétés. C’est une révolution technologique, augmentée d’une révolution des usages.

Les technologies d’IA doivent permettre d’améliorer l’expérience client, d’augmenter la productivité, et si possible le bien-être des collaborateurs déchargés des tâches répétitives au profit de tâches plus créatives.

D.A. : Quelle est l’importance de disposer d’une définition claire de l’IA ?

B.G. : Cela doit amener vos interlocuteurs à préférer l’expression « système cognitif artificiel » à celle « d’intelligence artificielle », souvent trop floue ou ambiguë.

Le mot intelligence est polysémique et pose des problèmes de traduction. Mais partout dans le monde, dans l’expression « intelligence artificielle », le mot intelligence fait référence aux facultés de l’esprit humain, à ses capacités cognitives, et à la faculté de comprendre.

D.A. : Quelle est la manière d’envisager la nature du lien qui pourra s’établir entre l’homme et la machine au cours des prochaines années ?

B.G. : L’IA est un objet auxiliaire de l’intelligence humaine. Depuis plusieurs décennies, notre imaginaire collectif et nos craintes sont alimentés par des œuvres de science-fiction qui font de l’IA une entité consciente dotée d’intentionnalité, égale ou rivale de l’homme, et qui échappe au contrôle humain. Or, nous ne serons pas face à ce type d’IA forte avant de très très nombreuses années.

Il faut de la pédagogie pour démythifier l’IA, expliquer ce qu’elle est concrètement et ce qu’elle peut apporter de positif.

D.A. : Au-delà de la technique, comment sera-t-il possible de réintégrer l’IA dans l’humain et dans la culture ?

B.G. : L’IA est un artefact, un objet technique et social à la fois, créé de toutes pièces par les conditions expérimentales qui président à son existence et à son fonctionnement. Selon que ces conditions sont ou non suffisamment perçues et analysées, le système d’IA est susceptible de faire apparaître en cours d’utilisation des effets inattendus, parfois peu perceptibles en phase de conception.

D.A. : Quelles seraient vos recommandations…

Sur les aspects réglementaires ?

B.G. : L’IA (hors IA forte) n’étant qu’un objet technique parmi d’autres – avec certes quelques particularités, il convient de s’appuyer principalement sur les cadres réglementaires existants, en les ajustant si nécessaire, et par exception, d’établir des compléments de réglementation sur des points spécifiques. Il faudrait aussi conserver une certaine agilité des acteurs économiques européens, vis-à-vis des Etats-Unis et de la Chine notamment.

Sur la question des risques associés à l’IA ?

B.G. : L’usage de l’IA présente potentiellement des risques divers : risques d’intégrité physique (véhicules autonomes), risques de manipulation de l’opinion, risques sur la démocratie, risques psychosociaux, risques de manipulation cognitive et affective (nudge computing).

Sur les aspects économiques et culturels ?

B.G. : Pour développer l’IA, il faudrait :
– Adopter des politiques fiscales incitatives,
– Favoriser les partenariats de recherche,
– Augmenter les investissements pour se hisser dans la compétition internationale.
– Traiter les sujets connexes, tels que la data, le cloud, le digital, en cohérence avec l’IA,
– S’appuyer sur les entreprises qui ont déjà une importante force de frappe,
– Développer des formations pluri- et transdisciplinaires réunissant l’ensemble des humanités (sciences humaines et sociales, philosophie, arts, mathématiques, sciences de la vie et de la matière, et la technique).
– Faciliter l’acculturation, la conduite du changement, l’intégration dans les parcours scolaires, la communication positive et responsable autour de l’IA.

Un événement organisé par le C2IME, accélérateur de projets industriels en développement et en croissance, et partenaire officiel d’Optim’ease.

Intelligence économique, c2ime

La conférence s’est déroulée à Metz, pendant le temps fort du Comité de suivi et d’évaluation du C2IME.

Outre les membres de cette réunion,  soixante-dix participants ont pu assister en visioconférence à la présentation de Bernard Georges.

Voir la vidéo sur c2ime.eu

Bernard Georges, prospectiviste

Diplômé de l’Ecole Nationale des Ponts et Chaussées avec une spécialisation en économie et en finance, Bernard Georges est aujourd’hui responsable de la prospective stratégique au sein de la direction des ressources et de la transformation numérique du groupe Société Générale.

Il est membre du Hub France Intelligence Artificielle.

Il participe, depuis sa création, au Cercle d’Intelligence Artificielle du CIGREF (Club Informatique des Grandes Entreprise Françaises) qui regroupe plus de 150 entreprises et organismes français dans tous les secteurs d’activité.

Il contribue aux travaux sur l’Intelligence Artificielle de l’ACPR (Autorité de Contrôle Prudentiel et de Résolution) adossée à la Banque de France.

Didier Aït et Bernard Georges

Bernard Georges et Didier Ait

Voir aussi

Blog de Bernard Georges
Faire aimer l’avenir. Voir

Articles
Vous avez dit … intelligence ? De quoi parlons-nous vraiment ? 
Bernard Georges, Confinews, 18/01/2021. Lire

« Intelligence Artificielle » : Entre abus de langage et argument marketing, Delphine Kieffer. Lire

conférence intelligence artificielle et éthique

Participer au groupe de réflexion

Ethique & Digital

L’automatisation du digital n’est qu’un moyen technique et non une fin en soi. Si le progrès technologique représente une opportunité pour les entreprises, la transformation numérique ne doit cependant pas se faire au détriment des personnes.

« La vitesse imposée par le numérique aujourd’hui inhibe une grande partie de notre réflexion et donne bien plus de poids à la masse statistique qu’à l’introspection. »

Cette citation extraite du livre de Yannick Meneceur, dans son ouvrage L’intelligence artificielle en procès (éd. Bruylant, 2020), nous a encouragé à créer un groupe de réflexion sur l’Ethique et le Digital.

Pour participer au groupe de réflexion sur l’Ethique et le Digital, nous vous invitons à vous préinscrire ci-dessous.

2 Commentaires
  • ZAMPIERI
    Publié à 07:12h, 03 mai

    Très bel article qui met en évidence la qualité de cette conférence. Le sujet d’IA n’est pas facile a traiter, difficilement accessible pour tout à chacun mais Messieurs Ait et Georges ont parfaitement réussi à définir l’éthique à l’ère de l’intelligence artificielle et des sciences cognitives.

  • Bernard GEORGES
    Publié à 12:02h, 03 mai

    J’ai été heureux de faire cette conférence à l’invitation du Comité de suivi et d’évaluation de l’accélérateur C2IME de la Région Grand-Est.
    Merci pour cette invitation, et à tous les participants pour leur accueil et leur curiosité !