Octobre 2021
La Revue d'éthique et de théologie morale de Septembre 2020, n°307, Le Cerf, Paris présente six contributions sur ce thème. Elle publie également L'appel de Rome pour une éthique de l'IA (pp. 111-116), un texte important de par son contenu et également de par sa “source”!
Isabelle Linden (IL), membre du Namur Digital Institute de l'Université de Namur, donne une introduction à la problématique: Entre rêves et illusions… L'intelligence artificielle en question (pp. 13-27)
Que recouvre l'expression “intelligence artificielle?”: Si IL fait bien remonter l'expression d'origine anglaise au Congrès de Darmouth de 1956, comme la plupart de ses collègues francophones du domaine, elle ne dénonce pas les conséquences possibles de l'adoption sans réserves d'une expression anglaise “artificial intelligence” dont les contours sémantiques (information dans le cadre des codes secrets et du renseignement crypté: Intelligence Service) sont très différents de ceux de la langue française!
Ambitions et limites induites par les caractéristiques techniques de l'IA: Ensemble d'algorithmes se nourrissant de larges ensemble de données, un programme d'IA, même en mode d’apprentissage profond (deep learning) ne construit pas de modèle de connaissance. Le traitement d'ambiguïtés lui échappe… et l'on peut évidemment se poser de nombreuses questions sur le moissonnage des données (souvent “personnelles” et mal protégées)!
Intelligence et calculabilité: les limites intrinsèques de l'IA :
Bien des domaines échappent encore aux modèles [d'IA]: la conscience de soi, les émotions, les relations sociales … non seulement nous sommes encore loin de pouvoir répliquer le fonctionnement du cerveau, mais, de plus, il est maintenant reconnu que la pensée et l'intelligence humaine dépassent de loin le cadre strict du cerveau (p.21).
De la responsabilité et de la moralité de l'IA:
Des recherches tentent de proposer des modes de programmation qui assurent que les IA soient éthiques par leur conception (ethical by design) … la pertinence et l'opportunité d'utiliser l'IA dans divers domaines demande une analyse fine de ces domaines: jusqu'à quel niveau d'autonomie et dans quelles limites une IA peut-elle soigner, opérer, investir? Pourrait-elle juger? Pourrait-elle tuer et faire la guerre? (p. 24)
L'IA dans la société:
Dans l'état actuel des technologies, la crainte que les machines prennent le pouvoir semble peu fondée. Mais il est une prise de pouvoir plus invisible qui pourrait bien être en marche. L'introduction de l'IA dans de multiples domaines pourrait bien modifier nos façons d'analyser les questions en les réduisant à des formes évaluables par une IA… L'objectivité mathématique cache trop souvent l'incapacité à faire confiance, à prendre un risque, or c'est de la créativité, du “non-standard” que peut jaillir la plus grande fécondité (p.25)
La nécessité d'un dialogue avec les sciences humaines: IL signale ici l'initiative Ethically Aligned Design de l'IEE (société qui définit des standards dans l'industrie). A Vision for Prioritizing Human Well-being, IEEE, Paris, 2019.
Pierre Gueydier (Human Technology Foundation) (PG), Intelligence artificielle et travail des données (pp. 29-41)
PG annonce: “nous critiquerons l'absolutisation du principe de réductionnisme à la base de la philosophie de l'intelligence artificielle, qui pousse à ne considérer que ce qui est constitué par une substance matérielle, des occurrences physiques ou des données mesurables” (p. 29).
L'élément fondamental à retenir ici est que la fiction de représentation des modèles, si elle a démontré naturellement son efficacité en science physique et naturelle, est incapable de prédire les comportements sociaux. Plus largement, la modélisation et l'ingénierie sociale, malgré leurs atours rationalistes, participent d'une conception politique des sociétés: celle de croire possible leur modélisation et leur simplification externes. Cette idéologie de réification des relations humaines suppose que seule une action externe permet de changer la société et que la créativité et le pluralisme des acteurs impliqués n'est pas suffisante. Il s'agit en réalité d'une conception dépolitisée, voire déshumanisée des rapports sociaux (p. 41).
Jérôme Perrin (Renault, comité National d'Éthique du Numérique), Éthique de responsabilité et de sollicitude dans la conception et l'usage des véhicules autonomes (pp. 43-61)
L'article fait bien le point sur tous les aspects de responsabilités pour la mise sur le marché et dans les circuits publics des véhicules autonomes. Les constructeurs sont conscients semblent-ils de ces enjeux et donc prudents. En note 25 (p. 58) l'Auteur signale l'existence du GEHN (un groupe d'experts indépendants de haut niveau sur l'IA) constitué par la Commission européenne dans le Rapport Lignes directrices en matière d'éthique pour une IA digne de confiance, paru en 2019.
Peter Warrian (Université de Toronto), Négocier l'autonomie (pp. 63-80)
Négociations automatisées pour le développement d'industries d'extractions minières sur des territoires privatisés.
Jean-Marc Moscetta (CERES, Institut Catholique de Toulouse) (JMM), L'intelligence artificielle entre science et théologie (pp. 81-92)
La note 2 proposée par JMM cite un texte de René Descartes, tiré de ses Principes de la philosophie, 1641, IV, article 203, qu'il vaut la peine de connaître et faire connaître:
Je ne reconnais aucune différence entre les machines que font les artisans et les divers corps que la nature seule compose, sinon que les effets des machines ne dépendent que de l'agencement de certains tuyaux ou ressorts, ou autres instruments, qui, devant avoir quelque proportion avec les mains de ceux qui les font, sont toujours si grands que leurs figures et mouvements se peuvent voir, au lieu que les tuyaux ou ressorts qui causent les effets des corps naturels sont ordinairement trop petits pour être apperçus de nos sens. Et il est certain que toutes les règles des mécaniques appartiennent à la physique, en sorte que toutes les choses qui sont artificielles, sont avec cela naturelles
et JMM poursuit:
On note, dans ce passage célèbre, l'inversion par rapport à la conclusion attendue. Descartes ne conclut pas que les corps naturels sont réductibles à des machines, mais que les machines peuvent être considérées comme des corps naturels. En un sens, cette conclusion surprenante est à même de fonder l'idée que les systèmes artificiels peuvent être considérés avec au moins autant de respect que les systèmes naturels. (p.82)
Est-ce que l'homme appelé à devenir co-créateur à la ressemblance du Créateur, ne pourrait être le vecteur de création d'êtres conscients ou de “personnes artificielles”? Une telle perspective n'offenserait pas le Créateur selon un propos de Pie XII à propos des réalisations de la technologie en 1953: “Il est indéniable que le progrès technique vient de Dieu, donc il peut et doit conduire à Dieu” (Message Urbi et Orbi du 24 décembre 1953). Et JMM de poursuivre:
Les systèmes d'intelligence artificielle ne doivent pas être idolâtrés, en prenant la place de Dieu, mais ils peuvent être offerts à Dieu pour être purifiés, “humanisés”, avec le désir que ces réalisations technologiques contribueront à la transformation définitive et totale du monde en Dieu (p. 89).
Et en finale, JMM s'appuie sur la vision de Pierre Teilhard de Chardin d'une “eucharistisation” de tout le cosmos pour une Communion universelle qui “embrasse toutes les perspectives ouvertes par la nature, de même que toutes les perspectives ouvertes par l'humanité, de sorte que la résurrection n'est en aucune manière ‘retour à la vie d'avant’, mais transfiguration de la vie d'avant pour entrer dans la vie nouvelle en Dieu en qui tout, toute la création, biologique ou non biologique, sera récapitulée. Ainsi tous nous serons transformés (1 Cor. 15.51)” (p.92).
Paolo Benanti (PB), Algor-éthique: intelligence artificielle et réflexion éthique (pp. 93-110)
Bonne surprise de faire connaissance avec ce Franciscain italien qui enseigne notamment à la Grégorienne à Rome. Il vaut aussi la peine, si on connaît l'italien, de parcourir son “blog” dans Internet qui est géré de façon très professionnelle et aborde, de façon très technique et bien documentée, à peu près tous les sujets qui intéressent le rédacteur et la plupart des lecteurs d'INTERFACE_2020!
Notamment:
Les capacités que possèdent les autres animaux leur sont données par des aptitudes génétiques et ne peuvent changer que si leur ADN change. Nous ne faisons pas cela. Nous coopérons les uns avec les autres, transmettons des informations sur le monde et éduquons les générations suivantes à faire certaines choses grâce à des artefacts technologiques. …L'homme se transforme et transforme le monde dans lequel il vit grâce à des artefacts technologiques. …Avec la technologie, nous changeons le monde et nous nous changeons nous-mêmes pour habiter le monde. L'éthique de la technologie n'est rien d'autre que la constitution naturelle de l'artefact technologique. Les intelligences artificielles sont des artefacts technologiques (p. 94).
Mais PB considère qu'il y a une vraie nouveauté dans la création informatique de programmes d'intelligence artificielle. Si, antérieurement, les programmes étaient créés en fonction d'objectifs bien déterminés,
Aujourd'hui l'IA n'est pas conçue de cette manière. Ce ne sont pas des logiciels programmés, mais des systèmes entraînés. Elle surpasse le modèle classique “si-ceci-alors-cela” dans lequel un ingénieur en informatique a d'abord prédit toutes les occurrences possibles. L'IA répond de manière autonome à un problème qui lui est posé. …Aujourd'hui, le monde n'est plus seulement habité par l'Homo sapiens, mais aussi par des machines sapiens. Si la machine est autonome, qui est responsable de ses décisions? Qui l'a conçu? Qui l'utilise? Qui la vend? Qui l'a acheté? Actuellement, une intelligence artificielle est capable de faire un meilleur diagnostic médical que le médecin moyen. Sommes-nous prêts à déléguer tout ce pouvoir de décision à des machines? Pour pouvoir répondre à cette question, nous devons clarifier une question fondamentale: une intelligence artificielle peut-elle faire un choix parfait? (p. 95).
Constatant que la machine sapiens travaille toujours sur des données qui ne peuvent représenter de façon parfaitement exacte toute la réalité: “la machine sapiens sera toujours et constitutivement faillible ” (p. 96) …et, par conséquent, “le premier moteur éthique est d'être conscient que les choix faits [pour créer et faire fonctionner une intelligence artificielle] peuvent aussi produire des effets indésirables, et, en conséquence, gérer ce risque” (p. 97) …et “ Pour pouvoir développer une algor-éthique, nous devons préciser dans quel sens nous parlons de valeur. En fait les algorithmes fonctionnent sur des valeurs de nature numérique. L'éthique parle plutôt de valeur morale. …La capacité de travailler sur des valeurs numériques est plutôt la capacité de la machine. L'algor-éthique naît si nous sommes capables de transformer la valeur morale en quelque chose de calculable. ” (p.98)
Nota bene: on peut ici retourner l'argument : pourquoi n'est-ce pas la machine sapiens qui devrait transformer ses algorithmes en valeurs morales? …c'est ce que fait, mais de façon équivoque la suite du raisonnement de PB: “Nous devons permettre [je dirais: “imposer”] à la machine d'avoir un certain sens de l'incertitude. Chaque fois que la machine ne sait pas avec certitude si elle protège la valeur humaine, doit exiger une action humaine. ” …La norme fondamentale pour la création d'une IA centrée sur l'humain est que le mécanisme construit “chaque fois qu'il est dans une condition d'incertitude, doit demander à l'humain d'intervenir” (p. 98).
De ce principe découle une série d'exigences dans la création éthique d'outils d'intelligence artificielle:
l'anticipation “la machine doit s'adapter à l'homme, et non l'inverse” (p. 99);
la transparence “l'objectif principal du robot ne doit pas être d'optimiser ses actions, mais de rendre ses actions compréhensibles et intuitives pour l'homme” (p. 99);
la personnalisation: “le robot doit être capable de s'adapter à la personnalité de l'homme avec lequel il coopère …avec la caractéristique spécifique [de l'humain] d'être un être émotionnel” (p. 99);
l'adéquation: ”La machine doit acquérir une
‘humilité artificielle’ pour attribuer une priorité opérationnelle aux personnes présentes, et non à la réalisation d'un objectif prédéterminé” (p. 99).
Mais, dans la pratique, PB reconnaît que l'IA ne respecte pas aujourd'hui ces principes et qu'elle est donc un danger pour l'humain et la société.
“ Bien que l'auteur ne se sente ni apocalyptique ni intégré, le développement d'une technologie aussi envahissante et transformatrice a des effets qui peuvent changer radicalement notre société et modifier tout aussi radicalement les relations humaines et la compréhension que nous avons de nous-mêmes en tant qu'espèce ” (p. 106).
Et donc, pour toutes les raisons développées par PB, il ajoute:
je ne m'inquiète pas tant de l'avènement d'une IA super-intelligente sur terre, mais j'observe avec une attention scrupuleuse la propagation d'une IA relativement stupide dont le but – ou plutôt dont les capacités accessoires – est capable de manipuler notre relation à l'information, avec ce que nous appelons les faits et avec la réalité telle que nous la percevons. Cette dimension de notre vie est peut-être la plus menacée par l'IA.” (p. 107)
...car dans l'IA
il existe un potentiel extraordinaire pour générer des flux de communication qui peuvent tromper quelqu'un … en nous manipulant pour que nous voulions certains biens, ou que nous votions d'une certaine manière, ou que nous croyions en certaines choses. Si nous voulions développer la première IA évangélique, cela pourrait facilement surpasser même les meilleurs prédicateurs humains …l'utilisation de l'IA pour exploiter les gens ou pour forcer la société suit un modèle politique très ancien (pp. 108-109).
Et, parmi les biens les plus précieux du spécifique humain, impossible à mettre en algorithme, PB désigne notre “imagination” unique à chaque homme, mais que des pouvoirs peuvent tenter d'unifier avec un seul discours imposé à tous! (p.110)
On voit, dans ces propositions de PB, une tentative d'apprivoiser l'Intelligence Artificielle à partir du moment où la progression du développement d'artefacts commandés par des intelligences artificielles semble inéluctable.
Ceci nous mène à une prise de conscience qui, aujourd'hui, remonte au sommet du grand corps social que représente l'Église catholique avec cet
Appel de Rome pour une éthique de l'IA, un appel signé le 28 février 2020 par l'Académie Pontificale pour la Vie, par Microsoft, par IBM, par la FAO et par le gouvernement italien. Cet Appel est publié dans le présent numéro de la
Revue d'éthique et de théologie morale aux pp. 111-116.
Aujourd'hui, plus que jamais, nous devons garantir une perspective dans laquelle l'intelligence artificielle est développée en mettant l'accent non pas sur la technologie, mais plutôt sur le bien de l'humanité et de l'environnement de notre maison commune et partagée et de ses habitants, qui sont inextricablement liés. …Il est temps de préparer un avenir plus technologique dans lequel les machines auront un rôle plus important dans la vie des êtres humains, mais aussi un avenir dans lequel il est clair que le progrès technologique affirme la supériorité de la race humaine et reste tributaire de son intégrité éthique. (p.112).
Et l'on peut aussi donner la conclusion de cet Appel:
Les promoteurs de l'Appel expriment leur désir de travailler ensemble, dans ce contexte et au niveau national et international, pour promouvoir une “algor-éthique” [une expression venant des études de PB, ci-dessus?], à savoir l'utilisation éthique de l’IA telle que définie par les principes suivants:
1. Transparence: en principe, les systèmes d'IA doivent être explicables;
2. Inclusion: les besoins de tous les êtres humains doivent être pris en considération afin que chacun puisse en bénéficier et que tous les individus puissent se voir offrir les meilleurs conditions possibles pour s'exprimer et se développer.
3. Responsabilité: ceux qui conçoivent et déploient l'utilisation de l'IA doivent procéder de façon responsable et transparente;
4. Impartialité: ne pas créer ou agir selon des préjugés, en préservant ainsi l'équité et la dignité humaine;
5. Fiabilité: les systèmes d'IA doivent pouvoir fonctionner de façon fiable;
6. Sécurité et respect de la vie privée: les systèmes d'IA doivent fonctionner en toute sécurité et respecter la vie privée des utilisateurs. (p. 116).
On notera que cet Appel a été signé par Mgr Vincenzo Paglia (qui fut le premier animateur ecclésiastique de la communauté de Sant Egidio), Mr Brad Smith (président de Microsoft), Mr John Kelly III (vice-président d'IBM), Mr Dongyu Qu (Directeur général de la FAO), Mme Paola Pisano (ministre de l'innovation technologique du gouvernement italien).
R.-Ferdinand Poswick