Rester ‘éveillé’ jusqu'au bout
Décembre 2024
La dernière ‘Veille’ de cette série, surtout si elle se présente comme un Bilan, ne peut omettre, puisque son livre vient de paraître, l’apport majeur de Yuval Noah Harari. Son regard synthétique sur les récentes évolutions mondiales de l’information (et donc de ce type d’échanges qui caractérisent l’humain) peut nourrir presque tous les points du Bilan que l’on trouvera dans les Veilles Culturelle et Spirituelle.
Yuval Noah Harari, Nexus Une brève histoire des réseaux d’information de l’âge de pierre à l’IA, Albin Michel, 2024, 576 pages, ISBN 9782226494887
L’Auteur du best-seller Sapiens (2015), de Homo Deus (2017) et de 21 leçons pour le XXIe siècle (2018), qui vit et écrit de Jérusalem et à partir de sa culture juive, brosse un tableau aussi interpellant que celui du livre-alerte de M. Suleyman, La Déferlante (octobre 2023) sur les évolutions sociétales mondiales provoquées, accélérées et dominées par “les” Intelligences Artificielles
Que nous dit Harari?
Le moindre smartphone contient plus d’informations que la bibliothèque d’Alexandrie dans l’Antiquité, et permet à son utilisateur de se connecter instantanément avec des milliards d’autres personnes à travers le monde. Pourtant, à l’heure où ces flots d’informations circulent à des vitesses vertigineuses, l’humanité est plus proche que jamais de s’autoannihiler. (p. 20)
Des philosophes et des chercheurs en sciences sociales, mais aussi nombre d’éminents experts de l’IA et autres entrepreneurs, tels Yoshua Bengio, Geoffrey Hinton, Sam Altman, Elon Musk et Mustafa Suleyman, lancent un avertissement au grand public: l’IA pourrait bien détruire notre civilisation. (p. 21)
Le Chapitre 9 réfléchit à la manière dont les démocraties peuvent répondre au défi que représente ce réseau inorganique. Comment, par exemple, des politiciens de chair et de sang peuvent‒ils prendre des décisions si le système financier est de plus en plus contrôlé par l’IA et que le sens même de l’argent finit par dépendre d’algorithmes impénétrables? Comment les démocraties peuvent‒elles débattre de quelque sujet que ce soit – qu’il s’agisse de finance ou de la question du genre – s’il nous est désormais impossible de savoir si nous nous adressons à un être humain ou à un agent conversationnel (chatbot) se faisant passer pour un humain?
Le Chapitre 10 explore l’impact potentiel du réseau inorganique sur le totalitarisme. Même si les dictateurs seraient ravis de se débarrasser de tout débat public, ils nourrissent leurs propres craintes vis‒à‒vis de l’IA. …comment un dictateur humain pourrait‒il terroriser une IA, en censurer les processus insondables ou l’empêcher de s’emparer du pouvoir? (p. 33).
Mais qu’est, dans l’organisation sociétale, l’information?
…au fil de l’histoire, les réseaux d’information humains ont développé deux ensembles de compétences bien distincts. D’un côté, conformément aux attentes de la vision naïve [selon laquelle information = quête de la vérité], ces réseaux ont appris à traiter l’information de manière à acquérir une compréhension plus exacte de la médecine, des mammouths ou de la physique nucléaire. En parallèle, ils ont également appris à utiliser l’information de manière à assurer un ordre social plus puissant parmi des populations plus vastes, en s’appuyant non seulement sur des comptes rendus fidèles, mais aussi sur des fictions, des fantasmes, de la propagande et – parfois – des mensonges purs et simples. (p. 73)
Entre recherche de la vérité et maintien de l’ordre comment l’histoire a-t-elle géré l’information?
La manière dont les réseaux d’information humains ont géré jusqu’ici le problème des erreurs constituera le thème central des deux prochains chapitres [4 et 5]. Nous commencerons par étudier l’invention d’une autre technologie de l’information: le livre sacré. Les livres saints tels que la Bible et le Coran sont une technologie de l’information censée à la fois inclure toutes les informations vitales dont une société a besoin et exclure toute possibilité d’erreur. Que se passe-t-il lorsqu’un réseau d’information se croit absolument incapable de commettre la moindre erreur? L’histoire des livres saints prétendument infaillibles met en évidence certaines limites inhérentes à tout réseau d’information. Elle est riche d’enseignements en ce début du XXIe siècle où l’on prétend pouvoir créer des IA infaillibles. (p. 107)
Valeur et nécessité des “mécanismes d’autocorrection”
…la révolution scientifique fut lancée par la découverte de l’ignorance. Les religions du Livre partaient du principe qu’elles avaient accès à une source de savoir infaillible. Les chrétiens possédaient la Bible, les musulmans le Coran, les hindous les Védas et les bouddhistes les Tipitaka. La culture scientifique ne dispose d’aucun livre saint de ce genre, et ne prétend pas non plus que ses héros sont des prophètes, des saints ou des génies infaillibles.
[…] La marque de fabrique de la science n’est pas simplement le scepticisme, mais l’autoscepticisme, et, au cœur de chaque institution scientifique, on trouve un solide mécanisme d’autocorrection. Les institutions scientifiques parviennent bel et bien à un large consensus sur l’exactitude de certaines théories – on peut citer la mécanique quantique ou la théorie de l’évolution – , mais seulement parce que ces théories ont réussi à survivre à d’intenses efforts destinés à les réfuter, de la part non seulement de personnes extérieures mais de membres de l’institution elle-même. (pp. 144-145).
[…] en l’absence de tels mécanismes, les institutions aussi meurent. Ces mécanismes commencent par la prise de conscience du fait que les humains sont faillibles et corruptibles. Mais au lieu de désespérer des hommes et de chercher un moyen de se passer d’eux, l’institution recherche activement ses propres erreurs et les rectifie. Toutes les institutions qui perdurent au-delà de quelques années possèdent de tels mécanismes d’autocorrection… (pp. 146-147)
Les limites de l’autocorrection
Cela signifie‒t‒il qu’avec les mécanismes d’autocorrection, nous avons trouvé la solution miracle à même de protéger les réseaux d’information humains de l’erreur et des biais? Malheureusement, c’est loin d’être aussi simple. Si des institutions comme l’Église catholique et le parti communiste soviétique ont tout fait pour éviter les mécanismes d’autocorrection solides et puissants, ce n’est pas sans raison: de tels mécanismes sont certes vitaux pour parvenir à la vérité, mais coûteux en termes de maintien de l’ordre. Des mécanismes d’autocorrection puissants ont tendance à engendrer des doutes, des désaccords, des conflits et des ruptures, et à saper les mythes qui assurent la cohésion de l’ordre social. (pp. 157‒158)
Nous sommes au beau milieu d’une révolution de l’information sans précédent
Le germe de la révolution actuelle, c’est l’ordinateur. Tout le reste – d’Internet à l’IA – en découle. À sa naissance dans les années 1940, l’ordinateur était une machine électronique encombrante capable d’ “effectuer des calculs mathématiques, mais il a ensuite évolué à une vitesse vertigineuse. […] Là où presses à imprimer et postes de radio n’étaient que des outils passifs dans la main de l’homme, les ordinateurs sont en passe de devenir des agents actifs échappant à notre contrôle et à notre compréhension, et sont à même de prendre des initiatives pour façonner la société, la culture et l’histoire. (pp. 241, 242, 243)
Les ordinateurs pourraient à terme devenir des membres plus puissants [de nos sociétés] que les humains. Pendant des dizaines de milliers d’années le super‒pouvoir des Sapiens a été leur capacité unique à utiliser le langage pour créer des réalités intersubjectives telles que les lois et les monnaies, puis à s’appuyer sur ces réalités intersubjectives pour se connecter à d’autres Sapiens. Mais les ordinateurs pourraient bien inverser les rôles. Si le pouvoir dépend du nombre de membres avec lesquels on coopère, du degré de connaissance qu’on a du droit et de la finance, et de la capacité à inventer de nouvelles lois et de nouveaux types de dispositifs financiers, alors les ordinateurs ne tarderont pas à amasser beaucoup plus de pouvoir que les humains. (p. 256)
[…] à l’heure où j’écris ces lignes, les ordinateurs savent inventer des histoires, composer de la musique, créer des images, produire des vidéos et même rédiger leur propre code. (p. 257)
Une résistance humaine est‒elle imaginable?
L’un des garde‒fous potentiels consisterait à entraîner les ordinateurs à avoir conscience de leur propre faillibilité. Socrate nous l’a appris: être capable de dire “Je ne sais pas” est un pas décisif en direction de la sagesse. Et cela vaut tout autant pour la sagesse informatique que pour la sagesse humaine. La première leçon que tout algorithme devrait apprendre, c’est qu’il peut lui arriver de commettre des erreurs. Les bébés algorithmes devraient apprendre à douter d’eux‒mêmes, à signaler toute incertitude et à se soumettre au principe de précaution. Cela n’a rien d’impossible. Les ingénieurs ont déjà fait des progrès considérables en ce domaine, et parviennent beaucoup mieux à encourager l’IA à exprimer ses doutes sur ses propres décisions, à solliciter des retours et à admettre ses erreurs. (pp. 359‒360)
Pour nous protéger d’une multitude de problèmes imprévisibles, le plus sûr serait de créer des institutions vivantes à même d’identifier les menaces et d’y répondre au fur et à mesure qu’elles se présenteront. (p. 360)
Et si le premier principe pour sauver la “démocratie” face à la pieuvre IA serait une priorité à donner à tous niveaux à la “bienveillance”. Le Deuxième principe susceptible de protéger la démocratie contre l’avènement de régimes de surveillance totalitaires, c’est la décentralisation. Une société démocratique ne devrait jamais permettre que toutes ses informations soient concentrées en un seul lieu, que ce pôle central soit une administration ou une société privée. Il peut s’avérer extrêmement utile de créer une base de données médicale nationale, qui collecte des informations sur les citoyens afin de leur fournir de meilleurs soins de santé, de prévenir les épidémies et de développer de nouveaux traitements. Mais fusionner cette base de données avec celles de la police, des banques ou des compagnies d’assurances serait une idée très dangereuse. Cela rendrait sans doute plus efficace le travail des médecins, des banquiers, des assureurs et des agents de police, mais ce genre d’hyper‒efficacité peut mener tout droit au totalitarisme. Pour la survie de la démocratie, un certain degré d’inefficacité n’est pas un bug, mais une fonctionnalité. Pour protéger la vie privée et la liberté des individus, il est préférable que ni la police ni leur patron ne sachent pas tout sur eux.
La surveillance par les agents de l’État, les prêtres et les voisins fut essentielle pour imposer aux gens des systèmes de caste rigides et des campagnes de rééducation totalitaires. De nouvelles technologies de surveillance, surtout si elles sont associées à un système de crédit social, pourraient forcer les gens soit à se conformer à un nouveau système de castes, soit à modifier constamment leur comportement, leurs pensées et leur personnalité en fonction des dernières instructions venues d’en haut. (p. 373)
Protéger des “faux humains” comme de “faux monnayeurs”!
Ce qui vaut pour la contrefaçon de monnaie devrait valoir aussi pour la contrefaçon d’êtres humains. Puisque les gouvernements ont pris des mesures décisives afin de sauvegarder la confiance dans l’argent, il paraît logique de prendre des mesures tout aussi décisives pour protéger la confiance dans les humains. Avant l’avènement de l’IA, un humain pouvait se faire passer pour un autre, et la société punissait ce genre d’imposture. Mais la société n’a jamais pris la peine d’interdire la création de faux humains, puisque aucune technologie ne le permettait. À présent que l’IA est capable de se faire passer pour humaine, elle menace de détruire la confiance entre humains et de défaire le tissu même de la société. Selon Dennett, les gouvernements devraient donc interdire les faux humains avec autant de fermeté qu’ils ont, par le passé, interdit la fausse monnaie. (p. 407)
N’est-il pas déjà trop tard? …ou …bientôt trop tard?
Les ordinateurs ne sont pas encore assez puissants pour échapper totalement à notre contrôle ou détruire par eux‒mêmes la civilisation humaine. Tant que l’humanité reste unie, nous avons les moyens de bâtir des institutions qui contrôleront l’IA, identifieront et corrigeront les erreurs algorithmiques. Malheureusement, l’humanité n’a jamais été unie. Nous avons toujours été gangrenés par des acteurs malintentionnés, mais aussi par des désaccords entre les acteurs de bonne volonté. La montée en puissance de l’IA fait donc peser une menace existentielle sur l’humanité, non pas à cause de la malveillance des ordinateurs mais à cause de nos propres défauts. (p. 425)
Cette dynamique économique et géopolitique [investissements massifs en Chine et aux États‒Unis dans les domaines touchant à l’IA] pourrait bien diviser le monde en deux empires numériques. Pendant la guerre froide, le rideau de fer était en de nombreux endroits littéralement fait de métal: du fil de fer barbelé séparait les pays. À présent, le monde est de plus en plus divisé par le rideau de silicium. Celui‒ci est fait de code et traverse tous les smartphones, ordinateurs et serveurs du monde. Le code qui fait tourner votre smartphone détermine de quel côté du rideau de silicium vous vivez, quels algorithmes gèrent votre vie, qui contrôle votre attention et vers où vos données circulent. (p. 440)
Pendant des siècles, les nouvelles technologies de l’information ont alimenté le processus de mondialisation et rapproché les gens du monde entier. De manière paradoxale, les technologies de l’information sont aujourd’hui si puissantes qu’elles pourraient potentiellement scinder l’humanité en enfermant les différents peuples dans des cocons d’information distincts, mettant un terme à l’idée d’une réalité humaine unique et partagée. Si la toile a été notre principale métaphore des dernières décennies, l’avenir pourrait bien appartenir aux cocons. (p. 442)
Quels cocons?
Si la Chine et les États‒Unis sont actuellement en tête de la course pour l’IA, ils ne sont pas les seuls à y participer. D’autres pays ou blocs, comme l’Union Européenne, l’Inde, le Brésil et la Russie, pourraient vouloir créer leurs propres sphères numériques, influencées chacun par différentes traditions politiques, culturelles et religieuses. Au lieu d’être scindé entre deux grands empires, le monde pourrait alors être divisé en une douzaine d’empires. Cela atténuerait‒il un peu la compétition impériale, ou cela aurait‒il pour effet de l’exacerber davantage? Difficile à déterminer. (p. 448)
Bien sûr, que le monde se retrouve divisé en une poignée d’empires numériques, demeure une communauté plus diverse de deux cents États‒nations ou soit scindé par des frontières tout à fait autres et inattendues, la coopération restera toujours possible. Chez les humains, le condition préalable à la coopération n’est pas la similarité: c’est la capacité à échanger des informations. Tant que nous serons capables de converser, nous parviendrons peut‒être à trouver une histoire commune susceptible de nous rapprocher. C’est cela, après tout, qui a fait d’Homo Sapiens l’espèce dominante de cette planète. (p. 450)
Et l’Auteur termine l’Épilogue de son livre par les propos suivants
Pour créer des réseaux plus sages, nous devons renoncer à la fois à la vision naïve et à la vision populiste de l’information, mettre de côté nos fantasmes d’infaillibilité et nous lancer dans une tâche ardue et pour le moins rébarbative: bâtir des institutions dotées de puissants mécanismes d’autocorrection. C’est peut‒être là l’enseignement le plus essentiel de ce livre.
Cette sagesse est bien plus ancienne encore que l’histoire humaine. Elle est élémentaire, c’est le fondement même de la vie organique. Les premiers organismes n’ont pas été créés par un génie ou un dieu infaillible. Ils sont apparus par le biais d’un processus complexe d’essais et d’erreurs. Pendant 4 milliards d’années, des mécanismes de mutation et d’autocorrection de plus en plus complexes on conduit à l’évolution des arbres, des dinosaures, des jungles, et, finalement des humains. Nous avons maintenant invoqué une intelligence autre, non organique, qui pourrait bien échapper à notre contrôle et mettre en danger non seulement notre espèce mais une multitude d’autres formes de vie. Les choix que nous ferons tous au cours des années à venir détermineront si le fait d’avoir donné le jour à cette intelligence fut une erreur fatale, ou s’il marque le début d’un nouveau chapitre plein d’espoir de l’évolution de la vie. (p. 471)
Ma conclusion
AlphaGo, l’un des premiers programmes d’Intelligence Artificielle
fonctionnant avec des algorithmes de deeplearning (“apprentissage
profond ou systématique”) a battu le champion du monde du jeu de GO en 2017.
À l’échelle des milliers d’années de développement de notre humanité sur la
planète Terre, moins d’une dizaine d’années correspond à peine à un millionième
du temps de notre déploiement planétaire!
À l’aide de tous les “lanceurs d’alerte” auxquels j’ai tenté de tendre l’oreille, et avec une confiance dans l’avenir qui ne tient pas à ma seule vision humaine des évolutions en cours, je pressens une période de développements majeurs de l’humanité.
Pour moi, la meilleure image, à ce jour, de ce qui se passe, est celle, à vrai dire “mystérieuse” sous beaucoup d’aspects, mais également “fascinante”, serait, de par la merveille de perfection qu’elle représente: une embryogenèse!
À partir de deux cellules
microscopiques qui s’unissent, on va voir éclore des cellules diversifiées (os,
sang, muscles, peaux, réseaux nerveux, fonctionnalité d’alimentation, de
déplacement, de préhension… et, finalement, de mémorisation, de conscience, de
réflexion et de parole)… et qui se structurent étonnamment en un “corps”
animé, puis conscient!
Si nous sommes, en tout cas et clairement depuis plus
de 2000 ans, dans un tel processus dont le développement doit mener notre
humanité à une plénitude résurrectionnelle (la Vie sans “mort(s)”), on peut
mesurer d’une part, et au même rythme, les siècles encore nécessaires pour
atteindre cet état final, et, d’autre part, les douleurs liées à une telle
croissance (cf. S. Paul, Lettre aux Romains, 8.22).
Sans avoir la
joie (et la consolation) qui furent celles du vieillard Siméon, lui qui a pu
déceler, à l’entrée du Temple, la réalité “incarnée” d’une telle évolution… et
encore moins les étapes qui mèneront à l’Homme complet selon le plan
créationnel qui nous a fait exister et en prendre conscience, un plan qui mène
le monde depuis son “big-bang” originel, je suis heureux de livrer ce regard
qui pourrait reprendre, avec sérénité mais non sans crainte(s), la suite des
propos du vieillard Siméon: “Cette humanité doit causer la chute et le
relèvement de beaucoup … et devenir un signe qui provoquera la contradiction…
et toi-même (il s’adresse, comme moi, à Marie sa mère), un glaive te
transpercera l’âme: ainsi de bien des cœurs se dévoileront les pensées”
(Évangile de S. Luc, 2.33-35)!