Une Mécanisation de la Mémoire (MM) qu'on appelle Intelligence Artificielle (IA)!

Mars 2024

On en parle partout et tout le temps.
Cela aurait été une bonne raison pour ne pas en parler!
Mais, comme pour la question sociétale de l'énergie, le “Veilleur” est étonné de l'étroitesse en boucle de l'information donnée sur un sujet qui mobilise les trois quarts des plus grosses fortunes en Bourse et donne matière de pleines pages à bien des scribouilleurs médiatiques qui omettent quelques informations essentielles!

Et tout d'abord ce transfert sémantique qui a fait adopter en français (et dans d'autres langues latines) une expression anglo-saxonne “artificial intelligence” qui signifie “codage avec des moyens autres que des outils d'écriture manuels” (et “codage” au sens de “cryptage” ou “écriture cryptée”, ou “renseignement codé”, comme dans un service d'espionnage “intelligence service”)!
Il semble que l'utilisation banalisée a fait reflué la signification de cette expression vers ce qu'elle voudrait dire en bon français aujourd'hui… mais qu'elle n'est toujours pas, sinon dans la fuite en avant de ceux qui en font leur business!

La Notice que j'avais écrite sur l'Intelligence artificielle il y a près de 10 ans pour l'Index du livre, en cours de finition, qui raconte toute l'aventure de l'application pionnière de l'informatique au domaine de la Bible et du texte en général (archives, bibliothèques, ou autres), à partir d'une équipe centrée sur l'abbaye de Maredsous entre 1968 et 2018, reste, à mes yeux, un bon résumé de ce qui se cache vraiment derrière cette expression d'Intelligence Artificielle.
Si cette Notice dont on trouvera copie ci-dessous ne parle pas des programmes récents en “intelligence artificielle” (à peine nés en 2014!!), il me semble qu'elle va plus loin que tout ce que la Veille technologique et la Veille culturelle de la présente livraison nous apportent!

Jugeons-en
Si Alan Turing (1912-1954) fut le premier à évoquer l'Intelligence Artificielle (IA en français et AI “Artificial Intelligence” en anglais), Norbert Wiener avec le concept de cybernétique fondait également une réflexion sur l'extension universelle de l'informatique. Une réflexion plus systématique et surtout plus technique se développa à partir de 1956 (Séminaire de Dartmouth). Le MIT (Massachusetts Institute of Technology) fut un lieu central de cette réflexion, notamment sous la direction de Marvin Minsky.
Chez Informatique et Bible, Fernand Lemoine tenta de créer, pour le Nouveau Testament et sur Apple II un programme en PASCAL de type “système expert” (…un ancêtre de l'IA?). De même en langage BASIC pour les PC de la ligne IBM et compatibles.
Le Fr. RFP contribuera à la réflexion en ce domaine. Voir sa contribution à la réunion de DECUS-Belux de février 1994. Voir également sa contribution au Séminaire Les Chemins du Texte, à l'Université de Paris VIII (Les chemins du texte, le livre des traces, édité par Gilles Bernard et Réginald-Ferdinand Poswick, Éditions Slatkine, 1990) les 23-24 juin 1989.
Les enjeux de cette réflexion sont très importants pour l'évolution de l'“humain” dans la mesure où, comme le disait Marvin Minsky (La société de l'Esprit, 1988), c'est la première fois dans l'histoire de l'humanité que l'évolution du cerveau (et donc des facultés intellectuelles) de l'humain peut ne plus se faire sous la seule pression biologique mais par des choix de développements programmés qui favoriseront certaines zones du cerveau (au détriment d'autres?).
Dans ce sens, les travaux de Howard Gardner (notamment Frames of Mind: the Theory of multiple intelligence, MIT, 1983) ouvrent une voie pour étudier la façon de faire évoluer les différents “centres d'intelligence” du cerveau humain et expliquer par ces évolutions les différenciations entre différents groupes culturels humains.

Le fameux “test de Turing” qui veut que si, à l'aveugle, un interlocuteur ne peut plus distinguer si la réponse à une question est faite par un vrai humain ou par une machine programmée, ce serait que la machine est aussi “intelligente” que l'humain… !!! un fameux test qui peut donc nous aveugler!

Nous sommes effectivement sous la magie d'une machinerie si étendue de réponses vraies ou fausses à tous types de questionnements que la vérification de la “véracité” d'un propos qui n'est pas fait en “présentiel” demanderait aujourd'hui un tel effort que le récepteur humain risque de capituler et de croire à la vérité de la réponse, du propos, de la décision, du conseil… de la machine!
Mais – mis à part les avertissements très fermes de Michel Desmurget sur les risques cérébraux du “trop d'écrans” pour les jeunes enfants (dans La Fabrique du Crétin digital, Seuil, Septembre 2019) - je n'ai entendu aucun chercheur montrer ce qui pouvait se modifier dans le cerveau humain du fait de la façon dont les programmes dits d'Intelligence Artificielle sont conçus et fonctionnent!

Réfléchissons donc…!!!