Une Mécanisation de la Mémoire (MM) qu'on appelle Intelligence Artificielle (IA)!
Mars 2024
On en parle partout et tout le temps.
Cela aurait été une bonne raison
pour ne pas en parler!
Mais, comme pour la question sociétale de l'énergie,
le “Veilleur” est étonné de l'étroitesse en boucle de l'information donnée sur
un sujet qui mobilise les trois quarts des plus grosses fortunes en Bourse et
donne matière de pleines pages à bien des scribouilleurs médiatiques qui
omettent quelques informations essentielles!
Et tout d'abord ce transfert sémantique qui a fait adopter en français (et
dans d'autres langues latines) une expression anglo-saxonne “artificial
intelligence” qui signifie “codage avec des moyens autres que des outils
d'écriture manuels” (et “codage” au sens de “cryptage” ou “écriture
cryptée”, ou “renseignement codé”, comme dans un service d'espionnage
“intelligence service”)!
Il semble que l'utilisation banalisée a fait
reflué la signification de cette expression vers ce qu'elle voudrait dire en
bon français aujourd'hui… mais qu'elle n'est toujours pas, sinon dans la fuite
en avant de ceux qui en font leur business!
La Notice que j'avais écrite sur l'Intelligence
artificielle il y a près de 10 ans pour l'Index du livre, en cours de finition,
qui raconte toute l'aventure de l'application pionnière de l'informatique au
domaine de la Bible et du texte en général (archives, bibliothèques, ou
autres), à partir d'une équipe centrée sur l'abbaye de Maredsous entre 1968 et
2018, reste, à mes yeux, un bon résumé de ce qui se cache vraiment derrière
cette expression d'Intelligence Artificielle.
Si cette Notice dont on
trouvera copie ci-dessous ne parle pas des programmes récents en “intelligence
artificielle” (à peine nés en 2014!!), il me semble qu'elle va plus loin que
tout ce que la Veille technologique et la Veille culturelle de la présente
livraison nous apportent!
Jugeons-en
Si Alan Turing
(1912-1954) fut le premier à évoquer l'Intelligence Artificielle (IA en français
et AI “Artificial Intelligence” en anglais), Norbert Wiener avec le concept
de cybernétique fondait également une réflexion sur l'extension universelle de
l'informatique. Une réflexion plus systématique et surtout plus technique se
développa à partir de 1956 (Séminaire de Dartmouth). Le MIT (Massachusetts
Institute of Technology) fut un lieu central de cette réflexion, notamment sous
la direction de Marvin Minsky.
Chez Informatique et Bible, Fernand Lemoine
tenta de créer, pour le Nouveau Testament et sur Apple II un programme en PASCAL
de type “système expert” (…un ancêtre de l'IA?). De même en langage BASIC
pour les PC de la ligne IBM et compatibles.
Le Fr. RFP contribuera à la
réflexion en ce domaine. Voir sa contribution à la réunion de DECUS-Belux de
février 1994. Voir également sa contribution au Séminaire Les Chemins du Texte,
à l'Université de Paris VIII (Les chemins du texte, le livre des traces, édité
par Gilles Bernard et Réginald-Ferdinand Poswick, Éditions Slatkine, 1990) les
23-24 juin 1989.
Les enjeux de cette réflexion sont très importants pour
l'évolution de l'“humain” dans la mesure où, comme le disait Marvin Minsky
(La société de l'Esprit, 1988), c'est la première fois dans l'histoire de
l'humanité que l'évolution du cerveau (et donc des facultés intellectuelles) de
l'humain peut ne plus se faire sous la seule pression biologique mais par des
choix de développements programmés qui favoriseront certaines zones du cerveau
(au détriment d'autres?).
Dans ce sens, les travaux de Howard Gardner
(notamment Frames of Mind: the Theory of multiple intelligence, MIT, 1983)
ouvrent une voie pour étudier la façon de faire évoluer les différents
“centres d'intelligence” du cerveau humain et expliquer par ces évolutions
les différenciations entre différents groupes culturels humains.
Le fameux “test de Turing” qui veut que si, à l'aveugle, un interlocuteur ne peut plus distinguer si la réponse à une question est faite par un vrai humain ou par une machine programmée, ce serait que la machine est aussi “intelligente” que l'humain… !!! un fameux test qui peut donc nous aveugler!
Nous sommes effectivement sous la magie d'une machinerie si étendue de réponses
vraies ou fausses à tous types de questionnements que la vérification de la
“véracité” d'un propos qui n'est pas fait en “présentiel” demanderait
aujourd'hui un tel effort que le récepteur humain risque de capituler et de
croire à la vérité de la réponse, du propos, de la décision, du conseil… de la
machine!
Mais – mis à part les avertissements très fermes de Michel
Desmurget sur les risques cérébraux du “trop d'écrans” pour les jeunes
enfants (dans La Fabrique du Crétin digital, Seuil, Septembre 2019) - je n'ai
entendu aucun chercheur montrer ce qui pouvait se modifier dans le cerveau
humain du fait de la façon dont les programmes dits d'Intelligence Artificielle
sont conçus et fonctionnent!
Réfléchissons donc…!!!