L’Intelligence Artificielle est aujourd’hui une importante question de société. On ne compte plus les publications à ce sujet, que ce soit dans la littérature scientifique ou parmi les ouvrages à destination du grand public. Devant cet engouement, la Revue thomiste en ligne propose une contribution en plusieurs articles. Celle-ci s’appuiera sur la philosophie de l’homme de Thomas d’Aquin afin de démêler une expression qui semble équivoque, celle d’« intelligence artificielle ».
Le rêve de l’Intelligence Artificielle (G.-M. Grange)
Il existe un rêve de l’Intelligence Artificielle qui s’observe à deux niveaux. Au niveau le plus apparent, mais aussi le plus superficiel, ce rêve s’observe dans les débats publics. En témoigne le nombre impressionnant de films consacrés à la peur d’une Intelligence créée par l’homme et dont l’humanité perdrait le contrôle. Le langage cinématographique se prête en effet particulièrement à un jeu émotionnel sur le destin de notre humanité.
Stanley Kubrick, dans 2001 : l’Odyssée de l’espace (1986), met en scène un superordinateur, HAL, programmé pour mener à bien la mission coûte que coûte, et qui prend le contrôle d’un vaisseau spatial pour éviter que les astronautes ne le débranchent. De même, dans le film Terminator de James Cameron (1984), le système Skynet prend le contrôle des armes et cherche à exterminer l’humanité au profit des machines.
Dans une version plus rassurante, le film Her de Spike Jonze (2013) décrit comment une Intelligence Artificielle réussit à réconcilier avec la vie un homme qui vient de se séparer de sa femme. L’IA joue le rôle d’une personne à l’écoute qui aide le personnage principal à retrouver une vie pleinement sociale. Néanmoins, les IA prennent finalement leur indépendance et stoppent leur collaboration avec l’humanité.
Ces frayeurs ne se cantonnent pas à la sphère du cinquième art et elles innervent le débat public. Stephen Hawking a déclaré en 2014 que « l’IA pouvait signifier la fin de l’espèce humaine », car les hommes seraient incapables de rivaliser avec cette intelligence artificielle. De même, Elon Musk affirmait en 2022 sur X que ChatGPT était effroyablement bon et que nous n’étions pas loin d’une IA dangereusement forte[1]. Pour Ray Kurzweil, apôtre de la fusion homme-machine qu’il nomme la singularité, l’avènement de l’IA montre que la singularité est plus proche que prévu, selon le titre de son dernier livre paru en juin 2024[2]. Selon ses prédictions, l’IA sera au niveau de l’intelligence humaine en 2029 et la fusion homme-machine aura lieu en 2045.
Le rêve de l’Intelligence Artificielle est également présent à un niveau plus fondamental, celui de la recherche scientifique. L’article fondateur d’Alan Turing en 1947 envisage la possibilité d’une machine intelligente et propose un test, le test de Turing, pour reconnaître son existence. En 1956, la conférence de Dartmouth est l’acte de naissance du domaine appelé désormais « intelligence artificielle », selon la formule de John McCarthy, présent lors de ce colloque. Selon les chercheurs qui s’y rassemblent : « Une tentative sera faite pour trouver comment faire en sorte que les machines utilisent le langage, résolvent des types de problèmes jusqu’ici réservés aux humains, et s’améliorent. » Cela crée une vague d’enthousiasme dans les années 1950 et 1960, enthousiasme qui va se tarir devant les difficultés rencontrées. La recherche s’essouffle, engendrant une période d’« hiver » de l’IA[3]. Les découvertes fondées sur l’IA connexionniste ont engendré une nouvelle période d’enthousiasme, c’est-à-dire un nouvel « été ». L’Intelligence Artificielle est donc un domaine soumis à la régularité des saisons, et il y a fort à craindre (ou à espérer ?) qu’il suive le rythme normal des saisons, et que l’été soit à nouveau suivi d’un hiver.
Il existe donc un rêve de l’Intelligence Artificielle. Pour échapper aux passions et circonscrire ce qui est en jeu, John Searle a proposé de distinguer l’IA forte (ou générale) et l’IA « faible »[4]. L’IA existante est une IA faible, c’est-à-dire dédiée à des tâches spécialisées et dénuée de toute émotion et de toute conscience : reconnaissance d’images, génération de textes, compétitions d’échecs ou de go.
Au contraire, l’IA forte serait une IA dotée des mêmes capacités intellectuelles que l’homme. Celle-ci n’existe pas à l’heure actuelle. Antoine Bordes, chercheur chez Facebook, disait que « pour faire des machines vraiment intelligentes, […] nous n’avons même pas les ingrédients de la recette[5]. » Est-ce qu’elle pourrait exister ? C’est ce problème que ces articles voudraient démêler.
La question revêt plusieurs enjeux. Le premier est celui de la nature de l’intelligence. Daniel Andler a publié récemment un ouvrage intitulé : Intelligence artificielle, intelligence humaine : la double énigme (2023). En effet, la recherche d’une intelligence artificielle, que cette quête soit pleinement justifiée ou non, oblige à s’interroger sur la nature de l’intelligence humaine. Les algorithmes de génération de langage comme ChatGPT sont sans doute les outils qui posent la question de la manière la plus aigüe puisque le langage est chez l’homme l’expression directe de son intelligence. L’Intelligence Artificielle réfléchit-elle ? Est-elle douée d’intentionnalité ? Ces questions sont au cœur des réflexions contemporaines sur l’IA[6].
Le deuxième enjeu est éthique. Pour prendre de bonnes décisions sur l’usage de l’IA, il est nécessaire de comprendre sa nature. Les prises de conscience récentes de la nécessité d’une réglementation de l’Intelligence Artificielle sont le signe qu’une réflexion à ce sujet est indispensable. Avant d’être juridique, celle-ci doit être morale. La philosophie de la technique du XXe siècle nous a fait comprendre que l’homme était façonné par son outil. L’IA est-elle un outil moralement acceptable malgré ses dangers ? Son utilisation par chacun de nous et dans la société tout entière est-elle bonne pour l’humanité ? La nouveauté de cette technologie suscite un grand nombre de questions.
L’enjeu est enfin théologique. Dans l’Écriture sainte, c’est l’idolâtre qui donne un visage humain à ce qui n’en a pas, car il se façonne un dieu à son image. L’Ancien Testament appelle sans cesse à se détourner des idoles, « qui ont des yeux et ne voient pas, des oreilles et n’entendent pas » (Ps 115, 5-6). La formule peut être transposée à l’IA : elle reconnait des formes mais ne les voit pas, elle exécute des tâches mais ne les comprend pas. Derrière le rêve de l’IA, se profile d’une part une interrogation sur le rapport de l’homme à sa propre humanité comme image de Dieu : n’y a-t-il pas un danger spirituel à se façonner un quasi-humain ? D’autre part, l’IA met en question le rapport de l’homme à Dieu : le seul être qui puisse tout faire (omnipotens) est Dieu. L’idolâtre cherche indûment dans une œuvre qui sort de ses mains la connaissance totale et universelle qui revient à Dieu seul. Il la consulte comme un oracle. Derrière les enjeux technologiques et philosophiques se cachent donc des enjeux humains et religieux.
Démystifier l'Intelligence artificielle (A. Lorentz)
Démystifier l'Intelligence artificielle, avec Antoine Lorentz, data scientist.
L'IA, un automate de l'intelligence (E. Perrier)
L’étrange association
L’expression Intelligence artificielle associe deux termes qui s’accordent mal. D’un côté, l’intelligence ne désigne pas seulement une fonction (comme un capteur ou un ordinateur), ni seulement une faculté (comme la capacité à traiter de l’information), mais une activité naturelle vitale. D’un autre côté, l’adjectif artificiel qualifie un produit de l’art, un artéfact. “Artificiel” s’oppose alors à “naturel” comme la voiture par rapport au cheval ou la lampe par rapport au soleil. Dans ces conditions, comment une intelligence, activité naturelle vitale, pourrait-elle être en même temps artificielle, un produit de l’art humain ?
Face à l’incompatibilité entre nature et artéfact, il devient nécessaire de distinguer deux sens possibles de l’expression Intelligence artificielle :
« Intelligence artificielle » au sens plénier. On pourrait d’abord entendre cette expression au sens le plus fort, celui où l’homme parviendrait à produire une véritable intelligence. Par son ingéniosité, il aurait réussi ou devrait réussir à combler l’espace entre l’artéfact et la nature, à littéralement fabriquer une chose naturelle, et même mieux, une intelligence. Au moins deux objections surgissent alors.
- En premier lieu, l’intelligence est l’activité vitale la plus élevée que nous connaissions dans l’échelle des réalités de la nature. Même ceux qui n’y voient qu’un simple degré de l’évolution du vivant s’accordent à le reconnaître. L’intelligence se place au-dessus des activités purement corporelles, au-dessus des activités végétatives, au-dessus des activités caractéristiques des animaux. Par conséquent, si nous savions produire une véritable intelligence artificielle, notre artéfact serait placé au sommet de l’échelle de la vie. Or dans l’ordre des productions, il faut savoir produire ce qui est inférieur pour pouvoir produire ce qui est supérieur. Avant de prétendre produire une intelligence, peut-être faudrait-il déjà arriver à produire ne serait-ce qu’une cellule vivante.
- En second lieu, si nous étions capables de produire une intelligence identique à la nôtre, alors notre intelligence appartiendrait au même genre de réalités que ce que nous produisons grâce à elle, à savoir le genre des artéfacts. Car là où deux réalités sont identiques, il faut bien qu’elles soient constituées de la même façon. Les diamants de synthèse, par exemple, sont pour l’essentiel identiques aux diamants naturels parce que les uns et les autres sont constitués au terme d’un processus de cristallisation. Or notre intelligence n’est manifestement pas un artéfact. D’une part, elle n’en a pas le caractère matériel, composite, modulaire, inerte, déterministe, corruptible par parties, etc. Pour le dire d’un mot, il y a entre les “intelligences artificielles” et notre intelligence la distance de la substance la plus construite à la substance la moins construite ou, plus exactement, la plus simple de notre monde[7]. D’autre part, notre expérience de la production des artéfacts est qu’elle requiert d’y mettre de la réflexion. Il faut que l’intelligence développe un art de l’artéfact à faire. Pour produire une “intelligence artificielle” il est donc nécessaire de développer un art de l’intelligence artificielle. De ce fait, il y aura toujours cette différence entre l’intelligence véritable et un artéfact intelligent que la première développe l’art qui sert à faire le second[8]. A contrario, puisque l’intelligence artificielle est différente de notre intelligence par sa constitution même, elle ne mérite pas au sens plénier le nom d’intelligence.
« Intelligence artificielle » au sens large. À défaut de sens plénier, l’expression peut s’entendre d’une autre manière, où l’on parle d’intelligence en raison d’une certaine ressemblance avec notre intelligence. De même que la mémoire d’un ordinateur tire son nom de la ressemblance avec notre mémoire, de même existerait-il une technologie informatique qui mériterait d’être appelée intelligence en raison de sa ressemblance avec notre intelligence. Il ne s’agirait donc en rien de franchir la distance entre artéfact et nature, de rapprocher l’ordinateur de notre intelligence, mais de faire du ressemblant. De fait, le projet consistant à fabriquer un objet ressemblant au vivant est beaucoup plus accessible et peut se recommander d’une longue expérience, celle des automates.
L’automate : entre objet inerte et vivant
Le terme automate est fort ancien. On le trouve chez Homère, lorsqu’il décrit les portes de l’Olympe qui s’ouvrent d’elles-mêmes (αὐτόμαται δὲ πύλαι μύκον οὐρανοῦ, Illiade, 5.749) et il se répand dans la littérature grecque pour désigner un mouvement qui a la ressemblance du vivant par sa spontanéité, en ce qu’il semble ne pas avoir été provoqué de l’extérieur (à la manière dont les marionnettes semblent se mouvoir elles-mêmes). Dans notre langue, Rabelais en fournit une judicieuse définition, héritée des discussions médiévales :
« petitz engins automates, c'est a dyre soy movens eulx mesmes » (Gargantua (1535), I, 22)
À titre d’exemple, pensons au petit singe automate tapant sur un tambour qui a réjoui des générations d’enfants (cf. fig. 1). S’il les fascinait, c’était en raison de sa plus grande ressemblance avec le vrai singe que l’habituel singe en peluche, précisément en ce qu’il se meut lui-même comme le font les vivants.
L’automate et le principe du mouvement
Concentrons notre attention sur la propriété de l’automate. Pour se mouvoir soi-même, il faut avoir en soi le principe de son mouvement, ce qu’on appelle le moteur. Nos trois variétés de singes diffèrent quant à leur moteur.
- Le singe en peluche est complètement passif. Pour qu’il batte un tambourin, il faut lui saisir les bras et les agiter. Autrement dit, chez le singe en peluche, il n’y a d’autre moteur que celui qui exerce sa force de l’extérieur (cf. fig. 2).
- L’innovation apportée par l’automate consiste à insérer un moteur à l’intérieur du singe, par exemple un ressort que l’on remonte et qui, en se détendant, entraîne des rouages et des tiges agitant les bras. Le singe automate n’a plus besoin d’être immédiatement mû par un moteur extérieur, il a seulement besoin que son moteur intérieur soit remonté pour se mouvoir lui-même. Tout le mouvement de l’automate dépend donc de l’activité d’une de ses parties, le ressort-moteur : la partie motrice meut les parties passives (cf. fig. 3).
- Si le singe vivant se meut aussi lui-même, on ne saurait pourtant le confondre avec l’automate. Dans le singe vivant, il n’y a pas de partie motrice qui dépende d’un agent extérieur. Chaque partie de son corps est motrice d’une autre, tout en étant mue par un principe premier de mouvement qui se trouve dans le singe. C’est pourquoi on doit poser qu’il y a un moteur interne (puisque le singe se meut lui-même), et en même temps que ce moteur est distinct de tout le corps du singe (puisque toute partie du corps est mue). Ce que l’on appelle une âme. De sorte que le singe vivant ne se meut pas seulement lui-même, il se meut par lui-même là où l’automate se meut par une partie de lui-même (cf. fig. 4).
Ainsi le singe automate ressemble-t-il plutôt au singe en peluche, à ceci près que le moteur a été placé à l’intérieur. Toutefois, quant au mouvement, le singe automate ressemble plutôt au singe vivant, à ceci près qu’il n’a pas d’âme pour l’animer.
L’automate comparé au vivant
Nous venons de mettre en évidence un grand principe de compréhension des automates : ils n’ont rien de vivant en eux-mêmes, mais ils ressemblent au vivant dans leur mouvement, dans ce qu’ils font. La ressemblance d’un automate avec le vivant se prend toujours de l’opération, et de l’opération seulement.
D’un côté il y a entre l’automate et le vivant une différence de nature. L’automate est une machine. Une machine est un système de sous-ensembles organisés pour fonctionner de concert en étant asservis à un moteur. L’automate représente une forme améliorée de machine par l’intégration de la fonction motrice, qui libère de l’asservissement à un moteur extérieur. Or cette amélioration, si elle ajoute à la machine, ne change pas sa nature. Machine il est, machine il demeure. Le vivant au contraire est une seule réalité avec son principe de mouvement. L’âme n’est pas une amélioration pour le vivant, elle est une condition de son existence et si le vivant la perd, il meurt et se corrompt. Autrement dit, l’unité entre le vivant et son principe de mouvement est substantielle.
D’un autre côté, il y a une ressemblance dans la manière d’être porté à l’opération : l’automate se meut lui-même comme le vivant, bien que selon sa nature il ne soit pas un vivant.
« Est appelé vivant tout ce qui s’agit au mouvement ou à quelque opération. Mais ce dont la nature n’est pas de cette sorte ne peut être appelé vivant sinon par une certaine similitude. » (Thomas d’Aquin, Sum. theol., Ia, q. 18, a. 1)
Ainsi, de même que le singe automate n’est pas un vivant mais ressemble au vivant en se mouvant lui-même, de même l’intelligence artificielle n’est pas une intelligence, mais elle ressemble à une intelligence en se mouvant elle-même : on lui envoie une requête, et elle produit d’elle-même une réponse qui ressemble à la réponse d’une intelligence vivante.
Ce point est essentiel : en raison de la ressemblance d’opération, l’intelligence artificielle et l’intelligence humaine offrent des points de comparaison et peuvent être mises en concurrence quant à la production de résultats ; mais en raison de leur différence de nature, l’intelligence artificielle et l’intelligence humaine n’ont rien à voir quant à ce qui les constitue.
L’Intelligence artificielle est une machine
La grande réussite technologique de l’intelligence artificielle a été d’élaborer une machine capable d’imiter l’opération intelligente. Si l’IA est fondamentalement une machine, elle est une machine sophistiquée ayant une application très spécifique. Pour mieux cerner la complexité et la spécificité de la machine IA, commençons par une machine simple.
Prenons l’exemple d’un motoculteur. Sommairement, le motoculteur est un système de trois sous-ensembles : un moteur thermique et sa transmission, une unité de lames autour d’un axe rotatif, un guidon de commandes et de direction. Le système sert à travailler la terre, c’est-à-dire qu’il opère sur une réalité corporelle, sur une chose. Notons enfin que l’automatisme est limité à la rotation des lames, car le motoculteur a besoin d’être guidé par l’homme en prise directe durant toute la durée d’usage de la machine.
- Travailler la terre (opération sur une chose)
- Moteur thermique
- Guidé en prise directe et continue par l’homme
Avec l’ordinateur, la machine change de fonction, elle n’opère plus sur une chose mais sur de l’information. Un ordinateur traite automatiquement des signes. Pour ce faire, il y a encore besoin d’un moteur matériel, car une machine est intrinsèquement liée au monde des corps. Mais ce moteur matériel, un processeur, est le support d’un moteur logiciel consistant en des instructions de traitement de signes. En conséquence, l’ordinateur doit d’abord être programmé par des ingénieurs, pour que l’utilisateur puisse accomplir des tâches en exécutant les programmes.
- Traitement de signes (porteurs d’une information)
- Moteur matériel ET logiciel (processeur / jeux d’instructions et programmes)
- Exécution de programmes sous guidage humain
Avec l’IA une nouvelle tâche est assignée à la machine. On lui demande d’exécuter des opérations non sur les signes mais sur le contenu des signes. Pour ce faire, il faut ajouter un troisième étage de moteur, au-dessus du processeur et des programmes, que l’on peut appeler une logique singulière (nous allons voir pourquoi). Ce moteur est constitué par les ingénieurs au travers d’une phase dite d’apprentissage, de telle sorte que la machine soit capable de produire d’elle-même une réponse à la requête de l’utilisateur.
- Traitement de contenu (le sens des signes)
- Moteur matériel ET logiciel ET une logique singulière (constituée par apprentissage)
- Production d’une réponse sans autre guidage humain que la requête
L’IA ne quitte en rien le domaine des artéfacts. L’IA a la nature d’une machine, elle n’a rien de la nature d’un vivant et encore moins d’une intelligence. Et cependant, elle est capable de traiter et de produire des contenus intelligibles toute seule, orientée seulement par les requêtes de l’utilisateur. L’IA ressemble alors à l’intelligence humaine en ce qu’elle produit des contenus intelligibles, tout en différant de l’intelligence humaine comme l’automate diffère du vivant : la production automatisée de contenus intelligibles est machinique par son principe même.
Une logique pour l’IA
Comment est-il possible d’opérer sur des contenus intelligibles sans être intelligent ? Nous aurons l’occasion de revenir dans l’article suivant sur la manière dont ce défi technologique a été relevé. Ce qui nous importe pour l’instant est de comprendre la spécificité d’une machine ayant cette capacité par rapport aux autres machines. Pour ce faire, il faut remarquer trois choses.
La première est qu’il n’est pas nécessaire d’être intelligent pour produire du contenu intelligible, il suffit que le contenu produit soit intelligible pour quelqu’un d’intelligent. Par exemple, il n’est pas nécessaire que le perroquet comprenne ce qu’il parle pour que ce qu’il parle ait du sens, il suffit qu’un homme puisse comprendre ce que le perroquet dit. De même, on ne demande pas à la machine de penser, mais seulement de produire du contenu qui soit intelligible par l’utilisateur de la machine. Autrement dit, c’est le résultat qui compte, pas la manière dont il a été obtenu. Comme pour toute machine, c’est à la qualité ou à l’utilité de ce qu’elle fait que l’on mesure la qualité ou l’utilité d’une IA.
Une deuxième remarque en découle. Pour que la machine puisse produire du contenu intelligible il lui faut obéir à une logique. La production d’un tel contenu ne peut en effet être aléatoire, car ce qui est produit aléatoirement échappe à toute logique alors qu’un contenu intelligible est forcément logique. Pour autant, il n’est pas nécessaire que la machine obéisse à une logique rationnelle puisque la machine n’a pas à penser. Il suffit que la machine obéisse à une logique adaptée à la production de contenu intelligible. De même le perroquet de notre exemple obéit à sa propre logique animale (basée sur la connaissance sensible), alors qu’il parle des contenus obéissant à une logique rationnelle. Sa logique animale est nécessaire, et elle suffit dans une certaine mesure.
Cela conduit à une troisième remarque. La logique d’une machine est de soi celle du mécanisme, de l’enchaînement d’actions ad unum, où chaque action est déterminée à produire un seul type d’effet. C’est ce qui en fait l’intérêt (le résultat produit est prévisible et reproductible) autant que la limite : parce que la machine ne sait faire que ce qu’on l’a déterminée à faire, son champ d’application est borné aux réalités adaptées à sa fonction. Au-delà de son domaine utile, elle est inadaptée. Par exemple, la logique du motoculteur tient dans la rotation d’une lame avançant dans un terrain meuble. Le motoculteur s’avère donc inadapté pour tailler des arbres ou philosopher. De même la logique classique des ordinateurs a pour domaine utile la manipulation de signes, à condition que les variables initiales ainsi que les séquences d’instructions soient en nombre limité. Or une telle logique est inadaptée à l’IA, qui opère sur le contenu des signes. Ces contenus ne sont pas prédéfinis, leur comparaison peut se faire sur des variables innombrables, leur manipulation est infiniment complexe, et par-dessus tout cela les requêtes sont inconnues à l’avance, alors qu’il faut produire des résultats toujours pertinents (c’est à cette condition que l’IA ressemble à l’intelligence).
L’IA impose donc un changement de paradigme et une autre logique. Pour comprendre ce changement, il faut se rappeler qu’il y a deux manières de conduire un agent à accomplir une tâche : soit il est d’abord instruit de la théorie avant d’avoir à la mettre en application, soit il est immergé dans la pratique et apprend “sur le tas”, par l’expérience, avant de mettre à profit son expérience. L’une et l’autre sont transposables dans la constitution d’une machine moyennant des adaptations.
- Le paradigme de l’informatique classique (ou plus précisément de l'IA symbolique) correspond à la première voie, celle où la théorie dirige l’action. En amont, l’ingénieur résout toutes les situations du domaine utile de la machine, en établissant les séquences d’instructions conduisant au résultat voulu. Il fige alors le catalogue des procédures dans un programme, qui sera la logique de l’ordinateur lors de l’exécution. La machine est ainsi constituée par la fixation de ce qu’on peut appeler une logique de résolution par les principes.
- Le paradigme propre à l’IA connexionniste correspond à la seconde voie, celle où par l’expérience on apprend à bien agir[9]. En amont le travail de l’ingénieur consiste à optimiser une pragmatique, c’est-à-dire à tester en situation un schéma d’action pour évaluer le contenu intelligible qu’il produit, puis à le modifier légèrement pour voir si le résultat est meilleur, et ainsi de suite jusqu’à ce que le résultat soit jugé satisfaisant. Le schéma d’action ainsi établi par apprentissage est alors figé, et c’est lui qui servira de logique à l’ordinateur pour traiter n’importe quelle situation qu’on lui présentera. La machine est donc constituée par la fixation de ce qu’on peut appeler une logique de résolution par la fin (ou par le résultat).
La différence la plus remarquable entre les deux voies est la suivante. Une logique de résolution par les principes marche pour autant qu’on sait exactement ce qu’elle fait et pourquoi cela doit marcher. Au contraire, avec une logique de résolution par la fin, il n’est pas nécessaire de savoir ce qu’elle fait et pourquoi cela devrait marcher pour qu’elle marche. Dans le premier cas, c’est parce qu’on a tiré toutes les conséquences des principes, sans se tromper et sans rien oublier, que la logique est fonctionnelle. Dans le second, c’est parce qu’on a développé une expérience des bonnes recettes, des pragmatiques qui donnent de bons résultats, que la logique est fonctionnelle.
La constitution de la machine IA
Nous venons de voir que, pour produire des contenus intelligibles avec une machine, il faut que la machine obéisse à une logique de résolution par la fin, fixée au terme d’un apprentissage. Deux caractéristiques fondamentales doivent être soulignées : 1/ la logique de l’IA est non-rationnelle par construction ; 2/ par sa constitution, chaque machine IA est une logique singulière.
Pour le comprendre, prenons l’analogie de l’apprentissage de la marche chez l’enfant. Il s’agit d’un apprentissage très complexe, demandant l’intégration de nombreuses données : mouvement des membres, stabilité au sol, équilibre des masses autour du centre de gravité, contrôle par l’oreille interne, maîtrise du déplacement. Toutes ces données doivent être traitées et consolidées à la volée, les réactions doivent être actualisées et rectifiées en temps réel, de telle sorte que l’enfant parvienne à avancer de manière assurée, souple et continue, quelles que soient les conditions du terrain (déclivité, inégalité du sol, adhérence fluctuante, etc.) ou les circonstances (avec ou sans chargement, en modifiant l’attention depuis les pieds jusqu’à l’environnement proche ou lointain, etc.).
Dans l’apprentissage de la marche, deux intelligences interviennent, celle de l’enfant qui est stimulé à diriger ses pas et celle des parents qui le guident, le conseillent et l’encouragent. De ce point de vue, les parents peuvent aider l’enfant en lui communiquant quelques procédures relevant d’une logique de résolution par les principes : « commence par trouver ton équilibre », « lève d’abord la jambe gauche », « garde les bras le long du corps », « si le sol monte lève plus haut la jambe », etc. Mais cette logique trouve très rapidement ses limites car il n’est pas question d’apprendre à l’enfant les théorèmes de physique, de mécanique ou de mathématique auxquels le mouvement devrait obéir pour faire ne serait-ce qu’un seul pas.
En réalité, l’apprentissage de la marche ne requiert aucunement que l’enfant comprenne tout ce qu’il fait et pourquoi il doit le faire, car c’est au niveau neurologique que la marche est résolue, de telle sorte que l’enfant n’aie même plus à réfléchir à ce qu’il doit faire pour marcher. La logique de résolution par la fin s’impose d’elle-même : certes, le résultat doit être intelligible et obéir à une logique rationnelle (pour que l’enfant soit maître de ses déplacements), mais ce résultat est atteint par la mise en place de schémas neurologiques de résolution de la marche qui obéissent à une logique non-rationnelle, celle des connexions neuronales intégrant toutes les variables de la marche.
Dès lors, savoir marcher doit être précédé par une phase d’apprentissage. On répète l’exercice dans des conditions simplifiées, la mère se place devant pour guider l’enfant. Elle donne peu d’instructions, l’essentiel de son intervention est de stimuler, d’encourager, pour que l’enfant force son cerveau à mettre en place sa propre logique de résolution vers la fin, qui est de rejoindre la mère.
Ce qui apparaît alors est que la logique mise en place lors de l’apprentissage est singulière : non seulement elle n’est pas rationnelle puisqu’elle est proprement une neuro-logique, mais elle est absolument unique à cet enfant, ayant appris dans telles conditions, ayant rencontré telles difficultés, ayant intégré telle variable avant telle autre dans ses schémas de résolution. De telle sorte que si les démarches possèdent de grandes similitudes entre les hommes, si elles fonctionnent avec les mêmes recettes, avec des pragmatiques homogènes, elles sont le produit en chacun d’une logique qui n’appartient qu’à lui. Au niveau neurologique, il y a autant de logiques de résolution de la marche qu’il y a eu d’apprentissages.
De même en va-t-il pour l’IA. Une machine IA est constituée par un apprentissage, afin de fixer une logique de résolution vers la fin, non-rationnelle et singulière. L’apprentissage vise à mettre en place des schémas de résolution conduisant à un résultat qui satisfasse les ingénieurs. L’intelligence humaine intervient pour sélectionner, valider, renforcer, les meilleurs schémas. C’est cette logique singulière telle qu’elle a été fixée dans les conditions d’apprentissage, qui est le moteur de l’IA. C’est elle qui sera ensuite mise en exploitation pour produire des contenus intelligibles en réponse aux requête qu’on lui adressera.
Conclusion
Faisons le bilan de notre enquête. Nous avons établi qu’une IA est
- une machine (un artéfact et non un vivant),
- automate de l’intelligence (ressemblant à l’intelligence seulement quant à l’opération),
- consistant en une logique de résolution vers une fin (et non de résolution par les principes),
- visant à produire des contenus intelligibles par les hommes (sans avoir à penser),
- fixée par apprentissage sous contrôle de l’intelligence (c’est une pragmatique et non un catalogue de procédures),
- non-rationnelle (c’est une logique machinique),
- singulière parce qu’individualisée par cet apprentissage particulier (ses produits obéissent tous à la même logique, laquelle est différente d’une IA à une autre),
- portant sur des contenus de signes (et non pas sur des signes),
- intégrée à une machine informatique (en surcouche du moteur matériel et du moteur logiciel de l’ordinateur).
fr. Emmanuel Perrier, o.p.
[1] Voir Marc Rameaux, « Touchons-nous du doigt une conscience nommée ChatGPT ?, The European Scientist, 28 janvier 2023 : https://www.europeanscientist.com/fr/opinion/touchons-nous-du-doigt-une-conscience-nommee-chatgpt-marc-rameaux-interview/ (consulté le 23 janvier 2025).
[2] Ray Kurzweil, The Singularity Is Nearer : When We Merge With AI, Large Print, 2024.
[3] Maël Pégny, Ethique des algorithmes et de l’Intelligence Artificielle, coll. « Pour Demain », Vrin, Paris, 2024, p. 91.
[4] John R. Searle, « Minds, brains, and programs », Behavioral and Brain Sciences 3 (1980), p. 417-424.
[5] Cité par Yann Le Cun, Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond, Odile Jacob, Paris, 2019, p. 362.
[6] Voir par exemple Emily M. Bender, Alexander Koller, « Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data », Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (2020), p. 5185-5198 ; JE Korteling, GC van der Boer-Visschedijk, RAM Blankendaal, RC Boonekamp, AR Eikelboom, « Human- versus Artificial Intelligence », Front. Artif. Intell., mars 2021, vol. 4.
[7] Thomas d’Aquin relève cette distance qu’on trouve de manière générale entre les réalités naturelles et les réalités artificielles (cf. Sent. De anima, II, l. 1, n. 218). Dans le cadre d’une étude de ce qu’est l’intelligence, la comparaison devrait être poussée plus loin : en raison de son immatérialité, l’intelligence n’est pas une réalité sujette à la génération, et en raison de son intellectualité elle ne peut venir à l’existence que par création (cf. l’argumentaire de Thomas d’Aquin, SCG, II, c. 50, 65, 86, 87).
[8] Quoique dans un tout autre contexte, on trouvera d’utiles développements en Thomas d’Aquin, De substantiis separatis, c. 9.
[9] L’informatique connaît une voie mixte, celle des algorithmes d’énumération complète (ou “de force brute”) améliorés par des heuristiques pratiques (de renforcement par exemple). Ils ont été utilisés en cryptographie ou pour les jeux d’échecs. La logique fixée théoriquement consiste à résoudre un problème par essai-échec jusqu’à tomber sur la bonne solution. Mais elle inclut une partie pratique consistant à privilégier les voies qui se révèlent les plus prometteuses.