Le XXe siècle a connu des progrès considérables qui ont renforcé la confiance dans la démarche scientifique. Ces progrès conduisent-ils à remettre en cause l’existence de Dieu ou au contraire à la confirmer ? Louis Pasteur disait à ce propos : « Un peu de science éloigne de Dieu, beaucoup en rapproche. » Pouvons-nous faire le même constat ? Nous nous concentrerons ici sur la question de l’existence de Dieu, non pas d’abord du Dieu chrétien mais plus généralement de l’existence d’une origine du monde. Cette interrogation n’est pas réservée aux chrétiens : Platon et Aristote, vers le IVe siècle avant Jésus-Christ, affirmaient que l’univers possède un fondement et une cause. Pour Platon, c’était une Idée du Bien dont découlaient toutes les formes de l’univers ; pour Aristote, une sorte de moteur qui mettait en mouvement l’univers. Plutôt qu’un dieu, c’était un principe qui n’était pas vraiment personnel. Mais l’on remontait à un être suprême. Le christianisme a beaucoup insisté sur cette possibilité de remonter à un principe qui était, pour les chrétiens, identique au Dieu qui a créé le monde. Les psaumes, dans la Bible, regorgent de phrases de louange de Dieu à cause de l’observation de l’univers : « Les cieux racontent la gloire de Dieu, et l’œuvre de ses mains, le firmament l’annonce » (Ps 19, 1). Est-ce que les connaissances sur le fonctionnement de l’univers remettent en cause cette démarche de remontée à un principe ? Pour y répondre, je m’appuierai sur les objections d’un célèbre auteur athée, Richard Dawkins.
1. Les arguments de Richard Dawkins
D’après Richard Dawkins, les sciences, et en particulier la théorie de l’évolution, permettent d’expliquer ce que l’existence de Dieu n’explique pas suffisamment. L’un de ses ouvrages est intitulé The God Delusion, traduit en français sous le titre Pour en finir avec Dieu[1]. Cet ouvrage est intéressant pour deux raisons : d’abord parce qu’il est très célèbre (il a été traduit en 35 langues environ) ; d’autre part parce qu’il présente des arguments assez représentatifs de la démarche du scientifique athée. Tentons de résumer ses arguments.
L’argument du Boeing 747 : l’improbabilité de Dieu
L’argument du Boeing 747 vient d’un physicien nommé Fred Hoyle qui entendait démontrer l’existence de Dieu à partir de l’improbabilité de l’apparition de la vie. Selon Hoyle, l’apparition de la vie sur la Terre est aussi peu probable que le fait qu’un ouragan, en balayant une décharge, assemble un Boeing 747[2]. Autrement dit, invoquer un mécanisme qui est basé sur le hasard n’explique absolument rien. Richard Dawkins répond que l’apparition de la vie est en effet un événement d’une grande improbabilité, mais que l’existence d’un Dieu est encore plus improbable. J’explique quelque chose de quasiment miraculeux, l’existence de la vie, par un être encore plus miraculeux, Dieu. L’apparition de la vie est stupéfiante mais qu’il existe un Dieu tout-puissant, ce serait encore plus stupéfiant. Il serait encore plus miraculeux qu’il existe un être capable de faire des miracles.
« Si improbable statistiquement que soit l’entité que vous cherchez à expliquer en invoquant un concepteur, le concepteur lui-même doit nécessairement être au moins aussi improbable. Dieu est l’ultime Boeing 747. »[3]
Pour Dawkins, cela s’oppose à la démarche du scientifique. La démarche du scientifique consiste en effet à aller au plus simple : il faut rechercher l’explication la plus économique. C’est ce qu’on appelle le « rasoir d’Ockham » en référence à Guillaume d’Ockham, un théologien du XIVe siècle. Selon Dawkins, nous disposons aujourd’hui d’une explication du passage de corps très simples à une complexité organisée. L’explication ancienne, qui consistait à attribuer cela à un Dieu, peut donc être remplacée par une hypothèse plus économique, celle de l’évolution. Nous répondrons à cet argument dans la partie suivante.
Le Dieu des lacunes
La deuxième partie de l’argumentation de Richard Dawkins est dirigée contre une certaine conception de Dieu, celle des créationnistes, pour qui Dieu est un « Dieu des lacunes » (a God of the gaps) ou un Dieu « bouche-trou ». L’idée est simple : les créationnistes cherchent des lacunes dans la connaissance scientifique actuelle. S’il y a une réalité qui est apparue et qu’il n’existe pas d’explication scientifique à son apparition, alors c’est la preuve qu’il y a un autre agent, qui est Dieu. Par exemple, le créationniste soulignera qu’il est impossible d’expliquer l’apparition de l’articulation du coude de la petite grenouille fouine tachetée : aucun de ses éléments ne rendra compte de l’apparition du tout ; on ne peut pas imaginer une lente évolution jusqu’à cette articulation. Elle ne peut pas être l’assemblage de parties plus simples. Soit elle est là avec toute sa complexité, soit elle n’est pas là. Il n’y a pas d’intermédiaire donc Dieu existe. Ou bien les créationnistes vont être attirés par les fossiles qui ne correspondent à aucune espèce connue : pour eux, c’est la preuve que Dieu a mis les fossiles sur terre directement. Ce qui est derrière cette argumentation, c’est l’idée selon laquelle « la nature ne fait pas de sauts ». Si l’on constate scientifiquement que la nature fait des sauts, cela signifie que ce n’est pas un processus naturel, et qu’il y a donc un agent surnaturel à l’œuvre. Dawkins souligne que cette argumentation va à l’encontre de la méthode scientifique elle-même. Le scientifique cherche parce qu’il est confronté à des lacunes dans la connaissance. C’est cela qui le stimule. Et l’histoire de la science montre que ces lacunes ont finalement été comblées par les nouvelles découvertes scientifiques. La légitimité de la science ne s’appuie donc pas sur le fait qu’elle explique déjà tout, mais qu’elle a à sa disposition une théorie qui lui permet de s’appliquer aux nouvelles questions qui se posent. Et si la théorie ne fonctionne pas, il faut découvrir une autre théorie. Mais on ne peut pas se contenter d’invoquer Dieu.
Le principe anthropique
Le dernier grand argument que Dawkins présente est celui du principe anthropique. Ce principe part du constat que la vie, et en particulier la vie humaine, est apparue sur Terre, et que cette apparition nécessite des conditions très particulières, ce qu’on appelle aussi un « réglage fin » (fine tuning). Pour les croyants, selon Dawkins, l’existence de conditions aussi spécifiques est la preuve que Dieu existe. Pour Dawkins, c’est au contraire un argument en faveur de l’inexistence de Dieu. En effet, si improbable que puisse être le commencement de la vie, nous savons qu’il s’est produit puisque nous sommes là[4]. Pour Dawkins, l’apparition de la vie ne peut s’expliquer que par deux hypothèses : ou bien le miracle d’un dieu ou bien une apparition naturelle par l’évolution. L’apparition à partir de ce qui n’est pas la vie, à partir de ses composants les plus élémentaires, est tout à fait envisageable selon Dawkins, et nous essayons même de reproduire ce mécanisme en laboratoire. Dawkins retourne donc l’argument du principe anthropique : la vie peut bien apparaître naturellement puisqu’elle est apparue.
Conclusion : les forces et les faiblesses de l’argumentation de Dawkins
Que penser de cette argumentation ? Elle possède ses forces et ses faiblesses. Sa force vient du fait qu’elle s’appuie sur un argument philosophique pertinent mais qui n’est pas sans ambiguïtés. Sa faiblesse principale est qu’elle se confronte aux argumentations les plus faibles. Dawkins ne se confronte pas aux grands penseurs. Par exemple, réfuter l’idée d’un Dieu des lacunes, le Dieu « bouche-trou », n’est pas très difficile. Ce n’est pas la conception des grands théologiens, comme il le dit lui-même. Il cite par exemple le théologien protestant Dietrich Bonhoeffer qui va dans le même sens que lui. De la même manière, réfuter la religion à partir d’un exemple absurde de tribus qui adoraient le fabricant des cargos qui apportent des marchandises, parce qu’on ne sait pas d’où elles viennent, n’est pas très honnête. On ne réfute pas la religion à partir de sa version la plus idiote mais en écoutant ce que les plus grands penseurs en ont dit. On ne peut pas mettre toutes les religions dans le même panier. Un philosophe britannique, nommé Gilbert Chesterton, disait que la comparaison des religions est semblable à la comparaison des journaux : ils ont tous du papier, des articles, des journalistes mais leur contenu est très différent d’un extrême à l’autre. De même, les religions sont extérieurement très ressemblantes mais si l’on regarde ce qu’elles disent, certaines sont vraiment stupides, d’autres ont produit une sagesse plurimillénaire.
Par delà ces faiblesses, il y a néanmoins un véritable argument au cœur de son propos et qui en fait la force. C’est le fait qu’il existe une explication naturelle au processus pour lequel on invoque une explication surnaturelle. Les croyants disent : ceci n’est explicable que par l’existence de Dieu. Moi Dawkins, je dis : il existe une explication naturelle par l’évolution. Vous dites que le monde est tellement bien organisé que ceci n’est possible que par l’existence d’un Dieu créateur ; je vous réponds que l’évolution nous met sous les yeux le processus selon lequel c’est advenu. Vous dites que ces conditions très précises pour l’apparition de la vie ne peuvent venir que de Dieu en raison de leur improbabilité ; je vous réponds qu’elles ne sont pas entièrement improbables puisque vous êtes là. C’est donc à cet argument qu’il faut se confronter. Et pour cela, il faut utiliser les ressources de la philosophie.
2. Les ressources de la philosophie en alliance avec la science
Nous nous restreindrons à l’argument principal de Dawkins selon lequel l’évolution suffit à expliquer l’apparition du monde. Pour le développer, Dawkins part du Dieu bouche-trou, qui est encore une fois celui des moins bons penseurs chrétiens mais qui donne à réfléchir. Dawkins sait que ce n’est pas le meilleur argument mais sa réflexion à ce sujet est à mon avis au cœur de son propos.
Les causalités ne s’opposent pas
D’abord, pourquoi le Dieu chrétien n’est-il pas un Dieu bouche-trou ? Le Dieu bouche-trou semble venir d’une conception un peu simpliste de l’action de Dieu. Pour les créationnistes (et il en va de même pour les évolutionnistes qui leur répondent), il n’y a que deux possibilités : soit un processus vient de la nature, soit il vient de Dieu. Donc si je montre qu’il y a une explication naturelle, cela signifie que Dieu n’agit pas ; si je constate qu’il n’y a pas d’explication naturelle, cela signifie que c’est nécessairement un agent surnaturel qui l’a accompli donc Dieu existe. Ce raisonnement est bien trop simpliste. D’abord, il ne semble pas qu’en dehors des miracles de guérison, on ait encore mis en évidence un processus dans l’univers qui ne possède aucune explication naturelle. Le développement de l’univers suit une causalité naturelle. Et si on n’a pas d’explication aujourd’hui (par exemple pour l’apparition d’un organe très complexe comme l’œil), on en aura une demain. Je ne dirais bien sûr pas la même chose pour des événements de notre monde qui peuvent relever du miracle. Ensuite, le fait que le processus naturel ait des causes naturelles n’empêche absolument pas qu’il ait aussi des causes surnaturelles. Ce n’est pas « ou Dieu ou la nature » : mais c’est « et la nature et Dieu ». L’action de Dieu passe au travers de l’action de la nature. Mais l’action de Dieu et l’action de la nature ne relèvent pas du même plan. Ce que le biologiste Stephen Jay Gould appelle le Non-Overlapping Magisteria : les magistères ne se recouvrent pas parce qu’ils ne répondent pas à la même question. La science se demande par quel processus on passe de tel état à tel état ? Par exemple, par les mécanismes de l’évolution. Au contraire, la religion, et sur ce point elle est rejointe par la philosophie, se demande quelle est la cause la plus fondamentale de cette réalité ? Non pas comment on est passé à cet état à partir d’un état antérieur mais d’où vient ultimement cette réalité. C’est le raisonnement que faisait Aristote à propos du monde : on ne peut pas remonter de manière indéfinie à un état antérieur, sans quoi on n’a jamais d’explication ; il faut un fondement, ce qu’Aristote appelait un premier moteur. Il y a un être qui échappe au monde et qui est son fondement. Les chrétiens diront qu’il y a un Créateur.
Il y a donc deux questions différentes qui appellent des réponses différentes. La question du changement, du passage d’un état à un autre, fait partie de la science : il faut y répondre par des mécanismes naturels, que ce soit l’évolution en biologie, ou des changements physiques pour l’apparition de notre monde à partir d’un état initial. Mais la question de l’existence d’un monde, celle de l’origine du fait qu’il y a du changement dans le monde, ne peut pas être résolue à partir du changement lui-même. S’il y a une réponse, il faut qu’elle soit sur un autre plan que celui des processus naturels ; ou alors il faut accepter qu’il n’y ait pas de réponse. Stephen Hawking, cosmologiste britannique, pensait avoir résolu l’énigme de la création de l’Univers en affirmant que l’Univers venait de la gravitation[5]. Le problème de cette réponse est que la gravitation suppose qu’il y ait un univers. Il pense résoudre le problème d’une création à partir de rien en exhibant un état antérieur de l’univers, où il n’y a pas de particules mais de la gravitation. Mais l’existence de la gravitation est déjà un état de l’univers. On ne s’en sort jamais. La tradition philosophique de la métaphysique, pleinement assumée par le christianisme, va affirmer que : 1) la causalité divine et la causalité naturelle ne s’opposent pas mais vont de pair ; 2) le changement et la création sont totalement différents parce que le changement se fait à partir d’un état alors que la création est à partir de rien. Ce qui ne signifie pas que la création a eu un commencement mais qu’elle a un fondement : que tout ce qui existe provient d’une cause supérieure. Et donc 3) qu’il y a un principe à l’Univers.
Il me semble donc que l’argumentation de Dawkins contre le Dieu bouche-trou est juste. L’existence de Dieu n’est pas prouvée par le fait qu’on n’arrive pas à expliquer des processus naturels. La science procède par résolution d’énigmes. Et je suis d’accord avec lui pour affirmer que c’est de la paresse d’attribuer cela à Dieu. Mais Richard Dawkins connaît également le raisonnement métaphysique classique que j’ai opposé. Il le refuse mais de manière assez ambiguë.
Il y a un principe
Comme je l’ai dit, son argument le plus fort, qui consiste à affirmer : « il y a telle question mais je vous donne une explication naturelle » n’est pas suffisante. C’est ce que montrent les ressources de la philosophie que Dawkins connaît. À moins que pour Dawkins, l’évolution puisse rendre compte de tout ce qui existe. Et c’est là que son argumentation paraît très ambiguë. Voici comment il répond à l’argumentation métaphysique :
« La cause première que nous cherchons a dû être la simple base d’une grue à auto-amorçage qui a au bout du compte hissé le monde tel que nous le connaissons jusqu’à la complexité de son existence actuelle. »[6]
La question rebondit : est-ce que cette grue fait partie de l’univers ? Dans ce cas, elle n’explique pas l’apparition de l’univers. Ou bien est-elle en dehors de l’univers ? C’est ce que semble entendre Dawkins. Dans ce cas, elle est bien le principe premier que nous cherchons. Soit l’évolution fait elle-même partie du monde et donc ne peut pas expliquer l’apparition du monde. Soit l’évolution est séparée du monde et explique l’apparition de l’univers à partir de rien, et dans ce cas, il y a bien un principe de l’univers, qu’on appelle l’évolution. Dans ce cas, Dawkins adopte bien une démarche métaphysique qui consiste à faire de l’évolution le principe créateur du monde. Dans ce passage, Dawkins ne nie pas qu’il y ait un principe premier de l’univers. Mais que ce principe soit le Dieu chrétien qui se révèle et s’incarne dans le Christ. Cela signifie qu’il n’a pas la foi dans le Dieu chrétien mais pas qu’il n’y a pas de Dieu. Son dieu c’est l’évolution qui crée tout à partir de rien.
Il me semble donc que Dawkins se contredit. Toute son argumentation est basée sur le fait qu’il y a deux types d’explication, une explication naturelle et une explication surnaturelle. Dawkins défend l’explication naturelle. Mais soit il explique l’apparition de la nature par un élément naturel et cela n’explique rien ; soit il l’explique par un élément au-dessus de la nature et dans ce cas il est dans le surnaturel. Dans ce cas, « surnaturel » ne veut pas dire magique mais qu’un principe au-dessus de la nature fonde la nature. On a l’impression de buter ici sur un impensé. Richard Dawkins n’en a peut-être pas tout à fait fini avec Dieu.
3. Conclusion
Si la science rapproche de Dieu, ce n’est donc pas parce qu’elle constate qu’elle ne parvient pas à expliquer certains phénomènes naturels, mais parce qu’elle constate qu’elle ne peut pas fournir l’explication ultime de l’existence du monde. Elle ne peut expliquer que les changements dans l’univers. Le scientifique est naturellement conduit à s’interroger sur le fondement ultime du monde. Il entre alors dans une démarche métaphysique et sort de son domaine strict de compétences. S’il veut répondre correctement à la question du principe de l’univers, il devra donc s’appuyer sur la sagesse de l’humanité depuis des siècles.
Richard Dawkins, Pour en finir avec Dieu, Perrin, Paris, 2009. ↩
Richard Dawkins, Pour en finir avec Dieu, p. 146. ↩
Richard Dawkins, Pour en finir avec Dieu, p. 147. ↩
Je paraphrase Richard Dawkins, Pour en finir avec Dieu, p. 178. ↩
Stephen Hawking, Leonard Mlodinov, Y a-t-il un grand architecte dans l’Univers ?, Odile Jacob, Paris, 2011, p. 219 : « La gravitation déformant l’espace et le temps, elle autorise l’espace-temps à être localement stable mais globalement instable. À l’échelle de l’Univers entier, l’énergie positive de la matière peut être compensée par l’énergie négative gravitationnelle, ce qui ôte toute restriction à la création d’univers entiers. Parce qu’une loi comme la gravitation existe, l’Univers peut se créer et se créer spontanément à partir de rien […]. La création spontanée est la raison pour laquelle il existe quelque chose plutôt que rien, pourquoi l’Univers existe, pourquoi nous existons. Il n’est nul besoin d’invoquer Dieu pour qu’il allume la mèche et fasse naître l’Univers. » ↩
Richard Dawkins, Pour en finir avec Dieu, p. 201. ↩
1. Propositions évidentes et propositions démontrables
On distingue dans l’épistémologie aristotélicienne deux types de propositions. Il y a des propositions démontrables (per aliud notae, connues au moyen d’autre chose) et des propositions indémontrables (per se notae, connues par soi), qu’on qualifie parfois d’«évidentes».
Selon Aristote, en effet, toute connaissance certaine ne peut être le résultat d’une démonstration : «Toute science n’est pas démonstrative.» La démonstration est le procédé intellectuel qui consiste à faire apparaître la vérité d’une proposition originellement inconnue (la conclusion) en la rattachant à des propositions déjà connues (les prémisses). Or il est clair qu’on ne peut remonter à l’infini dans la série des prémisses elles-mêmes démontrées. Il faut s’arrêter et admettre l’existence de propositions immédiates (amesa), indémontrables, qui énoncent les premiers principes d’où part toute démonstration. Ces propositions sont saisies intuitivement, naturellement et infailliblement par l’intelligence grâce à un habitus que l’on appelle l’intellect des principes (noûs). Ainsi, de même que toutes les choses sont visibles par la lumière du soleil tandis que le soleil est visible par lui-même (il n’est pas éclairé par autre chose), de même certaines vérités sont connues médiatement dans la lumière des premiers principes, mais les premiers principes sont connus par eux-mêmes, en vertu de l’évidence qui émane d’eux.
Boèce, dans la perspective d’une axiomatisation de la pensée, s’était intéressé à ces propositions indémontrables (communis conceptio animae ou dignitas) qui sont à la base de toute science. Il les définissait ainsi :
«Une conception commune de l’esprit est une proposition que chacun approuve, une fois entendue.» (De hebdomadibus, 7)
Plus précisément, ces propositions «connues par soi » sont celles dont l’esprit perçoit la vérité dès lors qu’il comprend la signification de leurs termes qui les composent : le prédicat et le sujet. Par exemple – c’est l’exemple favori de saint Thomas –, dès que je sais ce que signifie le terme tout et ce que signifie le terme partie, je saisis immédiatement la vérité de la proposition : « Le tout est plus grand que la partie». En effet, dans ce type de proposition, le prédicat appartient de droit au sujet,
soit qu’il entre dans la définition même du sujet (ou s’y identifie): un triangle a trois angles; l'homme est un animal,
soit qu’il en découle immédiatement: une substance incorporelle n'est pas localisée.
Toutefois, la notion de proposition connue par soi est une notion essentiellement relative au sujet connaissant. Pour qu’une proposition m’apparaisse évidente, il ne suffit pas que le lien entre le prédicat et le sujet soit objectivement nécessaire, encore faut-il que je perçoive subjectivement la nécessité de ce lien entre le prédicat et le sujet. Une proposition peut donc être évidente en soi (per se nota per se) et ne pas l’être pour une personne déterminée (per se nota quoad nos). Soit parce que cette personne ne perçoit pas la connexion entre le sujet et le prédicat, soit parce qu’elle ignore la définition, la ratio, du prédicat et/ou du sujet. Pour reprendre l’exemple que saint Thomas emprunte à Boèce, la proposition : « Les réalités spirituelles ne sont pas localisées » est évidente pour le philosophe, mais elle ne l’est pas pour le commun des mortels.
2. L’inévidence que Dieu existe
La proposition « Dieu existe » est objectivement évidente en elle-même, de sorte que si je savais ce qu’est Dieu, c’est-à-dire si je connaissais son essence, je verrais aussitôt que Dieu est et ne peut pas ne pas être. Ainsi, pour les bienheureux qui voient l’essence divine, l’existence de Dieu est encore plus évidente que ne l’est pour nous le principe de non-contradiction. Mais, précisément, ici-bas, je ne sais pas ce qu’est Dieu (quid sit). Je ne connais pas ce qui définit son essence. Son existence n’est donc pas évidente pour moi.
Pourtant, à l’époque de saint Thomas, il ne manquait pas de théologiens —à commencer par son collègue saint Bonaventure— pour soutenir, dans une ligne augustinienne relayée par saint Anselme de Cantorbéry, que l’existence de Dieu était évidente.
N’est-elle pas une vérité innée, dont la connaissance est naturellement inscrite dans l’esprit de tout homme ? Et si on leur objectait le fait de l’athéisme – l’insensé qui déclare : « Pas de Dieu » (Ps 14,1) —, ils répondaient que l’athéisme véritable était impossible. L’athée ne sait pas ce qu’il dit. Il ne peut pas penser formellement la négation qu'il énonce matériellement. Certes, les partisans de l’évidence ne prétendaient pas —ce serait contre intuitif!— que tout homme aurait une connaissance actuelle et explicite de Dieu, mais ils pensaient que si quiconque se mettait dans les conditions subjectives requises pouvait prendre conscience qu’il connaissait déjà l’existence de Dieu.
Trois types d’argumentations peuvent aller dans ce sens.
Argument de l’évidence préalable
On croit toujours en quelque chose —la vérité, la vie, le bonheur—, sinon l’action devient impossible et la vie s’arrête. Or cette croyance implique logiquement une connaissance préalable de l’existence de Dieu. Ainsi saint Bonaventure faisait valoir que tout homme connaissait l’existence de Dieu puisqu’il connaissait l’existence de la vérité, agissait comme si le bonheur existait... Or, qu’est-ce que la vérité, qu’est-ce que le bonheur, sinon Dieu? Prenons le cas de la vérité :
« Dieu est la vérité même. Or, nul ne peut penser que la vérité n’existe pas, car si on pose qu’elle n’existe pas, il s’ensuit qu’elle existe. Si, en effet, la vérité n’existe pas, il est vrai que la vérité n’existe pas. Il est donc impossible de penser que Dieu n’existe pas. » (Q. de ver., q. 10, a. 12, arg. 3)
Réponse de saint Thomas :
« La vérité est fondée sur l’être. De même donc qu’il est évident qu’il y a de l’être en général, il est évident qu’il y a de la vérité. Mais il ne nous est pas évident qu’il existe un premier Être qui est la cause de tout être, tant que cela n’est pas reçu par la foi ou prouvé démonstrativement. Il n’est donc pas non plus évident que toute vérité provient d’une vérité première ». (ibid., ad 3)
Saint Thomas ne nie pas que toute saisie de la réalité, qui est d’abord saisie de l’être (ens), premier objet de l’intellect, implique une certaine saisie de Dieu. Mais il ne s’agit pas d’une connaissance habituelle, qui serait déjà là, latente comme le trésor enfoui sous le sable, et qu’il suffirait de dégager. L’explicite n’est pas en acte dans l’implicite, ni la connaissance distincte dans la connaissance confuse. Ce n’est pas parce que, du haut du promontoire, je vois qu’il y a au loin des arbres qui forment une forêt, que je sais qu’il existe des chênes dans cette forêt. Ma connaissance du fait qu’il y a de l’être, de la vérité, du bien (ou même un bien suprême que l’on appelle le bonheur) ne contient pas une connaissance en acte de l’existence de l’Être, de la Vérité ou du Bien subsistant, bref de l’existence de Dieu. Il faut encore montrer par un processus intellectuel adéquat que l’être commun, la vérité commune, le bien commun, c’est-à-dire l’être, le vrai, le bien, qui se rencontrent dans le monde de notre expérience, exigent une Cause transcendante. La structure fondamentale du réel, à savoir la distinction entre les êtres par participation et l’Être subsistant, n’est pas donnée d’emblée à l’intelligence humaine. La connaissance de l’être commun fournit bien le point de départ de toute connaissance de Dieu et c’est en ce sens que la connaissance de Dieu peut être dite innée (cf. Ia, q. 2, a. 1, ad 1), mais on n’aboutit à l’affirmation de l’existence de Dieu qu’au terme d’un raisonnement, d’une démonstration proprement dite. Prenons une comparaison. Un télescope ordinaire permet de repérer une vague nébuleuse. Le fameux télescope Hubble, lui, me permet de distinguer quinze étoiles dans cette nébuleuse. Elles y étaient certes déjà objectivement, mais je n’en avais pas quant à moi, subjectivement, une connaissance explicite.
Argument de l’évidence de l’archétype
Si Dieu n’est qu’implicitement connu dans l’objet de notre connaissance, ne le serait-il pas de façon plus explicite dans l’acte de connaissance lui-même ? À l’époque de saint Thomas, tout un courant d’inspiration augustinienne prétendait que l’exercice de la pensée vraie exigeait une intervention spéciale de Dieu dans le processus cognitif, une illumination. En effet, puisque Dieu est la source, le modèle, l’archétype de toutes les créatures, il ne suffit pas pour connaître les créatures de les connaître en elles-mêmes, en les situant les unes par rapport aux autres, encore faut-il les référer à leur modèle éternel que sont les idées divines. C’est en référence à Dieu, leur Archétype, que les choses sont vraies. Pour connaître vraiment une chose, il faut la voir dans son modèle ou en liaison avec son modèle transcendant. La vérité est ici adaequatio rei ad Archetypum, adéquation de la chose à son archétype. Dieu doit donc être connu pour que soient vraiment connues les créatures. Dans cette perspective, il est tentant d’affirmer que Dieu est le premier objet de notre connaissance et que tous les autres objets que nous connaissons sont connus en Dieu. Dans ce cas, il est clair que l’existence de Dieu est une donnée immédiate. Voici comment saint Thomas présente cette position:
« Il est nécessaire que ce par quoi tout le reste est connu soit connu par soi. Or, tel est le cas de Dieu. De même, en effet, que la lumière du soleil est le principe de toute perception d’une réalité visible, de même la lumière divine est le principe de toute connaissance d’une réalité intelligible, puisque c’est en Dieu que le premier se réalise au plus haut point la lumière intelligible. Il faut donc que l’existence de Dieu soit connue par soi. » (SCG, I, c. 10)
Saint Thomas répond :
« La solution est facile et claire. Dieu sans doute est ce par quoi toutes choses sont connues. Mais non pas de telle manière que tous les autres choses ne soient connus qu’une fois qu’il est connu, comme c’est le cas pour les principes évidents par soi. Mais en ce sens que toute connaissance est causée en nous en vertu de son influence. » (ibid., c. 11)
La réponse est un peu lapidaire, mais il est facile de la comprendre à la lumière de la critique que saint Thomas adresse fréquemment à la théorie augustinienne de la connaissance. Bien sûr, Dieu, Lumière subsistante, est à l’origine de toute connaissance. Mais cela n’implique pas qu’il intervienne directement à l’intérieur du processus cognitif lui-même (encore moins qu’il soit explicitement le premier connu, ce que saint Augustin n’a d’ailleurs jamais prétendu). Il suffit que Dieu ait doté l’âme humaine de tout ce qui lui est nécessaire pour connaître, spécialement d’un intellect agent, participation créée à la Lumière incréée, capable de produire les espèces intelligibles à partir des images, et qu’il meuve l’intellect à son action comme il le fait pour toute autre puissance qui passe à l’acte. L’homme peut donc accéder à une connaissance vraie en mettant en œuvre ses “seules” capacités cognitives naturelles, au point qu’il peut s’imaginer se suffire s’il n’analyse pas plus en profondeur les conditions métaphysiques de son acte de connaître.
L’argument ontologique
On appelle argument ontologique, depuis Kant, un argument célèbre en faveur de l’existence de Dieu, que saint Anselme développe dans le Proslogion. Il n’est pas question de proposer ici une exégèse de ce texte fameux dont l’interprétation demeure hautement controversée. Je me contente d’exposer l’argument d’Anselme tel que Thomas l’a compris et critiqué.
Majeure : Le terme « Dieu » signifie ce dont on ne peut rien signifier de plus grand (id quo majus significari non potest). Mineure : Or, ce qui existe à la fois dans la réalité (in re) et dans l’esprit (in intellectu) est plus grand que ce qui n’existe que dans l’esprit. Conclusion : Donc, étant donné que Dieu existe dans l’esprit, du simple fait qu’on le pense, il doit aussi exister dans la réalité. Sinon on pourrait concevoir plus grand que Dieu : un Dieu existant et dans l’esprit et dans la réalité.
Par conséquent, dès que je connais le sens du mot Dieu, je sais que l’existence dans la réalité lui appartient. La reconnaissance de l’existence de Dieu découle immédiatement de la compréhension du sens de son nom. Je peux évidemment dire (ou me dire) que Dieu n’existe pas, mais je ne peux pas le penser, puisque la non-existence de Dieu implique une contradiction.
Pour saint Thomas, l’erreur d’Anselme est de prétendre déduire l’existence réelle à partir d’un concept, d’une idée. Or, ce passage est illégitime. D’une idée ne peut jamais sortir qu’une idée. L’idée de Dieu implique effectivement l’idée d’un être qui existe dans la réalité, mais l’idée d’existence, l’existence pensée (l’existence in actu signato), n’est pas l’existence réelle (l’existence in actu exercito). L’idée d’un Dieu existant dans la réalité ne permet donc pas d’affirmer que Dieu existe dans la réalité. Pour pouvoir affirmer l’existence réelle au terme d’un raisonnement, il faut qu’il y ait de l’existence réelle au principe. Le raisonnement ne suffit pas à « produire » par lui même l’existence. On peut utiliser le tuyau le plus perfectionné qui soit, s’il n’y a pas une source d’eau à l’entrée, il n’y aura rien à boire à la sortie!
En fait, s’opposent ici deux perspectives métaphysiques très différentes. Dans la perspective “essentialiste” d’Anselme, l’existence découle de l’essence, exprimée dans l’idée. L’existence est comme une propriété de l’essence. Elle est proportionnelle à l’essence. Plus une essence est parfaite, plus elle a d’existence. Par conséquent, l’essence la plus parfaite possède l’existence au degré suprême, c’est-à-dire existe dans la réalité. Pour saint Thomas, l’existence n’est pas une propriété de l’essence. L’acte d’être est irréductible à l’essence. Il relève d’un autre ordre. «Un chien vivant vaut mieux qu’un lion mort...» (Qo 9,4).
3. Les enjeux du débat sur l’évidence que Dieu existe
Les enjeux de ce débat sur la nature de la démarche intellectuelle qui conduit à affirmer l’existence de Dieu sont considérables. J’en retiens trois. L’opposition sur la nature de cette démarche — évidence ou bien démonstration? — est le signe d’une opposition radicale 1°, sur la nature de la philosophie, 2°, sur la nature de l’homme, 3°, sur la signification de l’athéisme.
Inévidence de Dieu et nature de la philosophie
Dieu est-il le point de départ ou bien le point d’arrivée de la démarche philosophique ? Si son existence est reconnue en vertu d’une intuition immédiate, il en est au point de départ. La philosophie revêt alors la forme d’un savoir déductif, « d’un rationalisme déductif, préparé par une longue ascèse mais déployé à partir d’un absolu immédiatement dévoilé » (P. Fontan, Le fini et l'absolu, p.99). Le philosophe accède d’emblée au point de vue de Dieu (ou... de Sirius). Sa science se veut celle-là même de Dieu, qui connaît toutes choses en se connaissant lui-même. Le philosophe s’installe d’emblée au cœur de l’absolu et, à partir de là, déploie ces longues chaînes de raisons qu’affectionne tant le rationalisme classique. Cette première forme de métaphysique, qui va de l’Absolu vers le fini, est bien illustrée par Descartes ou Spinoza. Elle se caractérise par la croyance implicite en un parallélisme ontologico-logique : l’ordre de la pensée s’identifie à l’ordre de l’être.
Si, par contre, Dieu est le dernier connu, si l’affirmation de son existence est l’aboutissement de la démarche philosophique, se dessine alors une toute autre forme de philosophie. Une philosophie qui ne prétend pas s’identifier à la science divine, mais qui prend acte de la condition charnelle de l’esprit humain et qui, comme le dit J. Maritain, «commence par un acte d’humilité devant le réel connu d’abord par les sens, atteint par notre contact charnel avec l’univers» (Distinguer pour unir, OC, p.361).
Dans cette perspective, l’ordre des concepts n’est pas l’ordre réel : il faut une « table de conversion » pour naviguer de l’un à l’autre. Nous avons affaire à «une métaphysique inductive n’affirmant la Source, en elle-même inexplorée, que sous la caution des dérivés qui n’en donnent pas l’essence mais l’exige et la situent, dans un au-delà sans commune mesure avec leur être.» (P. Fontan, Le fini et l'absolu, p.99).
Inévidence de Dieu et anthropologie
L’enjeu anthropologique n’est pas moindre. À la métaphysique déductive de Dieu premier connu correspond une anthropologie de type platonicien. A la métaphysique inductive de Dieu dernier connu correspond une anthropologie de type aristotélicien.
Dans la conception platonicienne commune, l’âme humaine est avant toutes choses une substance spirituelle complète et son union au corps, et par le corps au monde sensible, est accidentelle. À la vérité, son “lieu naturel” est l’univers intelligible, le monde divin des Idées : elle y est de plain-pied comme chez elle. Par conséquent, plus un objet est intelligible, c’est-à-dire, en fait, plus il est élevé dans la hiérarchie des essences, mieux il est connu par l’âme. Dieu étant l’intelligible suprême, il est l’objet privilégié, pour ne pas dire premier et direct, de la connaissance de l’âme.
Dans la conception aristotélicienne, l’âme n’est pas un pur esprit égaré dans la matière. Elle est la forme substantielle du corps. Par conséquent, même si, en tant qu’intelligence, elle est ouverte à tout l’intelligible, y compris aux plus hauts intelligibles, en tant qu’intelligence d’un esprit incarnée, l’objet propre et direct de sa connaissance est le monde corporel. C’est là qu’elle est le plus à l’aise, car cet objet lui est proportionné. À une intelligence incarnée correspond un intelligible incarné, les quiddités des réalités physiques. Cela ne signifie pas que l’intelligence humaine n’a aucune connaissance de la réalité « méta-physique », mais seulement que cette connaissance est indirecte, laborieuse, et passe par la médiation de l’expérience du monde sensible. L’intelligence va du plus connu au moins connu, ce qui est la définition même de la démonstration. Or, le plus connu pour nous, ce sont les êtres sensibles qui nous entourent. La seule démonstration possible de l’existence de Dieu est donc une démonstration qui part de notre expérience des êtres de ce monde pour remonter à l’existence de leur Cause.
Cette option aristotélicienne consone avec le thème chrétien de l’Incarnation comme structure sacramentelle de la rencontre de l’homme et de Dieu. Pourtant, historiquement, au XIIIe siècle, elle n’allait pas de soi dans un univers culturel saturé de religieux, où la présence de Dieu était pour ainsi dire palpable, immédiate. La thèse thomasienne de la non-évidence de l’existence de Dieu allait donc dans le sens d’un certain “désenchantement” du monde. Dans une belle page de la Philosophie au Moyen Age, Étienne Gilson décrit ainsi l’opposition entre les thèses du thomisme et la mentalité religieuse de beaucoup de ses contemporains :
« On arrache à la raison humaine la douce illusion qu’elle connaît les choses dans leurs raisons éternelles, on ne lui parle plus de cette intime présence et de cette consolante voix intérieure de son Dieu [critique de l’illumination augustinienne]. Pour lui interdire plus sûrement ces envols auxquels elle n’a plus droit, on rive l’âme au corps dont elle est directement la forme [...]. Réduite par cette nouvelle situation à tirer du sensible toute sa connaissance, même celle de l’intelligible, l’âme se voit fermer les routes directes qui conduisent à la connaissance de Dieu ; plus d’évidence directe en faveur de son existence... »
Inévidence de Dieu et athéisme
Saint Thomas a certainement conscience de cette nouveauté et il faut voir dans son attitude une exigence de vérité intellectuelle qui ne satisfait pas de l’habitude. Il fait ainsi observer:
L’opinion selon laquelle l’existence de Dieu serait évidente « tire en partie son origine de l’habitude où l’on est, dès le début de la vie, d’entendre proclamer et d’invoquer le nom de Dieu. L’habitude, surtout l’habitude contractée dès la petite enfance, a la force de la nature; ainsi s’explique qu’on tienne aussi fermement que si elles étaient connues naturellement et par soi les idées dont l’esprit est imbue dès l’enfance. » (SCG, I, 11)
La non-évidence de l’existence de Dieu signifie aussi que, pour saint Thomas, l’athéisme est théoriquement possible. Pour saint Anselme, l’athéisme est littéralement impensable. L’impie peut bien proférer que Dieu n’existe pas, mais s’il pense ce qu’il dit, il se met en contradiction avec lui-même. Il est donc nécessairement soit inconscient soit de mauvaise foi. Dans une perspective thomiste, même si au XIIIe siècle l’athéisme reste un “cas d’école”, sociologiquement et culturellement improbable, la négation de Dieu est une possibilité réelle qui tient à la nature même de l’homme. Comme esprit incarné, l’homme n’accède au mystère de l’Absolu qu’indirectement, par la médiation du fini. Or, toute médiation est ambivalente. Elle est aussi bien une aide qu’un obstacle, un signe qu’un écran. En raison de sa consistance propre, comme res, la médiation peut retenir à soi le mouvement de l’intelligence, alors même qu’elle a vocation, comme signum, à le porter au-delà d’elle-même. Pour saint Thomas, l’athée ne se trompe que parce qu’il ne va pas assez loin ou assez profond dans sa recherche d’intelligibilité. Il s’arrête à la réalité du monde sensible et s’il peut s’y arrêter, c’est que le monde sensible ne se définit pas comme un pur signe de Dieu mais qu’il possède une épaisseur, une consistance, qui peuvent retenir le regard, comme l’observait déjà l’auteur du Livre de la Sagesse (Sg 13,6-9). Il s’ensuit que c’est dans la ligne même de sa recherche d’intelligibilité du monde que l’athée peut être rejoint et amené à transcender les explications trop partielles, trop limitées, trop superficielles pour rejoindre le cœur intelligible du réel : Dieu lui-même.
Jusqu’où l’intelligence artificielle ira-t-elle ? Face à une technologie qui soudainement progresse à très grands pas, qui ne cesse d’étonner par ses capacités, il est difficile de délimiter ce qu’elle peut faire de ce qui lui est impossible à faire. La ligne de démarcation semble être repoussée continuellement, ce qui alimente toutes sortes de fantasmes. Il est pourtant une manière simple de diminuer la part des incertitudes, qui consiste à s’appuyer sur ce que l’on sait avec quelque assurance.
À cet égard, nous avons établi dans un article précédent deux conclusions.
Une intelligence artificielle est une machine, et cela implique qu’elle n’a pas la nature d’un vivant et encore moins d’un vivant intelligent.
Une intelligence artificielle est un automate de l’intelligence. Elle est une machine à produire du contenu intelligible, tout comme par leur intelligence, les hommes produisent des contenus intelligibles. Ainsi, bien qu’elle ne soit pas une intelligence, elle possède une certaine ressemblance avec l’intelligence quant à l’opération.
La première conclusion permet d’affirmer que sont irrationnelles toutes les promesses ou les épouvantes de voir un jour une IA devenir vivante, et un vivant possédant une vie intelligente. Une IA est et demeure une machine automate [1].
La seconde conclusion pointe vers une autre illusion. Elle apparaît lorsque la machine devient si performante qu’on ne sait plus faire la différence entre ses produits et les produits de l’intelligence humaine. L’automate imite tellement bien qu’il donne le change. De là, le risque est grand de ne plus faire la différence entre l’IA et l’intelligence humaine. L’IA est une machine, cela est admis, mais ne serait-elle pas en train de devenir vraiment intelligente ? À force d’être banalisée, la question finit par être prise au sérieux : pourquoi, se demande-t-on, une activité intelligente ne pourrait-elle pas surgir d’une machine ? [2]
Il est clair qu’une telle pensée laisse beaucoup de part à l’imagination. Voir une activité intelligente émerger d’un système informatique est certes une perspective excitante, mais qui ressemble un peu trop à ces contes où quelque génie surgit d’une lampe à huile lorsqu’on sait la frotter dans le bon sens. Pour dissiper l’illusion, il est cependant nécessaire d’aller plus loin et de considérer avec attention ce que fait réellement une machine IA, cette activité, cette opération qui lui est spécifique et par laquelle elle ressemble à l’intelligence humaine. On pourra de même coup se défaire d’erreurs concernant l’intelligence humaine. Comme le remarquait saint Thomas d’Aquin, se tromper sur l’intelligence c’est se tromper sur cela même qui doit servir à ne pas se tromper :
« Parmi toutes les erreurs, plus indécente semble être celle qui porte sur l’intellect, par lequel nous sommes naturellement faits pour connaître la vérité en ayant évité les erreurs » (De unitate intellectu , I, 1).
I. Machine et activité de la machine
Commençons par rappeler quelques principes universels.
La distinction de la chose et de son activité. Chacun peut constater que dans notre monde, toute chose est distincte de son activité. L’être est réellement distinct de l’agir. L’électron est distinct de son mouvement, l’amandier est distinct de sa floraison, le chat est distinct du miaulement. De même la machine IA est distincte de son activité. C’est du reste la raison pour laquelle la réalisation de la machine est séparée de son exploitation, être son concepteur est différent d’être son utilisateur.
L’agir suit l’être. Si l’activité est toujours distincte de la chose, l’activité est cependant toujours homogène à la chose qui agit, elle suit la nature de la chose, ce que nous résumons habituellement dans la formule tel on est, tel on agit . L’électron ne miaule pas et ne miaulera jamais, le chat ne fleurit pas et ne produira jamais d'amande. De même, la machine IA agit selon ce qu’elle est, à savoir une machine, et il ne faut pas s’attendre à ce qu’elle agisse autrement qu’une machine peut agir. Ce qu’elle peut faire et ce qu’elle pourra faire, quels que soient les perfectionnements qu’on lui apporte, ne sera jamais que ce qu’une machine peut faire. Et cependant, voici la source de la perplexité, ce que nous la voyons produire ressemble à s’y méprendre à ce qu’une intelligence humaine produit. Puisque l’agir suit l’être, de même que le miaulement fait soupçonner la présence d’un chat, de même est-il légitime de soupçonner que l’IA pense.
L’agir est fondé dans l’opération naturelle de la chose. Si de manière universelle l’agir suit l’être, c’est parce que l’activité d’une chose a son principe, son origine, dans la chose elle-même. Pour cette raison, lorsqu’on se demande ce qu’une chose peut faire, il faut rechercher quel est dans cette chose le principe de son activité. Or si l’on remonte jusqu’au principe le plus fondamental, on tombe toujours sur un principe naturel. Les opérations de nos outils ou de nos machines, qu’ils soient simples ou complexes, s’appuient sur des opérations naturelles. L’activité d’un tournevis par exemple a pour support la dureté naturelle de l’acier, l’activité d’un pneu exploite l’élasticité et la rugosité naturelles du caoutchouc, l’efficacité d’un médicament dépend des vertus naturelles du principe actif. Cela implique aussi que l’opération naturelle impose ses limites aux activités dont elle est la source. L’acier du tournevis impose ses contraintes, et de même pour le caoutchouc dans les pneus ou le principe actif dans le médicament. S’agissant de la machine IA, elle est aujourd’hui mise en œuvre dans un ordinateur reposant sur l’opération naturelle du courant électrique, avec ses vertus et ses contraintes.
II. Perfection de l’opération et connaissance
Pour comprendre ce que fait et peut faire l’intelligence artificielle, il faut donc revenir au courant électrique, et situer cette opération naturelle parmi les autres opérations naturelles [3]. Or une opération naturelle possède deux dimensions : elle est propre à une nature et, dans les limites imposées par cette nature, elle peut varier en intensité.
La première dimension à prendre en compte est la diversité naturelle des opérations. Cette diversité obéit à quelques grandes divisions. Il y a ainsi une différence de nature entre l’opération des corps inertes et celle des vivants. Par exemple, la reproduction est une opération des vivants qui n’a pas d’équivalent dans les réalités corporelles. De sorte qu’on peut comparer le taux de reproduction des chênes et des baleines, qui sont tous deux des vivants, alors que cette comparaison est impossible entre les cristaux et les baleines, parce que les uns sont des corps et les autres des vivants. Une autre division de nature se rapporte à la connaissance. Du point de vue de la connaissance, il existe trois degrés d’opérations : les opérations corporelles sont dénuées de tout rapport à la connaissance ; les opérations animales sont liées à la connaissance sensible ; les opérations humaines sont liées à la connaissance intellectuelle. Le rapport à la connaissance peut se résumer à la règle générale suivante : plus la connaissance est parfaite, plus elle permet des opérations variées et ouvertes à de nombreuses réalisations. À l’inverse, l’opération étrangère à la connaissance (celle des corps) est invariante et fixée sur une seule réalisation ( ad unum ).
Une seconde dimension doit alors être prise en compte. Les activités sont sujettes à la variabilité selon l’intensité. La lumière émise peut être plus ou moins intense, l’amandier peut croître plus ou moins vite, la poule peut voler plus ou moins loin. Par contrecoup, il en va de même pour les outils et les machines qui s’appuient sur l’opération naturelle. L’acier peut être plus ou moins résistant, le moteur ou l’ordinateur plus ou moins puissants. Entre opérations similaires, on peut donc réaliser des classements selon la plus ou moins grande perfection de l’activité. Ces classements montrent d’ailleurs leur utilité dès que nous avons à établir des comparatifs entre des réalités similaires (des téléphones, des voitures, des aspirateurs, des machines-outils, etc.).
Ces précisions étant apportées, dressons un schéma repérant nos deux dimensions de perfection. La perfection de la nature est portée sur un axe horizontal : l’opération des corps, privés de connaissance, est dépassée par l’opération de l’animal, doté d’une connaissance sensitive, puis par l’opération intellectuelle humaine. Chacun de ces degrés connaît une variation possible de perfection dans l’activité, que l’on repère sur un axe vertical, orthogonal au premier (cf. fig. 1).
figure 1. Les deux dimensions de l’opération naturelle
À titre d’illustration, comparons l’émission du son par un corps, par un animal et par un homme.
Par leurs vibrations, les corps, comme une cloche ou une lame de xylophone, émettent des sons selon un spectre de résonance acoustique fixe, toujours le même à conditions égales. L’opération est invariante ( ad unum ) et cela provient de ce que l’opération naturelle du métal ou du bois qui composent la cloche ou le xylophone est une opération corporelle. Mais cette limite naturelle n’empêche pas de jouer sur la perfection de l’activité, en faisant varier l’intensité du son émis par des coups plus ou moins forts.
Par contraste, les oiseaux font vibrer leur syrinx pour produire non seulement des sons divers mais des chants , adaptés à telle ou telle situation. Du fait de son lien avec la connaissance sensible, l’opération naturelle de l’oiseau est plus riche que celle de la cloche, bornée par l’invariance des opérations corporelles. Et du point de vue de la perfection de l’activité, on trouvera des oiseaux qui chantent mieux que d’autres, ou plus fort, ou qui ont un répertoire plus étendu, ou qui peuvent apprendre de nouveaux sons, etc.
L’opération naturelle des oiseaux est toutefois limitée. Leurs chants sont répétitifs et uniformes dans chaque espèce. Tel n’est pas le cas de l’émission du son chez l’homme, parce que sa connaissance est celle d’une intelligence, indépendante de la matière. Le chant humain est porteur d’un langage musical librement composé. Il reste que cette propriété naturelle peut être plus ou moins bien exploitée. La perfection de l’activité varie grandement, depuis les cris de l’enfant jusqu’aux airs émouvants d’une cantatrice professionnelle.
Tirons maintenant les conséquences de ces clarifications.
III. La distance entre l’IA et l’opération naturelle de l’intelligence
Lorsqu’on conçoit des ordinateurs utilisant le courant électrique, on choisit de s’appuyer sur l’opération naturelle des électrons, avec ses vertus et ses contraintes. La machine va dès lors devoir fonctionner en exploitant ces vertus et ces contraintes selon les deux dimensions de l’activité qui viennent d’être dégagées. L’art de l’ingénieur consiste donc d’une part à concevoir une machine adaptée à la nature particulière de ce flux polarisé qu’est le courant électrique. D’autre part, il s’agira de rendre cette utilisation plus efficace pour tirer profit de la perfection de l’activité.
Ceci conduit à trois constats :
Premièrement, le courant électrique sur lequel repose l’intelligence artificielle est une opération corporelle. Comme telle, elle est donc une opération invariante ( ad unum ), fixée à produire toujours le même résultat dans les mêmes conditions, ce qui exclut de soi tout rapport à la connaissance. Par conséquent, entre l’opération du courant électrique et l’opération de l’intelligence, la différence de nature s’imposera toujours. C’est pourquoi il est illusoire d’espérer un jour voir une machine IA avoir une activité intelligente.
En revanche, deuxièmement, il existe une marge de progression du côté de la perfection de l’activité et de son utilisation. C’est ce qui s’est produit : l’amélioration exceptionnelle de la capacité de calcul des processeurs, grâce à la maîtrise de l’opération naturelle des électrons, a permis l’essor de l’intelligence artificielle que nous connaissons aujourd’hui.
Troisièmement, ce progrès permet d’atteindre une certaine similitude entre l’opération d’une machine IA et l’opération de l’intelligence. C’est cette similitude qui fait de l’intelligence artificielle un automate de l’intelligence [4].
Le recours au courant électrique a montré sa pertinence dans la pratique. De soi, le courant électrique est l’une des opérations naturelles les plus pauvres qui soit. Cependant il est aussi une opération extrêmement invariante et prédictible. À condition de développer les technologies adaptées, il s’avère être une ressource remarquablement exploitable, offrant une fiabilité sans équivalent. Songeons qu’une unité de processeur de dernière génération maîtrise en continu un flux électrique passant au travers de 200 milliards de transistors.
Il s’est ainsi produit un fait remarquable. D’un côté, parce qu’il est l’une des opérations naturelles les plus pauvres de notre monde, le courant électrique est ce qu’il y a de plus éloigné de l’intelligence quant à la perfection naturelle. De sorte qu’en basant l’intelligence artificielle sur un flux électrique, on s’interdit toute connaissance et toute pensée parce que l’opération naturelle des corps est absolument étrangère à la connaissance. Mais d’un autre côté, ce que l’on perd en perfection naturelle a réussi à être compensé en utilisant plus efficacement la perfection de l’activité , jusqu’à rendre possible l’intelligence artificielle (cf. fig. 2).
Figure 2. La compensation de l’imperfection naturelle par la perfection de l’activité
IV. La machine édifiée sur l’opération naturelle
Pour parvenir à imiter l’intelligence il ne suffit cependant pas de faire passer du courant dans un très grand nombre de transistors. L’opération naturelle sert seulement de principe physique à l’activité d’une machine IA. Entre les deux s’intercalent de nombreuses couches que l’on peut répartir en trois étages principaux : la transcription logique de l’opération naturelle, l’ automatisation du traitement des données, et la conception d’automates informatiques qui accomplissent des tâches spécifiques. Le point sur lequel il faut insister est le suivant : les vertus et contraintes de l’opération naturelle ne jouent pas seulement au premier étage, elles se propagent et déterminent les étages suivants selon les deux dimensions détaillées précédemment.
1. La transcription logique
Au premier étage, on utilise la propriété invariante du flux électrique : il s’écoule naturellement, à moins qu’on l’en empêche. Cette dualité d’états fournit le support physique d’une logique binaire, selon que le courant passe ou ne passe pas : porte ouverte ou porte fermée. Tout ce dont on a besoin pour constituer une logique binaire peut en effet être transcrit de l’état d’un transistor : 0 ou 1, vrai ou faux, oui ou non.
L’informatique repose sur cette transcription logique d’une opération naturelle fixée ad unum qui est ou bien laissée à elle-même ou bien empêchée. Grâce à elle on peut utiliser l’état d’un transistor soit pour porter un signe (0 ou 1) soit pour agir sur des signes (ET, OU, NON, NON-ET, NON-OU, etc.). Plus on aura de transistors, plus on pourra stocker un grand nombre de données (des suites de 0 et de 1). Et plus l’on saura ouvrir et fermer rapidement un grand nombre de portes, plus on sera en mesure de composer et de transformer ces données de manière complexe.
Il reste cependant que, quels que soient les niveaux de complexité atteints, ils demeureront dépendants de la forme propre de l’opération naturelle : les seules données stockables et les seuls traitements exécutables sont ceux que l’on peut réduire à une séquence de portes à ouvrir ou à fermer. Ainsi, la dépendance de l’informatique à l’égard de l’opération naturelle impose une manière particulière de représenter ses objets et d’opérer sur eux.
D’une part, les objets doivent être représentés sous forme “numérique”. Dans un ordinateur, un chien n’est pas un chien, mais un ensemble de 0 et de 1, représentant un certain aspect du chien (une image, une planche anatomique, une taxonomie, etc.), qu’on a pré-sélectionné . Et ceci fait une première différence avec l’intelligence humaine, qui connaît le chien comme chien (non comme suite de 0 et de 1), qui intègre tout ce qu’elle connaît de lui (par opposition à un nuage de données partielles), qui enfin est ouvert à tout le réel tel qu’il se présente.
D’autre part, les activités de traitement obéissent à une logique dite “symbolique”. Ce qu’on entend ici par symbole est l’équivalent d’un conteneur vide qui peut être rempli de ce que l’on veut, il est pour ainsi dire un signe en blanc, une “variable”, apte à représenter n’importe quelle réalité qu’on lui assignera. Un signe, β par exemple, peut représenter un auteur ou une équation mathématique, un chien ou une civilisation, un fleuve ou une coordonnée géographique. Cette souplesse illimitée a toutefois son prix. Par sa constitution même, une logique symbolique est totalement indifférente au contenu des données. Une opération sur un symbole (β dans notre exemple) n’est pas une opération sur le contenu (l’auteur, l’équation, le chien, etc.) mais seulement sur sa transcription logique (une suite de 0 et de 1). Le traitement lui-même se fait au moyen d’opérateurs dits “booléens” qui sont des combinaisons de portes logiques (ET, OU, NON, NON-ET, NON-OU, etc.) transcrivant l’état ouvert ou fermé des transistors. D’où résulte une seconde différence avec l’intelligence humaine : parce qu’elle connaît les réalités qui sont en elle, l’activité intellectuelle consiste à progresser dans leur connaissance (et non à traiter des données) selon ce qu’on découvre d’elles, en les comparant et les distinguant d’autres réalités, en composant et divisant les notions, en formant des propositions et des syllogismes à leur sujet.
Données numériques, logique symbolique, opérateurs booléens : ces trois composantes forment la logique sur laquelle l’informatique est édifiée, et chacune reflète les vertus et les contraintes de l’opération invariante (ad unum) du flux électrique [5]. La logique adossée sur l’opération naturelle d’un corps est d’une espèce différente de notre logique, fondée dans l’opération naturelle de la raison.
2. L’automatisation du traitement
Les principes théoriques du deuxième étage ont été posés en 1937 par le mathématicien Alan Turing [6]. Ils indiquent comment constituer un automate traitant des données sans que l’automate ait aucun rapport à la connaissance. Il agit sans savoir ni ce que signifient les données qu’il traite, ni ce qu’il fait en les traitant, ni pourquoi il le fait, et pourtant il parvient à le faire tout seul, automatiquement , imitant ainsi ceux qui savent ce qu’ils font. Un tel automate doit satisfaire à deux conditions.
La première est la nécessité d’introduire une partie motrice dans la machine pour que la machine ait en elle le principe de son mouvement [7]. Cette partie est active tandis que le reste est passif. La partie passive doit contenir les données ou les instructions d’une manière utilisable par la partie active, c’est-à-dire en les décomposant en unités placées l’une à côté de l’autre, dans des cases juxtaposées. La partie active quant à elle doit “lire” les données et en “écrire” de nouvelles conformément aux instructions, chaque donnée écrite prenant place dans une case de la partie passive. La machine est alors comparable à un employé qui serait installé dans une salle remplie de tiroirs à fiches, et dont la tâche consisterait, de manière répétitive, à trouver une fiche, lire une donnée, retranscrire le résultat prescrit sur une autre fiche et passer à l’étape suivante de lecture/écriture. Et cet employé serait si idiot que toute tâche qu’on voudrait lui confier devrait être décomposée en une succession d’instructions de simple lecture et écriture [8].
La seconde condition est que le moteur soit capable de mener des tâches à leur terme de manière automatique. Il faut pour cela qu’à chaque étape de lecture/écriture soit associé le mouvement à faire pour atteindre l’étape suivante et que l’ensemble des étapes conduise au résultat attendu. Du point de vue de la machine, une tâche se présente donc comme une séquence d’opérations de lecture/écriture/déplacement telle qu’en partant d’un état initial et en appliquant cette séquence, opération par opération, on parvienne à l’état final. Ainsi, à toute tâche correspond une table d’action indiquant le programme de “calcul” du résultat où, pour chaque état de la machine, telle donnée est lue, telle écriture est à faire, et tel déplacement est à réaliser. De sorte que si l’on veut assigner une autre tâche, il suffit d’assigner une autre table d’action.
La machine automate de Turing est le modèle théorique de nos ordinateurs, et c’est pourquoi on peut aussi les appeler des « calculateurs ( computers ) ». Tel qu’il est conçu, ce modèle est remarquablement adapté aux opérations corporelles comme le flux électrique. Cela n’est pas un hasard, car Turing ramenait la pensée humaine à un calcul et le calcul à une séquence d’états discrets indifférents à la connaissance. Autrement dit, Turing avait une conception de la logique caractéristique des opérations corporelles[9]. Car ces dernières imposent non seulement que la machine soit indifférente à toute connaissance (quoiqu’elle manipule des signes de la connaissance), mais aussi que toutes les dimensions d’une tâche, y compris l’automatisme, soient décomposées et ramenées aux dimensions binaires d’une opération invariante (ad unum). Dans la conception de telles machines, les trésors d’intelligence déversés par les ingénieurs n’élèvent donc aucunement la machine vers l’intelligence, ils témoignent au contraire de l’effort nécessaire à l’homme pour abaisser des tâches rationnelles au niveau d’une opération naturelle parmi les plus pauvres. De même que le dresseur de cheval doit adapter ses projets, ses attentes, sa logique, son langage à ce que peut faire un cheval, de même en va-t-il de l’informaticien à l’égard de son ordinateur.
Deux conséquences importantes en découlent. D’une part, plus une tâche humaine est « calculable » (au sens qui vient d’être exposé) plus l’ordinateur pourra l’accomplir d’une manière satisfaisante, voire d’une manière plus efficace ou plus sûre. Les ordinateurs sont ainsi particulièrement aptes au traitement massif de données numériques. A contrario , plus une tâche, même simple, fait appel à la logique propre de la raison naturelle, plus elle résistera à être « calculée » selon la logique binaire d’une opération corporelle, de sorte qu’en la confiant à un ordinateur on obtiendra un résultat décevant, typiquement machinique. Cette limite est particulièrement flagrante avec les tâches intellectuelles d’appréhension de ce qu’est telle réalité, de jugement sur elle, d’analogie, de syllogisme, ou de métaphore. Il a fallu attendre l’arrivée de l’intelligence artificielle non pas pour dépasser cette limite mais pour la contourner. Nous allons y revenir.
D’autre part, l’unité de base de l’automate est le simple signe en blanc (ou symbole), c’est-à-dire l’unité logique immédiatement adossée à l’opération naturelle. C’est toujours à ce niveau que travaille l’ordinateur. Certes, afin de manipuler des objets complexes selon des fonctions complexes, de nombreuses surcouches logicielles doivent être ajoutées à l’automate, qui le rendront utile pour accomplir des tâches humaines. Toutefois, ces objets et ces fonctions ne sont jamais que des combinaisons d’unités logiques de base. L’activité d’un ordinateur est construite de bas en haut, de ce qui est le plus décomposé, le plus proche de l’opération corporelle, vers ce qui est le plus composé et complexe. La raison humaine pour sa part ne manipule pas les signes de bas en haut. Parce qu’elle connaît ce qu’elle pense, son unité de base est la réalité signifiée par le signe (ou contenue dans la perception sensible). En sorte que la raison peut aussi bien distinguer les choses et les parties des choses que saisir l’unité des choses ou entre les choses (on parle aussi de sa capacité à l’analyse et à la synthèse, mais ce sont là des termes lacunaires).
3. Les automates informatiques
Pour disposer d’un automate informatique convivial et utile pour accomplir des tâches humaines, il faut donc ajouter plusieurs couches logicielles à l’automate qui traite les signes. On n’a plus alors à se soucier de ce qui s’accomplit dans les entrailles de la machine, là où l’opération naturelle impose sa logique binaire ésotérique et où le calcul prend la forme d’une table d’action figée et hermétique. Parmi les nombreuses applications de l’informatique qui deviennent alors possibles, on trouve les IA. Une machine IA a en commun avec tous les autres programmes informatiques que son utilisation requiert en arrière-plan l’utilisation continue de l’opération naturelle par la machine. Tout ce qui se fait dans les couches hautes se fait simultanément et se calcule dans la couche la plus basse, là où l’opération meut la machine selon sa logique conformément à l’automatisme de calcul que l’on a mis en place (cf. fig. 3).
Figure 3. La machine IA bâtie sur l’opération naturelle du flux électrique
V. De l’automate qui calcule à l’automate qui imite
Si l’intelligence artificielle s’insère dans le cadre que nous venons d’esquisser, elle représente cependant une rupture technologique qui a permis de contourner une limite de l’informatique traditionnelle. Commençons par situer cette rupture :
Du point de vue de l’opération naturelle et de sa transcription logique, l’intelligence artificielle ne diffère en rien du reste de l’informatique. Reposant sur une opération corporelle invariante (ad unum), elle est par construction étrangère à la connaissance. Cette opération étant le flux électrique passant ou étant empêché de passer, elle est aussi contrainte dans les dimensions de la logique binaire, numérique, symbolique, et booléenne.
Du point de vue de l’automatisation du traitement, la machine produit un résultat conformément aux règles de calcul définies dans sa table d’action. L’intelligence artificielle ne peut échapper à ce déterminisme constitutif des automates informatiques. La machine IA applique elle aussi des règles pour produire un résultat au terme d’un calcul.
Il en résulte que l’intelligence artificielle ne peut pas donner à l’ordinateur un accès à la connaissance, ni lui apporter la pensée, ni retranscrire dans l’ordinateur tout ou partie de la logique humaine dans ce qu’elle a d’irréductible au calcul sur des symboles. La seule possibilité qui lui est offerte est d’imiter l’intelligence par le moyen du calcul. Le calcul tient alors lieu de raisonnement, ce pourquoi il est plus juste de parler d’une imitation de la raison.
Du point de vue des automates informatiques en général, grâce à leurs surcouches logicielles, toutes les tâches qui peuvent faire l’objet d’un calcul leur sont accessibles. Ils ressemblent alors à la raison en ce que, de même que la raison opère selon sa logique rationnelle sur les réalités qu’elle connaît, de même l’ordinateur traite selon sa logique machinique les signes qu’on lui donne à traiter. Les signes (ou symboles), parce qu’ils sont des variables, sont pour l’ordinateur comme les formes universelles pour notre raison. Et le calcul de l’état initial jusqu’à l’état final est pour l’ordinateur comme l’enchaînement logique depuis les principes jusqu’aux conclusions pour la raison. Par exemple, l’opération informatique “classer tous les A par la valeur de B” est analogue à l’opération de la raison “comparer les mammifères selon leur taille adulte”. Au point que l’homme peut confier à l’ordinateur une partie de ce travail à condition de suppléer par son intelligence à tout ce qui échappe à l’ordinateur (la définition de la tâche, la collation et la numérisation des données, le codage d’un programme et enfin son exécution).
La limite de cette manière d’imiter la raison est qu’elle en reste au traitement des signes en étant totalement indifférente à leur contenu. L’ordinateur calcule sur des symboles, pour autant que la tâche est réductible à une procédure de calcul sur des symboles.
L’intelligence artificielle ne supprime pas cette limite, elle ne le peut pas puisqu’elle ne connaît pas. Mais elle la contourne en exploitant une autre manière d’imiter la raison. La solution consiste à utiliser le calcul non plus pour imiter le raisonnement humain mais pour mimer la production de signes. Un peu comme dans l’ordre animal, on passerait du singe qui sait compter au perroquet qui sait copier. Il s’agit de produire avec une machine des contenus intelligibles similaires aux contenus intelligibles produits par la raison.
Sans toucher à la structure fondamentale de l’ordinateur, ce nouvel objectif oblige à changer de logique. L’informatique traditionnelle applique une logique de résolution par les principes, tandis que l’intelligence artificielle applique une logique de résolution par la fin [10] . Cette réorientation emporte plusieurs conséquences. Tout d’abord, les formes universelles de la raison ne sont plus imitées par des variables mais par de grandes quantités d’exemples singuliers . L’IA a même besoin d’être entraînée sur de très grandes quantités de données pour devenir pertinente. Ensuite, le raisonnement n’est plus imité par une méthode fixe de calcul du résultat mais par une pragmatique des bonnes pratiques pour produire des contenus intelligibles utiles à partir des données. Enfin, l’homme ne supplée pas à ce qui échappe à l’ordinateur par une préparation mais par un apprentissage. Son travail ne consiste pas à décomposer la tâche en une table d’action figée que l’ordinateur appliquera aveuglément, mais à guider la machine dans la mise en place d’une pragmatique. C’est pourquoi une machine IA n’existe qu’au terme d’une phase d’apprentissage sous contrôle humain. Durant cette phase, il faut que tout ce qui est important pour nous soit rendu important dans la logique de la machine, et que toutes les récurrences dans les produits de notre pensée deviennent récurrentes dans les produits de la machine. Pour cette raison, l’intelligence humaine doit intervenir d’un bout à l’autre de la chaîne d’apprentissage, de telle sorte que, si la logique qui se met en place appartient totalement à la machine et repose totalement sur l’opération naturelle du flux électrique, tout le processus converge vers un contenu intelligible utile à l’homme. Voici un schéma simplifié de cette “irrigation” de l’opération du flux électrique (en rouge) par l’opération de l’intelligence humaine (en bleu) durant l’apprentissage (cf. fig. 4).
Figure 4. L’apprentissage, une irrigation de l’opération naturelle par l’intelligence humaine
VI. L’empreinte de la pensée dans les IA
De par leur constitution, les machines IA sont déroutantes. Si l’on prête attention à leur logique, celle qui a été fixée dans l’apprentissage et qu’elles utilisent pour produire du contenu, il est très difficile de comprendre ce qu’elles font, par quel chemin elles arrivent à ce résultat-ci plutôt qu’à ce résultat-là. Si maintenant on se tourne vers ce qu’elles produisent, le constat est à l’opposé. À condition que l’apprentissage ait été bien fait, les contenus produits par la machine imitent l’homme à s’y méprendre. Autrement dit, le résultat est un contenu intelligible, alors que le chemin pour le produire ne l’est pas, il n’appartient qu’à cette logique singulière fixée dans l’apprentissage. Pour prendre la mesure de la distance entre notre logique rationnelle et la pragmatique de la machine, voici l’exemple d’une voiture jaune telle qu’elle est reconnue par une machine IA utilisant la technique du DNN ( Deep Neural Network ) [11] . On voit comment progresse la représentation visuelle de la voiture à mesure qu’elle traverse les couches du réseau neuronal (cf. fig. 5).
figure 5. La pragmatique de la reconnaissance d’image par une machine IA
Au terme, la machine reconnaît comme nous la voiture jaune, mais en suivant une logique qui n’est clairement pas la nôtre.
Nous sommes ainsi conduits à trois remarques.
1. Ce qu’il y a de pensée est tiré de la pensée
Les résultats remarquables obtenus avec des machines IA accréditent l’illusion que ces dernières sont intelligentes, voire qu’elles inaugurent une sphère nouvelle de l’intelligence, autonome par rapport au monde des hommes. La tendance inverse se rencontre aussi. Certains minimisent l’originalité de leurs productions en les ramenant à une judicieuse utilisation des statistiques, à un mécanisme aveugle, ou à un mimétisme idiot. Ces deux opinions passent à côté de l’originalité de l’intelligence artificielle, qui est d’être parvenu à associer automatisme et pensée. L’automate n’est ni une nouvelle intelligence ni sans intelligence, mais tout ce qu’il y a en lui d’intelligence vient des intelligents.
Cela apparaît dans la manière dont on fabrique une IA, non pas sur une chaîne de montage en assemblant des organes informatiques, non pas en codant des programmes, mais en menant un processus d’apprentissage. L’apprentissage consiste à prendre un automate obéissant à la logique déterministe de l’opération naturelle, en l’occurrence celle du flux électrique, et à mettre chacune de ses composantes au service de l’intelligence. Par exemple, la tokenisation des données répond à une exigence de l’automate, celle de décomposer toutes les données en suites de signes de base, mais au lieu d’une décomposition aveugle les données qui sont introduites pour l’apprentissage sont découpées de manière à pouvoir faire ressortir l’intelligibilité qu’elles contiennent. De même, les algorithmes et les étapes du traitement répondent à l’exigence du calcul d’un résultat, mais ce calcul est orienté pour mettre en évidence les intelligibles ou les manières dont ils s’ordonnent et pour sélectionner ceux qui doivent être mis en avant. La rétropropagation permet quant à elle d’ajuster un processus machinique aux attentes mais aussi aux finesses d’une expression rationnelle.
L’association de l’automatisme et de la pensée se retrouve dans l’utilisation de la machine. Une requête est traitée par le calcul jusqu’à la production du résultat : cela appartient à la machine. Mais que cette requête appelle la réflexion, qu’elle soit traitée pour faire ressortir les éléments utiles à la réflexion, en exploitant les informations pertinentes sur lesquelles d’autres ont déjà réfléchi, et que le résultat présente une réponse utile sous la forme d’une composition synthétique et ordonnée, tout cela a été introduit dans la machine par l’intelligence humaine.
L’association de l’automatisme et de la pensée culmine dans les produits de la machine. Il n’y a pas à s’en étonner puisque, d’une part, elle est conçue pour cela et, d’autre part, tout effet produit à l’aide d’un instrument est l’unique effet de la cause principale et de son instrument .
Cette unicité de l’effet commun à l’automatisme et à la pensée nourrit tous les fantasmes, puisqu’on est tenté d’attribuer à la machine ce qui provient de la pensée. Comme si l’on décernait au pinceau ayant peint la Joconde le titre de peintre. L’erreur la plus commune sur l’intelligence artificielle procède de cette confusion. Elle consiste à comparer la machine IA avec l’intelligence humaine en comparant les produits de l’une avec les produits de l’autre. « — Vous voyez qu’elle fait aussi bien, et même mieux ! », s’exclame-t-on. C’est oublier qu’en comparant les effets on compare deux produits de l’intelligence humaine, dont l’un a été obtenu avec l’aide d’un instrument automate. Par exemple la comparaison d’un exposé rédigé par un étudiant avec l’exposé d’un autre étudiant rédigé par l’intelligence artificielle, n’est autre que la comparaison de ce qu’une intelligence a produit par elle-même avec ce que de nombreuses intelligences avaient produit et dont une machine IA (bâtie par des ingénieurs intelligents) a fait la synthèse. Si donc la comparaison renseigne sur quelque chose, ce sera seulement sur la qualité de l’instrument.
Il est de fait très difficile de discerner ce qui, dans l’effet unique, revient à chacune des causes. Pourtant, l’empreinte de la pensée et l’empreinte de la machine sont bien présentes dans l’effet produit. Une bonne manière de s’en rendre compte est de réinjecter dans la machine IA ses propres productions ou celles d’autres machines. L’empreinte de la machine dans les effets subséquents se trouve alors renforcée au détriment de l’empreinte de la pensée. Les distortions que l’automate fait subir aux pensées humaines deviennent alors plus manifestes. Une IA qui fonctionne de manière récursive devient rapidement monotone, pauvre en pensée, obsessionnelle, aberrante et, finalement, inutile [12]. Le mouvement exactement contraire arrive à l’homme qui se penche sur sa propre pensée ou sur celle de ses semblables. Il ne se stérilise pas comme l’IA, dans la mesure même où il ajoute la pensée à la pensée et progresse en connaissance (avec, toutefois, le risque de s’enfermer dans l’erreur).
2. Machine IA singulière et rationalité commune
Une machine IA est constituée par la logique qui a été figée au terme de son apprentissage. Cela signifie qu’un apprentissage différent fabrique une machine IA différente. Les machines IA sont donc individualisées par leur logique, en ce que chacune applique une pragmatique particulière aux requêtes qui lui sont adressées. Cette caractéristique découle directement du choix initial de faire une machine qui traite le contenu des signes. En effet, chaque contenu est singulier (par exemple des images de différents chiens, ou des articles de journaux) et la machine, privée de connaissance, n’a pas la capacité de connaître l’universel qui se trouve dans ce singulier. Pour pallier cette incapacité, on doit recourir à des généralisations (ce qui oblige à rassembler de grandes quantités de données) et à des techniques complexes de traitement qui seront modulées durant l’apprentissage pour produire de bons résultats. En sorte que chaque machine IA ayant fait l’objet d’un apprentissage particulier est figée dans une pragmatique qui n’appartient qu’à elle. Elle applique sa recette d’intelligence artificielle, toujours la même. C’est pourquoi une machine IA n’apprend pas, car tout nouvel apprentissage produit une nouvelle machine IA (ce n’est pas l’IA qui fait son apprentissage, c’est l’apprentissage qui fait la machine IA).
La singularité de chaque machine IA contraste avec l’universalité de la raison humaine. L’activité de la raison consiste en effet dans une connaissance des formes universelles qui n’est ni le symbolisme abstrait de l’informatique traditionnelle ni la généralisation du concret de l’intelligence artificielle. De sorte que la logique rationnelle est elle-même universelle, elle se retrouve dans tout individu de nature humaine qui pense droitement, elle est enseignable d’un homme à un autre, elle permet de se comprendre et de communiquer, de s’approuver et de se réfuter. Au contraire, les machines IA ne sont pas faites pour communiquer leur logique ou, plus exactement, leur logique interne est ce que l’on ne veut pas voir apparaître dans leurs réponses tant elle n’a de sens que pour cette machine particulière.
Parmi les mythes entourant l’intelligence artificielle se trouve l’idée qu’à force de perfectionnement, des machines IA, devenues super-intelligentes, se mettraient à développer un sens moral, une conscience d’elles-mêmes et atteindrait ainsi une « singularité » personnelle [13] . En réalité, la singularité n’est pas une perfection de la machine IA, bien au contraire. Elle est déjà singulière par sa logique même et cette singularité est la rançon directe de son incapacité à accéder à l’universalité de la raison humaine. Plus une machine IA est perfectionnée pour mieux imiter les produits de la raison humaine, plus sa logique devient incommunicable et se trouve enfermée dans sa singularité.
3. Machine IA singulière et technologies communes
En raison de ce qui vient d’être dit, il est nécessaire d’insister sur la différence entre une machine IA et ce qu’on appelle “l’intelligence artificielle”. La première est toujours singulière, on vient de le montrer. La seconde peut servir à désigner un domaine technologique, une œuvre commune de la raison humaine, qui rassemble une multitude de techniques, de connaissances scientifiques, et d’expériences dans l’art de faire des machines. Il existe donc soit des intelligences artificielles singulières, soit une technologie qui porte ce nom, mais « l’intelligence artificielle », au singulier, n’existe pas et n’existera pas. La situation s’inverse avec la raison humaine. Plus on considère la raison en chaque homme, plus on découvre « la raison humaine », qui est une par son essence bien qu’elle existe en une multiplicité d’individus humains. De même n’y a-t-il pas « d’avènement de l’intelligence artificielle », car la multiplication des machines IA n’engendre aucune unification mais elle fait croître la diversité des logiques singulières.
Conclusions
Nos réflexions nous conduisent à deux conclusions.
D’une part l’activité des machines IA est et sera toujours étrangère à la connaissance parce que cette activité repose de bout en bout sur une opération naturelle invariante (ad unum). Par sa conception même, elle interdit toute pensée.
Mais, d’autre part, par sa conception même, l’activité des machines IA est tout entière consacrée à l’imitation d’un aspect de l’activité intellectuelle.
À la différence de l’informatique traditionnelle qui imite la raison en manipulant des objets, la machine IA imite uniquement la production de contenus intelligibles.
Elle le fait de manière efficace pour autant 1) que de très nombreux produits de l’intelligence humaine lui sont donnés pour modèle, et 2) que l’intelligence humaine a judicieusement contrôlé la fixation d’une pragmatique, par laquelle est constituée une machine IA singulière.
fr. Emmanuel Perrier, op
[1] Dans ce qui suit, nous appellerons « intelligence artificielle » la technologie, et « machine IA » ou « une IA » l’instance singulière qui utilise cette technologie.
[2] Le test proposé en 1950 par Alan M. Turing pour vérifier si « une machine pense » a accoutumé les esprits à imaginer cette situation, en détournant leur attention de la question préalable : à quoi reconnaît-on la pensée ?
[3] Pour ceux que cette affirmation surprendrait, deux avertissements trouvent ici leur place. 1) L’électronique et l’informatique sont deux sciences distinctes, et chacune peut se permettre d’ignorer l’autre dans une certaine mesure. Il est en revanche faux de considérer que l’informatique est totalement indépendante de l’électronique, sous prétexte qu’on peut utiliser autre chose qu’un flux électrique pour faire des ordinateurs. C’est là une illusion de mathématicien ou de logicien. Dès lors qu’on veut réaliser une machine réelle, il faut une opération naturelle, et la machine informatique devra s’adapter aux vertus et contraintes de l’opération naturelle choisie. L’informatique est dépendante du flux électrique non pas en tant qu’elle dépend des électrons mais en tant qu’elle a besoin d’une opération naturelle. C’est pourquoi, lorsqu’on aborde des questions philosophiques comme la comparaison entre l’intelligence humaine et l’intelligence artificielle, qui ne sont pas des abstractions mais des réalités et qui impliquent de ce fait des opérations naturelles, cette dépendance devient essentielle. Ceci apparaîtra mieux plus loin. 2) Nous essayerons de préserver la rigueur des notions utilisées dans ces deux domaines autant qu’il est possible, mais notre propos philosophique nous obligera parfois à éclairer ces notions sous un autre angle et donc à les nommer d’une manière un peu différente.
[5] On peut donc envisager des ordinateurs obéissant à une autre logique en utilisant une autre opération naturelle, comme par exemple la projection d’une particule élémentaire dans des états mesurables. Mais quoi qu’il en soit, dès lors que l’opération naturelle est invariante, elle imposera à l’ordinateur une logique caractéristique d’un corps, c’est-à-dire étrangère à toute connaissance.
[6] A. M. Turing, « On Computable Numbers, With an Application to the Entscheidungsproblem », Proceedings of the London Mathematical Society, 2e série, 42 (1937), p. 230-265. Parmi les nombreuses présentations de la Machine de Turing dans la perspective de l’intelligence artificielle, on pourra lire Philippe-André Holzer, « Que penser de l’intelligence artificielle ? », Nova et Vetera 98 (2023), p. 53-96.
[7] L’automate et le vivant ont en commun d’avoir en eux le principe de leur mouvement et donc de se mouvoir eux-mêmes. Mais ils diffèrent en ce que le vivant se meut par lui-même, tandis que l’automate se meut exclusivement par une partie de lui-même. Sur ce point, voir l’article précédent.
[8] Cette analogie a été brillamment développée par le physicien R. P. Feynman, dans sa « Computer Science Lecture » du 26 septembre 1985, à l’Esalen Institute, disponible sur internet.
[9] Si Turing soulignait volontiers que le modèle théorique de sa machine était agnostique à l’égard de sa réalisation concrète, il se révèle en revanche étonnamment peu sensible au fait que son modèle théorique soit bien mieux adapté aux opérations corporelles qu’à la pensée humaine. Cf. A. M. Turing, « Computing Machinery and Intelligence », Mind 49 (1950), p. 433-460, spécialement p. 436s. À sa décharge, Turing ne faisait que prendre part à la dérive formaliste de la logique depuis un siècle.
[11] Image tirée de Marc Rameaux, « Comment l’IA nous ouvre à de nouvelles représentations du monde : les variables cachées du deep learning », European Scientist, 29 août 2022, accessible sur https://www.europeanscientist.com/fr/opinion/comment-lia-nous-ouvre-a-de-nouvelles-representations-du-monde-les-variables-cachees-du-deep-learning/ .
[12] Pour l’exemple des modèles générateurs de langage (LLM), cf. Ilia Shumailov et alii, « AI models collapse when trained on recursively generated data », Nature 631 (2024), p. 755-759.
[13] Pour une réflexion argumentée sur ce point, cf. David Chalmers, « The Singularity: A Philosophical Analysis », Journal of Consciousness Studies, 17 (2010), p. 7-65.
L’Intelligence Artificielle est aujourd’hui une importante question de société. On ne compte plus les publications à ce sujet, que ce soit dans la littérature scientifique ou parmi les ouvrages à destination du grand public. Devant cet engouement, la Revue thomiste en ligne propose une contribution en plusieurs articles. Celle-ci s’appuiera sur la philosophie de l’homme de Thomas d’Aquin afin de démêler une expression qui semble équivoque, celle d’« intelligence artificielle ».
Le rêve de l’Intelligence Artificielle (G.-M. Grange)
Il existe un rêve de l’Intelligence Artificielle qui s’observe à deux niveaux. Au niveau le plus apparent, mais aussi le plus superficiel, ce rêve s’observe dans les débats publics. En témoigne le nombre impressionnant de films consacrés à la peur d’une Intelligence créée par l’homme et dont l’humanité perdrait le contrôle. Le langage cinématographique se prête en effet particulièrement à un jeu émotionnel sur le destin de notre humanité.
Stanley Kubrick, dans 2001 : l’Odyssée de l’espace(1986), met en scène un superordinateur, HAL, programmé pour mener à bien la mission coûte que coûte, et qui prend le contrôle d’un vaisseau spatial pour éviter que les astronautes ne le débranchent. De même, dans le film Terminator de James Cameron (1984), le système Skynet prend le contrôle des armes et cherche à exterminer l’humanité au profit des machines.
Dans une version plus rassurante, le film Herde Spike Jonze (2013) décrit comment une Intelligence Artificielle réussit à réconcilier avec la vie un homme qui vient de se séparer de sa femme. L’IA joue le rôle d’une personne à l’écoute qui aide le personnage principal à retrouver une vie pleinement sociale. Néanmoins, les IA prennent finalement leur indépendance et stoppent leur collaboration avec l’humanité.
Ces frayeurs ne se cantonnent pas à la sphère du cinquième art et elles innervent le débat public. Stephen Hawking a déclaré en 2014 que « l’IA pouvait signifier la fin de l’espèce humaine », car les hommes seraient incapables de rivaliser avec cette intelligence artificielle. De même, Elon Musk affirmait en 2022 sur X que ChatGPT était effroyablement bon et que nous n’étions pas loin d’une IA dangereusement forte[1]. Pour Ray Kurzweil, apôtre de la fusion homme-machine qu’il nomme la singularité, l’avènement de l’IA montre que la singularité est plus proche que prévu, selon le titre de son dernier livre paru en juin 2024[2]. Selon ses prédictions, l’IA sera au niveau de l’intelligence humaine en 2029 et la fusion homme-machine aura lieu en 2045.
Le rêve de l’Intelligence Artificielle est également présent à un niveau plus fondamental, celui de la recherche scientifique. L’article fondateur d’Alan Turing en 1947 envisage la possibilité d’une machine intelligente et propose un test, le test de Turing, pour reconnaître son existence. En 1956, la conférence de Dartmouth est l’acte de naissance du domaine appelé désormais « intelligence artificielle », selon la formule de John McCarthy, présent lors de ce colloque. Selon les chercheurs qui s’y rassemblent : « Une tentative sera faite pour trouver comment faire en sorte que les machines utilisent le langage, résolvent des types de problèmes jusqu’ici réservés aux humains, et s’améliorent. » Cela crée une vague d’enthousiasme dans les années 1950 et 1960, enthousiasme qui va se tarir devant les difficultés rencontrées. La recherche s’essouffle, engendrant une période d’« hiver » de l’IA[3]. Les découvertes fondées sur l’IA connexionniste ont engendré une nouvelle période d’enthousiasme, c’est-à-dire un nouvel « été ». L’Intelligence Artificielle est donc un domaine soumis à la régularité des saisons, et il y a fort à craindre (ou à espérer ?) qu’il suive le rythme normal des saisons, et que l’été soit à nouveau suivi d’un hiver.
Il existe donc un rêve de l’Intelligence Artificielle. Pour échapper aux passions et circonscrire ce qui est en jeu, John Searle a proposé de distinguer l’IA forte (ou générale) et l’IA « faible »[4]. L’IA existante est une IA faible, c’est-à-dire dédiée à des tâches spécialisées et dénuée de toute émotion et de toute conscience : reconnaissance d’images, génération de textes, compétitions d’échecs ou de go.
Au contraire, l’IA forte serait une IA dotée des mêmes capacités intellectuelles que l’homme. Celle-ci n’existe pas à l’heure actuelle. Antoine Bordes, chercheur chez Facebook, disait que « pour faire des machines vraiment intelligentes, […] nous n’avons même pas les ingrédients de la recette[5]. » Est-ce qu’elle pourrait exister ? C’est ce problème que ces articles voudraient démêler.
La question revêt plusieurs enjeux. Le premier est celui de la nature de l’intelligence. Daniel Andler a publié récemment un ouvrage intitulé : Intelligence artificielle, intelligence humaine : la double énigme (2023). En effet, la recherche d’une intelligence artificielle, que cette quête soit pleinement justifiée ou non, oblige à s’interroger sur la nature de l’intelligence humaine. Les algorithmes de génération de langage comme ChatGPT sont sans doute les outils qui posent la question de la manière la plus aigüe puisque le langage est chez l’homme l’expression directe de son intelligence. L’Intelligence Artificielle réfléchit-elle ? Est-elle douée d’intentionnalité ? Ces questions sont au cœur des réflexions contemporaines sur l’IA[6].
Le deuxième enjeu est éthique. Pour prendre de bonnes décisions sur l’usage de l’IA, il est nécessaire de comprendre sa nature. Les prises de conscience récentes de la nécessité d’une réglementation de l’Intelligence Artificielle sont le signe qu’une réflexion à ce sujet est indispensable. Avant d’être juridique, celle-ci doit être morale. La philosophie de la technique du XXe siècle nous a fait comprendre que l’homme était façonné par son outil. L’IA est-elle un outil moralement acceptable malgré ses dangers ? Son utilisation par chacun de nous et dans la société tout entière est-elle bonne pour l’humanité ? La nouveauté de cette technologie suscite un grand nombre de questions.
L’enjeu est enfin théologique. Dans l’Écriture sainte, c’est l’idolâtre qui donne un visage humain à ce qui n’en a pas, car il se façonne un dieu à son image. L’Ancien Testament appelle sans cesse à se détourner des idoles, « qui ont des yeux et ne voient pas, des oreilles et n’entendent pas » (Ps 115, 5-6). La formule peut être transposée à l’IA : elle reconnait des formes mais ne les voit pas, elle exécute des tâches mais ne les comprend pas. Derrière le rêve de l’IA, se profile d’une part une interrogation sur le rapport de l’homme à sa propre humanité comme image de Dieu : n’y a-t-il pas un danger spirituel à se façonner un quasi-humain ? D’autre part, l’IA met en question le rapport de l’homme à Dieu : le seul être qui puisse tout faire (omnipotens) est Dieu. L’idolâtre cherche indûment dans une œuvre qui sort de ses mains la connaissance totale et universelle qui revient à Dieu seul. Il la consulte comme un oracle. Derrière les enjeux technologiques et philosophiques se cachent donc des enjeux humains et religieux.
Démystifier l'Intelligence artificielle, avec Antoine Lorentz, data scientist.
L'IA, un automate de l'intelligence (E. Perrier)
L’étrange association
L’expression Intelligence artificielle associe deux termes qui s’accordent mal. D’un côté, l’intelligence ne désigne pas seulement une fonction (comme un capteur ou un ordinateur), ni seulement une faculté (comme la capacité à traiter de l’information), mais une activité naturelle vitale. D’un autre côté, l’adjectif artificiel qualifie un produit de l’art, un artéfact. “Artificiel” s’oppose alors à “naturel” comme la voiture par rapport au cheval ou la lampe par rapport au soleil. Dans ces conditions, comment une intelligence, activité naturelle vitale, pourrait-elle être en même temps artificielle, un produit de l’art humain ?
Face à l’incompatibilité entre nature et artéfact, il devient nécessaire de distinguer deux senspossibles de l’expression Intelligence artificielle :
« Intelligence artificielle » au sens plénier. On pourrait d’abord entendre cette expression au sens le plus fort, celui où l’homme parviendrait à produire une véritable intelligence. Par son ingéniosité, il aurait réussi ou devrait réussir à combler l’espace entre l’artéfact et la nature, à littéralement fabriquer une chose naturelle, et même mieux, une intelligence. Au moins deux objections surgissent alors.
En premier lieu, l’intelligence est l’activité vitale la plus élevée que nous connaissions dans l’échelle des réalités de la nature. Même ceux qui n’y voient qu’un simple degré de l’évolution du vivant s’accordent à le reconnaître. L’intelligence se place au-dessus des activités purement corporelles, au-dessus des activités végétatives, au-dessus des activités caractéristiques des animaux. Par conséquent, si nous savions produire une véritable intelligence artificielle, notre artéfact serait placé au sommet de l’échelle de la vie. Or dans l’ordre des productions, il faut savoir produire ce qui est inférieur pour pouvoir produire ce qui est supérieur. Avant de prétendre produire une intelligence, peut-être faudrait-il déjà arriver à produire ne serait-ce qu’une cellule vivante.
En second lieu, si nous étions capables de produire une intelligence identique à la nôtre, alors notre intelligence appartiendrait au même genre de réalités que ce que nous produisons grâce à elle, à savoir le genre des artéfacts. Car là où deux réalités sont identiques, il faut bien qu’elles soient constituées de la même façon. Les diamants de synthèse, par exemple, sont pour l’essentiel identiques aux diamants naturels parce que les uns et les autres sont constitués au terme d’un processus de cristallisation. Or notre intelligence n’est manifestement pas un artéfact. D’une part, elle n’en a pas le caractère matériel, composite, modulaire, inerte, déterministe, corruptible par parties, etc. Pour le dire d’un mot, il y a entre les “intelligences artificielles” et notre intelligence la distance de la substance la plus construite à la substance la moins construite ou, plus exactement, la plus simple de notre monde[7]. D’autre part, notre expérience de la production des artéfacts est qu’elle requiert d’y mettre de la réflexion. Il faut que l’intelligence développe un art de l’artéfact à faire. Pour produire une “intelligence artificielle” il est donc nécessaire de développer un art de l’intelligence artificielle. De ce fait, il y aura toujours cette différence entre l’intelligence véritable et un artéfact intelligent que la première développe l’art qui sert à faire le second[8]. A contrario, puisque l’intelligence artificielle est différente de notre intelligence par sa constitution même, elle ne mérite pas au sens plénier le nom d’intelligence.
« Intelligence artificielle » au sens large. À défaut de sens plénier, l’expression peut s’entendre d’une autre manière, où l’on parle d’intelligence en raison d’une certaine ressemblance avec notre intelligence. De même que la mémoire d’un ordinateur tire son nom de la ressemblance avec notre mémoire, de même existerait-il une technologie informatique qui mériterait d’être appelée intelligence en raison de sa ressemblance avec notre intelligence. Il ne s’agirait donc en rien de franchir la distance entre artéfact et nature, de rapprocher l’ordinateur de notre intelligence, mais de faire du ressemblant. De fait, le projet consistant à fabriquer un objet ressemblant au vivant est beaucoup plus accessible et peut se recommander d’une longue expérience, celle des automates.
L’automate : entre objet inerte et vivant
Le terme automate est fort ancien. On le trouve chez Homère, lorsqu’il décrit les portes de l’Olympe qui s’ouvrent d’elles-mêmes (αὐτόμαται δὲ πύλαι μύκον οὐρανοῦ, Illiade, 5.749) et il se répand dans la littérature grecque pour désigner un mouvement qui a la ressemblance du vivant par sa spontanéité, en ce qu’il semble ne pas avoir été provoqué de l’extérieur (à la manière dont les marionnettes semblent se mouvoir elles-mêmes). Dans notre langue, Rabelais en fournit une judicieuse définition, héritée des discussions médiévales :
« petitz engins automates, c'est a dyre soy movens eulx mesmes » (Gargantua (1535), I, 22)
À titre d’exemple, pensons au petit singe automate tapant sur un tambour qui a réjoui des générations d’enfants (cf. fig. 1). S’il les fascinait, c’était en raison de sa plus grande ressemblance avec le vrai singe que l’habituel singe en peluche, précisément en ce qu’il se meut lui-même comme le font les vivants.
Fig 1 : objet inerte / automate / vivant
L’automate et le principe du mouvement
Concentrons notre attention sur la propriété de l’automate. Pour se mouvoir soi-même, il faut avoir en soi le principe de son mouvement, ce qu’on appelle le moteur. Nos trois variétés de singes diffèrent quant à leur moteur.
Le singe en peluche est complètement passif. Pour qu’il batte un tambourin, il faut lui saisir les bras et les agiter. Autrement dit, chez le singe en peluche, il n’y a d’autre moteur que celui qui exerce sa force de l’extérieur (cf. fig. 2).
Fig. 2 : L’objet inerte est seulement mû par un moteur extérieur
L’innovation apportée par l’automate consiste à insérer un moteur à l’intérieur du singe, par exemple un ressort que l’on remonte et qui, en se détendant, entraîne des rouages et des tiges agitant les bras. Le singe automate n’a plus besoin d’être immédiatement mû par un moteur extérieur, il a seulement besoin que son moteur intérieur soit remonté pour se mouvoir lui-même. Tout le mouvement de l’automate dépend donc de l’activité d’une de ses parties, le ressort-moteur : la partie motrice meut les parties passives (cf. fig. 3).
Fig. 3 : L’automate se meut lui-même par un moteur intérieur
Si le singe vivant se meut aussi lui-même, on ne saurait pourtant le confondre avec l’automate. Dans le singe vivant, il n’y a pas de partie motrice qui dépende d’un agent extérieur. Chaque partie de son corps est motrice d’une autre, tout en étant mue par un principe premier de mouvement qui se trouve dans le singe. C’est pourquoi on doit poser qu’il y a un moteur interne (puisque le singe se meut lui-même), et en même temps que ce moteur est distinct de tout le corps du singe (puisque toute partie du corps est mue). Ce que l’on appelle une âme. De sorte que le singe vivant ne se meut pas seulement lui-même, il se meut par lui-même là où l’automate se meut par une partie de lui-même (cf. fig. 4).
Fig. 4 : le vivant se meut par lui-même, son corps étant mû par son âme
Ainsi le singe automate ressemble-t-il plutôt au singe en peluche, à ceci près que le moteur a été placé à l’intérieur. Toutefois, quant au mouvement, le singe automate ressemble plutôt au singe vivant, à ceci près qu’il n’a pas d’âme pour l’animer.
L’automate comparé au vivant
Nous venons de mettre en évidence un grand principe de compréhension des automates : ils n’ont rien de vivant en eux-mêmes, mais ils ressemblent au vivant dans leur mouvement, dans ce qu’ils font. La ressemblance d’un automate avec le vivant se prend toujours de l’opération, et de l’opération seulement.
D’un côté il y a entre l’automate et le vivant une différence de nature. L’automate est une machine. Une machine est un système de sous-ensembles organisés pour fonctionner de concert en étant asservis à un moteur. L’automate représente une forme améliorée de machine par l’intégration de la fonction motrice, qui libère de l’asservissement à un moteur extérieur. Or cette amélioration, si elle ajoute à la machine, ne change pas sa nature. Machine il est, machine il demeure. Le vivant au contraire est une seule réalité avec son principe de mouvement. L’âme n’est pas une amélioration pour le vivant, elle est une condition de son existence et si le vivant la perd, il meurt et se corrompt. Autrement dit, l’unité entre le vivant et son principe de mouvement est substantielle.
D’un autre côté, il y a une ressemblance dans la manière d’être porté à l’opération : l’automate se meut lui-même comme le vivant, bien que selon sa nature il ne soit pas un vivant.
« Est appelé vivant tout ce qui s’agit au mouvement ou à quelque opération. Mais ce dont la nature n’est pas de cette sorte ne peut être appelé vivant sinon par une certaine similitude. » (Thomas d’Aquin, Sum. theol., Ia, q. 18, a. 1)
Ainsi, de même que le singe automate n’est pas un vivant mais ressemble au vivant en se mouvant lui-même, de même l’intelligence artificielle n’est pas une intelligence, mais elle ressemble à une intelligence en se mouvant elle-même : on lui envoie une requête, et elle produit d’elle-même une réponse qui ressemble à la réponse d’une intelligence vivante.
Ce point est essentiel : en raison de la ressemblance d’opération, l’intelligence artificielle et l’intelligence humaine offrent des points de comparaison et peuvent être mises en concurrence quant à la production de résultats ; mais en raison de leur différence de nature, l’intelligence artificielle et l’intelligence humaine n’ont rien à voir quant à ce qui les constitue.
L’Intelligence artificielle est une machine
La grande réussite technologique de l’intelligence artificielle a été d’élaborer une machine capable d’imiter l’opération intelligente. Si l’IA est fondamentalement une machine, elle est une machine sophistiquée ayant une application très spécifique. Pour mieux cerner la complexité et la spécificité de la machine IA, commençons par une machine simple.
Prenons l’exemple d’un motoculteur. Sommairement, le motoculteur est un système de trois sous-ensembles : un moteur thermique et sa transmission, une unité de lames autour d’un axe rotatif, un guidon de commandes et de direction. Le système sert à travailler la terre, c’est-à-dire qu’il opère sur une réalité corporelle, sur une chose. Notons enfin que l’automatisme est limité à la rotation des lames, car le motoculteur a besoin d’être guidé par l’homme en prise directe durant toute la durée d’usage de la machine.
Travailler la terre (opération sur une chose)
Moteur thermique
Guidé en prise directe et continue par l’homme
Avec l’ordinateur, la machine change de fonction, elle n’opère plus sur une chose mais sur de l’information. Un ordinateur traite automatiquement des signes. Pour ce faire, il y a encore besoin d’un moteur matériel, car une machine est intrinsèquement liée au monde des corps. Mais ce moteur matériel, un processeur, est le support d’un moteur logiciel consistant en des instructions de traitement de signes. En conséquence, l’ordinateur doit d’abord être programmé par des ingénieurs, pour que l’utilisateur puisse accomplir des tâches en exécutant les programmes.
Traitement de signes (porteurs d’une information)
Moteur matériel ET logiciel (processeur / jeux d’instructions et programmes)
Exécution de programmes sous guidage humain
Avec l’IA une nouvelle tâche est assignée à la machine. On lui demande d’exécuter des opérations non sur les signes mais sur le contenu des signes. Pour ce faire, il faut ajouter un troisième étage de moteur, au-dessus du processeur et des programmes, que l’on peut appeler une logique singulière (nous allons voir pourquoi). Ce moteur est constitué par les ingénieurs au travers d’une phase dite d’apprentissage, de telle sorte que la machine soit capable de produire d’elle-même une réponse à la requête de l’utilisateur.
Traitement de contenu (le sens des signes)
Moteur matériel ET logiciel ET une logique singulière (constituée par apprentissage)
Production d’une réponse sans autre guidage humain que la requête
L’IA ne quitte en rien le domaine des artéfacts. L’IA a la nature d’une machine, elle n’a rien de la nature d’un vivant et encore moins d’une intelligence. Et cependant, elle est capable de traiter et de produire des contenus intelligibles toute seule, orientée seulement par les requêtes de l’utilisateur. L’IA ressemble alors à l’intelligence humaine en ce qu’elle produit des contenus intelligibles, tout en différant de l’intelligence humaine comme l’automate diffère du vivant : la production automatisée de contenus intelligibles est machinique par son principe même.
Une logique pour l’IA
Comment est-il possible d’opérer sur des contenus intelligibles sans être intelligent ? Nous aurons l’occasion de revenir dans l’article suivant sur la manière dont ce défi technologique a été relevé. Ce qui nous importe pour l’instant est de comprendre la spécificité d’une machine ayant cette capacité par rapport aux autres machines. Pour ce faire, il faut remarquer trois choses.
La première est qu’il n’est pas nécessaire d’être intelligent pour produire du contenu intelligible, il suffit que le contenu produit soit intelligible pour quelqu’un d’intelligent. Par exemple, il n’est pas nécessaire que le perroquet comprenne ce qu’il parle pour que ce qu’il parle ait du sens, il suffit qu’un homme puisse comprendre ce que le perroquet dit. De même, on ne demande pas à la machine de penser, mais seulement de produire du contenu qui soit intelligible par l’utilisateur de la machine. Autrement dit, c’est le résultat qui compte, pas la manière dont il a été obtenu. Comme pour toute machine, c’est à la qualité ou à l’utilité de ce qu’elle fait que l’on mesure la qualité ou l’utilité d’une IA.
Une deuxième remarque en découle. Pour que la machine puisse produire du contenu intelligible il lui faut obéir à une logique. La production d’un tel contenu ne peut en effet être aléatoire, car ce qui est produit aléatoirement échappe à toute logique alors qu’un contenu intelligible est forcément logique. Pour autant, il n’est pas nécessaire que la machine obéisse à une logique rationnelle puisque la machine n’a pas à penser. Il suffit que la machine obéisse à une logique adaptée à la production de contenu intelligible. De même le perroquet de notre exemple obéit à sa propre logique animale (basée sur la connaissance sensible), alors qu’il parle des contenus obéissant à une logique rationnelle. Sa logique animale est nécessaire, et elle suffit dans une certaine mesure.
Cela conduit à une troisième remarque. La logique d’une machine est de soi celle du mécanisme, de l’enchaînement d’actions ad unum, où chaque action est déterminée à produire un seul type d’effet. C’est ce qui en fait l’intérêt (le résultat produit est prévisible et reproductible) autant que la limite : parce que la machine ne sait faire que ce qu’on l’a déterminée à faire, son champ d’application est borné aux réalités adaptées à sa fonction. Au-delà de son domaine utile, elle est inadaptée. Par exemple, la logique du motoculteur tient dans la rotation d’une lame avançant dans un terrain meuble. Le motoculteur s’avère donc inadapté pour tailler des arbres ou philosopher. De même la logique classique des ordinateurs a pour domaine utile la manipulation de signes, à condition que les variables initiales ainsi que les séquences d’instructions soient en nombre limité. Or une telle logique est inadaptée à l’IA, qui opère sur le contenu des signes. Ces contenus ne sont pas prédéfinis, leur comparaison peut se faire sur des variables innombrables, leur manipulation est infiniment complexe, et par-dessus tout cela les requêtes sont inconnues à l’avance, alors qu’il faut produire des résultats toujours pertinents (c’est à cette condition que l’IA ressemble à l’intelligence).
L’IA impose donc un changement de paradigme et une autre logique. Pour comprendre ce changement, il faut se rappeler qu’il y a deux manières de conduire un agent à accomplir une tâche : soit il est d’abord instruit de la théorie avant d’avoir à la mettre en application, soit il est immergé dans la pratique et apprend “sur le tas”, par l’expérience, avant de mettre à profit son expérience. L’une et l’autre sont transposables dans la constitution d’une machine moyennant des adaptations.
Le paradigme de l’informatique classique (ou plus précisément de l'IA symbolique) correspond à la première voie, celle où la théorie dirige l’action. En amont, l’ingénieur résout toutes les situations du domaine utile de la machine, en établissant les séquences d’instructions conduisant au résultat voulu. Il fige alors le catalogue des procédures dans un programme, qui sera la logique de l’ordinateur lors de l’exécution. La machine est ainsi constituée par la fixation de ce qu’on peut appeler une logique de résolution par les principes.
Le paradigme propre à l’IA connexionniste correspond à la seconde voie, celle où par l’expérience on apprend à bien agir[9]. En amont le travail de l’ingénieur consiste à optimiser une pragmatique, c’est-à-dire à tester en situation un schéma d’action pour évaluer le contenu intelligible qu’il produit, puis à le modifier légèrement pour voir si le résultat est meilleur, et ainsi de suite jusqu’à ce que le résultat soit jugé satisfaisant. Le schéma d’action ainsi établi par apprentissage est alors figé, et c’est lui qui servira de logique à l’ordinateur pour traiter n’importe quelle situation qu’on lui présentera. La machine est donc constituée par la fixation de ce qu’on peut appeler une logique de résolution par la fin (ou par le résultat).
La différence la plus remarquable entre les deux voies est la suivante. Une logique de résolution par les principes marche pour autant qu’on sait exactement ce qu’elle fait et pourquoi cela doit marcher. Au contraire, avec une logique de résolution par la fin, il n’est pas nécessaire de savoir ce qu’elle fait et pourquoi cela devrait marcher pour qu’elle marche. Dans le premier cas, c’est parce qu’on a tiré toutes les conséquences des principes, sans se tromper et sans rien oublier, que la logique est fonctionnelle. Dans le second, c’est parce qu’on a développé une expérience des bonnes recettes, des pragmatiques qui donnent de bons résultats, que la logique est fonctionnelle.
La constitution de la machine IA
Nous venons de voir que, pour produire des contenus intelligibles avec une machine, il faut que la machine obéisse à une logique de résolution par la fin, fixée au terme d’un apprentissage.Deux caractéristiques fondamentales doivent être soulignées : 1/ la logique de l’IA est non-rationnelle par construction ; 2/ par sa constitution, chaque machine IA est une logique singulière.
Pour le comprendre, prenons l’analogie de l’apprentissage de la marche chez l’enfant. Il s’agit d’un apprentissage très complexe, demandant l’intégration de nombreuses données : mouvement des membres, stabilité au sol, équilibre des masses autour du centre de gravité, contrôle par l’oreille interne, maîtrise du déplacement. Toutes ces données doivent être traitées et consolidées à la volée, les réactions doivent être actualisées et rectifiées en temps réel, de telle sorte que l’enfant parvienne à avancer de manière assurée, souple et continue, quelles que soient les conditions du terrain (déclivité, inégalité du sol, adhérence fluctuante, etc.) ou les circonstances (avec ou sans chargement, en modifiant l’attention depuis les pieds jusqu’à l’environnement proche ou lointain, etc.).
Dans l’apprentissage de la marche, deux intelligences interviennent, celle de l’enfant qui est stimulé à diriger ses pas et celle des parents qui le guident, le conseillent et l’encouragent. De ce point de vue, les parents peuvent aider l’enfant en lui communiquant quelques procédures relevant d’une logique de résolution par les principes : « commence par trouver ton équilibre », « lève d’abord la jambe gauche », « garde les bras le long du corps », « si le sol monte lève plus haut la jambe », etc. Mais cette logique trouve très rapidement ses limites car il n’est pas question d’apprendre à l’enfant les théorèmes de physique, de mécanique ou de mathématique auxquels le mouvement devrait obéir pour faire ne serait-ce qu’un seul pas.
En réalité, l’apprentissage de la marche ne requiert aucunement que l’enfant comprenne tout ce qu’il fait et pourquoi il doit le faire, car c’est au niveau neurologique que la marche est résolue, de telle sorte que l’enfant n’aie même plus à réfléchir à ce qu’il doit faire pour marcher. La logique de résolution par la fin s’impose d’elle-même : certes, le résultat doit être intelligible et obéir à une logique rationnelle (pour que l’enfant soit maître de ses déplacements), mais ce résultat est atteint par la mise en place de schémas neurologiques de résolution de la marche qui obéissent à une logique non-rationnelle, celle des connexions neuronales intégrant toutes les variables de la marche.
Dès lors, savoir marcher doit être précédé par une phase d’apprentissage. On répète l’exercice dans des conditions simplifiées, la mère se place devant pour guider l’enfant. Elle donne peu d’instructions, l’essentiel de son intervention est de stimuler, d’encourager, pour que l’enfant force son cerveau à mettre en place sa propre logique de résolution vers la fin, qui est de rejoindre la mère.
Fig. 5 : Contrôle par l’intelligence et Résolutions neurologiques
Ce qui apparaît alors est que la logique mise en place lors de l’apprentissage est singulière : non seulement elle n’est pas rationnelle puisqu’elle est proprement une neuro-logique, mais elle est absolument unique à cet enfant, ayant appris dans telles conditions, ayant rencontré telles difficultés, ayant intégré telle variable avant telle autre dans ses schémas de résolution. De telle sorte que si les démarches possèdent de grandes similitudes entre les hommes, si elles fonctionnent avec les mêmes recettes, avec des pragmatiques homogènes, elles sont le produit en chacun d’une logique qui n’appartient qu’à lui. Au niveau neurologique, il y a autant de logiques de résolution de la marche qu’il y a eu d’apprentissages.
De même en va-t-il pour l’IA. Une machine IA est constituée par un apprentissage, afin de fixer une logique de résolution vers la fin, non-rationnelle et singulière. L’apprentissage vise à mettre en place des schémas de résolution conduisant à un résultat qui satisfasse les ingénieurs. L’intelligence humaine intervient pour sélectionner, valider, renforcer, les meilleurs schémas. C’est cette logique singulière telle qu’elle a été fixée dans les conditions d’apprentissage, qui est le moteur de l’IA. C’est elle qui sera ensuite mise en exploitation pour produire des contenus intelligibles en réponse aux requête qu’on lui adressera.
Fig. 6 : Contrôle par l’intelligence et Résolutions algorithmiques
Conclusion
Faisons le bilan de notre enquête. Nous avons établi qu’une IA est
une machine (un artéfact et non un vivant),
automate de l’intelligence (ressemblant à l’intelligence seulement quant à l’opération),
consistant en une logique de résolution vers une fin (et non de résolution par les principes),
visant à produire des contenus intelligibles par les hommes (sans avoir à penser),
fixée par apprentissage sous contrôle de l’intelligence (c’est une pragmatique et non un catalogue de procédures),
non-rationnelle (c’est une logique machinique),
singulière parce qu’individualisée par cet apprentissage particulier (ses produits obéissent tous à la même logique, laquelle est différente d’une IA à une autre),
portant sur des contenus de signes (et non pas sur des signes),
intégrée à une machine informatique (en surcouche du moteur matériel et du moteur logiciel de l’ordinateur).
[2] Ray Kurzweil, The Singularity Is Nearer : When We Merge With AI, Large Print, 2024.
[3] Maël Pégny, Ethique des algorithmes et de l’Intelligence Artificielle, coll. « Pour Demain », Vrin, Paris, 2024, p. 91.
[4] John R. Searle, « Minds, brains, and programs », Behavioral and Brain Sciences 3 (1980), p. 417-424.
[5] Cité par Yann Le Cun, Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond, Odile Jacob, Paris, 2019, p. 362.
[6] Voir par exemple Emily M. Bender, Alexander Koller, « Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data », Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (2020), p. 5185-5198 ; JE Korteling, GC van der Boer-Visschedijk, RAM Blankendaal, RC Boonekamp, AR Eikelboom, « Human- versus Artificial Intelligence », Front. Artif. Intell., mars 2021, vol. 4.
[7] Thomas d’Aquin relève cette distance qu’on trouve de manière générale entre les réalités naturelles et les réalités artificielles (cf. Sent. De anima, II, l. 1, n. 218). Dans le cadre d’une étude de ce qu’est l’intelligence, la comparaison devrait être poussée plus loin : en raison de son immatérialité, l’intelligence n’est pas une réalité sujette à la génération, et en raison de son intellectualité elle ne peut venir à l’existence que par création (cf. l’argumentaire de Thomas d’Aquin, SCG, II, c. 50, 65, 86, 87).
[8] Quoique dans un tout autre contexte, on trouvera d’utiles développements en Thomas d’Aquin, De substantiis separatis, c. 9.
[9] L’informatique connaît une voie mixte, celle des algorithmes d’énumération complète (ou “de force brute”) améliorés par des heuristiques pratiques (de renforcement par exemple). Ils ont été utilisés en cryptographie ou pour les jeux d’échecs. La logique fixée théoriquement consiste à résoudre un problème par essai-échec jusqu’à tomber sur la bonne solution. Mais elle inclut une partie pratique consistant à privilégier les voies qui se révèlent les plus prometteuses.