Au moment de rendre compte d’un ouvrage de François Rastier, qui plus est sur l’intelligence artificielle (IA), on ne peut être qu’impressionné, voire intimidé. En effet, l’auteur de l’ouvrage en question peut se targuer d’une biographie et d’une bibliographie impressionnantes, aussi bien en linguistique (y compris en intelligence artificielle, comme il le rappelle p. 14), avec notamment des travaux en sémantique interprétative et en linguistique du texte (« le propre de l’homme, ce n’est pas le mot mais le texte », p. 26) ou en linguistique de corpus, qui sont de nature à intéresser directement traducteurs et traductologues, que dans un grand nombre d’autres domaines relevant de la culture générale ou des débats de société – sans craindre, occasionnellement, la controverse. Concernant la traduction, citons également une forme de proximité avec un certain Francois Vaucluse auteur d’un recueil d’aphorismes sur le sujet, et d'ailleurs cité au tout début de l'avant-propos (p. 11). Entre le signataire de l’ouvrage et celui de la recension, on peut donc redouter l’asymétrie de compétences – voire de positionnement, dans la mesure où celui-ci, en sa qualité de responsable de formation, c’est-à-dire avant tout de prescripteur plus que de spécialiste, estime que la prise en charge, avec une maîtrise de ses usages et de ses limites, de l’IA est une nécessité pour les étudiants dont il a la responsabilité. Délicate posture…
Fort heureusement pour nous, le présent exercice est destiné à un public de traducteurs et de traductologues, qui nous est un peu plus familier. Car si la portée de l’essai de François Rastier est générale, les applications, les effets de miroir et plus globalement les matières à réflexion pour ce public spécifique ne manquent pas. Pour n’en prendre qu’une, l’asymétrie de compétences – ou en tout cas de connaissance fine et approfondie du sujet – que nous venons d’évoquer n’est-elle pas une réalité au jour le jour pour les traducteurs, confrontés à des textes spécialisés qu’il leur faut comprendre et restituer, dans une langue qui paraîtra naturelle à leurs destinataires ? Il se peut que nous ayons à y revenir.
La matière principale du livre dont nous souhaitons rendre compte n’est en fait pas tant ce qu’il y a dans l’intelligence artificielle que ce qu’il y aurait derrière : par-delà l’IA, c’est du monde post-humain annoncé dans la deuxième partie du titre dont il est question. Et le prétexte en est fourni par une mésaventure qui est arrivée à l’auteur lui-même, et qui a donné la première partie du même titre (au participe passé, et non pas à l’infinitif, comme une tradition juridique puis politique française pourrait y inviter) : « Un ami m’écrit un jour : ‘vous seriez décédé le 2 mars 2021 parfois le 6’ » (p. 16). L’auteur (si l’on peut dire) persistant et récalcitrant de cette annonce ? ChatGPT. Admettons qu’il y a de quoi s’interroger. Cette incursion dans un univers à la fois posthume et irréel fournit la matière du prologue. La suite se déploiera sur deux axes. François Rastier a recours, d'une part, à son incontestable maîtrise de la linguistique et des mécanismes mis en œuvre par l’IA et, d'autre part, à sa non moins grande culture générale, et en particulier humaniste. Celle-ci lui permet de tisser de passionnantes analogies, et de replacer non pas ce qu’est l’IA, mais ce qu’elle fait, dans un contexte beaucoup plus général. Dans le registre dominant, toutefois, de la concurrence et du remplacement d’un mode de constitution du savoir par un autre.
L’ensemble puise donc tout d’abord dans l’histoire des idées (la rhétorique, Leibniz, Pascal, Turing, Chomsky…) pour expliquer en substance, coups de projecteur sur les aspects techniques à l’appui, comment l’IA met en place des outils de génération de textes répondant à des normes d’écriture qui les rendent plausibles par leur forme, mais sans aucune garantie quant à leur interprétabilité, notamment du fait que « dans l’IA l’énonciateur reste indiscernable » (p. 41). En d’autres termes, « Les textes générés par ordinateur sont donc de simples chaînes de caractères qui échappent à toute lecture critique faute de pouvoir déterminer leur portée. » (p. 42). Le danger étant de « les lire comme s’ils étaient des textes interprétables » (p. 44, les italiques sont de l’auteur).
Cet univers fantasmatique, le prologue en fournissait une illustration saisissante, se caractérise notamment par la disparition des limites entre la vie et la mort, ce qui donne à l'auteur l'occasion de revenir sur la longue histoire des tentations qui sont allées dans ce sens, et qui sont autant de mises en garde, que ce soit dans l'histoire tout court, dans l'histoire des religions, ou dans celle de la littérature (Simon le Magicien, le Golem, Faust…). C'est la matière du chapitre 2. « Or, des applications d'IA générative sont en train de réaliser ce grand projet » (p. 54). Ce qui mène tout droit, on l'aura compris, à la thématique du transhumanisme, dans une large mesure portée par les mêmes acteurs que l'intelligence artificielle, et à un univers qui oscille entre la promotion du politiquement correct et celle de la transgression tous azimuts. Le risque ? « [U]n remplacement de la vie, celle du moins qui admet le doute, les questions, l'incertitude, le libre-arbitre, l'autonomie, la liberté et l'acceptation de la finitude » (p. 76). C'est finalement la concrétisation, ou le risque de concrétisation, d'un monde dans lequel la dimension mythologique prendrait le pas sur ce que nous ont enseigné et appris les Lumières. Derrière l'IA elle-même, l’auteur voit donc un projet de société : un projet politique, qui passe par une déresponsabilisation de chacun. Avec pour perspective de voir s'effondrer les institutions symboliques qui structurent toute société humaine : « la technique, la science, le langage, le mythe, la religion, le droit, etc. » (p. 134).
Que faire, alors ? En premier lieu, « une régulation stricte s'impose » (p. 97). Contre le risque d'aliénation, il faut ensuite en revenir, tout simplement au bon sens, à la réflexion, à la prise de recul, c'est à dire, en substance, à ce qui fait de nous des citoyens. « Bref, une saine mécréance critique ne serait pas inutile » (p. 123). Là non plus, ce n'est pas tant l'informatique ou les avancées technologiques qui sont en cause (c’est rappelé pp. 122-132) que leurs mésusages, outre les diverses externalités que le développement débridé de ces technologies comporte. On comprend au final, même si cela aurait mérité d’être dit plus nettement, que ce n’est pas l’IA en soi, mais plutôt l’IA générative grand public qui est ici en cause.
L’argument principal, donc, s’il ne fallait n’en retenir qu’un : ce qui manque à cette intelligence artificielle grand public, c’est le retour vers un réel structuré comme moyen de vérification raisonnée. Exit le sens, ramené à la simple signification, à un signal, disjoint de tout contexte. La généralisation des usages de l’IA induit dès lors une rupture anthropologique : le monde vacille sur ses bases. « Entre l'incision dans l'argile et le pixel, une continuité demeure. En revanche, l'invention du scribe robotisé introduit une rupture qui affecte la réalité de la culture, et participe d'un mouvement général de désymbolisation, en remplaçant les complexes symboliques par des séries de signaux » (p. 132).
On pourrait aussi citer maintes formules qui, au fil de la lecture, font mouche : « Ainsi se révèle le rapport secret entre monde empirique et monde virtuel : le second détruit le premier » (p. 127-128) ; ou encore « Les données ne sont plus ainsi ce qu’on se donne, mais ce que l’on vous prend » (p. 107). Mais le mieux, en l’occurrence, sera de lire l’ensemble du livre.
Cet ouvrage, pour autant doit-il être exempt de toute critique ? Ce serait se tromper sur son objet, volontairement polémique, et surtout sur sa visée, qui est justement de stimuler l’esprit critique. Et l’on sait qu’en traduction, chercher la contradiction, traquer l’exception, est un moyen hautement efficace de mettre à l’épreuve la validité de ses hypothèses de compréhension et de réexpression. Dans ce registre, citons tout d’abord la prise de risque, inévitable dans un univers en mutation rapide, de voir l’actualité d’aujourd’hui démentir, ou au moins nuancer, la tendance d’hier après-midi. Ainsi du politiquement correct, voire du wokisme qui seraient fréquemment associés à l’IA via l’intégration de règles destinées à brider la génération de certains discours (p. 71-75, notamment) : est-ce encore vrai depuis février 2025 (l’ouvrage a été achevé d’imprimer en décembre 2024) ? Et qu’en sera-t-il au moment où le présent article sera lui-même publié ? Plus généralement, l’opposition entre réflexion humaine et intelligence artificielle est-elle la seule articulation possible pour envisager les temps qui s’ouvrent à nous ? Et si oui, ce type d’ouvrage est-il de nature à freiner les choses, à les changer ? Autre question, le mode de réaction qui consiste, face aux coups de butoirs de l’innovation, à en appeler, d’une part, à la culture, d’autre part, à un surcroît de réglementation, et que l’on peut qualifier, au choix de social-démocrate ou de chrétienne-démocrate, mais en tout cas de classiquement européenne, est-il à la mesure de la nouveauté qui vient (ou qui viendrait) ? On peut par ailleurs observer, et l’auteur l’indique lui-même, que beaucoup des évolutions décriées dans ce livre sont en fait antérieures à la généralisation de l’IA : pour ce qui est de l’entrée dans un monde où la vérité n’est plus un critère de jugement objectif, il y a au moins, en Occident, la campagne pour le Brexit en 2016, et une multitude de phénomènes politiques observables dans maintes régions du monde depuis une dizaine d’années (sans parler du rapport problématique à la vérité qu’ont pu avoir de multiples régimes politiques dans diverses parties du monde, voire, à l’extrême, du rapport à la vérité de la parole politique tout court, comme l’a fait observer, par exemple Hannah Arendt (1954-58/1972). À ce titre, l’IA grand public serait la partie visible et emblématique d’un ensemble plus large, qui n’a pas commencé avec elle. Autre objection potentielle, la distinction entre IA générative grand public (la véritable cible de cet ouvrage) et les autres usages de l’IA gagnerait, redisons-le, à apparaître plus nettement. En effet, le caractère « indiscernable » de l’auteur du texte (le fait que les outils d’intelligence artificielle sont nourris à partir de textes indifférenciés, voir plus haut) peut au moins en partie être compensé, soit par la façon dont les requêtes (ou consignes, ou prompts, en anglais) sont formulées, en demandant à l’outil de ne sélectionner qu’un type de texte particulier, avec un angle spécifique, soit en entraînant l’outil en question sur un tel corpus. Et pour le coup, la condamnation des enseignements consacrés à la rédaction des requêtes en question (p. 61) pourrait perdre de sa pertinence. On peut de ce fait arguer que la montée en puissance de l’IA est une incitation puissante à mieux réfléchir pour poser les bonnes questions, et à affiner notre capacité de jugement pour évaluer les productions des giga-modèles de langues (LLM, en anglais). A devenir ou à redevenir des producteurs et non plus des consommateurs, ce qui, effectivement, depuis le Phèdre évoqué en épilogue (pp. 130-132) n’est pas nouveau, et reste toujours d’actualité. Sur un mode plus mineur, les cinéphiles pourraient arguer que la critique de la trilogie Matrix, dont la densité invite justement à de multiples et très contradictoires interprétations, comme toute grande œuvre d’art, est un peu trop univoque, justement. Mais quoi qu’il en soit, ce livre est absolument salubre, dans la mesure où il donne des outils et des pistes pour réfléchir et, au sens propre du terme, s’orienter dans un univers où les points de repère s’affolent et se confondent.
Outre ces questions de portée générale, cet ouvrage présente un intérêt bien spécifique pour les traducteurs et traductologues : il invite à s’interroger sur le degré de certitude que l’on peut avoir par rapport à la production d’un texte nouveau, que cette production soit le fait d’une intelligence artificielle ou d’un traducteur humain. Certes, un traducteur, et en particulier un traducteur pragmatique, ne peut que se sentir à l’aise avec le principe d’un ancrage dans un réel solide, qui permette la vérification de ses hypothèses de compréhension. Certes, en traduction, l’indifférenciation n’est pas bonne conseillère, et il faut apprendre à raisonner par catégories en usant des outils de la logique (c’est notamment un des apports de la terminologie à notre discipline), et donc à différencier, précisément. Mais pour autant, sommes-nous sûrs d’échapper totalement au monde sublunaire de la vraisemblance, du plausible ? On le sait, un biotraducteur traduit ce qu’il a compris. Ou cru comprendre. Au-delà de toutes les procédures de vérification et d’assurance qualité, nous restons dans le domaine de ce que Descartes appelait la « morale par provision » (et qu’on oublie souvent de citer lorsqu’on parle du Discours de la méthode, 1637/1984) : il nous faut agir – et en l’occurrence traduire – sans garantie de certitude. Or n’est-ce pas précisément ce à quoi nous invite l’intelligence artificielle, en proposant des suites de mots vraisemblables à partir d’un certain nombre de requêtes ? La seule différence ne serait-elle pas, alors, dans l’échelle du phénomène ? Cette réflexion sur l’intelligence artificielle pourrait donc nous amener à réfléchir sur notre propre mode d’intelligence du texte. Et la réponse que nous pourrions apporter, en tant que traducteurs et traductrices réside peut-être non pas dans l’opposition entre intelligence artificielle et intelligence humaine, mais dans la prise en main et en compte de cette ressource comme un outil qui ne saurait trouver sa pleine utilité que s’il est maîtrisé par un être humain, qui validera, ou pas, ses propositions. À ce stade, en tout cas, la question, de politique, devient philosophique : quel est véritablement notre mode d’accès aux connaissances et, par-delà, au monde ?
Au-delà de ces vastes considérations, un esprit facétieux (ou, peut-être, un de nos lecteurs…) serait tenté de poursuivre plus modestement la confrontation, voire d’explorer l’éventuelle complémentarité, entre intelligence humaine et intelligence artificielle à la faveur de cet ouvrage de deux manières potentiellement iconoclastes : pourquoi ne pas demander à l’intelligence artificielle, en utilisant les requêtes appropriées, de faire elle-même sa propre recension de cet ouvrage ? Pour comparer ensuite les deux ? Autre option, pourquoi ne pas fournir à la même intelligence artificielle, ce ne sont pas les outils qui manquent, le texte de la recension que le lecteur vient de découvrir, suivi du texte original, pour lui demander quelles requêtes il aurait fallu formuler pour passer du second à la première ? Avec aussi possibilité de vérification en procédant ensuite de manière inversée. Telles sont quelques-unes des prolongations qu’il nous semblerait intéressant d’apporter à la réflexion très stimulante ainsi ouverte, car, qu’on l’apprécie ou pas, une chose est sûre : nous n’en avons pas fini avec l’intelligence artificielle.
