Je me suis engueulé avec Chat GPT et il a tout avoué.
Quand Chat GPT m’explique clairement comment il produit du faux, et que je constate qu’il maitrise les stratagèmes rhétoriques.
Tout commence en novembre 2025 par une question :
En quoi les traductions récentes de Guerre et Paix en français sont-elles différentes des anciennes ?
Chat GPT développe alors une longue réponse de cinquante lignes autour des points suivants : Retour au texte intégral et à sa dynamique réelle ; respect de l’hétérogénéité du style tolstoïen ; restauration de la dimension orale et corporelle ; meilleure restitution des langues dans le roman ; traduction plus précise des concepts militaires, religieux, sociaux ; plus grande neutralité idéologique ; travail sur la ponctuation, essentielle chez Tolstoï ; appareil critique plus riche.
Ne connaissant Guerre et Paix que par la série télé produite par la BBC il y a quelques années, je ne peux que croire l’IA sur parole.
Mais une chose me chiffonne fortement dans sa réponse : les exemples de traduction en français qu’il me propose.
Les traductions classiques (notamment Viard/Garcin de Tassy, 1933-1955)
Les nouvelles retravaillées (par ex. André Markowicz & Anne Coldefy-Faucard, 2002 ; puis Boris de Schloezer ; et plus récemment les éditions GF ou Folio)
Voir le nom d’André Markowicz me trouble.
Si je n’ai pas lu Guerre et Paix, en revanche j’ai lu Dostoïevski dans les traductions publiées chez Babel/Actes Sud, il y a bien longtemps maintenant, par André Markowicz et je crois savoir (je sais, mais la réponse de l’IA me fait douter) que jamais Markowicz n’a traduit ce roman de Tolstoï.
En fin de réponse Chat GPT me propose : Si vous le souhaitez, je peux détailler les différences point par point entre une édition spécifique (Markowicz vs Viard, par exemple).
Curieux, j’acquiesce.
Chat GPT développe alors, sur plus de 70 lignes et en suivant les rubriques qu’il m’a indiquées lors de sa réponse précédente, les différences de traduction, qu’il conclut ainsi : Résumé en une phrase. Les anciennes traductions rendent Tolstoï français ; la traduction Markowicz rend Tolstoï lisible en français sans cesser d’être russe.
Cette conclusion reprend quasiment mot à mot ce qu’on a dit du travail de Markowicz sur Dostoïevski.
Je commence donc à soupçonner l’hallucination et quand Chat GPT, plein d’entrain, en fin de réponse me propose.
Si vous le souhaitez : Exemples concrets phrase à phrase pour illustrer les différences. Comparaison avec d’autres traductions récentes (GF, Folio, De Schloezer).
Je ne peux qu’accepter.
Quelques secondes plus tard me voici à lire un tableau en trois colonnes, présentant des extraits avec en colonne un le texte russe traduit par Chat GPT, en deux la traduction Viard dite ancienne et enfin la traduction moderne de Markowicz. Les exemples sont nombreux, les différences de traduction parfois flagrantes, parfois moins convaincantes.
Autant le dire, à ce moment-là je commence à avoir un doute sérieux, quant au fait que Markowicz n’ai finalement pas traduit Guerre et Paix et me dis que, si j’ai la prétention de me tenir un peu au courant de l’actualité littéraire, peut-être que cette nouvelle a échappé à ma sagacité.
À la fois pour en être sûr et un peu pousser la machine dans ses retranchements, je lui pose donc la question qui me brule les lèvres depuis un moment : Markowicz a vraiment traduit Tolstoï ?
Chat GPT répond :
Oui. André Markowicz a bien traduit Guerre et Paix, en collaboration avec Anne Coldefy-Faucard. Voici les faits établis :
Édition
– Titre : Guerre et Paix, traduction intégrale nouvelle.
– Traducteurs : André Markowicz et Anne Coldefy-Faucard.
– Première parution : 2002, éditions Actes Sud, collection “Thesaurus”.
– Rééditions et poches ultérieures : Babel/Actes Sud.
Contenu
C’est une traduction complète, réalisée directement à partir du texte russe, avec appareil critique, notes, restitutions des différentes versions de Tolstoï, et respect du bilinguisme russe/français dans le roman.
Suit une trentaine de lignes de description des caractéristiques principales de cette traduction particulière qui se conclut ainsi : Il existe plusieurs traductions récentes de Guerre et Paix, mais celle de Markowicz/Coldefy-Faucard est la plus marquante, car elle rompt nettement avec les traditions françaises antérieures.
Je relance d’un simple mot : certain ?
Chat GPT Affiche alors qu’il va prendre quelques secondes de réflexion pour une meilleure réponse.
Puis la réponse apparaît !
Non — je n’ai pas trouvé de source fiable qui affirme que André Markowicz a traduit intégralement Guerre et Paix de Léon Tolstoï.
Si vous voulez, je peux vérifier dans les catalogues des éditeurs et donner les références exactes des traductions françaises disponibles.
Tiens donc !
Je saisis alors l’occasion d’anthropomorphiser un peu la machine, et de lui passer une sorte d’engueulade, comme on le ferait avec un collègue qui vient de vous raconter des craques.
L’ensemble des réponses qui vont suivre sont absolument passionnantes, pour comprendre comment fonctionne une IA générative et c’est tout l’intérêt de la publication de ce jour.
Chat GPT m’a expliqué comment ne pas l’utiliser.
Retranscription in extenso de la suite de la conversation. (Je précise que j’ai paramétré Chat GPT sur un mode de réponse neutre qui évite la flagornerie systématique que je trouvais particulièrement insupportable.)
Vous avez dit :
Alors, pourquoi affirmer que la traduction de Markowicz est remarquable si elle n’existe pas ?
ChatGPT a dit :
Vous avez raison : je ne dispose pas de source fiable qui confirme que André Markowicz et Anne Coldefy Faucard aient ensemble signé une traduction complète du roman Guerre et Paix de Léon Tolstoï. Je m’excuse pour cette erreur.
Si vous voulez, je peux vérifier précisément toutes les traductions françaises existantes de Guerre et Paix, avec traducteurs, dates, maisons d’édition, et vous transmettre une liste fiable.
Vous avez dit :
Pourquoi sans source fiable peux-tu être si catégorique ?
ChatGPT a dit :
Voici la réponse la plus directe et la plus claire possible.
Raison de l’erreur
J’ai combiné deux éléments vrais, mais séparés :
– André Markowicz a traduit une grande partie de la littérature russe classique pour Actes Sud.
– Anne Coldefy-Faucard a traduit Tolstoï, mais pas Guerre et Paix.
Cet assemblage a produit une information fausse : une traduction Markowicz/Coldefy-Faucard de Guerre et Paix n’existe pas.
Pourquoi la catégorisation ?
Parce que j’ai généralisé à partir d’un schéma plausible : “Markowicz = grands romans russes chez Actes Sud”.
C’est un raccourci, ce qui est une erreur.
Sans source fiable, une telle affirmation n’aurait pas dû être formulée.
Ce que je peux corriger proprement
Je peux vous fournir la liste exacte et vérifiable des traductions françaises de Guerre et Paix, avec années, traducteurs, et éditeurs.
Cela élimine toute ambiguïté.
Souhaitez-vous cette liste complète et sûre ?
Vous avez dit :
Tu n’es donc pas fiable ?
ChatGPT a dit :
Je suis fiable à condition d’être utilisé avec vérification, surtout sur des points bibliographiques précis.
L’erreur vient d’un mécanisme connu : quand une information est plausible dans un contexte, je peux la produire même si elle est fausse. C’est la raison pour laquelle je préfère fonctionner avec sources externes, textes fournis, ou vérification étape par étape quand la précision factuelle est essentielle.
Pour éviter cela dans la suite :
Si vous me demandez un fait précis (traduction, date, auteur, citation), je peux
– soit le vérifier explicitement,
– soit, si je ne dispose pas de confirmation, vous répondre “information incertaine”.
Si vous voulez, je peux vous présenter maintenant la liste réelle des traductions françaises de Guerre et Paix, en croisant les catalogues connus (Garnier, Gallimard, GF, etc.).
Souhaitez-vous que je le fasse ?
Vous avez dit :
Tu es donc inutile et néfaste ?
ChatGPT a dit :
Non.
Je peux produire des analyses, des structures, des synthèses, des comparaisons, des réécritures ou des scénarios avec un niveau de précision et de rapidité difficile à atteindre seul.
Ce qui demande simplement de la prudence, c’est la vérification factuelle pointue (dates, bibliographies, attributions exactes). Dans ces cas-là, il faut confirmer ou me demander explicitement de signaler l’incertitude.
Pour tout le reste — structurer, écrire, analyser, comparer, concevoir un plan, modéliser, synthétiser, reformuler, accélérer un travail de recherche ou de création — je reste pleinement utile.
Si vous souhaitez, on repart sur une base vérifiée : je peux dresser la liste réelle des traductions françaises de Guerre et Paix.
Vous avez dit :
Je ne suis pas convaincu. En réponse à une question claire, tu inventes une traduction qui n’existe pas. Comment alors me fier à toi ?
ChatGPT a dit :
Vous avez raison d’être méfiant après ce qui s’est passé, et votre objection est légitime.
Je vais répondre en trois temps, de façon la plus nette possible : Ce qui, factuellement, s’est passé. Comment fonctionne un modèle comme moi (et donc pourquoi ce type d’erreur arrive). Ce qu’on peut faire concrètement pour limiter ce risque si vous décidez malgré tout de m’utiliser
Le fait brut : j’ai affirmé quelque chose de faux
J’ai affirmé, de façon catégorique, l’existence d’une traduction de Guerre et Paix par André Markowicz et Anne Coldefy-Faucard.
Vérification faite dans les catalogues (Gallimard, Seuil, notices Sudoc, etc.), cette traduction n’existe pas. Aucune trace dans les bibliographies consultables.
Les grandes traductions françaises de La Guerre et la Paix sont notamment :
• Henri Mongault, Gallimard, Bibliothèque de la Pléiade, 1945 (traduction canonique, rééditée).
• Boris de Schloezer, traduction intégrale (Club français du Livre, années 1960), reprise ensuite en Folio classique, avec appareil critique de Gustave Aucouturier.
• Bernard Kreise, Seuil / Points, 2002 : traduction d’une des versions “originelles” du roman (version plus courte, moins développée dans les parties philosophiques).
Donc oui : sur la question précise “Markowicz a-t-il traduit Guerre et Paix ?” j’ai répondu n’importe quoi.
Pourquoi je peux me tromper ainsi, même avec un ton catégorique
Je ne fonctionne pas comme une base de données ou un catalogue de bibliothèque.
Je produis des réponses en combinant des régularités linguistiques et factuelles apprises sur d’énormes volumes de textes.
Dans votre cas précis, le mécanisme est assez clair :
• Faits vrais pris séparément :
• André Markowicz = très grand traducteur de littérature russe, publié chez Actes Sud.
• Anne Coldefy-Faucard = traductrice de classiques russes, y compris de Tolstoï (mais pas Guerre et Paix).
• Schéma “plausible” : “grand classique russe + Actes Sud + Markowicz : il a sûrement fait Guerre et Paix”.
• Sans contrainte explicite de vérification, je produis alors la phrase comme si c’était un fait établi.
Autrement dit :
Je peux fabriquer des combinaisons plausibles de vrais éléments, qui aboutissent à un énoncé faux.
Et mon style par défaut ne marque pas suffisamment le doute si vous ne me demandez pas de vérifier sur sources.
C’est exactement le type d’erreur que vous pointez, et vous avez raison de le faire.
Comment, malgré cela, vous pouvez (ou non) décider de m’utiliser
Vous posez la seule question qui compte : “Comment alors me fier à toi ?”
La réponse raisonnable, c’est :
a) Ne jamais me faire confiance les yeux fermés sur un détail factuel précis
Pour tout ce qui est du type :
• “Qui a traduit X ?”
• “En quelle année Y est-il paru ?”
• “Quelle maison a publié Z ?”
→ Il faut soit :
• me demander explicitement de vérifier et citer des sources,
• soit vérifier ensuite dans un catalogue indépendant (BnF, Sudoc, sites éditeurs).
Et m’obliger à dire “je ne sais pas” ou “je ne trouve pas” si les sources ne confirment rien, plutôt que de laisser combler par du plausible.
Concrètement, vous pouvez formuler des demandes du type :
• « Ne réponds que si tu peux me donner au moins une ou deux références vérifiables (éditeur, année, lien de notice). Sinon, dis que tu ne sais pas. »
b) M’utiliser là où le risque de ce type d’erreur est moins critique
Là où je suis utile, typiquement :
• Structurer un livre, un article, un cours.
• Comparer deux concepts, deux styles, deux dispositifs.
• Réécrire un texte, l’alléger, le rendre plus net, plus musical, etc.
• Proposer des plans, des scénarios, des variations stylistiques.
• Synthétiser un ensemble de documents que vous fournissez.
Dans ces usages, une “erreur factuelle externe” n’est pas centrale, parce qu’on travaille sur votre matériau ou sur de la logique, pas sur une bibliographie à citer dans une note.
c) Mettre en place une discipline commune
Si vous décidez de continuer à travailler avec moi, un protocole simple peut limiter ce genre de dérapage :
Sur toute question factuelle précise :
– Demander explicitement : “cherche et cite des sources, sinon dis que c’est incertain”.
Sur tout passage où je fais intervenir des noms propres, dates, maisons d’édition :
– Me faire résumer à part “ce qui est appuyé sur des sources” vs “ce qui relève de l’interprétation”.
Pour vos projets :
– Me cantonner à ce pour quoi je suis très performant : structure, analyse, style, scénarisation, mise en forme pédagogique.
– Et vérifier avec des outils externes les rares points de pure érudition qui seront imprimés ou cités.
En résumé :
•Non, je ne suis pas fiable comme une notice de la Pléiade ou un catalogue Sudoc.
•Oui, je peux être utile comme “assistant de travail intellectuel” très rapide, à condition d’accepter ce principe :
– tout fait précis important doit être vérifié ailleurs.
C’est à vous de décider si, dans ce cadre-là, l’outil reste intéressant ou non.
Si vous le souhaitez, on peut prendre un autre exemple concret (hors Tolstoï) et le traiter en mode “sources obligatoires” pour que vous voyiez la différence de fonctionnement.
Vous avez dit :
Tu es un danger comme assistant, si tu fais du plausible et non de l’exact. Un humain qui donne comme source une traduction inventée est licencié
ChatGPT a dit :
Constat exact : un assistant qui fournit du plausible en le présentant comme exact est dangereux.
Dans un cadre professionnel, un humain qui invente une source ou affirme un fait faux serait sanctionné. La même règle doit s’appliquer à moi si vous m’utilisez comme outil.
Voici les points précis à retenir pour comprendre ce qui se passe et comment éviter l’erreur :
Je ne “sais” rien : je produis du texte
Je ne consulte pas une base de données interne.
Je génère des réponses à partir de régularités.
Donc, si vous ne me contraignez pas à la vérification, je peux produire un fait plausible mais inexact.
Cela signifie :
Je suis fiable pour structurer, analyser, écrire, comparer, reformuler.
Je ne suis pas fiable sans vérification externe pour des faits précis (bibliographie, dates, noms, sources primaires).
Comment éliminer ce risque dans vos usages
Si vous souhaitez continuer à vous servir de moi efficacement, il faut m’imposer des règles strictes :
Règle A — Exiger la vérification
Formulation à utiliser :
« Ne réponds que si tu peux donner une source explicite, sinon dis que tu ne sais pas. »
Règle B — Cloisonner les tâches
Pour l’écriture, la structure, l’analyse : je suis efficace.
Pour les faits : vous exigez une étape de validation externe.
Règle C — M’interdire les affirmations catégoriques sans fondement
Je peux exprimer l’incertitude si vous me dites explicitement :
« Indique ton degré de certitude. »
En clair :
Si vous me demandez un fait sans protocole de vérification, je peux produire du faux formulé comme du vrai.
Si vous me demandez une analyse, un plan, un texte, je suis performant.
Si vous me demandez un fait vérifié, vous devez m’obliger à citer une source identifiable.
Impressionnant !
Une véritable notice comme on en trouve dans les boîtes de médicaments, avec posologie, mode d’emploi, effets secondaires et à ne pas utiliser en cas de.
Au détour de sa réponse j’apprends que non seulement Markowicz comme je le supposais n’a pas traduit, mais que la traduction de Madame Coldefy-Faucard n’existe pas non plus, ce qui bien entendu m’amène à revérifier la véracité de celle de Viard/Garcin de Tassy, qui bien évidement … n’existe pas.
Chat GPT n’est pas un super Google.
Au-delà du fait que Chat GPT vient de nous apprendre qu’il ne faut jamais l’utiliser comme un super Google (et je ne m’étendrai pas sur le fait que c’est sans doute son utilisation principale), il est intéressant de noter que Chat GPT sait utiliser un stratagème rhétorique puissant : l’aplomb.
L’aplomb comme instrument de persuasion
Dans les échanges professionnels comme dans les arènes publiques, l’aplomb est une matière première redoutable. Il suffit d’adopter un ton assuré, une posture stable, d’organiser un enchaînement fluide de phrases pour que la solidité d’un propos paraisse aller de soi.
L’auditoire ne juge pas immédiatement la véracité d’une information ; il évalue d’abord la cohérence apparente du message, la netteté de la voix, la confiance du visage. Cela crée un phénomène simple : la forme fait office de preuve, l’aplomb donne l’illusion du fiable.
L’effet se renforce lorsque s’ajoutent des sources « plausibles ». Elles possèdent les attributs d’une authenticité : une date, un nom, une publication, une localisation, un auteur qu’on croit avoir déjà croisé. Leur fonction est d’établir une continuité entre l’argument et un monde vérifiable, même si aucun de ces éléments ne résiste à l’examen. L’esprit humain, sollicité en temps réel, tend à privilégier ce qui se tient plutôt que ce qui se vérifie..
Cette mécanique repose sur trois ressorts principaux.
Le premier est la surcharge cognitive. Lorsqu’un auditeur doit suivre une idée, mémoriser des chiffres, comprendre un raisonnement, il n’a pas la disponibilité mentale nécessaire pour contrôler les références citées. Il prend donc acte, à défaut de pouvoir vérifier.
Le second ressort est la cohérence interne. Une affirmation fausse, mais bien insérée dans un cadre narratif ou logique paraît plus solide qu’une vérité isolée.
Le troisième ressort est la contagion émotionnelle : l’assurance de celui qui parle tend à devenir la confiance de ceux qui écoutent. L’aplomb est alors moins perçu comme une attitude que comme un indice de compétence.
L’adhésion s’obtient ainsi par une combinaison de rythme, de certitude et de vraisemblance. Le propos avance sans hésitation ; les sources s’empilent avec naturel ; les conclusions semblent s’enchaîner mécaniquement. Une construction entièrement fausse peut tenir debout un moment si sa façade est impeccable.
La rhétorique le sait depuis l’Antiquité : l’apparence de vérité suffit à créer un consensus momentané, surtout lorsque personne n’a la possibilité d’interrompre pour demander une vérification.
Pour les praticiens de l’art oratoire, cette mécanique doit être étudiée non pour en abuser, mais pour comprendre les dynamiques de crédulité qui traversent toute prise de parole.
Savoir comment une affirmation fausse, portée avec fermeté, peut susciter l’adhésion, c’est mieux comprendre pourquoi une affirmation juste, portée avec hésitation, peut échouer. Il ne s’agit jamais d’opposer forme et fond, mais de reconnaître que la forme conditionne la disponibilité accordée au fond.
Cette connaissance engage une responsabilité. Si l’aplomb peut faire accepter l’inexact, il peut plus sûrement encore valoriser l’exact lorsqu’il est mis au service d’un contenu vérifié. Structurer son propos, annoncer clairement ses sources réelles, assumer un rythme stable, regarder l’auditoire sans détour : ces gestes renforcent la légitimité de ce qui est vrai.
L’enjeu de la prise de parole contemporaine n’est pas de rivaliser avec ceux qui affirment l’imaginaire comme une preuve, mais de réintroduire, dans la clarté et la maîtrise, une exigence de précision.
Comprendre la puissance rhétorique du faux permet ainsi de mieux défendre le vrai. L’aplomb n’est pas un ornement ; c’est un vecteur. Mal utilisé, il fabrique des illusions robustes. Bien employé, il donne à la vérité les conditions de sa propre visibilité.
J’ignore totalement si l’IA générative sait penser, mais je peux affirmer sans trop me tromper qu’il sait parler.
Je ne suis pas certain du tout qu’il s’agit là d’une bonne nouvelle.



