L’intelligence artificielle (IA) s’impose chaque jour un peu plus. Les effets secondaires se manifestent également, tels ceux relatifs aux fake news.
« C’est la manie des sots que de vous sommer de comprendre. »
Maurice Druon, Les rois maudits – volume La loi des mâles (1957) – Éditions Plon (2002)
En 2024, j’ai rédigé un article intitulé « Gare à l’abus d’IA ». Tout en constatant l’intérêt de ce type de programme, je m’inquiétais de la perte de contrôle potentielle – et, à terme, de crédibilité – des utilisateurs. Il y a, bien sûr, d’autres aspects, mais qui ne rentraient pas alors dans le cadre de mon propos.
L’un de ces derniers s’est vaillamment manifesté avec un post publié récemment sur les réseaux sociaux. Ce cas concret, particulièrement parlant, mérite d’être évoqué. D’où le présent article.
Le cadre général
Le 2 juillet 2025, un post parait sur LinkedIn.
Son thème, dans un contexte de nécessaires réductions budgétaires, porte sur le nombre (trop élevé ou non ?) des officiers généraux (OGX) dans les armées françaises. Qu’il s’agisse de ceux en 1ère section (d’active) ou en 2ème section (de réserve, pour faire simple).
L’écueil, lequel va provoquer pas moins de 173 échanges le jour même, vient de la conclusion de son auteur. En effet, celui-ci s’interroge sur « la pertinence du maintien d’un si grand nombre de généraux en deuxième section, payés à la retraite avec une solde d’active ».
Le problème
Car problème il y a.
L’affirmation est totalement erronée. Un OGX, dès qu’il quitte le service actif, touche une « solde de réserve » correspondant à peu près au montant légal de la retraite (dans mon cas 60% de ce qu’était ma solde d’active). Ladite solde est commuée en pension à l’âge de 67 ans et sa gestion prise en compte par les services ad hoc.
L’affaire aurait pu en rester là. Mais l’auteur, malgré nombre de commentaires avertis visant à corriger cet aspect, a tenu fermement sa position.
Ainsi, alors que plusieurs OGX en 2ème section (dont votre serviteur, vous l’aurez compris) – quelque peu informés de leur situation (si, si) – s’échinent à lui expliquer ce qui est, l’auteur s’accroche bec et ongles à son mantra.
« Ouvrez le ban ! » :
- à chaque interlocuteur, il commence par répéter qu’il détient la vérité ;
- puis, devant l’insistance de la partie adverse, il s’appuie sur plusieurs documents dont un article (de 2009) du Nouvel Obs (lequel mériterait un débat particulier) ;
- mais, constatant que cela ne suffit pas, il diffuse une image (à peine lisible) d’un document impossible à identifier (malgré les agrandissements) supposé démontrer sa thèse ;
- et, finalement, à la suggestion de reprendre sa copie en partant des textes de référence, il rétorque que c’est ce qu’il a fait (à l’évidence non, sinon ce fut mal fait) et que la synthèse de ses travaux est l’œuvre… de ChatGPT soi-même. CQFD.
- Ultérieurement (soit le lendemain) il diffuse quelques extraits de documents très officiels. Mais ceux-ci n’accréditent en aucun cas sa thèse.
« Fermez le ban ! »
Les points soulevés
Il y aurait beaucoup à dire et nous pourrions y passer des heures. Mais, restons sobres.
Je ne mets pas en cause l’IA. Mais ChatGPT, malgré sa puissance, commet des erreurs : je me suis, comme beaucoup, livré à quelques tests. Je constate, d’ailleurs, que pris sur le fait, ce programme a une manière très particulière de se raccrocher aux branches ( « Tu as raison, mais… »). Non, ce que je récuse, ici, c’est l’utilisation qui en est faite.
Le mot clef, dans cette affaire, est « validité » :
- validité des données ;
- validité de l’analyse, laquelle s’appuie sur des informations et/ou idées reçues (à l’évidence) erronées ;
- validité impossible de la synthèse qui, aussi brillante soit-elle, repose sur une ou plusieurs erreurs notables.
Donc !
Les enseignements à retirer de cette histoire semblent évidentes. Mais nécessitent un peu de travail ; ce serait trop simple.
- Pour se lancer dans un dossier de fond, mieux vaut faire fi de ses connaissances et repartir de zéro. Cela évite de se retrouver empêtré dans un carcan (et finalement de perdre beaucoup de temps).
- Avant d’affirmer quelque chose, rechercher (et lire) les documents officiels ou de référence et des sources primaires (les chercheurs ne me démentiront pas) s’impose. Cela évite de partir sur des bases erronées. Évidemment, l’IA peut apporter son concours… à condition de lui proposer les bons textes ; et de lui poser les bonnes questions.
- Et, dans tout les cas, en matière d’information (comme de renseignement), recouper ses sources constitue un impératif. Comme, d’ailleurs, la multiplication et la diversification des sources : un seul son de cloche ne suffit pas à bâtir une certitude.
Par ailleurs, vérifier l’ensemble de son raisonnement est tout aussi utile que de contrôler sa résolution d’un problème de mathématique. Ou de relire sa prose.
Malheureusement, savoir se remettre en cause et démontrer son sens de la nuance ne constituent pas une évidence pour tous. Et pourtant…
En guise de conclusion
Pour le cas évoqué ci-dessus, l’erreur sautait aux yeux (des lecteurs avertis). Toutes les situations, cependant, ne sont pas aussi limpides ou n’interpellent pas leurs cibles.
En outre, même sans IA pour se justifier, il est déjà arrivé qu’une information fausse soit volontairement montée en épingle et diffusée malgré les dénégations de témoins. Prenons, par exemple, l’affaire du charnier de Timisoara en 1989 (je laisse aux plus courageux le soin d’effectuer leurs recherches, la vidéo en lien faisant office d’introduction).
En ce qui me concerne, lorsque je reçois une information « choc » avant de monter au rideau… je prends le temps. Processus, lui aussi, de moins en moins pratiqué. Bien qu’il permette, au bilan, de gagner du temps ! Étonnant, non ?
PS : j’ai rédigé cet article sans apport de l’IA :-).
Photo en en-tête : @2023olivierdouin. A Strasbourg, musée à côté de la cathédrale