IA, apocalypse et ...

Ce billet ne traite pas de technologie, 
mais de la manière dont certains discours 
transforment un outil en figure de peur.

IA, Apocalypse et confusion des rôles 

Depuis quelque temps, une même mécanique se répète. 
Un propos théorique est attribué à Yuval Noah Harari, 
puis amplifié, simplifié, dramatisé, 
jusqu’à devenir un message d’alerte quasi prophétique. 

La formule revient en boucle : 
« Si la religion est faite de mots, l’IA finira par la dominer. » 
Présentée ainsi, elle inquiète. 
Mais surtout, elle déforme. 

Ce que Harari dit réellement 

Harari n’annonce ni un messie artificiel, ni une entité consciente 
capable de choisir le bien ou le mal. 
Il souligne un point précis : 
tout ce qui repose sur le langage 
— lois, récits, idéologies, systèmes symboliques 
— peut être produit, imité, optimisé par des systèmes d’IA. 

C’est un constat structurel, pas spirituel. 
Il parle de pouvoir narratif, pas de volonté propre. 

Là où le glissement commence 
Le discours anxiogène commence 
quand on transforme l’outil en acteur moral. 

Une IA : n’a pas d’intention, 
n’a pas de conscience, 
n’a pas de finalité interne. 

Elle n’« agit » que dans le cadre d’objectifs 
définis par des humains, 
selon des critères choisis par des humains, 
avec des effets acceptés ou tolérés par des humains. 

Dire qu’elle « choisit » ou qu’elle « séduit » 
revient à déplacer la responsabilité. 

Le recours à l’Apocalypse 

L’analogie avec l’Apocalypse fonctionne 
comme un révélateur émotionnel. 
Elle parle de séduction, de confusion, 
de perte de discernement. 

Mais chaque époque a projeté ces peurs 
sur ses outils dominants :
 l’imprimerie, la radio, la télévision, Internet. 

Ce n’est ni faux, ni probant. 
C’est une lecture symbolique, 
pas une démonstration. 

La contradiction centrale Le même discours 
affirme souvent deux choses incompatibles : 
« l’IA n’est pas le diable en soi » 
« elle va contrôler la vérité et la perception du réel » 

Or, si l’outil est neutre, 
le problème n’est pas technologique mais 
humain, politique, culturel.
Le danger réel n’est pas l’IA. 

C’est : 
l’opacité des systèmes, 
la concentration du pouvoir, 
l’abandon de l’esprit critique, 
la confusion entre autorité verbale et vérité. 

Ce qu’il faut retenir 

L’IA ne séduit pas. 
Elle amplifie ce qui séduit déjà. 
Elle ne pense pas à notre place. 
Mais 
elle révèle ce qui arrive 
quand nous cessons de penser par nous-mêmes. 

Les systèmes passent. 
Les récits tombent. 
La lucidité, elle, reste une discipline. 

Ni rejet en bloc. 
Ni adhésion aveugle. 
Juste une règle devenue rare : 
séparer les hypothèses des faits, 
et les faits des croyances.
Recherche