Quand on lui fait dire n’importe quoi 🤖

L’IA, le vote à main levée et la grande peur du 51 %

On entend souvent cette idée rassurante :
« L’IA peut se tromper parce qu’elle suit la majoritĂ©. » 
C’est simple.
C’est faux.
Et c’est surtout très humain. 

L’IA ne vote pas.
Elle ne consulte pas un sondage permanent de l’opinion mondiale.
Elle ne se retourne pas soudainement parce que 51 % des humains 
auraient dĂ©cidĂ© que la Terre est plate, 
que la gravitĂ© est optionnelle ou 
que l’eau se souvient de nos Ă©motions. 

Si l’IA peut se tromper, ce n’est pas parce qu’elle suit l’opinion majoritaire, 
mais parce qu’elle dĂ©pend de trois choses très concrètes. 
La qualité des données disponibles.
Si les donnĂ©es sont pauvres, biaisĂ©es, incomplètes 
ou inexistantes, la réponse le sera aussi.

Une machine ne peut pas inventer 
ce qui n’a jamais Ă©tĂ© produit de façon fiable. 
Le cadre de la question.

Une question floue, bancale ou orientée produit une réponse bancale.

L’IA ne corrige pas toujours l’intention de celui qui l’interroge.
Elle travaille avec le cadre qu’on lui donne, pas contre. 

Les garde-fous humains.
Ce sont eux qui hiĂ©rarchisent les sources, 
distinguent le savoir Ă©tabli de l’hypothèse, 
et posent des limites.

Sans humains responsables, l’outil reste… un outil. 
Les fameuses “hallucinations” de l’IA ne sont donc pas 
un signe de rĂ©bellion cognitive, 
ni la preuve qu’elle devient folle avec la foule.
Ce sont des erreurs de complĂ©tion, 
pas des prises de position idĂ©ologiques. 

Mais cette confusion arrange bien.
Elle permet de dĂ©placer le problème. 

PlutĂ´t que de se demander :
Avons-nous posé les bonnes questions ?
Avons-nous appris Ă  distinguer faits, hypothèses et croyances ? 

On préfère dire :
La machine est dangereuse. C’est plus confortable.

Et surtout, ça Ă©vite de regarder en face une vĂ©ritĂ© moins flatteuse : 

👉 L’IA n’amplifie pas la bêtise humaine.
Elle la reflète quand on l’y autorise.
Recherche