Questions qui fâchent

— Une IA peut-elle se tromper gravement ?
Oui.
Elle n’a pas de notion du vrai ou du faux.
Elle produit ce qui est statistiquement plausible. 

— Pourquoi peut-elle dire des erreurs avec assurance ?
Parce que l’assurance est un effet de forme.
La fluidité n’est pas un critère de vérité. 

— Qui est responsable quand elle se trompe ?
Toujours l’humain.
Celui qui conçoit, celui qui diffuse, 
celui qui s’en remet à elle sans vérifier. 

— Est-elle neutre ?
Non.
Elle reflète des choix humains, des cadres culturels, 
des biais statistiques. 

— Qui décide de ce qu’elle “sait” ?
Les corpus disponibles.
Les paramètres d’entraînement.
Les règles d’usage imposées. 

— Peut-elle manipuler ?
Pas intentionnellement.
Mais elle peut être utilisée pour renforcer un récit ou une position. 

— Est-ce dangereux ?
Oui, si elle devient une autorité.
Non, si elle reste un outil interrogé.

Repère de lucidité

Le problème n’est pas qu’une machine réponde.
C’est qu’on cesse de poser des questions.
Recherche