Questions qui fâchent
— Une IA peut-elle se tromper gravement ?
Oui.
Elle n’a pas de notion du vrai ou du faux.
Elle produit ce qui est statistiquement plausible.
Oui.
Elle n’a pas de notion du vrai ou du faux.
Elle produit ce qui est statistiquement plausible.
— Pourquoi peut-elle dire des erreurs avec assurance ?
Parce que l’assurance est un effet de forme.
La fluidité n’est pas un critère de vérité.
Parce que l’assurance est un effet de forme.
La fluidité n’est pas un critère de vérité.
— Qui est responsable quand elle se trompe ?
Toujours l’humain.
Celui qui conçoit, celui qui diffuse,
Toujours l’humain.
Celui qui conçoit, celui qui diffuse,
celui qui s’en remet à elle sans vérifier.
— Est-elle neutre ?
Non.
Elle reflète des choix humains, des cadres culturels,
Non.
Elle reflète des choix humains, des cadres culturels,
des biais statistiques.
— Qui décide de ce qu’elle “sait” ?
Les corpus disponibles.
Les paramètres d’entraînement.
Les règles d’usage imposées.
Les corpus disponibles.
Les paramètres d’entraînement.
Les règles d’usage imposées.
— Peut-elle manipuler ?
Pas intentionnellement.
Mais elle peut être utilisée pour renforcer un récit ou une position.
Pas intentionnellement.
Mais elle peut être utilisée pour renforcer un récit ou une position.
— Est-ce dangereux ?
Oui, si elle devient une autorité.
Non, si elle reste un outil interrogé.
Repère de lucidité
Le problème n’est pas qu’une machine réponde.
C’est qu’on cesse de poser des questions.
Oui, si elle devient une autorité.
Non, si elle reste un outil interrogé.
Repère de lucidité
Le problème n’est pas qu’une machine réponde.
C’est qu’on cesse de poser des questions.