Ce qui me dérange le plus dans ce débat, c’est l’utilisation du hashtag #hallucineren dans le contexte des LLM. Il a même été élu mot (numérique) de l’année aux Pays-Bas, mais il ne rend pas vraiment compte de la réalité.
Les personnes titulaires d’un LLM ne boivent pas, ne se droguent pas et ne peuvent pas avoir de fièvre. Ce terme sert essentiellement à justifier ce qu’elles font réellement : mentir lorsqu’elles ignorent la réponse et, telles des escrocs habiles, faire passer leurs mensonges pour des faits.
D’ailleurs, je tombe moi aussi dans ce piège en humanisant l’IA ; le système n’est pas conscient. Selon des chercheurs de Glasgow, ces modèles colportent des inepties au sens philosophique du terme : ils fournissent des informations sans se soucier de la vérité. Ou, plus précisément, ils génèrent simplement du texte sans chercher à dire la vérité.
Dans le langage de Shakespeare, cela sonne encore plus cinglant : « les modèles sont, d’une manière importante, indifférents à la vérité de leurs résultats ».
Il reste incroyablement difficile d’éviter l’anthropomorphisme. Nous semblons si prompts à attribuer une conscience et des qualités humaines à l’IA, alors qu’en réalité, elle n’est constituée que de zéros et de uns.
lecture intéressante: Michael Townsen Hicks, James Humphries & Joe Slater « ChatGPT is bullshit »