Wat me het meest stoort in het debat, is het gebruik van de term hashtag#hallucineren in het kader van LLM’s. Het is in Nederland zelfs verkozen tot het (digitale) woord van het jaar, maar de vlag dekt de lading niet.
LLM’s drinken niet, nemen geen drugs en kunnen geen koorts hebben. Het woord is eigenlijk een manier om goed te praten wat een LLM werkelijk doet: liegen als ze het antwoord niet weten en dit vervolgens als een gehaaide oplichter hun fictie verkopen als feiten.
Hier loop ik overigens in dezelfde val door AI te vermenselijken; het systeem heeft geen bewustzijn. Volgens onderzoekers in Glasgow verkopen deze modellen bullshit in de filosofische zin van het woord: ze geven informatie zonder respect voor de waarheid. Of nog beter geformuleerd: ze genereren simpelweg tekst zonder de intentie om de waarheid te spreken.
In de taal van Shakespeare klinkt het nog scherper: “the models are in an important way indifferent to the truth of their outputs”.
Het blijft ontzettend moeilijk om antropomorfisme te vermijden. We willen AI blijkbaar heel graag een bewustzijn toedichten en menselijk benaderen, terwijl het onder de motorkap alleen maar droge nullen en enen zijn.
Interessante lectuur: Michael Townsen Hicks, James Humphries & Joe Slater “ChatGPT is bullshit”