AI-hallucinaties? De term is gevaarlijker dan het fenomeen

Je komt ze steeds vaker tegen: voorbeelden van onjuiste informatie die is gegenereerd door AI-modellen. Een beroemd recent voorval overkwam Google, toen de chatbot Bard (inmiddels omgedoopt tot Gemini) beweerde dat de James Webb ruimtetelescoop de eerste foto maakte van een planeet buiten ons zonnestelsel.

Ogenschijnlijk onschuldig, misschien, maar de beurswaarde van Google ging die dag met 100 miljard dollar omlaag, vanwege de vermeende zwakke plek van deze chatbot.

Deze voorvallen worden ook wel AI-hallucinaties genoemd: de neiging van AI-modellen om incorrecte informatie te beschrijven. De term roept zowel fascinatie als weerzin op. Maar het gebruik van de term is misschien nog wel gevaarlijker dan het fenomeen zelf, volgens Joop Snijder, Head of Research Center AI: “Er zit namelijk een vooronderstelling onder die de verhouding tussen mens en AI op zijn kop zet.”

Wat is een hallucinatie eigenlijk?

“Om te begrijpen waarom deze term problematisch is, moeten we eerst kijken naar de definitie van een hallucinatie bij mensen”, vervolgt Joop. “Een hallucinatie is een niet-zintuiglijke beleving die niet overeenkomt met de fysieke werkelijkheid. Oftewel: een hallucinatie is een waarneming die je hebt zonder er een prikkel is uit de buitenwereld die deze waarneming in gang zet. Dus je ziet, hoort, voelt, ruikt of proeft iets wat er eigenlijk niet is. Je kunt dit onmogelijk projecteren op AI, want een taalmodel heeft helemaal geen zintuiglijke waarneming, laat staan een bewustzijn. AI functioneert op basis van statistische correlaties binnen enorme datasets en mist de fysieke ervaring en directe verbondenheid met de wereld die centraal staan in onze menselijke ervaring.”

Google Bard heeft dan ook de bewering over de James Webb ruimtetelescoop niet gehallucineerd, maar de verkeerde conclusie getrokken uit bestaande broninformatie.  Joop: “De telescoop heeft vorig jaar wel degelijk een foto gemaakt van een exoplaneet, maar was niet de eerste. Dat feit is door Bard over het hoofd gezien.”

De vermenselijking van AI

Volgens Joop raakt deze kwestie de essentie van hoe we AI integreren in onze samenleving: “Het gaat verder dan semantiek, dus de vraag of we dit fenomeen nu wel of niet hallucinatie mogen noemen in de oorspronkelijke betekenis van het woord. Het gaat hier namelijk niet om hallucinaties, maar om fouten. Laten we ze dan ook zo noemen. Als we ze blijven bestempelen als hallucinaties, dan bevinden we ons op een glijdend vlak. We lopen het risico dat we de technologie vermenselijken door er onze eigen eigenschappen op te projecteren. Fouten die door AI worden gemaakt, dus ook verkeerd genereerde informatie, hebben een statistische grondslag, en komen dus niet voort uit een vorm van bewustzijn. Als we dit onderscheid niet maken, lopen we het risico dat we oplossingen gaan ontwikkelen die niet aansluiten bij onze menselijke ervaringen en behoeften. En dat kan er uiteindelijk toe leiden dat wij ons moeten aanpassen aan de beperkingen van de technologie, in plaats van dat de technologie ons dient.”

Joop pleit er dan ook voor dat we een genuanceerd begrip ontwikkelen van AI, waarin we zowel de mogelijkheden omarmen, maar als de beperkingen erkennen: “AI heeft het potentieel om uit te groeien tot een krachtig hulpmiddel dat onze menselijke ervaringen verrijkt en verbetert, mits we het op de juiste manier inzetten. Ik stel daarom voor om de misleidende term AI-hallucinaties achter ons te laten. Als we AI op een geïnformeerde manier inzetten, kunnen we de vruchten plukken van AI en de menselijkheid overlaten aan mensen.”