ChatGPT snapt zelf helemaal niks (en andere misverstanden over generatieve AI)

Wat gebeurt er nu eigenlijk ‘onder de motorkap’ van generatieve AI-tools als ChatGPT? Hoe intelligent is AI nu eigenlijk echt?

Volgens Niels Naglé, area lead Data & AI / IT architect bij Info Support, bestaan er nog behoorlijk wat misverstanden over AI. Op TNW Conference gaf hij een presentatie ‘ChatGPT: Under the Hood’, waarin hij een aantal van deze misverstanden uit de wereld hielp.

Niet alle AI is generatieve AI

“Hoewel generatieve AI momenteel in de schijnwerpers staat, is het belangrijk om te onthouden dat het slechts één verschijningsvorm is van artificiële intelligentie”, aldus Niels. “AI omvat een breed scala aan technologieën, waaronder machine learning, deep learning, recommendation systems en nog veel meer. Door de recente populariteit van generatieve AI stellen we het nu vaak gelijk aan AI. Maar in werkelijkheid is het AI-landschap veel diverser en complexer.”

ChatGPT heeft zelf geen enkele kennis

Stel een vraag aan ChatGPT en je krijgt een antwoord. Dat wil niet zeggen dat het grote taalmodel ook daadwerkelijk zelf enige kennis bezit, aldus Niels: “GPT staat voor Generative Pre-training Transformer. Het is dus getraind om jou te helpen, je traint het niet zelf. Transformer wil zeggen dat het jouw input omzet in nieuwe output.”

Deze input wordt eerst in stukjes gehakt, aldus Niels: “Generatieve AI werkt op basis van een tokensysteem. In plaats van hele woorden of zinnen te verwerken, wordt tekst gebroken in kleinere eenheden, tokens genoemd. Dit kunnen delen van woorden, losse woorden of zelfs leestekens zijn. Het model voorspelt vervolgens het volgende token op basis van de patronen die het heeft geleerd uit de trainingsdata.”

Gelukkig zijn er wel mogelijkheden om die eigen kennis aan ChatGPT te geven. Denk bijvoorbeeld aan de techniek Retrieval Augmented Generation.

ChatGPT maakt fouten

Grote taalmodellen kunnen context begrijpen en samenhangende antwoorden geven. Maar dat wil niet zeggen dat het antwoord ook juist is: “Doordat generatieve AI niet echt zelf kennis of begrip heeft, krijg je regelmatig foute antwoorden. Het model reproduceert dan simpelweg patronen uit de trainingsdata. Deze fouten worden ook wel ‘hallucinaties’ genoemd, maar in feite kan AI niet hallucineren, maar wel fouten maken. Je kunt ook vragen naar de bron, dus waar het model een antwoord heeft gevonden. En dan zie je dat er soms zelfs een niet bestaande bron wordt geciteerd. Controleer dus altijd de output van ChatGPT.”

Bij het gebruik van ChatGPT in een applicatie of proces, is testen (net als bij software ontwikkeling) van essentieel belang. Binnen Info Support werken we met richtlijnen en een proces om prompts en de uitkomst hiervan te kunnen testen.

AI wordt gemaakt en onderhouden door mensen

Wat ook niet iedereen beseft: achter de schermen is er een aanzienlijke hoeveelheid menselijke inspanning nodig voor het creëren en onderhouden van AI-modellen. “Mensen spelen een belangrijke rol bij het cureren van trainingsdata, het valideren van outputs en het verfijnen van het systeemgedrag”, aldus Niels. “Zo worden de antwoorden van ChatGPT gecontroleerd door menselijke beoordelaars. Deze beoordelaars bepalen welke antwoorden correct zijn en sturen het model bij waar nodig. Ook het beleid rond gevoelige onderwerpen, zoals het niet assisteren bij illegale activiteiten, wordt door mensen geïmplementeerd en verfijnd.”

General AI is nog ver weg

“Veel mensen denken dat ChatGPT Artificial General Intelligence een stukje dichterbij heeft gebracht. Maar als je ziet wat er onder de motorkap gebeurt bij ChatGPT en andere generatieve AI-tools, dan zie je dat we nog lang niet zo ver zijn. Aan de binnenkant bestaan deze taalmodellen uit pure wiskunde: getalletjes en berekeningen. Dat neemt niet weg dat er een enorme groei is in gebruik en bekendheid van AI vanwege ChatGPT”.

De volledige presentatie van Niels Naglé is hier terug te vinden:

Voor aanvullende vragen, kun je contact met Niels opnemen.