We vragen steeds meer aan chatbots. Soms zijn het korte vragen een andere keer wat langere of diepgaandere vragen. En vaak geven ze ook de goede antwoorden. Maar vertrouw niet blind op de antwoorden die chatbots zoals ChatGPT, Copilot of Gemini geven. Soms gaat het namelijk fout. En kloppen antwoorden niet helemaal, of zelfs helemaal niet.
Onjuiste informatie chatbots
Het is belangrijk om te onthouden dat ChatGPT en andere chatbots nergens verstand van hebben. Chatbots leveren vooral taal en geen echte kennis. Het systeem is getraind met enorme hoeveelheden tekst. Zo leert het patronen herkennen en woorden voorspellen. Eigenlijk is een chatbot gewoon een heel slimme woordengokker. Zitten er fouten in de teksten waarmee het systeem is getraind? Dan komen die fouten ook terug in de antwoorden.
Hallucineren
Chatbots zeggen nooit: "Ik weet het niet", maar verzinnen een antwoord. Ze zijn dus eigenlijk pleasers. Zo kunnen ze verwijzen ze naar zelfverzonnen wetgeving of verzinnen ze een bron die niet bestaat of die de informatie helemaal niet heeft gegeven. Deze kant van chatbots wordt 'hallucineren' genoemd.
Ontbrekende context
Niet alleen geven chatbots soms foutieve antwoorden. In sommige gevallen is het antwoord wel goed, maar niet volledig. Dat komt omdat de chatbot niet weet in welke situatie de vraagsteller zich bevindt. Het systeem maakt simpelweg de tekst die het meest logisch klinkt bij de vraag. Stel dat je iets vraagt over wetgeving. Dan kan het antwoord gaan over Amerikaanse regels, terwijl jij de Nederlandse bedoelt. Of je vraagt om een vervanging voor keukenzout, en de chatbot noemt iets wat giftig is. Dat gebeurt omdat je er niet bij hebt gezegd dat het alternatief eetbaar moest zijn.
Waardoor gaat het mis?
In de serie 'Geldflater' op AD.nl is een goed voorbeeld te zien. Daarin laat een stel een granieten badkamervloer plaatsen. Kosten: tweeduizend euro. Na een tijdje ziet de man zwarte stipjes op de voegen. Volgens ChatGPT is dat schimmel, die je makkelijk kunt verwijderen met schoonmaakazijn. En de vlekjes verdwijnen inderdaad. Maar wat ChatGPT er niet bij zegt, is dat azijn slecht is voor graniet. De vloer krijgt doffe, witte vlekken. En zo gaat een vloer van tweeduizend euro verloren.
Hoe gebruik je chatbots dan wel?
Chatbots, waaronder ChatGPT, Copilot Gemini, zijn waardevolle vraagbaken en sparringpartners. Maar het is wel belangrijk om met een aantal zaken rekening te houden als je een vraag stelt aan een chatbot.
- Goede prompt
Formuleerde vraag die je stelt zoduidelijk en ondubbelzinnigmogelijk. - Context
Voeg zoveel mogelijk informatie toe aan je vragen. Onthoud dat eenchatbotniets snapt. Dus benoem alles wat relevant is. - Kleine stapjes
Heb je een ingewikkelde vraag of opdracht, splits die op in kleinere vragen. - Broncontrole
Vraag om bronvermelding. Lees de bronnen en ga na of het gegeven antwoord daarin te vinden is. - Nieuwe vragen
Krijg je niet de antwoorden die je zou willen, stel de vraag dan opnieuw. In andere bewoordingen. Of voeg nieuwe informatie toe.
Wil je meer weten over AI? Of wil je zelf aan de slag? Ga dan naar Seniorweb.nl/onderwerp/ai