De kans dat AI-chatbots hallucineren wordt groter als gevraagd wordt om een kort en bondig antwoord. Zo'n prompt zorgt ervoor dat details worden weggelaten en een antwoord feitelijk minder nauwkeurig wordt. Dat blijkt uit een nieuwe studie van het Franse AI-testbedrijf Giskard. Rosanne Peters vertelt erover in deze Tech Update.
Volgens de onderzoekers wordt de kans op hallucinaties groter omdat een chatbot bij een beknopter antwoord letterlijk minder ruimte heeft om te herkennen dat het zich op verkeerd terrein begeeft of dat het fouten maakt. Veel populaire en nieuwe modellen zijn in het onderzoek meegenomen, zoals OpenAI's GPT-4o of Anthropic's Claude 3.7 Sonnet.
Kortgeleden werd nog bekend dat modellen van OpenAI juist meer zijn gaan hallucineren, ondanks dat er in de wereld van AI hard wordt gewerkt om dit tegen te gaan.
Verder in deze Tech Update:

Pensioen Apple-topman Tim Cook laat nog wel even op zich wachten
04:36

Musk ziet leegloop aan xAI-medeoprichters en moet nu zelf mensen aannemen
05:33

Meta sluit deal van 27 miljard met 'Nederlands cloudbedrijf' Nebius
04:57