De AI-chatbot in de zoekmachine van Microsoft is door een Amerikaanse student uit de tent gelokt. Het lukte de student om geheime details te geven over restricties en karaktereigenschappen. Met een simpele zin wist de student bijvoorbeeld te achterhalen wat de projectnaam van het AI is.
Ook lukte het om diverse regels te achterhalen die door Microsoft-ontwikkelaars aan het AI gegeven zijn. Deze 'jailbreaks' komen steeds vaker voor en maken en soms zelfs mogelijk restricties te omzeilen.
Verder in deze Tech Update:

Meme-beursicoon Gamestop wil eBay overnemen voor 56 miljard dollar
04:00

Samsung Galaxy A57 vs. Nothing Phone 4A Pro | Schaal van Hebben | Speelse gimmicks of saaie middenklasse?
07:52

Groen vinkje moet Spotify verlossen van nep-artiesten gemaakt met AI
06:33