AI-onderzoekers bij Meta hebben een AI-model gepresenteerd dat getraind is op menselijke bewegingen. Het doel is om virtuele avatars, in de Metaverse, natuurlijker te laten bewegen. Daarnaast komt het bedrijf met een alternatief voor het Large Language Model.
Meta Motivo is de naam van het AI-model voor menselijke beweging. Volgende de onderzoekers wordt het hiermee mogelijk om AI-agenten natuurlijke bewegingen te geven. Daarmee zou het mogelijk worden om AI-avatars in de Metaverse nog realistischer te maken.
Naast Motivo presenteren de onderzoeker meer ontwikkelingen. Zo wordt er gewerkt aan een watermerk voor AI-gegenereerde video's. De Meta Video Seal moet voorkomen dat AI-video's niet meer onderscheiden kunnen worden van echte video's.
Tot slot presenteert het AI-onderzoeksteam bij Meta een Large Concept Model, een nieuwe manier van redeneren voor AI-modellen. Het huidige Large Language Model zou enkel opvolgende tekstuele token berekenen, maar een LCM kan op een hoger conceptueel niveau de volgende stap berekenen.
Volgens de onderzoekers zou dat een stap zijn in de richting van Artifcial General Intelligence. De inzichten zijn gedeeld met de open source-community, die er verder mee kan experimenteren.
Verder in deze Tech Update:

Adobe-ceo stopt onverwacht na 18 jaar: 'AI-tijdperk vraagt nieuw leiderschap'
04:03

Lootboxen en open chats maken leeftijdskeuring PEGI voor games zwaarder
05:38

Komende jaren grote verschuiving in locaties waar nieuwe datacenters worden gebouwd
04:40