AI-onderzoekers bij Meta hebben een AI-model gepresenteerd dat getraind is op menselijke bewegingen. Het doel is om virtuele avatars, in de Metaverse, natuurlijker te laten bewegen. Daarnaast komt het bedrijf met een alternatief voor het Large Language Model.
Meta Motivo is de naam van het AI-model voor menselijke beweging. Volgende de onderzoekers wordt het hiermee mogelijk om AI-agenten natuurlijke bewegingen te geven. Daarmee zou het mogelijk worden om AI-avatars in de Metaverse nog realistischer te maken.
Naast Motivo presenteren de onderzoeker meer ontwikkelingen. Zo wordt er gewerkt aan een watermerk voor AI-gegenereerde video's. De Meta Video Seal moet voorkomen dat AI-video's niet meer onderscheiden kunnen worden van echte video's.
Tot slot presenteert het AI-onderzoeksteam bij Meta een Large Concept Model, een nieuwe manier van redeneren voor AI-modellen. Het huidige Large Language Model zou enkel opvolgende tekstuele token berekenen, maar een LCM kan op een hoger conceptueel niveau de volgende stap berekenen.
Volgens de onderzoekers zou dat een stap zijn in de richting van Artifcial General Intelligence. De inzichten zijn gedeeld met de open source-community, die er verder mee kan experimenteren.
Verder in deze Tech Update:

Philips Fixables | Schaal van Hebben | Zelf je spullen repareren met 3D-printen
08:14

Meta en Microsoft willen van groot deel personeel af: bijna 19 duizend mensen de deur uit
05:44

Tim Cook noemt grootste flop onder zijn bewind als Apple-topman
04:41