AI-onderzoekers bij Meta hebben een AI-model gepresenteerd dat getraind is op menselijke bewegingen. Het doel is om virtuele avatars, in de Metaverse, natuurlijker te laten bewegen. Daarnaast komt het bedrijf met een alternatief voor het Large Language Model.
Meta Motivo is de naam van het AI-model voor menselijke beweging. Volgende de onderzoekers wordt het hiermee mogelijk om AI-agenten natuurlijke bewegingen te geven. Daarmee zou het mogelijk worden om AI-avatars in de Metaverse nog realistischer te maken.
Naast Motivo presenteren de onderzoeker meer ontwikkelingen. Zo wordt er gewerkt aan een watermerk voor AI-gegenereerde video's. De Meta Video Seal moet voorkomen dat AI-video's niet meer onderscheiden kunnen worden van echte video's.
Tot slot presenteert het AI-onderzoeksteam bij Meta een Large Concept Model, een nieuwe manier van redeneren voor AI-modellen. Het huidige Large Language Model zou enkel opvolgende tekstuele token berekenen, maar een LCM kan op een hoger conceptueel niveau de volgende stap berekenen.
Volgens de onderzoekers zou dat een stap zijn in de richting van Artifcial General Intelligence. De inzichten zijn gedeeld met de open source-community, die er verder mee kan experimenteren.
Verder in deze Tech Update: