Meta a récemment présenté une avancée majeure dans le domaine de l’IA avec le lancement de Meta Motivo, un modèle d’IA conçu pour améliorer les mouvements des avatars digitaux et ouvrir de nouvelles perspectives immersives dans le métavers. Cette annonce s’inscrit dans une stratégie ambitieuse de l’entreprise pour révolutionner les technologies de réalité augmentée et d’IA.
Meta Motivo : améliorer les mouvements des avatars digitaux
Meta Motivo est un modèle d’intelligence artificielle conçu pour résoudre les problèmes liés à la reproduction des mouvements corporels chez les avatars numériques. Grâce à cette technologie, les avatars peuvent effectuer des mouvements de manière plus naturelle et réaliste, réduisant ainsi l’écart entre le virtuel et le réel.
Ce modèle pourrait transformer les interactions dans le metaverse en rendant les personnages non joueurs (NPC) plus crédibles et immersifs. En permettant une animation de personnages plus fluide, il ouvre la voie à des applications variées, notamment dans les domaines du divertissement, de l’éducation et des réseaux sociaux immersifs.
Un investissement massif dans l’IA et le métavers
Meta consacre des ressources colossales à ses projets en intelligence artificielle et technologies immersives. L’entreprise a déclaré que ses dépenses en capital atteindraient entre 37 et 40 milliards de dollars en 2024, un record dans son histoire. Ces investissements visent à accélérer l’adoption du métavers et à positionner Meta comme leader dans ce domaine en pleine expansion.
En libérant de nombreux modèles d’IA en open source, Meta espère stimuler l’innovation et favoriser le développement d’outils par des tiers. Cette stratégie pourrait renforcer l’écosystème technologique autour de ses services et améliorer les fonctionnalités disponibles pour les utilisateurs.
Le Large Concept Model : une nouvelle approche pour l’IA linguistique
Parallèlement à Meta Motivo, la société a annoncé le développement du Large Concept Model (LCM), un modèle qui réinvente la manière dont l’IA comprend et traite le langage. Contrairement aux modèles linguistiques traditionnels qui prédisent le prochain mot ou élément, le LCM se concentre sur des concepts ou des idées de haut niveau.
Cette approche repose sur un espace d’embedding multimodal et multilingue, permettant de prédire des phrases complètes et de mieux découpler le raisonnement de la représentation linguistique. Ce modèle pourrait offrir des capacités accrues dans la gestion de projets complexes et les applications à fort enjeu en IA.
La technologie Video Seal : des contenus mieux protégés
Parmi les autres outils présentés, Meta a lancé Video Seal, une technologie qui intègre un filigrane invisible dans les vidéos. Ce filigrane, indétectable à l’œil nu, peut être tracé, offrant ainsi une solution innovante pour protéger les contenus vidéo contre les usages non autorisés. Cela rappelle la technologie de SynthID de Google.
Cette fonctionnalité pourrait jouer un rôle clé dans la lutte contre le piratage et la désinformation, tout en renforçant la crédibilité et la sécurité des contenus créés pour le Metaverse.
Vers une transformation des expériences immersives
Avec Meta Motivo, le Large Concept Model et Video Seal, Meta démontre son ambition de façonner le futur du metaverse. Ces innovations renforcent les possibilités offertes par les technologies immersives, tout en répondant aux défis techniques et éthiques que présente l’évolution rapide de ces environnements virtuels.
En combinant créativité, technologie et recherche avancée, Meta continue de repousser les limites de l’expérience utilisateur dans un univers toujours plus connecté et interactif.