Vous pourrez bientôt animer les MetaHumans réalistes d’Epic à l’aide de votre iPhone

[ad_1]

Imaginez animer une autre personne hyperréaliste en utilisant uniquement votre iPhone. C’est exactement ce qu’Epic dit que vous pourrez faire plus tard cette année.

Aujourd’hui, Epic Games a organisé l’état de l’Unreal au GDC, son événement où la société dévoile la dernière technologie alimentant Unreal Engine. Lors de l’événement, l’équipe a annoncé qu’elle apporterait sa technologie Metahuman Animation aux iPhones. Le nouvel ensemble de fonctionnalités de Metahuman Animator promet de rendre la capture de performances plus facile et plus accessible pour les créateurs de jeux.

La société affirme que les utilisateurs pourront bientôt utiliser uniquement un iPhone pour la capture des performances. Les performances capturées à l’aide de l’iPhone seront utilisées pour animer un personnage MetaHuman, qui peut être choisi parmi les personnages prédéfinis de l’entreprise ou personnalisés créés par les développeurs.

MetaHuman Animator vous permettra d’utiliser votre iPhone ou votre caméra stéréo montée sur casque (HMC) pour reproduire n’importe quelle performance faciale sous forme d’animation haute fidélité sur des personnages MetaHuman. Avec lui, vous pourrez capturer l’individualité, le réalisme et la fidélité de la performance de votre acteur, et transférer chaque détail et nuance sur n’importe quel MetaHuman pour leur donner vie dans Unreal Engine.

Vous pouvez consulter ci-dessous certaines des performances capturées à l’aide d’un iPhone :

La société affirme que cette fonctionnalité rendra la qualité d’animation des personnages AAA accessible à un plus grand nombre de personnes, y compris les développeurs de jeux indépendants et même les amateurs. La société affirme que la technologie est également capable de se synchroniser avec les systèmes mocap pour la capture de mouvement de tout le corps :

MetaHuman Animator fonctionne également avec n’importe quelle solution de capture HMC stéréo verticale professionnelle, y compris celles de Technoprops, offrant des résultats de qualité encore supérieure. Et si vous avez également un système de mocap pour la capture du corps, la prise en charge du code temporel par MetaHuman Animator signifie que l’animation de la performance faciale peut être facilement alignée avec la capture du mouvement du corps et l’audio pour offrir une performance complète du personnage. Il peut même utiliser l’audio pour produire une animation de langue convaincante.

Pour montrer ce qui est possible avec sa dernière technologie, Epic a montré un clip rapide de Ninja Theory qui a utilisé la technologie d’animation pour capturer une performance de Hellblade. Vous pouvez vérifier cela ci-dessous :

La société affirme qu’elle fonctionnera avec l’iPhone 11 ou une version ultérieure et sera lancée à l’été 2023.


[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*