Toute l'actualité Gaming, Esports et jeux vidéo sur consoles et PC. Toutes les news des jeux fraîchement servies par la rédaction du site de référence : annonces, sorties, bons plans... ne manquez plus une info essentielle. Votre Magazine #1 des Jeux Vidéo. News, tests, émissions, trailers, vidéos, soluces et astuces.

Un guide du débutant sur la capture de performances par Epic Games

Un guide du débutant sur la capture de performances par Epic Games
📱

L’une des façons dont les développeurs de jeux ajoutent du réalisme au mouvement des personnages est d’utiliser la technologie de capture de mouvement. Un acteur enfile une combinaison spécialisée et exécute des mouvements, et ces mouvements sont capturés sous forme de flux de données et redirigés vers un avatar numérique. Le résultat est une animation de personnage plus réaliste pour les boucles de jeu et les cinématiques.

Dans le développement de jeux, les premières utilisations de la capture de mouvement, ou mocap, remontent à 1994. Depuis lors, le mocap fait partie du processus de franchises extrêmement réussies telles que Gears of War, Grand Theft Auto et Mortal Kombat.

Mais dans ce processus, il y a traditionnellement eu une déconnexion entre l’animation corporelle et faciale – un flux de travail courant impliquant l’utilisation de mocap pour les mouvements corporels du personnage, puis la demande à un artiste d’animer le visage manuellement.

Avec les progrès récents de la technologie de capture de mouvement, cette déconnexion n’est plus nécessaire. Les systèmes de capture faciale – autrefois maladroits, fixes et abordables uniquement pour les studios à gros budget – sont désormais plus sensibles, moins chers et suffisamment portables pour qu’un acteur puisse les porter pendant une session de mocap. Certains systèmes utilisent simplement un iPhone X attaché à un casque.

Certains systèmes de capture faciale utilisent simplement un iPhone X attaché à un casque (Image reproduite avec l’aimable autorisation de Kite & Lightning)

La combinaison de la capture des mouvements corporels et de la capture faciale signifie que désormais, toute la performance d’un acteur, avec toutes ses nuances physiques, peut être capturée et transférée sur un personnage numérique. Ce type de capture, connu sous le nom de capture de performance, permet aux acteurs d’utiliser toute leur gamme de compétences pour donner vie à un personnage, et donne également aux créatifs un ensemble de données beaucoup plus complet avec lequel travailler.

L’impact de la capture de performances sur les cinématiques de jeu se fait déjà sentir dans des titres comme Hellblade: Senua’s Sacrifice de Ninja Theory, où les dialogues émotionnellement déchirants de Senua avec ses démons intérieurs provenaient directement des performances de l’actrice Melina Juergens. Le sens brut de l’agitation de Senua dans ces cinématiques témoigne de la puissance de la capture de performance pour apporter un haut degré d’humanité à un personnage numérique.

Pourquoi la capture des performances en temps réel ?

Un autre aspect intéressant de la performance de Juergens est qu’elle a été reciblée sur Senua en temps réel lors de la session de capture de performance, avec l’animation de Senua dans son environnement projetée sur un grand écran directement dans le studio mocap pendant que Juergens la jouait.

Le sens brut de l’agitation de Senua témoigne de la puissance de la capture de performance pour apporter un haut degré d’humanité à un personnage numérique

Mais si l’animation ne devait être utilisée que pour des cinématiques, à quoi bon mettre en place une capture en temps réel ? Ne pourraient-ils pas simplement enregistrer les données de capture et les recibler ensuite sur le personnage ?

L’avantage d’utiliser un système en temps réel était que la performance pouvait être ajustée directement dans le studio mocap, pendant que l’acteur était encore habillé. Au cours de la session, le réalisateur Tameem Antoniades a pu voir instantanément comment la performance de Juergens fonctionnait à la fois avec la plate-forme de Senua et l’environnement, afin qu’il puisse diriger Juergens comme sur un plateau de tournage – chaque nouvelle prise pourrait être informée par la vision du réalisateur pour le personnage et la scène, et par ce qui a fonctionné (ou n’a pas fonctionné) sur la prise précédente. Et quand la dernière prise a été faite, ils savaient qu’ils avaient ce dont ils avaient besoin.

Sans surprise, les graphismes en temps réel pour la projection sont passés par un moteur de jeu, dans ce cas Unreal Engine. Le plug-in Live Link d’Unreal Engine est conçu pour diffuser des données directement à partir de systèmes mocap dans le moteur pour un aperçu en temps réel. Le travail de Ninja Theory dans le domaine de la capture de performances s’est poursuivi avec la suite du jeu Senua’s Saga: Hellblade II.

Hellblade: Senua’s Sacrifice, image reproduite avec l’aimable autorisation de Ninja Theory, Cubic Motion et 3Lateral

Mise en place de votre propre système de capture de performance

Peut-être avez-vous essayé la capture de mouvement, ou même simplement recherché un costume ou deux. Peut-être avez-vous même considéré le mocap en temps réel comme une possibilité pour vos cinématiques. Mais par où commencer ?

Epic Games a récemment publié “Choisir un système de capture de performances en temps réel”, un livre blanc qui explore les différents types de systèmes pour la capture du corps et du visage. Le document explique en détail comment choisir un système en fonction de vos besoins de production, tels que l’utilisation d’accessoires ou l’interaction entre plusieurs personnages.

Session de capture de performances pour la vidéo Siren Real-Time Performance d’Epic (Image reproduite avec l’aimable autorisation d’Epic Games, 3Lateral et Tencent)

Il y a aussi une explication du fonctionnement des systèmes de capture faciale, qui diffère de la capture corporelle de plusieurs manières importantes.

Alors que la capture du corps recherche essentiellement les mouvements du squelette, la capture du visage examine la forme de la peau. Le seul os mobile du visage est la mâchoire inférieure, et la plupart des expressions faciales proviennent des muscles faciaux qui se déplacent sous la peau pour provoquer des renflements et des creux relativement petits. Les changements possibles de la forme de la peau de tous les êtres humains se situent dans une certaine plage, de sorte que le système n’a qu’à regarder dans cette plage. Les Animojis sur iPhone X et plus tard profitent de cette technologie pour recibler les expressions et la parole de n’importe quel visage sur un personnage animé en temps réel.

Le document comprend des études de cas qui montrent comment différentes productions ont choisi différents systèmes en fonction de leurs besoins très distincts.

Système simple en temps réel pour Bebylon

Mais toutes les captures de performances ne visent pas à imiter des acteurs humains. Kite & Lightning, basé à Los Angeles, créateurs du prochain Bebylon Battle Royale, a mis en place un système relativement simple pour animer les bébés personnages stylisés du jeu.

Cory Strassburger, l’un des fondateurs de la société, a développé un système de capture de performances en temps réel qui comprenait un iPhone X attaché à un casque. Il a fait la démonstration du système au SIGGRAPH 2018 et a remporté le premier prix au Real-Time Live! concours.

Capture de performance ciblée sur les bébés personnages de Bebylon Battle Royale. Un iPhone X attaché à un casque agit comme une caméra pour la capture faciale (Image reproduite avec l’aimable autorisation de Kite & Lightning)

Capture des performances en temps réel des figurines LEGO

Peu de temps avant que Warner Bros. Pictures ne publie The LEGO Movie 2, ils ont fait appel au studio numérique Animal Logic pour faire équipe avec HQ Trivia, le jeu mobile à succès qui organise chaque jour des concours de quiz en direct.

Le résultat a été une figurine LEGO animée de Scott Rogowsky, bien connu des joueurs de HQ Trivia en tant qu’hôte énergique. Rogowsky lui-même apparaissait généralement à l’écran alors qu’il faisait référence aux questions, réponses et commentaires des joueurs en direct pendant le match.

Dans un épisode spécial de HQ Trivia programmé pour la sortie du film, HQ Trivia a remplacé Rogowsky par une figurine LEGO, et Rogowsky a enfilé un costume mocap et a fait face à un iPhone pour piloter le discours et les mouvements de la figurine en temps réel. Vous pouvez en voir plus dans cette vidéo.

Avec la capture de performances désormais possible avec du matériel standard abordable et des logiciels gratuits comme Unreal Engine, cette technologie est sur le point de décoller de manière considérable, non seulement pour les jeux mais aussi pour la réalisation de films. Consultez le livre blanc “Choisir un système de capture des performances en temps réel” pour en savoir plus sur ce qu’il faut pour entrer dans ce domaine passionnant et en pleine croissance.

David Hibbitts est ingénieur de production virtuel au sein de l’équipe des projets spéciaux d’Epic Games. Visitez le hub de production virtuelle sur le site Web d’Epic Games pour plus d’informations.

Découvrez encore plus d’articles dans nos catégories Astuce, Consoles & Jeux.

Merci pour votre visite on espère que notre article Un guide du débutant sur la capture de performances par Epic Games
, pour nous aider, on vous invite à partager l’article sur Facebook, instagram et whatsapp avec les hashtags ☑️ #guide #débutant #sur #capture #performances #par #Epic #Games ☑️!

You might also like
Leave A Reply

Your email address will not be published.