Pourquoi les consoles de nouvelle génération ont besoin de visages de nouvelle génération

Pourquoi les consoles de nouvelle génération ont besoin de visages de nouvelle génération
🖥️

Les capacités graphiques des consoles ont atteint des niveaux de détail sans précédent. L’époque des environnements pixélisés et des personnages en deux dimensions ressemble à un souvenir lointain alors que nous nous rapprochons de recréations virtuelles vraiment réalistes.

En fait, pour de nombreux genres, la fidélité graphique est aussi importante que les mécanismes de jeu, comme le montre la bataille intense entre les consoles Sony et Microsoft qui prétendent toutes deux être les plus puissantes.

Mais la réalité est qu’à mesure que les moteurs de jeu s’améliorent, ce sont les détails les plus fins – tels que les émotions des personnages représentées par l’animation dans le jeu – qui deviendront les caractéristiques les plus distinctives, en particulier avec les expériences axées sur la narration qui prennent pied. Après tout, à quoi sert un personnage photoréaliste avec des expressions robotiques ?

Dans cet esprit, je veux expliquer exactement pourquoi les consoles de nouvelle génération ont besoin de visages de nouvelle génération et comment les développeurs de jeux peuvent les piloter. Et pas seulement des visages photoréalistes de personnages entièrement fictifs – nous entrons rapidement dans une ère de digi-doubles omniprésents dans le jeu.

La puissance des moteurs de jeu modernes

Dans le passé, le facteur limitant de la qualité des graphismes de jeux vidéo était les capacités du moteur qui les pilotait. Mais maintenant, nous avons atteint un point où les moteurs de jeu peuvent représenter tellement de détails graphiques que la capacité à créer un contenu suffisamment réaliste pour le moteur devient le facteur limitant.

Obtenir une animation faciale suffisamment réaliste est particulièrement difficile et peut jouer un rôle décisif dans la création ou la rupture d’une scène de jeu. Il est beaucoup plus difficile de traverser la «vallée étrange» avec une animation en mouvement que pour une image fixe.

Obtenir une animation faciale suffisamment réaliste est particulièrement difficile et peut jouer un rôle décisif dans la création ou la rupture d’une scène de jeu.

Comme mentionné précédemment, l’animation faciale robotique ou synthétique peut aspirer la vie d’un personnage de jeu. Tout comme dans les films, une grande écriture peut être éclipsée par une performance plate, ou inversement, une grande performance d’acteur peut transcender un scénario médiocre. Cela signifie que les développeurs de jeux prennent les performances faciales et l’animation faciale plus au sérieux que jamais, et avec des progrès incroyables dans la technologie des moteurs de jeu – comme les dernières itérations de l’Unreal Engine – cela devrait être simple, non ? Eh bien, pas nécessairement – cela dépend de l’approche adoptée.

La réalité est qu’avec l’approche traditionnelle de l’animation faciale basée sur un système de contrôle, il devient à la fois plus difficile et plus long d’atteindre la fidélité requise. Afin d’obtenir des niveaux de détail plus élevés, les plates-formes d’animation de jeu atteignent la complexité utilisée pour les effets visuels de films, avec un nombre croissant de contrôles plus fins. Au fur et à mesure que les plates-formes deviennent plus complexes, il devient de plus en plus difficile de les mettre en œuvre pour un personnage particulier, puis d’atteindre le niveau de “polissage” d’animation requis pour les graphismes modernes.

Une approche radicalement différente de l’animation faciale, qui commence à gagner du terrain auprès des développeurs de jeux, consiste à utiliser la technologie avancée de capture faciale 4D. La capture 4D ne nécessite pas de plate-forme d’animation traditionnelle, mais pilote à la place chaque sommet d’un double maillage numérique de caractères directement à partir de la performance de l’acteur. Il est donc capable de produire une animation très précise sans avoir besoin d’un gréement approfondi ou d’un polissage d’animation. Il devient beaucoup plus facile et efficace d’utiliser la capture 4D pour animer des personnages digi-doubles que de créer et d’animer des plates-formes de contrôle traditionnelles.

Par exemple, la technologie de DI4D a été utilisée pour reproduire la performance de l’actrice Angela Bassett dans la bande-annonce de Tom Clancy Rainbow Six Siege – les données de capture faciale ont été utilisées pour piloter les expressions faciales de son personnage.

Un gameplay basé sur l’histoire et une intersection avec Hollywood

Un récit cinématographique fort n’a jamais été aussi important pour les jeux vidéo. Les cinématiques pré-rendues sont désormais même fusionnées sur YouTube par les fans pour les regarder sous forme de courts métrages. Avec la nouvelle génération, le contenu cinématographique est de plus en plus rendu dans le moteur et la distinction entre l’animation cinématographique et l’animation dans le jeu s’estompe rapidement.

God of War est un exemple récent de jeu avec des expériences cinématographiques intégrées dans son gameplay de base. Les scènes CG fusionnent même de manière transparente avec des séquences jouables. De même, la série The Last of Us est un autre exemple de jeu célèbre pour son univers basé sur une histoire, se concentrant en détail sur l’animation faciale de ses personnages dans le jeu.

Certains studios, tels que Supermassive Games, ont choisi de créer des jeux vidéo qui ressemblent davantage à un film interactif qu’à tout ce qui est traditionnellement orienté vers l’action. Sa récente série de jeux d’horreur, House of Ashes, propose même des “soirées cinéma” hors ligne permettant à plusieurs joueurs de s’immerger dans le jeu. Les joueurs de jeux vidéo veulent de belles histoires.

Les progrès de la technologie des moteurs fusionnés avec des expériences axées sur la narration ont mis beaucoup plus l’accent sur la représentation précise des personnages

À l’autre extrémité, vous avez des films d’animation utilisant la technologie de moteur de jeu en temps réel pour créer des fonctionnalités époustouflantes. La récente série Netflix, Love, Death and Robots, comprenait plusieurs films CG qui ne sembleraient pas déplacés sur votre système Playstation ou Xbox, tout en obtenant une qualité incroyable.

Il illustre la haute fidélité possible avec la technologie actuelle et élève la barre des attentes des joueurs. Les moteurs de jeu stimulent même l’expansion de la production virtuelle sur le plateau – une solution qui devrait s’étendre de manière significative à l’ensemble du divertissement en 2021.

Pour résumer, les progrès de la technologie des moteurs de jeu fusionnés avec des expériences de jeu axées sur la narration ont mis beaucoup plus l’accent sur la représentation précise des personnages dans le jeu. C’est vrai pour le design, l’animation et l’écriture. En capturant la véritable performance d’un acteur avec une technologie de suivi 4D réaliste, les studios peuvent réaliser une animation faciale avec un niveau d’authenticité émotionnelle proche de celui de l’action en direct.

Acteurs dans le jeu et doubles numériques de célébrités

Avec la capture faciale 4D et l’animation photoréaliste, la performance d’un acteur devient l’aspect le plus important de l’animation faciale d’un jeu vidéo. Combien de temps faudra-t-il avant que nous parlions de la performance d’acteur d’un personnage principal du jeu de la même manière que nous discutons des acteurs à Hollywood ? Le croisement d’Hollywood et des jeux vidéo est sans doute plus proche que jamais.

Avec les doubles numériques modernes, le niveau de précision et de fidélité de la représentation des acteurs est désormais amélioré. En conséquence, les doubles numériques d’acteurs célèbres commencent à apparaître plus fréquemment dans les titres de jeux vidéo. Si l’apparition de Keanu Reeves dans Cyberpunk 2077 est l’un des exemples les plus récents, plusieurs l’ont précédé : Kit Harrington dans Call Of Duty : Infinite Warfare, Shawn Ashmore dans Quantum Break, Norman Reedus et Mads Mikkelsen dans Death Stranding.

Combien de temps faudra-t-il avant que nous parlions de la performance d’acteur d’un personnage principal du jeu de la même manière que nous discutons des acteurs à Hollywood ?

Il est probable qu’à mesure que de plus en plus d’acteurs célèbres apparaissent dans les jeux vidéo, les opportunités d’acteur augmenteront, suscitant l’intérêt pour les rôles de jeu vidéo en tant qu’alternative viable au jeu cinématographique traditionnel.

Les jeux peuvent promouvoir des sorties avec le rôle principal de la célébrité, tout comme le cinéma, et les personnages secondaires seront de plus en plus joués par des acteurs de formation traditionnelle. La clé est la qualité. Pour que les acteurs prennent ces nouveaux rôles au sérieux, le résultat final doit être précis et réaliste. C’est pourquoi une bonne capture faciale fait partie intégrante de ce processus.

Comme la technologie de capture faciale 4D précise remplace l’animation traditionnelle basée sur un rig, les acteurs auront plus confiance que leur performance exacte sera recréée dans le jeu. La capacité d’acteur de chaque individu sera visible et les acteurs pourront se sentir aussi fiers de leur apparition dans un jeu vidéo qu’ils le pourraient après avoir terminé le tournage d’un film. Il y a une réelle incitation pour les acteurs prometteurs à apparaître dans les jeux vidéo.

L’ère du double numérique

Les humains ont développé une capacité incroyablement sophistiquée à percevoir les visages et les expressions faciales et nous pouvons reconnaître, souvent inconsciemment, les signaux émotionnels les plus subtils. C’est pourquoi l’animation faciale est si difficile à réaliser !

Les consoles de nouvelle génération ont le pouvoir de rendre les personnages du jeu avec des niveaux de détail incroyables, mais la pression est sur les développeurs de jeux pour créer des actifs qui répondent à des attentes de réalisme toujours plus élevées. Il devient de plus en plus efficace d’utiliser la capture 4D pour appliquer la performance d’un acteur directement à son double numérique que de recibler sa performance sur un rig de contrôle traditionnel.

À l’avenir, nous ne penserons même plus à l’animation faciale, la performance exacte capturée apparaîtra dans le jeu. Le débat sur le réalisme se dissipera, il deviendra de l’art au même titre que la performance d’un acteur est de l’art. C’est l’ère du double numérique et les développeurs de jeux doivent être prêts.

Co-fondateur et PDG de DI4D, Colin Urquhart est un vétéran de l’industrie depuis plus de 20 ans et un innovateur dans le domaine de la capture faciale. L’équipe DI4D a travaillé sur une multitude de projets de divertissement, notamment Blade Runner 2049, Call of Duty: Modern Warfare, Love, Death, and Robots et Quantum Break.

Découvrez d’avantage plus d’articles dans nos catégories Astuce, Consoles ou encore Jeux.

Merci pour votre visite on espère que notre article Pourquoi les consoles de nouvelle génération ont besoin de visages de nouvelle génération
, on vous invite à partager l’article sur Facebook, pinterest et e-mail avec les hashtags ☑️ #Pourquoi #les #consoles #nouvelle #génération #ont #besoin #visages #nouvelle #génération ☑️!

besoinconsolesgénérationlesnouvelleontPourquoivisages
Comments (0)
Add Comment