Dans un extrait exclusif du Virtual Production Field Guide d’Epic Games, l’équipe Nviz explique comment Unreal Engine aide à stimuler l’innovation dans Previs, Techvis, Stuntvis, Postvis, Simulcam, graphiques et images finales

Publié: 6 avril 2021

Epic Games a publié le deuxième volume de son Virtual Production Field Guide, une ressource gratuite et approfondie pour les développeurs à chaque étape du processus de production virtuelle au cinéma et à la télévision.

La publication propose une plongée en profondeur Découvrez les développements de flux de travail, y compris la collaboration multi-utilisateurs à distance, les nouvelles fonctionnalités publiées dans Unreal Engine et des entretiens avec des leaders du secteur sur leurs expériences pratiques avec la production virtuelle.

Les entretiens comprennent une séance de questions-réponses avec le studio de visualisation basé à Londres Nviz, dont les crédits comprennent Devs, Avenue 5, The Witcher, Solo, Vie, Hugo, et Le Chevalier Noir. Dans cet extrait exclusif CEO Kris Wright et Hugh Macdonald, directeur de la technologie, expliquent comment Unreal Engine contribue à l’innovation dans Previs, Techvis, Stuntvis, Postvis, Simulcam, Graphics et Final Imagery.

Depuis combien de temps avez-vous intégré Unreal Engine dans votre travail?

Hugh Macdonald: Unreal Engine est dans notre pipeline précédent depuis environ trois ans et dans le pipeline Simulcam depuis un an. Avant cela, nous utilisions le propre moteur de rendu de Ncam qui utilise MotionBuilder. Nous avons fait un travail l’année dernière qui était très courant dans Unreal et nous avons fait une simulation avec elle sur le plateau, y compris la capture de personnages CG à travers des mouvements faciaux. Nous avons également réalisé Postvis in Composure dans Unreal Engine.

Pourquoi avez-vous adopté Unreal Engine pour la production virtuelle?

HM: C’était une combinaison d’actifs Unvis préexistants dans Unreal Engine, de la fidélité visuelle, du contrôle que vous obtenez et de la nécessité de capturer les mouvements du visage. Nous avons estimé qu’Unreal était la voie à suivre pour ce projet car l’expérience cinématographique d’Epic venait de Kim Libreri. [CTO at Epic Games]. Kim découvre le monde des effets visuels. Epic est une entreprise qui comprend les différents secteurs et défis. Un CTO qui connaît vraiment notre monde à fond est très encourageant de ce que cela pourrait signifier pour le moteur à l’avenir.

Que visualisez-vous habituellement avec Simulcam?

HM: Quatre-vingt pour cent du temps, ce sont des environnements. Il peut s’agir de créatures ou de véhicules en arrière-plan, mais la plupart du temps, ce sont des environnements. Le principal avantage est de donner au caméraman et au réalisateur une chance de comprendre à quoi ressemblera la prise de vue.

Peut-être que vous encadrez un personnage au premier plan et qu’il y aura un grand bâtiment CG derrière. Sans Simulcam, vous pouvez couper le haut du bâtiment ou réduire la taille du bâtiment dans ce paramètre pour lui donner une apparence correcte. La clé est la possibilité pour tout le monde sur le plateau de comprendre exactement à quoi ressemblera la photo plus tard, au-delà des aperçus et des storyboards.

De quel type de données avez-vous besoin pour faire fonctionner Simulcam?

HM: Nous enregistrons toutes les données de caméra et les données de suivi, y compris l’emplacement de la caméra dans le monde. Vous savez donc dans l’article où se trouvait la caméra et comment elle se synchronise avec l’animation qui était lue avec les images originales à l’époque. Nous générons également des journaux quotidiens avec des effets visuels sous forme de comps claques de ce qui a été filmé avec le CG rendu.

Comment suivez-vous vous-même le décor?

HM: Aucun LiDAR ou pré-numérisation n’est requis. Nous utilisons Ncam, qui crée un nuage de points pendant le fonctionnement. Ensuite, vous pouvez ajuster la position du monde réel dans le monde virtuel pour vous assurer que tout est conforme au CG. C’est un nuage de points légèrement plus granuleux que celui de LiDAR, mais c’est assez bon pour garder la ligne.

Sur un projet récent, nous avons eu un seul compositeur qui a pris les antécédents de CG de l’équipe sur le plateau et les disques de l’éditorial et les a assemblés en un éclair. En général, chaque jour, il gardait une trace des sélections que les rédacteurs voulaient obtenir une image légèrement meilleure.

Kris Wright: Et parce que c’est un visa de poste assez bon marché, il a été inestimable pour la rédaction. Une partie de ce Postvis est restée en moyenne presque jusqu’au chiffre d’affaires final. C’était donc une façon d’ajouter ces données et ce flux de travail pour soutenir le processus éditorial. Ce n’était pas seulement une question de visualisation sur le plateau.

Comment le changement d’objectif affecte-t-il la Simulcam?

HM: Avec Ncam, le processus d’étalonnage de l’objectif préserve toutes les distorsions et les champs de vision sur toute la plage de zoom et de mise au point, y compris toute respiration. Lorsque vous passez d’un objectif à l’autre, tous les paramètres de cet objectif sont appliqués. Lorsqu’un nouvel objectif est introduit pendant la production, il faut environ 20 minutes pour le calibrer.

Comment votre flux de travail s’est-il adapté au besoin accru de collaboration à distance?

HM: Nous avons actuellement la possibilité pour un caméraman, un DP ou un réalisateur d’avoir un iPad où qu’il se trouve, mais tout le matériel exécute une session dans notre bureau. Vous pouvez avoir une technologie de système de caméra virtuelle qui contrôle le système de n’importe où. Ensuite, vous pouvez demander à plusieurs autres personnes de regarder la session et de discuter de l’ensemble en même temps.

Nous considérons la collaboration à distance comme très importante, même si tout ne se passe pas avec les serrures actuelles, par exemple dans un scénario où les clients ne peuvent pas entrer dans notre bureau parce qu’ils prennent des photos dans un endroit différent et que c’est trop encombrant. Pour pouvoir le faire à distance, plusieurs autres personnes – qu’il s’agisse du superviseur des effets, du superviseur précédent, de l’éditeur ou de toute autre personne – doivent regarder la session, commenter et voir ce qui se passe avec une compréhension de celle-ci. aller nous donne beaucoup plus de flexibilité.

KWt: Les solutions actuelles que j’ai vues sont des gens qui passent un appel de zoom ou qui disent dans Google Hangouts: «Oh, pouvez-vous déplacer un peu la caméra ici? Et maintenant là. « Nous voulions continuer. Tout le monde a un iPad avec lequel ils peuvent désormais enregistrer toutes les visualisations et tous les modèles. Nous essayons de garder l’espace requis aussi bas que possible et en fonction du logiciel, vous devez le télécharger et tout le monde peut le regarder dans un virtuel village vidéo.

Où voyez-vous vos flux de travail avec Unreal Engine à l’avenir?

HM: La fidélité visuelle dans UE5 sera incroyable et fera un énorme bond en avant. De plus en plus de gens aiment les effets visuels de la caméra Le mandalorien. Il devient de plus en plus accessible à plus de productions. Nous allons voir beaucoup plus de drames et de pièces historiques qui utilisent cette technologie.

Il y aura beaucoup plus de productions d’événements en direct telles que B. Concerts. Ce qui a été annoncé, c’est la fidélité visuelle de l’éclairage et de la géométrie. Unreal Engine est de plus en plus utilisé pour des effets transparents.

KW: L’une des choses vraiment passionnantes est la base d’application. Nous constatons que les départements d’art virtuel acceptent maintenant cela, et les concepteurs de production utilisent maintenant VCam pour montrer leurs décors avant même de les prévisualiser. J’ai même entendu parler de grabs and gawkers qui mettent les gens dans des réunions virtuelles pour déplacer des actifs. Epic y parvient vraiment et a vu la situation dans son ensemble: pas seulement la fidélité de l’image, mais aussi comment cet outil peut aider à la prise de décision dans tous les domaines de la réalisation de films en raison de son aspect temps réel et de son traitement itératif.

La version complète du guide de terrain de production virtuelle d’Epic Games est disponible en téléchargement Ici.



Source link

Recent Posts