Real Steel

Arènes, robots, combats : un univers punk et métal, courtesy... Digital Domain.

Avouez : en bons connaisseurs, vous vous attendiez à voir ILM relever le défi des VFX de Real Steel après leur performance sur les robots des sagas Terminator et Transformers. Et non... C'est Digital Domain qui vient ici prouver qu'ils ont le  niveau pour chatouiller ILM sur leur terrain !

Si vous avez plus de 15 ans, ne prêtez pas trop attention à l'histoire, pas très vraisemblable : les retrouvailles d'un  père qui ne vit que pour entraîner ses robots boxeurs, avec son fils de 11 ans, plus adulte et plus fou encore que son loser de père. Concentrez-vous plutôt sur l'univers, bien plus fascinant, dans lequel évoluent les personnages. Placé dans un  futur proche où des robots de combat remplacent les boxeurs sur le ring, cet univers tient à la fois de l'Amérique profonde (Midwest) et de l'underground façon Blade Runner. Des arènes toujours plus colossales et futuristes, des ordinateurs (siglés HP, merci le placement de produits) à écran transparent et tactile, et surtout des robots plus beaux et rutilants que des voitures de Formule 1.

L’héritage de Avatar
Ces robots, c’est donc Digital Domain qui les a créés. Fondée par James Cameron et aujourd’hui propriété de Michael Bay, la firme n’est pas exactement novice en termes d’animation de robots. Ses équipes ont travaillé sur certains personnages mécaniques des Transformers, et créé tous les effets de I, Robot. Avec Real Steel, Digital Domain était décidé à passer à une étape supérieure de gestion des effets visuels.
En 2011, les vrais défis ne se situent plus au niveau de l’animation ou du rendu, car la technologie est désormais parfaitement au point. La « nouvelle frontière » des effets visuels tourne autour de la manière dont les effets sont créés, et surtout, de leur intégration au sein du processus de tournage. Depuis l’avènement de l’animation 3D, les réalisateurs se sont fait une raison : ils savent qu’ils doivent filmer un espace vide dans lequel la créature ou le personnage généré par ordinateur sera ensuite intégré. Une situation frustrante pour n’importe quel cinéaste, car le processus implique de confier à d’autres la réalisation ultime de l’effet, sans compter les approximations inévitables du cadrage.
Inchangé depuis que James Cameron a « filmé » le pseudopode d’Abyss ou le T-1000 de Terminator 2, cet état de fait est en train de vivre ses derniers instants. James Cameron, encore lui, a franchi un pas décisif au cours de la réalisation d’Avatar. Beaucoup d’observateurs se sont extasiés sur le système qui permettait au cinéaste de cadrer ses acteurs en Performance Capture, tout en voyant les personnages 3D correspondants s’animer en temps réel dans le décor sur son moniteur. Mais la vraie révolution est peut-être passée inaperçue. Car James Cameron a également mis au point un dispositif qui lui permettait d’intégrer un personnage animé en 3D dans l’image du décor réel sur le moniteur de contrôle. Autrement dit, le Na’vi était animé en amont du tournage, et l’animation combinée en temps réel avec les images du décor. De fait, le cinéaste « voyait » son personnage virtuel en même temps que les acteurs. Il pouvait donc cadrer la scène à la perfection et peaufiner les regards, les interactions, etc.
Cette innovation spectaculaire est passée inaperçue du grand public, mais elle s’apprête à révolutionner la manière dont ce type d’effet visuel est réalisé. À partir du moment où les délais de production permettent de créer une partie de l’animation en amont du tournage, le réalisateur peut désormais importer ces images dans son système de prise de vues et « voir » le personnage s’animer sous ses yeux en direct, dans le décor réel. On imagine à quel point cette technologie peut être libératoire pour les cinéastes. Real Steel est le premier film à mettre en œuvre cette technologie depuis Avatar. Le procédé a été baptisé SimulCam B.

Intégration en temps réel
Si le principe est simple, la technologie qu’il met en œuvre est complexe. Pour commencer, le superviseur des effets visuels Erik Nash organise une session de motion capture. Deux boxeurs professionnels sont filmés sur un ring qui reproduit à leur échelle celui des robots dans le film. Le dispositif de motion capture est mis en place par Giant Studios, la société qui avait déjà géré cet aspect de la production dans Avatar.

Les mouvements des boxeurs sont ensuite transposés sur les robots afin de fournir l’animation de base. L’équipe de Digital Domain doit alors effectuer un gros travail de retouche, car les proportions ne correspondent pas toujours. Comme les robots mesurent 2,40 mètres en moyenne, l’acteur devait boxer… perché sur des échasses ! L’accessoire le plaçait à la bonne hauteur, mais le genou se retrouvait beaucoup trop haut par rapport à celui du robot, ce qui empêchait une bonne transposition des mouvements. Résultat, l’animation a souvent dû être refaite à la main afin que le robot se déplace de manière naturelle.

Une fois l’animation validée par le réalisateur, l’équipe passe aux prises de vues réelles. Giant Studios installe un système de motion capture autour du plateau de tournage. Le dispositif est cette fois largement simplifié car il ne doit suivre qu’un seul objet, à savoir la caméra. Le but est de déterminer à chaque instant où se trouve la caméra dans le décor et dans quelle direction elle est tournée. Le décor ayant été modélisé en 3D, et la focale étant connue, le logiciel peut déterminer exactement le cadre enregistré par la caméra.
Dans le même temps, l’animation des robots est importée dans le système. Le logiciel analyse image par image la position de la caméra réelle et reproduit ces données sur la caméra virtuelle qui filme les robots. De la sorte, tous les mouvements que le cameraman effectue sur le plateau sont transposés en temps réel sur la caméra 3D. Les robots se retrouvent donc cadrés exactement de la même manière que les prises de vues réelles.

Une libération pour les réalisateurs
Dernière étape du processus, l’animation est combinée en temps réel avec les images du tournage. Le réalisateur et le cameraman voient les robots sur le moniteur de contrôle, parfaitement calés dans le décor réel. La caméra réelle les filme comme s’ils étaient présents sur le plateau. Seul bémol, un retard de deux à trois images entre le mouvement réel et sa reproduction par la caméra virtuelle, temps nécessaire pour que le logiciel traite les données de motion capture et les transpose. Après quelques heures d’entraînement, le cameraman parvient à compenser ce décalage de manière à l’intégrer dans la prise de vues.
Grâce au SimulCam, le réalisateur peut diriger la scène en parfaite connaissance de cause. Il n’a plus besoin d’imaginer le résultat final, il l’a sous les yeux. Les robots font partie intégrante de la scène dès la prise de vues, alors même que la caméra est en mouvement. C’est un progrès considérable.

Le procédé a beaucoup apporté à Real Steel dans la mesure où de nombreuses scènes impliquaient un positionnement très précis des personnages, comme ces plans de combat où l’on voit le robot Atom au premier plan, face à un autre robot, en train d’imiter les gestes de Hugh Jackman à l’arrière-plan. Le SimulCam a permis de cadrer l’action au plus près, de tester diverses options, alors qu’avec le processus habituel, le réalisateur Shawn Levy aurait dû choisir un cadrage « au jugé », et espérer ensuite que les robots s’intègreraient bien dans le plan… “Ce qu’on a fait sur ce film est inédit,” précise Levy. “On pouvait tourner dans n’importe quel décor, on branchait les caméras, et les robots étaient là, dans l’image. Quand j’ai fait La Nuit au Musée avec la scène du tyrannosaure, c’était très frustrant de devoir filmer un vaste espace vide sans aucun repère visuel.”

Et Hugh Jackman de surenchérir : “J’ai connu cette situation sur de nombreux films, où il faut tourner face à une balle de tennis qui sert de point de repère. Sur Real Steel, on avait une scène de combat qui a été tournée en six jours grâce à ce système. Sur un X-Men, il aurait fallu un mois avec deux équipes… Ça va infiniment plus vite. Surtout, ça donnait à Shawn un vrai contrôle sur les plans. Il n’était pas là pour créer une sorte de canevas sur lequel l’équipe des effets visuels allait construire la scène. C’est bien plus efficace. Car même si vous fournissez l’arrière-plan « parfait », le reste de l’action va quand même être réalisé par d’autres. C’est une partie du contrôle du réalisateur qui disparaît. Dans Real Steel, Shawn Levy a pu régler l’action, le cadrage, le timing, etc. comme jamais auparavant avec des effets visuels.”

Maîtriser la lumière
L’équipe de Digital Domain s’attache aussi à perfectionner l’intégration visuelle des robots dans l’image. Le studio est réputé pour sa maîtrise sans égale du compositing, comme en témoigne son travail sur L’Étrange histoire de Benjamin Button. Pour Real Steel, ils ont poussé le processus à un point de perfectionnement rarement atteint. Traditionnellement, lors une prise de vues à effets visuels, l’équipe effectue un enregistrement en large gamme dynamique (ou HDR) de l’environnement. Ces images sont soit des photos individuelles prises à 360° et juxtaposées, soit des photos prises au fish-eye. Les images sont ensuite projetées sur un dôme placé au-dessus de l’environnement virtuel dans lequel les personnages 3D vont évoluer. Ce sont ces images qui vont éclairer les personnages en reproduisant exactement les conditions de lumière du site réel.
Le processus est parfaitement au point, mais présente un inconvénient. Tous les éléments de l’environnement réel se retrouvent placés à la même distance du personnage. Or, dans la réalité, il n’en est pas de même. Telle façade sera plus proche qu’une autre, et le ciel sera beaucoup plus haut, chacun réfléchissant plus ou moins la lumière. Pourtant, une fois projetés sur un dôme, tous ces objets se retrouvent à la même distance, ce qui crée des aberrations dans la manière dont le personnage est éclairé.Après une première expérience concluante sur L’étrange histoire de Benjamin Button, l’équipe de Digital Domain décide de pousser le processus beaucoup plus loin en effectuant plusieurs enregistrements à large gamme dynamique sur le plateau. Si le personnage traverse plusieurs décors, il y aura autant de positions pour l’enregistrement. Un robot peut ainsi sortir d’un camion, franchir un espace à découvert, puis entrer dans un tunnel. Trois variations extrêmes des conditions de lumière. Digital Domain fera alors un enregistrement HDR dans les trois environnements afin que le robot soit toujours éclairé de manière réaliste.Pour parfaire l’intégration, l’équipe dispose aussi des images de « vrais » robots fabriqués par Legacy Effects et filmés dans le décor. Ils fournissent une référence parfaite sur la manière dont le personnage doit prendre la lumière.

À l’arrivée, les robots se retrouvent intégrés dans les images avec une fluidité et un réalisme étonnants. Au bout de quelques scènes, le spectateur cesse d’admirer la performance technique pour se concentrer sur l’action seule. Après tout, le meilleur effet visuel est celui qui parvient à se faire oublier, n’est-ce pas ?

Alain Bielik, Octobre 2011
(Commentaires visuels : Paul Schmitt)
Spécialiste des effets spéciaux, Alain Bielik est le fondateur et rédacteur en chef de la revue S.F.X, bimestriel de référence publié depuis 20 ans. Il collabore également à plusieurs publications américaines, notamment sur Internet.

Galeries à voir sur les mêmes sujets:

VFX par Digital Domain:

>> Tron l'héritage

>> L'étrange histoire de Benjamin Button

>> Transformers