La Legende de Beowulf

Toujours à la pointe de la technique, Robert Zemeckis nous entraîne dans l’univers épique d’un guerrier devenu roi. Comme pour Le Pôle Express, il a réalisé le film en Performance Capture, puis rendu toutes les images en 3D. À l’arrivée, le projet le plus complexe jamais entrepris par Sony Pictures Imageworks.

Avec George Lucas, Steven Spielberg et James Cameron, Robert Zemeckis est le cinéaste qui a le plus contribué au développement des effets spéciaux modernes. De Qui veut la Peau de Roger Rabbit ? à la saga Retour vers le Futur, en passant par Contact et Forrest Gump, il a toujours poussé la technologie au-delà des limites connues – et offert à son fidèle complice Ken Ralston trois Oscars des meilleurs effets visuels. Avec Beowulf, il poursuit la démarche entamée il y a trois ans avec Le Pôle Express.
Le scénario de l’auteur de BD Neil Gaiman (Sandman) et de Roger Avary (Pulp Fiction) raconte l’histoire du grand guerrier Beowulf qui débarque dans un royaume du nord de l’Europe pour affronter le monstre qui terrorise la région. Ce faisant, il est sacré roi, mais les soucis ne font que commencer… Le script est basé sur un poème anglais très célèbre ; il s’agit en effet de la plus ancienne création littéraire anglo-saxonne connue. L’œuvre a déjà été portée à l’écran en 1999, mais malgré les efforts de notre Christophe Lambert national, cette production aussi médiocre que fauchée n’a pas laissé de trace dans les annales du cinéma. Ce ne sera certes pas le cas avec la version de Robert Zemeckis, une superproduction qui a monopolisé pas moins de 450 artistes et techniciens d’Imageworks pendant près de trois ans, sous la direction de Ralston et de Jerome Chen, superviseur senior des effets visuels. PixelCreation a pu rencontrer les membres clés de cette équipe. Ils nous racontent leur expérience sur le film.

Création des personnages
Le développement graphique de Beowulf débute alors même que Le Pôle Express est encore en cours de réalisation. “Nous avons commencé par modéliser les personnages dans Maya,” raconte Jeff Stern, superviseur 3D responsable des personnages. “Il y avait quatre modèles standard pour les hommes et cinq pour les femmes. À partir de ces modèles de base, nous avons créé 42 personnages principaux, chacun reproduisant les caractéristiques physiques de son interprète. Pour les visages, nous avons utilisé des scans 3D des acteurs. Seul Beowulf a été modélisé sans tenir compte de l’acteur réel, Ray Winstone, dont le physique était très différent. Pour le créer, nous avons scanné en 3D une sculpture du personnagede Beowulf réalisée à partir de dessins du chef décorateur Doug Chiang. Certains aspects des yeux, du nez et de la bouche de Ray ont toutefois été intégrés dans le visage 3D. Une fois ces 42 modèles finalisés, ils ont été équipés de différents costumes, coiffures, barbes, armures, etc. de façon à varier leur apparence à mesure que l’histoire progressait. Au total, ces variations représentent 353 looks différents.
“Les 42 personnages principaux partagent tous le même modèle UV, masculin ou féminin, ce qui nous a permis de réutiliser ou de partager les mêmes texture maps d’un personnage à l’autre. Cette technique est issue du monde du jeu vidéo ; c’était la première fois que nous l’utilisions. Au final, chaque personnage est défini par 38 types de couleurs différents, et par des contrôles de maps. Ceux-ci produisent au total 190 texture maps de 4K chacun, qui sont incorporés lors du rendu pour le shading de la peau, des yeux, des dents et des cheveux.”

La Performance Capture selon Imageworks
Parallèlement, une autre partie de l’équipe s’attache à améliorer la technique de la Performance Capture mis au point sur ce premier film – un procédé baptisé Imagemotion et dûment breveté. Le Motion Capture, tout le monde connaît : les interprètes portent un costume recouvert de marqueurs et sont filmés par des caméras vidéo qui enregistrent les mouvements de ces points de repère. Ces données sont traitées en temps réel par un logiciel dédié qui calcule, par triangulation, la position de chaque point dans un espace en trois dimensions. Chacun de ces capteurs est affecté à un point spécifique sur une géométrie de personnage 3D. Dès lors, chaque mouvement de l’interprète est automatiquement reproduit sur le personnage virtuel. L’avantage du procédé est qu’il permet d’obtenir une animation de bonne qualité très rapidement. Le personnage est ensuite incrusté dans un décor réel ou 3D.
Imagemotion va beaucoup plus loin. Au lieu de se limiter à la capture des seuls mouvements corporels, le procédé enregistre l’interprétation même de l’acteur ou de l’actrice, grâce à des capteurs fixés sur le visage. Chaque expression, chaque mimique est détectée, repérée, et transposée sur le visage virtuel. “Sur Le Pôle Express, nous avions 54 marqueurs sur le corps, 3 sur chaque main et 152 sur le visage,” explique Demian Gordon, superviseur de Performance Capture. “Pour La Légende de Beowulf, les interprètes portaient 78 marqueurs sur le corps, 25 sur chaque main, et 121 sur le visage. Ces marqueurs étaient cette fois deux fois plus gros. Nous avons aussi triplé la taille du plateau de capture de performance par rapport au film précédent. Cela nous a permis d’enregistrer jusqu’à 21 acteurs simultanément, et ce, sur une durée de cinq minutes en continu. Dans la grande scène du banquet, chaque table comportait 16 convives, plus les serveurs qui s’affairaient autour d’eux. Grâce au volume accru, chaque tablée a pu être enregistrée en un seul passage. Ensuite, ces données ont été combinées avec toutes les autres de manière à animer l’ensemble des convives présents à l’image.”
Le procédé ne se limite pas aux seuls acteurs. Depuis Le Pôle Express, Imageworks a amélioré le système de façon à détecter aussi les mouvements d’accessoires et d’éléments de décor. En plus des interprètes, le système est capable d’enregistrer les changements de position des chaises, des plats, des gobelets, des épées, etc. Chaque élément disposait de marqueurs d’une couleur spécifique qui permettaient au système de l’identifier. Ces éléments cumulés ont produit une masse énorme de données que les milliers de processeurs d’Imageworks ont eu le plus grand mal à gérer : pas moins de 200.000 heures de calcul pour les scènes multicouches les plus complexes, comme celle du banquet, soit plus d’un mois de rendu !

260 caméras pour enregistrer l’action
Sur le plateau, les acteurs sont entourés par une impressionnante batterie de 260 caméras ! Chacune bénéficie d’une définition de 4 mégapixels. Sur Le Pôle Express, il n’y avait « que » 72 caméras de 1 mégapixels chacune. Cette résolution accrue permet au système de repérer des mouvements beaucoup plus subtils que sur le film précédent. “184 caméras ont couvert le volume de jeu des acteurs et enregistré simultanément les mouvements corporels et faciaux,” précise Demian Gordon. “Puis, il y avait 44 caméras qui n’enregistraient que la gestuelle du corps, tandis que 16 autres se concentraient sur les seuls visages. Ces caméras étaient destinées à réduire les temps de calcul et à fournir très rapidement au réalisateur un aperçu de l’animation qui venait d’être enregistrée. Les données capturées par les 184 caméras qui couvraient le corps et le visage demandaient beaucoup plus de temps pour être exploitées en animation. Enfin, nous avions 16 caméras mobiles que nous pouvions affecter à des tâches bien précises en fonction de l’action.”

Capturer les regards
L’une des critiques les plus fréquentes adressées à l’encontre du Pôle Express était le manque de vie dans les regards. Pour résoudre ce problème, Chen décide d’enregistrer également les mouvements des yeux des interprètes. Son équipe s’inspire d’un système qui mesure les impulsions électriques liées au mouvement de l’œil humain. Cinq électrodes sont donc placées en cercle autour des yeux des interprètes, de manière à détecter les mouvements des globes oculaires. Ces mouvements sont ensuite transposés sur les yeux du personnage 3D. “Ce système fonctionne indépendamment du système principal, lequel repose sur l’utilisation de marqueurs visuels,” assure Gordon. “Nous sommes capables d’enregistrer les mouvements oculaires de 14 interprètes à la fois.”
Le système sera surtout utilisé pour générer les mouvements oculaires à peine perceptibles, des mouvements infimes et subtils qui auraient nécessité un temps fou avec une animation en poses clés. Par contre, les regards eux-mêmes sont la plupart du temps animés à la main, à partir d’images vidéo des acteurs en train de jouer la scène. La même technique est employée pour animer la bouche, la langue, les joues, les sourcils, ainsi que les clignements d’yeux. “Pour parfaire le réalisme des regards, nous avons modélisé une cornée sur le globe oculaire,” précise Kenn McDonald, superviseur de l’animation. “Chacune d’elles dispose d’un contrôle spécifique qui nous permet de déformer la paupière close de manière à montrer les mouvements oculaires, même lorsque le personnage cligne des yeux ou les ferme.” Au total, les personnages principaux comportent 125 contrôles d’animation faciale pour les expressions, et davantage encore de contrôles pour les muscles. Certains commandent des mouvements très subtils, comme la légère déformation de la paupière lorsque les yeux se tournent d’un côté.

Un peu d'animation classique
Pour le dragon, impossible d’utiliser la capture de performance, seule l’animation traditionnelle est en mesure de lui donner vie. Dans la séquence du combat entre Beowulf et la créature, le héros lui-même est la plupart du temps animé en poses clés. Toutefois, l’animation est dans ce cas toujours basée sur des images vidéo ou sur une capture de performance de l’acteur mimant l’action. En revanche, le monstre Grendel est réalisé en combinant les deux techniques, poses clés et Imagemotion. “D’abord, nous avons enregistré l’acteur Crispin Glover en train d’interpréter le monstre,” explique McDonald. “Puis, les données de cette capture de performance ont été adaptées à la morphologie de Grendel. Ça ne collait pas vraiment, étant donné que le monstre mesurait 3,60 mètres. Les proportions non plus n’étaient pas les mêmes. Malgré tout, la capture de performance a fourni une excellente base pour l’animation. Les animateurs l’ont ensuite développée et prolongée en travaillant avec des poses clés. La même approche hybride a été utilisée pour animer les chevaux.”

Cadrer et recadrer, même après le tournage
Une fois l’animation finalisée, Robert Zemeckis se penche sur le travail de la caméra. À ce stade-là, il n’a enregistré que le jeu des comédiens et ne s’est pas occupé de la façon dont il allait « filmer » l’action. Cette approche rappelle d’ailleurs aux interprètes le jeu d’acteur sur une scène de théâtre. Il n’y a pas de contrainte de travelling, de focale, de mise au point, de lumière, ni de scène à répéter chaque fois que la caméra filme sous un autre angle. Les acteurs sont totalement libres d’interpréter chaque scène comme ils le sentent, de se déplacer comme ils le veulent, à condition qu’ils ne sortent pas du périmètre de capture de performance.
Zemeckis dispose alors d’un jeu d’acteur « idéal » à partir duquel il peut choisir les cadrages et les mouvements de caméra adaptés. Tout comme les acteurs lors de l’étape précédente, il est libre de filmer l’action sans aucune contrainte : la scène est déjà interprétée, il peut varier à l’infini la façon de la filmer sans jamais que les acteurs ou les techniciens ne fatiguent, sans se soucier de la lumière, ni des contraintes techniques. Mais, pour conserver le feeling d’un film en prises de vues réelles, il fait appel à un vrai caméraman et celui-ci manipule une vraie caméra recouverte de marqueurs. En fait, la caméra ne filme rien du tout, mais elle permet à l’opérateur d’avoir ses sensations habituelles pour que les cadrages gardent un feeling cinéma. Face à un moniteur qui diffuse les images des personnages 3D, le caméraman « filme » l’action comme si la scène était jouée en direct devant lui. Le système de motion capture enregistre alors chaque mouvement de caméra, puis ceux-ci sont transposés sur la caméra 3D.
Tout le travail d’animation est réalisé dans Maya, y compris les multiples simulations de poils, de fourrure et de tissus, de même que les simulations de corps rigides et souples. L’océan et les liquides sont créés à l’aide du simulateur de fluides développé pour Les Rois de la Glisse. Pour les effets visuels comme la pluie, le feu, la brume, etc. Imageworks fait confiance à Houdini. Le rendu sera assuré dans RenderMan avec une solution de semi illumination globale pour les environnements et le sub-surface scattering pour les personnages. Quant au compositing, il est réalisé à l’aide de deux logiciels maison, Katana and Bonzai.

Après trois ans de travail, Jerome Chen considère Beowulf comme le projet le plus ambitieux de sa carrière. “C’était beaucoup plus complexe que Le Pôle Express, lequel, à son époque, avait déjà été une entreprise monumentale. »
 Signalons aussi que Beowulf fait partie de la vague de films actuels sortant simultanément sur écrans classiques et en 3D relief. Si en France, il n'y a actuellement qu'une quinzaine de salles de cinéma équipées pour le relief (dont environ 10 passent Beowulf actuellement), le parc US compte plus de 700 salles, et le dernier Disney, Meet the Robinsons, y a fait un tabac ce mois d'octobre. Pour plus de précisions sur ce sujet, voir notre (prochain) dossier consacré au cinéma en relief dans cette même rubrique.

ALAIN BIELIK  novembre 2007
Alain Bielik est le fondateur et rédacteur en chef de la revue d’effets spéciaux S.F.X, bimestriel de référence publié depuis 1991. Il collabore également à plusieurs publications américaines, notamment sur Internet.