Chappie

Après District 9 et Elysium, le réalisateur Neill Blomkamp continue la science-fiction avec une histoire de robot qui acquiert des émotions humaines. Un robot ultraréaliste grâce au studio canadien Image Engine

« On ne change pas une équipe qui gagne »… Depuis ses débuts au cinéma en 2009, le réalisateur sud-africain Neill Blomkamp applique cet adage à la lettre en ce qui concerne les effets spéciaux. Que ce soit pour District 9, Elysium ou Chappie, il a fait confiance au même tandem de prestataires : Image Engine pour l’animation 3D et Weta Workshop pour le design et les effets physiques. Une association consacrée dès le premier film par une nomination à l’Oscar des meilleurs effets visuels.

Six ans plus tard, la société canadienne réitère sa performance avec des robots virtuels criants de réalisme dans Chappie. Progrès oblige, l’approche a cette fois été différente. “Sur les films précédents, tout a été fabriqué chez Weta, puis modélisé sur ordinateur chez Image Engine,” explique Chris Harvey, superviseur des effets visuels. “Mais pour Chappie, Neill a choisi de procéder différemment. Il a d’abord passé plusieurs mois à travailler sur le concept artistique avec Weta, puis il nous a envoyé les dessins 2D. À partir de ces croquis, nous avons créé le personnage en 3D. Nous avons ainsi pu résoudre les problèmes d’animation mécanique avant de fabriquer concrètement les modèles réels, ce qui a grandement facilité notre travail parce qu’on pouvait retravailler la conception en sachant à l’avance ce qui fonctionnerait ou non.”

Un robot réaliste jusque dans ses mouvements
Neill Blomkamp voulait un robot parfaitement réaliste sur le plan des mouvements. Pas question de tricher en plaçant, par exemple, une articulation à rotule bien commode là où le design ne montrait qu’un axe pivotant – un petit raccourci qui est souvent utilisé sur les modèles 3D de robots au cinéma…

De fait, la moindre articulation du robot Chappie et de ses congénères (tous basés sur le même modèle) fonctionne en 3D comme dans la réalité. Chaque articulation est construite autour d’un axe pivotant à la manière des robots industriels. Il en résulte une animation totalement fidèle à la dynamique de mouvements d’une telle machine dans la réalité. Mais pour y parvenir, il a fallu développer un rig à la hiérarchie complexe qui automatise (jusqu’à un certain point) le comportement des articulations. Lorsque l’animateur lève le bras du personnage, chaque point de mouvement pivote de façon réaliste depuis le poignet jusqu’à l’épaule de manière prédéterminée.

Chappie a été modélisé de manière à reproduire exactement les proportions du corps de l’acteur Sharlto Copley qui « l’interprétait » sur le plateau et lui prête sa voix à l’écran. Pendant les prises de vues, Copley était revêtu d’un justaucorps gris équipé de trackers, et de structures reproduisant le volume du personnage. Le même procédé a été employé pour les autres robots. Budget oblige, aucun système de motion capture n’a été utilisé. Comme sur les projets précédents du cinéaste, Image Engine a opté pour la « performance capture du pauvre » : filmer un acteur à la place du personnage, l’effacer de l’image, puis animer à la main le personnage 3D en calant celui-ci sur les mouvements du comédien. Exactement ce qu’avait fait Weta Digital sur Gollum dans Le Seigneur des Anneaux il y a presque 15 ans maintenant.

Pour que la transposition acteur/personnage fonctionne au mieux, les proportions de Chappie sont donc calquées sur celles de Copley, ce qui a permis aux animateurs de reproduire en 3D toutes les nuances du jeu de l’acteur. De l’avis unanime, c’est ce qui donne au robot un aspect si… vivant à l’écran. Cette fidélité à l’interprétation originale était essentielle pour les animateurs car ceux-ci disposaient de peu d’atouts pour animer le personnage. Dépourvu de visage, Chappie exprime ses émotions principalement par ses antennes, sa visière (qui fait office de sourcils) et surtout son langage corporel.

Plusieurs Chappie
Plusieurs versions différentes de Chappie se succèdent à l’écran. Au fil de l’action, son apparence évolue : des pièces sont endommagées lors de combats, certaines remplacées, son corps se voit recouvert de graffitis, etc. Plutôt que de créer un modèle unique pour chaque version, Image Engine a choisi de réaliser un Chappie de base doté de 17 éléments interchangeables.

La grande difficulté consistait en l’occurrence à importer la bonne version du modèle en fonction de la scène. Pour ce faire, l’équipe s’est basée sur le logiciel de gestion de données Shotgun. À partir d’une « timeline » rigoureuse établie au départ, chaque scène s’est vue attribuer un Chappie particulier. Lorsqu’un graphiste ouvrait un plan, Shotgun identifiait la scène en question et indiquait la bonne version de Chappie. Le logiciel allait même jusqu’à gérer automatiquement le témoin de charge de la batterie du robot, afin qu’il diminue au fil de l’action…

Chappie et les autres robots ont été modélisés et animés dans Maya, avec un rendu dans 3Delight et un compositing dans Nuke. Pour garantir une intégration optimale de Chappie dans le décor, le costume de Sharlto Copley présentait exactement la même nuance de gris que le robot. En postproduction, les graphistes pouvaient mesurer les valeurs de gris du costume dans chaque plan, puis les comparer à celles du robot. Si écart il y avait, il devait être corrigé. Cette référence visuelle était complétée par le robot « réel » fabriqué par Weta Workshop. Filmé dans le décor après les acteurs, celui-ci était essentiel pour visualiser la manière dont la lumière se reflétait sur les différentes surfaces. Il constituait aussi une référence idéale dès qu’il entrait en interaction avec le décor ou les éléments, comme le rappelle Chris Harvey : “Par exemple, pour la scène dans laquelle Chappie est sous la pluie, c’était pratique de pouvoir observer la manière dont la pluie tombait et ruisselait sur lui. Nous avons pu reproduire cet effet de ruissellement avec un réalisme accru.”

Reflets HDRi
Chaque décor intérieur ou extérieur avec le ou les robots a été photographié en HDRi. L’environnement était alors reconstitué sous la forme d’une sphère virtuelle dans laquelle le personnage 3D était placé afin de baigner dans la lumière réelle. Si un robot devait se déplacer dans le décor, le photographe documentait son parcours de la même manière. Cette fois, une simple sphère ne suffisait pas. Le décor était reproduit en numérique à l’aide de géométries basse résolution, puis l’équipe re-projetait les photos sur les structures correspondantes. Cela donnait une reconstruction photographique de l’environnement qui se reflétait sur le robot tout au long de son parcours et renforçait son intégration dans l’image réelle.

Les mêmes efforts ont présidé à la création de The Moose (« l’élan »), un robot policier géant suréquipé. Fabriqué en taille réelle par Weta Workshop pour les scènes statiques, il a été animé, lui aussi, en 3D par Image Engine. Compte tenu de sa taille, il était impossible de recourir à une quelconque forme de performance capture. Les plans ont donc été filmés avec un technicien qui se déplaçait dans le décor avec une balle de tennis placée au sommet d’une perche afin de guider le regard des acteurs et l’axe de la caméra.

Si la critique a salué les effets visuels du film, elle a été beaucoup plus réservée sur ses qualités artistiques. Le public, lui, suit mollement pour l’instant. Neill Blomkamp n’en a cure, il est déjà parti sur sa nouvelle aventure cinématographique : la réalisation du prochain film de la saga Alien !

ALAIN BIELIK, Mars 2015
(Commentaires Visuels: Paul Schmitt)
Spécialiste des effets spéciaux, Alain Bielik est le fondateur et rédacteur en chef de la revue S.F.X, bimestriel de référence publié depuis 23 ans. Il collabore également à plusieurs publications américaines, notamment sur Internet.