Wall E

Nouveau pari pour Pixar… et nouvelle réussite exemplaire.  À croire que les petits génies californiens sont abonnés au succès. Leur dernier film est un vrai bijou dont Pixelcreation vous dévoile les coulisses. Avec à l'appui deux vidéos de making-of ci-dessous et une VFX progression en fin de galerie ci-contre.

 

Wall E VIDEO 1 :
making-of du film avec le réalisateur Andrew Stanton

Avec ce nouveau film (signé Andrew Stanton, déjà réalisateur de Nemo), le studio renoue avec l’essence même de son art. Une sorte de défi ultime de l’animation. Réaliser un film entier (quasiment) sans dialogue et dont le personnage principal est un robot dépourvu de visage ! Quelque part, cette magistrale leçon d’animation renvoie au célébrissime court métrage Luxo Jr. (1986) qui avait révélé le studio : John Lasseter y avait transformé deux lampes de bureau en une touchante famille. Ou l’art de prendre des assemblages de pièces de métal pour en faire de vrais personnages auxquels le public s’attache.
Ce défi d’animation se double d’un pari artistique avec le choix de la science-fiction, un genre peu prisé du cinéma d’animation car synonyme d’échec commercial (Le Géant de Fer…). WALL•E est en effet un robot affecté au nettoyage d’une décharge immense : la planète Terre. Dans ce lointain futur, les hommes ont abandonné leur planète natale, transformée en dépotoir géant. Livré à lui-même, WALL•E passe des siècles à travailler de façon monotone, jusqu’à ce qu’un vaisseau débarque un jour avec un robot de nouvelle génération, Eve. WALL•E a-t-il trouvé l’âme sœur ?

Un design qui tient la route
Comme toujours avec ce type de sujet, le design des personnages revêt une importance capitale. Il y a plusieurs impératifs. Les deux robots doivent être très différents l’un de l’autre, mais aussi être, chacun à leur manière, « mignons ». Il s’agit également d’éviter tout anthropomorphisme. Exit donc les silhouettes humanoïdes sur pattes (Star Wars), ou les yeux collés sur une coque (Le Trou Noir). “Pour chaque personnage, nous partons toujours de sa fonction première pour déterminer son apparence et son mode de locomotion,” explique Angus McLane, directeur de l’animation. “Par exemple, pour Le Monde de Némo, nous avons commencé par faire nager nos poissons de façon naturelle. Pour Cars, nous avons doté les voitures de suspensions réalistes. C’est seulement quand nous savons mouvoir nos personnages de manière naturelle que nous passons à la phase « interprétation ». Dans le cas de WALL•E, il s’agit d’un mini bulldozer compacteur. Sa fonction impliquait forcément des chenilles pour la locomotion en terrain irrégulier, deux caméras juxtaposées pour la vision stéréoscopique, des bras pour saisir les objets, etc. Andrew voulait aussi qu’il puisse se replier entièrement dans son corps pour former un cube. En résumé, WALL–E est donc un cube sur chenilles avec deux bras et deux caméras. On était loin de nos personnages habituels !”
À partir de cette morphologie minimaliste, les animateurs doivent néanmoins parvenir à exprimer toutes les émotions du personnage. Une mission d’autant plus délicate que le robot n’a pas de dialogues. Tout doit passer par la gestuelle, le langage corporel. Pour chercher l’inspiration, les animateurs se tournent vers le cinéma muet, un art où les comédiens devaient s’exprimer avec leur corps et leur visage. “Nous disposions de très peu d’éléments mobiles pour faire vivre ce personnage,” note McLane, “mais nos animateurs adorent ça ! Ils prennent comme un défi personnel de susciter des émotions à partir de si peu de matière.”
Faute d’avoir un vrai visage avec deux yeux, un nez et une bouche, WALL•E est doté de plusieurs accessoires qui pallient astucieusement à cette absence. “Au niveau de la tête, il y avait deux lamelles de métal repliées au-dessus des « yeux »,” précise McLane. “À l’origine, on devait montrer qu’il s’agissait de plaques de protection pour la lentille des caméras, mais Andrew a finalement décidé que ce n’était pas nécessaire. Ces lamelles faisaient office de sourcils et servaient à exprimer la surprise, ou une forte émotion. Ensuite, on pouvait jouer sur l’inclinaison des blocs caméras. En penchant les optiques légèrement sur le côté, on obtenait une expression plus ou moins triste. »
La forme des blocs optique était d’ailleurs conçue pour suggérer une certaine mélancolie, de même que les lentilles surdimensionnées rappellent les grands yeux des petits enfants. Autant de détails subtils qui renforcent l’attrait exercé par le personnage. En inclinant légèrement les blocs optique de chaque côté, les animateurs accentuaient le sentiment de tristesse. Par contre, une séparation nette des deux blocs indiquait l’énervement et la frustration.

Faire parler un amas de métal
L’expressivité des « yeux » était renforcée par la position respective des bras, et surtout de la tête, par rapport au corps. En jouant sur l’écart entre la tête et le corps, les animateurs pouvaient suggérer toute une gamme de sentiments. “On la faisait descendre pour exprimer la peur, on la surélevait pour signaler la curiosité, on la poussait vers l’arrière pour la peur ou l’étonnement, vers l’avant pour la concentration, etc.” poursuit McLane. “Son extrême mobilité nous a beaucoup aidés à faire « parler » le personnage.” Une animation ensuite renforcée par le langage corporel suggéré par la position du cube : les animateurs pouvaient le soulever ou l’abaisser à l’aide des chenilles.
Par contre, les bras constituent depuis le début un problème. Andrew Stanton ne veut pas de bras articulés comme ceux d’un homme. WALL•E est un bulldozer et doit donc avoir des « bras » rigides comme la machine réelle dont il est inspiré. Le problème, c’était que les bras rigides ne pouvaient pas tenir un objet des deux mains – ils n’avaient pas la longueur suffisante. Coincés, les animateurs supplient Stanton d’ajouter une articulation, mais le réalisateur refuse toute compromission sur le design industriel du robot. L’équipe doit trouver une configuration de bras qui permette au personnage de fonctionner dans tous les cas de figure. “Après une longue réflexion et beaucoup de tests, nous avons opté pour un bras dont l’axe est monté sur un rail horizontal et vertical,” raconte McLane. “Grâce à ce système, les bras pouvaient s’élever au-dessus de la tête ou bien coulisser jusqu’au ras du sol. Sur le plan mécanique, c’était parfait, et visuellement, cela ouvrait beaucoup de possibilités au niveau de l’animation.”
Si le robot WALL•E est un ensemble de lignes droites, de métal rugueux, et de déplacements sinueux, son équivalent du futur, Eve, en est tout l’opposé : des lignes fluides, des surfaces d’un blanc épuré, un vol grâcieux… Comme pour le petit robot terrien, le design d’Eve est directement inspiré par la fonction supposée du personnage. En l’occurrence, il s’agit d’une sonde d’exploration. Le robot devait donc être capable de voler, ce qui impliquait une forme aérodynamique, avec un corps sans aspérité. Pour suggérer la modernité du robot, l’équipe se tourne vers le look caractéristique des produits Apple. WALL•E serait donc un PC des années 80, tandis que Eve pourrait être un iMac du troisième millénaire. D’ailleurs, l’équipe invitera Jonathan Ives, designer en chef d’Apple, à discuter avec eux des concepts initiaux et des axes possibles. Des réunions organisées sans problème : forcément, Ives et l’équipe de WALL•E ont le même patron, Steve Jobs ! Ça facilite bien des choses…
Sur le plan technique, les personnages sont modélisés dans modo (le modeleur de Luxology) et Maya, puis animés dans Marionette, un programme développé en interne. “C’est assez proche de Maya,” souligne McLane, “à ceci près qu’il ne fait que de l’animation de personnages. Il est donc beaucoup plus léger et maniable.” Le rendu est assuré dans RenderMan (fameux logiciel Pixar), et le compositing dans Shake (créé chez Apple – On reste en famille).

Des environnements riches et complexes
L’animation s’est étalée sur environ un an, une période précédée de huit mois de recherches et de tests. Au plus fort du processus de production, quelque 45 animateurs travaillaient sur le film. Parallèlement, une équipe deux fois plus importante se concentrait sur les aspects techniques du projet. Une bonne centaine de directeurs techniques étaient en effet chargés de mettre en lumière et en couleurs les animations produites par l’équipe d’Angus McLane. À la tête de cette armada de « TDs », Nigel Hardwidge, entré à Pixar pour Monstres et Compagnie il y a huit ans.
L’une de ses principales missions consiste à visualiser la Terre du futur. “Il fallait créer une ville qui daterait notre futur proche, mais qu’on découvrirait après qu’elle ait été abandonnée depuis plusieurs siècles,” explique-t-il. “D’ordinaire, nous aurions travaillé avec quelques décors 3D complétés par des matte-paintings. Mais là, lorsque nous avons attaqué le projet, le scénario était encore en cours d’écriture. Andrew ne pouvait pas nous dire dans quels endroits précis de la ville il allait situer l’action. Histoire de ne pas le limiter par la suite, nous avons modélisé la ville entière en 3D avant de la texturer pour des vues en plan large. Elle mesurait environ 8 km2, ce qui représentait une quantité considérable de textures et de géométries. Par la suite, lorsque les scènes se sont précisées, nous avons retravaillé les parties de la ville qui devaient servir de décor.”
Contrairement aux autres films Pixar qui présentent tous une image nette et précise, Andrew Stanton veut que les scènes de la décharge baignent dans un nuage de poussière permanent. Pour Hardwidge et son équipe, cela implique d’ajouter plusieurs couches d’effets atmosphériques dans tous les plans. Il faut aussi reproduire l’ambiance des vraies décharges, avec des dizaines d’objets et de détritus qui volettent à l’arrière-plan. Chacun de ces éléments doit être créé individuellement et animé pour se fondre dans le décor. Le rôle de ces animations et simulations n’est pas d’attirer l’attention (elles apparaissent souvent hors de la zone de netteté de l’image), mais de contribuer, de façon presque subliminale, à la crédibilité de l’environnement. Ces dizaines d’éléments mobiles venaient s’ajouter au rendu principal et allongeaient considérablement les temps de calcul.
“Pour le rendu, je suis parti sur une moyenne souhaitée de huit heures par image,” précise Hardwidge, “mais en fin de compte, nous avons réussi à boucler le film avec une moyenne de sept heures de calcul par image. Bien sûr, les temps de calcul variaient énormément d’un plan à l’autre. Les plans larges sur la décharge ont nécessité des temps de calcul considérables, justement à cause de toutes ces animations secondaire. Mais il y avait aussi certains plans de foule dans la grande salle du vaisseau pour lesquels nous avons eu quarante heures de calcul par image !”
L’équipe profite de ces nouvelles exigences pour réécrire le modèle de shading de Pixar. “Ce nouvel outil de texture des surfaces nous a permis d’obtenir des nuances que notre ancien modèle avait des difficultés à capter,” explique Hardwidge. “Auparavant, si nous voulions ajouter une haute lumière ou un reflet sur le coin d’un objet, il fallait le travailler à la main. Notre nouveau modèle permet de gérer cela à partir d’une passe globale. Image par image, cela ne change pas grand-chose, la différence est même parfois subliminale, mais rapportés à l’ensemble du film, ces petits détails s’accumulent pour constituer une impression de plus grande richesse visuelle.”

ALAIN BIELIK  Juillet 2008
(commentaires images Paul Schmitt)

Spécialiste des effets spéciaux,Alain Bielik est le fondateur et rédacteur en chef de la revue S.F.X, bimestriel de référence publié depuis 17 ans. Il collabore également à plusieurs publications américaines, notamment sur Internet.

Les galeries à voir sur les mêmes sujets :

Films du studio Pixar :

>> Wall E

>> Ratatouille

>> Cars

>> One man band