Travailler en HDR avec Adobe Premiere

Du Seigneur des Anneaux à Matrix en passant par Apocalypse Now, nos films préférés sont maintenant quasiment tous re-mastérisés en HDR. Et le phénomène ne touche pas seulement des films les plus connus. En effet, sur les plateformes de streaming, le Dolby Vision est entrain de s’imposer comme le format de référence pour le mastering de tout nouveau contenu, qu’il s’agisse de fiction, documentaire ou télé-réalité. Il y a de quoi s’en réjouir car cette technologie maintenant disponible sur les télévisions de salon et qui étend sa présence sur le reste des appareils électroniques - sa dernière conquête en date étant l’Iphone X - offre aux consommateurs une qualité supérieure, qui pour la première fois dépasse véritablement ce qu’offrent les salles de cinéma. Il suffit tout simplement d’avoir une smart TV disposant d’un mode HDR et le tour est joué, le HDR peut se lire via les plateformes de streaming (Netflix, Disney Plus, Amazon Prime, Apple TV etc…) ou via un lecteur Blu -Ray. La question qui logiquement découle de cette évolution est la suivante :  quelle place pouvons-nous, créateurs audiovisuels au budget parfois limité, occuper dans ce nouvel écosystème ?

La plus grosse erreur serait de penser que le HDR est l’apanage des grosses productions pendant que nous, créateurs indépendants devrions continuer à vivre avec le SDR (Standard Dynamic Range), car nous allons le voir, nos logiciels préférés intègrent maintenant tous un flux de travail en HDR. C’est l’occasion de voir ce qu’offre Adobe en la matière.

1.    HDR et espace colorimétrique

HDR signifie « High Dynamic Range », que l’on peut traduire dans la langue de Molière en « Imagerie à grande gamme dynamique ».
Lorsque l’on parle d’image vidéo, la « dynamique » en question désigne l’amplitude entre les zones les plus sombres et les zones claires. En d’autres termes : dans quelle mesure peut-on afficher dans la même image, au même instant, des zones très éclairées et d’autres très sombres en conservant un maximum de détails.
Depuis la création de la télévision HD (« HDTV ») dans les années 90 et sa généralisation au grand public dans la décennie qui a suivi, l’espace colorimétrique utilisé est le REC 709. La plage colorimétrique qu’il permet d’afficher contient 16 millions de couleurs lorsqu’elle utilise du 8 bits, comme c’est le cas la plupart du temps. En gardant en tête ses informations techniques, sa gamme dynamique est dite « standard », d’où l’appellation de SDR.

L’introduction du HDR vient tout simplement élargir tout cela. Là où Rec. 709 permet de restituer seulement 35% du spectre colorimétrique de l’œil humain, on estime que le HDR peut en restituer 75%. Il étend grandement les dynamiques de contraste (le gamme) et de couleurs (le gamut). Il utilise l’espace colorimétrique Rec. 2020 qui permet d’afficher jusqu’à 1 milliards ce couleurs en 10 bits, avec un potentiel a 12 milliards en 12 bits. En termes de luminance, que l’on mesure en nits - ou en candelas par mètre carré (cd/m2), de 100 nits pour le SDR, on passe à 1000 nits pour le HDR « de base », et il peut monter jusqu’à 10 000 nits théoriquement, bien qu’actuellement les appareils les plus performant n‘atteignent « que » 4000 nits.

 

Sur le spectre colorimétrique reconnu par l'oeil humain, on voit que la plage couverte par le REC 2020 est largement plus grande que celle du REC 709

En résumé, c’est donc un format qui permet de combiner dans la même image les très basses et les très hautes lumières et d’afficher un spectre colorimétrique très élargi. On peut filmer un personnage dans une salle sombre et dans le même plan avoir une fenêtre qui donne sur un extérieur très lumineux sans perdre les détails dans les hautes lumières. Dans le HDR, chaque source lumineuse se trouvant dans une pièce sombre, aussi insignifiante qu’une ampoule ménagère a découvert, tape dans l’œil jusqu’à parfois éblouir comme elle le fait dans la réalité.

Différence simulée entre les dynamiques HDR et SDR

Ce petit miracle technologique expliqué, vient maintenant la question qui nous importe le plus : comment produit-on une image en HDR ?
Là encore, théoriquement, tout est plus simple qu’il n’y parait. Pour pouvoir étalonner une image en HDR, il suffit simplement que cette image ait une quantité d’information suffisante pour qu’on puisse pousser ses couleurs et ses contrastes.
Les caméras numériques sont depuis longtemps capables d’enregistrer ces données, du moment que l’espace colorimétrique d’enregistrement soit en LOG (Arri Log C, Canon CLog2 ou CLOG3, le S-Log de Sony, RedLOG de RED etc…).
Jusqu’à récemment, une grande partie de ces données se perdaient en étalonnage car les deux grands espaces colorimétriques utilisés pour l’exploitation (le Rec. 709 pour le télévision HD et le DCI P3 pour la projection numérique de cinéma) n’étaient pas capables de conserver toutes ces données des que l’on commençait à pousser les zones les plus sombres (comme les ombres) ou les plus lumineuses (les ciels par exemples).
Pour les films tournés sur pellicule, on fait tout simplement scanner le négatif d’origine, qui devient une image numérique en espace LOG.
Une fois les prises de vues enregistrées, voyons comment les gérer dans Adobe.


2.    Le matos, du plus gros au plus léger.

Il faut un ordinateur assez solide pour gérer les prises de vue en 4K natif, préférez un Imac Pro par exemple ou un PC Windows solide avec une carte graphique conséquente.

Pour visionner l’image en 10 bits/12bits et en HDR, il faut un moniteur externe aux capacités techniques correspondantes. Voici une liste non-exhaustive de ce que l’on peut trouver sur le marché, commençons par la crème de la crème, juste histoire de se rincer l’œil :

-    Le Sony BVM HX310 (+/- 35 000 €) : la Rolls-Royce des écrans d’étalonnage, très largement répandue les maisons de post-productions à travers le monde, et également disponible à la location par jour.
-    FSI XM310K, XM311K (+/- 35 000 €) : L’équivalent du précédent fabriqué par le très réputé Flanders Scientific.
-    Les Sony PVM-X2400 et PVM-X1800 4K HDR Trimaster (+/- 10.000 €)
-    L’Atomos NEON 24" 4K HDR Monitor/Recorder (+/- 6.500 €)

Alors oui, c’est un budget. Mais pour les curieux qui souhaitent s’initier progressivement, une bonne télévision OLED de salon fait aussi l’affaire. Par exemple, la LG CX, dont les revues spécialisées ont fait l’éloge toute l’année dernière, constitue un très bon outil en-dessous de 1500 €. Contrairement aux moniteurs ci-dessus, elle ne couvre pas tout le spectre colorimétrique DCI P3 par exemple, et son pic de luminosité n’atteint pas 1000 nits. Elle offre néanmoins une image HDR exceptionnelle et colorimétriquement fiable, et peut être facilement calibrée. Pour les budgets les plus minuscules il est aussi possible de monitorer avec les produits HDR d’Atomos comme le Shinobi (à peine quelques centaines d’euros) mais la taille vraiment petite de l’écran (5 pouces) le réserve normalement au monitoring de plateau pour les cadreurs.

 

Atomos Shinobi pour les plus modestes, Le Sony BVM HX310 pour les pro, Le LG CX, télévision OLED HDR de salon pour les budgets moyens

Pour afficher l’image en HDR depuis Premiere, il faut connecter l’ordinateur au moniteur externe via une carte de sortie. Les cartesBlackMagic Decklink Pro 8k ou Mini Monitor 4K ont ces capacites mais doivent être installes dans l’ordinateur comme un composant interne. Pour une solution encore plus pratique, on peut opter pour un boitier UltraStudio 4kMini ou l’UltraStudio 4K Extreme 3 qui se connecte directement à l’ordinateur via une prise thunderbolt 3. Pour ensuite connecter la téléviseur/moniteur a la carte de sortie, on utilise tout simplement un câble HDMI 2.1
Ce matériel est indispensable car une interface MAC OS ou Windows ne permet pas de visionner une image en HDR directement. Votre moniteur interne, c’est-à-dire celui directement lie à votre système d’exploitation, continuera d’afficher une image en REC709 et en SDR. Ni Windows, ni Mac OS ne permettent pour le moment de sortir une image en HDR sans intermédiaire.

 

  1. Le flux de travail sur Premiere

Passons maintenant à la pratique. Il est très important de noter qu’une fois le projet premiere créé, il faut importer des médias encodés soit en ProRes (422HQ ou 444) soit en Sony XAVC-Intra car Premiere ne gère pas encore les autres codecs pour le HDR. Les vidéos importées en ProRes ou Sony XAVC-Intra sont complètement parfaitement intégrés à la gestion colorimétrique sur Premiere. D’autres codec seront probablement bientôt pris en charge par le logiciel.

Pour travailler le HDR dans Premiere, il faut choisir entre 2 types de technologies HDR différentes : le HLG (Hybrig Log Gamma) ou le PQ (Perceptual Quantizer).

Les deux standards HLG et PQ répondent aux critères techniques de gamma et de gamut de la norme internationale Rec. 2100 qui utilise le même espace colorimétrique Rec. 2020.

Cependant, le HLG est un standard plus modeste, plus compact que le PQ. Développé à la base par la BBC et le diffuseur japonais NHK, il a pour but de simplifier la diffusion de contenu HDR, en particulier pour faciliter la diffusion en direct : son pic de luminosité est limité à 100 nits et il ne repose pas sur un système complexe de transmission de métadonnées a l’inverse du PQ. Surtout, il est compatible avec les écrans SDR car il utilise 75% de sa courbe gamma et ne se démarque que pour les 25% les plus claires.

 

Standard HDR

HLG

PQ

Norme colorimétrique

Rec. 2100

Rec. 2100

Contraintes

Compatible avec la diffusion SDR mais beaucoup moins de détails dans les zones claires

Aucune compatibilité SDR mais beaucoup plus de détails dans les zones claires

Max IRE (nits)

100

10 000 (théorique)

 

La courbe gamma HLG utilise 75% de la courbe linéaire SDR Rec. 709 pour ensuite devenir logarithmique dans les tons les plus clairs afin de préserver plus d’informations

A l’inverse, les formats HDR utilisant la courbe PQ (HDR10, HDR10+, Dolby Vision) permettent d’afficher une luminosité qui peut théoriquement monter à 10 000 nits, bien qu’actuellement, les moniteurs les plus lumineux n’atteignent « que » 4000 nits.

Une fois le projet ouvert dans Premiere, on peut d’entrée demander au logiciel de transposer les médias d’un espace colorimétrique a l’autre dans la fenêtre « Modifier l’élément ».

 

Dans la fenêtre « modifier l’élément », l’option « remplacement de l’espace colorimétrique » est le premier pas pour transposer un clip en HLG ou en PQ.

Si les clips importés sont déjà en HDR, le logiciel détectera automatiquement soit le PQ, soit le HLG. Sinon, on peut les transposer selon ses préférences. Une fois qu’on a choisi PQ ou HLG pour les médias, il faut réitérer ce choix dans les réglages de la séquence via l’option « espace colorimétrique actif » dans la fenêtre « réglage de la séquence » :

Enfin, pour visualiser l’image sur votre moniteur externe, rendez-vous dans l’onglet « lecture » des préférences et sélectionner votre carte de sortie ou votre boitier parmi les périphériques video. Assurez-vous bien que votre moniteur externe soit réglé pour lire l’espace colorimetrique rec 2020, est le tour est joué. Encore une fois, il est important de ne se fier qu’a l’image affiche par votre moniteur externe car le moniteur interne dans Premiere sera incapable d’afficher le rendu HDR correctement.

NB : Une des options qui semble créer la confusion dans « réglages du projet », notamment au moment de créer la séquence, est le Blanc des graphiques (Nits). Il ne s’agit là que du niveau de blanc tolérable pour les graphiques dans l’espace colorimétrique. Cela ne concerne que les objets graphiques de la séquence, c’est-à-dire les le logos, les titres etc… Par exemple, si vous choisissez l’option 203 (75% HLG, 58% PQ), cela signifie que votre niveau de blanc pour les objets graphiques ne devra pas dépasser 75 % de la luminance pour courbe HLG, et 58% de la courbe PQ.

 

L’option Blanc des Graphiques HDR (Nits) détermine le niveau des blancs maximum que l’espace colorimétrique peut tolérer pour les objets graphiques

4.    L’Export

Une fois la séquence montée et étalonnée, il faut choisir judicieusement les réglages d’export pour que le produit soit fidèle au travail effectué.
Il existe différentes options parmi lesquelles MXF OP1a (seulement XAVC Intra), Quicktime et H265. Pour cet article, nous nous concentrerons sur le H265 car en termes de compression vidéo, il représente l’innovation la plus intéressante de ces dernières années. Digne successeur du H264 - de loin le codec de compression le plus populaire utilisé par toutes les plateformes vidéo grand public (youtube, vimeo etc…) - le H265 ou HEVC (High Efficiency Video Coding) approfondit la compression vidéo. Il permet d’encoder des vidéos a des tailles de fichier encore 75% plus petites que son prédécesseur le H264, tout en préservant la résolution (4K ou 8K) et la profondeur des couleurs (le 10 bits, indispensable pour le HDR). La seule contrainte étant le temps nécessaire pour encoder tout ce matériel, à savoir : plus l’encodage sera efficace, plus l’ordinateur mettra du temps à créer e fichier. Ce codec est disponible dans Adobe Media Encoder : dans l’onglet Exportation – Media, sélectionner le format HEVC (H.265). Dans les « paramètres de codage », sélectionner le profil « Principal 10 » qui permet de préserver la profondeur de couleurs 10 bits, et sélectionner le niveau « élevé » juste en dessous. Enfin, cochez les cases « Couleurs primaires Rec. 2020 » et « Plage dynamique élevée ». Le reste des paramètres, notamment au niveau du son sont les mêmes que pour le SDR.

 

Le fichier qui sera généré est lisible par les plateformes de streaming gérant le HDR comme youtube ou Vimeo mais également par les téléviseurs SMART comme LG ou Sony.

NB : Lors de nos essais avec le Adobe Media Encoder, nous avons constaté un léger changement colorimétrique sur le résultat final lorsque celui-ci est exporté en H265, et ce quelque soit les paramètres choisis. Pour une précision maximale, nous vous conseillons d'exporter votre vidéo HDR depuis Adobe en Prores 4444 (sur Mac) ou DNxHR 444 (sur PC), et de se servir de ce fichier "mezzanine" pour encoder votre fichier H265 avec un logiciel de compression spécialisé comme HandBrake.

Conclusion :

Il faut bien garder à l’esprit que pour la plupart des plateformes vidéo et même des logiciels de post-production, le HDR est un « work-in-progess » : il évolue au fil des innovations technologiques, et les normes et habitudes d’aujourd’hui ne seront pas forcément celles de demain. Néanmoins, il s’agit sans doute de l’avancée technologique la plus conséquente de ces dernières années en matière de diffusion et à l’inverse de la 3D ou du High Frame Rate (HFR), son adoption par la plupart des plateformes vidéo semble confirmer sa pérennité. Voilà pourquoi, il est plus qu’important pour les créateurs vidéos de tout niveau de saisir l’opportunité offerte par nos logiciels préférés et d’acquérir ces compétences.

Wilhelm Kuhn, mars 2021
Réalisateur diplômé de la London Film School, Wilhelm Kuhn vit à New York où il travaille sur un projet de long métrage tout en mettant ses compétences vidéo au service de clients corporate.