Comprendre HDR10 et Dolby Vision

L'un des mots à la mode les plus populaires aujourd'hui dans le monde de la technologie est le HDR. Partout où vous allez, vous voyez des téléviseurs, des services de streaming vidéo, des consoles de jeux et même des smartphones annonçant qu'ils sont compatibles HDR.

Introduit en 2015, le HDR était censé aller au-delà des bosses de résolution sans imagination qui caractérisaient la plupart des améliorations vidéo à ce stade et faire quelque chose de plus significatif. Au lieu d'avoir simplement plus de pixels, l'objectif ici était d'avoir de meilleurs pixels. L'accent était mis sur l'amélioration de la plage dynamique en permettant une plus grande variation des niveaux de sortie de lumière tout en permettant également une plus large gamme de couleurs.

N'aimons-nous pas tous simplement voir des comparaisons HDR sur nos écrans SDR? N'aimons-nous pas tous simplement voir des comparaisons HDR sur nos écrans SDR?

Le HDR a depuis lors beaucoup gagné en popularité, les fabricants s'accrochant à une autre chose qu'ils peuvent maintenant vendre avec un acronyme facile à commercialiser. Parallèlement à cela, nous avons également la phrase désormais banale de "blancs plus brillants, noirs plus foncés". Mais si vous demandez à la personne moyenne ce qu'elle comprend réellement de cette phrase ou de tout le marketing entourant le HDR et ses différents formats, il y a de fortes chances qu'il ne le sache pas vraiment.

Donc, aujourd'hui, nous essayons de démystifier une partie de l'air autour du HDR en essayant d'expliquer ce que cela signifie, en quoi il diffère de l'ancien "SDR" ordinaire, comment il est fabriqué, ce qu'est même un Dolby Vision, s'il est lié, et plus important encore , devriez-vous même vous en soucier.

Plage dynamique

Si nous voulons comprendre le HDR ou la plage dynamique élevée, nous devons d'abord commencer par les bases, et c'est la partie plage dynamique. La plage dynamique de quelque chose est la différence entre les valeurs les plus basses et les plus élevées qu'il peut produire.

Bien qu'utilisé dans une variété de contextes, dans cet article, nous ne discuterons que de la plage dynamique en ce qui concerne les écrans et les caméras. Pour les écrans, la plage dynamique est la différence entre la lumière la plus brillante et la plus faible qu'il peut produire. Pour les appareils photo, c'est la lumière la plus brillante et la plus faible qu'il peut capturer à n'importe quel réglage donné.

La plage dynamique d'un RED Weapon Monstro 8K VV est d'environ 18 arrêts.La plage dynamique d'un RED Weapon Monstro 8K VV est d'environ 18 arrêts.

La plage dynamique des valeurs de luminance est généralement mesurée en termes d'arrêts, ce qui n'est pas une unité absolue mais plutôt le doublement des valeurs de sortie de lumière. À chaque doublement de la lumière, vous obtenez un autre arrêt de la plage dynamique.

Pour bénéficier d'une expérience vidéo à plage dynamique élevée, vous avez besoin d'un support de bout en bout. Cela signifie de la caméra capturant le contenu à la suite de montage qui l'encode, au format de livraison et enfin à votre téléviseur, tous doivent prendre en charge le HDR, sinon le processus est compromis et le résultat final ne sera pas HDR ou ne le sera pas. fournir une bonne expérience.

Plage dynamique standard

Votre vidéo numérique typique, ou ce qui est maintenant connu sous le nom de vidéo à plage dynamique standard, est définie par de nombreux paramètres. Prenons l'exemple de la vidéo que vous obtenez sur un disque Blu-ray HD standard.

La vidéo sur la plupart des disques Blu-ray HD est un fichier H.264 8 bits 4: 2: 0 standard. H.264 est le codec et est l'un des formats vidéo les plus couramment utilisés dans le monde. 8 bits est la profondeur de bits, où chacune des couleurs primaires R-G-B se voit attribuer 8 bits d'informations de couleur, ce qui conduit à un total d'informations de couleur de 24 bits. Le nombre de couleurs pour une profondeur de bits particulière est de 2n, où n est la profondeur de bits afin qu'un signal 24 bits puisse avoir jusqu'à 16,77 millions de couleurs.

  WikipédiaCrédit d'image: Wikipedia

4: 2: 0 est le sous-échantillonnage de la chrominance, qui est un moyen de compression en réduisant les informations de couleur. Un 4: 2: 0 a la moitié de la résolution de chrominance horizontale et la moitié de la résolution de chrominance verticale d'un signal 4: 4: 4 ou RVB complet, ce qui est bien pour le contenu vidéo mais pas pour l'utilisation informatique car le texte a tendance à devenir flou à des valeurs de sous-échantillonnage inférieures.

Rec. 709 espace colorimétrique par rapport à la Rec. 2020 et DCI-P3 dans la gamme de couleurs visiblesRec. 709 espace colorimétrique par rapport à la Rec. 2020 et DCI-P3 dans la gamme de couleurs visibles

Vient ensuite l'espace colorimétrique. Les Blu-ray HD sont maîtrisés en Rec. 709 espace colorimétrique. Cela équivaut à peu près à l'espace colorimétrique sRGB utilisé pour les ordinateurs et Internet, avec le même point blanc 6504K D65. Cependant, Rec. 709 a un gamma de 2,4 tandis que sRGB a un gamma de 2,2.

L'espace colorimétrique définit la gamme de couleurs disponibles. Chaque couleur peut être mappée à un point spécifique de cet «espace» 3D, qui est défini par la gamme de couleurs visibles à l'œil humain. Gamma est la fonction de transfert électro-optique ou EOTF pour la vidéo à plage dynamique standard, qui est une équation mathématique qui transforme les signaux électriques entrants en informations de couleur visibles. La valeur gamma contrôle globalement la valeur de luminance des couleurs dans le contenu et la modification de la valeur gamma modifie toutes les valeurs de couleur dans ce contenu. Si vous deviez changer la valeur gamma de 2,4 à 2,2, cela rendrait l'image entière plus lumineuse. De même, si un contenu maîtrisé à 2,4 gamma est visualisé sur un écran calibré à 2,8, l'image entière paraîtra plus sombre.

Comprendre HDR10 et Dolby Vision

Enfin, il y a la luminance maximale. Une vidéo à plage dynamique standard est maîtrisée à 100 nits de luminosité maximale. Les coloristes feront calibrer leur moniteur SDR à 100 nits dans une pièce située à quelques lentes au-dessus de l'obscurité totale et veilleront à ce que les blancs les plus blancs ne dépassent pas 100 nits, sinon ils se contenteraient de couper.

Cette limite de luminance est la plus grande limitation de la vidéo SDR. Alors que d'autres facteurs tels que la profondeur de bits, le sous-échantillonnage de la chrominance et l'espace colorimétrique sont variables et vous pouvez avoir des valeurs plus élevées telles que 10 bits, 4: 4: 4, Rec. 2020 dans une vidéo SDR, la valeur de luminance sera toujours plafonnée à 100 nits.

Cela signifie qu'il y a une limite sévère sur la plage dynamique du contenu car la différence entre 100 nits et 0 nits n'est que d'environ 6 arrêts, ce qui n'est pas beaucoup. Il en résulte très peu de contraste dans l'image car les valeurs les plus claires ne peuvent être que beaucoup plus lumineuses que les valeurs les plus sombres.

Cette différence n'est pas suffisante pour produire un contenu réaliste. Lorsque vous sortez par une journée ensoleillée, vous pouvez avoir des objets réfléchissant la lumière dans des dizaines et des milliers de lentes. Le soleil lui-même émet de la lumière sur un milliard de lentes. Nos yeux ne peuvent même pas voir avec succès toute cette plage dynamique, c'est pourquoi notre iris se rétrécit dans une lumière vive et s'ouvre à nouveau dans l'ombre. Mais nous pouvons toujours voir des objets lumineux, comme une voiture blanche scintillant au soleil, comme étant ultra-lumineux, ce qui est exactement ce qui manquait aux téléviseurs, qui ne peuvent s'approcher de cette luminosité.

Bien sûr, vous pouvez rendre un écran SDR plus lumineux que 100 nits et la plupart d'entre eux le sont. Mais cela n'augmente pas la plage dynamique ou le contraste de l'écran, mais plutôt la luminosité de l'image entière, y compris les informations d'ombre. Pour reproduire avec précision les conditions du monde réel, nous avons besoin d'affichages et de contenu suffisamment lumineux dans les hautes lumières tout en maintenant les niveaux de lumière des zones d'ombre.

Plage dynamique élevée

C'est là qu'intervient une plage dynamique élevée. Le principal avantage de la vidéo à plage dynamique élevée est l'augmentation de la valeur de luminance de crête et cela grâce à une nouvelle fonction de transfert électro-optique appelée Perceptual Quantizer, également connue sous le nom de SMPTE ST 2084 Cette fonction de transfert permet à la vidéo HDR d'avoir des valeurs de luminance aussi élevées que 10 000 nits. Le HDR a également un point noir inférieur de 0,0001 nits par rapport au plancher de niveau de noir de 0,01 nits pour SDR, ce qui permet d'obtenir plus d'informations dans la zone d'ombre avant qu'il ne passe au noir. Le résultat de cet étirement de la valeur de luminance de base et de crête permet au contenu HDR d'avoir une plage dynamique massive, ce qui est tout simplement impossible avec un contenu standard, ce qui lui permet de paraître beaucoup plus réaliste.

Malheureusement, le chiffre complet de 10 000 nits pour les faits saillants est hors de portée de la technologie d'affichage existante. Les moniteurs de mastering les plus brillants qui coûtent des dizaines de milliers de dollars peuvent aller jusqu'à 4000 nits, mais la plupart des téléviseurs grand public ne peuvent pas dépasser 1000 nits, les modèles OLED étant encore plus faibles.

  Boîte mystère "src =" https://fdn.gsmarena.com/imgroot/news/20/11/hdr-explained/-1200/gsmarena_020.jpgCrédit d'image: Mystery Box

Indépendamment des limitations existantes, les limites théoriques plus élevées du HDR permettent beaucoup plus de liberté lors de la maîtrise du contenu. Les coloristes professionnels et les ingénieurs en mastering ont maintenant une toile beaucoup plus grande pour peindre leur image. Une vidéo HDR ne signifie pas nécessairement que la vidéo est simplement plus lumineuse. En fait, si vous regardez la plupart du contenu aujourd'hui maîtrisé en HDR, une grande partie des informations vidéo serait toujours inférieure à 100 ou 200 nits.

C'est parce que tout ne doit pas être trop clair. L'idée fausse commune sur le HDR est que cela rend tout plus clair, mais ce n'est pas le cas. Ce qu'il permet, c'est une hauteur libre supplémentaire, donc, par exemple, si une scène se déroule dans une pièce sombre mais avec une lampe lumineuse quelque part dans le cadre, la pièce elle-même peut être inférieure à 100 nits de luminosité, mais la lampe peut maintenant être de 800 nits ou même 2000 lentes si le réalisateur le souhaite. Ce que cela crée, c'est un contraste, où la pièce est vraiment sombre mais la lampe peut traverser cette obscurité et briller plus fort, comme elle le ferait dans la vraie vie.

Cette différence beaucoup plus grande des valeurs de lumière est ce que le HDR apporte à la table et ce que le SDR ne peut pas réaliser. Encore une fois, si vous deviez simplement rendre votre écran plus lumineux sur SDR, cela rendrait toute la pièce plus lumineuse, ce qui n'est pas ce que nous voulons. L'objectif ici est le contraste, pas seulement la luminosité.

Cette technique peut être appliquée à de nombreuses zones du cadre. Les petites zones lumineuses, également connues sous le nom de reflets spéculaires, peuvent se voir attribuer des valeurs de luminance plus élevées dans le processus d'édition afin qu'elles brillent plus que le reste de l'environnement de manière réaliste. Encore une fois, l'intention ici est d'avoir un contraste, pas seulement de rendre les choses plus lumineuses juste pour le plaisir. Si le coloriste ou le réalisateur pense que rien ne doit être plus brillant que 200 nits dans une scène particulière ou même dans tout le film, ils peuvent choisir de le faire (et certains le font).

Comprendre HDR10 et Dolby Vision

La large plage dynamique n'est qu'une partie de l'histoire du HDR. HDR prend également en charge une large gamme de couleurs ou WCG. Bien qu'il soit facultatif pour le contenu de plage dynamique standard, WCG fait partie des spécifications du format vidéo HDR, vous pouvez donc toujours vous attendre à voir une utilisation de couleurs larges dans votre contenu HDR. Les formats HDR utilisent le format Rec. Espace colorimétrique 2020, bien que le contenu à l'intérieur soit souvent maîtrisé dans l'espace colorimétrique DCI-P3 plus petit, car il n'y a pas beaucoup d'écrans pouvant couvrir tout l'espace 2020.

Tout comme avec la plage dynamique, la présence de WCG ne signifie pas nécessairement que tout devra paraître vibrant et sursaturé. WCG élargit une fois de plus le canevas et fournit plus de gammes de couleurs pour que les artistes puissent jouer avec lorsqu'ils évaluent le contenu de leur maître HDR. La plupart des couleurs que vous verrez à l'écran peuvent encore se trouver dans la Rec. 709, mais parfois, si un artiste sent qu'une nuance de vert particulière qu'il recherche se situe en dehors de la plage de l'espace 709, il a maintenant la possibilité de choisir parmi l'ensemble de couleurs 2020 beaucoup plus large.

Le contenu HDR a généralement une profondeur de bits de 10 bits ou plus. Les bits supplémentaires pour chaque canal de couleur se traduisent par moins de bandes de couleurs et une gradation de couleurs plus naturelle.

Formats HDR

Le HDR a actuellement plusieurs formats différents de différentes sociétés, mais il y en a quatre qui ont été le plus adoptés.

Comprendre HDR10 et Dolby Vision

Le premier est HDR10, qui est la forme la plus standard de HDR que vous puissiez obtenir. S'il s'agit du HDR, il s'agit probablement du HDR10 ou du moins agissant comme couche de base. En raison de sa standardisation et de son adoption généralisée, chaque appareil compatible HDR que vous achetez le prend en charge. Cela facilite la recherche de contenu et il y a de fortes chances que l'appareil que vous possédez puisse le lire.

HDR10 est utilisé par défaut pour les Blu-ray UHD. Même les disques qui utilisent d'autres formats auront HDR10 comme couche de base pour une compatibilité ascendante. Les services de streaming comme Netflix, Amazon, Hulu, YouTube, Vimeo, iTunes et Disney + offrent tous HDR10 par défaut pour leur contenu HDR, ainsi que toutes les autres versions qu'ils pourraient avoir.

L'omniprésence du HDR10 est sa plus grande force et cela tient en grande partie au fait qu'il est libre de droits. Techniquement, c'est aussi un format assez fort, prenant en charge des valeurs de luminance jusqu'à 1000 nits avec Rec. Prise en charge de 2020 WCG et profondeur de couleur 10 bits (d'où le nom HDR10). Sa principale limitation, autre que le plafond de 1000 nits pour une luminance maximale, est l'utilisation de métadonnées statiques.

HDR10 utilise des métadonnées statiques SMPTE ST 2086, qui incluent des informations sur l'affichage sur lequel le contenu a été maîtrisé. Il comprend également des informations telles que le niveau d'éclairage maximal du cadre (MaxFLL) et le niveau d'éclairage maximal du contenu (MaxCLL). Ces informations sont utilisées par l'écran de réception, tel que votre téléviseur, pour régler sa propre luminosité pour le contenu. Malheureusement, ces valeurs restent statiques tout au long de l'exécution pour le contenu HDR10, ce qui produit des résultats moins qu'idéaux dans lesquels certaines scènes ne sont pas aussi lumineuses qu'elles peuvent l'être, tandis que d'autres pourraient être plus lumineuses que nécessaire.

Comprendre HDR10 et Dolby Vision

HDR10 + résout bon nombre de ces problèmes. Créé conjointement par Samsung, Panasonic et 20th Century Fox, le format présente en grande partie les mêmes spécifications que le HDR10, mais augmente la valeur de luminance maximale à 10000 nits et prend en charge les métadonnées dynamiques.

À l'aide de métadonnées dynamiques, le coloriste peut inclure des informations sur une scène par scène ou image par image de base pour ajuster le niveau de lumière du contenu. Ces informations peuvent ensuite être utilisées par votre téléviseur pour ajuster sa puissance lumineuse afin qu'elle corresponde exactement au contenu, reproduisant de plus près l'intention du créateur. Les valeurs de luminance plus élevées permettent également aux téléviseurs capables d'atteindre une luminosité supérieure à 1000 nits d'étirer leurs jambes au lieu de couper à 1000 nits.

Le contenu HDR10 + est rétrocompatible avec les appareils HDR10, car la plupart des différences sont contenues dans les métadonnées, qui peuvent être ignorées par les écrans non HDR10 +. Cela se traduira par une expérience similaire au simple visionnage d'une vidéo HDR10.

Alors que le HDR10 + prétend être libre de droits, il y a des frais d'administration annuels, qui vont de 2500 $ à 10000 $ en fonction du produit qui intègre la technologie.

Comprendre HDR10 et Dolby Vision

Le HDR10 + n'a pas été beaucoup adopté malgré ses avantages techniques par rapport au HDR10. Cela comprend l'adoption par les créateurs de contenu, les fournisseurs de services et les fabricants d'équipements. Les seules entreprises qui tentent de le pousser sont soit les fondateurs (Samsung, Panasonic), soit les entreprises de l'alliance HDR10 + (Amazon). Même parmi ces entreprises, certaines comme Panasonic ont maintenant commencé à offrir des technologies concurrentes comme Dolby Vision sur leur télévision. 20th Century Fox a également commencé à offrir ses disques UHD en Dolby Vision depuis que Disney les a repris. À ce stade, on ne sait pas si le HDR10 + a un avenir ou s'il va dans le sens du HD-DVD.

Avant de passer à Dolby Vision, parlons d'Hybrid Log Gamma ou HLG. Comme les autres, HLG est également un format HDR mais construit sur différentes technologies et pour différents cas d'utilisation. HLG utilise une fonction de transfert électro-optique non linéaire, où la moitié inférieure de la valeur du signal utilise une courbe gamma et la moitié supérieure utilise une courbe logarithmique. Ceci est fait pour que la vidéo puisse être lue sur n'importe quel téléviseur; lorsqu'il est lu sur un téléviseur standard, il peut interpréter la courbe gamma standard de la valeur du signal résultant en une vidéo SDR et lorsqu'il est lu sur un écran HLG, il peut également lire la partie logarithmique pour produire l'effet HDR complet.

Comprendre HDR10 et Dolby Vision

HLG a été créé par la BBC et la NHK du Japon pour la diffusion. Les flux de travail HDR10 standard nécessitent de nombreuses étapes et le rendent également incompatible avec les écrans non HDR. HLG a été conçu pour contourner cela en cuisant toutes les informations dans un format rétrocompatible au moment de la transmission.

Bien que HLG soit largement adopté dans les appareils en raison de sa nature véritablement libre de droits, le format reste largement limité à certaines chaînes de télévision.

Dolby Vision

Dolby Vision est un format HDR similaire à HDR10 et HDR10 +. Il est basé sur le quantificateur perceptif EOTF et est capable d'une luminance maximale de 10 000 nits. Dolby Vision prend également en charge la couleur 12 bits avec Rec. 2020. C'était le premier format HDR à prendre en charge les métadonnées dynamiques, permettant un mappage de tonalité scène par scène ou même image par image.

Depuis son introduction, Dolby Vision a été régulièrement adoptée par les studios et les fabricants d'appareils. Alors que HDR10 reste le format HDR par défaut, et même les disques Blu-ray HDR avec Dolby Vision ont une couche de base HDR10 avec une couche de métadonnées Dolby Vision distincte, plusieurs studios et services de streaming ont choisi de fournir leur contenu en Dolby Vision s'ils le sont. faire une note HDR.

Comprendre HDR10 et Dolby Vision

Ceci malgré le fait que, comme tous les services de Dolby, Dolby Vision est propriétaire avec une redevance pour chaque appareil qui l'intègre, bien que ce ne soit pas non plus particulièrement élevé avec le coût par téléviseur inférieur à 3 $. Bien sûr, lorsque vous parlez de millions d'appareils, en particulier de choses comme les smartphones, vous pouvez voir comment ce nombre peut augmenter.

Cependant, alors que la plupart des services de streaming semblent être tout-en-un sur Dolby Vision ces jours-ci, les studios de cinéma ont eu du mal à inclure Dolby Vision sur toutes leurs nouvelles versions UHD. Cela a à voir avec les limitations physiques du disque et les exigences fixées par l'UHD Alliance, qui oblige les studios à avoir une couche de base HDR10 aux côtés des métadonnées Dolby Vision pour une compatibilité ascendante avec les anciens téléviseurs HDR, ce qui prend de l'espace supplémentaire. C'est quelque chose dont les services de streaming n'ont pas à s'inquiéter car ils peuvent simplement servir la version exacte prise en charge par le téléviseur du spectateur.

Cela a provoqué un ralentissement du nombre de titres Dolby Vision UHD qui ont été publiés au cours de la dernière année. Cependant, certains studios ont continué à persévérer malgré les ennuis, mais beaucoup d'autres, y compris Disney, ont décidé de se rabattre sur la simple sortie en HDR10 standard pour les supports physiques et de réserver Dolby Vision pour le streaming en ligne. Cela semble contre-intuitif, mais c'est ainsi que les choses se passent actuellement.

Dolby Vision en tant que format a plusieurs profils et niveaux de flux binaire, qui dictent certaines de ses caractéristiques et spécifications. Ces profils varient en fonction de l'appareil sur lequel ils sont implémentés et de la méthode de distribution du contenu. Jusqu'à présent, il n'y a pas vraiment eu de raison pour que le consommateur en soit conscient car normalement tout "fonctionne" tant que vous avez des appareils et du contenu prétendant prendre en charge Dolby Vision.

Ce qui vous préoccupe peut-être, c'est l'utilisation par Dolby de deux modes différents. L'un d'eux est le mode standard, également connu sous le nom de Dolby Vision LED et l'autre est le mode à faible latence, également connu sous le nom de Dolby Vision LED. La différence entre eux est que le mode standard effectue tout le mappage et le traitement des tons sur le téléviseur lui-même, ce qui produit une meilleure image au prix d'une latence légèrement accrue. Le mode à faible latence effectue le mappage de tonalité sur le lecteur, ce qui produit des résultats moins précis mais réduit la latence.

Pour cette raison, ce mode à faible latence a été préféré par les consoles comme la Xbox One X / S et la Xbox Series X / S. De plus, la plupart des téléviseurs Sony avec Dolby Vision ne prennent en charge que le mode à faible latence, mais tous les autres fabricants de téléviseurs prennent en charge le mode standard. Cela a causé un problème avec certains lecteurs multimédias qui ne prenaient pas en charge le mode à faible latence au départ, mais beaucoup d'entre eux ont depuis été mis à jour pour le prendre en charge.

Maîtrise en HDR

La création et la maîtrise de contenu en Dolby Vision ou toute forme de HDR peut être compliquée et prendre du temps. Cela nécessite un équipement plus nombreux et de meilleure qualité pour capturer et éditer les images, et une plus grande contribution de l'artiste coloriste pour une note finale qui ne ressemble pas à quelqu'un qui vient de gifler un badge HDR sur une note SDR.

L'une des caméras préférées d'Hollywood, l'ARRI Alexa LF a une plage dynamique de plus de 14 arrêts. "Src =" https://fdn.gsmarena.com/imgroot/news/20/11/hdr-explained/-1200/gsmarena_011. jpgL'une des caméras préférées d'Hollywood, l'ARRI Alexa LF a une plage dynamique de plus de 14 arrêts.

Pour commencer, il faut une caméra avec une plage dynamique suffisamment large. Heureusement, un grand nombre des caméras plein format et même certaines des caméras APS-C sur le marché aujourd'hui ont des capteurs avec une plage dynamique suffisamment large pour que vous puissiez produire du contenu HDR avec eux tant que vous photographiez dans une forme de profil journal ou directement. en RAW. Et les caméras de cinéma numérique ont cette capacité depuis encore plus longtemps. Cela signifie que si vous avez une caméra qui coûte plus de 2000 $, il y a de fortes chances qu'elle puisse enregistrer une vidéo qui peut être masterisée en HDR.

Notez l'utilisation des mots-clés ici «maîtrisé». Nous ne recherchons pas des caméras qui enregistrent directement en HDR. Ce n'est pas ainsi que le contenu HDR est conçu pour le cinéma ou la télévision. Le HDR que vous voyez dans vos films ou émissions de télévision est entièrement réalisé en post-production en utilisant des images de très bonne qualité. Cela permet la flexibilité de produire plusieurs versions de HDR et également une qualité SDR en fonction des exigences du client.

Lorsque vous capturez une vidéo en profil journal ou en RAW à partir d'une caméra, vous obtenez une vidéo dont la plage dynamique est extrêmement large (généralement plus de 12 arrêts) mais qui est généralement inutilisable à moins qu'elle ne soit graduée en couleurs. Une fois tournées, ces images doivent ensuite être placées sur un ordinateur où elles seront étalonnées en couleurs et transformées en livrable final.

Pour cela, vous avez besoin d'un système d'exploitation prenant en charge le HDR. Heureusement, Windows 10 et macOS le font dans leurs dernières versions publiques. Ensuite, vous avez besoin d'un logiciel d'étalonnage des couleurs qui fonctionnera en parallèle ou en tant qu'éditeur non linéaire. DaVinci Resolve de BlackMagic est un choix courant de nos jours, mais il existe d'autres options disponibles, avec Premiere Pro et Final Cut Pro X prenant également en charge certains niveaux de flux de travail HDR.

Le Sony BVM-HX310 a un statut légendaire parmi les moniteurs de référence. Il coûte également environ 40 000 USD. "Src =" https://fdn.gsmarena.com/imgroot/news/20/11/hdr-explained/-1200/gsmarena_013.jpgLe Sony BVM-HX310 a un statut légendaire parmi les moniteurs de référence. Cela coûte également environ 40 000 $.

Enfin, vous avez besoin d'un moniteur HDR de référence. Cet écran doit prendre en charge au moins 1000 nits de luminosité soutenue, un rapport de contraste de 200000: 1 et une couverture DCI-P3 complète (même si le conteneur pour HDR est Rec 2020, le mastering est toujours effectué pour P3). Les OLED, les microLED ou les LCD double couche sont excellents mais pas nécessaires. Vous pouvez vous en tirer avec un moniteur de moins de 5000 $ si vous ne faites que noter votre chaîne YouTube ou Vimeo. Cependant, si vous êtes un professionnel de l'étalonnage des couleurs du prochain blockbuster Disney, vous utiliseriez un moniteur HDR de référence qui coûte des dizaines de milliers de dollars.

Puisque nous sommes maintenant dans un environnement entièrement HDR, nous disposons désormais d'une large plage dynamique et d'un large espace colorimétrique pour travailler avec le contenu. Cela signifie que vous pouvez désormais afficher et conserver une plus grande partie de la plage dynamique que la caméra a capturée à l'écran et dans la note finale. Les reflets plus clairs apparaîtront mieux sans écrêtage tant que l'image a été correctement exposée et que la scène était dans la plage dynamique de la caméra. Vous pouvez également conserver davantage d'informations sur les couleurs de la capture; la plupart des caméras haut de gamme ou de cinéma peuvent enregistrer en mode natif 10 bits ou même 12 bits en 4: 2: 2.

L'évolution de la note dépend de l'intention du directeur de la création. C'est quelque chose qui est entré en conflit récemment après que les gens ont regardé les maîtres HDR de films populaires et se sont rendu compte que le maître HDR ne semblait pas significativement différent de la qualité SDR. D'autres personnes, y compris des coloristes et des directeurs de la photographie, ont défendu cette pratique, l'appelant l'intention du créateur et que les réalisateurs et les directeurs de la photographie devraient avoir le dernier mot sur l'apparence de l'image et s'ils ne le souhaitent pas. inclure des reflets brillants ou la large gamme de couleurs du HDR alors ils ne sont pas obligés de le faire. Cela remet en question pourquoi même utiliser le HDR dans ce cas et si cela est fait uniquement pour le marketing, mais c'est une discussion pour un autre jour.

Comprendre HDR10 et Dolby Vision

Une fois la note terminée, les étapes finales dépendent du format dans lequel elle sera livrée. Si vous la livrez en Dolby Vision, ce qui est généralement le cas de nos jours, la note finale doit d'abord être analysée par le logiciel d'édition pour générer les métadonnées dynamiques. Vous avez maintenant le grade primaire ou "héros", qui sera utilisé pour produire les autres versions.

Cette qualité Dolby Vision est ensuite transmise à travers une CMU ou une unité de mastering de contenu et transmise à un moniteur SDR externe calibré à 100 nits pour produire la version SDR à partir de la qualité héros. Ici, le coloriste fera ce que l'on appelle une "passe de coupe", où il parcourra à nouveau le contenu et verra à quoi il ressemble sur un écran SDR tout en apportant les modifications nécessaires en cours de route. Produire une qualité SDR de cette manière à partir de la qualité HDR initiale est désormais la pratique standard de l'industrie et comment des entreprises comme Netflix vous demandent de leur soumettre votre contenu. Le maître Dolby Vision peut également être utilisé pour produire un livrable HDR10 générique si c'est ce dont votre client a besoin.

Après cela, le contenu passe par les dernières étapes du contrôle qualité et, avec les métadonnées, est envoyé pour livraison. C'est ainsi que le contenu HDR est aujourd'hui capturé et maîtrisé pour les médias physiques et en streaming. Si vous devez faire une vidéo HDR aujourd'hui pour, par exemple, YouTube, le processus serait similaire à part devoir exporter en HDR10 uniquement car YouTube ne prend pas en charge HDR10 + ou Dolby Vision actuellement.

Il convient de noter que si nous avons référencé HDR10 et Dolby Vision comme des «formats» dans cet article, ce ne sont pas des codecs ou des conteneurs différents. Les informations HDR sont ajoutées sous forme de métadonnées au-dessus de la vidéo SDR existante, et la vidéo elle-même peut utiliser l'un des codecs existants tels que H.264, HEVC, VP9 ou tout autre élément susceptible de sortir à l'avenir. Cela dit, UHD Blu-ray utilise le format HEVC comme format de choix, tout comme de nombreux services de streaming pour leurs flux 4K HDR. Cela ne signifie pas que vous devez avoir la prise en charge HEVC pour le HDR, mais simplement que c'est le format que l'industrie a choisi.

HDR sur les smartphones

La prise en charge de la vidéo HDR sur les smartphones a été ratée au fil des ans. Jusqu'à très récemment, cela se limitait à la consommation de contenu HDR, mais maintenant vous pouvez également créer du contenu en HDR sur certains téléphones.

En termes de consommation, nous avons vu des niveaux de succès variables. Dans la plupart des cas, les téléphones qui prétendent prendre en charge le HDR peuvent décoder et lire le contenu sans altérer les couleurs. Cependant, beaucoup de ces appareils auront un écran LCD ou un OLED sans plafond à luminosité particulièrement élevée, de sorte que l'expérience n'est souvent pas meilleure que de regarder une vidéo à plage dynamique standard, bien qu'avec une large couleur. Dans certains cas, même ce dernier n'est pas acquis.

Comprendre HDR10 et Dolby Vision

La plupart des smartphones ne prennent également en charge que le HDR10, avec très peu de HDR10 + et encore moins de Dolby Vision. HDR10 + est en grande partie hors de propos, mais si vous êtes abonné à Netflix, vous manquez beaucoup de contenu Dolby Vision et devez vous rabattre sur la version HDR10 moins impressionnante. Apple est le seul fabricant de smartphones à utiliser Dolby Vision sur toute sa gamme d'iPhone, aucun des smartphones Android sur le marché ne prenant actuellement en charge ce format.

Cependant, Apple est également celui qui propose depuis des années de «  faux HDR '' depuis le lancement de la série iPhone 8. Tous ses iPhones LCD et plusieurs iPad depuis ont pris en charge HDR10 et Dolby Vision dans le logiciel, mais aucun écran HDR réel. Seuls les iPhones OLED ont des écrans capables de HDR. Ce que le système d'exploitation fait alors est de cartographier les niveaux de lumière pour s'adapter à la plage dynamique de ces écrans non HDR, ce qui entraîne souvent une image sombre et un contraste médiocre. Vous pouvez le voir dans les applications prenant en charge le HDR, telles que Netflix ou Apple TV, où le faux contenu HDR semble en réalité pire que la version SDR du même contenu. Et comme il n'y a aucun moyen de le désactiver, vous êtes quasiment coincé avec.

En ce qui concerne la capture en HDR, nous avons depuis quelques années des smartphones qui capturent et enregistrent des vidéos directement en HDR10 (HDR10 + dans le cas des téléphones Samsung). Cette vidéo est entièrement graduée en couleurs, tout comme la vidéo SDR, vous n'avez donc rien à faire et peut être regardée sur le téléphone ou tout autre appareil compatible HDR.

Apple a décidé de se joindre à la mêlée avec sa série iPhone 12 enregistrant directement en Dolby Vision. Nous ne pensons pas qu'il soit particulièrement impressionnant qu'Apple enregistre directement en DV par opposition à un autre format HDR, mais il est impressionnant qu'ils le fassent jusqu'à 4K à 60fps (30fps sur les modèles non-Pro) et qu'ils laissent vous le modifiez ensuite sur le téléphone lui-même.

Après avoir vu ces vidéos, nous avons des réactions mitigées. Bien que les vidéos aient une plage dynamique et un contraste plus grands et montrent de meilleurs détails dans les hautes lumières avec moins de bandes, l'impact du HDR variera en fonction de la scène. De plus, étant donné que l'étalonnage des couleurs et de la luminance est essentiellement effectué par un logiciel utilisant les données des capteurs de la caméra du téléphone, ne vous attendez pas à des résultats aussi impressionnants que des images de caméras de cinéma évaluées par des coloristes professionnels. Mais pour ce que ça vaut, ils ont l'air assez décents.

Comprendre HDR10 et Dolby Vision

Le problème concerne actuellement le partage, car les images HDR ne sont pas compatibles avec la plupart des services de partage en ligne. Si le téléphone enregistre en HDR10 standard, vous pouvez toujours le publier sur YouTube ou Vimeo car ils prennent en charge le HDR. Cependant, vous ne pouvez pas faire grand chose avec la vidéo Dolby Vision pour le moment à part la regarder sur votre téléphone. Si vous le partagez, le téléphone le dépouillera automatiquement de ses métadonnées et le transformera en une vidéo SDR.

Il est difficile de dire quand d'autres services prendront en charge le HDR, voire pas du tout. Ils ne peuvent pas simplement appuyer sur un commutateur pour un format que peu de gens peuvent prendre en charge sur leurs appareils et encore moins qui peuvent en faire l'expérience correctement. Nous pensons que cela pourrait prendre un certain temps avant que quelque chose comme Twitter obtienne le support de la vidéo Dolby Vision.

HDR en photographie

Le terme HDR a été utilisé en photographie depuis des années maintenant, avant même d'être introduit pour la vidéo. Le nom a été donné à la technique consistant à empiler plusieurs images de différentes expositions, les combinant ainsi en une seule image ayant une plage dynamique «large». Cependant, le résultat final n'est pas exactement une large plage dynamique et a été conçu pour tromper les limites de l'impression et des affichages de cette époque.

Comprendre HDR10 et Dolby Vision

La technique d'empilement d'images de différentes expositions est appelée tonemapping. Il vous permet d'obtenir des détails sur les ombres et les hautes lumières dans une seule image. L'image finale est toujours une plage dynamique standard, car vous ne ressentez pas exactement la gamme complète des informations lumineuses capturées dans l'image, mais cela a simplement pour but de pouvoir tout voir dans le cadre sans être sur ou sous-exposé. Il a également contourné les limites des premiers appareils photo numériques, dont la plage dynamique était notoirement pire que celle du film.

This technique is still used on cameras, especially on smartphones, and is still referred to as HDR. However, this is not the same HDR as the one we have been talking about in this article, as it doesn't use a different EOTF nor does it have any technical differences to a standard digital photograph.

Understanding HDR10 and Dolby Vision

However, there are now cameras that can capture images in HDR PQ. This is the same Perceptual Quantizer EOTF that we talked about for HDR video, which means the still images actually are capable of storing higher luminance values, which when viewed on an HDR display show brighter highlights and thus an actual wide dynamic range.

The cameras that can do this are the Canon EOS 1D X Mark III, EOS R5, and the EOS R6. The images are saved in the HEIF or RAW and can only be viewed correctly on an HDR-compatible display and device. We will likely see more devices adopt this technology in the future, including smartphones, but again there will be limits on sharing in this format for some time.

HDR in video games

We have seen HDR PQ be used in video and even in photos but HDR is also slowly growing in popularity in games. Once again, it uses the same HDR PQ algorithm to produce wide dynamic range images and the output can be in any of the popular standards, including HDR10 or Dolby Vision.

Understanding HDR10 and Dolby Vision

Since games are basically made from scratch and every element is bespoke, adding HDR to a game is easier as you just have to assign a different light value to a color or texture than you would for the SDR version. The trick is to not have it be distracting or overwhelming but when done right, can be greatly impactful on the overall experience, especially in story-driven titles. You also get to benefit from the increased color range that games can exploit much better due to their often fantastical settings that don't need to look realistic like film or television.

HDR has seen some adoption in console games as televisions usually handle HDR well. However, it's not that common for PC titles because Windows still has a substandard implementation of HDR that requires you to switch to a different HDR mode from the settings and then makes all non-HDR elements on-screen look weird. Cheap HDR monitors are also generally quite horrible so the overall experience often leaves a lot to be desired. This is likely why HDR hasn't taken off in gaming as much even though it has incredible potential in this area.

Limitations of HDR

While HDR as a technology does not have many limitations of its own, it has proven to be somewhat difficult to implement and is largely been held back by the hardware available today.

HDR is very demanding on the hardware. The current specifications of the technology aren't even possible with today's commercially available displays, with both the color space coverage and especially the peak brightness being well out of the reach of what is viable. In some ways, this is good as the HDR standard itself does not have to evolve much over the years as the hardware will take some time to catch up and even existing content can look better with future hardware. However, it does mean that as of today, we cannot experience HDR the way it is meant to be.

Even within the hardware available today, there is a massive discrepancy in what you can experience and it depends on a variety of factors. Price is by far the biggest one, with the cheaper HDR displays simply being incapable of showing the full potential of the technology. Many of the budget televisions, monitors, and even smartphones claiming to support HDR only have the requisite software support to be able to play HDR PQ content. The actual hardware on these often cannot achieve high enough brightness, contrast, bit depth, and color gamut coverage to provide an experience that is in any way meaningfully better than SDR.

The different display technologies have also resulted in another layer of disparity in HDR performance. Self-emitting panels like OLED are ideal for HDR as they can control the light output on a per-pixel level, leading to localized brightness and infinite contrast. However, OLEDs are limited in their light output by temperature and power concerns and thus they don't have a particularly high peak light output and even that value cannot be sustained for too long.

The Panasonic OLEDs are considered best in class despite the inherent limitations of OLED." src="https://fdn.gsmarena.com/imgroot/news/20/11/hdr-explained/-1200/gsmarena_019.jpgThe Panasonic OLEDs are considered best in class despite the inherent limitations of OLED.

On the other hand, backlit panels like LCD can get immensely bright and can sustain that brightness for much longer. However, even with local dimming, LCD panels do not have localized light output at the same per-pixel level as OLED, which reduces their contrast. Due to this, videophiles today prefer to go with OLED if they can afford it even with concerns over brightness and burn-in, as the per-pixel light output is still the best way to experience HDR.

HDR experience on computers also leaves a lot to be desired, especially on Windows. On a media player or a game console, you usually consume the HDR content fullscreen, so the device doesn't have to worry about rendering SDR and HDR elements at the same time and can just switch back and forth between them. On a PC, you can have HDR content playing in a video over an SDR desktop, so it needs to handle both formats gracefully. Windows has traditionally struggled with even just being able to have two different color spaces active at once, so it's hardly a surprise it falls flat on its face handling HDR inside an SDR desktop environment and requires you to force HDR for the entire screen, making the non-HDR elements look odd. macOS generally handles this better but then again Apple has always been better at color management.

As alluded to earlier, mastering and distributing HDR has also not been the easiest process. Studios now have to produce two versions of their content if they choose to support HDR, which increases the time put into post-production. Not to mention the specialized equipment required to capture, master, and distribute the additional files. And there's definitely some HDR content out there that hasn't been mastered correctly or is just an SDR grade inside an HDR container. Such content could leave a bad taste in your mouth if it's your first time experiencing HDR and may cause users to undermine the technology.

Final thoughts

HDR is one of the greatest advancements in video technology, of that there is very little doubt. The improvements it brings to the dynamic range and color adds dramatically to the realism and makes the content that much more immersive. Most people agree that HDR has a far greater impact on image fidelity than a bump up in resolution. Like high frame rates, it's something you don't need to be an expert to notice.

However, we are still in the early days of this technology. The hardware required to correctly display HDR isn't commercially available today and it's going to be a long time before it becomes affordable to the masses. That's not to say you can't have a great HDR experience today; pick up an LG or Panasonic OLED, stick an Oppo 203 in there (if you can still find one), hook up an honest to goodness surround sound system (none of that soundbar nonsense) and you are in for a treat. And if you can experience this today without robbing a bank, imagine how good it's going to be in the next ten years.

But if you don't have an HDR-compatible television or a smartphone, that's fine too. As good as HDR is, traditional video can also be very good. Just pick up an HD Blu-ray and you'll be amazed at how good even standard 1080p video can look. We think it's better to experience good SDR than poorly rendered HDR on a cheap TV set. And we honestly don't think anyone should care much at all about being able to record HDR video on their phone, especially if you like to share those videos with others.

However, we are deeply fascinated with what the future holds for this technology and can't wait for great quality HDR televisions at affordable prices as well as greater support for content and online services for sharing content in HDR. Maybe things will be a lot better when we decide to do our next article around HDR. But that's all for now. If you have any further questions then you can leave them in the comments below. We hope this article was helpful or insightful in any way and helped you understand or at least sparked a curiosity within you so you could look into it further and make a more informed purchase decision in the future.

A lire également