phil59 wrote:Dans l'ensemble je suis d'accord mais quand même cela reste du bricolage pour donner un pseudo HDR Dolby Vision.
On sait pour l'instant que les dalles LCD 2016 ne peuvent aller que jusqu'à 1000 nits ( à vérifier) au mieux et
pour les dalles Oled de Lg avec une annonce de 800 bits.(les bruits de couloirs au CES indiquent plutôt 600 bits).
http://www.newsshooter.com/2016/01/08/c ... -about-it/
Pour profiter pleinement du Dolby Vision, il faudrait tendre au minimum de 0 à 4000 nits ( 10 000 bits max) allant au REC.2020, ce que propose Sony avec leur prototype Blacklight master Drive. Et j'espère que Sony fera une annonce à l'IFA sur ce type de dalle avec d'autres constructeurs bien sur.
On en a déjà discuté.
http://www.hdfever.fr/forum/viewtopic.p ... 82#p153182
On ne va pas acheter un disque UHD Blu-ray masterisé en 1000 nits en 2016 parce que l’on dispose d’un TV à pic lumineux de 1000 nits, et plus tard le même film masterisé en 2000 nits avec un nouveau TV de 2000 nits, et puis plus tard …
Il semble plus judicieux, plus pérenne de faire du mastering en 4000 nits (i.e. du "bridage" à 4000 nits : les couleurs captées par la caméra dont l’intensité lumineuse dépasse les 4000 nits sont perdues / modifiées à la post production) le plus haut possible (4000 nits : pic lumineux max des moniteurs de post production existants en ce moment).
La mise en échelle vers un TV de capacité moindre se fera aisément.
"The display mapper is tuned for the target display device: it knows the maximum and minimum brightness, color gamut, and other characteristics. Metadata that accompanies the full-range Dolby Vision video signal carries information about the original system used to grade the content and any special information about the signal. Using this metadata, the Display Mapper intelligently transforms the full-range signal to produce the best possible output on the target device."
[Dolby Vision white paper]
http://www.dolby.com/us/en/technologies ... -paper.pdf
Selon Ingmar Rieger, le principal atout de Dolby Vision est que ses métadonnées créées à la post production contiennent aussi des instructions de rendu visuel à l’algorithme de mise en échelle pour les TV de capacité moindre.
"3.) The key benefit of Dolby Vision opposed to other HDR standards like the BBC/NHK Hybrid Log Gamma isn’t stated enough. It’s the metadata which contains creative intend. In the color bay you do trim passes after the pass at the maximum your mastering display is able to display.
This means for example you grade for 4000 nits max on the Dolby Pulsar or a future monitor in this range and then do trim passes for a 2000 nits and 1000 nits viewing for example and the changes you make will be backed to metadata besides the master which is still made for 4000 nits. So the creatives can decide how to display the material on a monitor less able than the mastering display instead of relying on an algorithm to make it look good."
http://www.newsshooter.com/2016/01/08/c ... -about-it/
Apparemment incapable d'y avoir un consensus, l’industrie laisse aussi le choix du ou des vainqueurs des différentes technologies HDR aux consommateurs.
Personnellement, je préfère la technologie la plus aboutie et la plus pérenne qui, sur le papier, semble être Dolby Vision : métadonnées dynamiques scène par scène, mastering en 12 bits.
Il n’y a aucun problème de recevoir un flux vidéo de 12 bits et de l’afficher sur une dalle de 10 bits, car souvent le traitement en interne des bons chipsets travaille sur un nombre de bits plus élevé que celui reçu en entrée pour éliminer entre autres les bruits vidéo.
Et toute autre chose étant égale :
afficher un flux de 10 bits sur une dalle de 10 bits < afficher un flux de 12 bits sur une dalle de 10 bits < un flux de 12 bits sur une dalle de 10 bits + dithering < afficher un flux de 12 bits sur une dalle de 12 bits
Un disque Dolby Vision de 12 bits peut être lu par les prochaines platines UHD Blu-ray compatibles Dolby Vision et visualisé avec les prochains TV à dalle de 10 bits compatibles Dolby Vision.
Il est aussi déjà prêt pour les TV compatibles à dalle de 12 bits du futur
grâce à son architecture astucieuse à 2 couches qui permet de disposer d’une couche de base de 10 bits standardisée, et d’une couche supplémentaire.
