Jacky67 wrote:Il n'y a pas non plus de vidéo simulant le HDR comme sur la photographie précédente ?
Si mais ces vidéos ne sont pas diffusées au grand public. 4ever ( le consortium Français ) a capté les vidéos de Montmartre en HDR et sans HDR ce qui a permis la comparaison directe dans une même vidéo ( car évidemment ce n'est qu'une photo que j'ai montré mais il s'agit bien d'une vidéo ). Ce n'est donc pas une simulation, ce qui rend d'autant plus intéressant cette photo !
Jacky67 wrote:Pour préciser ce que je voulais dire : l'oeil voit certes une grande palette de couleurs et de luminosités, mais il ne voit pas tout en même temps. C'est-à-dire qu'il verra beaucoup de nuances de gris mais uniquement dans la pénombre complète, alors qu'il ne verra que quelques nuances de gris s'il y a une source lumineuse dans le champ de vision.
L'oeil a une adaptation dynamique à l'environnement lumineux.
Complètement en phase avec ce que j'avais compris de mes lectures sur ce sujet. Le système visuel humain est tout d'abord plus sensible aux différences de lumières qu'aux différences de couleur : c'est une des raisons qui ont poussé à l'introduction de la représentation des vidéos en signaux YCbCr car la luminance ( Y ) et les couleurs ( CbCr ) sont des composantes indépendantes l'une de l'autre. Le YCbCr est d'ailleurs appelé représentation à luminosité constante ( contrairement au RGB ou la luminosité est propre à chaque composante de couleur ).
Jacky67 wrote:C'est comme l'oreille qui est capable d'entendre une fréquence X, mais ne l'entend plus s'il y a en même temps une fréquence Y. C'est d'ailleurs cette particularité qui est utilisée dans la compression "psycho-acoustique" de l'ATRAC3.
Analogie intéressante car pour moi, les afficheurs actuels non HDR compriment la dynamique en matière de luminosité ( du fait de leur incapacité à tout retranscrire ) et le HDR ferait le même travail que la fonctionnalité "normalisation" employée sur des sons en MP3 par exemple. Conclusion : dans le cas de la vidéo on ne part pas d'un signal brut pour le compresser mais on part d'un signal ( déjà compressé naturellement ) pour augmenter sa dynamique et palier ainsi à la faible dynamique des capteurs des caméras.
Jacky67 wrote:
Donc, pour en revenir à la photographie précédente, si on regarde uniquement les marches et que le champ de vision est réduit aux dites marches, alors oui on verra bien les marches telles qu'elles sont sur la partie droite de l'image (avec de nombreuses nuances de couleurs et de luminosité).
Mais si on regarde le monument, avec en arrière plan le ciel certes nuageux mais assez lumineux, on percevra les marches comme dans la partie gauche de l'image (peu de nuances de couleurs et de luminosité).
Notre vision a deux modes de fonctionnement ( je simplifie ) : global ou détaillé. En mode global, l'œil va d'abord percevoir en plusieurs points ( comme le ferait un appareil photo reflex dans sa mesure de lumière ) le niveau de luminosité globale ( moyenne ) de la scène afin d'adapter dynamiquement sa gamme de lecture lumineuse.
En mode détaillé, les éléments de la rétine vont d'abord ausculter ( simultanément et rapidement ) tous les objets vu qui sont déjà répertoriés dans notre mémoire ( un être humain, un objet usuel, etc ... ) puis, si on reste attentif à l'image, les éléments de la rétine vont se porter sur les éléments inconnus pour essayer de comprendre ce qui est vu. Pour chaque point focalisé par les éléments de la rétine, l'œil adapte automatiquement sa gamme lumineuse en fonction non plus de la valeur moyenne de luminosité de la scène entière mais en fonction de la valeur de luminosité du point ou le regard est focalisé ainsi que de l'entourage proche de ce point. Ainsi, lorsque notre attention est réduite aux marches, l'œil va tenir compte de la luminosité des marches et de son environnement proche, adapter automatiquement sa gamme de luminosité afin que nous puissions voir le plus de nuances possibles. C'est ce que tu dis dans le premier paragraphe et je suis d'accord sur le fait que l'on percevrait plutôt les marches telles que visibles en HDR ( voir même plus nuancée encore selon mon point de vue ).
Sauf que le second paragraphe me semble incomplet : si notre regard est porté sur le monument et le ciel, comme la différence de luminosité est plus importante que pour les marches, on ne percevra plus les marches de façon optimale puisque notre attention n'est pas portée sur elles. Il faudra de nouveaux porter notre attention sur les marches pour de nouveaux les voir de façon optimales.
Jacky67 wrote:
Autre exemple peut-être plus parlant : si on regarde quelqu'un placé devant une fenêtre, il est en contre-jour et donc on ne voit pas tous les détails de son visage, alors qu'avec le HDR on verra le visage de la même façon que si l'arrière plan était un mur au lieu d'une fenêtre...
Pardon mais c'est inexact ! le HDR à la sauce vidéo étend la gamme dynamique de reproduction de la luminosité ( des deux côtés de l'échelle ) et pas de la colorimétrie ( contrairement à la photographie ) et donc en même temps que tu pourrais voir plus de détails du visage de la personne placé devant la fenêtre, le contre jour sera lui aussi plus violent ce qui aura pour conséquence de t'empêcher de voir tous les détails du visage ... comme dans la réalité.
Pour finir, ce que j'ai compris du HDR en vidéo c'est d'abord qu'il na pas pour but d'étendre la saturation des couleurs ( comme en photographie ou le résultat peut parfois être complètement pas naturel si on pousse le traitement trop loin ). Le traitement HDR en vidéo étend la gamme de luminosité initiale pour obtenir quelque chose de plus proche de la réalité dans le sens ou il ne doit pas simuler le comportement de l'œil ( qui adapte dynamiquement sa gamme de luminosité en fonction de ce qui est regardé ) mais simplement se rapprocher du réel ( non pas tel qu'on le voit mais tel qu'il est vraiment, l'œil reproduisant alors le même travail qu'il fait si on observait le réel ).
@+