Un upscale 1080p vers du 2160p aura tjrs la résolution intrinsèque du 2K (ie même contenu en terme de fréq. spatiales) et ce, même si on le sharpenise à mort, car le sharpen ne fait *rien* gagner en terme de résolution. Il fait gagner en acutance, c'est tout.
Je ne suis pas d'accord avec cette affirmation.
Une input suivant les traitements appliquées qu'aura plus du tout les mêmes caractéristiques et pourra se rapprocher d'une source 4K.
Du reste à terme de comparaison, de quoi parle t on ? D'une prise de vu 4K ? D'un film ?
Je te parle en terme mathématique de représentation d'une image. On représente la finesse de l'information véhiculée par une image en terme de fréquences spatiales. Plus une image a des détails fins, plus elle présente de hautes fréquences spatiales. Cette représentation fréquentielle (obtenue via une FFT à 2 dimensions) qui donne en fait 2 images (une correspond à un spectre d'amplitude et l'autre à un spectre de phase) permet d'évaluer facilement la richesse en détails d'une image. Ceci est par contre difficile à faire, si on considère uniqt la nature "pixel" de l'image.
Une image 2K a une représentation en terme de fréquences spatiales qui va jusqu'à une certaine fréquence max. Cette fréquence F_2K max correspond à une alternance sinusoïdale qui prend son max sur un pixel donné et son min sur le pixel voisin.
Si tu upscales une image 2K vers une image 4K, la fréquence max F_4K possible devient le double de la précédente F_2K. Cependant, si tu analyses les fréquences qui composent l'image upscalée (4K), quel que soit l'algo d'upscaling utilisé, les fréquences spatiales comprises entre F_2K et F_4K ont toutes une amplitude
nulle. Autrement dit, il n'y a aucune info dans cette zone fréquentielle. Et c'est complètement normal, car si on avait de l'info dans cette plage de fréquence au delà de F_2K, cela voudrait qu'on aura été capable de récréer des détails plus petits que ceux présents dans l'image 2K. A moins d'être madame Irma, c'est impossible (ou alors tu deviens milliardaire instantanément car ça veut dire que tu peux recréer de l'information perdue).
Par contre, et tu as raison de le dire, selon les algo d'upscaling, pour l'image 4K upscalée, les fréquences spatiales comprises entre 0 et F_2K (au délà elles sont forcément nulles) auront des amplitudes différentes selon le type d'algo d'upscale utilisé et les post-traitement ajoutés, ce qui se traduira par un rendu d'upscaling différent.
Les perf de ces algos s'évaluent en général sur des images types. Classiquement un dirac (un point noir au centre d'une image blanche), ou une transition blanc-noir sur 1 pixel car on démontre que ces images élémentaires suffisent pour savoir comment une image quelconque sera modifiée par l'upscaling. Pour des raisons de commodité d'analyse, on peut aussi le faire sur des mires 1 pixels, 2 pixels etc. On peut évaluer ces perf. soit dans le domaine "pixel", soit dans le domaine fréquentiel. En général, ce qu'on veut après upscaling, c'est que le dirac ou la transition "bave" le moins possible, qu'il n'y ait pas ou peu de phénomènes de ringing (ds le domaine pixels) qui se traduit par une succession d'overshoots et d'undershoots (qui créent du EE), qu'il n'y ait pas de ripple (domaine fréquentiel), etc. Sur PC aujourd'hui, madVR a par exemple des algos d'upscaling particulièrement au point avec des procédés anti-rigging intégrés et qui maximisent le plus possible le côté abrupte des transitions (dans la limite de la fréq F_2K puisqu'au delà tout est nul).
Cependant, et c'est là qu'intervient la notion d'acutance, un phénomène de ringing limité à 1 seul overshoot et un seul undershoot (et pas une succession) va par exemple permettre d'augmenter l'acutance de l'image sans créer d'artefact visible si l'amplitude de l'overshoot et de l'undershoot est correctement choisie en fonction de la "topographie" de l'image alentour. Et comme l'acutance est directement liée à la sensation de piqué, l'image upscalée paraîtra alors de meilleure qualité. Pour réaliser correctement ce type d'opération, des algorithmes de sharpness "intelligents" (c-à-d. non linéaires) sont ajoutés aux algo d'upscaling. Ces sharpness adaptent leurs traitements (lesquels sont tjrs le résultats de la composition de 2 effets : raidissement des transitions et création contrôlée d'un overshoot et d'un undershoot de part et d'autre des transitions, car ces 2 opérations sont celles qui augmentent l'acutance) aux pixels alentours. Ils en existent bcp, plus ou moins performants en terme de rendu. Si on utilise un PC pour les mettre en oeuvre, ça fait évidemment très longtemps que le monde du logiciel libre ou payant en traitement d'image en développe. Des algo gratuits comme lsf par exemple sont vraiment extrêmement performants à mes yeux. l'algo psharpen marche aussi très bien.
Enfin, pour être complet, il faudrait également tenir compte de la MTF du projo (sur les TV c'est inutile) qui chute avec la fréquence à cause de la diffraction induite par l'optique et qu'il convient de compenser. Pour cela, il faut des algos qui reboostent peu à peu l'amplitude des hautes fréquences sans toucher les autres. Une autre approche possible consiste à compenser ses défauts par convolution inverse de la réponse impulsionnelle de l'optique. C'est une approche qui commence à se démocratiser en photo (fuji x100s par exemple) comme l'illustre le schéma de principe ci-dessous qui permet de reconstruire "au mieux" le dirac d'origine :
Dans ce cas, la difficulté est qu'il faut tenir compte d'un tas de paramètres comme la distance focale (variable si on a un zoom), l'ouverture de l'iris etc qui modifient la réponse impulsionnelle de l'optique... Par ailleurs, il y a toujours un compromis à trouver dans la reconstruction au mieux du dirac par convo inverse car il est impossible d'obtenir un dirac parfait pour des raisons que je peux expliquer si ça vous intéresse. Je suis là dans mon domaine d'expertise car je développe des algos de convo inverse ds mon activité professionnelle de traitement du signal sur des capteurs high tech...