-
GEBIET DER ERFINDUNG
-
Die Erfindung bezieht sich auf Verfahren und Vorrichtungen zur Durchführung von Dynamikbereichsumwandlungen mit Änderungen der Luminanz von Pixeln von einem Eingangsbild auf die Luminanz von Pixeln eines Ausgangsbildes, insbesondere wenn diese Bilder hochgesättigte Pixelfarben enthalten.
-
HINTERGRUND DER ERFINDUNG
-
Videobehandlung mit hohem Dynamikumfang (Codierung, Anzeigeanpassung und dergleichen) ist ein neueres technisches Gebiet, das immer noch mit mehreren unbegründeten Fragen und Problemen behaftet ist. Obwohl HDR-Fernseher seit einigen Jahren verkauft werden (in der Regel mit einer maximalen anzeigbaren Luminanz, auch bekannt als Spitzenhelligkeit, von 1000 nit oder Cd/m^2 oder weniger), hat die Technologie, die vor der reinen Anzeige (Inhaltsherstellung, Codierung, Farbverarbeitung) kommt, immer noch eine Reihe von Lösungen zu erfinden/zu verbessern und einzusetzen. Es gibt eine Reihe von Filmen, sowie einige wenige Sendungen der Anfangsjahre, die geschaffen und übermittelt wurden, und obwohl in der Regel das Ergebnis großartig ist, gibt es auch immer noch Möglichkeiten, bestimmte Gesichtspunkte weiter zu verbessern, ergo, die Technik befindet sich derzeit in einer Phase, die weitgehend noch nicht abgeschlossen ist.
-
Bilder mit hohem Dynamikumfang sind als Bilder definiert, die im Vergleich zu den älteren Bildern mit niedrigem Dynamikumfang, auch bekannt als Standardbilder mit Dynamikumfang (die in der zweiten Hälfte des 20. Jahrhunderts erzeugt und gezeigt wurden und immer noch der Mainstream der meisten Videotechnologien sind, z. B. Fernseh- oder Filmverbreitung über jedwede Technologie, vom terrestrischen Rundfunk bis zum Youtube-Videoangebot über das Internet und dergleichen), in der Regel eindrucksvollere Farben haben, was bedeutet, dass sie in der Regel hellere Pixel (sowohl codiert als auch gezeigt) aufweisen können.
-
Formal kann man den Luminanz-Dynamikbereich als Spanne aller Luminanzen von einem minimalen Schwarz (MB) bis zu einer weißen Spitze oder Spitzenhelligkeit (PB) definieren, ergo könnte man prinzipiell HDR-Filme mit sehr tiefen Schwarzen haben. Pragmatisch kann man, z. B. den Farbprozess, die HDR-Bilder hauptsächlich auf der Basis eines einzigen Werts definieren und handhaben, nämlich als eine höhere Spitzenhelligkeit oder formale Luminanz (in der Regel ist es dies, was für Nutzer am interessantesten ist, ob es sich um helle Explosionen oder nur um die realistischeren Spiegelreflexionsflecken auf Metallen und Schmuckstücken und dergleichen handelt, und man kann pragmatisch sagen, dass das Mindestschwarz für das SDR-Bild und ein HDR-Bild gleich ist).
-
In der Praxis kann man aus alten Zeiten festhalten, dass der Dynamikbereich der Luminanz 1000: 1 des SDR-Bildes unter 100 nit (und über 0,1 nit) fallen würde und ein HDR-Bild in der Regel mindestens eine 5x hellere PB, ergo, 500 nit oder höher, aufweisen würde. Genauer gesagt würde man, obwohl ein altes SDR-Bild keine deutliche maximale Luminanz aufweist, es auf einer Endnutzeranzeige von etwa 100 nit Spitzenhelligkeit der Anzeige (PB _D) anzeigen. Und man kann SDR-Bilder in dem neuen HDR-Framework so neu interpretieren, dass ihr hellstes Pixelluma genau 100 nit entspricht.
-
Es ist zu beachten, dass man ohne in viele Details einzutauchen, die hier möglicherweise nicht erforderlich sind, angeben kann, welche Art von HDR man hat, indem man dem HDR-Bild eine Spitzenhelligkeitszahl als Metadaten zuordnet. Dies kann als die Luminanz des hellsten Pixels, das in dem Bild vorhanden ist, oder genauer gesagt des hellsten codierbaren Bildpixels in einem Video von Bildern gesehen werden, und wird oft formal definiert, indem dem Bild eine Referenzanzeige zugeordnet wird (d. h. man ordnet dem Bild eine virtuelle Anzeige zu, wobei seine Spitzenhelligkeit dem hellsten Pixel entspricht, das in dem Bild oder Video vorhanden ist, d. h. dem hellsten Pixel, das angezeigt werden muss, und dann codiert man diese PB_C - C zum Codieren dieser virtuellen Anzeige als Metadaten zusätzlich zu der Bildpixelfarbmatrix). Der Fachmann kann verstehen, dass man, unabhängig von der Codierspitzenhelligkeit PB_C eines HDR-Bildes, normierte Pixelluminanzen erzeugen kann, indem man jede Pixelluminanz durch PB_C dividiert. Normierte Lumas können auch durch Division durch den höchstmöglichen Code, z. B. 1023 in 10 Bit oder dergleichen, hergestellt werden.
-
Auf diese Weise müssen HDR-Bilder nicht „unelegant“ mit einer zu großen Menge an Bits (z. B. 16 Bits pro Farbkomponente) codiert werden, und die bestehende Technologie kann mit einer 10-Bit-Wortlänge für die Farbkomponenten einfach wiederverwendet werden (12 oder mehr Bits, die bereits von mehreren Tech-Lieferanten in der gesamten Videohandhabungskette aus verschiedenen Gründen, zumindest für die nahe Zukunft, als ziemlich „schwer“ angesehen werden und üblicherweise nur für die professionelle Nichtverbraucherverwendung in Betracht gezogen werden; und die PB_C-Metadaten ermöglichen eine einfache Aktualisierung des HDR-Frameworks für zukünftige Szenarien).
-
Ein Gesichtspunkt, der aus der klassischen Videotechnik wiederverwendet wird, ist, dass diese Pixelfarben in der Regel immer als YCbCr -Farben übermittelt werden, wobei Y die sogenannte Luma-Komponente (welche die technische Codierung für die Luminanz ist) und Cb und Cr eine blaue und rote Chroma-Komponente sind, welche die trichromatische additive Farbdefinition vervollständigen.
-
Das Luma wird aus den nichtlinearen R'G'B'-Farbkomponenten definiert (wobei die Primärfarbe' den Unterschied zu linearen RGB-Komponenten der Farben, Mengen roter, grüner und blauer Photonen, die sozusagen aus einem angezeigten Pixel einer bestimmten Farbe kommen, angibt) und über eine Gleichung definiert, die lautet:
-
Die drei Konstanten hängen von den speziellen Primärfarben ab, welche die RGB-Farbe definieren (offensichtlich wird man, wenn man eine Farbe durch eine Mischung von 50 % sehr gesättigtem starkem Rot als die rote Primärfarbe definiert, eine rötlichere Farbe erhalten als dieselbe Farbdefinition R=0,5; G=x; B=x in einem Satz von Primärfarben, in dem das Rot ein schwaches Pink ist).
-
Tatsächlich werden diese Konstanten a1, a2, a3 für jedes Tripel von farbdefinierenden Primärfarben eindeutig als solche Konstanten bestimmt, welche die exakte (absolute oder in der Regel relative) Luminanz mit 1,0 für Spitzenweiß ergeben, falls man die linearen RGB-Komponenten in der Gl. füllt 1.
-
Die nichtlinearen (Primär-) Komponenten werden aus den linearen Komponenten durch Anwendung einer optoelektronischen Übertragungsfunktion abgeleitet. Für HDR ist dies eine Funktion mit einer steileren Steigung für die dunkelsten linearen Eingangskomponenten als etwa eine Quadratwurzel (Rec. 709 OETF von SDR), z. B. die in SMPTE 2084 standardisierte Perceptual-Quantizer-Funktion.
-
In der LDR-Ära gab es kaum eine Debatte, da man für ein High-End-Video nur die Rec. 709 Primärfarben verwendete, aber jetzt hat man auch z. B. die Rec. 2020, Primärfarben einer breiten Farbskala.
-
Cb folgt dann aus Cb=b1 *(B'-Y) und Cr=c1 *(R'-Y), wobei b1 und c1 wieder als Konstanten von dem gewählten Primärsystem festgelegt sind (um in der auf 1,0 normierten Darstellung keinen Überlauf aufzuweisen).
-
Die zweite zu stellende Frage ist, wie die nichtlinearen R'G'B' mit den linearen RGB-Komponenten in Beziehung stehen (tatsächlich für diese definiert sind). Die linearen Komponenten können für jede additiv zu erzeugende Farbe leicht bestimmt werden (mindestens innerhalb der Farbskala reproduzierbarer Farben, z. B. innerhalb des Dreiecks der drei Farbsättigungsorte der ausgewählten Primärfarben, z. B. in einer Standard-CIE 1976 u'v'-Farbebene; Anmerkung: die Primärfarben können grundsätzlich beliebig gewählt werden, es ist jedoch sinnvoll, Bilder in solchen Primärfarben zu definieren, die auch durch tatsächliche Anzeigen auf dem Markt angezeigt werden können, d. h. nicht als z. B. Einzelwellenlängen-Laserprimärfarben), dies folgt nämlich aus der Elementarkolorimetrie (für jede Farbe - z. B. CIE XYZ, oder jeden Farbton, jede Sättigung, Luminanz, für die man ein entsprechendes metameres RGB-Triplett berechnen kann, das eine bestimmte Anzeige mit solchen Primärfarben anzeigen sollte, um einem durchschnittlichen Betrachter die gleiche Farbe zu zeigen).
-
Die Definition des Codiersystems, d. h. die sogenannte Electro-Optical-Transfer-Funktion, oder deren inverse Opto-Elektrische Transfer-Funktion, die aus den entsprechenden linearen die nichtlinearen Komponenten berechnet, z. B.:
ist eine technische Frage.
-
Es ist zu beachten, dass man auch mathematisch zeigen kann, dass, obwohl man die OETF auf eine rote, grüne und blaue Pixelfarbkomponente anwendet, das Luma und die Luminanz über dieselben OETF in Beziehung stehen (ein farbloses Grau weist R=G=B und R'=G'=B' auf, so dass die Luminanz L = (a1+a2+a3=1.0])*0.x und Luma Y = 1.0*OETF[0.x]=OETF[L]) ist.
-
Z. B. gab es im Laufe der LDR-Ära nur die Rec. 709 OETF, deren OETF (Abkürzung einiger irrelevanter Details für diese Patentanmeldung) das Inverse der EOTF ist, und das in einer eher guter Näherung eine einfache Quadratwurzel war.
-
Wenn dann das technische Problem auftrat, einen großen Bereich von HDR-Luminanzen (z. B. 1/10.000stel nit - 10.000 nit) in nur 10 Bit zu codieren, was mit der Quadratwurzelfunktion nicht möglich ist, wurde ein neuer EOTF, der sogenannte Perceptual Quantizer EOTF (
US9077994 ), erfunden.
-
So wird diese unterschiedliche EOTF-Definition und jede durch sie definierte Eingabe-YCbCr -Farbe, deutlich unterschiedliche numerische normierte Komponenten aufweisen, je nachdem, ob es sich um eine YCbCr_ Rec709 oder eine YCbCr PQ handelt (tatsächlich erkennt man dies durch Drehen des R'G'B'-Würfels auf seiner schwarzen Spitze, wobei die Y-Achse von achromatischen Graufarben verschiedener Luma nun die Vertikale bildet: die verschiedenen Bildpixelfarben haben dann unterschiedliche Streuungen entlang dieser Vertikalen, je nachdem, ob dieselben Bildobjektpixelfarben in einem 709-basierten Farbwürfel oder einem PQ-basierten Farbwürfel dargestellt sind).
-
Dieser gegebene technische Umstand der YCbCr _ PQ-Codierung führt zu neuen interessanten experimentellen Fakten, wenn er mit dem HDR-Codec kombiniert wird, den der gegenwärtige Anmelder zusammen mit Technicolor (siehe
WO2017157977 und ETSI-Standard TS 103 433-2 VI. 1.1 „High Performace Single Layer High Dynamic Range [SLHDR], Teil 2“ erstellt hat; und hier in dieser Patentanmeldung erneut mit
1 zusammengefasst hat).
-
1 zeigt unseren Decodierer, der ein YCbCr_ PQ-definiertes Pixelfarbeingangsbild (Im_1) aufnehmen kann, in dem die Pixel für Pixel in einer Abtastzeile verarbeitet werden. So kann dieses Bild z.B. von einer Blu-ray-Disc kommen, wobei PQ-normierte Lumas der PQ-Spitzenluminanz von 10.000 nit entsprechen. Die Form der Funktionen, die erforderlich sind, um z. B. ein SDR-Bild herabzustufen, kann von einem Abstufer, Menschen oder Automaten stammen, z. B. (nicht einschränkend) berechnet werden, wenn der Film der Disk transcodiert wird.
-
Die obere Spur von Verarbeitungsschaltungen (die in der Regel Hardwareblöcke auf einer integrierten Schaltung sind und von verschiedener Konfiguration sein können, z. B. kann die gesamte Luma-Verarbeitungsunterschaltung 101 in der Praxis als eine LUT ausgeführt sein, die sogenannte P LUT (arbeitet in wahrnehmbar vereinheitlichten Lumas), aber auch die Teilblöcke können als separate Transistor-Berechnungs-Engines der integrierten Schaltung und dergleichen ausgeführt sein, es ist jedoch technisch zu erklären, was in den Blöcken sowohl die technischen Vorteile für das Erscheinungsbild des Bildes als auch jedes mögliche technische Problem, insbesondere das, das im Folgenden behandelt wird, erzeugt) betrifft den Luminanzverarbeitungsteil der Pixelfarbe. Dies ist natürlich der interessanteste Teil der Dynamikbereichsanpassung: wenn man z. B. aus einer Eingabe z. B. einem 1000 nit PB_C HDR-Bild ein 600 nit Ausgangsbild berechnet, muss man die normierten Pixellumas der verschiedenen Bildobjekte entlang der Y-Achse des YCbCr-Farbraums umverteilen, es verschieben sich in der Regel nämlich die dunkleren Pixellumas des Bildes nach oben in Richtung der helleren (normierten) Grauwerte der Y-Achse, wodurch die helleren Pixellumas in einen kleineren Teilbereich der Y-Achse verdichtet werden. Der untere Teil der Schaltung von 1 enthält die chromatische Verarbeitung, insbesondere der Farbsättigung der Pixel, da wir im Eingangs- und Ausgangsbild den gleichen Farbton beibehalten wollen, wofür man für eine gute Qualität der Dynamikbereichsumwandlung auch zu sorgen hat.
-
In dieser speziellen Erläuterungsausführungsform ist die Ausgangspixelfarbe auch nichtlinear mit der PQ-OETF (oder inversen EOTF, um technisch genau zu sein) definiert, was nichtlineare R'', G'' und B''-Komponenten ergibt, die direkt z. B. an ein HDR-TV übertragen werden können, das eine solche Eingabe erwartet (jedoch mit den korrekten farbabgebildeten, auch bekannt als wechselweise neu abgestuften Farben, gemäß dem Ansatz des Anmelders).
-
Einige der integrierten Schaltungseinheiten sind statisch, in dem Sinne, dass sie eine feste Kurve, Matrixmultiplikation und dergleichen anwenden, und einige Blöcke sind dynamisch, in dem Sinne, dass man ihr Verhalten anpassen kann. Insbesondere können sie die Form ihrer Funktionen anpassen, - z. B. wie stark eine Abbildungsfunktion für die dunkelste Eingabe ansteigt und wie stark sie die hellsten Eingaben verdichtet - möglicherweise für jedes aufeinanderfolgende Bild des Videos. Tatsächlich besteht das Problem bei der Bildverarbeitung darin, dass es immer eine fast unendliche Variabilität des Inhalts gibt (das Eingangsvideo kann ein dunkler Hollywood-Film eines Einbruchs in der Nacht sein, oder ein Youtube-Film, bei dem man den hellen Computergrafiken von jemandem folgt, der ein Online-Spiel spielt usw.; d. h. die Eingabe, obwohl alle als YCbCr codiert, kann hinsichtlich ihrer Pixelfarben und Helligkeiten in jedem Bild erheblich variieren, egal ob der Inhalt aus einer natürlichen Szene durch eine beliebige Kamera erzeugt wurde, professionell oder von geringer Qualität ist oder als Grafik usw. erzeugt wurde). So kann eine Nachtszene eine unterschiedliche Abbildung für die dunkelsten Luminanzen oder sogar Lumas des Eingangsbildes Im_in erfordern als z.B. ein Strandszenenbild bei Sonnenschein.
-
Daher können einige der Schaltungen (grober Dynamikbereichsumsetzer 112, anpassbarer Umsetzer 113 und Farbnachschlagetabelle 102) variabel geformte Funktionen anwenden, deren Form durch Parameter aus einer Quelle bildbezogener Informationen 199 gesteuert wird. In der Regel werden dieser Quelle Bilder (Im_in) und Metadaten (MET) zugeführt, wobei letztere Parameter umfassen, welche die Form der verschiedenen Luma-Abbildungsfunktionen bestimmen, die diese dynamischen Schaltungen anwenden. Diese Metadaten der Neueinstufungsfunktion können von einer Inhaltserzeugungsseite (Codierer) übermittelt werden, über ein beliebiges Videokommunikationsnetz (Kabel, Internet usw.) übermittelt werden und temporär in einem Speicher im Decoder gespeichert werden oder damit verbunden werden. Der Decodierer kann dann diejenigen Abbildungen anwenden, die der Ersteller des Videos vorgeschrieben hat.
-
Die Pixelfarben im Bild ergeben sich als YCbCr PQ, d. h. die nichtlinearen R'-, G'- und B'-Komponenten werden alle drei mit der Perceptual-Quantizer-Funktion codiert. Die Luma-Komponente wird durch die PQ-EOTF gesendet, zu deren Berechnung die Luminanzberechnungsschaltungen 129 konfiguriert sind (bei achromatischen Graufarben kann dies problemlos geschehen, da diese Luma-Codes die verschiedenen normierten Luminanzen eindeutig repräsentieren).
-
Anschließend wird diese normierte Luminanz L durch den Perzeptualisierer
111 physchovisuell wahrnehmungsmäßig vereinheitlicht, so dass sich als Ausgang wahrnehmungsmäßig einheitliche Luminanzen PY ergeben. Dies geschieht durch folgende Gleichungen:
-
Wir sehen bei dieser Wahrnehmung eine Abhängigkeit von dem größten in dem HDR-Eingangsbild codierbaren Wert, d. h. die größte (absolute) Pixelluminanz, die in dem Bild auftreten kann (d. h. angezeigt werden soll), PB_C_HDR, die in der Regel auch als Teil der Metadaten (MET) kommuniziert werden kann. Damit ergibt sich zwar bereits eine ganz vernünftige Verteilung von Bildpixellumas und letztendlich, wenn angezeigt, Luminanzen von einer bestimmten Eingangsspitzenhelligkeit bis zu einer Ausgangsspitzenhelligkeit, um jedoch qualitativ besser abgestufte Bilder zu erhalten, kann der Inhaltserzeuger (die codierende Seite) weiterhin Luminanzen in weiteren konfigurierbaren Schaltungen (nämlich 112 und 113) neu abbilden.
-
Anschließend wendet ein grober Dynamikkonverter 112 eine grob gesagt gute Dynamikbereichsreduktionsfunktion an, deren Form symbolisch als Quadratwurzel dargestellt ist (eine tatsächliche Funktion, die von dem Anmelder als nützlich empfunden wurde, die aus zwei linearen Segmenten besteht, deren Steigung durch Metadaten konfigurierbar ist mit einem parabolischen Segment dazwischen, und der interessierte Leser kann diese Details im SLHDR ETSI-Standard finden, da sie für die vorliegende Erläuterung irrelevant sind), und diese Funktion berechnet entsprechende grobe Lumas CY aus der Eingabe wahrnehmungsmäßig einheitlichen Luminanzen PY eines aktuell verarbeiteten Satzes von Pixeln entlang eines Bildscans. Die Idee ist, und dies wird bereits für viele Situationen ausreichen, dass man die dunkleren Pixel des HDR im Vergleich zu den helleren relativ heller macht, so dass die Gesamtheit in einen kleineren Dynamikbereich passt.
-
Anschließend wendet der anpassbare Konverter 113 eine weitere auswählbare (z. B. bestimmt unter der Steuerung eines Farbabstufers oder Schattierers, der ein ROHES erfasstes Video oder einen ROHEN erfassten Film auf der Inhaltserzeugungsseite codiert, der dann seine ausgewählte Funktion, die am geeignetsten für die Neueinstufung dieses bestimmten Bildes oder den Durchlauf aufeinanderfolgender Bilder aus dem Video ist, als Metadaten kommuniziert) Luminanzabbildungsfunktion auf die zuvor erhaltenen groben Luminanzen CY kommuniziert an, um wahrnehmungsbezogene Ausgangsluminanzen PO zu erhalten. Die Form dieser Abbildungsfunktion kann nach Belieben bestimmt werden (z. B. kann man den Kontrast in einer Teilmenge von Luminanzen, die einem wichtigen Objekt oder einer wichtigen Region in dem Bild entsprechen, erhöhen, indem man diesen Teil der Funktion über den Trend für den Rest der Funktion erhöht).
-
Wir möchten - wie gezeichnet - diese Funktion als S-förmige Funktion annehmen (nicht einschränkend), d. h. mit einer relativ schwachen Steigung im oberen und unteren Eingangsluminanz-Teilbereich und einer steilen Steigung in der Mitte. Die Erfindung ist nicht auf S-Form-Funktionen beschränkt, die durch den anpassbaren Wandler 113 angewendet werden, und ist insbesondere für jedes Szenario nützlich, bei dem ein sich änderndes Steigungsverhalten, insbesondere in einem untersten Teilbereich der Eingangslumas auftritt (z. B. beginnend bei 0,0 Eingangswert und endend bei irgendeinem Wert 0,x, in der Regel unter 0,5), z. B. dem Typ, der eine relativ geringe Steigung oder durchschnittliche Steigung für die dunkelsten Pixel aufweist, verglichen mit einer Steigung für die helleren Pixel des niedrigsten Teilbereichs der Eingangslumas. Man kann die vom Ausgangspunkt (0,0, 0,0) formulierte Steigung berücksichtigen.
-
Schließlich werden die wahmehmungsbezogenen Ausgangslumas PO (d. h. deren Luminanz vollständig neu erfasst worden ist, wie es der aktuelle Bildinhalt benötigen würde, d. h. das beste neu erfasste Bild, das dem Eingangs-Master-HDR-Bild entspricht (z. B. ausgegeben als Ausgangs-SDR-Bild mit einer PB_C=100 nit), wobei es z. B. die Helligkeiten und den Kontrast so nah wie möglich aussehen lässt, wie der visuelle Eindruck, den sie in dem HDR-Masterbild haben, soweit es der reduzierte Dynamikbereich zulässt, oder zumindest ein gut aussehendes oder gut beobachtbares Bild ergibt, usw.) wieder in normierte AusgangsLuminanzen L_out linearisiert durch den Linearisierer 114, der die inversen Gleichungen der Gl. 3 verwendet, jedoch jetzt mit einem PB_C _OUT-Wert. Wir werden zu Erläuterungszwecken annehmen, dass der Decodierer das Eingangs-HDR-Bild in ein SDR-Bild herunterstuft, d. h. PB_C _OUT=100 nit (wie durch Standardisierung vereinbart), er kann aber auch auf ein z. B. 650 nit HDR-Ausgangsbild herunterstuft werden usw. (dann haben die Funktionen eine etwas unterschiedliche Form, aber auch dieses Anzeigeanpassungsdetail ist für das Verständnis der neuen technischen Prinzipien der vorliegenden Anmeldung nicht nützlich und findet sich in besagtem ETSI-Standard).
-
Die untere Spur betrifft die chromatische Verarbeitung, oder in anderen Worten, den Abschluss der 3D-Farbverarbeitung, die zur Luminanzverarbeitung gehört (da tatsächlich jede Luminanzverarbeitung an Farbbildern tatsächlich eine 3D-Farbverarbeitung ist, egal ob man die Chrominanzanteile sorgfältig behandelt oder nicht). Hier wird es technisch interessanter als das Dynamikbereichswechselverhalten für achromatische Farben auf der Grauachse.
-
Wenn das Luma in der Regel die Helligkeit einer Farbe quantifiziert, quantifizieren Cr und Cb ihren Farbton (das Verhältnis von Cb/Cr) und seine Sättigung (die Größe von Cb und Cr). Formal sind Cb und Cr Chrominanzen.
-
Dazu weist unsere Codec-Verarbeitungsschaltung eine Farbnachschlagetabelle 102 auf, die eine Funktion von Y_PQ spezifiziert, die eine Form aufweist, wie sie durch Metadaten ausgewählt und wieder konfigurierbar ist. So wird die Verarbeitung der Chrominanzen dadurch definiert, dass beide Chrominanzen mit einer gleichen Konstante B multipliziert werden, und diese Konstante abhängig von den Lumas Y_PQ eines beliebigen verarbeiteten Pixels ist, und die Form dieser Funktion, d. h. jeder jeweilige Wert von B(Y PQ) für einen beliebigen möglichen Y PQ, auch konfigurierbar ist.
-
Der Hauptzweck dieser LUT wäre, zumindest die zu hohe oder zu niedrige Menge der Cb- und Cr-Komponenten für ein verändertes (dynamikbereichsangepasstes) normiertes Luma Y zu korrigieren, da sich in dieser Farbraumdarstellung YCbCr tatsächlich das Cb und Cr mit dem Luma mitentwickeln (die Sättigung der Farbe bezieht sich zwar auf Cb/Y und Cr/Y), aber andere kolometrische Gesichtspunkte des Bildes könnten damit verändert werden, z.B. könnte man die Sättigung des hellen blauen Himmels einstellen. In jedem Fall ergibt die Farbnachschlagetabelle 102, wenn eine Farb-LUT CL (Y PQ) zur Dynamikbereichsverarbeitung mindestens des vorliegenden Videobildes geladen wird, einen Multiplikator B für den Y_PQ-Wert jedes laufenden/gerade farbverarbeiteten Pixels. Die Eingangschrominanzkomponenten Cb_ PQ und Cr_ PQ des Pixels werden durch den Multiplizierer 121 mit diesem Wert B multipliziert, um die korrigierten Chrominanzkomponenten CbCr_COR zu erhalten. Anschließend wird vom Matrixer 122, dessen Details dem ETSI-Standard zu entnehmen sind, eine Matrixierungsoperation angewendet, um normierte R'G'B'_ Normkomponenten zu erhalten. Diese Komponenten sind nicht im regulären Sinne normiert, so dass sie innerhalb des nichtlinearen Farbwürfels zwischen 0,0 und 1,0 liegen, sondern in dem Sinne, dass sie dynamisch bereichslos sind (alle zusammen geclustert, nur „Chromatizitäten“, als Trio anstelle des üblichen Duos, d. h. noch nicht mit Luminanz oder Luma). Um eine tatsächlich richtige 3D-Farbe zu erhalten, müssen sie mit einem Luma multipliziert werden, und zwar genau demjenigen Luma, das wir in der oberen Luma-Verarbeitungsteilschaltung optimal bestimmt haben. Dazu muss die normierte Ausgangsluminanz L_out durch eine PQ OETF abgebildet werden, den die PQ OETF-Schaltung 115 durchführt. Multiplizierer 123 führt diese korrekte multiplikative Skalierung der drei normierten R'G'B _Normkomponenten durch, die von der chromatischen Teilschaltung ausgegeben werden.
-
Schließlich können die wahrnehmungsmäßig Quantizer-definierten roten, grünen und blauen Farbkomponenten R''G''B''_PQ z.B. direkt an eine HDR-Anzeige gesendet werden, die zum Verständnis einer solchen Eingabe konstruiert wurde, und sie kann diese Eingabe direkt anzeigen (z. B. das 650 nit PB_C Ausgangsbild kann durch unsere Technologie optimiert worden sein, um eine tatsächliche 650 nit ANZEIGE-Spitzenhelligkeit PB_D-Anzeige anzusteuern, so dass diese Anzeige nicht von selbst herausfinden muss, wie Unterschiede zwischen dem in den gelieferten Bildern codierten Luminanzbereich und seinen Anzeigefähigkeiten gehandhabt werden). Es ist zu beachten, dass wir hier ein grundlegendes technisches Kernelementverhalten erläutern, um die vorliegende technische Neuerung zu erläutern. Im eigentlichen SLHDR-Decodierer, wie durch ETSI standardisiert, befindet sich auch eine Schwarzbegrenzerschaltungsuntereinheit, die jedoch für den vorliegenden Ansatz nicht wesentlich ist, ergo zu ihrer Erläuterung nicht wesentlich ist (der Schwarzbegrenzer kann in verschiedenen Ausführungsformen vorhanden sein oder nicht, ergo würde eine Diskussion in der Einführung mehr zur Verbreitung der Nachricht beitragen als zu wesentlichen Lehren, für den interessierten Leser zeigen wir jedoch diese Variante in 5). Es ist zu beachten, dass die grobe Dynamikbereichsumwandlung des groben Dynamikbereichsumwandlers 112 in einigen Ausführungsformen optional sein kann: man kann seine Formsteuerparameter so einstellen, dass er eine Identitätstransformation durchführt, und nur die anpassbare Abbildung des anpassbaren Wandlers 113 anwenden. Es kann weitere Modifikationen geben, wie z. B. die Ausgabe für eine angeschlossene Anzeige, oder die Speicherung des Bildes muss nicht notwendigerweise in PQ YCbCr erfolgen, aber diese Komplexität weicht auch vom Kern unserer erläuternden Lehren ab.
-
Diese kolorimetrische Optimierung der verschiedenen Bilder ist, obwohl leicht aufwendig, weil unsere verschiedenen Einheiten über die Jahre so ausgelegt wurden, dass sie für alle Situationen und Anwendungen den besten Ansatz ergaben (z. B. off-line abgestufte Filminhalte gegenüber Senden in Echtzeit usw.), aufgrund der verschiedenen technischen Überlegungen und Einschränkungen ist sie nun verständlich und funktioniert auch bei den meisten der vielen unterschiedlichen Eingangsbildsituationen recht gut.
-
Es gibt jedoch einige etwas exotische Situationen, für welche die Farbdecodierung noch verbessert werden kann, wie mittels 2 erläutert. Dieses Problem wird mit den neuen technischen Elementen, wie gelehrt, gehandhabt.
-
2a zeigt einen idealen YCbCr -Farbraum, den man bilden könnte, wenn man anstelle des Lumas Y als vertikale Achse die normierte Luminanz L verwendet. Dieser Farbraum ist im folgenden Sinne ideal. Eine blaue Farbe eines bestimmten Farbtons liegt in einem dreieckigen Vertikalschnitt durch diese Rautenform. Gesättigtere Farben haben einen größeren Winkel zur Vertikalen, ergo ist Farbe 201 ein Blau des gleichen Farbtons, aber ein weniger gesättigtes Hellblau, und Farbe 202 ist ein gesättigteres Blau. Beide Farben können die gleiche Luminanz aufweisen, und dies kann leicht von der Luminanzskala der vertikalen Achse in der Mitte abgelesen werden (z. B. Luminanzpegel L1 gegenüber L2). Wir können verifizieren, dass beide verschiedenfarbigen Pixel dieselbe Luminanz aufweisen, da die Luminanz der (Pixel-) Farbe 201 und der (Pixel-) Farbe 202 dieselbe ist, nämlich L1.
-
Im Gegensatz zu kolorimetrisch eindeutigen Luminanzen wurden Lumas jedoch nie als perfekte (leicht zu bedienende, einheitliche usw.) Farbdarstellung für das menschliche Sehen konzipiert, sondern als ein System, das eine Codierung eines Tripletts von Farben in z. B. 3x 8 Bit oder heute für HDR in der Regel 3 x 10 Bit leicht ermöglicht, (der Leser wird benachrichtigt, dass dieses 3 x 10 Bit HDR nicht nur ein wenig heller als SDR codieren kann, sondern bis zu 100 x heller und zusätzlich auch viel dunkler!). So wurden Lumas und insbesondere YCbCr-Farbdarstellungen primär für eine (umkehrbare) Codierung ausgelegt, nicht für eine Farbverarbeitung.
-
Diese Codierung ist prinzipiell leicht mathematisch umkehrbar, so dass man immer - wie es ein Codiersystem als Haupteigenschaften aufweisen soll - aus den empfangenen YCbCr-Pixelfarbcodierungen die ursprünglich beabsichtigten (linearen) RGB-Komponenten wieder ableiten und dann darstellen kann. Und man kann auch die Luminanz ableiten.
-
Wenn man jedoch beginnt, eine (benötigte) fortgeschrittenere Decodierung für die vorliegenden Videos der HDR-Ära durchzuführen, können einige unangenehme Probleme auftreten. Wie in 2b für chromatische Farben gezeigt (d. h. diejenigen, die nicht rein Grau sind, deren reines Grau auf die vertikale Achse fällt, mit Cb=Cr=0 Komponentenwerten), codiert nämlich das Luma Y die Pixelluminanz nicht mehr korrekt oder einzigartig (d. h. die Luminanz, die sich unmittelbar aus der Anwendung von Gl. 1 auf die ursprünglichen linearen RGB-Komponenten ergibt), d. h. sie kann nicht durch Berechnung von L=EOTF(Y) in die Luminanz umgerechnet werden. Tatsächlich wird für jeden gewählten festen Luminanzwert L einer Farbe das entsprechende Luma Y umso niedriger, je höher die Sättigung S der Farbe ist. Tatsächlich ist eine typische Situation, wie in 2d veranschaulicht, dass, wenn wir ein Objekt - vielleicht eine Purpurblume- mit mehr oder weniger der gleichen gleichmäßigen Beleuchtung und somit mehr oder weniger der gleichen Luminanz für alle Pixel der Blüte, aber unterschiedlichen Sättigungen für die Pixel haben, das enge, fast einwertige Histogramm der Pixelluminanzen 205, wenn es auf der normierten horizontalen Achse von Lumas abgebildet wird (entsprechend den Vertikalachsenzählungen N (L _in)), ein entsprechendes Luma-Histogramm 206 (Zählungen N(PY)) erhält, das nicht nur auf einem niedrigeren normierten (Eingangs-) Wert positioniert ist, sondern auch mehr gestreut ist. Wir können die normierten (oder absoluten) Luminanzen auf eine Position auf der Luma-Achse abbilden, die durch eine gegebene OETF definiert ist, da wir wissen, dass für achromatische Pixel das Luma Y eindeutig der normierten Luminanz entspricht (durch Neuabbilden mit der OETF-Form: Y=„L_in“= OETF (Pixelluminanz)).
-
Dies führt zu mehreren Problemen. Erstens wissen wir nicht genau, welche Luminanz wir nur vom Betrachten des Luma-Wertes Y haben, d. h. durch Anwenden des EOTF auf Y, und dies könnte bereits Probleme in den Frameworks ergeben, welche die 3D-Kolorimetrie nicht in einer natürlichen 3D-Weise handhaben, sondern aus pragmatischen Gründen in einer 1D+2D-Weise, wie der Decodierer von 1. Zwar kann man theoretisch alles richtig machen, wenn man die korrigierende Abhängigkeit der bestimmten Werte für das Pixel von Cb und Cr einbringt, was aber in manchen vorentworfenen Farbverarbeitungstopologien möglicherweise nicht möglich ist. Weiterhin ist ersichtlich, dass wir die Luminanz- oder Helligkeitsumstufungsfunktionen tatsächlich auf die (wahrnehmungsmäßig einheitlichen) Lumas anwenden, da bereits das Eingangsbild durch Pixellumas codiert ist, nicht aber durch Luminanzen. Es kann sich also zumindest theoretisch um etwas Falsches handeln.
-
Trotzdem ist dies in der Regel kein (reales) Problem, das pragmatisch auf die Technik gesehen nicht als angemessenes Bedenken in ausreichender Fehlergröße anzusehen ist, wie es in den letzten Jahren mit verschiedensten Bildinhalten getestet wurde. So könnte man argumentieren, dass meistens alles gut geht, indem man einfach die Verarbeitung von 1 durchführt, und wenn gelegentlich das Ausgangsbild nicht perfekt ist, dann wird man sich mit diesem Problem beschäftigen.
-
Aber in einem ganz bestimmten Zusammenhang von Umständen sieht man jedoch Bildartefakte, die signifikant groß sind, um eine Verbesserungslösung zu garantieren, die im Folgenden vorgestellt werden Dies kann geschehen, wenn man einerseits sehr gesättigte Farben hat (z.B. in Rec. 2020 man kann hochgesättigte Farben erstellen; normalerweise würde dies nicht passieren, da diese Farben im realen Leben kaum vorkommen, da die meisten normalen Bildfarben auf einer solchen gesättigten Basis von Farbprimärfarben entsättigtere CbCr -Werte aufweisen, zumindest theoretisch ist dies aber möglich), und man sich andererseits entschließt, nicht nur die glatte grobe Luminanz-Abbildungsfunktion des groben Dynamikbereichswandlers 112 anzuwenden, sondern auch eine etwas fortgeschrittenere Funktion, die unangenehme Biegungen darin aufweist, wie z. B. anschließend in dem anpassbaren Wandler 113 auch eine S-Kurve, die niedrige Werte für die Ausgangs-PO-Werte aufweist, die niedrigen Eingangslumas CY entsprechen (die im Vergleich zu ihren Luminanzen, wie in 2D gezeigt, fälschlicherweise zu niedrig wären, und ferner für verschiedene Punkte auf den Objekten potentiell unterschiedlich). D. h. insbesondere Änderungen der Ausgangsfarbe, und insbesondere die Luminanz, entlang des Objekts aufgrund dieser Gesamtverarbeitung sind als problematisch anzusehen. Das Patentierungssystem erlaubt es leider nicht, tatsächliche Farbbilder in eine Patentanmeldungsspezifikation aufzunehmen, aber 2c symbolisiert, was man z. B. in einer gesättigten Purpurblume sehen würde: es können dunkle Flecken 203 an bestimmten Stellen in der Blüte oder übermäßige Sichtbarkeit der Mikrostruktur 204 vorhanden sein, die normalerweise in der Blüte nicht sichtbar wären; nicht im Eingabebild und nicht in der realen Welt. Eine gut aussehende Blume würde einigermaßen glatt aussehen, oder zumindest mit sich allmählich ändernder Luminanz, und nicht mit solchen scharfen und ausgeprägten Änderungen, die darauf zurückzuführen sind, dass einige der Farben, die farblich verarbeitet werden sollen, zu unterschiedlichen PY-Werten springen, die sich über einen Punkt erstrecken, an dem sich eine solche Gesamtluminanzneueinstufung ausreichend signifikant ändert.
-
In 2d werden die Unterschiede zwischen normiertem (chromatizitätsabhängigem) Luma (PY) von Pixeln, wie sie empfangen würden, und normierter Luminanz (oder genauer Luminanz-Luma, d. h. das Luma, das man auf der achromatischen Achse bekommen würde, d. h. die korrekte Luminanz eines Pixels von Luma PY), L_in, dort durch ihr jeweiliges Luma-Histogramm 206 und das Luminanz-Histogramm 205 dargestellt (wobei N die Zählerstände für jeden Wert angibt). Für einen einzelnen Pixel ergäbe sich zwar eine Luma PY und eine entsprechende korrekte Luminanz L_in, aber wir zeigen die Streuung für eine Anzahl von Pixeln eines Objekts bestimmter mittlerer Luminanz und Sättigung, wie z.B. der Blume. Wir sehen, dass es nur wenige Luminanzwerte geben kann, wenn z. B. eine gesättigte Purpurblume gleichmäßig beleuchtet wird, da es aber unterschiedliche Farbsättigungen in den Blütenpixeln geben kann, kann das Luma-Histogramm stärker gestreut werden. Jedenfalls sind sie „fälsch“- in Bezug auf eindimensionale Vertreter von Lumineszenzen. Wie nachstehend gezeigt wird, kann dies zu Verarbeitungsfehlern in unserem SLHDR-Decodieransatz führen, der gegenkorrigiert werden muss und insbesondere so gegenkorrigiert werden muss, wie gelehrt und beansprucht.
-
Man könnte theoretisch daran denken, nur ein besseres, anderes 3D-basiertes Decodierungssystem aufzubauen, das die Probleme leicht lösen könnte, aber in tatsächlichen technisch begrenzten, bereits eingesetzten Videoökosystemen (mit separater Luminanzverarbeitung und chromatischer Verarbeitung) geschieht dies in der Praxis nicht so einfach. In jedem Fall gibt es bei einem solchen Codierer und entsprechenden Decodierer, um ihn auch für die letzten geringfügigen Unannehmlichkeiten, insbesondere eine gewisse falsche Luminanz bei gesättigten Chromatizitätsobjekten, zu verbessern, nicht so viele Dinge, die geändert werden können, ergo kann der Versuch nach einer pragmatischen Lösung einiges Nachdenken und Experimentieren beinhalten.
-
Es wurden folgende Dokumente des Standes der Technik gefunden, auf deren tangentiale, unzureichende Bedeutung kurz eingegangen wird.
-
Einige Hintergrundlehren, die für die vorliegende Anmelderin von Interesse sind, sind die folgenden.
-
EP3496028 lehrt eine weitere Verbesserung der grundlegenden Luma-Verarbeitung und der parallelen Chrominanzverarbeitungscodierungs- oder -decodierungspixelpipeline des Anmelders, nämlich, dass unter bestimmten Luma-Abbildungen einige Ausgangsfarben, oder insbesondere deren Lumas, über die Obergrenze der codierbaren Farbskalas fallen können. Daher ist eine Strategie erforderlich, um sie innerhalb der Farbskala zu halten, was vorzugsweise die dunkleren Farben nicht zu sehr beeinflusst. Dazu wird eine besondere Abbildung des Lumas nach innen auf die höchsten Bereiche innerhalb der 3D-Farbskala gelehrt. Ein Teil des Luma-Herunterstufens kann für eine Sättigungsreduktion ausgetauscht werden, so dass man übermäßiges Herunterstufen benötigt, man kann aber auch für einen bestimmten Prozentsatz des benötigten Luma-Downmap zur Achse von Neutralgrau abbilden, wodurch die hellsten Farben etwas entsättigt werden. In jedem Fall geschieht dies nicht mittels einer G PQ-Berechnung wie in der vorliegenden Erfindung, und auch bei unterschiedlichen Farbproblemen in einem anderen Bereich des Farbumfangs.
-
Wo2017/157977 befasst sich mit einer besonderen Luma-Verarbeitung für die dunkelsten Lumas in einem Bild. Beispielsweise möchte ein Videoinhalterzeuger die Farben des Sekundärbildes, das aus dem primären HDR-Masterbild bestimmbar sind, für einige dunkle Pixel übermäßig tief machen, was die Qualität der inversen Luma-Abbildung für die Decodierung beeinflussen kann. Dazu wird eine parallele Strategie von zwei alternativen Luma-Abbildungen gelehrt, bei der eine zweite, sicherere Luma-Abbildung für problematische Soll-Luma-Abbildungskurven des Inhaltserzeugers beginnen kann zu wirken. Um nicht nur die Standardmittel einer Chrominanzabbildung zu erwähnen, befasst sich diese Erfindung nicht, wie in der vorliegenden Anmeldung, mit speziellen Einzelheiten der Chrominanzabbildung.
-
US2018/0005356 ist etwa über eine besondere ganz gute Luma-Abbildung mittels einer konfigurierbaren linearen Steigung für den dunkelsten und hellsten Teilbereich von HDR-Pixellumas mit einer parabolischen glatten Abbildung dazwischen. Diese Luma-Abbildung kann in der Luma-Verarbeitungsspur unseres Ansatzes angewendet werden oder nicht, ist aber keine Lehre über die Chrominanzverarbeitung mit einer Farb-LUT.
-
KURZDARSTELLUNG DER ERFINDUNG
-
Die verbleibenden Probleme mit dem SLHDR-System für selten auftretende Bildpixelfarben können durch eine Videocodierschaltung mit hohem Dynamikumfang (300) abgeschwächt werden,
die konfiguriert ist, um ein Bild mit hohem Dynamikumfang (IM HDR) einer ersten maximalen Pixelluminanz (PB_C1) zusammen mit einem zweiten Bild (Im _LWRDR) mit niedrigerem Dynamikumfang und entsprechender niedrigerer zweiter maximaler Pixelluminanz (PB C2) zu codieren,
wobei das zweite Bild funktionell als eine Luma-Abbildungsfunktion (400) für Decodierer codiert ist, die auf Pixellumas (Y PQ) des Bildes mit hohem Dynamikumfang anzuwenden sind, um entsprechende Pixellumas (PO) des zweiten Bildes zu erhalten,
wobei der Codierer einen Datenformatierer (304) umfasst, der konfiguriert ist, um an ein Videokommunikationsmedium (399) das Bild mit hohem Dynamikumfang und Metadaten (MET) auszugeben, welche die Luma-Abbildungsfunktion (400) codieren,
wobei die funktionale Codierung des zweiten Bildes auch auf einer Farbnachschlagetabelle (CL(Y PQ)) basiert, die eine Multiplikatorkonstante (B) für alle möglichen Werte der Pixellumas des Bildes mit hohem Dynamikumfang codiert, deren Multiplikatorkonstanten zur Multiplikation mit Chrominanzen (Cb, Cr) der Pixel vorgesehen sind, und wobei der Formatierer konfiguriert ist, diese Farbnachschlagetabelle in den Metadaten auszugeben,
dadurch gekennzeichnet, dass die Videocodierschaltung mit hohem Dynamikumfang Folgendes umfasst:
- - eine Verstärkungsbestimmungsschaltung (302), die Pixel des Bildes mit hohem Dynamikumfang (IM HDR) empfängt, wobei jedes Pixel ein Luma und zwei Chrominanzen aufweist, die konfiguriert sind, für jedes Pixel einen Luma-Verstärkungswert (G PQ) zu bestimmen, der ein Verhältnis eines ersten Ausgangslumas für ein Luma einer normierten Luminanz des Lumas jedes Pixels quantifiziert, dividiert durch ein zweites Ausgangsluma für das Luma des Pixels, wobei das erste Ausgangsluma durch Anwenden der Luma-Abbildungsfunktion auf die normierte Luminanz erhalten wird und das zweite Ausgangsluma durch Anwenden der Luma-Abbildungsfunktion auf das Luma des Pixels erhalten wird;
wobei die Videocodierschaltung mit hohem Dynamikumfang eine Farbnachschlagetabellenbestimmungsschaltung (303) umfasst, die konfiguriert ist, um die Farbnachschlagetabelle (CL (Y_ PQ) basierend auf Werten des Luma-Verstärkungswerts für verschiedene Lumas von Pixeln, die in dem Bild mit hohem Dynamikumfang vorhanden sind, zu bestimmen, wobei die Werte der Multiplikatorkonstanten (B) für Lumas aus zumindest
einer Teilmenge der möglichen Werte der Lumas (Y PQ) mit dem Wert der ermittelten Lumaverstärkung (G_PQ) für diese Lumas korrelieren.
-
Zur Verdeutlichung übermittelt diese Codierschaltung nicht nur ein HDR-Bild, sondern zumindest ein entsprechendes sekundäres abgestuftes Bild, in der Regel mit niedrigerem Dynamikumfang, und üblicherweise ein Dynamikumfang-Standardbild mit PB_C_SDR = 100 nit. Dadurch wird sichergestellt, dass Empfänger beim Empfang eines HDR-Bildes hoher Qualität (IM HDR) mit einer Spitzenluminanz PB_C weit über der Spitzenluminanzfähigkeit der Anzeige (PB_D) auf der Empfangsseite nicht abschätzen müssen, was sie luminanzabbildungsmäßig tun müssen. Tatsächlich kann mit der Luma-Abbildungsfunktion der Inhaltserzeuger, z. B. sein Farbabstufer, spezifisch gemäß seinen Wünschen bestimmen, wie der Empfänger alle Luminanzen in dem eingegebenen HDR-Bild auf die entsprechenden SDR-Luminanzen abbilden soll (z. B. ein schattiger Bereich in einer dunklen Höhle sollte auch im SDR-Bild ausreichend hell gehalten werden, damit der Mensch mit dem dort verborgenen Messer noch ausreichend sichtbar ist, nicht zu auffällig, aber auch nicht kaum sichtbar usw.). Durch Übermittlung von mindestens einer Luma-Abbildungsfunktion (400) für jedes Bild - oder einer Anzahl von zeitlich aufeinanderfolgenden Bildern - versteht der Leser, dass man mit dieser Funktion ein entsprechendes Ausgangsluma (oder eine Luminanz nach Linearisierung von irgendeinem Luma-Codiersystem, in dem die Luma-Abbildung durch ein entsprechendes EOTF spezifiziert wurde) zu jedem Eingangspixelluma berechnen kann. D. h. z. B., dass die Eingangspixel von einem 2000 nit PB_C abgestuften und codierten Bild (wobei das Codieren in der Regel mindestens eine Abbildung auf YCbCr beinhaltet), und die Ausgangspixel SDR-Bildpixel sind (es ist zu beachten, dass es in der Regel Metadaten gibt, die spezifizieren, auf welche Art von Bild sich die Funktion bezieht, welche gemäß SLHDR in der Regel mindestens die PB_C_HDR des HDR-Bildes, d. h. die z. B. 2000 nit, sein wird). Tatsächlich wird die Empfangsseite durch Übermittlung dieser zwei Referenzabstufungen auch in der Lage sein, Bilder mit einem PB_C zwischen den 100 nit und PB_C_HDR durch einen Prozess herzustellen, der Anzeigeanpassung oder Anzeigeabstimmung genannt wird, was das Spezifizieren einer anderen Luma-Abbildungsfunktion aus der Luma-Abbildungsfunktion, wie sie vom Inhaltserzeuger empfangen wird, beinhaltet (siehe ETSI-Standard), aber diese Details sind für die vorliegende Diskussion nicht sehr relevant, da die nachstehend erläuterten Prinzipien „mutatis mutandis“ arbeiten werden. D. h. die Metadaten sind die einzigen Informationen, die erforderlich sind, um das sekundäre Bild mit unterschiedlichem Dynamikumfang (in der Regel SDR) funktional gemeinsam zu codieren, da Empfänger ihre Pixelfarben berechnen können, indem sie die in den Metadaten gemeinsam übermittelten Funktionen auf die Pixelfarben des tatsächlich empfangenen YCbCr Pixelfarbmatrixbildes, IM_HDR, anwenden.
-
Der Erfinder hat erkannt, dass als ein erster Schritt ein Luma-Verstärkungswert (G _PQ) in der PQ-Domäne berechnet werden kann, der quantifiziert, wie weit der Luma-Wert für die spezifische Chromatizität heruntergegangen ist im Vergleich zu dem Wert auf der achromatischen Achse (d. h. wo die Luminanz der vorliegenden Farbe durch Anwenden des PQ EOTF auf diesen achromatischen Luma-Wert eindeutig bestimmt werden kann), da die chromatische Farbe dieselbe Luminanz und ein Luminanz-Luma aufweisen soll, wie es auf der achromatischen Achse lesbar ist, wie eine solche entsprechende graue Farbe, bei der die Chromas auf Null gesetzt sind, siehe 2b.
-
Der Erfinder hat ferner experimentell festgestellt, dass durch Anwendung desselben Luma-Verstärkungswertes auf die Chromas des Pixels ganz befriedigende Ergebnisse erzielt werden können. Dies kann einen gewissen Sättigungsfehler für die Farbe ergeben, der jedoch viel weniger auffällig als die ursprünglichen Luminanzfehler ist und in der Praxis für die Bilder mit solch hohen Farbsättigungsobjektproblemen akzeptabel ist.
-
Korrelation bedeutet, dass, wenn man einen Streuwert des Luma-Verstärkungswerts (G_PQ) für einen beliebigen Wert der möglichen Werte von Y PQ sieht (die in der Regel normiert sind, d. h. zwischen 0 und 1 fallen, mit einigen präzisen Schritten, wobei sie der Anzahl von Farb-LUT-Einträgen oder einer Anzahl von Luma-Einträgen entsprechen), wird der Wert von B für diese Position in der FARB-LUT etwa derselbe sein wie dort, wo die G PQ-Werte liegen. Verschiedene Algorithmen können bestimmen, wie grob die Form der Farb-LUT, d. h. die Funktion der variablen Werte von B als Funktion von Y_PQ (B[Y PQ]), räumlich mit der gestreuten Wolke von G PQ-Werten zusammenfallen wird. Einerseits kann man z. B. zum Streudiagramm nur eine (geometrische) Teilmenge der Pixel des Bildes und ihre entsprechenden Y_PQ- und G PQ-Werte beitragen (z. B. kann es einen Detektor dafür geben, wo insbesondere in dem Bild signifikante Artefakte des Typs, wie bei 2C erläutert, auftreten, und nur diese Pixel können dazu beitragen und die anderen können verworfen werden, oder auf der Codiererseite kann die Auswahl von beitragenden Pixeln auch durch den menschlichen Inhaltserzeuger bestimmt werden). Andererseits ist es nicht erforderlich, dass man so die gesamte Farb-LUT-Form bestimmt, z.B. kann man sie nur für eine Teilmenge von Lumas bestimmen, welche die untere Hälfte [0, 0,5] darstellen, oder wo ein signifikanter Betrag an Streuung auftritt, und die andere Hälfte kann durch andere Algorithmen bestimmt werden, z.B. fest sein. Die Teilmenge von Lumas, die geändert wird, kann sich auf die geometrische Teilmenge von beitragenden Pixeln beziehen, falls nicht alle Pixel verwendet werden. Decoderseitig kann, da die Bestimmung der Farb-LUT einer Abweichung der ursprünglich mitübermittelten Farb-LUT entsprechen kann, die Korrelation auch diese ursprüngliche Farb-LUT berücksichtigen, d. h. die endgültig bestimmte LUT, die auf alle Eingangs-HDR-Bildpixel angewendet werden soll, um das Ausgangsbild zu erhalten, kann z. B. von einer durchschnittlichen Position in der Wolke von (Y, PQ, G PQ) Punkten abweichen. Die Bestimmung kann sich auch auf einige Teilmengen von Chrominanzen beschränken, wobei man eine andere gut arbeitende korrigierte Farb-LUT erhält.
-
Chrominanzen werden manchmal auch als Chromas bezeichnet. Die (korrekte) Luminanz, die einem beliebigen Luma entspricht, kann nicht nur berechnet werden, sondern auch auf dem Lumabereich positioniert werden, da beide auf 1,0 normiert sind.
-
Im Falle eines Codierers wird in der Regel eine gut arbeitende Farb-LUT an empfangsseitige Decodierer übermittelt, um sie einfach anzuwenden. Der Inhaltserzeuger kann z. B. für eine oder mehrere Anzeigen auf seiner Seite überprüfen, ob die Korrektur ausreichend funktioniert.
-
Eine nützliche Ausführungsform der Videocodierschaltung mit hohem Dynamikumfang (300) lässt die Farbnachschlagetabellenbestimmungsschaltung (303) die Werte der Farbnachschlagetabelle basierend auf einer am besten geeigneten Funktion bestimmen, die eine Streudarstellung von Werten des Luma-Verstärkungswerts (G_PQ) gegenüber entsprechenden Werten des Bildpixellumas mit hohem Dynamikumfang (Y _PQ) zusammenfasst. Ebenso können mehrere Fittings gleichmäßig angewendet werden, z. B. wird eine Funktion, die etwa durch die Mitte der Punktwolke von (Y PQ, G PQ) Punkten geht, zufriedenstellend sein. Man kann andere Funktionen nach den gleichen innovativen Prinzipien entwerfen, z. B. unterschiedliche Funktionen für unterschiedliche Farbtonregionen, falls der Decodierer einen solchen Farbtonklassifizierungsmechanismus aufweist usw.
-
Vorteilhafterweise umfasst die Videocodierschaltung (300) mit hohem Dynamikumfang ferner eine Wahrnehmungssteigungsverstärkungsbestimmungsschaltung (301), die konfiguriert ist, um eine Wahrnehmungssteigungsverstärkung (SG PU) zu berechnen, die, in einem Koordinatensystem von wahrnehmungsmäßig einheitlichen Lumas von horizontalen Bildlumas (PY) mit hohem Dynamikumfang und vertikalen Ausgangsbildlumas (PO), einer prozentualen Erhöhung eines Ausgangsluma (Y_o1) entspricht, das erhalten wird, wenn die Luma-Abbildungsfunktion (400) auf ein Luma des Bildpixels (Y1) mit hohem Dynamikumfang angewendet wird, um ein korrigiertes Ausgangsluma (Y corr1) für das Bildpixel (Y1) mit hohem Dynamikumfang zu erreichen, das einer Division eines Ausgangslumas (L_o1) entspricht, das durch Anwenden der Luma-Abbildungsfunktion (400) auf ein Eingangsluma (L_e1) erhalten wird, das einer Position einer normierten Luminanz entspricht, die dem Bildpixel (Y1) mit hohem Dynamikumfang entspricht, dividiert durch das Eingangsluma (L_e1) und multipliziert mit dem Bildpixel (Y1) mit hohem Dynamikumfang. Dies ist eine Methode, um das korrigierte Verhalten der nichtlinearen Luma-Abbildungsfunktion zu linearisieren, indem den zu dunklen Luma-Farben mindestens die gleiche Steigung verliehen wird, die man hätte, indem man die Linie von dem entsprechenden korrekten Luminanzeingangs- und -ausgangspunkt zu dem (0,0)-Punkt zieht.
-
Die Korrekturprinzipien können auch in einer Videodecodierschaltung mit hohem Dynamikumfang (700) verkörpert werden,
konfiguriert zum Farbabbilden eines Bildes (IM HDR) mit hohem Dynamikumfang, das eine erste maximale Pixelluminanz (PB_C1) aufweist, auf ein zweites Bild (Im LWRDR) mit niedrigerem Dynamikumfang und entsprechender niedrigerer zweiter maximaler Pixelluminanz (PB_C2), umfassend eine Luma-Abbildungsschaltung (101), die zum Abbilden eines Lumas (Y_PQ) eines Pixels des Bildes (IM HDR) mit hohem Dynamikumfang mit einer Luma-Abbildungsfunktion (400) angeordnet ist,
und eine Farbabbildungsschaltung, die eine Nachschlagetabelle (102) umfasst, die angeordnet ist, um einen Multiplikatorwert (B) für jedes Pixelluma (Y PQ) an einen Multiplikator (121) auszugeben, der Chrominanzkomponenten (CbCr_ PQ) des Pixels des Bildes (IM_HDR) mit hohem Dynamikumfang mit dem Multiplikatorwert (B) multipliziert, dadurch gekennzeichnet, dass die Videodecodierschaltung umfasst:
- - eine Verstärkungsbestimmungsschaltung (302), die konfiguriert ist, um für jedes Pixel eines Satzes von Pixeln des Bildes mit hohem Dynamikumfang einen Luma-Verstärkungswert (G_PQ) zu bestimmen, der ein Verhältnis eines Ausgangslumas für ein Luma gleich einer normierten Luminanz für das Luma (Y_PQ) des jeweiligen Pixels dividiert durch ein Ausgangsluma für das Luma (Y_PQ) des jeweiligen Pixels quantifiziert; und
- - eine Farbnachschlagetabellenbestimmungsschaltung (303), die konfiguriert ist, um eine Farbnachschlagetabelle für die Nachschlagetabelle (102) zu bestimmen, die Multiplikatorkonstanten (B) als Ausgang für verschiedene Luma-Eingangswerte spezifiziert, wobei Werte von mindestens einer Teilmenge der Multiplikatorkonstanten (B) von mindestens einer Teilmenge der möglichen Werte der Lumas (Y_PQ) basierend auf Werten der Luma-Verstärkung (G PQ) für diese Lumas bestimmt werden.
-
Dieselben Prinzipien können in einem Decodierer angewendet werden, falls der Codierer aus irgendeinem Grund die Fehlerminderung in seiner mitübermittelten CL (Y_PQ) LUT nicht durchgeführt hat. Dazu berechnet der Decodierer aus den empfangenen YCrCb_PQ-Farben die entsprechenden Luminanzen und Luminanz-Lumas. Er kann dann ein empfangenes HDR-Bild in ein beliebiges funktionell mitcodiertes Sekundärbild mit unterschiedlichem Dynamikumfang decodieren, z. B. in das SDR 100 nit PB_C_SDR-Bild. Der Decodierer verwendet dieselben neuen technischen Elemente, um die geeignete Luma-Fehlerminderungs-CL(Y PQ)-Nachschlagetabelle in entsprechender LUT 102 der Farbverarbeitungsschaltung des SLHDR-Decodierers auszufüllen.
-
Nützlich ist auch ein Verfahren zum Codieren eines Videos mit hohem Dynamikumfang,
das konfiguriert ist, um ein Bild mit hohem Dynamikumfang (IM HDR) einer ersten maximalen Pixelluminanz (PB_C1) zusammen mit einem zweiten Bild
(Im _LWRDR) mit niedrigerem Dynamikumfang und entsprechender niedrigerer zweiter maximaler Pixelluminanz (PB_C2) zu codieren,
wobei das zweite Bild funktionell als eine Luma-Abbildungsfunktion (400) für Decodierer codiert ist, die auf Pixellumas (Y_PQ) des Bildes mit hohem Dynamikumfang anzuwenden sind, um entsprechende Pixellumas (PO) des zweiten Bildes zu erhalten,
umfassend das Ausgeben des Bildes mit hohem Dynamikumfang und der Metadaten (MET), welche die Luma-Abbildungsfunktion (400) codieren, an ein Videokommunikationsmedium (399),
wobei die funktionale Codierung des zweiten Bildes ferner auf einer Farbnachschlagetabelle (CL(Y_PQ)) basiert, die für alle möglichen Werte der Pixellumas des Bildes mit hohem Dynamikbereich eine Multiplikatorkonstante (b) zur Multiplikation mit Chrominanzen (Cb, Cr) der Pixel codiert, und wobei die Farbnachschlagetabelle ferner in den Metadaten ausgegeben wird,
dadurch gekennzeichnet, dass die Videocodierung mit hohem Dynamikumfang Folgendes umfasst:
- - Empfangen von Pixeln des Bildes mit hohem Dynamikumfang (IM HDR), wobei jedes Pixel ein Luma und zwei Chrominanzen aufweist, und Bestimmen eines Luma-Verstärkungswerts (G_PQ) für jedes Pixel, der ein Verhältnis eines ersten Ausgangslumas für ein Luma gleich einer normierten Luminanz des Lumas jedes Pixels quantifiziert, dividiert durch ein zweites Ausgangsluma für das Luma des Pixels, wobei das erste Ausgangsluma durch Anwenden der Luma-Abbildungsfunktion auf die normierte Luminanz erhalten wird und das zweite Ausgangsluma durch Anwenden der Luma-Abbildungsfunktion auf das Luma des Pixels erhalten wird;
wobei die Videocodierung mit hohem Dynamikumfang das Bestimmen einer Farbnachschlagetabelle (CL(Y_PQ)) basierend auf Werten des Luma-Verstärkungswerts für verschiedene Lumas von Pixeln, die in dem Bild mit hohem Dynamikumfang vorhanden sind, umfasst, wobei die Werte der Multiplikatorkonstanten (B) für Lumas aus zumindest einer Teilmenge der möglichen Werte der Lumas (Y_PQ) mit dem Wert der bestimmten Lumaverstärkung (G_PQ) für diese Luma korrelieren.
-
Nützlich ist auch ein Verfahren zur Videodecodierung mit hohem Dynamikumfang, um ein Bild (IM_HDR) mit hohem Dynamikumfang, das eine erste maximale Pixelluminanz (PB_C1) aufweist, auf ein zweites Bild (Im_LWRDR) mit niedrigerem Dynamikumfang und entsprechender niedrigerer zweiter maximaler Pixelluminanz (PB_C2) farblich abzubilden, umfassend ein Bilden des zweiten Bildes durch Abbilden von Lumas (Y_PQ) von Pixeln des Bildes mit hohem Dynamikumfang (IM_HDR) mit einer Luma-Abbildungsfunktion (400), um als Ausgabe der Funktion Lumas des zweiten Bildes zu erhalten,
wobei die Farbzuordnung ferner das Erhalten von Chrominanzen des zweiten Bildes durch Multiplizieren von Chrominanzkomponenten (CbCr_PQ) der Pixel des Bildes mit hohem Dynamikumfang (IM HDR) mit Multiplikatorwerten (B) umfasst,
deren Multiplikatorwerte (B) in einer Nachschlagetabelle (102) für verschiedene Werte der Lumas (Y_PQ) der Pixel des Bildes mit hohem Dynamikumfang (IM HDR) spezifiziert sind,
dadurch gekennzeichnet, dass das Videodecodieren Folgendes umfasst:
- - Bestimmen, für jedes Pixel eines Satzes von Pixeln des Bildes mit hohem Dynamikumfang, eines Luma-Verstärkungswerts (G_PQ), der ein Verhältnis eines Ausgangslumas für ein Luma gleich einer normierten Luminanz für das Luma (Y_PQ) des jeweiligen Pixels dividiert durch ein Ausgangsluma für das Luma (Y_PQ) des jeweiligen Pixels quantifiziert; und
- - Bestimmen der Farbnachschlagetabelle durch Berechnen der Werte von mindestens einer Teilmenge der Multiplikatorkonstanten (B) von mindestens einer Teilmenge der möglichen Werte der Lumas (Y_PQ) basierend auf Werten der Luma-Verstärkung (G_PQ) für diese Lumas.
-
Die vorliegenden neuen Techniken ermöglichen verbesserte neu eingestufte, d. h. besonders heruntergestufte Bilder für eine geringere Spitzenhelligkeit, falls der Videoinhalterzeuger einige problematische Luma-Abstufungen macht, während er für andere Situationen keine Probleme erzeugt. Die so berechneten G_PQ-Werte können weitgehend als zusätzliche Sättigungsverarbeitung im Farbpfad implementiert werden, indem die Werte der B-Konstanten, definiert als Y_PQ-abhängige Ausgänge der Farb-LUT, mit den aus der G_PQ-Berechnung erhaltenen Werten korreliert werden. D. h. der einzelne B-Wert pro Y_PQ folgt grob der Position der Streuung der G_PQ-Werte, durch irgendeine vorkonstruierte Metrik der Co-Position in dem Codierer oder Decodierer.
-
Figurenliste
-
Diese und andere Gesichtspunkte des Verfahrens und der Einrichtung gemäß der Erfindung werden unter Bezugnahme auf die nachstehend beschriebenen Implementierungen und Ausführungsformen und unter Bezugnahme auf die begleitenden Zeichnungen offensichtlich und erläutert, die lediglich als nicht einschränkende spezifische Veranschaulichungen dienen, die allgemeinere Konzepte veranschaulichen, und in denen gestrichelte Linien verwendet werden, um anzugeben, dass eine Komponente optional ist, wobei nicht gestrichelte Komponenten nicht notwendigerweise wesentlich sind. Gestrichelte Linien oder Punkte können auch verwendet werden, um jene Elemente anzugeben, die als wesentlich, aber im Inneren eines Objekts verborgen erklärt werden, oder um materielle Dinge, wie z. B. Auswählen von Objekten/Bereichen (und wie sie auf einer Anzeige gezeigt werden können) anzugeben.
-
In den Zeichnungen:
- 1 veranschaulicht schematisch einen HDR-Bildcodierer des Anmelders gemäß dem sogenannten Single-Layer-HDR-Bildcodierer (SLHDR), wie in ETSI TS 103 433-2 V1.1.1 standardisiert,; es ist zu beachten, dass ein Codierer in der Regel dieselbe Topologie von Bildverarbeitungsschaltungen wie der entsprechende Decodierer aufweisen kann, möglicherweise mit angepassten Abbildungsfunktionsformen (da die Decodierung in dieselbe Abstufungsrichtung verläuft, wie der Codierer solche Herabstufungsfunktionen bestimmt, die von Decodierern angewendet werden sollen; Gesichtspunkte der Form, wie die Konvexität, können für Codierung und Decodierung gleich sein, jedoch kann in Abhängigkeit davon, auf welche Ausgangsspitzenhelligkeit man die Lumas abbilden möchte, eine mitübermittelte Luma-Abbildungsfunktion von z. B. 1/7 der Energie bei der Decodierung als ein 1/4 der Energie angewendet werden).
- 2 veranschaulicht schematisch einige Probleme, die für exotische Bilder mit hochgesättigten farbigen Objekten mit den Lumas auftreten können, die in diesem SLHDR-Decodierer (oder einem entsprechenden Codierer) verwendet werden;
- 3 zeigt schematisch eine neue Art, um SLHDR-Codierung gemäß den vorliegenden innovativen Prinzipien durchzuführen, und einen entsprechenden HDR-Videocodierer 300; insbesondere zeigt sie einen Teil einer Codierertopologie ähnlich z. B. 1 zur Bestimmung der Farb-LUT zur Bestimmung der Konstanten B zur Multiplikation mit den Chrominanzen.
- 4 veranschaulicht schematisch einige Prinzipien, gemäß denen man den vorliegenden Ansatz verkörpern kann, wie er vom Erfinder in Betracht gezogen wird, und insbesondere eine interne Funktion einer Ausführungsform einer Wahrnehmungssteigungsverstärkungsbestimmungsschaltung 301 gemäß den Prinzipien der vorliegenden Erfindung;
- 5 veranschaulicht schematisch, wie eine Ausführungsform der Verstärkungsbestimmungsschaltung 302 funktioniert, nämlich durch zweimaliges Senden einer Pixelfarbe durch mindestens einige aller gezeigten Luma-Verarbeitungsschaltungen, mit unterschiedlicher Multiplikatorkonstante für Multiplikator 401;
- 6 veranschaulicht schematisch, wie die Farbnachschlagetabellenbestimmungsschaltung 303 eine Funktion bestimmen kann, die B-Multiplizierer für jeden in die LUT zu ladenden Y_PQ-Wert 102 aus den verschiedenen (Y_PQ, G_PQ) -Werten, wie sie für die Pixel in dem Eingangs-HDR-Bild durch die Schaltung 302 berechnet werden, codiert (es gibt andere Arten der Bestimmung der LUT);
- 7 veranschaulicht schematisch einen HDR-Videodecodierer 700, der konfiguriert ist, um die gleiche innovative Verarbeitung wie Codierer 300 auf der Empfangsseite von SLHDR-codierten HDR-Videodaten anzuwenden; und
- 8 zeigt die Einrichtungen in einer typischen Anwendung der vorliegenden Technologie, nämlich bei einer Fernsehsendung und einem Empfang in Echtzeit (die gleichen Prinzipien können auch in anderen Videokommunikationstechnologien verwendet werden, z. B. Nicht-Echtzeit-Digitalfilmherstellung und -korrektur und spätere Kommunikation mit Kinos usw.).
-
DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
-
3 erläutert, wie der modifizierte Codierer, der unserem SLHDR-HDR-Videocodierungsansatz entspricht, funktioniert. Auf der Codierseite steht als Eingabe das ursprüngliche HDR-Masterbild zur Verfügung (z.B. ein 5000 nit PB_C-Bild, wie es von einem menschlichen Farbabstufer abgestuft wird, so dass alle Objekte in den verschiedenen Videobildern, wie z.B. dass helle Explosionen und dunkle Schattenbereiche in Höhlen optimal aussehen), so dass man sowohl die Pixelluminanzen (L) als auch die entsprechenden Lumas (Y) zur Verfügung hat. Es ist eine Schaltung 350 zur Bestimmung der Luma-Abbildungsfunktion enthalten (oder damit verbunden), welche die optimale z. B. S-förmige Luma-Abbildungskurve bestimmen kann, wie in 4 gezeigt und daran erörtert (d. h. der Schaltung 113 in 1). Es ist zu beachten, dass, obwohl wir die Prinzipien mit dieser S-förmigen Abbildungsfunktion erläutern, die Verarbeitung unabhängig von der Funktion generisch ist (sie kann sogar bei Situationen arbeiten, bei denen sie sich nicht verbessert, aber auch nicht verschlechtert). Wir brauchen nicht die vielfältigen Arten und Weisen ausarbeiten, wie dies durch verschiedene Ausführungsformen geschehen kann, die von dem Anmelder entwickelt wurden, aber dies könnte z. B. durch einen Automaten erfolgen, der die im Master-HDR-Eingangsbild vorhandenen Luma analysiert (die letztendlich als IM_HDR an Empfänger übermittelt werden), und eine optimale Funktion (z. B. S-Kurve) für eine solche Verteilung von Lumas bestimmt, oder in einer anderen physischen Ausführungsform von Codiervorrichtungen kann sie über eine Benutzerschnittstelle, wie eine Farbkonsole, durch einen menschlichen Farbabstufer konfiguriert werden. Die drei Pfeile aus der Luma-Abbildungsfunktionsbestimmungsschaltung 350 liefern die bestimmte Luma-Abbildungsfunktion 400 an die jeweiligen anderen Schaltungsschaltungen, z. B. wird sie von der Wahrnehmungssteigungsverstärkungsbestimmungsschaltung 301 verwendet, von der eine typische Ausführungsform mit 4 gelehrt wird. Es ist zu beachten, dass während in der Regel Ausführungsformen in der Wahrnehmungsdomäne von Philips arbeiten können, die durch Gl. 3 definiert ist, dies kein notwendiges Element unserer Erfindung ist, das in einigen Ausführungsformen direkt mit einer PQ-Verstärkung formuliert werden kann, wobei ergo Schaltung 301 punktiert gezeichnet ist, was Optionalität anzeigt. Schließlich wird ein Datenformatierer 304 alle Daten, die mindestens zwei unterschiedlich abgestufte Bilder codieren (eines davon wird als tatsächliches Bild von Pixelfarben, IM HDR, z. B. DCTkomprimiert wie in einem MPEG oder ähnlichen Videocodierungsstandard, wie z. B. AV1, übermittelt), basierend auf dem Master-HDR-Bild an einen Empfänger, übermitteln. Er wird nämlich an jedes Videokommunikationsmedium 399 (das z. B. eine drahtgebundene Verbindung, wie z. B. ein serielles digitales Schnittstellen (SDI) -Kabel oder HDMI-Kabel oder ein Internetkabel, eine drahtlose Datenverbindung, wie z. B. ein terrestrischer Rundfunkkanal, ein physisches Medium zum Übertragen von Videodaten, wie z. B. eine Blaustrahlplatte, usw., sein kann) eine codierte und in der Regel komprimierte Version des Master-HDR-Bildes, nämlich ein Bild mit hohem Dynamikumfang IM_HDR, ausgeben, wobei mindestens eine Luma-Abbildungsfunktion durch die Empfänger anzuwenden ist (wenn sie auf unterschiedliche, in der Regel niedrigere Spitzenhelligkeiten umklassifiziert wird), und eine Farbnachschlagetabelle (CL_(Y_PQ)), die letzten beiden als Metadaten (MET), abhängig von dem verwendeten Videokommunikationsprotokoll, das z. B. SEI -Nachrichten sind. Die Farbnachschlagetabelle dient dazu, für jede Nachschlageposition Y_PQ (eines Pixels) einen Wert B zur Multiplikation mit den beiden Chrominanzwerten Cb und Cr eines beliebigen Pixels zu liefern.
-
4 zeigt die Abbildung, die auf die HDR-Eingangslumas angewendet wird (wie in der wahrnehmungsmäßig einheitlichen Domäne dargestellt, in der die SLHDR-Luma-Abbildung spezifiziert ist), um in diesem Fall SDR-Ausgangslumas zu erhalten. Die wahrnehmungsmäßig einheitlichen Lumas sind normiert, d. h. der Wert 1,0 entspricht auf der vertikalen Achse der SDR-Spitzenhelligkeit PB_C2=100 nit, und auf der horizontalen Achse entspricht der Wert 1,0 in diesem Beispiel einer Master-HDR-Bildspitzenhelligkeit PB_C1 von 1000 nit des Bildes mit hohem Dynamikumfang (IM_HDR). Dies ist eine nützliche Art der Beschreibung von Luma-Abbildungen, z. B. gibt es für einen menschlichen Farbabstufer eine bessere Kontrolle als wenn die Abbildung nativ in der Luminanzdomäne spezifiziert ist (der Fachmann versteht, dass sich nur die Form einer Luma-Abbildungsfunktion vorhersehbar ändern würde, wenn man die Achsen unterschiedlich quantifiziert). In diesem Erläuterungsbeispiel haben wir die grobe Luma-Abbildung des groben Dynamikbereichswandlers 112 übersprungen (und auch andere Verarbeitungen, die unser Codec erlaubt, wie die in 5 veranschaulichte Schwarz/Weiß-Streckungs-und Verstärkungsbegrenzung), und die Luma-Abbildung besteht vollständig aus dieser S-Kurve (eine solche Kurve kann z. B. vorkommen, wenn es eine eher helle Szene gibt, von der man in den dunkleren Teilen eine Kontrastdehnung vornehmen möchte, die das Ausgangs-SDR-Bild besser aussehen lässt).
-
Betrachten wir die Farbe eines bestimmten Pixels, z. B. einer gesättigten Magenta-Farbe, die ein Luma Y1 aufweist. Wenn dieses Luma durch die Luma-Abbildungskurve 400 abgebildet wird, ergibt sich ein Ausgangsluma Y_o1 (ähnlich für ein anderes Pixel mit Eingangsluma Y2). Dies kann ein relativ dunkles Ausgangsergebnis sein (da zu beachten ist, dass wahrnehmbar einheitliche Achsen von etwas logarithmischer Natur sind). Was eigentlich besser gewesen wäre, wenn man die „Luminanz“ anstelle des Lumas abbilden würde, oder technisch genauer das Luma (oder die Position auf der horizontalen Achse), das eindeutig der Luminanz L_e1 entspricht (bei der es sich um das exakte Luminanz-Luma [das ist das Luma, das über die OETF eindeutig einer Luminanz entspricht] auf der Codiererseite handeln kann, da der Codierer über alle Informationen verfügt), ist, dass man ein Ausgangsluma von L_o1, d. h. heller als Y_o1, erhalten würde. D. h., dass dieses L_e1 der Luma-Achsenwert ist, den dieses farbige Pixel dieses Bildobjekts aufweisen hätte sollen, wenn es kein starkes Luminanz-Leck in der Luma-Darstellung gäbe (von z. B. PQ oder wahrnehmungsmäßig einheitlichen Lumas von Philips) statt seines tatsächlichen Lumas Y1.
-
Tatsächlich würde man für das achromatische Grau, da es auf dieser Achse keinen chromatizitätsabhängigen Lumaverlust gibt und das EOTF (Luma) der Luminanz eindeutig und exakt gleicht, tatsächlich gemäß dieses Luminanz-Lumas L_e1 abbilden (d. h. man würde für neutrale/achromatische und nahezu neutrale Farben im Bild einer solchen bevorzugten Neueinstufung folgen, z. B. um einige schöne tiefe Schwarztöne herzustellen). Außerdem kann es, wie in 2d gezeigt, zu einer erheblichen Streuung der Luma-Werte (Y1 gegenüber Y2) für Farben kommen, die ursprünglich ähnlich waren, indem sie ursprünglich nahezu die gleichen Luminanzen aufwiesen, und dann zusätzlich für eine solche stark nichtlineare S-Kurve eines der Lumas zu dem stark unterschiedlichen Abbildungsteil der Funktion springen kann, z. B. dem linearen Teil mit kleiner Steigung, der die dunkelsten Eingangslumas gegenüber dem Mittelteil mit hoher Steigung abbildet.
-
So hat sich zum einen gezeigt, dass bei hochgesättigten Objekten ein Problem zu dunklen Ausgangfarben besteht, so dass eine Aufhellung (zumindest bei bestimmten Bildfarben) angewendet werden sollte. Außerdem hat der Erfinder experimentell herausgefunden, dass es bei linearen Kurven zu keiner signifikanten visuellen Störung kommt (selbst wenn ein Fehler vorliegt, ist dies visuell nicht wichtig).
-
Diese Luma-Zuordnungsfunktion 400 kann jedoch nicht einfach geändert werden, da es sich um Schlüsselmetadaten handelt, die bestimmen, wie ein sekundäres Bild (gemäß dem Inhaltserzeuger) aus dem empfangenen Bild neu eingestuft werden muss (IM HDR); zu z. B. einem PB_C_SDR SDR-Bild mit 100 nit. Wie gesagt ist diese Luma-Abbildungsfunktion exakt korrekt für die achromatischen und nahezu neutralen Farben, so dass, wenn man sie ändern würde, diese Farben plötzlich falsch in der Luminanz neu sortiert würden, und dies sind in der Regel die kritischeren Farben, wie z. B. Gesichtsfarben. Andererseits funktioniert die Funktion in vielen Szenarien auch auf den nicht-achromatischen Farben so ausreichend wie gewünscht.
-
Zurückkehrend zu
3 bestimmt die Wahrnehmungssteigungsverstärkungsbestimmungsschaltung
301 einfach einen „Situationscharakterisierungswert“, nämlich eine Wahrnehmungssteigungsverstärkung SG_PU, die bestimmt wird als:
-
D. h. es ist das Verhältnis von zwei Steigungen: erstens das Ausgangsluma, wie es durch Anwenden der Luma-Abbildungskurve auf den (im Wesentlichen oder exakt) korrekten die Luminanz darstellenden Luma-Wert L_e1 erhalten wird, dividiert durch diesen Luminanz-Luma-Wert L_e1; und zweitens dividiert durch das Verhältnis des Ausgangslumas für das Eingangsluma für dieses spezifische Farbpixel Y1 (des Eingangsbildes) dividiert durch dieses Eingangsluma Y1. Im Wesentlichen oder exakt nimmt die korrekte Luminanzposition auf die Tatsache Bezug, dass man in einigen Ausführungsformen die Luminanz genau bestimmen kann und man in anderen Ausführungsformen sie abschätzen möchte (was auf verschiedene Weise geschehen kann), wir sollten jedoch mit „der normierten Luminanz‟ fortfahren (und in dem spezifischen wahrnehmungsmäßig einheitlichen Bereich von Philips dargestellt), und der Leser kann annehmen, dass sie den exakt korrekten Luminanzwert aufweist (z. B. denjenigen, den der Videoerzeuger abgestuft hat, und den man z. B. durch Anwenden von Gl. 1 zu den linearen RGB-Koeffizienten des Pixels im Rechner berechnen kann).
-
In
5 zeigen wir eine Ausführungsform der Verstärkungsbestimmungsschaltung
302, in der diese wahrnehmungsbezogene Steigungsverstärkung SG_PU verwendet wird. Was letztlich erforderlich ist, ist eine Korrektur in der PQ-Domäne (von
US9077994 und standardisiert als SMPTE ST.2084), wie in
1 zu sehen ist, während die gesamte Luma-Abbildung zumindest des SLHDR-Decodierers in der wahrnehmungsmäßig einheitlichen (PU) Domäne geschieht (über Gl. 3). Der Erfinder erkannte, dass er das Problem ganz entscheidend durch eine Einstellung der Chromas beheben konnte (und bei Codierern durch eine Bestimmung der Farbnachschlagetabelle CL(Y_PQ) den empfangsseitigen Decodierern übermittelt werden soll). D. h. es kann sich um eine geänderte Farbnachschlagetabelle handeln, wenn der Abstufer bereits einen Anfangswert definiert hat. D. h. alles in der Luma-Abbildungsteilschaltung
101 geschieht in der PU-Domäne, die Eingaben Y_PQ und CbCr_PQ befinden sich jedoch in der PQ-Domäne.
-
Tatsächlich muss also gemäß dem vorliegenden Ansatz eine Korrektur für die Fehler der Flecken und anderer zu dunkler Teile gesättigter Bildobjekte in der PQ-Domäne bestimmt werden, was wiederum ist, was Schaltung 302 durchführt. In einer beispielhaften Ausführungsform durchläuft sie zwei Durchläufe (für jede Pixelfarbe des Bildes), gesteuert durch einen Multiplizierer mit geschaltetem Multiplikationswert. Es ist zu beachten, dass der Fachmann selbst Implementierungsdetails verstehen kann, wie z. B. Puffern, Bereitstellen einer Bildverzögerung usw.
-
Zunächst wird dieser Wert auf 1 gesetzt, und dann wird die Eingangsluminanz L (die aus dem Eingangsluma Y PQ durch Anwenden des PQ EOTF darauf berechnet werden kann) wieder in die wahrnehmungsmäßig einheitliche Luma-Domäne umgewandelt, d. h. in einen äquivalenten, repräsentativen, wahrnehmungsmäßigen Luma-Wert PY umgewandelt. Somit gilt das Gesamtabbildungsverhalten für das/die Pixel dieses Durchgangs, was in 2d als der PY-Wert gezeigt ist.
-
Tatsächlich entsprechen die Blöcke dieser Einheit dem, was mit 1 und auch 4 des Standards ETSI TS 103 433-2 V1.1.1 erläutert wurde). Die neu gezeichneten Blöcke sind ein Schwarz-Weiß-Pegel-Offsetter 402, der einen bestimmten konstanten Wert des Eingangs-HDR-Lumas auf den 0- bzw. 1-Wert der wahrnehmungsmäßig einheitlichen Darstellung verschieben kann. Wenn z. B. das HDR nicht dunkler als 0,1 nit (oder jeder dazu äquivalente Luma-Repräsentationswert) wird, ist es oft vorteilhaft, diesen Wert bereits auf den niedrigsten SDR-Wert Null voraus abzubilden, bevor eine weitere Luma-Abbildung angewendet wird, und genauso mit einem höchsten Wert. Der Verstärkungsbegrenzer 403 ist eine Schaltung, die unter bestimmten Umständen einspringt, und den Maximalwert bestimmt zwischen dem, was sich aus der Anwendung der verschiedenen Verarbeitungsschritte in der oberen Spur ergibt (d. h. Schaltung 402, 112, 113 usw.) und einer alternativen Luma-Abbildungsstrategie, so dass die Ausgangslumas in dem Bild, das sich aus der Anwendung dieser Luma-Abbildung auf alle Pixel des Eingangsbildes ergibt, nicht zu niedrig werden (Details siehe ETSI-Standard; Was man für die vorliegende Erfindung nur wissen muss, ist nur, dass man die gesamte Verarbeitung, die man unter normalen Umständen für die klassische SLHDR-Luma-Abbildung ohne die vorliegende Erfindung anwenden würde, anwendet, d. h. wenn man z.B. eine grobe Abbildung anwendet, so wäre sie auch von der Schaltung 302 anzuwenden, und wenn nicht, dann wendet sie die Schaltung 302 ebenso auch nicht an).
-
So ergibt sich im ersten Durchgang, wenn der Multiplizierer auf 1 gesetzt wird, das normale Ausgangsluma Y_o1 für einen Pixellumaeingang Y1 (oder ebenso ein entsprechendes Ausgangsluma für jedes andere Eingangsluma wie etwa Y2). Es ist zu beachten, dass dieser Y_o1-Wert immer noch in der wahrnehmungsmäßig einheitlichen Luma-Domäne (PO) liegt, so dass er immer noch linearisiert werden muss (durch die Linearisierungsschaltung 114) durch die Inverse von Gl. 3 und dann PQ-Domänen-konvertiert (durch Schaltung 115).
-
Im zweiten Durchgang multipliziert der Multiplizierer die wahrnehmungsbezogene Luma-PY mit dem wahrnehmungsbezogenen Steigungsverstärkungswert SG PU (wie durch Schaltung 301 bestimmt), und dann ergibt sich ein korrigierter Wert, der als Y_ corr1 in 4 gezeigt ist. Dies entspricht dem Anwenden unserer Berechnung der (wahren) normierten Luminanz, dem Nachschlagen, welche Steigung in der Gesamtabbildungskurve für diese Position (L_e1, L_o1) existiert, und dem Verwenden davon, um die Steigung lokal zu erhöhen und für Y1 auszugeben.
-
Tatsächlich berechnet die Verstärkungsbestimmungsschaltung (
302) einen PQ-Domänen-Luma-Verstärkungswert (G PQ) als:
-
Wobei ein Inv PU-Standard für die Inverse der Wahrnehmungsgleichmäßigkeit von Gl. 3, d. h. die Berechnung entsprechender (linearer) normierter Luminanzen ist.
-
D. h. G_PQ ist das Verhältnis von erhaltenem Ausgangsluma (in der PQ-Domäne) beim Senden eines unkorrigierten (d. h. wie empfangenen) Luma-Werts durch unsere gesamte SLHDR-Luma-Verarbeitungskette und eines korrigierten PQ-Domänen-Lumas, dessen korrigiertes PQ-Domänen-Luma das Luminanz-Luma ist, d. h. das EOTF (Y1), durch die Luma-Verarbeitungskette. Es ist zu beachten, dass es auf der Codiererseite einige Alternativen geben kann, den Codierer aufzubauen, z. B. kann man den G _PQ-Wert direkt aus dem tatsächlichen von der Chrominanz abhängigen Luma (d. h. wie er im Ausgangsbild IM_HDR des Codierers codiert wird) und der korrekten (achromatischen) Luminanz berechnen, die ein Luminanz-Luma darstellt, d. h. Schaltung 301 ist kein wesentliches technisches Kernelement unserer Erfindung und kann in einigen Codiererausführungsformen fehlen (siehe die gestrichelte Linie in 3, die zeigt, dass in einem solchen Fall Schaltung 302 ihre zwei Berechnungen mit dem Luma Y bzw. dem Luminanz-Luma L als Eingabe durchführen würde, wobei es keinen Multiplizierer gibt oder in beiden Situationen auf 1x gesetzt würde).
-
Dieser G PQ-Wert wird nun von der Nachschlagetabellenbestimmungsschaltung (303) bei seiner Bestimmung einer entsprechenden Farb-LUT CL(Y_PQ) verwendet. Dies kann auf verschiedene Weise geschehen (je nachdem, was man erreichen möchte: es gibt nur eine Form der LUT-Funktion, die für die Situation bestimmt werden kann, statt sich jedoch z. B. auf das Gesamtverhalten zu fokussieren, kann man sich speziell auf besondere Gesichtspunkte konzentrieren, wie bestimmte Farben im Bild usw.), die durch ein archetypisches Beispiel in 6 veranschaulicht werden können. In der Tat möchte man die Korrektur idealerweise für jedes Pixel spezifisch durchführen, dies ist aber nicht, wie der SLHDR-Ansatz funktioniert (aufgrund der Vereinfachung durch die 1D-2D-Verarbeitungsaufteilung). Die Idee ist, dass man die Sättigung (zumindest) der Pixel, an denen das Luma-Verarbeitungsartefakt auftritt, erhöhen möchte. Dann wird das niedrigere Luma, das einer solchen höheren Chrominanz entspricht, wieder in eine höhere Luminanz in der Ausgangsfarbe R''G''B'' umgewandelt. Nachteilig ist, dass eine gewisse Sättigungsänderung zwischen Eingangs- und Ausgangsfarben auftritt, die jedoch akzeptabel ist, auch weil das Auge bei der Luminanz kritischer ist als bei Sättigungsschwankungen, und auch weil die Luminanzneuanpassung die wichtigere visuelle Eigenschaft bei der Dynamikbereichsregelung ist. In jedem Fall beseitigt oder mildert die Regularisierung (obwohl sie die Farben „global“ etwas schwächen kann) die unangenehmen lokalisierten Artefakte, wie die Flecken in den Blüten von 2c, weshalb die vorliegende Anordnung von Berechnungen durchgeführt wird.
-
6 zeigt, wie wir (im Mittel) eine Korrekturstrategie bestimmen können, indem wir eine Anpassungsfunktion an den von der Schaltung 302 berechneten Datenpunkten bestimmen (d. h. für beliebige Pixel in mindestens einem bestimmten Bild des Videos mit Y_PQ-, aber auch Cb- und Cr-Werten, deren G_PQ-Wert herauskommt). D. h. Schaltung 302 erhält z. B. alle (oder einige; z. B. wenn nur bestimmte betroffene Pixel erfasst werden und zum Algorithmus, d. h. zur Farb-LUT-Bestimmung, beitragen) Pixel eines Bildes und berechnet durch den oben erläuterten technischen Prozess die G_PQ-Werte. Wenn man diese in einer 2D-Diagrammstruktur organisiert, sieht man, dass für jeden einzelnen Wert mehrere (für die jeweiligen Pixel) benötigte G PQ-Werte resultieren können (insbesondere für die niedrigeren Y PQ-Werte). Das Diagramm von 6 zeigt die verschiedenen (Y_PQ, G PQ) -Werte, die sich aus der Schaltung 302 ergeben. In der Regel sieht man für hohe Lumas Y_PQ keine Streuung (es gibt eine Multiplikatorkonstante 1, die keiner Korrektur gleicht). Im unteren Bereich, der in der Regel den gesättigten Farben (oder dunkel ungesättigten Farben) entspricht, gibt es eine Streuung der G PQ-Werte für jede Y_PQ-Position aufgrund der verschiedenen Cb-, Cr-Werte, die Pixel mit einem bestimmten Y_PQ aufweisen können. Die Farb-LUT, CL(Y_PQ) aus 1 weist auch ein Verhalten auf, das in diesem Diagramm gezeigt werden kann: sie bestimmt Verstärkungswerte für jeden Y_PQ-Wert, so dass, wenn man das B mit der G_PQ, wie oben für die Luma-Verarbeitungsspur berechnet, gleichsetzt (aber in der Luma-Spur zwar berechenbar, aber nicht veränderbar), kann man eine Funktion ziehen, die den Werten entspricht, die in der 1D-Farb-LUT CL(Y_PQ) eingesetzt werden. Der Fachmann weiß, dass es verschiedene Arten gibt, wie eine Funktion an eine Punktschar angepasst werden kann. Man kann z. H. die Minimierung des mittleren quadratischen Fehlers verwenden.
-
Wird diese Funktionalität auf der Codiererseite angewendet, so muss grundsätzlich nur die Farb-LUT bestimmt werden (wie in 3 gezeigt), dann wird diese Farb-LUT der Empfängerseite übermittelt und kann dann vom Decodierer einfach angewendet werden. Dies ist eine elegante Art der Verwirklichung der vorliegenden Prinzipien.
-
Das gleiche Verfahren kann aber auch auf der Decodiererseite angewendet werden (wenn es nicht bereits auf der Codiererseite angewendet wird), es wird jedoch wenige geringe Unterschiede aufweisen. Was jedoch gleich bleibt, ist, dass jedes Mal, wenn eine Luminanzneueinstufung erfolgen muss, der Multiplikator
121 die Chromakomponenten für das Luma-Problem gegenkorrigiert, indem er berechnet:
-
7 zeigt einen Decodierer 700 gemäß der vorliegenden Erfindung. Grundsätzlich sind fast alle Blöcke die gleichen wie im Codierer 100 von 1. Insbesondere muss die Verstärkungsbestimmungsschaltung 302 erneut einen Satz von Luma-Verstärkungswerten (G_PQ) für zumindest die artefaktgeschädigten Pixel bestimmen, die wiederum ein Verhältnis eines Ausgangsbildlumas für eine Luma-Position gleich einer (korrekten) normierten Luminanzposition quantifizieren (d. h. die nicht reduzierte Luma-Position, die man auf der vertikalen Achse von achromatischem Grau finden würde, wie in 2b veranschaulicht), dividiert durch ein Ausgangsluma für das von der Chrominanz abhängige Luma des Pixels des Bildes mit hohem Dynamikumfang. Und nun umfasst die Videodecodierschaltung mit hohem Dynamikumfang eine ähnliche Farbnachschlagetabellenbestimmungsschaltung (303), die diese G PQ-Werte verwendet, um die Farb-LUT CL (Y PQ) zu bestimmen, die in die Pixelfarbprozessor-Pipeline des Decodierers geladen werden soll, d. h. in LUT 102, aber jetzt werden alle auf Seiten des Decodierers bestimmt werden. Es kann immer noch detaillierte Ausführungsformen geben, die lieber eine Farb-LUT wie übermittelt ändern als eine Farb-LUT zu bestimmen und zu laden, wobei sie das Verhalten (in Schaltung 303 oder einer äquivalenten separaten Schaltung) der ursprünglichen Sättigungsverarbeitung LUT und die erforderliche Korrektur gemäß der vorliegenden Erfindung ausgleichen, aber dies sind Details. Beispielsweise können die zwei LUTs interpoliert werden und der Gewichtungsfaktor kann von einem Maß des Schweregrads des Artefakts (z. B. wie viel dunkler ein durchschnittliches Pixel im Vergleich mit seiner Umgebung ist, oder einem Maß basierend auf akkumulierenden Kantenstärken oder Texturmaßen usw.) abhängen, und dann kann Schaltung 303 z. B. für einen größeren Fehler vorschreiben, dass die LUT, wie gemäß dem vorliegenden Ansatz bestimmt, z. B. 80 % Gewicht erhält, d. h. die andere LUT kann oben auf dem Diagramm von 6 gezeigt werden, kann aber nur mit einer Stärke von 20 %, usw. darauf ziehen. Wie ganz typisch für eine Technologie ist die Lösung dann nicht 100 % perfekt, aber das Problem wird deutlich abgeschwächt.
-
Neu bei diesem Decodierer ist, dass der Decodierer grundsätzlich nicht die Luminanz L (die auf der Codiererseite meist leicht verfügbar ist), sondern nur Y_PQ aufweist.
-
Es kann mehrere Arten geben, auf die man L bestimmen kann, was durch den Luminanzrechner 701 durchgeführt wird, die einfachste ist jedoch nur die Matrizierung von YCbCr zu nichtlinearem R'G'B'_PQ zu berechnen, dann über EOTF_PQ zu linearisieren und dann die Luminanz über eine Gewichtung der R-, G- und B-Komponente zu berechnen, wie erklärt mit Gl. 1. Es ist zu beachten, dass der Luminanzrechner 701 in der Regel ein Luminanz-Luma berechnet, das in die Schaltung 302 in der zweiten seiner Berechnungen eingeht, die durch die gesamte Luma-Abbildungskette geht, wie mit 5 erläutert.
-
Es ist zu beachten, dass der Decodierer auch einen Metadatenprüfer umfassen kann, der konfiguriert ist, um einen Indikator in Metadaten zu prüfen, der angibt, ob der Codierer bereits die erforderliche Korrektur in der Farbnachschlagetabelle angewendet hat, die er übermittelt. Normalerweise wird der Decodierer dann keine Korrektur auf die Nachschlagetabelle anwenden, obwohl manche Ausführungsformen noch ihre eigenen Berechnungen durchführen könnten, um die empfangene Farbnachschlagetabelle zu verifizieren und/oder fein abzustimmen. Es kann auch sein, dass ein anderer Mechanismus zur Übereinstimmung zwischen Erzeugungs-/Codierungsseite und Verbrauchsseite verwendet wird, z. B. eine voreingestellte Situation für einen bestimmten HDR-Videoversorgungspfad, oder etwas, das über ein Software-Update oder eine Benutzersteuerung usw. konfiguriert wird.
-
8 zeigt ein typisches (nicht einschränkendes) Beispiel eines Videokommunikationsökosystems. Auf der Videoerstellungsseite sehen wir ein Life-Sendestudio, in dem ein Moderator 803 z. B. eine Wissenschaftsansicht präsentiert. Er kann verschiedene durch verschiedene Abschnitte des Studios gehen, die recht kreativ (freizügig) beleuchtet werden können. Beispielsweise kann es einen hellen Bereich 801 eines Präsentationsbereichs geben, der von vielen Studioleuchten 802 beleuchtet wird. Es können auch dunklere Bereiche 804 vorhanden sein. Die Videobilder werden von einer oder in der Regel mehreren Kameras (805, 806) aufgenommen. Idealerweise sind diese vom gleichen Typ und farblich koordiniert, aber eine der Kameras kann z. B. eine Drohne usw. sein. Es gibt am Ende eine verantwortliche Person 820, die über die endgültige Produktion und insbesondere deren Kolorimetrie entscheidet (der Fachmann weiß, dass je nach Art der Produktion mehrere Systeme und sogar Personen beteiligt sein können, aber wir nennen für diese Erläuterung diese Person 820 den Farbabstufer). Er kann über Mittel wie ein Panel zum Schalten, Richten, Einfärben usw. verfügen. Er kann eine oder mehrere der Life-Produktionen auf HDR-Referenzmonitoren und/oder SDR-Monitoren usw. beobachten. Diese Show kann z. B. auch ein Sekundärvideo 810, etwa einer Unterwasserszene, für den Unterricht einschließen. Dies kann z. B. ein SDR-Video oder HDR-Video mit unterschiedlichen Luminanzdynamikbereichseigenschaften als die Life-Kameraeinspeisung(en) sein. Betrachtet man die höchste Stufe der Auseinandersetzung, kann es zwei Situationen geben: das sekundäre Video 810 kann tatsächlich mit einem besonderen Lichtpegel gezeigt werden, nehmen wir an ganz hell, oder es kann sich um einen grünen Bildschirm handeln und das Video existiert nur in der Produktionskabine der letztendlich verantwortlichen Person 820.
-
Interessant für die vorliegende Erläuterung ist, dass in der Produktionskabine die Luma-Abbildung bestimmt werden kann. Beispielsweise kann man vor Beginn der Life-Aktion eine Abbildungsfunktion optimieren, die nach Einstellung der HDR-Kameras auf einen guten Irispegel für alle Beleuchtungsbereiche gut oder vernünftig gut funktioniert. Man kann aber auch ein Paar der Funktionen für die verschiedenen Bereiche bestimmen, z. B. einen Kamerazoom auf den dunklen Bereich, und Funktionen umschalten, wenn der endgültige HDR-Bildausgang in einem Videocodierer 822 berechnet wird, oder diese Funktionen für eine bildautomatenoptimierte Version der Funktion verwenden, mit oder ohne manuellen Eingriff usw. Schließlich haben wir in diesem Beispiel eine Satellitenverbindung über die Satellitenschüssel 830 zu Verbrauchern oder professionellen Zwischenstationen, das codierte HDR-Video kann aber auch über das Internet als Videokommunikationstechnik ausgegeben werden usw. Empfangsseitig haben wir in der Regel ein Heim eines Verbrauchers, z. B. sein Wohnzimmer 850. Wir erläutern, dass dieser Verbraucher das gesendete HDR-Video über seine lokale Satellitenschüssel 851 und eine Satelliten-TV-Settopbox 852 erhält, und das Bild wird schließlich auf einem HDR-Fernseher 853 oder einer anderen Anzeige betrachtet. Der HDR-Videodecodierer kann in der Settopbox oder Anzeige enthalten sein. Es kann eine weitere Optimierung der Bildluminanz des empfangenen HDR-Bildes mit seiner codierten Spitzenhelligkeit PB_C auf die maximale Luminanz PB_D des Fernsehgeräts des Verbrauchers erfolgen. Dies kann in der Settopbox geschehen, wobei ein optimiertes Bild z. B. über ein HDMI-Kabel oder eine drahtlose Videoverbindung oder dergleichen zum Fernseher gelangt, oder die Settopbox kann einfach ein Datendurchläufer sein, und der Fernseher kann jede Decodiererausführung wie oben beschrieben umfassen.
-
Die technischen Komponenten, die jegliche Gesamtheit oder einen Teil der hier gelehrten Erfindung bereitstellen, können (ganz oder teilweise) in der Praxis als Hardware (z. B. Teile eines anwendungsspezifischen IC) oder als Software, die auf einem speziellen digitalen Signalprozessor oder einem generischen Prozessor, FPGA usw. läuft, realisiert werden. Jeder Prozessor, Teil eines Prozessors oder Komplex verbundener Prozessoren kann interne oder externe Datenbusse, On-Board- oder Of-Board-Speicher wie Cache, RAM, ROM usw. aufweisen. Die Einrichtungen, in denen der Prozessor enthalten ist, können spezielle Protokolle für spezielle Verbindungen mit Hardware aufweisen, wie etwa Bildkommunikationskabelprotokolle wie z. B. HDMI zum Verbinden mit einer Anzeige usw. oder interne Verbindungen zum Verbinden mit einem Anzeigefeld, falls die Vorrichtung eine Anzeige ist. Schaltungen können durch dynamische Anweisungen konfiguriert werden, bevor sie ihre technischen Aktionen durchführen. Jedes Element oder jede Einrichtung kann Teil eines größeren technischen Systems sein, wie etwa eines Videoerzeugungssystems an jeder beliebigen Inhaltserzeugungs- oder -verteilungsstelle usw.
-
Der Fachmann sollte verstehen, welche technischen Komponenten zur Übermittlung (oder Speicherung) von Bildern zur Verfügung stehen oder verwendbar sind, sei es zu einem anderen Teil der Welt oder zwischen zwei benachbarten Einrichtungen, wie z. B. HDRgeeignete Videokabel usw. Der Fachmann wird verstehen, unter welchen Situationen man welche Form der Video- oder Bildkompression verwenden kann. Der Fachmann kann verstehen, dass Signale gemischt werden können, und dass es nicht unbedingt erforderlich ist, sondern vorteilhaft sein kann, zuerst zu mischen, bevor einige Berechnungen auf die Bilder angewendet werden, wie z. B. die Bestimmung einer optimalen S-Kurve, obwohl diese Bestimmung, selbst wenn sie auf ein vorher gemischtes Bild angewendet wird, immer noch verschiedene Bildgesichtspunkte von z. B. den Kamera-Feed-Bildern und dem Sekundärbild auf verschiedene bestimmte Arten gewichten kann. Der Fachmann versteht, dass verschiedene Realisierungen parallel arbeiten könnten, z. B. unter Verwendung mehrerer Videocodierer, um mehrere HDR-Videos oder Videoströme auszugeben.
-
Es sollte dem Fachmann aus unserer Präsentation verständlich sein, welche Komponenten optionale Verbesserungen sein können und in Kombination mit anderen Komponenten realisiert werden können, und wie (optionale) Verfahrensschritte jeweiligen Mitteln von Einrichtungen entsprechen, und umgekehrt. Das Wort „Einrichtung“ in dieser Anmeldung wird in seinem weitesten Sinne verwendet, nämlich eine Gruppe von technischen Elementen, welche die Realisierung einer bestimmten Aufgabe ermöglichen, und kann daher z. B. (ein kleiner Schaltungsteil) eine IC oder ein dediziertes Gerät (wie etwa ein Gerät mit einer Anzeige) oder ein Teil eines vernetzten Systems usw. sein. „Anordnung“ oder „System“ soll auch im weitesten Sinne verwendet werden, so dass diese unter anderem eine einzelne Einrichtung, einen Teil einer Einrichtung, eine Sammlung von (Teilen von) zusammenwirkenden Einrichtungen usw. umfassen kann.
-
Einige der für den Betrieb des Verfahrens erforderlichen Schritte können bereits in der Funktionsweise des Prozessors anstelle der Beschreibung im Computerprogrammprodukt vorhanden sein. Auf ähnliche Weise können einige Gesichtspunkte, mit denen die vorliegende Erfindung zusammenwirkt, in wohlbekannten technischen Schaltungen oder Elementen oder separaten Vorrichtungen vorhanden sein, z. B. die Funktionsweise eines Anzeigefeldes, das, wenn es durch einige Farbcodierungsdigitalwerte angesteuert wird, die entsprechenden angezeigten Farben auf der Vorderseite des Bildschirms zeigt, und solche vorhandenen Details werden nicht erschöpfend besprochen, um die Lehre durch Fokussierung darauf, was genau zum technischen Gebiet beigetragen wird, deutlicher zu machen.
-
Es sei darauf hingewiesen, dass die vorstehend genannten Ausführungsformen die Erfindung nicht einschränken, sondern vielmehr veranschaulichen. Dort, wo der Fachmann eine Abbildung der vorgestellten Beispiele auf andere Bereiche der Ansprüche realisieren kann, wurden der Übersichtlichkeit halber nicht alle diese Möglichkeiten in der Tiefe erwähnt. Neben Kombinationen von Elementen der Erfindung in Kombination mit den Beispielen oder Ansprüchen sind auch andere Kombinationen der Elemente möglich. Jede Kombination von Elementen kann in einem einzigen dedizierten Element ausgeführt sein. Der Fachmann kann verstehen, dass einige Verarbeitungsaufträge ausgetauscht werden können.
-
Jedes Bezugszeichen zwischen Klammern in einem Anspruch soll den Anspruch nicht einschränken. Das Wort „umfassend“ schließt das Vorhandensein von Elementen oder Gesichtspunkten, die in einem Anspruch nicht aufgelistet sind, nicht aus. Das Wort „ein“ oder „eines“ vor einem Element schließt das Vorhandensein einer Vielzahl solcher Elemente nicht aus.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 9077994 [0019, 0079]
- WO 2017157977 [0021]
- EP 3496028 [0052]
- US 2018/0005356 [0054]