-
Die
vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung
zum Verarbeiten von Videobildern insbesondere im Hinblick auf eine
dynamische Falschkontureneffekt- und Dithering-Rauschen-Kompensation.
-
Allgemeiner
Stand der Technik
-
Die
Plasmadisplaytechnologie ermöglicht
es nun, flache Farbpanels mit großer Größe und mit begrenzter Tiefe
ohne irgendwelche Einschränkungen
des Betrachtungswinkels zu erzielen. Die Größe der Displays kann viel größer sein,
als es die klassischen CRT-Bildröhren
jemals erlaubt hätten.
-
Ein
Plasmadisplaypanel (oder PDP) verwendet ein Matrixarray aus Entladungszellen,
die nur "ein" oder "aus" sein könnten. Im
Gegensatz zu einem Kathodenstrahlröhrendisplay oder einem Flüssigkristalldisplay,
bei denen Graupegel durch eine analoge Steuerung der Lichtemission
ausgedrückt
werden, steuert ein PDP deshalb Graupegel durch eine Impulsbreitenmodulation
jeder Zelle. Diese Zeitmodulation wird von dem Auge über eine
dem Augen-Zeit-Verhalten entsprechende Periode integriert. Je häufiger eine
Zelle in einem gegebenen Zeitrahmen eingeschaltet ist, um so höher ist
ihre Luminanz oder Helligkeit. Angenommen, wir wollen 8-Bit-Luminanzpegel
bereitstellen, d.h. 255 Pegel pro Farbe. In diesem Fall kann jeder
Pegel durch eine Kombination aus 8 Bits mit den folgenden Gewichten
dargestellt werden:
1 – 2 – 4 – 8 – 16 – 32 – 64 – 128
-
Um
eine derartige Codierung zu realisieren, kann die Rahmenperiode
in 8 Beleuchtungsteilperioden, Teilfelder genannt, unterteilt werden,
die jeweils einem Bit und einem Helligkeitspegel entsprechen. Die
Anzahl der Lichtimpulse für
das Bit "2" ist das Doppelte
wie für
das Bit "1"; die Anzahl der
Lichtimpulse für
das Bit "4" ist das Doppelte
wie für
das Bit "2" usw. ... Mit diesen
8 Teilperioden können
durch Kombination die 256 Graustufen aufgebaut werden. Das Auge
des Betrachters integriert diese Teilperioden über eine Rahmenperiode, um
den Eindruck der richtigen Graustufe zu erfassen. Die 1 zeigt
einen derartigen Rahmen mit 8 Teilfeldern.
-
Das
Lichtemissionsmuster führt
neue Kategorien der Bildqualitätsverschlechterung
entsprechend Störungen
von Graustufen und Farben ein. Diese werden als der "dynamische Falschkontureneffekt" bezeichnet, da er
Störungen
von Graustufen und Farben in Form einer Erscheinung gefärbter Ränder in
dem Bild entspricht, wenn sich ein Beobachtungspunkt auf dem PDP-Schirm
bewegt. Solche Ausfälle
auf einem Bild führen zu
dem Eindruck, daß in
einem homogenen Bereich starke Konturen erscheinen. Diese Verschlechterung
verstärkt
sich, wenn das Bild eine stetige Gradation, beispielsweise wie Haut,
aufweist und wenn die Lichtemissionsperiode mehrere Millisekunden übersteigt.
-
Wenn
sich ein Beobachtungspunkt auf dem PDP-Schirm bewegt, folgt das
Auge dieser Bewegung. Folglich integriert es nicht mehr länger die
gleiche Zelle über
einen Rahmen (statische Integration), sondern es integriert Informationen,
die von verschiedenen Zellen kommen, die sich auf der Bewegungsbahn
befinden, und es wird alle diese Lichtimpulse miteinander mischen,
was zu einer fehlerhaften Signalinformation führt.
-
Im
Grunde tritt dieser Falschkontureneffekt ein, wenn ein Übergang
von einem Pegel zu einem anderen mit einem total anderen Code vorkommt.
Die europäische
Patentanmeldung
EP 1 256 924 stellt
einen Code mit n Teilfeldern vor, der es gestattet, p Graustufen
zu erzielen, in der Regel p = 256, und m Graustufen auszuwählen, mit
m < p, unter den
2
n möglichen
Teilfeldanordnungen beim Arbeiten bei der Codierung oder unter den
p Graustufen beim Arbeiten bei dem Videopegel, so daß enge Pegel
enge Teilfeldanordnungen aufweisen. Das Problem besteht darin zu
definieren, was "enge
Codes" bedeuten;
verschiedene Definitionen können
erfolgen, doch werden die meisten von ihnen zu den gleichen Ergebnissen
führen.
Ansonsten ist es wichtig, ein Maximum an Pegeln beizubehalten, um
eine gute Videoqualität
beizubehalten. Das Minimum gewählter Pegel
sollte gleich zum Doppelten der Anzahl der Teilfelder sein.
-
Wie
zuvor gesehen integriert das menschliche Auge das von der Impulsbreitenmodulation
emittierte Licht. Wenn man alle mit einem Basiscode codierten Videopegel
betrachtet, wächst
der zeitliche Schwerpunkt der Lichterzeugung für einen Teilfeldcode nicht
mit dem Videopegel. Dies ist durch
2 dargestellt.
Der zeitliche Schwerpunkt CG2 des Teilfeldcodes entsprechend einem
Videopegel 2 ist dem zeitlichen Schwerpunkt CG3 des Teilfeldcodes
entsprechend einem Videopegel 3 überlegen,
selbst wenn 3 leuchtender ist als 2. Diese Diskontinuität bei dem
Lichtemissionsmuster (wachsende Pegel weisen keinen wachsenden Schwerpunkt
auf) führt
eine falsche Kontur ein. Der Schwerpunkt ist definiert als der Schwerpunkt
der Teilfelder "ein", gewichtet durch
ihr Erhaltungsgewicht:
wobei
- – sfWi das Teilfeldgewicht des i-ten Teilfelds
ist;
- – δi gleich
1 ist, wenn das i-te Teilfeld "ein" für den gewählten Code
ist, ansonsten 0;
- – SfCGi der Schwerpunkt des i-ten Teilfelds ist,
d.h. seine Zeitposition.
-
Der
Schwerpunkt SfCGi der sieben ersten Teilfelder
des Rahmens von 1 ist in 3 gezeigt.
-
Somit
können
mit dieser Definition die zeitlichen Schwerpunkte der 256 Videopegel
für einen
Code aus 11 Teilfeldern mit den folgenden Gewichten, 1 2 3 5 8 12
18 27 41 58 80, wie in
4 gezeigt, dargestellt werden.
Wie ersichtlich ist, ist diese Kurve nicht monoton und stellt viele
Sprünge
dar. Diese Sprünge
entsprechen einer falschen Kontur. Die Idee der Patentanmeldung
EP 1 256 924 besteht darin,
diese Sprünge
zu unterdrücken,
indem nur einige Pegel ausgewählt
werden, für
die der Schwerpunkt stetig wächst.
Dies kann erfolgen durch Zeichnen einer monotonen Kurve ohne Sprünge auf
der vorausgegangenen Graphik und Auswählen des nächsten Punkts. Eine derartige
monotone Kurve ist in
5 gezeigt. Es ist nicht möglich, Pegel
mit einem wachsenden Schwerpunkt für die niedrigen Pegel auszuwählen, da
die Anzahl möglicher
Pegel gering ist und so, wenn nur wachsende Schwerpunktpegel ausgewählt würden, es
nicht ausreichend Pegel mit einer guten Videoqualität in den
Schwarzpegeln geben würde,
da das menschliche Auge in den Schwarzpegeln sehr empfindlich ist.
Außerdem
ist die falsche Kontur in einem dunklen Bereich vernachlässigbar.
Bei dem hohen Pegel gibt es eine Verringerung der Schwerpunkte.
Somit wird es eine Verringerung auch in den gewählten Pegeln geben, doch ist
dies nicht wichtig, da das menschliche Auge in dem hohen Pegel nicht
empfindlich ist. In diesen Bereichen kann das Auge verschiedene
Pegel nicht unterscheiden und der Falschkonturpegel ist vernachlässigbar
hinsichtlich des Videopegels (das Auge ist nur empfindlich gegenüber einer
relativen Amplitude, wenn das Weber-Fechner-Gesetz betrachtet wird).
Aus diesen Gründen
ist die Monotonie der Kurve gerade für die Videopegel zwischen 10%
und 80% des maximalen Videopegels erforderlich.
-
In
diesem Fall werden für
dieses Beispiel 40 Pegel (m = 40) unter den 256 möglichen
ausgewählt.
Mit diesen 40 Pegeln kann eine gute Videoqualität aufrechterhalten werden (Grauskalendarstellung).
Dies ist die Auswahl, die erfolgen kann, wenn man auf dem Videopegel
arbeitet, da nur wenige Pegel, in der Regel 256, zur Verfügung stehen.
Wenn aber diese Auswahl bei der Codierung erfolgt, gibt es 2n verschiedene Teilfeldanordnungen, und so
können
mehr Pegel ausgewählt
werden, wie aus 6 ersichtlich, wo jeder Punkt
einer Teilfeldanordnung entspricht (bei einem gleichen Videopegel
gibt es verschiedene Teilfeldanordnungen).
-
Die
Hauptidee hinter dieser GCC (Gravity Center Coding – Schwerpunktcodierung)
besteht darin, eine gewisse Anzahl von Codewörtern auszuwählen, um
einen guten Kompromiß zwischen
Unterdrückung
eines Falschkontureffekts (sehr wenige Codewörter) und Unterdrückung von
Dithering-Rauschen (mehr Codewörter bedeuten
weniger Dithering-Rauschen) zu erhalten.
-
Das
Problem besteht darin, daß das
ganze Bild je nach seinem Inhalt ein anderes Verhalten aufweist. Tatsächlich ist
es in einem Bereich mit einer stetigen Gradation wie etwa auf der
Haut wichtig, so viele Codewörter
wie möglich
zu haben, um das Dithering-Rauschen zu reduzieren. Zudem basieren
jene Bereiche hauptsächlich
auf einer stetigen Gradation von benachbarten Pegeln, die sehr gut
zu dem allgemeinen Konzept der GCC wie in 7 gezeigt
paßt.
In dieser Figur wird der Videopegel eines Hautbereichs dargestellt. Es
ist leicht zu erkennen, daß alle
Pegel nahe beieinander liegen und leicht auf der dargestellten GCC-Kurve gefunden werden
könnten.
Die 8 zeigt den Videopegelbereich für Rot, Blau
und Grün,
der zwingend ist, um die stetige Hautgradation auf der Frauenstirn
zu reproduzieren. In diesem Beispiel basiert die GCC auf 40 Codewörtern. Wie
ersichtlich ist, liegen alle Pegel von einer Farbkomponente sehr
nahe beieinander, und dies paßt
sehr gut zu dem GCC-Konzept. In diesem Fall liegt in jenen Bereich
mit einem guten Dithering-Rauschverhalten fast kein Falschkontureneffekt
vor, wenn genügend
Codewörter
vorliegen, beispielsweise 40.
-
Es
soll nun jedoch die Situation an der Grenze zwischen der Stirn und
den Haaren, wie in 9 dargestellt, analysiert werden.
In diesem Fall liegen zwei glatte Bereiche (Haut und Haare) mit
einem starken Übergang
dazwischen vor. Der Fall der beiden glatten Bereiche ist ähnlich der
zuvor präsentierten
Situation. In diesem Fall haben wir bei GCC fast keinen Falschkontureneffekt
kombiniert mit einem guten Dithering-Rauschverhalten, da 40 Codewörter verwendet
werden. Das Verhalten am Übergang
ist ganz anders. Tatsächlich
sind die zum Erzeugen des Übergangs
erforderlichen Pegel von dem Hautpegel zum Haarpegel stark gestreut.
Mit andern Worten entwickeln sich die Pegel nicht mehr stetig, sondern
sie springen recht stark, wie in 10 für den Fall
der roten Komponente gezeigt ist.
-
In 10 ist
ein Sprung in der roten Komponente von 86 auf 53 ersichtlich. Die
Pegel dazwischen werden nicht verwendet. In diesem Fall kann die
Hauptidee der GCC, die Änderung
beim Schwerpunkt des Lichts zu begrenzen, nicht direkt verwendet
werden. Tatsächlich
liegen die Pegel zu weit voneinander weg und in diesem Fall ist
das Schwerpunktskonzept nicht länger
hilfreich. Mit anderen Worten wird im Bereich des Übergangs
die falsche Kontur wieder wahrnehmbar. Zudem sollte hinzugefügt werden,
daß das
Dithering-Rauschen in starken Gradientenbereichen auch weniger wahrnehmbar
sein wird, was es ermöglicht,
in jenen Gebieten weniger auf eine falsche Kontur adaptierte GCC-Codewörter zu
verwenden.
-
Erfindung
-
Eine
Aufgabe der vorliegenden Erfindung besteht in der Offenbarung eines
Verfahrens und einer Einrichtung zum Verarbeiten von Videobildern,
was es ermöglicht,
die Falschkontureffekte und das Dithering-Rauschen unabhängig vom
Inhalt der Bilder zu reduzieren.
-
Dies
wird durch die in den unabhängigen
Ansprüchen
1 und 10 beanspruchte Lösung
erzielt.
-
Die
Hauptidee bei dieser Erfindung besteht darin, das anzuzeigende Bild
in Bereiche von mindestens zwei Typen zu unterteilen, beispielsweise
Bereiche mit niedrigem Videogradienten und Bereiche mit hohem Videogradienten,
um jedem Bereichstyp eine andere Menge von GCC-Codewörtern zuzuweisen,
wobei die einem Bereichstyp zugewiesene Menge dafür bestimmt
ist, falsche Konturen und Dithering-Rauschen in dem Bereich dieses
Typs zu reduzieren und die Videopegel jedes Bereichs des anzuzeigenden
Bilds mit der zugewiesenen Menge von GCC-Codewörtern zu codieren.
-
Auf
diese Weise wird die Reduktion von Falschkontureffekten und Dithering-Rauschen
in dem Bild Bereich für
Bereich optimiert.
-
Kurze Beschreibung
der Zeichnungen
-
Ausführungsbeispiele
der Erfindung sind in den Zeichnungen und in der folgenden Beschreibung
ausführlicher
dargestellt. Es zeigen:
-
1 die
Teilfeldorganisation eines 8 Teilfelder umfassenden Videorahmens;
-
2 den
zeitlichen Schwerpunkt verschiedener Codewörter;
-
3 den
zeitlichen Schwerpunkt jedes Teilfelds in der Teilfeldorganisation
von 1;
-
4 eine
Kurve, die die zeitlichen Schwerpunkte von Videopegeln für 11 Teilfelder
zeigt, die mit den Gewichten 1 2 3 5 8 12 18 27 41 58 80 codiert;
-
5 die
Auswahl einer Menge von Codewörtern,
deren zeitliche Schwerpunkte stetig mit ihrem Videopegel wachsen;
-
6 den
zeitlichen Schwerpunkt der 2n verschiedenen
Teilfeldanordnungen für
einen n Teilfelder umfassenden Rahmen;
-
7 ein
Bild und die Videopegel eines Teils dieses Bilds;
-
8 die
zum Reproduzieren dieses Teils des Bilds verwendeten Videopegelbereiche;
-
9 das
Bild von 7 und die Videopegel eines anderen
Teils des Bilds;
-
10 die
Videopegelsprünge,
die zum Reproduzieren des Teils des Bilds von 9 ausgeführt werden
müssen;
-
11 den
Schwerpunkt von Codewörtern
einer zum Reproduzieren von Bereichen mit niedrigem Gradienten verwendeten
ersten Menge;
-
12 den
Schwerpunkt von Codewörtern
einer zum Reproduzieren von Bereichen mit hohem Gradienten verwendeten
zweiten Menge;
-
13 mehrere
mögliche
Mengen von Codewörtern,
ausgewählt
entsprechend dem Gradienten des anzuzeigenden Bildbereichs;
-
14 das
Ergebnis einer Gradientenextraktion in einem Bild und
-
15 ein
Funktionsdiagramm einer Einrichtung gemäß der Erfindung.
-
Beschreibung
bevorzugter Ausführungsformen
-
Gemäß der Erfindung
verwenden wir mehrere Mengen von GCC-Codewörtern, um das Bild zu codieren.
Eine spezifische Menge von GCC-Codewörtern wird jedem Typ von Bereich
des Bilds zugewiesen. Beispielsweise wird eine erste Menge stetigen
Bereichen mit einem niedrigen Videogradienten des Bilds und eine zweite
Menge Bereichen des Bilds mit einem hohen Videogradienten zugewiesen.
Die Werte und die Anzahl der Teilfeldcodewörter in den Mengen werden so
gewählt,
daß falsche
Konturen und Dithering-Rauschen in den entsprechenden Bereichen
reduziert werden.
-
Die
erste Menge von GCC-Codewörtern
umfaßt
q verschiedene Codewörter
entsprechend q verschiedenen Videopegeln, und die zweite Menge umfaßt weniger
Codewörter,
beispielsweise r Codewörter
mit r < q < n. Diese zweite
Menge ist bevorzugt eine direkte Teilmenge der ersten Menge, um
eine etwaige Änderung zwischen
einer Codierung und einer anderen unsichtbar zu machen.
-
Die
erste Menge wird als ein guter Kompromiß zwischen einem Reduzieren
von Dithering-Rauschen und einem Reduzieren falscher Konturen gewählt. Die
zweite Menge, die eine Teilmenge der ersten Menge ist, wird so gewählt, daß sie gegenüber falschen
Konturen robuster ist.
-
Für das Beispiel
werden unten zwei Mengen auf der Basis eines Rahmens mit 11 Teilfeldern
vorgestellt: 1 2 3 5 8 12 18 27 41 58 80
-
Die
erste Menge, die für
Bereiche mit niedrigem Videopegelgradienten verwendet wird, umfaßt beispielsweise
die 38 folgenden Codewörter.
Ihr Wert des Schwerpunkts ist auf der rechten Seite der folgenden Tabelle
angegeben.
-
-
Die
zeitlichen Schwerpunkte dieser Codewörter sind in der 11 gezeigt.
-
Die
für Bereiche
mit hohen Videopegelgradienten verwendete zweite Menge umfaßt die 11
folgenden Codewörter.
-
-
Die
zeitlichen Schwerpunkte dieser Codewörter sind in der 12 gezeigt.
-
Diese
11 Codewörter
gehören
zu der ersten Menge. In der ersten Menge haben wird 11 Codewörter von
den 38 der ersten Menge entsprechend einem GCC-Standardansatz beibehalten.
Diese 11 Codewörter basieren
jedoch auf dem gleichen Skelett im Hinblick auf Bitstruktur, damit
man absolut keinen Falschkonturpegel hat.
-
Es
sei diese Auswahl kommentiert:
-
Die
Pegel 1 und 4 führen
zwischen ihnen keine falsche Kontur ein, da der Code 1 (1 0 0 0
0 0 0 0 0 0 0) in dem Code 4 (1 0 1 0 0 0 0 0 0 0 0) enthalten ist.
Es gilt auch für
die Pegel 1 und 9 und die Pegel 1 und 17, da sowohl 9 als auch 17
mit 1 0 starten. Es gilt auch für
die Pegel 4 und 9 und die Pegel 4 und 17, da beide 9 und 17 mit
1 0 1 starten, was den Pegel 4 darstellt. Wenn wir tatsächlich alle
diese Pegel 1, 4, 9 und 17 vergleichen, können wir beobachten, daß sie zwischen
sich absolut keine falsche Kontur einführen. Tatsächlich, wenn ein Pegel M größer ist als
Pegel N, dann sind die ersten Bits des Pegels N bis zu dem letzten
Bit bis 1 des Codes des Pegels N so wie sie sind in dem Pegel M
enthalten.
-
Diese
Regel gilt auch für
die Pegel 37 bis 163. Das erste Mal, wo gegen diese Regel verstoßen wird, ist
zwischen der Gruppe von Pegeln 1 bis 17 und der Gruppe von Pegeln
37 bis 163. Tatsächlich
ist in der ersten Gruppe das zweite Bit 0, wohingegen es 1 in der
zweiten Gruppe ist. Dann erscheint im Fall eines Übergangs
17 auf 37 ein Falschkontureffekt eines Werts 2 (entsprechend dem
zweiten Bit). Dies ist verglichen mit der Amplitude von 37 vernachlässigbar.
-
Es
ist das gleiche für
den Übergang
zwischen der zweiten Gruppe (37 bis 163) und 242, wo das erste Bit
verschieden ist, und zwischen 242 und 255, wo das erste und sechste
Bit verschieden sind.
-
Die
beiden unten dargestellten Mengen sind zwei Extremfälle, einer
für den
Idealfall eines stetigen Bereichs und einer für einen sehr starken Übergang
mit einem hohen Videogradienten. Es ist jedoch möglich, je nach dem Gradientenpegel
des anzuzeigenden Bilds mehr als zwei Teilmengen von GCC-Codierung
zu definieren, wie in 13 gezeigt. In diesem Beispiel
werden 6 verschiedene Teilmengen von GCC-Codewörtern definiert, die von einem
Standardansatz (Pegel 1) für
einen niedrigen Gradienten bis zu einer stark reduzierten Codewortmenge
für einen
sehr hohen Kontrastpegel (Pegel 6) gehen. Immer wenn der Gradientenpegel
erhöht
wird, nimmt die Anzahl der GCC-Codewörter ab
und geht in diesem Beispiel von 40 (Pegel 1) auf 11 (Pegel 6).
-
Neben
der Definition der Menge und Teilmengen von GCC-Codewörtern ist die Hauptidee des
Konzepts das Analysieren des Videogradienten um das aktuelle Pixel,
damit der entsprechende Codierungsansatz ausgewählt werden kann.
-
Nachfolgend
findet man Standardfilteransätze
zum Extrahieren von aktuellen Videogradientenwerten:
-
Die
oben dargestellten drei Filter sind nur ein Beispiel für eine Gradientenextraktion.
Das Ergebnis einer derartigen Gradientenextraktion ist in 14 gezeigt.
Schwarze Bereiche stellen ein Gebiet mit einem niedrigen Gradienten
dar. In jenen Gebieten kann ein GCC-Standardansatz verwendet werden, z.B.
in unserem Beispiel die Menge von 38 Codewörtern. Andererseits entsprechen
leuchtende Bereiche einem Gebiet, wo reduzierte GCC-Codewort-Mengen verwendet
werden sollten. Eine Teilmenge von Codewörtern ist jedem Videogradientenbereich
assoziiert. In dem vorliegenden Beispiel haben wir 6 nicht-überlappende Videogradientenbereiche
definiert.
-
Es
können
viele andere Typen von Filtern verwendet werden. Die Hauptidee in
unserem Konzept besteht nur in dem Extrahieren des Werts des lokalen
Gradienten, um zu entscheiden, welche Menge von Codewörtern zum
Codieren des Videopegels des Pixels verwendet werden sollte.
-
Horizontale
Gradienten sind kritischer, da in einer Videosequenz viel mehr horizontale
Bewegung als vertikale vorliegt. Deshalb ist es nützlich,
Gradientenextraktionsfilter zu verwenden, die in der horizontalen Richtung
vergrößert worden
sind. Solche Filter sind immer noch recht preiswert im Hinblick
auf Chipanforderungen, da nur vertikale Koeffizienten aufwendig
sind (erfordert Zeilenspeicher). Ein Beispiel für einen derartigen erweiterten
Filter ist unten dargestellt:
-
In
diesem Fall werden wir Gradientengrenzen für jede Codierungsmenge definieren,
so daß,
wenn der Gradient des aktuellen Pixels innerhalb eines bestimmten
Bereichs liegt, der entsprechende Codierungssatz verwendet wird.
-
Eine
die Erfindung implementierende Einrichtung ist in 15 dargestellt.
Das eingegebene R-, G-, B-Bild wird an einen Gammablock 1 weitergeleitet,
der eine quadratische Funktion unter der Form Aus = 4095 × ( Eingabe / MAX)γ wobei γ mehr oder
weniger um 2,2 herum liegt und MAX den höchst möglichen Eingabewert darstellt. Das
Ausgangssignal dieses Blocks ist bevorzugt mehr als 12 Bits, damit
niedrige Videopegel korrekt wiedergegeben werden können. Es
wird an einen Gradientenextraktionsblock 2 weitergeleitet,
der eine der oben dargestellten Filter ist. Theoretisch ist es auch
möglich,
die Gradientenextraktion vor der Gammaextraktion durchzuführen. Die
Gradientenextraktion selbst kann vereinfacht werden, indem nur die
höchstwertigen
Bits (MSB – Most
Significant Bits) des ankommenden Signals verwendet werden (z.B.
die 6 höchsten
Bits). Der extrahierte Gradientenpegel wird an einen Codierauswahlblock 3 geschickt,
der die zu verwendende entsprechende GCC- Codierungsmenge auswählt. Auf der Basis dieses ausgewählten Modus
wird eine reskalierende LUT 4 und eine codierende LUT 6 aktualisiert.
Zwischen ihnen addiert ein Dithering-Block 7 mehr als 4-Bits-Dithering, um
das Videosignal korrekt wiederzugeben. Es sei angemerkt, daß die Ausgabe
des Reskalierungsblocks 4 p × 8
Bits ist, wobei p die Gesamtmenge verwendeter GCC-Codewörter darstellt
(in unserm Beispiel von 40 bis 11). Die 8 zusätzlichen Bits werden für Dithering-Zwecke
verwendet, damit man nach dem Dithering für den codierenden Block nur
p Pegel hat.