DE19903859A1 - Verfahren und Anordnung zur Transformation eines Bildbereichs - Google Patents
Verfahren und Anordnung zur Transformation eines BildbereichsInfo
- Publication number
- DE19903859A1 DE19903859A1 DE19903859A DE19903859A DE19903859A1 DE 19903859 A1 DE19903859 A1 DE 19903859A1 DE 19903859 A DE19903859 A DE 19903859A DE 19903859 A DE19903859 A DE 19903859A DE 19903859 A1 DE19903859 A1 DE 19903859A1
- Authority
- DE
- Germany
- Prior art keywords
- transformation
- image area
- horizontal
- vertical
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
- H04N19/122—Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Es wird ein Verfahren zur Transformation eines Bildbereichs angegeben, bei dem von einer Entscheidungseinheit zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchgeführt werden.
Description
Die Erfindung betrifft ein Verfahren und eine Anordnung zur
Transformation eines Bildbereichs.
Ein solches Verfahren mit dazugehöriger Anordnung ist bekannt
aus [1]. Das bekannte Verfahren dient im MPEG-Standard als
Codierverfahren und basiert im wesentlichen auf der hybriden
DCT (Diskreten Cosinus Transformation) mit Bewegungs
kompensation. Ein ähnliches Verfahren wird für die
Bildtelefonie mit n × 64 kbit/s (CCITT-Empfehlung H.261), für
die TV-Kontribution (CCR-Empfehlung 723) mit 34 bzw. 45 Mbit/s
und für Multimedia-Applikationen mit 1,2 Mbit/s (ISO-MPEG-1)
verwendet. Die hybride DCT besteht aus einer zeitlichen
Verarbeitungsstufe, die die Verwandtschaftsbeziehungen
aufeinanderfolgender Bilder ausnutzt, und einer örtlichen
Verarbeitungsstufe, die die Korrelation innerhalb eines
Bildes ausnutzt.
Die örtliche Verarbeitung (Intraframe-Codierung) entspricht
im wesentlichen der klassischen DCT-Codierung. Das Bild wird
in Blöcke von 8 × 8 Bildpunkten zerlegt, die jeweils mittels
DCT in den Frequenzbereich transformiert werden. Das Ergebnis
ist eine Matrix von 8 × 8 Koeffizienten, die näherungsweise die
zweidimensionalen Ortsfrequenzen im transformierten Bildblock
widerspiegeln. Ein Koeffizient mit Frequenz 0 (Gleichanteil)
stellt einen mittleren Grauwert des Bildblocks dar.
Nach der Transformation findet eine Datenexpansion statt.
Allerdings wird in natürlichen Bildvorlagen eine
Konzentration der Energie um den Gleichanteil (DC-Wert)
stattfinden, während die höchstfrequenten Koeffizienten meist
Null sind.
In einem nächsten Schritt erfolgt eine spektrale Gewichtung
der Koeffizienten, so daß die Amplitudengenauigkeit der
hochfrequenten Koeffizienten verringert wird. Hierbei nützt
man die Eigenschaften des menschlichen Auges aus, das hohe
Ortsfrequenzen weniger genau auflöst als niedrige.
Ein zweiter Schritt der Datenreduktion erfolgt in Form einer
adaptiven Quantisierung, durch die die Amplitudengenauigkeit
der Koeffizienten weiter verringert wird bzw. durch die die
kleinen Amplituden zu Null gesetzt werden. Das Maß der
Quantisierung hängt dabei vom Füllstand des Ausgangspuffers
ab: Bei leerem Puffer erfolgt eine feine Quantisierung, so
daß mehr Daten erzeugt werden, während bei vollem Puffer
gröber quantisiert wird, wodurch sich die Datenmenge
reduziert.
Nach der Quantisierung wird der Block diagonal abgetastet
("zigzag"-Scanning), anschließend erfolgt eine
Entropiecodierung, die die eigentliche Datenreduktion
bewirkt. Hierfür werden zwei Effekte ausgenutzt:
- 1. Die Statistik der Amplitudenwerte (hohe Amplitudenwerte treten seltener auf als kleine), so daß den seltenen Ereignissen lange und den häufigen Ereignissen kurze Codewörter zugeordnet werden (Variable-Length-Codierung, VLC). Auf diese Weise ergibt sich im Mittel eine geringere Datenrate als bei einer Codierung mit fester Wortlänge. Die variable Rate der VLC wird anschließend im Pufferspeicher geglättet.
- 2. Man nutzt die Tatsache aus, daß von einem bestimmten Wert an in den meisten Fällen nur noch Nullen folgen. Statt aller dieser Nullen überträgt man lediglich einen EOB-Code (End Of Block), was zu einem signifikanten Codiergewinn bei der Kompression der Bilddaten führt. Statt der Ausgangsrate von 512 bit sind in dem angegebenen Beispiel nur 46 bit für diesen Block zu übertragen, was einem Kompressionsfaktor von über 11 entspricht.
Einen weiteren Kompressionsgewinn erhält man durch die
zeitliche Verarbeitung (Interframe-Codierung). Zur Codierung
von Differenzbildern wird weniger Datenrate benötigt als für
die Originalbilder, denn die Amplitudenwerte sind weitaus
geringer.
Allerdings sind die zeitlichen Differenzen nur klein, wenn
auch die Bewegungen im Bild gering sind. Sind hingegen die
Bewegungen im Bild groß, so entstehen große Differenzen, die
wiederum schwer zu codieren sind. Aus diesem Grund wird die
Bild-zu-Bild-Bewegung gemessen (Bewegungsschätzung) und vor
der Differenzbildung kompensiert (Bewegungskompensation).
Dabei wird die Bewegungsinformation mit der Bildinformation
übertragen, wobei üblicherweise nur ein Bewegungsvektor pro
Makroblock (z. B. vier 8 × 8-Bildblöcke) verwendet wird.
Noch kleinere Amplitudenwerte der Differenzbilder werden
erhalten, wenn statt der verwendeten Prädiktion eine
bewegungskompensierte bidirektionale Prädiktion benutzt wird.
Bei einem bewegungskompensierten Hybridcoder wird nicht das
Bildsignal selbst transformiert, sondern das zeitliche
Differenzsignal. Aus diesem Grund verfügt der Coder auch über
eine zeitliche Rekursionsschleife, denn der Prädiktor muß den
Prädiktionswert aus den Werten der bereits übertragenen
(codierten) Bilder berechnen. Eine identische zeitliche
Rekursionsschleife befindet sich im Decoder, so daß Coder und
Decoder völlig synchronisiert sind.
Im MPEG-2-Codierverfahren gibt es hauptsächlich drei
verschiedene Methoden, mit denen Bilder verarbeitet werden
können:
I-Bilder: Bei den I-Bildern wird keine zeitliche Prädiktion
verwendet, d. h., die Bildwerte werden direkt
transformiert und codiert, wie in Bild 1
dargestellt. I-Bilder werden verwendet, um den
Decodiervorgang ohne Kenntnis der zeitlichen
Vergangenheit neu beginnen zu können, bzw. um eine
Resynchronisation bei Übertragungsfehlern zu
erreichen.
P-Bilder: Anhand der P-Bilder wird eine zeitliche Prädiktion
vorgenommen, die DCT wird auf den zeitlichen
Prädiktionsfehler angewandt.
B-Bilder: Bei den B-Bildern wird der zeitliche bidirektionale
Prädiktionsfehler berechnet und anschließend
transformiert. Die bidirektionale Prädiktion
arbeitet grundsätzlich adaptiv, d. h. es wird eine
Vorwärtsprädiktion, eine Rückwärtsprädiktion oder
eine Interpolation zugelassen.
Ein Bildsequenz wird bei der MPEG-2-Codierung in sog. GOPs
(Group Of Pictures) eingeteilt. n Bilder zwischen zwei
I-Bildern bilden eine GOP. Der Abstand zwischen den P-Bildern
wird mit m bezeichnet, wobei sich jeweils m-1 B-Bilder
zwischen den P-Bildern befinden. Die MPEG-Syntax überläßt es
jedoch dem Anwender, wie m und n gewählt werden. m = 1
bedeutet, daß keine B-Bilder verwendet werden, und n = 1
bedeutet, daß nur I-Bilder codiert werden.
Bevorzugt erfolgt im Rahmen der DCT-Transformation auf Seite
des Encoders eine spalten- bzw. zeilenweise Transformation.
Dabei erfolgt die Art der Transformation für alle Bilddaten
gleich, was für bestimmte Bilddaten von Nachteil ist.
Die Aufgabe der Erfindung besteht darin, einen Bildbereich zu
transformieren, wobei die Reihenfolge von vertikaler und
horizontaler Transformation von vorgegebenen Bedingungen
abhängt, die gezielt berücksichtigt werden.
Dabei kann eine deutliche Verbesserung der Bildqualität
erreicht werden.
Diese Aufgabe wird gemäß den Merkmalen der unabhängigen
Patentansprüche gelöst. Weiterbildungen der Erfindung ergeben
sich auch aus den abhängigen Ansprüchen.
Zur Lösung der Aufgabe wird ein Verfahren zur Transformation
eines Bildbereichs angegeben, bei dem von einer
Entscheidungseinheit zuerst eine vertikale Transformation des
Bildbereichs und anschließend eine horizontale Transformation
des Bildbereichs oder umgekehrt zuerst die horizontale
Transformation und danach die vertikale Transformation
durchgeführt werden.
Eine Weiterbildung besteht darin, daß der Bildbereich eine
unregelmäßige Struktur aufweist.
Dabei ist es insbesondere von Vorteil, daß, abhängig von
einem vorgegebenen oder einem ermittelten Wert in der
Entscheidungseinheit bzw. von der Entscheidungseinheit, die
Reihenfolge der Transformationen ermittelt werden kann. So
kann, abhängig von dem zu transformierenden Bildbereich und
speziellen für ihn kennzeichnenden Merkmalen, die Reihenfolge
von horizontaler und vertikaler Transformation durch die
Entscheidungseinheit so vorgegeben werden, daß im Hinblick
auf die Kompression des Bildbereichs ein möglichst gutes
Ergebnis erzielt wird.
Insbesondere bei einer unregelmäßigen Struktur des
Bildbereichs ist die Reihenfolge der Transformationen
entscheidend, da nach jeder vertikalen oder horizontalen
Transformation eine Umsortierung von Bildpunkten des
unregelmäßigen Bildbereichs erfolgt und dadurch eine
Korrelation der Bildpunkte im Ortsbereich verlorengehen kann.
Eine solche Umsortierung kann insbesondere eine Ausrichtung
entlang einer horizontalen oder einer vertikalen Achse
(Linie) sein.
Von der Entscheidungseinheit wird vorzugsweise anhand
spezieller Merkmale bzw. eines speziellen Merkmals des
Bildbereichs, seiner Übertragungsart oder eines für ihn
charakteristischen Merkmals die Reihenfolge der
Transformationen ermittelt.
Eine Ausgestaltung besteht darin, daß die Ausrichtung des
Bildbereichs entlang einer horizontalen Linie erfolgt bzw.,
daß die Ausrichtung entlang einer vertikalen Linie erfolgt.
Dabei werden Bildpunkte der Zeilen des Bildbereichs an der
vertikalen Linie ausgerichtet bzw. Bildpunkte der Spalten des
Bildbereichs an der horizontalen Linie ausgerichtet.
Insbesondere erfolgt nach jeder Transformation (vertikal oder
horizontal) eine entsprechende Ausrichtung. Durch die
Ausrichtung, d. h. die Verschiebung von Zeilen bzw. Spalten
des Bildbereichs, geht eine Korrelation im Ortsbereich unter
Umständen verloren (bei einer unregelmäßigen Struktur für den
Bildbereich), da ursprünglich nebeneinander liegende
Bildpunkte nach der Ausrichtung nicht mehr zwangsläufig
nebeneinander liegen werden (z. B. Korrelation im
Ortsbereich). Diese Information wird insbesondere benutzt, um
die Entscheidung über die Reihenfolge der Transformationen
innerhalb der Entscheidungseinheit dahingehend zu treffen,
daß die Korrelation von im Orts- oder Zeitbereich
nebeneinander liegenden Bildpunkten optimal ausgenutzt wird.
Eine Ausgestaltung besteht ferner darin, daß von der
Entscheidungseinheit zur Bestimmung der Reihenfolge von
vertikaler und horizontaler Transformation mindestens einer
der folgenden Mechanismen berücksichtigt wird:
- a) Bei einer Übertragung im Zeilensprungverfahren (interlaced) wird nur jede zweite Zeile eines Bildes dargestellt (und übertragen). Durch ein Abwechseln der jeweils anderen zweiten Zeilen entstehen zeitversetzt Bilder, die Bewegtbilder darstellen, wobei sich die Zeilen jeweils zweier zeitlich aufeinanderfolgender Bilder zu einem Vollbild ergänzen. In der Entscheidungseinheit wird z. B. anhand des Bildheaders ermittelt, ob eine solche Übertragung in Zeilensprungverfahren vorliegt. Liegt ein Zeilensprungverfahren vor, so wird zuerst die horizontale und anschließend die vertikale Transformation durchgeführt. Dabei wird ausgenutzt, daß bei dem Zeilensprungverfahren nur jede zweite Zeile übertragen wird und somit die Korrelation von Bildpunkten innerhalb einer Zeile höher ist als entlang einer Spalte.
- b) Ein anderer Mechanismus besteht darin, daß, wie oben beschrieben, zuerst diejenige Transformation durchgeführt wird, entlang deren Richtung die Korrelation der zu transformierenden Bildpunkte des Bildbereichs größer ist.
Eine andere Weiterbildung besteht darin, daß bei der
Transformation eine zusätzliche Dimension berücksichtigt
wird, wobei diese zusätzliche Dimension im Hinblick auf die
Korrelation der Bildpunkte in der zusätzlichen Dimension hin
untersucht wird. Ein Beispiel besteht darin, daß die
zusätzliche Dimension eine Zeitachse ist (3D-Transformation).
Eine weitere Ausgestaltung besteht darin, daß von der
Entscheidungseinheit eine Seiteninformation erzeugt wird, in
der die Reihenfolge der Transformationen enthalten ist. Die
Seiteninformation entspricht dabei einem Signal, das
vorzugsweise an einen Empfänger (Decoder) übertragen wird und
anhand dessen dieser Empfänger in der Lage ist, die
Information über die Reihenfolge der Transformationen zu
entnehmen. Diese Reihenfolge ist bei der inversen Operation
der Decodierung entsprechend zu berücksichtigen.
Im Rahmen einer anderen Weiterbildung geht aus der
horizontalen Transformation die vertikale Transformation
hervor, indem vor der Transformation eine Spiegelung an einer
45°-Achse durchgeführt wird. Entsprechend geht aus der
vertikalen Transformation eine horizontale Transformation
hervor. Durch die Spiegelung wird (virtuell) die
Transformationsreihenfolge vertauscht.
Das Verfahren eignet sich zum Einsatz in einem Coder zur
Kompression von Bilddaten, z. B. einem MPEG-Bildcoder. Ein
entsprechender Decoder wird vorzugsweise erweitert um eine
Auswertemöglichkeit des Seiteninformationssignals, um bei der
Decodierung des Bildbereichs die richtige Reihenfolge von
vertikaler und horizontaler Transformation (bzw. die jeweils
dazu inverse Operation) durchführen zu können.
Vorzugsweise arbeiten Coder und Decoder nach einem MPEG-
Standard oder nach einem H.26x-Standard.
Eine Weiterbildung besteht darin, daß die Transformation eine
DCT-Transformation bzw. eine dazu inverse IDCT-Transformation
ist.
Weiterhin wird zur Lösung der Aufgabe eine Anordnung zur
Transformation eines Bildbereichs angegeben mit einer
Entscheidungseinheit, anhand derer eine vertikale
Transformation des Bildbereichs und anschließend eine
horizontale Transformation des Bildbereichs oder umgekehrt
zuerst die horizontale Transformation und danach die
vertikale Transformation des Bildbereichs durchführbar sind.
Diese Anordnung ist insbesondere geeignet zur Durchführung
des erfindungsgemäßen Verfahrens oder einer seiner vorstehend
erläuterten Weiterbildungen.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand
der Zeichnungen dargestellt und erläutert.
Es zeigen
Fig. 1 eine Skizze, die Schritte einer Transformation eines
Bildbereichs darstellt;
Fig. 2 eine Skizze, die eine Entscheidungseinheit und die
daraus generierten Signale/Werte darstellt;
Fig. 3 eine Skizze, die einen Sender und Empfänger zur
Bildkompression darstellt;
Fig. 4 eine Skizze mit einem Bildcoder und einem Bilddecoder
in höherer Detaillierung;
Fig. 5 eine mögliche Ausprägung der Entscheidungseinheit in
Form einer Prozessoreinheit.
In Fig. 1 sind Schritte einer Transformation, insbesondere
einer DCT-Transformation für einen vorgegebenen Bildbereich,
welcher Bildbereich eine unregelmäßige Struktur aufweist,
dargestellt. Ein Schritt 101 zeigt die unregelmäßige Struktur
des Bildbereichs in einem Zeilensprungverfahren, angedeutet
durch jede zweite belegte Zeile. Der Bildbereich wird dabei
zusammengesetzt aus den Zeilen 105, 106, 107 und 108. In
einem Schritt 102 ist das tatsächlich im
Zeilensprungverfahren dargestellte Bild gezeigt, das wiederum
die Zeilen 105 bis 108 aufweist. Die Korrelation dieses
Bildbereiches mit unregelmäßiger Struktur ist entlang der
Zeilen besonders hoch. Entsprechend werden bei dem
Zeilensprungverfahren zuerst die Zeilen transformiert nachdem
sie zuvor entlang einer vertikalen Linie 109 ausgerichtet
wurden. Durch die Ausrichtung ergibt sich eine
spaltenbezogene Verschiebung nebeneinanderliegender
Bildpunkte. Die vertikale Transformation erfolgt in dem
Schritt 103. Zuvor wird eine horizontale Ausrichtung entlang
einer horizontalen Linie 110 durchgeführt.
Auch wäre es möglich, eine Transformation entlang einer
Zeitachse (zusätzlich) zu berücksichtigen. So kann der
Schritt 101 auch interpretiert werden als eine Darstellung
mehrerer Zeilen 105 bis 108 bzw. mehrerer Bildbereiche 105
bis 108, die entlang einer Zeitachse 111 zu jeweils
verschiedenen Zeitpunkten abgetastet werden. Die
Ortsinformation in den jeweiligen Zeilen 105 bis 108 bzw. den
jeweiligen Bildbereichen 105 bis 108 ist hoch, wohingegen
durch die Abtastung entlang der Zeitachse 111 in Richtung der
Zeitdimension niedrigere Korrelationen zwischen den einzelnen
Zeilen 105 bis 108 bzw. Bildbereichen 105 bis 108 gegeben
sind.
In Fig. 2 ist eine Skizze dargestellt, die eine
Entscheidungseinheit und die daraus generierten Signale/
Werte darstellt. Ein Eingangssignal oder mehrere
Eingangssignale 200 dienen der Entscheidungseinheit 201 zur
Ermittlung, welche von mehreren Transformationen (horizontal,
vertikal, zeitlich) in welcher Reihenfolge durchgeführt
werden sollen, um jeweils die Korrelationen im Orts- oder
Zeitbereich möglichst gut auszunutzen, d. h. hohe
Korrelationen derart zu berücksichtigen, daß eine zugehörige
Transformation zuerst durchgeführt wird. Als Beispiel dient
das in Fig. 1 diskutierte Zeilensprungverfahren, anhand
dessen die Entscheidungseinheit 201 die horizontale
Transformation vor der vertikalen Transformation durchführt.
Die eigentlichen Transformationen werden in einer Einheit 202
durchgeführt, worin ebenfalls eine Ausrichtung der
Bildbereiche erfolgt. Die sich ergebenden Koeffizienten 203
sind das Ergebnis der Transformationseinheit 202 (vergleiche
auch Darstellung im Schritt 104). Ferner wird von der
Entscheidungseinheit 201 eine Seiteninformation 203 erzeugt,
die die Reihenfolge der durchzuführenden Transformationen
beinhaltet.
Die in Fig. 2 dargestellte Anordnung ist insbesondere Teil
eines Senders (Coders) 301, wie er in Fig. 3 gezeigt ist. Von
dem Sender 301 werden Bilddaten 303, vorzugsweise in
komprimierter Form, zu einem Empfänger (Decoder) 302
übertragen. Die in Fig. 2 beschriebene Seiteninformation 203
wird ebenfalls (hier gekennzeichnet durch eine Verbindung
304) von dem Sender 301 zu dem Empfänger 302 übertragen. Dort
wird die Seiteninformation 304 decodiert und daraus die
Information über die Reihenfolge der Transformationen
erhalten.
Auch sei darauf hingewiesen, daß es prinzipiell zwei
Möglichkeiten zur Durchführung der Transformationen gibt:
Entweder werden tatsächlich beide Transformationen (horizontal und vertikal) vertauscht. Dies führt programmtechnisch zu einem nicht unerheblichen Aufwand. Alternativ dazu kann die Reihenfolge der Transformationen festgelegt werden (anhand der Entscheidungseinheit 201), wobei die vertikale Transformation aus der horizontalen Transformation hervorgeht, indem der Bildbereich an einer 45°-Achse (links oben nach rechts unten) gespiegelt wird. Durch die Spiegelung wird (virtuell) die Transformationsreihenfolge vertauscht. Entsprechend ist die Spiegelungsoperation auf Seiten des Empfängers 302 zu berücksichtigen.
Entweder werden tatsächlich beide Transformationen (horizontal und vertikal) vertauscht. Dies führt programmtechnisch zu einem nicht unerheblichen Aufwand. Alternativ dazu kann die Reihenfolge der Transformationen festgelegt werden (anhand der Entscheidungseinheit 201), wobei die vertikale Transformation aus der horizontalen Transformation hervorgeht, indem der Bildbereich an einer 45°-Achse (links oben nach rechts unten) gespiegelt wird. Durch die Spiegelung wird (virtuell) die Transformationsreihenfolge vertauscht. Entsprechend ist die Spiegelungsoperation auf Seiten des Empfängers 302 zu berücksichtigen.
Fig. 4 zeigt einen Bildcoder mit einem zugehörigen Bilddecoder
in höherem Detaillierungsgrad (blockbasiertes
Bildcodierverfahrens gemäß H.263-Standard).
Ein zu codierender Videodatenstrom mit zeitlich
aufeinanderfolgenden digitalisierten Bildern wird einer
Bildcodierungseinheit 201 zugeführt. Die digitalisierten
Bilder sind unterteilt in Makroblöcke 202, wobei jeder
Makroblock 16 × 16 Bildpunkte hat. Der Makroblock 202 umfaßt 4
Bildblöcke 203, 204, 205 und 206, wobei jeder Bildblock 8 × 8
Bildpunkte, denen Luminanzwerte (Helligkeitswerte) zugeordnet
sind, enthält. Weiterhin umfaßt jeder Makroblock 202 zwei
Chrominanzblöcke 207 und 208 mit den Bildpunkten zugeordneten
Chrominanzwerten (Farbinformation, Farbsättigung).
Der Block eines Bildes enthält einen Luminanzwert
(= Helligkeit), einen ersten Chrominanzwert (= Farbton) und
einen zweiten Chrominanzwert (= Farbsättigung). Dabei werden
Luminanzwert, erster Chrominanzwert und zweiter
Chrominanzwert als Farbwerte bezeichnet.
Die Bildblöcke werden einer Transformationscodierungseinheit
209 zugeführt. Bei einer Differenzbildcodierung werden zu
codierende Werte von Bildblöcken zeitlich vorangegangener
Bilder von den aktuell zu codierenden Bildblöcken abgezogen,
es wird nur die Differenzbildungsinformation 210 der Trans
formationscodierungseinheit (Diskrete Cosinus Transformation,
DCT) 209 zugeführt. Dazu wird über eine Verbindung 234 der
aktuelle Makroblock 202 einer Bewegungsschätzungseinheit 229
mitgeteilt. In der Transformationscodierungseinheit 209
werden für die zu codierenden Bildblöcke bzw.
Differenzbildblöcke Spektralkoeffizienten 211 gebildet und
einer Quantisierungseinheit 212 zugeführt. Diese
Quantisierungseinheit 212 entspricht der erfindungsgemäßen
Vorrichtung zur Quantisierung.
Quantisierte Spektralkoeffizienten 213 werden sowohl einer
Scaneinheit 214 als auch einer inversen Quantisierungseinheit
215 in einem Rückwärtspfad zugeführt. Nach einem
Scanverfahren, z. B. einem "zigzag"-Scanverfahren, wird auf
den gescannten Spektralkoeffizienten 232 eine
Entropiecodierung in einer dafür vorgesehenen
Entropiecodierungseinheit 216 durchgeführt. Die
entropiecodierten Spektralkoeffizienten werden als codierte
Bilddaten 217 über einen Kanal, vorzugsweise eine Leitung
oder eine Funkstrecke, zu einem Decoder übertragen.
In der inversen Quantisierungseinheit 215 erfolgt eine
inverse Quantisierung der quantisierten Spektralkoeffizienten
213. So gewonnene Spektralkoeffizienten 218 werden einer
inversen Transformationscodierungseinheit 219 (Inverse
Diskrete Cosinus Transformation, IDCT) zugeführt.
Rekonstruierte Codierungswerte (auch Differenzcodierungs
werte) 220 werden im Differenzbildmodus einen Addierer 221
zugeführt. Der Addierer 221 erhält ferner Codierungswerte
eines Bildblocks, die sich aus einem zeitlich vorangegangenen
Bild nach einer bereits durchgeführten Bewegungskompensation
ergeben. Mit dem Addierer 221 werden rekonstruierte
Bildblöcke 222 gebildet und in einem Bildspeicher 223
abgespeichert.
Chrominanzwerte 224 der rekonstruierten Bildblöcke 222 werden
aus dem Bildspeicher 223 einer Bewegungskompensationseinheit
225 zugeführt. Für Helligkeitswerte 226 erfolgt eine
Interpolation in einer dafür vorgesehenen
Interpolationseinheit 227. Anhand der Interpolation wird die
Anzahl in dem jeweiligen Bildblock enthaltener
Helligkeitswerte vorzugsweise verdoppelt. Alle
Helligkeitswerte 228 werden sowohl der
Bewegungskompensationseinheit 225 als auch der
Bewegungsschätzungseinheit 229 zugeführt. Die
Bewegungsschätzungseinheit 229 erhält außerdem die Bildblöcke
des jeweils zu codierenden Makroblocks (16 × 16 Bildpunkte)
über die Verbindung 234. In der Bewegungsschätzungseinheit
229 erfolgt die Bewegungsschätzung unter Berücksichtigung der
interpolierten Helligkeitswerte ("Bewegungsschätzung auf
Halbpixelbasis"). Vorzugsweise werden bei der
Bewegungsschätzung absolute Differenzen der einzelnen
Helligkeitswerte in dem aktuell zu codierenden Makroblock 202
und dem rekonstruierten Makroblock aus dem zeitlich
vorangegangenen Bild ermittelt.
Das Ergebnis der Bewegungsschätzung ist ein Bewegungsvektor
230, durch den eine örtliche Verschiebung des ausgewählten
Makroblocks aus dem zeitlich vorangegangenen Bild zu dem zu
codierenden Makroblock 202 zum Ausdruck kommt.
Sowohl Helligkeitsinformation als auch Chrominanzinformation
bezogen auf den durch die Bewegungsschätzungseinheit 229
ermittelten Makroblock werden um den Bewegungsvektor 230
verschoben und von den Codierungswerten des Makroblocks 202
subtrahiert (siehe Datenpfad 231).
Fig. 5 zeigt eine Prozessoreinheit PRZE, die geeignet ist zur
Durchführung von Transformation und/oder
Kompression/Dekompression. Die Prozessoreinheit PRZE umfaßt
einen Prozessor CPU, einen Speicher SPE und eine
Input/Output-Schnittstelle IOS, die über ein Interface IFC
auf unterschiedliche Art und Weise genutzt wird: Über eine
Grafikschnittstelle wird eine Ausgabe auf einem Monitor MON
sichtbar und/oder auf einem Drucker PRT ausgegeben. Eine
Eingabe erfolgt über eine Maus MAS oder eine Tastatur TAST.
Auch verfügt die Prozessoreinheit PRZE über einen Datenbus
BUS, der die Verbindung von einem Speicher MEM, dem Prozessor
CPU und der Input/Output-Schnittstelle IOS gewährleistet.
Weiterhin sind an den Datenbus BUS zusätzliche Komponenten
anschließbar, z. B. zusätzlicher Speicher, Datenspeicher
(Festplatte) oder Scanner.
[1] J. De Lameillieure, R. Schäfer: "MPEG-2-Bildcodierung für
das digitale Fernsehen", Fernseh- und Kino-Technik,
48. Jahrgang, Nr. 3/1994, Seiten 99-107.
Claims (14)
1. Verfahren zur Transformation eines Bildbereichs,
bei dem abhängig von einer Entscheidungseinheit zuerst
eine vertikale Transformation des Bildbereichs und
anschließend eine horizontale Transformation des
Bildbereichs oder umgekehrt zuerst die horizontale
Transformation und danach die vertikale Transformation
durchgeführt werden.
2. Verfahren nach Anspruch 1,
bei dem der Bildbereich eine unregelmäßige Struktur
aufweist.
3. Verfahren nach Anspruch 1 oder 2,
- a) bei dem vor oder nach der vertikalen Transformation eine Ausrichtung des Bildbereichs entlang einer horizontalen Linie erfolgt;
- b) bei dem vor oder nach der horizontalen Transformation eine Ausrichtung des Bildbereichs entlang einer vertikalen Linie erfolgt.
4. Verfahren nach einem der Ansprüche 1 bis 3,
bei dem von der Entscheidungseinheit mindestens einer der
folgenden Mechanismen durchgeführt werden:
- a) falls der Bildbereich im Zeilensprungverfahren vorliegt, wird zuerst die horizontale und anschließend die vertikale Transformation durchgeführt;
- b) es wird zuerst diejenige (horizontale oder vertikale) Transformation durchgeführt entlang derer eine Korrelation von Bildpunkten des Bildbereichs stärker ist.
5. Verfahren nach einem der vorhergehenden Ansprüche,
bei dem bei der Transformation eine zusätzliche Dimension
berücksichtigt wird.
6. Verfahren nach Anspruch 5,
bei dem die zusätzliche Transformation entlang einer
Zeitdimension durchgeführt wird.
7. Verfahren nach einem der vorhergehenden Ansprüche,
bei dem von der Entscheidungseinheit eine
Seiteninformation erzeugt wird, in der die Reihenfolge
der Transformationen enthalten ist.
8. Verfahren nach einem der vorhergehenden Ansprüche,
bei dem die horizontale Transformation aus der vertikalen
Transformation hervorgeht, indem vor der Transformation
eine Spiegelung an einer 45-Grad-Achse durchgeführt wird.
9. Verfahren nach einem der vorhergehenden Ansprüche,
bei dem die vertikale Transformation aus der horizontalen
Transformation hervorgeht, indem vor der Transformation
eine Spiegelung an einer 45-Grad-Achse durchgeführt wird.
10. Verfahren nach einem der vorhergehenden Ansprüche
zum Einsatz in einem Coder zur Kompression von Bilddaten.
11. Verfahren nach einem der Ansprüche 7 bis 10,
bei dem die Seiteninformation in einem Decoder zur
Dekompression des Bildbereichs eingesetzt wird.
12. Verfahren nach Anspruch 10 oder 11,
bei dem Arbeitsweisen des Coders und/oder des Decoders
nach einem MPEG-Standard oder nach einem H.26x-Standard
bestimmt sind.
13. Verfahren nach einem der vorhergehenden Ansprüche,
bei dem die Transformation eine DCT-Transformation bzw.
eine dazu inverse IDCT-Transformation ist.
14. Anordnung zur Transformation eines Bildbereichs,
mit einer Entscheidungseinheit, die derart eingerichtet
ist, daß abhängig von einem von der Entscheidungseinheit
ermittelten Wert zuerst eine vertikale Transformation des
Bildbereichs und anschließend eine horizontale
Transformation des Bildbereichs oder umgekehrt zuerst die
horizontale Transformation und danach die vertikale
Transformation durchführbar sind.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19903859A DE19903859A1 (de) | 1999-02-01 | 1999-02-01 | Verfahren und Anordnung zur Transformation eines Bildbereichs |
PCT/DE2000/000278 WO2000046998A1 (de) | 1999-02-01 | 2000-02-01 | Verfahren und anordnung zur transformation eines bildbereichs |
KR1020017009697A KR20010101916A (ko) | 1999-02-01 | 2000-02-01 | 픽쳐 영역 변환을 위한 방법 및 장치 |
CN00803213A CN1339225A (zh) | 1999-02-01 | 2000-02-01 | 图像域的变换方法和装置 |
JP2000597962A JP2002536926A (ja) | 1999-02-01 | 2000-02-01 | 画像領域を変換する方法および装置 |
EP00906176A EP1157557A1 (de) | 1999-02-01 | 2000-02-01 | Verfahren und anordnung zur transformation eines bildbereichs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19903859A DE19903859A1 (de) | 1999-02-01 | 1999-02-01 | Verfahren und Anordnung zur Transformation eines Bildbereichs |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19903859A1 true DE19903859A1 (de) | 2000-09-21 |
Family
ID=7895990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19903859A Withdrawn DE19903859A1 (de) | 1999-02-01 | 1999-02-01 | Verfahren und Anordnung zur Transformation eines Bildbereichs |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP1157557A1 (de) |
JP (1) | JP2002536926A (de) |
KR (1) | KR20010101916A (de) |
CN (1) | CN1339225A (de) |
DE (1) | DE19903859A1 (de) |
WO (1) | WO2000046998A1 (de) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013107719B4 (de) | 2013-07-19 | 2015-08-13 | Deutsche Telekom Ag | Verfahren und Vorrichtung zur blockbasierten Dekorrelation von Bildsignalen |
US10904563B2 (en) * | 2019-01-02 | 2021-01-26 | Tencent America LLC | Method and apparatus for improved zero out transform |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5126962A (en) * | 1990-07-11 | 1992-06-30 | Massachusetts Institute Of Technology | Discrete cosine transform processing system |
DE4437827A1 (de) * | 1994-10-14 | 1996-04-18 | Hertz Inst Heinrich | Schaltungsanordnung für ein Fernsehsystem, das transformationskodierte digitale Bilddaten verwendet |
-
1999
- 1999-02-01 DE DE19903859A patent/DE19903859A1/de not_active Withdrawn
-
2000
- 2000-02-01 EP EP00906176A patent/EP1157557A1/de not_active Withdrawn
- 2000-02-01 CN CN00803213A patent/CN1339225A/zh active Pending
- 2000-02-01 JP JP2000597962A patent/JP2002536926A/ja not_active Withdrawn
- 2000-02-01 KR KR1020017009697A patent/KR20010101916A/ko not_active Application Discontinuation
- 2000-02-01 WO PCT/DE2000/000278 patent/WO2000046998A1/de not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
WO2000046998A1 (de) | 2000-08-10 |
KR20010101916A (ko) | 2001-11-15 |
CN1339225A (zh) | 2002-03-06 |
EP1157557A1 (de) | 2001-11-28 |
JP2002536926A (ja) | 2002-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69320719T2 (de) | Effiziente, frequenzskalierbare Videokodierung mit Koeffizientenwahl | |
DE69837003T2 (de) | Vorrichtung und verfahren zur optimierung der bitratensteurung in einem kodiersystem | |
DE69320731T2 (de) | Raum- und Frequenzhybridkodierung eines Videosignals zur Vereinfachung der Bildung von Bildern variabler Auflösung | |
DE69803821T2 (de) | Verfahren zur rechnerisch graziösen Degradierung in einem audio-visuellen Kompressionssystem | |
DE69422564T2 (de) | Verfahren zur halbpixel Bewegungskompensation in Bilddekodierung | |
DE69223560T2 (de) | Einrichtung zur Verminderung von Quantisierungsstörungen in einem Zwischenbild-Hybrid-Kodierungssystem mit Bewegungskompensation | |
DE69323156T2 (de) | Bilddatenkomprimierungs/Dekomprimierungssystem | |
DE69624669T2 (de) | Videokodierer und -dekodierersystem und -methoden | |
DE69312124T2 (de) | Videocodec, insbesondere für ein Bildtelefon | |
EP1025708B1 (de) | Verfahren und vorrichtung zur verarbeitung eines digitalisierten bildes | |
DE69915843T2 (de) | Teilbandkodierung/-dekodierung | |
DE69711736T2 (de) | Adaptive Postfilterung für ein Bildfernsprechsystem mit niedriger Bitrate | |
EP0346637B1 (de) | Verfahren zur Aufbereitung und Übertragung einer Bildsequenz | |
EP1101196B1 (de) | Verfahren und anordnung zur bewegungsschätzung in einem digitalisierten bild mit bildpunkten | |
DE10022520A1 (de) | Verfahren zur örtlichen skalierbaren Bewegtbildcodierung | |
EP1285537B1 (de) | Verfahren und eine anordnung zur codierung bzw. decodierung einer folge von bildern | |
EP1110407B1 (de) | Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes mit anwendung eines gesamtbewegungsvektors | |
DE19951341B4 (de) | Verfahren zur bewegungskompensierenden Prädiktion von Bewegtbildern sowie Einrichtung hierzu | |
DE69909880T2 (de) | Dekodierung eines komprimierten digitalen Bildsignals | |
DE19749604A1 (de) | Verfahren zum Kodieren eines Modus beim Kodieren binärer Formen | |
EP0346636B1 (de) | Verfahren zur Aufbereitung und Übertragung einer Bildsequenz | |
DE19903859A1 (de) | Verfahren und Anordnung zur Transformation eines Bildbereichs | |
DE69923725T2 (de) | Verfahren und Gerät für die Herausziehung von Farbkonturinformation aus Videohalbbildern | |
WO2001049038A1 (de) | Verfahren, anordnung und computerprogrammerzeugnis zur prädiktion bei der codierung eines in bildblöcke unterteilten bildes | |
WO2001062009A1 (de) | Verfahren und anordnung zur kodierung bzw. zur kodierung und dekodierung einer zahlenfolge |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8130 | Withdrawal |