DE19903859A1 - Verfahren und Anordnung zur Transformation eines Bildbereichs - Google Patents

Verfahren und Anordnung zur Transformation eines Bildbereichs

Info

Publication number
DE19903859A1
DE19903859A1 DE19903859A DE19903859A DE19903859A1 DE 19903859 A1 DE19903859 A1 DE 19903859A1 DE 19903859 A DE19903859 A DE 19903859A DE 19903859 A DE19903859 A DE 19903859A DE 19903859 A1 DE19903859 A1 DE 19903859A1
Authority
DE
Germany
Prior art keywords
transformation
image area
horizontal
vertical
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19903859A
Other languages
English (en)
Inventor
Andre Kaup
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19903859A priority Critical patent/DE19903859A1/de
Priority to PCT/DE2000/000278 priority patent/WO2000046998A1/de
Priority to KR1020017009697A priority patent/KR20010101916A/ko
Priority to CN00803213A priority patent/CN1339225A/zh
Priority to JP2000597962A priority patent/JP2002536926A/ja
Priority to EP00906176A priority patent/EP1157557A1/de
Publication of DE19903859A1 publication Critical patent/DE19903859A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Es wird ein Verfahren zur Transformation eines Bildbereichs angegeben, bei dem von einer Entscheidungseinheit zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchgeführt werden.

Description

Die Erfindung betrifft ein Verfahren und eine Anordnung zur Transformation eines Bildbereichs.
Ein solches Verfahren mit dazugehöriger Anordnung ist bekannt aus [1]. Das bekannte Verfahren dient im MPEG-Standard als Codierverfahren und basiert im wesentlichen auf der hybriden DCT (Diskreten Cosinus Transformation) mit Bewegungs­ kompensation. Ein ähnliches Verfahren wird für die Bildtelefonie mit n × 64 kbit/s (CCITT-Empfehlung H.261), für die TV-Kontribution (CCR-Empfehlung 723) mit 34 bzw. 45 Mbit/s und für Multimedia-Applikationen mit 1,2 Mbit/s (ISO-MPEG-1) verwendet. Die hybride DCT besteht aus einer zeitlichen Verarbeitungsstufe, die die Verwandtschaftsbeziehungen aufeinanderfolgender Bilder ausnutzt, und einer örtlichen Verarbeitungsstufe, die die Korrelation innerhalb eines Bildes ausnutzt.
Die örtliche Verarbeitung (Intraframe-Codierung) entspricht im wesentlichen der klassischen DCT-Codierung. Das Bild wird in Blöcke von 8 × 8 Bildpunkten zerlegt, die jeweils mittels DCT in den Frequenzbereich transformiert werden. Das Ergebnis ist eine Matrix von 8 × 8 Koeffizienten, die näherungsweise die zweidimensionalen Ortsfrequenzen im transformierten Bildblock widerspiegeln. Ein Koeffizient mit Frequenz 0 (Gleichanteil) stellt einen mittleren Grauwert des Bildblocks dar.
Nach der Transformation findet eine Datenexpansion statt. Allerdings wird in natürlichen Bildvorlagen eine Konzentration der Energie um den Gleichanteil (DC-Wert) stattfinden, während die höchstfrequenten Koeffizienten meist Null sind.
In einem nächsten Schritt erfolgt eine spektrale Gewichtung der Koeffizienten, so daß die Amplitudengenauigkeit der hochfrequenten Koeffizienten verringert wird. Hierbei nützt man die Eigenschaften des menschlichen Auges aus, das hohe Ortsfrequenzen weniger genau auflöst als niedrige.
Ein zweiter Schritt der Datenreduktion erfolgt in Form einer adaptiven Quantisierung, durch die die Amplitudengenauigkeit der Koeffizienten weiter verringert wird bzw. durch die die kleinen Amplituden zu Null gesetzt werden. Das Maß der Quantisierung hängt dabei vom Füllstand des Ausgangspuffers ab: Bei leerem Puffer erfolgt eine feine Quantisierung, so daß mehr Daten erzeugt werden, während bei vollem Puffer gröber quantisiert wird, wodurch sich die Datenmenge reduziert.
Nach der Quantisierung wird der Block diagonal abgetastet ("zigzag"-Scanning), anschließend erfolgt eine Entropiecodierung, die die eigentliche Datenreduktion bewirkt. Hierfür werden zwei Effekte ausgenutzt:
  • 1. Die Statistik der Amplitudenwerte (hohe Amplitudenwerte treten seltener auf als kleine), so daß den seltenen Ereignissen lange und den häufigen Ereignissen kurze Codewörter zugeordnet werden (Variable-Length-Codierung, VLC). Auf diese Weise ergibt sich im Mittel eine geringere Datenrate als bei einer Codierung mit fester Wortlänge. Die variable Rate der VLC wird anschließend im Pufferspeicher geglättet.
  • 2. Man nutzt die Tatsache aus, daß von einem bestimmten Wert an in den meisten Fällen nur noch Nullen folgen. Statt aller dieser Nullen überträgt man lediglich einen EOB-Code (End Of Block), was zu einem signifikanten Codiergewinn bei der Kompression der Bilddaten führt. Statt der Ausgangsrate von 512 bit sind in dem angegebenen Beispiel nur 46 bit für diesen Block zu übertragen, was einem Kompressionsfaktor von über 11 entspricht.
Einen weiteren Kompressionsgewinn erhält man durch die zeitliche Verarbeitung (Interframe-Codierung). Zur Codierung von Differenzbildern wird weniger Datenrate benötigt als für die Originalbilder, denn die Amplitudenwerte sind weitaus geringer.
Allerdings sind die zeitlichen Differenzen nur klein, wenn auch die Bewegungen im Bild gering sind. Sind hingegen die Bewegungen im Bild groß, so entstehen große Differenzen, die wiederum schwer zu codieren sind. Aus diesem Grund wird die Bild-zu-Bild-Bewegung gemessen (Bewegungsschätzung) und vor der Differenzbildung kompensiert (Bewegungskompensation). Dabei wird die Bewegungsinformation mit der Bildinformation übertragen, wobei üblicherweise nur ein Bewegungsvektor pro Makroblock (z. B. vier 8 × 8-Bildblöcke) verwendet wird.
Noch kleinere Amplitudenwerte der Differenzbilder werden erhalten, wenn statt der verwendeten Prädiktion eine bewegungskompensierte bidirektionale Prädiktion benutzt wird.
Bei einem bewegungskompensierten Hybridcoder wird nicht das Bildsignal selbst transformiert, sondern das zeitliche Differenzsignal. Aus diesem Grund verfügt der Coder auch über eine zeitliche Rekursionsschleife, denn der Prädiktor muß den Prädiktionswert aus den Werten der bereits übertragenen (codierten) Bilder berechnen. Eine identische zeitliche Rekursionsschleife befindet sich im Decoder, so daß Coder und Decoder völlig synchronisiert sind.
Im MPEG-2-Codierverfahren gibt es hauptsächlich drei verschiedene Methoden, mit denen Bilder verarbeitet werden können:
I-Bilder: Bei den I-Bildern wird keine zeitliche Prädiktion verwendet, d. h., die Bildwerte werden direkt transformiert und codiert, wie in Bild 1 dargestellt. I-Bilder werden verwendet, um den Decodiervorgang ohne Kenntnis der zeitlichen Vergangenheit neu beginnen zu können, bzw. um eine Resynchronisation bei Übertragungsfehlern zu erreichen.
P-Bilder: Anhand der P-Bilder wird eine zeitliche Prädiktion vorgenommen, die DCT wird auf den zeitlichen Prädiktionsfehler angewandt.
B-Bilder: Bei den B-Bildern wird der zeitliche bidirektionale Prädiktionsfehler berechnet und anschließend transformiert. Die bidirektionale Prädiktion arbeitet grundsätzlich adaptiv, d. h. es wird eine Vorwärtsprädiktion, eine Rückwärtsprädiktion oder eine Interpolation zugelassen.
Ein Bildsequenz wird bei der MPEG-2-Codierung in sog. GOPs (Group Of Pictures) eingeteilt. n Bilder zwischen zwei I-Bildern bilden eine GOP. Der Abstand zwischen den P-Bildern wird mit m bezeichnet, wobei sich jeweils m-1 B-Bilder zwischen den P-Bildern befinden. Die MPEG-Syntax überläßt es jedoch dem Anwender, wie m und n gewählt werden. m = 1 bedeutet, daß keine B-Bilder verwendet werden, und n = 1 bedeutet, daß nur I-Bilder codiert werden.
Bevorzugt erfolgt im Rahmen der DCT-Transformation auf Seite des Encoders eine spalten- bzw. zeilenweise Transformation. Dabei erfolgt die Art der Transformation für alle Bilddaten gleich, was für bestimmte Bilddaten von Nachteil ist.
Die Aufgabe der Erfindung besteht darin, einen Bildbereich zu transformieren, wobei die Reihenfolge von vertikaler und horizontaler Transformation von vorgegebenen Bedingungen abhängt, die gezielt berücksichtigt werden.
Dabei kann eine deutliche Verbesserung der Bildqualität erreicht werden.
Diese Aufgabe wird gemäß den Merkmalen der unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung ergeben sich auch aus den abhängigen Ansprüchen.
Zur Lösung der Aufgabe wird ein Verfahren zur Transformation eines Bildbereichs angegeben, bei dem von einer Entscheidungseinheit zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchgeführt werden.
Eine Weiterbildung besteht darin, daß der Bildbereich eine unregelmäßige Struktur aufweist.
Dabei ist es insbesondere von Vorteil, daß, abhängig von einem vorgegebenen oder einem ermittelten Wert in der Entscheidungseinheit bzw. von der Entscheidungseinheit, die Reihenfolge der Transformationen ermittelt werden kann. So kann, abhängig von dem zu transformierenden Bildbereich und speziellen für ihn kennzeichnenden Merkmalen, die Reihenfolge von horizontaler und vertikaler Transformation durch die Entscheidungseinheit so vorgegeben werden, daß im Hinblick auf die Kompression des Bildbereichs ein möglichst gutes Ergebnis erzielt wird.
Insbesondere bei einer unregelmäßigen Struktur des Bildbereichs ist die Reihenfolge der Transformationen entscheidend, da nach jeder vertikalen oder horizontalen Transformation eine Umsortierung von Bildpunkten des unregelmäßigen Bildbereichs erfolgt und dadurch eine Korrelation der Bildpunkte im Ortsbereich verlorengehen kann. Eine solche Umsortierung kann insbesondere eine Ausrichtung entlang einer horizontalen oder einer vertikalen Achse (Linie) sein.
Von der Entscheidungseinheit wird vorzugsweise anhand spezieller Merkmale bzw. eines speziellen Merkmals des Bildbereichs, seiner Übertragungsart oder eines für ihn charakteristischen Merkmals die Reihenfolge der Transformationen ermittelt.
Eine Ausgestaltung besteht darin, daß die Ausrichtung des Bildbereichs entlang einer horizontalen Linie erfolgt bzw., daß die Ausrichtung entlang einer vertikalen Linie erfolgt. Dabei werden Bildpunkte der Zeilen des Bildbereichs an der vertikalen Linie ausgerichtet bzw. Bildpunkte der Spalten des Bildbereichs an der horizontalen Linie ausgerichtet. Insbesondere erfolgt nach jeder Transformation (vertikal oder horizontal) eine entsprechende Ausrichtung. Durch die Ausrichtung, d. h. die Verschiebung von Zeilen bzw. Spalten des Bildbereichs, geht eine Korrelation im Ortsbereich unter Umständen verloren (bei einer unregelmäßigen Struktur für den Bildbereich), da ursprünglich nebeneinander liegende Bildpunkte nach der Ausrichtung nicht mehr zwangsläufig nebeneinander liegen werden (z. B. Korrelation im Ortsbereich). Diese Information wird insbesondere benutzt, um die Entscheidung über die Reihenfolge der Transformationen innerhalb der Entscheidungseinheit dahingehend zu treffen, daß die Korrelation von im Orts- oder Zeitbereich nebeneinander liegenden Bildpunkten optimal ausgenutzt wird.
Eine Ausgestaltung besteht ferner darin, daß von der Entscheidungseinheit zur Bestimmung der Reihenfolge von vertikaler und horizontaler Transformation mindestens einer der folgenden Mechanismen berücksichtigt wird:
  • a) Bei einer Übertragung im Zeilensprungverfahren (interlaced) wird nur jede zweite Zeile eines Bildes dargestellt (und übertragen). Durch ein Abwechseln der jeweils anderen zweiten Zeilen entstehen zeitversetzt Bilder, die Bewegtbilder darstellen, wobei sich die Zeilen jeweils zweier zeitlich aufeinanderfolgender Bilder zu einem Vollbild ergänzen. In der Entscheidungseinheit wird z. B. anhand des Bildheaders ermittelt, ob eine solche Übertragung in Zeilensprungverfahren vorliegt. Liegt ein Zeilensprungverfahren vor, so wird zuerst die horizontale und anschließend die vertikale Transformation durchgeführt. Dabei wird ausgenutzt, daß bei dem Zeilensprungverfahren nur jede zweite Zeile übertragen wird und somit die Korrelation von Bildpunkten innerhalb einer Zeile höher ist als entlang einer Spalte.
  • b) Ein anderer Mechanismus besteht darin, daß, wie oben beschrieben, zuerst diejenige Transformation durchgeführt wird, entlang deren Richtung die Korrelation der zu transformierenden Bildpunkte des Bildbereichs größer ist.
Eine andere Weiterbildung besteht darin, daß bei der Transformation eine zusätzliche Dimension berücksichtigt wird, wobei diese zusätzliche Dimension im Hinblick auf die Korrelation der Bildpunkte in der zusätzlichen Dimension hin untersucht wird. Ein Beispiel besteht darin, daß die zusätzliche Dimension eine Zeitachse ist (3D-Transformation).
Eine weitere Ausgestaltung besteht darin, daß von der Entscheidungseinheit eine Seiteninformation erzeugt wird, in der die Reihenfolge der Transformationen enthalten ist. Die Seiteninformation entspricht dabei einem Signal, das vorzugsweise an einen Empfänger (Decoder) übertragen wird und anhand dessen dieser Empfänger in der Lage ist, die Information über die Reihenfolge der Transformationen zu entnehmen. Diese Reihenfolge ist bei der inversen Operation der Decodierung entsprechend zu berücksichtigen.
Im Rahmen einer anderen Weiterbildung geht aus der horizontalen Transformation die vertikale Transformation hervor, indem vor der Transformation eine Spiegelung an einer 45°-Achse durchgeführt wird. Entsprechend geht aus der vertikalen Transformation eine horizontale Transformation hervor. Durch die Spiegelung wird (virtuell) die Transformationsreihenfolge vertauscht.
Das Verfahren eignet sich zum Einsatz in einem Coder zur Kompression von Bilddaten, z. B. einem MPEG-Bildcoder. Ein entsprechender Decoder wird vorzugsweise erweitert um eine Auswertemöglichkeit des Seiteninformationssignals, um bei der Decodierung des Bildbereichs die richtige Reihenfolge von vertikaler und horizontaler Transformation (bzw. die jeweils dazu inverse Operation) durchführen zu können.
Vorzugsweise arbeiten Coder und Decoder nach einem MPEG- Standard oder nach einem H.26x-Standard.
Eine Weiterbildung besteht darin, daß die Transformation eine DCT-Transformation bzw. eine dazu inverse IDCT-Transformation ist.
Weiterhin wird zur Lösung der Aufgabe eine Anordnung zur Transformation eines Bildbereichs angegeben mit einer Entscheidungseinheit, anhand derer eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation des Bildbereichs durchführbar sind.
Diese Anordnung ist insbesondere geeignet zur Durchführung des erfindungsgemäßen Verfahrens oder einer seiner vorstehend erläuterten Weiterbildungen.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnungen dargestellt und erläutert.
Es zeigen
Fig. 1 eine Skizze, die Schritte einer Transformation eines Bildbereichs darstellt;
Fig. 2 eine Skizze, die eine Entscheidungseinheit und die daraus generierten Signale/Werte darstellt;
Fig. 3 eine Skizze, die einen Sender und Empfänger zur Bildkompression darstellt;
Fig. 4 eine Skizze mit einem Bildcoder und einem Bilddecoder in höherer Detaillierung;
Fig. 5 eine mögliche Ausprägung der Entscheidungseinheit in Form einer Prozessoreinheit.
In Fig. 1 sind Schritte einer Transformation, insbesondere einer DCT-Transformation für einen vorgegebenen Bildbereich, welcher Bildbereich eine unregelmäßige Struktur aufweist, dargestellt. Ein Schritt 101 zeigt die unregelmäßige Struktur des Bildbereichs in einem Zeilensprungverfahren, angedeutet durch jede zweite belegte Zeile. Der Bildbereich wird dabei zusammengesetzt aus den Zeilen 105, 106, 107 und 108. In einem Schritt 102 ist das tatsächlich im Zeilensprungverfahren dargestellte Bild gezeigt, das wiederum die Zeilen 105 bis 108 aufweist. Die Korrelation dieses Bildbereiches mit unregelmäßiger Struktur ist entlang der Zeilen besonders hoch. Entsprechend werden bei dem Zeilensprungverfahren zuerst die Zeilen transformiert nachdem sie zuvor entlang einer vertikalen Linie 109 ausgerichtet wurden. Durch die Ausrichtung ergibt sich eine spaltenbezogene Verschiebung nebeneinanderliegender Bildpunkte. Die vertikale Transformation erfolgt in dem Schritt 103. Zuvor wird eine horizontale Ausrichtung entlang einer horizontalen Linie 110 durchgeführt.
Auch wäre es möglich, eine Transformation entlang einer Zeitachse (zusätzlich) zu berücksichtigen. So kann der Schritt 101 auch interpretiert werden als eine Darstellung mehrerer Zeilen 105 bis 108 bzw. mehrerer Bildbereiche 105 bis 108, die entlang einer Zeitachse 111 zu jeweils verschiedenen Zeitpunkten abgetastet werden. Die Ortsinformation in den jeweiligen Zeilen 105 bis 108 bzw. den jeweiligen Bildbereichen 105 bis 108 ist hoch, wohingegen durch die Abtastung entlang der Zeitachse 111 in Richtung der Zeitdimension niedrigere Korrelationen zwischen den einzelnen Zeilen 105 bis 108 bzw. Bildbereichen 105 bis 108 gegeben sind.
In Fig. 2 ist eine Skizze dargestellt, die eine Entscheidungseinheit und die daraus generierten Signale/­ Werte darstellt. Ein Eingangssignal oder mehrere Eingangssignale 200 dienen der Entscheidungseinheit 201 zur Ermittlung, welche von mehreren Transformationen (horizontal, vertikal, zeitlich) in welcher Reihenfolge durchgeführt werden sollen, um jeweils die Korrelationen im Orts- oder Zeitbereich möglichst gut auszunutzen, d. h. hohe Korrelationen derart zu berücksichtigen, daß eine zugehörige Transformation zuerst durchgeführt wird. Als Beispiel dient das in Fig. 1 diskutierte Zeilensprungverfahren, anhand dessen die Entscheidungseinheit 201 die horizontale Transformation vor der vertikalen Transformation durchführt. Die eigentlichen Transformationen werden in einer Einheit 202 durchgeführt, worin ebenfalls eine Ausrichtung der Bildbereiche erfolgt. Die sich ergebenden Koeffizienten 203 sind das Ergebnis der Transformationseinheit 202 (vergleiche auch Darstellung im Schritt 104). Ferner wird von der Entscheidungseinheit 201 eine Seiteninformation 203 erzeugt, die die Reihenfolge der durchzuführenden Transformationen beinhaltet.
Die in Fig. 2 dargestellte Anordnung ist insbesondere Teil eines Senders (Coders) 301, wie er in Fig. 3 gezeigt ist. Von dem Sender 301 werden Bilddaten 303, vorzugsweise in komprimierter Form, zu einem Empfänger (Decoder) 302 übertragen. Die in Fig. 2 beschriebene Seiteninformation 203 wird ebenfalls (hier gekennzeichnet durch eine Verbindung 304) von dem Sender 301 zu dem Empfänger 302 übertragen. Dort wird die Seiteninformation 304 decodiert und daraus die Information über die Reihenfolge der Transformationen erhalten.
Auch sei darauf hingewiesen, daß es prinzipiell zwei Möglichkeiten zur Durchführung der Transformationen gibt:
Entweder werden tatsächlich beide Transformationen (horizontal und vertikal) vertauscht. Dies führt programmtechnisch zu einem nicht unerheblichen Aufwand. Alternativ dazu kann die Reihenfolge der Transformationen festgelegt werden (anhand der Entscheidungseinheit 201), wobei die vertikale Transformation aus der horizontalen Transformation hervorgeht, indem der Bildbereich an einer 45°-Achse (links oben nach rechts unten) gespiegelt wird. Durch die Spiegelung wird (virtuell) die Transformationsreihenfolge vertauscht. Entsprechend ist die Spiegelungsoperation auf Seiten des Empfängers 302 zu berücksichtigen.
Fig. 4 zeigt einen Bildcoder mit einem zugehörigen Bilddecoder in höherem Detaillierungsgrad (blockbasiertes Bildcodierverfahrens gemäß H.263-Standard).
Ein zu codierender Videodatenstrom mit zeitlich aufeinanderfolgenden digitalisierten Bildern wird einer Bildcodierungseinheit 201 zugeführt. Die digitalisierten Bilder sind unterteilt in Makroblöcke 202, wobei jeder Makroblock 16 × 16 Bildpunkte hat. Der Makroblock 202 umfaßt 4 Bildblöcke 203, 204, 205 und 206, wobei jeder Bildblock 8 × 8 Bildpunkte, denen Luminanzwerte (Helligkeitswerte) zugeordnet sind, enthält. Weiterhin umfaßt jeder Makroblock 202 zwei Chrominanzblöcke 207 und 208 mit den Bildpunkten zugeordneten Chrominanzwerten (Farbinformation, Farbsättigung).
Der Block eines Bildes enthält einen Luminanzwert (= Helligkeit), einen ersten Chrominanzwert (= Farbton) und einen zweiten Chrominanzwert (= Farbsättigung). Dabei werden Luminanzwert, erster Chrominanzwert und zweiter Chrominanzwert als Farbwerte bezeichnet.
Die Bildblöcke werden einer Transformationscodierungseinheit 209 zugeführt. Bei einer Differenzbildcodierung werden zu codierende Werte von Bildblöcken zeitlich vorangegangener Bilder von den aktuell zu codierenden Bildblöcken abgezogen, es wird nur die Differenzbildungsinformation 210 der Trans­ formationscodierungseinheit (Diskrete Cosinus Transformation, DCT) 209 zugeführt. Dazu wird über eine Verbindung 234 der aktuelle Makroblock 202 einer Bewegungsschätzungseinheit 229 mitgeteilt. In der Transformationscodierungseinheit 209 werden für die zu codierenden Bildblöcke bzw. Differenzbildblöcke Spektralkoeffizienten 211 gebildet und einer Quantisierungseinheit 212 zugeführt. Diese Quantisierungseinheit 212 entspricht der erfindungsgemäßen Vorrichtung zur Quantisierung.
Quantisierte Spektralkoeffizienten 213 werden sowohl einer Scaneinheit 214 als auch einer inversen Quantisierungseinheit 215 in einem Rückwärtspfad zugeführt. Nach einem Scanverfahren, z. B. einem "zigzag"-Scanverfahren, wird auf den gescannten Spektralkoeffizienten 232 eine Entropiecodierung in einer dafür vorgesehenen Entropiecodierungseinheit 216 durchgeführt. Die entropiecodierten Spektralkoeffizienten werden als codierte Bilddaten 217 über einen Kanal, vorzugsweise eine Leitung oder eine Funkstrecke, zu einem Decoder übertragen.
In der inversen Quantisierungseinheit 215 erfolgt eine inverse Quantisierung der quantisierten Spektralkoeffizienten 213. So gewonnene Spektralkoeffizienten 218 werden einer inversen Transformationscodierungseinheit 219 (Inverse Diskrete Cosinus Transformation, IDCT) zugeführt. Rekonstruierte Codierungswerte (auch Differenzcodierungs­ werte) 220 werden im Differenzbildmodus einen Addierer 221 zugeführt. Der Addierer 221 erhält ferner Codierungswerte eines Bildblocks, die sich aus einem zeitlich vorangegangenen Bild nach einer bereits durchgeführten Bewegungskompensation ergeben. Mit dem Addierer 221 werden rekonstruierte Bildblöcke 222 gebildet und in einem Bildspeicher 223 abgespeichert.
Chrominanzwerte 224 der rekonstruierten Bildblöcke 222 werden aus dem Bildspeicher 223 einer Bewegungskompensationseinheit 225 zugeführt. Für Helligkeitswerte 226 erfolgt eine Interpolation in einer dafür vorgesehenen Interpolationseinheit 227. Anhand der Interpolation wird die Anzahl in dem jeweiligen Bildblock enthaltener Helligkeitswerte vorzugsweise verdoppelt. Alle Helligkeitswerte 228 werden sowohl der Bewegungskompensationseinheit 225 als auch der Bewegungsschätzungseinheit 229 zugeführt. Die Bewegungsschätzungseinheit 229 erhält außerdem die Bildblöcke des jeweils zu codierenden Makroblocks (16 × 16 Bildpunkte) über die Verbindung 234. In der Bewegungsschätzungseinheit 229 erfolgt die Bewegungsschätzung unter Berücksichtigung der interpolierten Helligkeitswerte ("Bewegungsschätzung auf Halbpixelbasis"). Vorzugsweise werden bei der Bewegungsschätzung absolute Differenzen der einzelnen Helligkeitswerte in dem aktuell zu codierenden Makroblock 202 und dem rekonstruierten Makroblock aus dem zeitlich vorangegangenen Bild ermittelt.
Das Ergebnis der Bewegungsschätzung ist ein Bewegungsvektor 230, durch den eine örtliche Verschiebung des ausgewählten Makroblocks aus dem zeitlich vorangegangenen Bild zu dem zu codierenden Makroblock 202 zum Ausdruck kommt.
Sowohl Helligkeitsinformation als auch Chrominanzinformation bezogen auf den durch die Bewegungsschätzungseinheit 229 ermittelten Makroblock werden um den Bewegungsvektor 230 verschoben und von den Codierungswerten des Makroblocks 202 subtrahiert (siehe Datenpfad 231).
Fig. 5 zeigt eine Prozessoreinheit PRZE, die geeignet ist zur Durchführung von Transformation und/oder Kompression/Dekompression. Die Prozessoreinheit PRZE umfaßt einen Prozessor CPU, einen Speicher SPE und eine Input/Output-Schnittstelle IOS, die über ein Interface IFC auf unterschiedliche Art und Weise genutzt wird: Über eine Grafikschnittstelle wird eine Ausgabe auf einem Monitor MON sichtbar und/oder auf einem Drucker PRT ausgegeben. Eine Eingabe erfolgt über eine Maus MAS oder eine Tastatur TAST. Auch verfügt die Prozessoreinheit PRZE über einen Datenbus BUS, der die Verbindung von einem Speicher MEM, dem Prozessor CPU und der Input/Output-Schnittstelle IOS gewährleistet. Weiterhin sind an den Datenbus BUS zusätzliche Komponenten anschließbar, z. B. zusätzlicher Speicher, Datenspeicher (Festplatte) oder Scanner.
Literaturverzeichnis
[1] J. De Lameillieure, R. Schäfer: "MPEG-2-Bildcodierung für das digitale Fernsehen", Fernseh- und Kino-Technik, 48. Jahrgang, Nr. 3/1994, Seiten 99-107.

Claims (14)

1. Verfahren zur Transformation eines Bildbereichs, bei dem abhängig von einer Entscheidungseinheit zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchgeführt werden.
2. Verfahren nach Anspruch 1, bei dem der Bildbereich eine unregelmäßige Struktur aufweist.
3. Verfahren nach Anspruch 1 oder 2,
  • a) bei dem vor oder nach der vertikalen Transformation eine Ausrichtung des Bildbereichs entlang einer horizontalen Linie erfolgt;
  • b) bei dem vor oder nach der horizontalen Transformation eine Ausrichtung des Bildbereichs entlang einer vertikalen Linie erfolgt.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem von der Entscheidungseinheit mindestens einer der folgenden Mechanismen durchgeführt werden:
  • a) falls der Bildbereich im Zeilensprungverfahren vorliegt, wird zuerst die horizontale und anschließend die vertikale Transformation durchgeführt;
  • b) es wird zuerst diejenige (horizontale oder vertikale) Transformation durchgeführt entlang derer eine Korrelation von Bildpunkten des Bildbereichs stärker ist.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem bei der Transformation eine zusätzliche Dimension berücksichtigt wird.
6. Verfahren nach Anspruch 5, bei dem die zusätzliche Transformation entlang einer Zeitdimension durchgeführt wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem von der Entscheidungseinheit eine Seiteninformation erzeugt wird, in der die Reihenfolge der Transformationen enthalten ist.
8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die horizontale Transformation aus der vertikalen Transformation hervorgeht, indem vor der Transformation eine Spiegelung an einer 45-Grad-Achse durchgeführt wird.
9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die vertikale Transformation aus der horizontalen Transformation hervorgeht, indem vor der Transformation eine Spiegelung an einer 45-Grad-Achse durchgeführt wird.
10. Verfahren nach einem der vorhergehenden Ansprüche zum Einsatz in einem Coder zur Kompression von Bilddaten.
11. Verfahren nach einem der Ansprüche 7 bis 10, bei dem die Seiteninformation in einem Decoder zur Dekompression des Bildbereichs eingesetzt wird.
12. Verfahren nach Anspruch 10 oder 11, bei dem Arbeitsweisen des Coders und/oder des Decoders nach einem MPEG-Standard oder nach einem H.26x-Standard bestimmt sind.
13. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Transformation eine DCT-Transformation bzw. eine dazu inverse IDCT-Transformation ist.
14. Anordnung zur Transformation eines Bildbereichs, mit einer Entscheidungseinheit, die derart eingerichtet ist, daß abhängig von einem von der Entscheidungseinheit ermittelten Wert zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchführbar sind.
DE19903859A 1999-02-01 1999-02-01 Verfahren und Anordnung zur Transformation eines Bildbereichs Withdrawn DE19903859A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE19903859A DE19903859A1 (de) 1999-02-01 1999-02-01 Verfahren und Anordnung zur Transformation eines Bildbereichs
PCT/DE2000/000278 WO2000046998A1 (de) 1999-02-01 2000-02-01 Verfahren und anordnung zur transformation eines bildbereichs
KR1020017009697A KR20010101916A (ko) 1999-02-01 2000-02-01 픽쳐 영역 변환을 위한 방법 및 장치
CN00803213A CN1339225A (zh) 1999-02-01 2000-02-01 图像域的变换方法和装置
JP2000597962A JP2002536926A (ja) 1999-02-01 2000-02-01 画像領域を変換する方法および装置
EP00906176A EP1157557A1 (de) 1999-02-01 2000-02-01 Verfahren und anordnung zur transformation eines bildbereichs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19903859A DE19903859A1 (de) 1999-02-01 1999-02-01 Verfahren und Anordnung zur Transformation eines Bildbereichs

Publications (1)

Publication Number Publication Date
DE19903859A1 true DE19903859A1 (de) 2000-09-21

Family

ID=7895990

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19903859A Withdrawn DE19903859A1 (de) 1999-02-01 1999-02-01 Verfahren und Anordnung zur Transformation eines Bildbereichs

Country Status (6)

Country Link
EP (1) EP1157557A1 (de)
JP (1) JP2002536926A (de)
KR (1) KR20010101916A (de)
CN (1) CN1339225A (de)
DE (1) DE19903859A1 (de)
WO (1) WO2000046998A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013107719B4 (de) 2013-07-19 2015-08-13 Deutsche Telekom Ag Verfahren und Vorrichtung zur blockbasierten Dekorrelation von Bildsignalen
US10904563B2 (en) * 2019-01-02 2021-01-26 Tencent America LLC Method and apparatus for improved zero out transform

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5126962A (en) * 1990-07-11 1992-06-30 Massachusetts Institute Of Technology Discrete cosine transform processing system
DE4437827A1 (de) * 1994-10-14 1996-04-18 Hertz Inst Heinrich Schaltungsanordnung für ein Fernsehsystem, das transformationskodierte digitale Bilddaten verwendet

Also Published As

Publication number Publication date
WO2000046998A1 (de) 2000-08-10
KR20010101916A (ko) 2001-11-15
CN1339225A (zh) 2002-03-06
EP1157557A1 (de) 2001-11-28
JP2002536926A (ja) 2002-10-29

Similar Documents

Publication Publication Date Title
DE69320719T2 (de) Effiziente, frequenzskalierbare Videokodierung mit Koeffizientenwahl
DE69837003T2 (de) Vorrichtung und verfahren zur optimierung der bitratensteurung in einem kodiersystem
DE69320731T2 (de) Raum- und Frequenzhybridkodierung eines Videosignals zur Vereinfachung der Bildung von Bildern variabler Auflösung
DE69803821T2 (de) Verfahren zur rechnerisch graziösen Degradierung in einem audio-visuellen Kompressionssystem
DE69422564T2 (de) Verfahren zur halbpixel Bewegungskompensation in Bilddekodierung
DE69223560T2 (de) Einrichtung zur Verminderung von Quantisierungsstörungen in einem Zwischenbild-Hybrid-Kodierungssystem mit Bewegungskompensation
DE69323156T2 (de) Bilddatenkomprimierungs/Dekomprimierungssystem
DE69624669T2 (de) Videokodierer und -dekodierersystem und -methoden
DE69312124T2 (de) Videocodec, insbesondere für ein Bildtelefon
EP1025708B1 (de) Verfahren und vorrichtung zur verarbeitung eines digitalisierten bildes
DE69915843T2 (de) Teilbandkodierung/-dekodierung
DE69711736T2 (de) Adaptive Postfilterung für ein Bildfernsprechsystem mit niedriger Bitrate
EP0346637B1 (de) Verfahren zur Aufbereitung und Übertragung einer Bildsequenz
EP1101196B1 (de) Verfahren und anordnung zur bewegungsschätzung in einem digitalisierten bild mit bildpunkten
DE10022520A1 (de) Verfahren zur örtlichen skalierbaren Bewegtbildcodierung
EP1285537B1 (de) Verfahren und eine anordnung zur codierung bzw. decodierung einer folge von bildern
EP1110407B1 (de) Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes mit anwendung eines gesamtbewegungsvektors
DE19951341B4 (de) Verfahren zur bewegungskompensierenden Prädiktion von Bewegtbildern sowie Einrichtung hierzu
DE69909880T2 (de) Dekodierung eines komprimierten digitalen Bildsignals
DE19749604A1 (de) Verfahren zum Kodieren eines Modus beim Kodieren binärer Formen
EP0346636B1 (de) Verfahren zur Aufbereitung und Übertragung einer Bildsequenz
DE19903859A1 (de) Verfahren und Anordnung zur Transformation eines Bildbereichs
DE69923725T2 (de) Verfahren und Gerät für die Herausziehung von Farbkonturinformation aus Videohalbbildern
WO2001049038A1 (de) Verfahren, anordnung und computerprogrammerzeugnis zur prädiktion bei der codierung eines in bildblöcke unterteilten bildes
WO2001062009A1 (de) Verfahren und anordnung zur kodierung bzw. zur kodierung und dekodierung einer zahlenfolge

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8130 Withdrawal