EP1157557A1 - Verfahren und anordnung zur transformation eines bildbereichs - Google Patents
Verfahren und anordnung zur transformation eines bildbereichsInfo
- Publication number
- EP1157557A1 EP1157557A1 EP00906176A EP00906176A EP1157557A1 EP 1157557 A1 EP1157557 A1 EP 1157557A1 EP 00906176 A EP00906176 A EP 00906176A EP 00906176 A EP00906176 A EP 00906176A EP 1157557 A1 EP1157557 A1 EP 1157557A1
- Authority
- EP
- European Patent Office
- Prior art keywords
- transformation
- image area
- horizontal
- vertical
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
- H04N19/122—Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
Definitions
- the invention relates to a method and an arrangement for transforming an image area
- Such a method with an associated arrangement is known from [1].
- the known method serves as a coding method in the MPEG standard and is essentially based on the hybrid DCT (Discrete Cosine Transformation) with motion compensation.
- a similar procedure is used for video telephony with nx 64kbit / s (CCITT recommendation H.261), for TV contribution (CCR recommendation 723) with 34 or 45Mbit / s and for multimedia applications with 1.2Mbit / s s (ISO-MPEG-1) is used.
- the hybrid DCT consists of a temporal processing stage, which takes advantage of the relationship between successive images, and a local processing stage, which uses correlation within an image.
- the local processing essentially corresponds to the classic DCT coding.
- the image is broken down into blocks of 8x8 pixels, each of which is transformed into the frequency domain using DCT.
- the result is a matrix of 8x8 coefficients, which approximately reflect the two-dimensional spatial frequencies in the transformed image block.
- a coefficient with frequency 0 (DC component) represents an average gray value of the image block.
- a second step of data reduction takes the form of an adaptive quantization, by means of which the amplitude accuracy of the coefficients is further reduced or by which the small amplitudes are set to zero.
- Quantization depends on the fill level of the output buffer: If the buffer is empty, fine quantization takes place, so that more data is generated, while if the buffer is full, it is coarser, which reduces the amount of data.
- variable-length coding VLC
- the time differences are only small, even if the movements in the picture are small. If, on the other hand, the movements in the picture are large, large differences arise, which in turn are difficult to code. For this reason, the picture-to-picture movement is measured (motion estimation) and compensated before the difference is formed (motion compensation).
- the motion information is transmitted with the image information, usually only one motion vector per macro block (e.g. four 8x8 image blocks) is used.
- the coder also has a temporal recursion loop, because the predictor must calculate the prediction value from the values of the (coded) images already transmitted.
- An identical time recursion loop is in the decoder, so that the encoder and decoder are completely synchronized.
- I-pictures No temporal prediction is used for the I-pictures, ie the picture values are transformed and encoded directly, as shown in picture 1. I-pictures are used to complete the decoding process without knowledge of the time
- a temporal prediction is made on the basis of the P-pictures, the DCT is applied to the temporal prediction error.
- B-pictures With the B-pictures the temporal bidirectional prediction error is calculated and then transformed.
- the bidirectional prediction works basically adaptively, i.e. forward prediction, backward prediction or interpolation is permitted.
- a picture sequence is divided into so-called GOPs (Group Of Pictures), n pictures between two I-pictures form a GOP.
- the distance between the P-pictures is denoted by m, where there are m-1 B-pictures between the P-pictures.
- the encoder or column-by-line transformation is preferred ...
- the type of transformation is the same for all image data, which is disadvantageous for certain image data.
- the object of the invention is to transform an image area, the order of vertical and horizontal transformation depends on predetermined conditions that are specifically taken into account.
- a clear improvement in the image quality can be achieved.
- a method for transforming an image area in which a decision unit first carries out a vertical transformation of the image area and then a horizontal transformation of the image area or vice versa, first the horizontal transformation and then the vertical transformation.
- a further development consists in the fact that the image area has an irregular structure.
- the order of the transformations can be determined depending on a predetermined or a determined value in the decision unit or on the decision unit.
- the order of horizontal and vertical transformation can be predetermined by the decision unit in such a way that the best possible result is achieved with regard to the compression of the image area.
- the order of the transformations is crucial, since after each vertical or horizontal transformation the pixels of the irregular image area are re-sorted and thereby one Correlation of the pixels in the local area can be lost.
- Such a rearrangement can in particular be an alignment along a horizontal or a vertical axis (line).
- the decision unit preferably determines the sequence of the transformations on the basis of special features or a special feature of the image area, its type of transmission or a feature characteristic of it.
- One embodiment consists in that the image area is aligned along a horizontal line or that the alignment takes place along a vertical line. Pixels of the rows of the image area are aligned on the vertical line or pixels of the columns of the image area are aligned on the horizontal line. In particular, there is a corresponding alignment after each transformation (vertical or horizontal). By alignment, i.e. the shifting of rows or columns of the image area, a correlation in the local area may be lost (in the case of an irregular structure for the image area), since pixels that are next to one another will no longer necessarily be next to one another after alignment (e.g. correlation in
- This information is used in particular to make the decision about the order of the transformations within the decision unit in such a way that the correlation of pixels lying next to one another in the local or time range is optimally used.
- One embodiment also consists in the decision unit taking into account at least one of the following mechanisms for determining the sequence of vertical and horizontal transformation: a) With interlaced transmission, only every second line of an image is displayed (and transmitted). By alternating the other two lines, images are created with a time delay, which represent moving images, with the lines of two images that follow one another in time complementing one another to form a full image. In the decision unit, for example, the image header is used to determine whether there is such an interlaced transmission. If there is an interlace method, the horizontal and then the vertical transformation is carried out first. This takes advantage of the fact that in the interlaced method only every second line is transmitted and the correlation of pixels within a line is therefore higher than along a column.
- an additional dimension is taken into account in the transformation, this additional dimension being examined with regard to the correlation of the pixels in the additional dimension.
- the additional dimension is a time axis (3D transformation).
- the decision unit generates side information in which the order of the transformations is contained.
- the side information corresponds to a signal which is preferably transmitted to a receiver (decoder) and on the basis of which this receiver is able to extract the information about the sequence of the ⁇ transformations. This sequence must be taken into account accordingly in the inverse operation of the decoding.
- the horizontal transformation results in the vertical transformation by performing a mirroring on a 45 ° axis before the transformation. Accordingly, a horizontal transformation emerges from the vertical transformation. Due to the mirroring, the transformation order is (virtually) exchanged.
- the method is suitable for use in a coder for compressing image data, e.g. an MPEG picture encoder.
- a corresponding decoder is preferably expanded to include an evaluation option for the side information signal in order to be able to carry out the correct sequence of vertical and horizontal transformation (or the inverse operation in each case) when decoding the image area.
- Coders and decoders preferably operate according to an MPEG standard or an H.26x standard.
- the transformation is a DCT transformation or an inverse IDCT transformation.
- an arrangement for transforming an image area is specified with a decision unit by means of which a vertical transformation of the image area and then a horizontal transformation of the image area or vice versa, first the horizontal transformation and then the vertical transformation of the image area can be carried out.
- Fig.l is a sketch showing steps of transforming an image area
- FIG. 3 is a sketch illustrating a transmitter and receiver for image compression
- 5 shows a possible form of the decision unit in the form of a processor unit.
- Step 101 shows the irregular structure of the image area in an interlaced method, indicated by every other occupied line.
- the image area is composed of lines 105, 106, 107 and 108.
- step 102 the image that is actually shown in the interlace method is shown, which in turn has lines 105 to 108. The correlation of this
- Image area with an irregular structure is particularly high along the lines. Accordingly, in the interlacing method, the lines are first transformed after they have previously been aligned along a vertical line 109. The alignment results in a column-related shift of adjacent pixels. The vertical transformation takes place in the Step 103. A horizontal alignment along a horizontal line 110 is carried out beforehand.
- Step 101 are also interpreted as a representation of a plurality of lines 105 to 108 or a plurality of image areas 105 to 108 which are scanned along a time axis 111 at different times in each case.
- the location information in the respective lines 105 to 108 or the respective image areas 105 to 108 is high, whereas the correlation between the individual lines 105 to 108 or image areas 105 to 108 is lower due to the scanning along the time axis 111 in the direction of the time dimension.
- FIG. 2 represents a decision unit and the signals / values generated therefrom.
- An input signal or a plurality of input signals 200 are used by the decision unit 201 to determine which of several transformations (horizontal, vertical, temporal) are to be carried out in which order in order to make the best possible use of the correlations in the local or time domain, ie to take high correlations into account in this way that an associated transformation is performed first.
- the interlaced method discussed in FIG. 1 is used as an example, by means of which the decision unit 201 carries out the horizontal transformation before the vertical transformation.
- the actual transformations are carried out in a unit 202, in which the image areas are also aligned.
- the resulting coefficients 203 are the result of the transformation unit 202 (see also illustration in step 104). Furthermore, the decision unit 201 generates side information 203 which contains the sequence of the transformations to be carried out.
- the arrangement shown in Figure 2 is in particular part of a transmitter (encoder) 301, as shown in Figure 3.
- Image data 303 preferably in compressed form, is transmitted from the transmitter 301 to a receiver (decoder) 302.
- the page information 203 described in FIG. 2 is also transmitted (here identified by a connection 304) from the transmitter 301 to the receiver 302.
- the page information 304 is decoded there and the information about the order of the transformations is obtained therefrom.
- Transformation emerges by mirroring the image area on a 45 ° axis (top left to bottom right). Due to the mirroring, the transformation order is (virtually) exchanged. Accordingly, the mirroring operation on the part of the receiver 302 must be taken into account.
- FIG. 1 shows an image or with an associated image decoder in a higher degree of detail (block-based image coding method according to the H.263 standard).
- a video data stream to be encoded with chronologically successive digitized images is fed to an image coding unit 201.
- the digitized images are divided into macro blocks 202, each
- Macroblock has 16x16 pixels.
- the macro block 202 comprises 4 picture blocks 203, 204, 205 and 206, each picture block 8x8 Contains pixels to which luminance values (brightness values) are assigned.
- each macroblock 202 comprises two chrominance blocks 207 and 208 with chrominance values (color information, color saturation) assigned to the pixels.
- luminance value, first chrominance value and second chrominance value are referred to as color values.
- the image blocks are fed to a transformation coding unit 209.
- a transformation coding unit 209 In the case of differential image coding, values to be coded from image blocks of temporally preceding images are subtracted from the image blocks to be currently coded; only the difference formation information 210 is supplied to the transformation coding unit (Discrete Cosine Transformation, DCT) 209.
- the current macroblock 202 is communicated to a motion estimation unit 229 via a connection 234.
- Spectral coefficients 211 are formed in the transformation coding unit 209 for the picture blocks or difference picture blocks to be coded and fed to a quantization unit 212.
- This quantization unit 212 corresponds to the quantization device according to the invention.
- Quantized spectral coefficients 213 are supplied to both a scan unit 214 and an inverse quantization unit 215 in a reverse path.
- a scanning method for example a "zigzag" scanning method
- entropy coding is carried out on the scanned spectral coefficient 232 in an entropy coding unit 216 provided for this purpose.
- the entropy-coded spectral coefficients are transmitted as coded image data 217 to a decoder via a channel, preferably a line or a radio link.
- An inverse quantization of the quantized spectral coefficients 213 takes place in the inverse quantization unit 215.
- Spectral coefficients 218 obtained in this way are fed to an inverse transformation coding unit 219 (inverse discrete cosine transformation, IDCT).
- IDCT inverse discrete cosine transformation
- Reconstructed coding values (also differential coding values) 220 are fed to an adder 221 in the differential image mode.
- the adder 221 also receives coding values of an image block, which result from a temporally preceding image after motion compensation has already been carried out.
- Reconstructed image blocks 222 are formed with the adder 221 and stored in an image memory 223.
- Chrominance values 224 of the reconstructed image blocks 222 are fed from the image memory 223 to a motion compensation unit 225.
- an interpolation takes place in an interpolation unit 227 provided for this purpose.
- the number of brightness values contained in the respective image block is preferably doubled on the basis of the interpolation.
- All brightness values 228 are supplied to both the motion compensation unit 225 and the motion estimation unit 229.
- the motion estimation unit 229 also receives the image blocks of the macro block to be coded in each case (16 ⁇ 16 pixels) via the connection 234. In the motion estimation unit 229, the motion is estimated taking into account the interpolated brightness values (“motion estimation on a half-pixel basis”).
- motion estimation on a half-pixel basis Preferably at
- Motion estimation of absolute differences between the individual brightness values in the macro block 202 currently to be coded and the reconstructed macro block is determined from the previous image.
- the result of the motion estimation is a motion vector 230 through which a local shift of the selected one Macroblocks from the temporally preceding picture to the macroblock 202 to be encoded is expressed.
- Both brightness information and chrominance information relating to the macroblock determined by the motion estimation unit 229 are shifted by the motion vector 230 and subtracted from the coding values of the macroblock 202 (see data path 231).
- FIG. 5 shows a processor unit PRZE which is suitable for carrying out transformation and / or
- the processor unit PRZE comprises a processor CPU, a memory SPE and an input / output interface IOS, which is used in different ways via an interface IFC: an output is visible on a monitor MON and / or on a printer via a graphic interface PRT issued. • An entry is made via a mouse MAS or a keyboard TAST.
- the processor unit PRZE also has a data bus BUS, which ensures the connection of a memory MEM, the processor CPU and the input / output interface IOS.
- additional components can be connected to the data bus BUS, for example additional memory, data storage (hard disk) or scanner.
Abstract
Es wird ein Verfahren zur Transformation eines Bildbereichs angegeben, bei dem von einer Entscheidungseinheit zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchgeführt werden.
Description
Beschreibung
Verfahren und Anordnung zur Transformation eines Bildbereichs
Die Erfindung betrifft ein Verfahren und eine Anordnung zur Transformation eines Bildbereichs
Ein solches Verfahren mit dazugehöriger Anordnung ist bekannt aus [1] . Das bekannte Verfahren dient im MPEG-Standard als Codierverfahren und basiert im wesentlichen auf der hybriden DCT (Diskreten Cosinus Transformation) mit Bewegungskompensation. Ein ähnliches Verfahren wird für die Bildtelefonie mit n x 64kbit/s (CCITT-E pfehlung H.261), für die TV-Kontribution (CCR-Empfehlung 723) mit 34 bzw. 45Mbit/s und für Multimedia-Applikationen mit 1, 2Mbit/s (ISO-MPEG-1) verwendet. Die hybride DCT besteht aus einer zeitlichen Verarbeitungsstufe, die die Verwandtschaftsbeziehungen aufeinanderfolgender Bilder ausnutzt, und einer örtlichen Verarbeitungsstufe, die die Korrelation innerhalb eines Bildes ausnutzt.
Die örtliche Verarbeitung (Intraframe-Codierung) entspricht im wesentlichen der klassischen DCT-Codierung. Das Bild wird in Blöcke von 8x8 Bildpunkten zerlegt, die jeweils mittels DCT in den Frequenzbereich transformiert werden. Das Ergebnis ist eine Matrix von 8x8 Koeffizienten, die näherungsweise die zweidimensionalen Ortsfrequenzen im transformierten Bildblock widerspiegeln. Ein Koeffizient mit Frequenz 0 (Gleichanteil) stellt einen mittleren Grauwert des Bildblocks dar.
Nach der Transformation findet eine Datenexpansion statt. Allerdings wird in natürlichen Bildvorlagen eine Konzentration der Energie um den Gleichanteil (DC-Wert) stattfinden, während die höchstfrequenten Koeffizienten meist Null sind.
In einem nächsten Schritt erfolgt eine spektrale Gewichtung der Koeffizienten, so daß die Amplitudengenauigkeit der hochfrequenten Koeffizienten verringert wird. Hierbei nützt man die Eigenschaften des menschlichen Auges aus, das hohe Ortsfrequenzen weniger genau auflöst als niedrige.
Ein zweiter Schritt der Datenreduktion erfolgt in Form einer adaptiven Quantisierung, durch die die Amplitudengenauigkeit der Koeffizienten weiter verringert wird bzw. durch die die kleinen Amplituden zu Null gesetzt werden. Das Maß der
Quantisierung hängt dabei vom Füllstand des Ausgangspuffers ab: Bei leerem Puffer erfolgt eine feine Quantisierung, so daß mehr Daten erzeugt werden, während bei vollem Puffer gröber quantisiert wird, wodurch sich die Datenmenge reduziert.
Nach der Quantisierung wird der Block diagonal abgetastet ("zigzag"-Scanning) , anschließend erfolgt eine Entropiecodierung, die die eigentliche Datenreduktion bewirkt. Hierfür werden zwei Effekte ausgenutzt:
1.) Die Statistik der Amplitudenwerte (hohe Amplitudenwerte treten seltener auf als kleine, so daß den seltenen Ereignissen lange und den häufigen Ereignissen kurze Codewörter zugeordnet werden (Variable-Length-Codierung, VLC) . Auf diese Weise ergibt sich im Mittel eine geringere Datenrate als bei einer Codierung mit fester Wortlänge. Die variable Rate der VLC wird anschließend im Pufferspeicher geglättet.
2.) Man nutzt die Tatsache aus, daß von einem bestimmten Wert an in den meisten Fällen nur noch Nullen folgen. Statt aller dieser Nullen überträgt man lediglich einen EOB-Code (End Of Block) , was zu einem signifikanten Codiergewinn bei der Kompression der Bilddaten führt. Statt der Ausgangsrate von 512bit sind in dem angegebenen Beispiel nur βbit für diesen Block zu
übertragen, was einem Kompressionsfaktor von über 11 entspricht.
Einen weiteren Kompressionsgewinn erhält man durch die zeitliche Verarbeitung (Interframe-Codierung) . Zur Codierung von Differenzbildern wird weniger Datenrate benötigt als für die Originalbilder, denn die Amplitudenwerte sind weitaus geringer.
Allerdings sind die zeitlichen Differenzen nur klein, wenn auch die Bewegungen im Bild gering sind. Sind hingegen die Bewegungen im Bild groß, so entstehen große Differenzen, die wiederum schwer zu codieren sind. Aus diesem Grund wird die Bild-zu-Bild-Bewegung gemessen (Bewegungsschätzung) und vor der Differenzbildung kompensiert (Bewegungskompensation) .
Dabei wird die Bewegungsinformation mit der Bildinformation übertragen, wobei üblicherweise nur ein Bewegungsvektor pro Makroblock (z.B. vier 8x8-Bildblöcke) verwendet wird.
Noch kleinere Amplitudenwerte der Differenzbilder werden erhalten, wenn statt der verwendeten Prädiktion eine bewegungskompensierte bidirektionale Prädiktion benutzt wird.
Bei einem bewegungskompensierten Hybrideoder wird nicht das Bildsignal selbst transformiert, sondern das zeitliche
Differenzsignal. Aus diesem Grund verfügt der Coder auch über eine zeitliche Rekursionsschleife, denn der Prädiktor muß den Prädiktionswert aus den Werten der bereits übertragenen (codierten) Bilder berechnen. Eine identische zeitliche Rekursionsschleife befindet sich im Decoder, so daß Coder und Decoder völlig synchronisiert sind.
Im MPEG-2-Codierverfahren gibt es hauptsächlich drei verschiedene Methoden, mit denen Bilder verarbeitet werden können:
I-Bilder: Bei den I-Bildern wird keine zeitliche Prädiktion verwendet, d.h., die Bildwerte werden direkt transformiert und codiert, wie in Bild 1 dargestellt. I-Bilder werden verwendet, um den Decodiervorgang ohne Kenntnis der zeitlichen
Vergangenheit neu beginnen zu können, bzw. um eine Resynchronisation bei Übertragungsfehlern zu erreichen.
P-Bilder: Anhand der P-Bilder wird eine zeitliche Prädiktion vorgenommen, die DCT wird auf den zeitlichen Prädiktionsfehler angewandt.
B-Bilder: Bei den B-Bildern wird der zeitliche bidirektionale Prädiktionsfehler berechnet und anschließend transformiert. Die bidirektionale Prädiktion arbeitet grundsätzlich adaptiv, d.h. es wird eine Vorwärtsprädiktion, eine Rückwärtsprädiktion oder eine Interpolation zugelassen.
Ein Bildsequenz wird bei der MPEG-2-Codierung in sog. GOPs (Group Of Pictures) eingeteilt, n Bilder zwischen zwei I-Bildern bilden eine GOP. Der Abstand zwischen den P-Bildern wird mit m bezeichnet, wobei sich jeweils m-1 B-Bilder zwischen den P-Bildern befinden. Die MPEG-Syntax überläßt es jedoch dem Anwender, wie m und n gewählt werden. m=l bedeutet, daß keine B-Bilder verwendet werden, und n=l bedeutet, daß nur I-Bilder codiert werden.
Bevorzugt erfolgt im Rahmen der DCT-Transformation auf Seite des Encoders eine spalten- bzw. zeilenweise Transformation... Dabei erfolgt die Art der Transformation für alle Bilddaten gleich, was für bestimmte Bilddaten von Nachteil ist.
Die Aufgabe der Erfindung besteht darin, einen Bildbereich zutransformieren, wobei die Reihenfolge von vertikaler und
horizontaler Transformation von vorgegebenen Bedingungen abhängt, die gezielt berücksichtigt werden.
Dabei kann eine deutliche Verbesserung der Bildqualität erreicht werden.
Diese Aufgabe wird gemäß den Merkmalen der unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung ergeben sich auch aus den abhängigen Ansprüchen.
Zur Lösung der Aufgabe wird ein Verfahren zur Transformation eines Bildbereichs angegeben, bei dem von einer Entscheidungseinheit zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchgeführt werden.
Eine Weiterbildung besteht darin, daß der Bildbereich eine unregelmäßige Struktur aufweist.
Dabei ist es insbesondere von Vorteil, daß, abhängig von einem vorgegebenen oder einem ermittelten Wert in der Entscheidungseinheit bzw. von der Entscheidungseinheit, die Reihenfolge der Transformationen ermittelt werden kann. So kann, abhängig von dem zu transformierenden Bildbereich und speziellen für ihn kennzeichnenden Merkmalen, die Reihenfolge von horizontaler und vertikaler Transformation durch die Entscheidungseinheit so vorgegeben werden, daß im Hinblick auf die Kompression des Bildbereichs ein möglichst gutes Ergebnis erzielt wird.
Insbesondere bei einer unregelmäßigen Struktur des Bildbereichs ist die Reihenfolge der Transformationen entscheidend, da nach jeder vertikalen oder horizontalen Transformation eine Umsortierung von Bildpunkten des unregelmäßigen Bildbereichs erfolgt und dadurch eine
Korrelation der Bildpunkte im Ortsbereich verlorengehen kann. Eine solche Umsortierung kann insbesondere eine Ausrichtung entlang einer horizontalen oder einer vertikalen Achse (Linie) sein.
Von der Entscheidungseinheit wird vorzugsweise anhand spezieller Merkmale bzw. eines speziellen Merkmals des Bildbereichs, seiner Übertragungsart oder eines für ihn charakteristischen Merkmals die Reihenfolge der Transformationen ermittelt.
Eine Ausgestaltung besteht darin, daß die Ausrichtung des Bildbereichs entlang einer horizontalen Linie erfolgt bzw. daß die Ausrichtung entlang einer vertikalen Linie erfolgt. Dabei werden Bildpunkte der Zeilen des Bildbereichs an der vertikalen Linie ausgerichtet bzw. Bildpunkte der Spalten des Bildbereichs an der horizontalen Linie ausgerichtet. Insbesondere erfolgt nach jeder Transformation (vertikal oder horizontal) eine entsprechende Ausrichtung. Durch die Ausrichtung, d.h. die Verschiebung von Zeilen bzw. Spalten des Bildbereichs, geht eine Korrelation im Ortsbereich unter Umständen verloren (bei einer unregelmäßigen Struktur für den Bildbereich) , da ursprünglich nebeneinander liegende Bildpunkte nach der Ausrichtung nicht mehr zwangsläufig nebeneinander liegen werden (z.B. Korrelation im
Ortsbereich) . Diese Information wird insbesondere benutzt, um die Entscheidung über die Reihenfolge der Transformationen innerhalb der Entscheidungseinheit dahingehend zu treffen, daß die Korrelation von im Orts- oder Zeitbereich nebeneinander liegenden Bildpunkten optimal ausgenutzt wird.
Eine Ausgestaltung besteht ferner darin, daß von der Entscheidungseinheit zur Bestimmung der Reihenfolge von vertikaler und horizontaler Transformation mindestens einer der folgenden Mechanismen berücksichtigt wird:
a) Bei einer Übertragung im Zeilensprungverfahren (interlaced) wird nur jede zweite Zeile eines Bildes dargestellt (und übertragen) . Durch ein Abwechseln der jeweils anderen zweiten Zeilen entstehen zeitversetzt Bilder, die Bewegtbilder darstellen, wobei sich die Zeilen jeweils zweier zeitlich aufeinanderfolgender Bilder zu einem Vollbild ergänzen. In der Entscheidungseinheit wird z.B. anhand des Bildheaders ermittelt, ob eine solche Übertragung in Zeilensprungverfahren vorliegt. Liegt ein Zeilensprungverfahren vor, so wird zuerst die horizontale und anschließend die vertikale Transformation durchgeführt. Dabei wird ausgenutzt, daß bei dem Zeilensprungverfahren nur jede zweite Zeile übertragen wird und somit die Korrelation von Bildpunkten innerhalb einer Zeile höher ist als entlang einer Spalte.
b) Ein anderer Mechanismus besteht darin, daß, wie oben beschrieben, zuerst diejenige Transformation durchgeführt wird, entlang deren Richtung die Korrelation der zu transformierenden Bildpunkte des Bildbereichs größer ist.
Eine andere Weiterbildung besteht darin, daß bei der Transformation eine zusätzliche Dimension berücksichtigt wird, wobei diese zusätzliche Dimension im Hinblick auf die Korrelation der Bildpunkte in der zusätzlichen Dimension hin untersucht wird. Ein Beispiel besteht darin, daß die zusätzliche Dimension eine Zeitachse ist (3D-Transforation) .
Eine weitere Ausgestaltung besteht darin, daß von der Entscheidungseinheit eine Seiteninformation erzeugt wird, in der die Reihenfolge der Transformationen enthalten ist. Die Seiteninformation entspricht dabei einem Signal, das vorzugsweise an einen Empfänger (Decoder) übertragen wird und anhand dessen dieser Empfänger in der Lage ist, die Information über die Reihenfolge der ■ Transformationen zu entnehmen. Diese Reihenfolge ist bei der inversen Operation der Decodierung entsprechend zu berücksichtigen.
Im Rahmen einer anderen Weiterbildung geht aus der horizontalen Transformation die vertikale Transformation hervor, indem vor der Transformation eine Spiegelung an einer 45°-Achse durchgeführt wird. Entsprechend geht aus der vertikalen Transformation eine horizontale Transformation hervor. Durch die Spiegelung wird (virtuell) die Transformationsreihenfolge vertauscht .
Das Verfahren eignet sich zum Einsatz in einem Coder zur Kompression von Bilddaten, z.B. einem MPEG-Bildcoder . Ein entsprechender Decoder wird vorzugsweise erweitert um eine Auswertemöglichkeit des Seiteninformationssignals, um bei der Decodierung des Bildbereichs die richtige Reihenfolge von vertikaler und horizontaler Transformation (bzw. die jeweils dazu inverse Operation) durchführen zu können.
Vorzugsweise arbeiten Coder und Decoder nach einem MPEG- Standard oder nach einem H.26x-Standard.
Eine Weiterbildung besteht darin, daß die Transformation eine DCT-Transformation bzw. eine dazu inverse IDCT-Transformation ist .
Weiterhin wird zur Lösung der Aufgabe eine Anordnung zur Transformation eines Bildbereichs angegeben mit einer Entscheidungseinheit, anhand derer eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation des Bildbereichs durchführbar sind.
Diese Anordnung ist insbesondere geeignet zur Durchführung des erfindungsgemäßen Verfahrens oder einer seiner vorstehend erläuterten Weiterbildungen.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnungen dargestellt und erläutert.
Es zeigen
Fig.l eine Skizze, die Schritte einer Transformation eines Bildbereichs darstellt;
Fig.2 eine Skizze, die eine Entscheidungseinheit und die daraus generierten Signale/Werte darstellt;
Fig.3 eine Skizze, die einen Sender und Empfänger zur Bildkompression darstellt;
Fig.4 eine Skizze mit einem Bildeoder und einem Bilddecoder in höherer Detaillierung;
Fig.5 eine mögliche Ausprägung der Entscheidungseinheit in Form einer Prozessoreinheit.
In Fig.l sind Schritte einer Transformation, insbesondere einer DCT-Transformation für einen vorgegebenen Bildbereich, welcher Bildbereich eine unregelmäßige Struktur aufweist, dargestellt. Ein Schritt 101 zeigt die unregelmäßige Struktur des Bildbereichs in einem Zeilensprungverfahren, angedeutet durch jede zweite belegte Zeile. Der Bildbereich wird dabei zusammengesetzt aus den Zeilen 105, 106, 107 und 108. In einem Schritt 102 ist das tatsächlich im Zeilensprungverfahren dargestellte Bild gezeigt, das wiederum die Zeilen 105 bis 108 aufweist. Die Korrelation dieses
Bildbereiches mit unregelmäßiger Struktur ist entlang der Zeilen besonders hoch. Entsprechend werden bei dem Zeilensprungverfahren zuerst die Zeilen transformiert nachdem sie zuvor entlang einer vertikalen Linie 109 ausgerichtet wurden. Durch die Ausrichtung ergibt sich eine spaltenbezogene Verschiebung nebeneinanderliegender Bildpunkte. Die vertikale Transformation erfolgt in dem
Schritt 103. Zuvor wird eine horizontale Ausrichtung entlang einer horizontalen Linie 110 durchgeführt.
Auch wäre es möglich, eine Transformation entlang einer Zeitachse (zusätzlich) zu berücksichtigen. So kann der
Schritt 101 auch interpretiert werden als eine Darstellung mehrerer Zeilen 105 bis 108 bzw. mehrerer Bildbereiche 105 bis 108, die entlang einer Zeitachse 111 zu jeweils verschiedenen Zeitpunkten abgetastet werden. Die Ortsinformation in den jeweiligen Zeilen 105 bis 108 bzw. den jeweiligen Bildbereichen 105 bis 108 ist hoch, wohingegen durch die Abtastung entlang der Zeitachse 111 in Richtung der Zeitdimension niedrigere Korrelationen zwischen den einzelnen Zeilen 105 bis 108 bzw. Bildbereichen 105 bis 108 gegeben sind.
In Fig.2 ist eine Skizze dargestellt, die eine Entscheidungseinheit und die daraus generierten Signale / Werte darstellt. Ein Eingangssignal oder mehrere Eingangssignale 200 dienen der Entscheidungseinheit 201 zur Ermittlung, welche von mehreren Transformationen (horizontal, vertikal, zeitlich) in welcher Reihenfolge durchgeführt werden sollen, um jeweils die Korrelationen im Orts- oder Zeitbereich möglichst gut auszunutzen, d.h. hohe Korrelationen derart zu berücksichtigen, daß eine zugehörige Transformation zuerst durchgeführt wird. Als Beispiel dient das in Figur 1 diskutierte Zeilensprungverfahren, anhand dessen die Entscheidungseinheit 201 die horizontale Transformation vor der vertikalen Transformation durchführt. Die eigentlichen Transformationen werden in einer Einheit 202 durchgeführt, worin ebenfalls eine Ausrichtung der Bildbereiche erfolgt. Die sich ergebenden Koeffizienten 203 sind das Ergebnis der Transformationseinheit 202 (vergleiche auch Darstellung im Schritt 104). Ferner wird von der Entscheidungseinheit 201 eine Seiteninformation 203 erzeugt, die die Reihenfolge der durchzuführenden Transformationen beinhaltet .
Die in Fig.2 dargestellte Anordnung ist insbesondere Teil eines Senders (Coders) 301, wie er in Fig.3 gezeigt ist. Von dem Sender 301 werden Bilddaten 303, vorzugsweise in komprimierter Form, zu einem Empfänger (Decoder) 302 übertragen. Die in Figur 2 beschriebene Seiteninformation 203 wird ebenfalls (hier gekennzeichnet durch eine Verbindung 304) von dem Sender 301 zu dem Empfänger 302 übertragen. Dort wird die Seiteninformation 304 decodiert und daraus die Information über die Reihenfolge der Transformationen erhalten.
Auch sei darauf hingewiesen, daß es prinzipiell zwei Möglichkeiten zur Durchführung der Transformationen gibt: Entweder werden tatsächlich beide Transformationen (horizontal und vertikal) vertauscht. Dies führt programmtechnisch zu einem nicht unerheblichen Aufwand. Alternativ dazu kann die Reihenfolge der Transformationen festgelegt werden (anhand der Entscheidungseinheit 201), wobei die vertikale Transformation aus der horizontalen
Transformation hervorgeht, indem der Bildbereich an einer 45°-Achse (links oben nach rechts unten) gespiegelt wird. Durch die Spiegelung wird (virtuell) die Transformationsreihenfolge vertauscht. Entsprechend ist die Spiegelungsoperation auf Seiten des Empfängers 302 zu berücksichtigen.
Fig. zeigt einen Bildeoder mit einem zugehörigen Bilddecoder in höherem Detaillierungsgrad (blockbasiertes Bildcodierverfahrens gemäß H.263-Standard) .
Ein zu codierender Videodatenstrom mit zeitlich aufeinanderfolgenden digitalisierten Bildern wird einer Bildcodierungseinheit 201 zugeführt. Die digitalisierten Bilder sind unterteilt in Makroblöcke 202, wobei jeder
Makroblock 16x16 Bildpunkte hat. Der Makroblock 202 umfaßt 4 Bildblöcke 203, 204, 205 und 206, wobei jeder Bildblock 8x8
Bildpunkte, denen Luminanzwerte (Helligkeitswerte) zugeordnet sind, enthält. Weiterhin umfaßt jeder Makroblock 202 zwei Chrominanzblöcke 207 und 208 mit den Bildpunkten zugeordneten Chrominanzwerten (Farbinformation, Farbsättigung) .
Der Block eines Bildes enthält einen Luminanzwert (=Helligkeit) , einen ersten Chrominanzwert (=Farbton) und einen zweiten Chrominanzwert (=Farbsättigung) . Dabei werden Luminanzwert, erster Chrominanzwert und zweiter Chrominanzwert als Farbwerte bezeichnet.
Die Bildblöcke werden einer Transformationscodierungseinheit 209 zugeführt. Bei einer Differenzbildcodierung werden zu codierende Werte von Bildblöcken zeitlich vorangegangener Bilder von den aktuell zu codierenden Bildblöcken abgezogen, es wird nur die Differenzbildungsinformation 210 der Trans- formationscodierungseinheit (Diskrete Cosinus Transformation, DCT) 209 zugeführt. Dazu wird über eine Verbindung 234 der aktuelle Makroblock 202 einer Bewegungsschätzungseinheit 229 mitgeteilt. In der Transformationscodierungseinheit 209 werden für die zu codierenden Bildblöcke bzw. Differenzbildblöcke Spektralkoeffizienten 211 gebildet und einer Quantisierungseinheit 212 zugeführt. Diese Quantisierungseinheit 212 entspricht der erfindungsgemäßen Vorrichtung zur Quantisierung.
Quantisierte Spektralkoeffizienten 213 werden sowohl einer Scaneinheit 214 als auch einer inversen Quantisierungseinheit 215 in einem Rückwärtspfad zugeführt. Nach einem Scanverfahren, z.B. einem "zigzag"-Scanverfahren, wird auf den gescannten Spektralkoeffizienten 232 eine Entropiecodierung in einer dafür vorgesehenen Entropiecodierungseinheit 216 durchgeführt. Die entropiecodierten Spektralkoeffizienten werden als codierte Bilddaten 217 über einen Kanal, vorzugsweise eine Leitung oder eine Funkstrecke, zu einem Decoder übertragen.
In der inversen Quantisierungseinheit 215 erfolgt eine inverse Quantisierung der quantisierten Spektralkoeffizienten 213. So gewonnene Spektralkoeffizienten 218 werden einer inversen Transformationscodierungseinheit 219 (Inverse Diskrete Cosinus Transformation, IDCT) zugeführt.
Rekonstruierte Codierungswerte (auch Differenzcodierungswerte) 220 werden im Differenzbildmodus einen Addierer 221 zugeführt. Der Addierer 221 erhält ferner Codierungswerte eines Bildblocks, die sich aus einem zeitlich vorangegangenen Bild nach einer bereits durchgeführten Bewegungskompensation ergeben. Mit dem Addierer 221 werden rekonstruierte Bildblöcke 222 gebildet und in einem Bildspeicher 223 abgespeichert.
Chrominanzwerte 224 der rekonstruierten Bildblöcke 222 werden aus dem Bildspeicher 223 einer Bewegungskompensationseinheit 225 zugeführt. Für Helligkeitswerte 226 erfolgt eine Interpolation in einer dafür vorgesehenen Interpolationseinheit 227. Anhand der Interpolation wird die Anzahl in dem jeweiligen Bildblock enthaltener Helligkeitswerte vorzugsweise verdoppelt. Alle Helligkeitswerte 228 werden sowohl der Bewegungskompensationseinheit 225 als auch der Bewegungsschätzungseinheit 229 zugeführt. Die Bewegungsschätzungseinheit 229 erhält außerdem die Bildblöcke des jeweils zu codierenden Makroblocks (16x16 Bildpunkte) über die Verbindung 234. In der Bewegungsschätzungseinheit 229 erfolgt die Bewegungsschätzung unter Berücksichtigung der interpolierten Helligkeitswerte ("Bewegungsschätzung auf Halbpixelbasis"). Vorzugsweise werden bei der
Bewegungsschätzung absolute Differenzen der einzelnen Helligkeitswerte in dem aktuell zu codierenden Makroblock 202 und dem rekonstruierten Makroblock aus dem zeitlich vorangegangenen Bild ermittelt.
Das Ergebnis der Bewegungsschätzung ist ein Bewegungsvektor 230, durch den eine örtliche Verschiebung des ausgewählten
Makroblocks aus dem zeitlich vorangegangenen Bild zu dem zu codierenden Makroblock 202 zum Ausdruck kommt.
Sowohl Helligkeitsinformation als auch Chrominanzinformation bezogen auf den durch die Bewegungsschätzungseinheit 229 ermittelten Makroblock werden um den Bewegungsvektor 230 verschoben und von den Codierungswerten des Makroblocks 202 subtrahiert (siehe Datenpfad 231) .
Fig.5 zeigt eine Prozessoreinheit PRZE, die geeignet ist zur Durchführung von Transformation und/oder
Kompression/Dekompression. Die Prozessoreinheit PRZE umfaßt einen Prozessor CPU, einen Speicher SPE und eine Input/Output-Schnittstelle IOS, die über ein Interface IFC auf unterschiedliche Art und Weise genutzt wird: Über eine Grafikschnittstelle wird eine Ausgabe auf einem Monitor MON sichtbar und/oder auf einem Drucker PRT ausgegeben. Eine • Eingabe erfolgt über eine Maus MAS oder eine Tastatur TAST. Auch verfügt die Prozessoreinheit PRZE über einen Datenbus BUS, der die Verbindung von einem Speicher MEM, dem Prozessor CPU und der Input/Output-Schnittstelle IOS gewährleistet. Weiterhin sind an den Datenbus BUS zusätzliche Komponenten anschließbar, z.B. zusätzlicher Speicher, Datenspeicher (Festplatte) oder Scanner.
Literaturverzeichnis :
[1] J. De Lameillieure, R. Schäfer: "MPEG-2-Bildcodierung für das digitale Fernsehen", Fernseh- und Kino-Technik, 48. Jahrgang, Nr.3/1994, Seiten 99-107.
Claims
1. Verfahren zur Transformation eines Bildbereichs, bei dem abhängig von einer Entscheidungseinheit zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchgeführt werden.
2. Verfahren nach Anspruch 1, bei dem der Bildbereich eine unregelmäßige Struktur aufweist .
3. Verfahren nach Anspruch 1 oder 2, a) bei dem vor oder nach der vertikalen Transformation eine Ausrichtung des Bildbereichs entlang einer horizontalen Linie erfolgt; b) bei dem vor oder nach der horizontalen Transformation eine Ausrichtung des Bildbereichs entlang einer vertikalen Linie erfolgt.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem von der Entscheidungseinheit mindestens einer der folgenden Mechanismen durchgeführt werden: a) falls der Bildbereich im Zeilensprungverfahren vorliegt, wird zuerst die horizontale und anschließend die vertikale Transformation durchgeführt; b) es wird zuerst diejenige (horizontale oder vertikale) Transformation durchgeführt entlang derer eine
Korrelation von Bildpunkten des Bildbereichs stärker ist.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem bei der Transformation eine zusätzliche Dimension berücksichtigt wird.
6. Verfahren nach Anspruch 5, bei dem die zusätzliche Transformation entlang einer Zeitdimension durchgeführt wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem von der Entscheidungseinheit eine Seiteninformation erzeugt wird, in der die Reihenfolge der Transformationen enthalten ist.
8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die horizontale Transformation aus der vertikalen Transformation hervorgeht, indem vor der Transformation eine Spiegelung an einer 45-Grad-Achse durchgeführt wird.
9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die vertikale Transformation aus der horizontalen Transformation hervorgeht, indem vor der Transformation eine Spiegelung an einer 45-Grad-Achse durchgeführt wird.
10. Verfahren nach einem der vorhergehenden Ansprüche zum Einsatz in einem Coder zur Kompression von Bilddaten.
11. Verfahren nach einem der Ansprüche 7 bis 10 bei dem die Seiteninformation in einem Decoder zur Dekompression des Bildbereichs eingesetzt wird.
12. Verfahren nach Anspruch 10 oder 11, bei dem Arbeitsweisen des Coders und/oder des Decoders nach einem MPEG-Standard oder nach einem H.26x-Standard bestimmt sind.
13. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Transformation eine DCT-Transformation bzw. eine dazu inverse IDCT-Transformation ist.
14. Anordnung zur Transformation eines Bildbereichs, mit einer Entscheidungseinheit, die derart eingerichtet ist, daß abhängig von einem von der Entscheidungseinheit ermittelten Wert zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchführbar sind.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19903859A DE19903859A1 (de) | 1999-02-01 | 1999-02-01 | Verfahren und Anordnung zur Transformation eines Bildbereichs |
DE19903859 | 1999-02-01 | ||
PCT/DE2000/000278 WO2000046998A1 (de) | 1999-02-01 | 2000-02-01 | Verfahren und anordnung zur transformation eines bildbereichs |
Publications (1)
Publication Number | Publication Date |
---|---|
EP1157557A1 true EP1157557A1 (de) | 2001-11-28 |
Family
ID=7895990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP00906176A Withdrawn EP1157557A1 (de) | 1999-02-01 | 2000-02-01 | Verfahren und anordnung zur transformation eines bildbereichs |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP1157557A1 (de) |
JP (1) | JP2002536926A (de) |
KR (1) | KR20010101916A (de) |
CN (1) | CN1339225A (de) |
DE (1) | DE19903859A1 (de) |
WO (1) | WO2000046998A1 (de) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013107719B4 (de) | 2013-07-19 | 2015-08-13 | Deutsche Telekom Ag | Verfahren und Vorrichtung zur blockbasierten Dekorrelation von Bildsignalen |
US10904563B2 (en) * | 2019-01-02 | 2021-01-26 | Tencent America LLC | Method and apparatus for improved zero out transform |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5126962A (en) * | 1990-07-11 | 1992-06-30 | Massachusetts Institute Of Technology | Discrete cosine transform processing system |
DE4437827A1 (de) * | 1994-10-14 | 1996-04-18 | Hertz Inst Heinrich | Schaltungsanordnung für ein Fernsehsystem, das transformationskodierte digitale Bilddaten verwendet |
-
1999
- 1999-02-01 DE DE19903859A patent/DE19903859A1/de not_active Withdrawn
-
2000
- 2000-02-01 WO PCT/DE2000/000278 patent/WO2000046998A1/de not_active Application Discontinuation
- 2000-02-01 KR KR1020017009697A patent/KR20010101916A/ko not_active Application Discontinuation
- 2000-02-01 JP JP2000597962A patent/JP2002536926A/ja not_active Withdrawn
- 2000-02-01 EP EP00906176A patent/EP1157557A1/de not_active Withdrawn
- 2000-02-01 CN CN00803213A patent/CN1339225A/zh active Pending
Non-Patent Citations (1)
Title |
---|
See references of WO0046998A1 * |
Also Published As
Publication number | Publication date |
---|---|
CN1339225A (zh) | 2002-03-06 |
WO2000046998A1 (de) | 2000-08-10 |
DE19903859A1 (de) | 2000-09-21 |
KR20010101916A (ko) | 2001-11-15 |
JP2002536926A (ja) | 2002-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69735838T2 (de) | Videokodierer mit Transformationskoeffizientenprädiktion | |
DE69535228T2 (de) | Bildumsetzungsvorrichtung | |
DE69738494T2 (de) | Videokodierungs- und Videodekodierungsvorrichtung | |
DE60027955T2 (de) | Verfahren und Vorrichtung zur kontextbasierten Inter/Intra Kodierungsmodeauswahl | |
EP1025708B1 (de) | Verfahren und vorrichtung zur verarbeitung eines digitalisierten bildes | |
DE4442643B4 (de) | Verfahren zum Abschätzen der Bewegung in einem Bewegtbild | |
EP1774790B1 (de) | Verfahren und vorrichtung zum codieren und decodieren | |
DE69915843T2 (de) | Teilbandkodierung/-dekodierung | |
DE19717608B4 (de) | Wahrnehmungsfehlerbearbeitungsverfahren und Bildkodierungsvorrichtung, welche dieses Verfahren verwendet | |
EP0346637B1 (de) | Verfahren zur Aufbereitung und Übertragung einer Bildsequenz | |
EP1101196B1 (de) | Verfahren und anordnung zur bewegungsschätzung in einem digitalisierten bild mit bildpunkten | |
DE10022520A1 (de) | Verfahren zur örtlichen skalierbaren Bewegtbildcodierung | |
EP1285537B1 (de) | Verfahren und eine anordnung zur codierung bzw. decodierung einer folge von bildern | |
EP1110407B1 (de) | Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes mit anwendung eines gesamtbewegungsvektors | |
DE69909880T2 (de) | Dekodierung eines komprimierten digitalen Bildsignals | |
EP1116184A1 (de) | Verfahren und anordnung zur bearbeitung eines digitalisierten bildes mit bildpunkten | |
EP0346636B1 (de) | Verfahren zur Aufbereitung und Übertragung einer Bildsequenz | |
WO2000046998A1 (de) | Verfahren und anordnung zur transformation eines bildbereichs | |
DE69923725T2 (de) | Verfahren und Gerät für die Herausziehung von Farbkonturinformation aus Videohalbbildern | |
WO2001062009A1 (de) | Verfahren und anordnung zur kodierung bzw. zur kodierung und dekodierung einer zahlenfolge | |
WO2001049038A1 (de) | Verfahren, anordnung und computerprogrammerzeugnis zur prädiktion bei der codierung eines in bildblöcke unterteilten bildes | |
DE3726601A1 (de) | Voraussehendes kodiersystem fuer fernsehsignale | |
DE10219640A1 (de) | Verfahren zum Codieren und Decodieren von Videosequenzen und Computerprogrammprodukt | |
DE19944300C2 (de) | Verfahren, Anordnung und Computerprogrammerzeugnis zur Bewegungsschätzung bei der Codierung von einem Bildobjekt in einem Bild | |
WO2001028252A1 (de) | Progressive fehlertolerante codierung bzw. decodierung einer folge von bildern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
17P | Request for examination filed |
Effective date: 20010605 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE |
|
GRAH | Despatch of communication of intention to grant a patent |
Free format text: ORIGINAL CODE: EPIDOS IGRA |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN |
|
18D | Application deemed to be withdrawn |
Effective date: 20020902 |