WO2011161259A1 - Method of coding an image data entity and method of reconstructing an image data entity - Google Patents

Method of coding an image data entity and method of reconstructing an image data entity Download PDF

Info

Publication number
WO2011161259A1
WO2011161259A1 PCT/EP2011/060665 EP2011060665W WO2011161259A1 WO 2011161259 A1 WO2011161259 A1 WO 2011161259A1 EP 2011060665 W EP2011060665 W EP 2011060665W WO 2011161259 A1 WO2011161259 A1 WO 2011161259A1
Authority
WO
WIPO (PCT)
Prior art keywords
entity
quantization
image data
coding
coefficient
Prior art date
Application number
PCT/EP2011/060665
Other languages
French (fr)
Inventor
Bruno Guesdon
Benoit Guerin
Lionel Tchernatinsky
Karine Lorvellec
Original Assignee
Gvbb Holdings S.A.R.L.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gvbb Holdings S.A.R.L. filed Critical Gvbb Holdings S.A.R.L.
Publication of WO2011161259A1 publication Critical patent/WO2011161259A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding

Definitions

  • the invention relates to the general field of image coding.
  • the invention more particularly relates to a method of coding an image data entity and a method for reconstructing such an image data entity.
  • FIG. 1 is an example of a quantization matrix for encoding an image data entity, in this case a block of pixels of size 8 by 8. In FIG. 1, each number represents the value of a quantization step.
  • image data entity is to be taken broadly.
  • the image data is either luminance or chrominance data or residual data in the case of predictive coding.
  • FIG. 2 presents two scanning sequences of a quantized coefficient entity used in the context of the MPEG2 video coding standard (known as International Standard ISO / IEC 13818-2: 2000 and entitled Information technology - Generic coding of moving pictures.
  • the numbers in Figures 2a and 2b indicate the order in which the coefficients are coded.
  • the scanning order said zigzag ("zigzag scan" in English) and on the right the so-called alternate scan order.
  • the right scan order is preferably used with so-called interlaced images, while the left one is preferably used with so-called progressive images.
  • the choice of a scan command rather than the other generally has the effect of increasing the coding efficiency and therefore of decreasing the coding cost.
  • the invention aims to overcome at least one of the disadvantages of the prior art.
  • the invention relates to a method of coding an image data entity in a stream.
  • the coding method according to the invention comprises the following steps;
  • the coding method according to the invention is more efficient in terms of coding cost because it makes it possible to define as many quantization matrices as there are scanning orders without having to code these matrices.
  • the step of determining the quantization entity comprises reorganizing, according to the scanning order, an initial quantization entity.
  • the coding method further comprises a coding step in the flow of the initial quantization matrix.
  • the invention also relates to a method for reconstructing an image data entity. It includes the following steps: decoding, in a scanning order, quantized coefficients of a quantized coefficient entity;
  • the step of determining the quantization entity comprises reorganizing, according to the scanning order, an initial quantization entity.
  • the reconstruction method further comprises a step of decoding the initial quantization matrix.
  • FIG. 1 represents a quantization matrix
  • FIG. 2 illustrates two different scanning orders
  • FIG. 3 illustrates a coding method according to the invention
  • FIG. 4 represents a quantization matrix defined by default in the MPEG2 standard
  • FIG. 5 represents the quantization matrix of FIG. 4 reorganized according to the invention
  • FIG. 6 illustrates a decoding method according to the invention
  • FIG. 7 illustrates a coding device according to the invention.
  • FIG. 8 illustrates a decoding device according to the invention.
  • An image comprises pixels or image points each of which is associated with at least one image datum.
  • An image data is for example a luminance data or a chrominance data.
  • a residue or residual data obtained by subtracting from a luminance or chrominance value a prediction datum is also considered as an image datum.
  • the term residue or residual data is also known as prediction error.
  • encode entity or "image data entity” refer to the basic structure of an image to be encoded or reconstructed. It includes a subset of pixels in the image.
  • the set of coding entities of an image may or may not have common pixels.
  • the image data entity is a block of pixels.
  • image data entity is generic and may designate a circle, a polygon, a region of any shape.
  • quantization entity denotes a data structure, these data being quantization steps. It is used to quantify a coefficient entity. In the particular case where the coefficient entity is rectangular, then the quantization entity is a quantization matrix. However, the coefficient entity may have any form, in which case the quantization entity has a shape identical to that of the coefficient entity.
  • a "reconstructed image data entity” is also referred to as “decoded image data entity”.
  • a method of encoding an image data entity Bc in a stream F is described. The encoding method comprises the steps of:
  • the image data entity Bc to be encoded is transformed by a transform T into a coefficient entity.
  • the transform is a discrete cosine transform (known under the terminology of "Discrete Cosine Transform”).
  • Discrete Cosine Transform transforms can be used such as a discrete wavelet transform, a Karhunen-Loève transform, or a discrete sine transform (known under the terminology of "Discrete Sine Transform”).
  • the invention is therefore in no way limited by the type of transform used in step 30.
  • a quantization entity MQ ' is determined for quantization in a step 34 of the coefficient entity.
  • the quantization entity MQ ' is determined according to the scanning order Se used during the coding step 36.
  • the quantization entity MQ ' is determined from an initial quantization entity MQ.
  • the quantization entity MQ ' is determined from an initial quantization entity MQ defined by default, p. ex. as part of a video coding standard.
  • the initial quantization entity MQ is defined by default. However, this is not mandatory.
  • FIG. 4 represents a quantization entity MQ defined by default within the framework of the MPEG2 standard for quantizing coefficient entities (refer to chapter 6.3.1 1 of FIG. ITU-T H.262 standard entitled Quant matrix extension).
  • the initial quantization entity MQ is associated with one of the scanning commands, p. ex. that in zigzag, and the initial quantization entity MQ is rearranged to a quantization entity MQ 'shown in FIG. 5 when the scanning order Se for this block is different from the scanning order with which MQ, p is associated. . ex. alternated.
  • the quantization steps in the quantization entity MQ ' are the quantization steps of the initial quantization entity MQ repositioned according to the scanning order defined in FIG. 2b.
  • the value quantization step 19 greyed out in FIG. 4 (corresponding to the position 3 of FIG. 2a) is repositioned instead corresponding to position 3 of Figure 2b.
  • This repositioned value quantization step 19 is also grayed out in FIG. 5.
  • the quantization step 37 greyed out in FIG. 4 (corresponding to the position 44 of FIG. 2a) is repositioned in the place corresponding to FIG. position 44 of Figure 2b.
  • the set of quantization steps of the quantization entity MQ are thus rearranged as a function of the scanning order Se.
  • the invention is in no way limited to two scanning orders.
  • the initial quantization entity MQ is defined for a scanning order ScO and rearranged for each scanning order Scj, with je ⁇ l, 2,3, ..., N ⁇ , where N is a whole.
  • N quantization entities MQj are determined according to the N scan commands ⁇ Sc ⁇ , Sc2, ..., ScN ⁇ .
  • the initial quantization entity MQ is set by default, it does not need to be transmitted in the stream because it is known at both the coder side and the decoder side.
  • the initial quantization entity MQ is not defined by default, in which case it must be coded and transmitted in the stream F.
  • the quantization entity MQ is defined as a function, for example, of video content, of the "field”, "frame MBAFF", “frame interlaced” and / or “progressive” coding mode.
  • MBAFF is the acronym for "MacroBlock Adaptive Frame Field” and is defined by the MPEG-4 AVC / H.264 video coding standard.
  • the coefficient entity is quantized with the quantization entity MQ 'or MQj into a quantized coefficient entity.
  • each coefficient is quantized by the quantization step of the quantization entity, in this case the quantization matrix, which corresponds to it, ie is located spatially in the same place.
  • the coefficient of the block situated at the top left is quantized by the quantization step located at the top left of the quantization matrix, ie a quantization step of value 16 if the quantization matrix used is that shown in Figure 1,
  • the quantized coefficients of the quantized coefficient entity are encoded according to a scanning order Se.
  • the quantized coefficient entity is scanned / scanned according to the scanning order Se.
  • This scan order may vary for each image data entity to be encoded.
  • the quantized coefficient entity is scanned / traversed according to the so-called zigzag scanning order or in the so-called alternate scanning order. It is clear to those skilled in the art that the invention is in no way limited by the manner of choosing a particular scan order to traverse the quantized coefficient entity. Similarly, other scanning orders than those defined in the context of the MPEG2 standard can be used in the context of the invention.
  • a list of quantized coefficients can be created from a 2D representation, p. ex.
  • VLC tables Variable Length Coding
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • This entropy encoding is defined by the H.264 / AVC video coding standard (known as International Standard ISO / IEC 14496-10: 2005 and entitled Information Technology ⁇ Coding of Audio-Visual Objects - Betting 10: Advanced Video Coding) . It is clear to those skilled in the art that the invention is in no way limited by the type of entropy coding used to code the quantized coefficients.
  • the quantization entities are quantization entities
  • MQ 'or MQj and possibly MQ if it is not defined by default are encoded in the stream by entropy encoding.
  • the MPEG2 standard makes it possible to encode quantization matrices that are not defined by default in the stream. Thus, on the decoder side these quantization matrices are reconstructed and used to reconstruct the image data entities.
  • the quantization entities MQ 'or MQj are not encoded in the entropy encoded stream. In this case, these quantization entities are determined on the decoder side in the same way as they are on the coder side in step 32,
  • the coding method comprises, before the transformation step 30, a step of spatial or temporal prediction of the image data entity.
  • the prediction step includes extraction, p. ex. by pixel-to-pixel subtraction of the image data entity Bc of a prediction entity. It is known that the prediction entity is generated by spatial prediction from neighboring pixels of the image data entity Bc or by temporal prediction from pixels belonging to reference images.
  • the result of the prediction step is a residue entity.
  • step 30 is applied to a residue entity.
  • Such a spatial or temporal prediction step is well known to those skilled in the field of video encoders and is not described further.
  • the encoding method is reiterated on all the image data entities forming the image, and then on all the images forming the image sequence.
  • the coding method according to the invention advantageously makes it possible to reduce the coding cost. Indeed, from a single initial quantization entity MQ defined by default or not, the coding method is able to construct N quantization entities MQj, I ⁇ [, 2,3, ..., N ⁇ , which are determined according to the N scan commands ⁇ Sc [, Sc2, ..., ScN ⁇ and are adapted to the content to be quantified.
  • the reconstruction method comprises the steps of;
  • step 60 decoding, according to a scanning order Se, quantized coefficients of a quantized coefficient entity (step 60);
  • step 60 quantized coefficients of a quantized coefficient entity are decoded in a scanning order Se.
  • the quantized coefficient entity is scanned / scanned in a scanning order Se.
  • This scan order may vary for each image data entity to be reconstructed.
  • the quantized coefficient entity is scanned / traversed according to the so-called zigzag scanning order or in the so-called alternate scanning order. It is clear to those skilled in the art that the invention is in no way limited to the manner of choosing a particular scan order to traverse the quantized coefficient entity.
  • a quantization entity MQ ' is determined for inverse quantization (step 64) of the quantized coefficient entity.
  • this quantization entity MQ ' is determined according to the scanning order Se used during the decoding step 60.
  • the quantization entity MQ ' is determined from an initial quantization entity MQ defined by default, p. ex. as part of a video coding standard.
  • the quantization entity MQ ' is obtained by rearranging the quantization steps of the initial quantization entity MQ according to the scanning order Se.
  • the initial quantization entity MQ is defined by default. However, this is not mandatory. A particular embodiment is illustrated in FIGS. 4 and 5.
  • FIG. 4 and 5 A particular embodiment is illustrated in FIGS. 4 and 5.
  • the initial quantization entity MQ is associated with one of the scanning commands, p. ex. that in zigzag, and the initial quantization entity MQ is rearranged to a quantization entity MQ 'shown in FIG. 5 when the scanning order Se for this block used in the decoding step 60 is different from the scan order associated with MQ, p. ex. alternated.
  • the quantization steps in the quantization entity MQ ' are the quantization steps of the initial quantization entity MQ repositioned according to the scanning order defined in FIG. 2b.
  • the value quantization step 19 greyed out in FIG. 4 (corresponding to the position 3 of FIG.
  • the initial quantization entity MQ is defined for a scanning order ScO and rearranged for each scanning order Scj, with I ⁇ [, 2,3, ..., N], where N is a whole.
  • N different quantization entities MQj are determined according to the N scan commands ⁇ Sc [, Sc2, ..., ScN ⁇ .
  • the initial quantization entity MQ is set by default, it does not need to be transmitted in the stream because it is known at both the coder side and the decoder side.
  • the initial quantization entity MQ is not defined by default, in which case it is transmitted in the stream F and must be decoded from the stream F.
  • the quantized coefficient entity is dequantized from the quantization entity MQ 'or MQj into a dequantized coefficient entity.
  • dequantization and "inverse quantification” are synonymous.
  • each coefficient is dequantized by the quantization step of the quantization entity, in this case the quantization matrix, which corresponds to it, ie is located spatially in the same place.
  • the coefficient of the block located at the top left is dequantized by the quantization step located at the top left in the quantization matrix, ie a quantization step of value 16 if the quantization matrix used is that shown in Figure 1.
  • the dequantized coefficient entity is transformed by a transform T 1 inverse to that used by the coding method in step 30 in order to reconstruct the image data entity Bc.
  • the transform is an inverse discrete cosine transform (known under the terminology of "Inverse Discrete Cosine Transform”).
  • other transforms can be used such as a discrete wavelet inverse transform, a Karhunen-Loeve inverse transform, or a discrete sine inverse transform (known as "Inverse Discrete Sine Transform").
  • the invention is therefore in no way limited by the type of transform used in step 66.
  • the image data entity obtained in step 66 is a residue entity.
  • the reconstruction method comprises, following the transformation step 66, a step of spatial or temporal prediction of the residue entity to be reconstructed.
  • the prediction step includes fusion, p. ex. by pixel-to-pixel addition of a prediction entity and the residue entity obtained in step 66.
  • Such a spatial or temporal prediction step is well known to those skilled in the video encoder art and is not not described further. It is known that the prediction entity is generated by spatial prediction from neighboring pixels of the image data entity Bc or by temporal prediction from pixels belonging to reference images.
  • the result of the prediction step is a luminance or chrominance image data entity.
  • the reconstruction method is reiterated on all the image data entities forming the image, then on all the images forming the image sequence.
  • the same advantages as those mentioned with reference to the coding method apply to the decoding method.
  • FIG. 7 schematically illustrates a coding device 12.
  • the coding device 12 receives at the input one or more image data entities Bc, in this case luminance or chrominance entities.
  • the coding device 12 is able to implement the coding method according to the invention described with reference to FIG. 3.
  • the coding device 12 implements, in particular, coding with temporal prediction. Only the modules of the coding device 12 relating to the coding by temporal prediction or INTER coding are shown in FIG. 7. Other modules known to those skilled in the art of video coders are not shown (for example, coding mode, spatial prediction).
  • the coding device 12 comprises in particular a calculation module 1200 capable of extracting from a current image data entity Bc a prediction entity Bp to generate a residue entity Br.
  • the coding device 12 furthermore comprises a module 1202 capable of transforming and quantifying the data. residue entity Br into a quantized coefficient entity.
  • the module 1202 is particularly suitable for implementing the steps 30, 32 and 34 of the coding method according to the invention.
  • the coding device 12 furthermore comprises an entropy coding module 1204 capable of coding the quantized coefficient entity in a stream F.
  • the module 1204 is in particular able to implement the step 36 of the coding method according to the invention .
  • It further comprises a module 1206 performing the inverse operation of the module 1202.
  • the module 1206 performs an inverse quantization IQ followed by an inverse transformation IT.
  • the module 1206 is connected to a calculation module 1208 able to merge the entity issuing from the module 1206 and the prediction entity Bp to generate a reconstructed image data entity that is stored in a memory 121 0.
  • Motion 1216 determines the prediction entity Bp from already reconstructed image data stored in the memory 1210 and motion data (ie motion vectors and reference image index) determined by a motion estimation module 1212.
  • the prediction entity Bp is determined by a spatial prediction module not shown in FIG. 7.
  • FIG. 8 schematically illustrates a decoding device 13.
  • the coding device 13 receives as input a stream F representative of an image or a sequence of images.
  • the stream F is for example transmitted by a coding device 12 through a channel.
  • the decoding device 13 is able to implement the reconstruction method according to the invention described with reference to FIG. 6.
  • the decoding device 13 comprises an entropy decoding module 1300 able to generate decoded data, in particular quantized coefficients. , coding modes, possibly motion data, etc.
  • the module 1300 is particularly suitable for implementing step 60 of the reconstruction method according to the invention.
  • the quantized coefficients are then transmitted to a module 1302 capable of performing an inverse quantization IQ followed by an inverse transformation IT.
  • the module 1302 is identical to the module 1206 of the coding device 12.
  • the module 1302 is particularly suitable for implementing the steps 62, 64 and 66 of the reconstruction method according to the invention.
  • the module 1302 is connected to a calculation module 1304 able to merge the entity coming from the module 1302 and the prediction entity Bp to generate a reconstructed image data entity Bc, in this case luminance / chrominance, which is stored in a memory 1306.
  • the decoding device 13 also includes a motion compensation module 1308.
  • the motion compensation module 1308 determines the prediction entity Bp from already reconstructed image data stored in the memory 1306 and motion data. decoded signals transmitted by the entropy decoding module 1300.

Abstract

The invention relates to a method of coding an image data entity in a stream. It comprises the following steps: - transforming (30) the image data entity into a coefficients entity; - quantizing (34) the coefficients entity with a quantization entity into a quantized-coefficients entity; and - coding (36) according to an order of scanning the quantized coefficients of said quantized-coefficients entity. Advantageously, the coding method comprises a step (32) of determining the quantization entity as a function of the order of scanning.

Description

PROCEDE DE CODAGE D'UNE ENTITE DE DONNEES IMAGE ET PROCEDE DE RECONSTRUCTION D'UNE ENTITE DE DONNEES IMAGE  METHOD FOR ENCODING AN IMAGE DATA ENTITY AND METHOD FOR RECONSTRUCTING AN IMAGE DATA ENTITY
1 - Domaine de l'invention 1 - Field of the invention
L'invention se rapporte au domaine général du codage d'images.  The invention relates to the general field of image coding.
L'invention concerne plus particulièrement un procédé de codage d'une entité de données image et un procédé de reconstruction d'une telle entité de données image. 2. Etat de l'art  The invention more particularly relates to a method of coding an image data entity and a method for reconstructing such an image data entity. 2. State of the art
Il est connu pour coder une image d'une séquence d'images divisée en entités de données image, p. ex. en blocs de pixels, d'appliquer les étapes suivantes sur chaque entité de données image ;  It is known to encode an image of an image sequence divided into image data entities, e.g. ex. in pixel blocks, apply the following steps on each image data entity;
- transformer l'entité d'erreur de donnée image en une entité de coefficients ; - quantifier l'entité de coefficients en une entité de coefficients quantifiés; et transforming the image data error entity into a coefficient entity; - quantifying the coefficient entity into a quantized coefficient entity; and
- coder, dans un flux, l'entité de coefficients quantifiée. - encode, in a flow, the quantized coefficient entity.
A cet effet, il est connu pour quantifier l'entité de coefficients d'utiliser une matrice de quantification. La figure 1 est un exemple de matrice de quantification pour coder une entité de données image, en l'occurrence un bloc de pixels de taille 8 par 8. Sur la figure 1 , chaque nombre représente la valeur d'un pas de quantification. Le terme entité de données image est à prendre au sens large. Les données image sont soient des données de luminance ou de chrominance soit des données résiduelles dans le cas d'un codage prédictif.  For this purpose, it is known to quantize the coefficient entity to use a quantization matrix. FIG. 1 is an example of a quantization matrix for encoding an image data entity, in this case a block of pixels of size 8 by 8. In FIG. 1, each number represents the value of a quantization step. The term image data entity is to be taken broadly. The image data is either luminance or chrominance data or residual data in the case of predictive coding.
II est par ailleurs connu pour coder l'entîté de coefficients quantifiés de coder les coefficients de cette entité en la parcourant selon un ordre de balayage prédéfini. L'ordre de balayage est également connu sous la terminologie d'ordre de parcours, ordre de lecture ou encore sous la terminologie anglaise de « scanning order ». A titre d'exemple, la figure 2 présente deux ordres de balayage d'une entité de coefficients quantifiés utilisés dans le cadre de la norme de codage vidéo MPEG2 (connue sous la référence International Standard ISO/IEC 13818-2 :2000 et intitulé Information technology - Generic coding of moving pictures and associated audio information : Video). Les nombres sur les figures 2a et 2b indiquent l'ordre dans lequel les coefficients sont codés. Sur la gauche de la figure 2 est représenté l'ordre de balayage dit zigzag (« zigzag scan » en anglais) et sur la droite l'ordre de balayage dit alterné (« alternate scan » en anglais). L'ordre de balayage de droite est préférentiellement utilisé avec des images dites entrelacées alors que celui de gauche est préférentiellement utilisé avec des images dites progressives. Le choix d'un ordre de balayage plutôt que l'autre a généralement pour effet d'augmenter l'efficacité de codage et donc de diminuer le coût de codage. 3. Résumé de l'invention It is also known to encode the entity of quantized coefficients to code the coefficients of this entity by traversing it in a predefined scanning order. The scanning order is also known under the terminology of order of travel, reading order or in the English terminology of "scanning order". By way of example, FIG. 2 presents two scanning sequences of a quantized coefficient entity used in the context of the MPEG2 video coding standard (known as International Standard ISO / IEC 13818-2: 2000 and entitled Information technology - Generic coding of moving pictures. The numbers in Figures 2a and 2b indicate the order in which the coefficients are coded. On the left of Figure 2 is shown the scanning order said zigzag ("zigzag scan" in English) and on the right the so-called alternate scan order. The right scan order is preferably used with so-called interlaced images, while the left one is preferably used with so-called progressive images. The choice of a scan command rather than the other generally has the effect of increasing the coding efficiency and therefore of decreasing the coding cost. 3. Summary of the Invention
L'invention a pour but de pallier au moins un des inconvénients de l'art antérieur. A cet effet, l'invention concerne un procédé de codage d'une entité de données image dans un flux. Le procédé de codage selon l'invention comprend les étapes suivantes ;  The invention aims to overcome at least one of the disadvantages of the prior art. For this purpose, the invention relates to a method of coding an image data entity in a stream. The coding method according to the invention comprises the following steps;
- transformer l'entité de données image en une entité de coefficients ; transforming the image data entity into a coefficient entity;
- quantifier l'entité de coefficients avec une entité de quantification en une entité de coefficients quantifiés; et  - quantizing the coefficient entity with a quantization entity into a quantized coefficient entity; and
- coder, selon un ordre de balayage, les coefficients quantifiés de l'entité de coefficients quantifiés.  encoding, in a scanning order, the quantized coefficients of the quantized coefficient entity.
II comprend en outre une étape de détermination de l'entité de quantification en fonction de l'ordre de balayage. Le procédé de codage selon l'invention est plus efficace en termes de coût de codage car il permet de définir autant de matrices de quantification qu'il existe d'ordres de balayage sans avoir à coder ces matrices. It further comprises a step of determining the quantization entity according to the scanning order. The coding method according to the invention is more efficient in terms of coding cost because it makes it possible to define as many quantization matrices as there are scanning orders without having to code these matrices.
Selon un aspect particulier de l'invention, l'étape de détermination de l'entité de quantification comprend la réorganisation, en fonction de l'ordre de balayage, d'une entité de quantification initiale.  According to a particular aspect of the invention, the step of determining the quantization entity comprises reorganizing, according to the scanning order, an initial quantization entity.
Selon une caractéristique particulière, le procédé de codage comprend en outre une étape de codage dans le flux de la matrice de quantification initiale.  According to one particular characteristic, the coding method further comprises a coding step in the flow of the initial quantization matrix.
L'invention concerne également un procédé de reconstruction d'une entité de données image. Il comprend les étapes suivantes : décoder, selon un ordre de balayage, des coefficients quantifiés d'une entité de coefficients quantifiés; The invention also relates to a method for reconstructing an image data entity. It includes the following steps: decoding, in a scanning order, quantized coefficients of a quantized coefficient entity;
- déquantifier l'entité de coefficients quantifiés avec une entité de quantification en une entité de coefficients déquantifiés ; et  dequantizing the quantized coefficient entity with a quantization entity into a dequantized coefficient entity; and
- transformer l'entité de coefficients déquantifiés pour reconstruire une entité de données image. transforming the dequantized coefficient entity to reconstruct an image data entity.
Il comprend en outre une étape de détermination de l'entité de quantification en fonction de l'ordre de balayage.  It further comprises a step of determining the quantization entity according to the scanning order.
Selon un aspect particulier de l'invention, l'étape de détermination de l'entité de quantification comprend la réorganisation, en fonction de l'ordre de balayage, d'une entité de quantification initiale.  According to a particular aspect of the invention, the step of determining the quantization entity comprises reorganizing, according to the scanning order, an initial quantization entity.
Selon une caractéristique particulière, le procédé de reconstruction comprend en outre une étape de décodage de la matrice de quantification initiale.  According to one particular characteristic, the reconstruction method further comprises a step of decoding the initial quantization matrix.
4. Listes des figures 4. Lists of Figures
L'invention sera mieux comprise et illustrée au moyen d'exemples de modes de réalisation et de mise en œuvre avantageux, nullement limitatifs, en référence aux figures annexées sur lesquelles :  The invention will be better understood and illustrated by means of examples of advantageous embodiments and implementations, in no way limiting, with reference to the appended figures in which:
- la figure 1 représente une matrice de quantification; FIG. 1 represents a quantization matrix;
- la figure 2 illustre deux ordres de balayage différents;  FIG. 2 illustrates two different scanning orders;
- la figure 3 illustre un procédé de codage selon l'invention;  FIG. 3 illustrates a coding method according to the invention;
- la figure 4 représente une matrice de quantification définie par défaut dans la norme MPEG2;  FIG. 4 represents a quantization matrix defined by default in the MPEG2 standard;
- la figure 5 représente la matrice de quantification de la figure 4 réorganisée selon l'invention; FIG. 5 represents the quantization matrix of FIG. 4 reorganized according to the invention;
- la figure 6 illustre un procédé de décodage selon l'invention;  FIG. 6 illustrates a decoding method according to the invention;
- la figure 7 illustre un dispositif de codage selon l'invention; et  FIG. 7 illustrates a coding device according to the invention; and
- la figure 8 illustre un dispositif de décodage selon l'invention.  FIG. 8 illustrates a decoding device according to the invention.
5. Description détaillée de l'invention 5. Detailed description of the invention
Une image comprend des pixels ou points image à chacun desquels est associée au moins une donnée image. Une donnée image est par exemple une donnée de luminance ou une donnée de chrominance. Un résidu ou donnée résiduelle obtenu en soustrayant d'une valeur de luminance ou de chrominance une donnée de prédiction est également considéré comme une donnée image. Le terme résidu ou donnée résiduelle est également connu sous la terminologie erreur de prédiction. An image comprises pixels or image points each of which is associated with at least one image datum. An image data is for example a luminance data or a chrominance data. A residue or residual data obtained by subtracting from a luminance or chrominance value a prediction datum is also considered as an image datum. The term residue or residual data is also known as prediction error.
Les termes « entité de codage » ou « entité de donnée image » désignent la structure de base d'une image à coder ou à reconstruire. Elle comprend un sous-ensemble de pixels de l'image. L'ensemble des entités de codage d'une image peuvent ou non avoir des pixels communs. Généralement, l'entité de données image est un bloc de pixels. Toutefois, le terme « entité de données image » est générique et peut désigner un cercle, un polygone, une région de forme quelconque.  The terms "encoding entity" or "image data entity" refer to the basic structure of an image to be encoded or reconstructed. It includes a subset of pixels in the image. The set of coding entities of an image may or may not have common pixels. Generally, the image data entity is a block of pixels. However, the term "image data entity" is generic and may designate a circle, a polygon, a region of any shape.
Le terme « entité de quantification » désigne une structure de données, ces données étant des pas de quantification. Elle est utilisée pour quantifier une entité de coefficients. Dans le cas particulier où l'entité de coefficients est rectangulaire, alors l'entité de quantification est une matrice de quantification. Toutefois, l'entité de coefficients peut avoir une forme quelconque, auquel cas l'entité de quantification a une forme identique à celle de l'entité de coefficients.  The term "quantization entity" denotes a data structure, these data being quantization steps. It is used to quantify a coefficient entity. In the particular case where the coefficient entity is rectangular, then the quantization entity is a quantization matrix. However, the coefficient entity may have any form, in which case the quantization entity has a shape identical to that of the coefficient entity.
En référence au décodage, les termes « reconstruction » et « décodage » sont très souvent utilisés comme synonymes. Ainsi, une « entité de données image reconstruite » est également désignée sous la terminologie « entité de données image décodée ». En référence à la figure 3, un procédé de codage d'une entité de données image Bc dans un flux F est décrit. Le procédé de codage comprend les étapes de: With reference to decoding, the terms "reconstruction" and "decoding" are very often used as synonyms. Thus, a "reconstructed image data entity" is also referred to as "decoded image data entity". With reference to FIG. 3, a method of encoding an image data entity Bc in a stream F is described. The encoding method comprises the steps of:
- transformer l'entité de données image Bc à coder en une entité de coefficients (étape 30);  transforming the image data entity Bc to be coded into a coefficient entity (step 30);
- déterminer une entité de quantification MQ' (étape 32);  determining a quantization entity MQ '(step 32);
- quantifier l'entité de coefficients avec l'entité de quantification MQ' en une entité de coefficients quantifiés (étape 34); et quantizing the coefficient entity with the quantization entity MQ 'into a quantized coefficient entity (step 34); and
- coder les coefficients quantifiés de l'entité de coefficients quantifiés selon un ordre de balayage (étape 36). Lors de l'étape 30, l'entité de données image Bc à coder est transformée par une transformée T en une entité de coefficients. A titre d'exemple, la transformée est une transformée en cosinus discrète (connue sous la terminologie anglaise de « Discrète Cosine Transform »). Toutefois d'autres transformées peuvent être utilisées tel qu'une transformée en ondelettes discrète, une transformée de Karhunen-Loève, ou encore une transformée en sinus discrète (connue sous la terminologie anglaise de « Discrète Sine Transform »). L'invention n'est donc aucunement limitée par le type de transformée utilisée à l'étape 30. coding the quantized coefficients of the quantized coefficient entity according to a scanning order (step 36). In step 30, the image data entity Bc to be encoded is transformed by a transform T into a coefficient entity. By way of example, the transform is a discrete cosine transform (known under the terminology of "Discrete Cosine Transform"). However, other transforms can be used such as a discrete wavelet transform, a Karhunen-Loève transform, or a discrete sine transform (known under the terminology of "Discrete Sine Transform"). The invention is therefore in no way limited by the type of transform used in step 30.
Lors de l'étape 32, une entité de quantification MQ' est déterminée en vue de la quantification lors d'une étape 34 de l'entité de coefficients. Selon l'invention, l'entité de quantification MQ' est déterminée en fonction de l'ordre de balayage Se utilisé lors de l'étape 36 de codage. L'entité de quantification MQ' est déterminée à partir d'une entité de quantification initiale MQ. Selon un mode particulier de réalisation, l'entité de quantification MQ' est déterminée à partir d'une entité de quantification initiale MQ définie par défaut, p. ex. dans le cadre d'une norme de codage vidéo. Selon ce mode de réalisation, l'entité de quantification MQ' est obtenue en réarrangeant les pas de quantification de l'entité de quantification initiale MQ en fonction de l'ordre de balayage Se. En général l'entité de quantification initiale MQ est définie par défaut. Toutefois, cela n'a pas de caractère obligatoire. Un exemple particulier de réalisation est illustré par les figures 4 et 5. La figure 4 représente une entité de quantification MQ définie par défaut dans le cadre de la norme MPEG2 pour quantifier des entités de coefficients (se référer au chapitre 6.3.1 1 de la norme ITU-T H.262 intitulé Quant matrix extension). Selon cet exemple particulier de réalisation, l'entité de quantification initiale MQ est associée à un des ordres de balayage, p. ex. celui en zigzag, et l'entité de quantification initiale MQ est réarrangée en une entité de quantification MQ' représentée sur la figure 5 quand l'ordre de balayage Se pour ce bloc est différent de l'ordre de balayage auquel est associé MQ, p. ex. alterné. Les pas de quantification dans l'entité de quantification MQ' sont les pas de quantification de l'entité de quantification initiale MQ repositionnés selon l'ordre de balayage définit sur la figure 2b. Ainsi, le pas de quantification de valeur 19 grisé sur la figure 4 (correspondant à la position 3 de la figure 2a) est repositionné à la place correspondant à la position 3 de la figure 2b. Ce pas de quantification de valeur 19 repositionné est également grisé sur la figure 5. De même, le pas de quantification de valeur 37 grisé sur la figure 4 (correspondant à la position 44 de la figure 2a) est repositionné à la place correspondant à la position 44 de la figure 2b. L'ensemble des pas de quantification de l'entité de quantification MQ sont ainsi réarrangés en fonction de l'ordre de balayage Se. L'invention n'est aucunement limitée à deux ordres de balayage. Ainsi, selon une variante, l'entité de quantification initiale MQ est définie pour un ordre de balayage ScO et réarrangée pour chaque ordre de balayage Scj, avec j e {l,2,3,..., N} , où N est un entier. Ainsi, pour une entité de quantification initiale MQ définie par défaut N entités de quantification MQj sont déterminées en fonction des N ordres de balayage {Sc\, Sc2,..., ScN} . Quand l'entité de quantification initiale MQ est définie par défaut, elle n'a pas besoin d'être transmise dans le flux car elle est connue à la fois côté codeur et côté décodeur. Selon une variante, l'entité de quantification initiale MQ n'est pas définie par défaut auquel cas elle doit être codée et transmise dans le flux F. Généralement, quand MQ n'est pas définie par défaut, elle l'est de manière empiriques en fonction de divers paramètres. A titre de simple exemple illustratif l'entité de quantification MQ est définie en fonction par exemple du contenu vidéo, du mode de codage « field », « frame MBAFF», « frame interlaced », et/ou «progressif ». MBAFF est l'acronyme anglais de « MacroBlock Adaptive Frame Field » et est défini par la norme de codage vidéo MPEG-4 AVC/H.264. In step 32, a quantization entity MQ 'is determined for quantization in a step 34 of the coefficient entity. According to the invention, the quantization entity MQ 'is determined according to the scanning order Se used during the coding step 36. The quantization entity MQ 'is determined from an initial quantization entity MQ. According to a particular embodiment, the quantization entity MQ 'is determined from an initial quantization entity MQ defined by default, p. ex. as part of a video coding standard. According to this embodiment, the quantization entity MQ 'is obtained by rearranging the quantization steps of the initial quantization entity MQ according to the scanning order Se. In general, the initial quantization entity MQ is defined by default. However, this is not mandatory. A particular exemplary embodiment is illustrated in FIGS. 4 and 5. FIG. 4 represents a quantization entity MQ defined by default within the framework of the MPEG2 standard for quantizing coefficient entities (refer to chapter 6.3.1 1 of FIG. ITU-T H.262 standard entitled Quant matrix extension). According to this particular embodiment, the initial quantization entity MQ is associated with one of the scanning commands, p. ex. that in zigzag, and the initial quantization entity MQ is rearranged to a quantization entity MQ 'shown in FIG. 5 when the scanning order Se for this block is different from the scanning order with which MQ, p is associated. . ex. alternated. The quantization steps in the quantization entity MQ 'are the quantization steps of the initial quantization entity MQ repositioned according to the scanning order defined in FIG. 2b. Thus, the value quantization step 19 greyed out in FIG. 4 (corresponding to the position 3 of FIG. 2a) is repositioned instead corresponding to position 3 of Figure 2b. This repositioned value quantization step 19 is also grayed out in FIG. 5. Similarly, the quantization step 37 greyed out in FIG. 4 (corresponding to the position 44 of FIG. 2a) is repositioned in the place corresponding to FIG. position 44 of Figure 2b. The set of quantization steps of the quantization entity MQ are thus rearranged as a function of the scanning order Se. The invention is in no way limited to two scanning orders. Thus, according to one variant, the initial quantization entity MQ is defined for a scanning order ScO and rearranged for each scanning order Scj, with je {l, 2,3, ..., N}, where N is a whole. Thus, for an initial quantization entity MQ defined by default N quantization entities MQj are determined according to the N scan commands {Sc \, Sc2, ..., ScN}. When the initial quantization entity MQ is set by default, it does not need to be transmitted in the stream because it is known at both the coder side and the decoder side. According to one variant, the initial quantization entity MQ is not defined by default, in which case it must be coded and transmitted in the stream F. Generally, when MQ is not defined by default, it is empirically according to various parameters. As a simple illustrative example, the quantization entity MQ is defined as a function, for example, of video content, of the "field", "frame MBAFF", "frame interlaced" and / or "progressive" coding mode. MBAFF is the acronym for "MacroBlock Adaptive Frame Field" and is defined by the MPEG-4 AVC / H.264 video coding standard.
Lors de l'étape 34, l'entité de coefficients est quantifiée avec l'entité de quantification MQ' ou MQj en une entité de coefficients quantifiés. A titre d'exemple, si l'entité de coefficients est un bloc de 8x8 coefficients alors chaque coefficient est quantifié par le pas quantification de l'entité de quantification, en l'occurrence de la matrice de quantification, qui lui correspond, i.e. qui est situé spatialement au même endroit. A titre d'exemple, le coefficient du bloc situé en haut et à gauche est quantifié par le pas de quantification situé en haut et à gauche dans la matrice de quantification, i.e. un pas de quantification de valeur 16 si la matrice de quantification utilisée est celle représentée sur la figure 1, Lors de l'étape 36, les coefficients quantifiés de l'entité de coefficients quantifiés sont codés selon un ordre de balayage Se. A cet effet, l'entité de coefficients quantifiés est balayée/parcourue selon l'ordre de balayage Se. Cet ordre de balayage peut varier pour chaque entité de donnée image à coder. A titre d'exemple, dans le cadre de la norme MPEG2, l'entité de coefficients quantifiés est balayée/parcourue selon l'ordre de balayage dit en zigzag ou selon l'ordre de balayage dit alterné. Il apparaît clairement à l'homme du métier que l'invention n'est en aucun cas limitée par la manière de choisir tel ou tel ordre de balayage pour parcourir l'entité de coefficients quantifiés. De même, d'autres ordres de balayage que ceux définis dans le cadre de la norme MPEG2 peuvent être utilisés dans le cadre de l'invention. Le balayage de l'entité de coefficients quantifiés permet de créer une liste de coefficients quantifiés à partir d'une représentation en 2D, p. ex. en bloc, de ces coefficients. Les coefficients quantifiés sont alors codés l'un après l'autre par codage entropique. A titre d'exemple des tables VLC (acronyme anglais de « Variable Length Coding ») peuvent être utilisées. De telles tables sont notamment définies par les normes de codage vidéo. Selon une variante, un codage entropique de type CABAC (acronyme anglais de « Context-Adaptive Binary Arithmetic Coding ») est utilisé. Ce codage entropique est définit par la norme de codage vidéo H.264/AVC (connue sous la référence International Standard ISO/IEC 14496-10 :2005 et intitulé Information technology ~ Coding of audio-visual objects - Pari 10 : Advanced Video Coding). Il apparaît clairement à l'homme du métier que l'invention n'est en aucun cas limitée par le type de codage entropique utilisé pour coder les coefficients quantifiés. In step 34, the coefficient entity is quantized with the quantization entity MQ 'or MQj into a quantized coefficient entity. For example, if the coefficient entity is a block of 8x8 coefficients then each coefficient is quantized by the quantization step of the quantization entity, in this case the quantization matrix, which corresponds to it, ie is located spatially in the same place. By way of example, the coefficient of the block situated at the top left is quantized by the quantization step located at the top left of the quantization matrix, ie a quantization step of value 16 if the quantization matrix used is that shown in Figure 1, In step 36, the quantized coefficients of the quantized coefficient entity are encoded according to a scanning order Se. For this purpose, the quantized coefficient entity is scanned / scanned according to the scanning order Se. This scan order may vary for each image data entity to be encoded. By way of example, in the context of the MPEG2 standard, the quantized coefficient entity is scanned / traversed according to the so-called zigzag scanning order or in the so-called alternate scanning order. It is clear to those skilled in the art that the invention is in no way limited by the manner of choosing a particular scan order to traverse the quantized coefficient entity. Similarly, other scanning orders than those defined in the context of the MPEG2 standard can be used in the context of the invention. By scanning the quantized coefficient entity, a list of quantized coefficients can be created from a 2D representation, p. ex. as a whole, of these coefficients. The quantized coefficients are then coded one after the other by entropy coding. For example, VLC tables (Variable Length Coding) can be used. Such tables are defined in particular by the video coding standards. According to one variant, an entropic coding of the CABAC (Context-Adaptive Binary Arithmetic Coding) type is used. This entropy encoding is defined by the H.264 / AVC video coding standard (known as International Standard ISO / IEC 14496-10: 2005 and entitled Information Technology ~ Coding of Audio-Visual Objects - Betting 10: Advanced Video Coding) . It is clear to those skilled in the art that the invention is in no way limited by the type of entropy coding used to code the quantized coefficients.
Selon un mode particulier de réalisation les entités de quantification According to one particular embodiment, the quantization entities
MQ' ou MQj et éventuellement MQ si elle n'est pas définie par défaut sont codées dans le flux par codage entropique. A titre d'exemple, la norme MPEG2 permet de coder dans le flux des matrices de quantification non définies par défaut. Ainsi, côté décodeur ces matrices de quantification sont reconstruites et utilisées pour reconstruire les entités de données image. MQ 'or MQj and possibly MQ if it is not defined by default are encoded in the stream by entropy encoding. By way of example, the MPEG2 standard makes it possible to encode quantization matrices that are not defined by default in the stream. Thus, on the decoder side these quantization matrices are reconstructed and used to reconstruct the image data entities.
Selon une variante, les entités de quantification MQ' ou MQj ne sont pas codées dans le flux par codage entropique. Dans ce cas, ces entités de quantification sont déterminées côté décodeur de la même manière qu'elles le sont côté codeur lors de l'étape 32, Selon une autre variante, le procédé de codage comprend, avant l'étape de transformation 30, une étape de prédiction spatiale ou temporelle de l'entité de données image. L'étape de prédiction comprend l'extraction, p. ex. par soustraction pixel à pixel, de l'entité de données image Bc d'une entité de prédiction. Il est connu que l'entité de prédiction est générée par prédiction spatiale à partir de pixels voisins de l'entité de données image Bc ou par prédiction temporelle à partir de pixels appartenant à des images de référence. Le résultat de l'étape de prédiction est une entité de résidus. Dans ce cas, l'étape 30 est appliquée sur une entité de résidus. Une telle étape de prédiction spatiale ou temporelle est bien connue de l'homme du métier des codeurs vidéo et n'est pas décrite davantage. According to one variant, the quantization entities MQ 'or MQj are not encoded in the entropy encoded stream. In this case, these quantization entities are determined on the decoder side in the same way as they are on the coder side in step 32, According to another variant, the coding method comprises, before the transformation step 30, a step of spatial or temporal prediction of the image data entity. The prediction step includes extraction, p. ex. by pixel-to-pixel subtraction of the image data entity Bc of a prediction entity. It is known that the prediction entity is generated by spatial prediction from neighboring pixels of the image data entity Bc or by temporal prediction from pixels belonging to reference images. The result of the prediction step is a residue entity. In this case, step 30 is applied to a residue entity. Such a spatial or temporal prediction step is well known to those skilled in the field of video encoders and is not described further.
Pour coder une séquence d'images le procédé de codage est réitéré sur toutes les entités de données image formant l'image, puis sur toutes les images formant la séquence d'images.  To encode an image sequence, the encoding method is reiterated on all the image data entities forming the image, and then on all the images forming the image sequence.
Le procédé de codage selon l'invention permet avantageusement de diminuer le coût de codage. En effet, à partir d'une seule entité de quantification initiale MQ définie par défaut ou non, le procédé de codage est apte à construire N entités de quantification MQj, j e {[,2,3,..., N} , lesquelles sont déterminées en fonction des N ordres de balayage {Sc[,Sc2,...,ScN} et sont adaptée au contenu à quantifier.  The coding method according to the invention advantageously makes it possible to reduce the coding cost. Indeed, from a single initial quantization entity MQ defined by default or not, the coding method is able to construct N quantization entities MQj, I {[, 2,3, ..., N}, which are determined according to the N scan commands {Sc [, Sc2, ..., ScN} and are adapted to the content to be quantified.
En référence à la figure 6, un procédé de reconstruction d'une entité de données image Bc codée dans un flux F est décrit. Le procédé de reconstruction comprend les étapes de ; Referring to Figure 6, a method of reconstructing an image data entity Bc encoded in a stream F is described. The reconstruction method comprises the steps of;
- décoder, selon un ordre de balayage Se, des coefficients quantifiés d'une entité de coefficients quantifiés (étape 60);  decoding, according to a scanning order Se, quantized coefficients of a quantized coefficient entity (step 60);
- déterminer une entité de quantification MQ' (étape 62);  determining a quantization entity MQ '(step 62);
- déquantifier l'entité de coefficients quantifiés avec l'entité de quantification MQ' en une entité de coefficients déquantifiés (étape 64) ; et  dequantizing the quantized coefficient entity with the quantization entity MQ 'into a dequantized coefficient entity (step 64); and
- transformer l'entité de coefficients déquantifiés en vue de la reconstruction de l'entité de données image Bc (étape 66). Lors de l'étape 60, des coefficients quantifiés d'une entité de coefficients quantifiés sont décodés selon un ordre de balayage Se. A cet effet, l'entité de coefficients quantifiés est balayée/parcourue selon un ordre de balayage Se. Cet ordre de balayage peut varier pour chaque entité de données image à reconstruire. A titre d'exemple, dans le cadre de la norme MPEG2, l'entité de coefficients quantifiés est balayée/parcourue selon l'ordre de balayage dit en zigzag ou selon l'ordre de balayage dit alterné. Il apparaît clairement à l'homme du métier que l'invention n'est en aucun cas limitée à la manière de choisir tel ou tel ordre de balayage pour parcourir l'entité de coefficients quantifiés. De même, d'autres ordres de balayage que ceux définis dans le cadre de la norme MPEG2 peuvent être utilisés dans le cadre de l'invention. Le balayage de l'entité de coefficients quantifiés permet de créer une liste de coefficients quantifiés à partir d'une représentation en 2D, p. ex. en bloc, de ces coefficients. Les coefficients quantifiés sont alors décodés l'un après l'autre par décodage entropique et replacés dans l'entité de coefficients quantifiés en fonction de l'ordre de balayage Se. A titre d'exemple des tables VLC (acronyme anglais de « Variable Length Coding ») peuvent être utilisées. De telles tables sont notamment définies par les normes de codage vidéo. Selon une variante, un décodage entropique de type CABAC (acronyme anglais de « Context-Adaptive Binary Arithmetic Coding ») est utilisé. Ce décodage entropique est définit par la norme de codage vidéo H.264/AVC. Il apparaît clairement à l'homme du métier que l'invention n'est en aucun cas limitée par le type de codage entropique utilisé pour décoder les coefficients quantifiés. transforming the dequantized coefficient entity for the reconstruction of the image data entity Bc (step 66). In step 60, quantized coefficients of a quantized coefficient entity are decoded in a scanning order Se. For this purpose, the quantized coefficient entity is scanned / scanned in a scanning order Se. This scan order may vary for each image data entity to be reconstructed. By way of example, in the context of the MPEG2 standard, the quantized coefficient entity is scanned / traversed according to the so-called zigzag scanning order or in the so-called alternate scanning order. It is clear to those skilled in the art that the invention is in no way limited to the manner of choosing a particular scan order to traverse the quantized coefficient entity. Similarly, other scanning orders than those defined in the context of the MPEG2 standard can be used in the context of the invention. By scanning the quantized coefficient entity, a list of quantized coefficients can be created from a 2D representation, p. ex. as a whole, of these coefficients. The quantized coefficients are then decoded one after the other by entropy decoding and returned to the quantized coefficient entity according to the scanning order Se. For example, VLC tables (Variable Length Coding) can be used. Such tables are defined in particular by the video coding standards. According to one variant, CABAC (Context-Adaptive Binary Arithmetic Coding) entropic decoding is used. This entropy decoding is defined by the H.264 / AVC video coding standard. It is clear to those skilled in the art that the invention is in no way limited by the type of entropy coding used to decode the quantized coefficients.
Lors d'une étape 62, une entité de quantification MQ' est déterminée en vue de la quantification inverse (étape 64) de l'entité de coefficients quantifiés. Selon l'invention, cette entité de quantification MQ' est déterminée en fonction de l'ordre de balayage Se utilisé lors de l'étape 60 de décodage. Selon un mode particulier de réalisation, l'entité de quantification MQ' est déterminée à partir d'une entité de quantification initiale MQ définie par défaut, p. ex. dans le cadre d'une norme de codage vidéo. Selon ce mode de réalisation, l'entité de quantification MQ' est obtenue en réarrangeant les pas de quantification de l'entité de quantification initiale MQ en fonction de l'ordre de balayage Se. En général l'entité de quantification initiale MQ est définie par défaut. Toutefois, cela n'a pas de caractère obligatoire. Un exemple particulier de réalisation est illustré par les figures 4 et 5. La figure 4 représente une entité de quantification MQ définit pas défaut dans le cadre de la norme MPEG2 pour quantifier des entités de coefficients. Selon cet exemple particulier de réalisation, l'entité de quantification initiale MQ est associée à un des ordres de balayage, p. ex. celui en zigzag, et l'entité de quantification initiale MQ est réarrangée en une entité de quantification MQ' représentée sur la figure 5 quand l'ordre de balayage Se pour ce bloc utilisé lors de l'étape 60 de décodage est différent de l'ordre de balayage auquel est associé MQ, p. ex. alterné. Les pas de quantification dans l'entité de quantification MQ' sont les pas de quantification de l'entité de quantification initiale MQ repositionnés selon l'ordre de balayage définit sur la figure 2b. Ainsi, le pas de quantification de valeur 19 grisé sur la figure 4 (correspondant à la position 3 de la figure 2a) est repositionné à la place correspondant à la position 3 de la figure 2b. Ce pas de quantification repositionné est également grisé sur la figure 5. De même, le pas de quantification de valeur 37 grisé sur la figure 4 (correspondant à la position 44 de la figure 2a) est repositionné à la place correspondant à la position 44 de la figure 2b. L'ensemble des pas de quantification de l'entité de quantification initiale MQ sont ainsi réarrangés en fonction de l'ordre de balayage Se. L'invention n'est aucunement limitée à deux ordres de balayage. Ainsi, selon une variante, l'entité de quantification initiale MQ est définie pour un ordre de balayage ScO et réarrangée pour chaque ordre de balayage Scj, avec j e {[,2,3,..., N] , OÙ N est un entier. Ainsi pour une entité de quantification MQ définie par défaut, N entités de quantification différentes MQj sont déterminées en fonction des N ordres de balayage {Sc[, Sc2,..., ScN} . Quand l'entité de quantification initiale MQ est définie par défaut, elle n'a pas besoin d'être transmise dans le flux car elle est connue à la fois côté codeur et côté décodeur. Selon une variante, l'entité de quantification initiale MQ n'est pas définie par défaut auquel cas elle est transmise dans le flux F et doit être décodée à partir du flux F. In a step 62, a quantization entity MQ 'is determined for inverse quantization (step 64) of the quantized coefficient entity. According to the invention, this quantization entity MQ 'is determined according to the scanning order Se used during the decoding step 60. According to a particular embodiment, the quantization entity MQ 'is determined from an initial quantization entity MQ defined by default, p. ex. as part of a video coding standard. According to this embodiment, the quantization entity MQ 'is obtained by rearranging the quantization steps of the initial quantization entity MQ according to the scanning order Se. In general, the initial quantization entity MQ is defined by default. However, this is not mandatory. A particular embodiment is illustrated in FIGS. 4 and 5. FIG. 4 represents a quantization entity MQ defining a default in the context of the MPEG2 standard for quantizing coefficient entities. According to this particular embodiment, the initial quantization entity MQ is associated with one of the scanning commands, p. ex. that in zigzag, and the initial quantization entity MQ is rearranged to a quantization entity MQ 'shown in FIG. 5 when the scanning order Se for this block used in the decoding step 60 is different from the scan order associated with MQ, p. ex. alternated. The quantization steps in the quantization entity MQ 'are the quantization steps of the initial quantization entity MQ repositioned according to the scanning order defined in FIG. 2b. Thus, the value quantization step 19 greyed out in FIG. 4 (corresponding to the position 3 of FIG. 2a) is repositioned in the place corresponding to the position 3 of FIG. 2b. This repositioned quantization step is also grayed out in FIG. 5. Similarly, the quantization step 37 greyed out in FIG. 4 (corresponding to the position 44 of FIG. 2a) is repositioned in the place corresponding to the position 44 of FIG. Figure 2b. The set of quantization steps of the initial quantization entity MQ are thus rearranged as a function of the scanning order Se. The invention is in no way limited to two scanning orders. Thus, according to one variant, the initial quantization entity MQ is defined for a scanning order ScO and rearranged for each scanning order Scj, with I {[, 2,3, ..., N], where N is a whole. Thus for a quantization entity MQ defined by default, N different quantization entities MQj are determined according to the N scan commands {Sc [, Sc2, ..., ScN}. When the initial quantization entity MQ is set by default, it does not need to be transmitted in the stream because it is known at both the coder side and the decoder side. According to one variant, the initial quantization entity MQ is not defined by default, in which case it is transmitted in the stream F and must be decoded from the stream F.
Lors de l'étape 64, l'entité de coefficients quantifiés est déquantifiée à partir de l'entité de quantification MQ' ou MQj en une entité de coefficients déquantifiés. Les termes « déquantification » et « quantification inverse » sont synonymes. A titre d'exemple, si l'entité de coefficients est un bloc de 8x8 coefficients alors chaque coefficient est déquantifié par le pas quantification de l'entité de quantification, en l'occurrence de la matrice de quantification, qui lui correspond, i.e. qui est situé spatialement au même endroit. A titre d'exemple, le coefficient du bloc situé en haut et à gauche est déquantifié par le pas de quantification situé en haut et à gauche dans la matrice de quantification, i.e. un pas de quantification de valeur 16 si la matrice de quantification utilisée est celle représentée sur la figure 1 . In step 64, the quantized coefficient entity is dequantized from the quantization entity MQ 'or MQj into a dequantized coefficient entity. The terms "dequantization" and "inverse quantification" are synonymous. For example, if the coefficient entity is a block of 8x8 coefficients, then each coefficient is dequantized by the quantization step of the quantization entity, in this case the quantization matrix, which corresponds to it, ie is located spatially in the same place. By way of example, the coefficient of the block located at the top left is dequantized by the quantization step located at the top left in the quantization matrix, ie a quantization step of value 16 if the quantization matrix used is that shown in Figure 1.
Lors d'une étape 66, l'entité de coefficients déquantifiés est transformée par une transformée T1 inverse de celle utilisée par le procédé de codage à l'étape 30 en vue de la reconstruction de l'entité de données image Bc. A titre d'exemple, la transformée est une transformée en cosinus discrète inverse (connue sous la terminologie anglaise de « Inverse Discrète Cosine Transform »). Toutefois d'autres transformées peuvent être utilisées tel qu'une transformée inverse en ondelettes discrète, une transformée inverse de Karhunen-Loeve, ou encore une transformée inverse en sinus discrète (connue sous la terminologie anglaise de « Inverse Discrète Sine Transform »). L'invention n'est donc aucunement limitée par le type de transformée utilisée à l'étape 66. In a step 66, the dequantized coefficient entity is transformed by a transform T 1 inverse to that used by the coding method in step 30 in order to reconstruct the image data entity Bc. By way of example, the transform is an inverse discrete cosine transform (known under the terminology of "Inverse Discrete Cosine Transform"). However, other transforms can be used such as a discrete wavelet inverse transform, a Karhunen-Loeve inverse transform, or a discrete sine inverse transform (known as "Inverse Discrete Sine Transform"). The invention is therefore in no way limited by the type of transform used in step 66.
Selon une variante, l'entité de données image obtenue à l'étape 66 est une entité de résidus. Selon cette variante, le procédé de reconstruction comprend, suite à l'étape de transformation 66, une étape de prédiction spatiale ou temporelle de l'entité de résidus à reconstruire. L'étape de prédiction comprend la fusion, p. ex. par addition pixel à pixel, d'une entité de prédiction et de l'entité de résidus obtenue à l'étape 66. Une telle étape de prédiction spatiale ou temporelle est bien connue de l'homme du métier des codeurs vidéo et n'est pas décrite davantage. Il est connu que l'entité de prédiction est générée par prédiction spatiale à partir de pixels voisins de l'entité de données image Bc ou par prédiction temporelle à partir de pixels appartenant à des images de référence. Le résultat de l'étape de prédiction est une entité de données image de luminance ou de chrominance.  Alternatively, the image data entity obtained in step 66 is a residue entity. According to this variant, the reconstruction method comprises, following the transformation step 66, a step of spatial or temporal prediction of the residue entity to be reconstructed. The prediction step includes fusion, p. ex. by pixel-to-pixel addition of a prediction entity and the residue entity obtained in step 66. Such a spatial or temporal prediction step is well known to those skilled in the video encoder art and is not not described further. It is known that the prediction entity is generated by spatial prediction from neighboring pixels of the image data entity Bc or by temporal prediction from pixels belonging to reference images. The result of the prediction step is a luminance or chrominance image data entity.
Pour reconstruire une séquence d'images, ie procédé de reconstruction est réitéré sur toutes les entités de données image formant l'image, puis sur toutes les images formant la séquence d'images. Les mêmes avantages que ceux cités en référence au procédé de codage s'appliquent au procédé de décodage. To reconstruct an image sequence, the reconstruction method is reiterated on all the image data entities forming the image, then on all the images forming the image sequence. The same advantages as those mentioned with reference to the coding method apply to the decoding method.
La figure 7 illustre schématiquement un dispositif de codage 12. Le dispositif de codage 12 reçoit en entrée une ou des entité(s) de données image Bc, en l'occurrence des entités de luminance ou de chrominance. Le dispositif de codage 12 est apte à mettre en œuvre le procédé de codage selon l'invention décrit en référence à la figure 3. Le dispositif de codage 12 met en œuvre notamment un codage avec prédiction temporelle. Seuls les modules du dispositif de codage 12 se rapportant au codage par prédiction temporelle ou codage INTER sont représentés sur la figure 7. D'autres modules connus de l'homme du métier des codeurs vidéo ne sont pas représentés (p. ex. sélection du mode de codage, prédiction spatiale). Le dispositif de codage 12 comprend notamment un module de calcul 1200 apte à extraire d'une entité de données image courante Bc une entité de prédiction Bp pour générer une entité de résidus Br. Il comprend en outre un module 1202 apte à transformer puis quantifier l'entité de résidus Br en une entité de coefficients quantifiés. Le module 1202 est notamment apte à mettre en œuvre les étapes 30, 32 et 34 du procédé de codage selon l'invention. Le dispositif de codage 12 comprend en outre un module de codage entropique 1204 apte à coder l'entité de coefficients quantifiés dans un flux F. Le module 1204 est notamment apte à mettre en œuvre l'étape 36 du procédé de codage selon l'invention. Il comprend en outre un module 1206 effectuant l'opération inverse du module 1202. Le module 1206 effectue une quantification inverse IQ suivie d'une transformation inverse IT. Le module 1206 est relié à un module de calcul 1208 apte à fusionner l'entité issue du module 1206 et l'entité de prédiction Bp pour générer une entité de données image reconstruites qui est stockée dans une mémoire 121 0. Un module de compensation de mouvement 1216 détermine l'entité de prédiction Bp à partir de données image déjà reconstruites stockées dans la mémoire 1210 et de données de mouvement (i.e. vecteurs de mouvement et indice d'images de référence) déterminées par un module d'estimation de mouvement 1212. Selon une variante, l'entité de prédiction Bp est déterminée par un module de prédiction spatiale non représenté sur la figure 7. La figure 8 illustre schématiquement un dispositif de décodage 13. Le dispositif de codage 13 reçoit en entrée un flux F représentatif d'une image ou d'une séquence d'images. Le flux F est par exemple transmis par un dispositif de codage 12 au travers d'un canal. Le dispositif de décodage 13 est apte à mettre en œuvre le procédé de reconstruction selon l'invention décrit en référence à la figure 6. Le dispositif de décodage 13 comprend un module de décodage entropique 1300 apte à générer des données décodées, notamment des coefficients quantifiés, modes de codage, éventuellement des données de mouvement, etc. Le module 1300 est notamment apte à mettre en œuvre l'étape 60 du procédé de reconstruction selon l'invention. Les coefficients quantifiés sont alors transmis à un module 1302 apte à effectuer une quantification inverse IQ suivie d'une transformation inverse IT. Le module 1302 est identique au module 1206 du dispositif de codage 12. Le module 1302 est notamment apte à mettre en œuvre les étapes 62, 64 et 66 du procédé de reconstruction selon l'invention. Le module 1302 est relié à un module de calcul 1304 apte à fusionner l'entité issue du module 1302 et l'entité de prédiction Bp pour générer une entité de données image reconstruites Bc, en l'occurrence de luminance/chrominance qui est stockée dans une mémoire 1306. Le dispositif de décodage 13 comprend également un module de compensation de mouvement 1308. Le module de compensation de mouvement 1308 détermine l'entité de prédiction Bp à partir de données image déjà reconstruites stockées dans la mémoire 1306 et de données de mouvement décodées transmises par le module de décodage entropique 1300. FIG. 7 schematically illustrates a coding device 12. The coding device 12 receives at the input one or more image data entities Bc, in this case luminance or chrominance entities. The coding device 12 is able to implement the coding method according to the invention described with reference to FIG. 3. The coding device 12 implements, in particular, coding with temporal prediction. Only the modules of the coding device 12 relating to the coding by temporal prediction or INTER coding are shown in FIG. 7. Other modules known to those skilled in the art of video coders are not shown (for example, coding mode, spatial prediction). The coding device 12 comprises in particular a calculation module 1200 capable of extracting from a current image data entity Bc a prediction entity Bp to generate a residue entity Br. It furthermore comprises a module 1202 capable of transforming and quantifying the data. residue entity Br into a quantized coefficient entity. The module 1202 is particularly suitable for implementing the steps 30, 32 and 34 of the coding method according to the invention. The coding device 12 furthermore comprises an entropy coding module 1204 capable of coding the quantized coefficient entity in a stream F. The module 1204 is in particular able to implement the step 36 of the coding method according to the invention . It further comprises a module 1206 performing the inverse operation of the module 1202. The module 1206 performs an inverse quantization IQ followed by an inverse transformation IT. The module 1206 is connected to a calculation module 1208 able to merge the entity issuing from the module 1206 and the prediction entity Bp to generate a reconstructed image data entity that is stored in a memory 121 0. Motion 1216 determines the prediction entity Bp from already reconstructed image data stored in the memory 1210 and motion data (ie motion vectors and reference image index) determined by a motion estimation module 1212. According to one variant, the prediction entity Bp is determined by a spatial prediction module not shown in FIG. 7. FIG. 8 schematically illustrates a decoding device 13. The coding device 13 receives as input a stream F representative of an image or a sequence of images. The stream F is for example transmitted by a coding device 12 through a channel. The decoding device 13 is able to implement the reconstruction method according to the invention described with reference to FIG. 6. The decoding device 13 comprises an entropy decoding module 1300 able to generate decoded data, in particular quantized coefficients. , coding modes, possibly motion data, etc. The module 1300 is particularly suitable for implementing step 60 of the reconstruction method according to the invention. The quantized coefficients are then transmitted to a module 1302 capable of performing an inverse quantization IQ followed by an inverse transformation IT. The module 1302 is identical to the module 1206 of the coding device 12. The module 1302 is particularly suitable for implementing the steps 62, 64 and 66 of the reconstruction method according to the invention. The module 1302 is connected to a calculation module 1304 able to merge the entity coming from the module 1302 and the prediction entity Bp to generate a reconstructed image data entity Bc, in this case luminance / chrominance, which is stored in a memory 1306. The decoding device 13 also includes a motion compensation module 1308. The motion compensation module 1308 determines the prediction entity Bp from already reconstructed image data stored in the memory 1306 and motion data. decoded signals transmitted by the entropy decoding module 1300.

Claims

Revendications claims
1 . Procédé de codage d'une entité de données image dans un flux comprenant les étapes suivantes : 1. A method of encoding an image data entity into a stream comprising the steps of:
- transformer (30) ladite entité de données image en une entité de coefficients ;  transforming (30) said image data entity into a coefficient entity;
- quantifier (34) ladite entité de coefficients avec une entité de quantification en une entité de coefficients quantifiés; et  quantizing (34) said coefficient entity with a quantization entity into a quantized coefficient entity; and
- coder (36) dans ledit flux, selon un ordre de balayage, lesdits coefficients quantifiés de ladite entité de coefficients quantifiés;  - encode (36) in said stream, in a scanning order, said quantized coefficients of said quantized coefficient entity;
ledit procédé de codage étant caractérisé en ce qu'il comprend, en outre, une étape de détermination (32) de ladite entité de quantification en fonction dudit ordre de balayage. said coding method being characterized in that it further comprises a step of determining (32) said quantization entity as a function of said scanning order.
2. Procédé de codage selon la revendication 1 , dans lequel ladite étape de détermination (32) de ladite entité de quantification comprend la réorganisation, en fonction dudit ordre de balayage, d'une entité de quantification initiale. The coding method according to claim 1, wherein said step of determining (32) said quantization entity comprises reordering, based on said scan order, an initial quantization entity.
3. Procédé de codage selon la revendication 2, lequel comprend, en outre, une étape de codage dans ledit flux de ladite matrice de quantification initiale. 3. Coding method according to claim 2, which further comprises a coding step in said stream of said initial quantization matrix.
4. Procédé de reconstruction d'une entité de données image comprenant les étapes suivantes : A method of reconstructing an image data entity comprising the steps of:
- décoder (60), selon un ordre de balayage, des coefficients quantifiés d'une entité de coefficients quantifiés;  decoding (60), in a scanning order, quantized coefficients of a quantized coefficient entity;
- déquantifier (64) ladite entité de coefficients quantifiés avec une entité de quantification en une entité de coefficients déquantifiés ; et  dequantizing (64) said quantized coefficient entity with a quantization entity into a dequantized coefficient entity; and
- transformer (66) ladite entité de coefficients déquantifiés pour reconstruire une entité de données image ; ledit procédé étant caractérisé en ce qu'il comprend, en outre, une étape de détermination (62) de ladite entité de quantification en fonction dudit ordre de balayage. 5, Procédé de reconstruction selon la revendication 4, dans lequel ladite étape de détermination de ladite entité de quantification comprend la réorganisation, en fonction dudit ordre de balayage, d'une entité de quantification initiale. 6. Procédé de reconstruction selon la revendication 5, lequel comprend, en outre, une étape de décodage de ladite matrice de quantification initiale. transforming (66) said dequantized coefficient entity to reconstruct an image data entity; said method being characterized in that it further comprises a step of determining (62) said quantization entity according to said scanning order. 5, reconstruction method according to claim 4, wherein said step of determining said quantization entity comprises reorganizing, according to said scanning order, an initial quantization entity. The reconstruction method according to claim 5, which further comprises a step of decoding said initial quantization matrix.
PCT/EP2011/060665 2010-06-24 2011-06-24 Method of coding an image data entity and method of reconstructing an image data entity WO2011161259A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1055061 2010-06-24
FR1055061 2010-06-24

Publications (1)

Publication Number Publication Date
WO2011161259A1 true WO2011161259A1 (en) 2011-12-29

Family

ID=42938224

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/060665 WO2011161259A1 (en) 2010-06-24 2011-06-24 Method of coding an image data entity and method of reconstructing an image data entity

Country Status (1)

Country Link
WO (1) WO2011161259A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013001755A1 (en) * 2011-06-29 2013-01-03 Canon Kabushiki Kaisha Image encoding apparatus, image encoding method and program, image decoding apparatus, image decoding method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2305047A (en) * 1995-09-01 1997-03-26 Motorola Inc Inverse DCT image processing
EP0808069A2 (en) * 1996-05-14 1997-11-19 Daewoo Electronics Co., Ltd A Quantizer for video signal encoding system
WO2001052550A1 (en) * 2000-01-12 2001-07-19 Koninklijke Philips Electronics N.V. Image data compression
EP1768416A1 (en) * 2005-09-27 2007-03-28 Matsushita Electric Industrial Co., Ltd. Frequency selective video compression and quantization

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2305047A (en) * 1995-09-01 1997-03-26 Motorola Inc Inverse DCT image processing
EP0808069A2 (en) * 1996-05-14 1997-11-19 Daewoo Electronics Co., Ltd A Quantizer for video signal encoding system
WO2001052550A1 (en) * 2000-01-12 2001-07-19 Koninklijke Philips Electronics N.V. Image data compression
EP1768416A1 (en) * 2005-09-27 2007-03-28 Matsushita Electric Industrial Co., Ltd. Frequency selective video compression and quantization

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PAN F: "Adaptive image compression using local pattern information", PATTERN RECOGNITION LETTERS, ELSEVIER, AMSTERDAM, NL LNKD- DOI:10.1016/S0167-8655(02)00156-3, vol. 23, no. 14, 1 December 2002 (2002-12-01), pages 1837 - 1845, XP004372150, ISSN: 0167-8655 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013001755A1 (en) * 2011-06-29 2013-01-03 Canon Kabushiki Kaisha Image encoding apparatus, image encoding method and program, image decoding apparatus, image decoding method, and program

Similar Documents

Publication Publication Date Title
US11470339B2 (en) Residual prediction for intra block copying
JP5777080B2 (en) Lossless coding and related signaling methods for composite video
US7379496B2 (en) Multi-resolution video coding and decoding
EP3490258B1 (en) Method and recording medium storing coded image data
US7738716B2 (en) Encoding and decoding apparatus and method for reducing blocking phenomenon and computer-readable recording medium storing program for executing the method
US7974340B2 (en) Adaptive B-picture quantization control
EP3694209B1 (en) Method for image decoding, device for image decoding, and corresponding computer program
FR2948845A1 (en) METHOD FOR DECODING A FLOW REPRESENTATIVE OF AN IMAGE SEQUENCE AND METHOD FOR CODING AN IMAGE SEQUENCE
WO2010026770A1 (en) Image coding method, image decoding method, image coding device, image decoding device, system, program, and integrated circuit
KR101492930B1 (en) Methods and devices for data compression with adaptive filtering in the transform domain
GB2519094A (en) Data encoding and decoding
KR20140042778A (en) Compression and decompression of reference images in a video encoder
GB2318472A (en) Generating inter-frame encoded video signals
US20220256193A1 (en) Data encoding and decoding
US10834400B1 (en) Enhancements of the AV1 video codec
US7502415B2 (en) Range reduction
KR101652183B1 (en) Coding syntax elements using vlc codewords
Juurlink et al. Understanding the application: An overview of the h. 264 standard
FR2999760A1 (en) METHOD FOR ENCODING AND DECODING IMAGES, CORRESPONDING ENCODING AND DECODING DEVICE AND COMPUTER PROGRAMS
WO2015079179A1 (en) Method for encoding and decoding images, device for encoding and decoding images and corresponding computer programs
WO2011161259A1 (en) Method of coding an image data entity and method of reconstructing an image data entity
FR2944936A1 (en) METHODS OF ENCODING AND DECODING AN IMAGE DATA BLOCK, CODING AND DECODING DEVICES IMPLEMENTING SAID METHODS
Lin Achieving re-loss-free video coding
CN115567710A (en) Data encoding method and apparatus, and method and apparatus for decoding data stream
US20230103877A1 (en) Video data encoding and decoding

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11728257

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11728257

Country of ref document: EP

Kind code of ref document: A1