WO2006059021A1 - Procede de codage d'images video de differents formats non proportionnels - Google Patents

Procede de codage d'images video de differents formats non proportionnels Download PDF

Info

Publication number
WO2006059021A1
WO2006059021A1 PCT/FR2005/050840 FR2005050840W WO2006059021A1 WO 2006059021 A1 WO2006059021 A1 WO 2006059021A1 FR 2005050840 W FR2005050840 W FR 2005050840W WO 2006059021 A1 WO2006059021 A1 WO 2006059021A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
format
video
window
common
Prior art date
Application number
PCT/FR2005/050840
Other languages
English (en)
Inventor
Nicolas Burdin
Gwenaelle Marquant
Jérôme Vieron
Original Assignee
Thomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing filed Critical Thomson Licensing
Publication of WO2006059021A1 publication Critical patent/WO2006059021A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets

Definitions

  • the invention relates to a method and device for hierarchical coding and decoding of video images of different non-proportional formats.
  • it relates to images having a common video portion. This is for example the coding of a digital television signal in SD format, acronym for English Standard Definition and high definition HD format.
  • Space-scalable video coders are in the known domain.
  • the data stream generated by the video encoder has a scalable hierarchy, the encoded data is incorporated into the stream hierarchically, with spatial scalability.
  • the video formats concerned by these encoders are those for which the dimensions of the high resolution correspond to a multiple of 2 of those of the low resolution, allowing a dyadic decomposition. If this is not the case, a low resolution extension method is used to exactly match the two formats, as described for example in the MPEG4-2 standard.
  • the compatible coding of a format of 176 pixels x 144 lines and a CIF format of 352 x 288, the English-language format Common English Format (CIF), or the compatible coding of a format CIF and a CIF format 4, with dimensions 704 x 576, is obtained by sub-sampling and filtering the high-resolution image.
  • CIF Common English Format
  • Hierarchical coding provides a base layer, relative to the low resolution format, and an upper layer that corresponds to the high resolution format.
  • the encoding format of the low resolution image is generally chosen different from the display format and such that the homothetic transformation is preserved between the two formats to be encoded, high and low resolution.
  • the formats are then adjusted to the decoder, either by eliminating parts of the image, for example the left and right parts of the image, or by adding strips. black in the decoded image, either by performing anamorphic transformation to match the encoding format to the display format. The image thus displayed is therefore degraded in quality or the coding of a part of the non-visualized image is performed, increasing the cost of coding and transmission.
  • the object of the invention is a method of hierarchical encoding of video images of different non-proportional formats to give a stream of coded data, a first image (F1) to a format F1 and at least a second image (F2 ) at a format F2 of resolution less than F1, the video content of the images (F1) and (F2) having at least one common part, characterized in that it implements the following steps:
  • the image (F2) used for the zoom is a reconstructed image obtained by local decoding of the coded image
  • the scaling consists of oversampling and filtering the image.
  • the video images of different formats are images of sub-bands obtained by wavelet-type temporal decomposition or subband coding.
  • the common part of the video content is defined from geometric parameters such as one or more zoom factors from which the image is zoomed (F2) to obtain the low resolution image zoomed (Fz) and a zoomed image position (Fz) in the image (F1), these parameters being encoded and transmitted in the upper layer.
  • the geometrical parameters are obtained by implementing the following steps: predetermination, in a source image, of a first video window defining the video content to be encoded in F1 format, and a second window video defining the video content to be encoded in F2 format and having at least one video portion common to the first window,
  • the first image is in HD high definition resolution format and the second image is in SD standard resolution format.
  • the invention also relates to a method for decoding a structured digital data stream into at least one base layer comprising data relating to a low resolution image and an upper layer comprising data relating to a high resolution image, the image low resolution corresponding to at least a video portion of the high resolution image, characterized in that it comprises the following steps:
  • the method is characterized in that it comprises a step of extraction and decoding of geometrical data of the upper layer defining the scaling factor for the decoded image and the position of the image scaled in the high resolution image.
  • the invention also relates to a hierarchical data stream for coding video images of different non-proportional formats and having at least one common video part, characterized in that it comprises a low layer corresponding to an image in a low resolution format. and an upper layer comprising data relating to a low-frequency image-dependent residual image for the video portion common to both formats, and additional data relating to the non-common video portion.
  • the coding of the high-resolution image is done on the one hand by using the low resolution image as a prediction image for the coding of the part common to both formats and, on the other hand, by coding the non-common zone, these data of encoding being then transmitted in an upper layer of the data stream.
  • the quality of the images of different resolutions extracted from the scalable data stream is retained regardless of the dimensions of the proposed formats.
  • the coding cost is reduced, the data compression rate is improved, the transmission cost is optimized for each of the formats.
  • a high resolution image can be converted to a low resolution image, and vice versa, without degrading the quality of the image even if the conversion is not a homothetic transformation.
  • FIG. 1 a flowchart of the method for creating video contents
  • FIG. 2 a flowchart of the coding method
  • FIG. 3 an exemplary encoding of SD and HD formats
  • FIG. 4 examples of formats F1 and F2,
  • FIG. 5 a decoding circuit
  • the data coding method is a hierarchical coding method, ie the encoded data stream is hierarchically structured, the lower resolution format data being embedded in a base layer or a lower layer, the additional data relating to the higher resolution format being integrated in a higher layer. It is thus easy, at the level of the data flow, to filter the only data relating to a standard, by selecting the only layers corresponding to the desired level of resolution. This is spatial scalability compatible with any temporal scalability required by the resolution format standard.
  • the invention relates to the coding of video contents to different non-proportional formats in width and / or image height and having a common video part.
  • One of the formats is of lower resolution than the other format. It is either of lower definition with the number of pixels per line or the number of lines defining for example the lower common video part, or, for the same definition, of smaller size.
  • FIG. 1 represents a flowchart of a method for generating low and high resolution video contents and associated parameters.
  • a first step 1 takes into account the different video formats to code.
  • the coded data stream makes it possible to feed compatible decoders of one of these formats, the selection of the format, which is a function of the display device, of the decoder or of parameters such as transmission rate, which is done by filtering the data. at the level of this coded data stream, upstream or at the level of the decoder.
  • a first high resolution format F1 and a second low resolution format F2 are used.
  • Each of these formats is defined by its width L F i, L F 2 or number of pixels on a line and its height HFI, H F 2 ⁇ u number of lines.
  • These formats make it possible to define a first and a second video window in the source image that represent the video contents to be encoded in F1 format and in F2 format. These video contents, with reference to the source image, may be different.
  • the windows have a common zone, that is to say that the video format encoded images F1 and F2 correspond to a common part of the video of the source image.
  • the dimensions of the first and second windows do not necessarily correspond to the dimensions of the F1 and F2 formats.
  • an additional operation of homothetic or non-homothetic transformation of the images of these windows is performed in order to adjust these images to the dimensions of the formats F1 and F2.
  • the first window corresponds to the F1 format image.
  • the high-resolution image in F1 format can be either the source image, or a part of the source image, these possibly sampled images.
  • This image, called (F1) is chosen as the reference image for the calculation of geometric parameters defining the called F2 format image (F2).
  • the second step 2 consists in determining these geometrical parameters.
  • the second window is sized and positioned on the source image to define the video content to be displayed in F2 format. Its dimensions are those in the image (F1) assuming that the first window corresponds to the F1 format.
  • the positioning of the second window is defined for example by the coordinates of the upper left corner in this image (F1). These coordinates are the line number l w and the column number Cw of this corner in the image (F1).
  • the values ⁇ L and vertical ⁇ H define the horizontal and vertical zoom factors to be applied to the low resolution image to obtain the size of the second window in the reference image (F1).
  • This second window, positioned in (F1) in (l w , c w ) is of dimensions:
  • H F 2 is the number of lines in the F2 format image
  • L F 2 is the number of pixels per line of the F2 format image.
  • Hw is the number of rows of the second window in the reference picture (F1)
  • Step 3 selects the video information of the source image corresponding to the window defined by the parameters then a low-pass type filtering and a subsampling of this content, with subsampling factors 1 / ⁇ L and 1 / CXH, to provide an image in F2 format.
  • the position and the size of the second window in the image (F1) are for example calculated in the source image and then modified according to the transformation. homothetic or non-homothetic matching the first window in F1 format.
  • FIG. 2 represents a flowchart of the coding method according to the invention.
  • the first coding step, referenced 4 performs the coding of the image in F2 format.
  • the second step referenced 5 performs the decoding of this coded image to provide a local decoded image or reconstructed image.
  • the local decoded picture may explicitly consist of the original picture before encoding.
  • This image is then scaled or zoomed, according to the factors ⁇ L and ⁇ H> to obtain an image (F2) zoomed, called (Fz), to the dimensions of the second window.
  • the filter For example, an interpolation path from (F2) to (Fz) may be a bilinear interpolation filter.
  • the next step referenced 6 performs the coding of the geometric parameters (CXH 1 (XL, Iw 1 Cw) defining the format image F2 in the F1 format image, and then performs a residue calculation to provide a residue image.
  • CXH 1 (XL, Iw 1 Cw) defining the format image F2 in the F1 format image
  • the image (Fz) is positioned on the high resolution image (F1) resulting from the source image as a function of the parameters l w and Cw. by subtracting, pixel by pixel, from the pixels of the image (Fz), the corresponding pixels of the image (F1) .
  • the image (Fz) is also called the predicted image because it is used as a prediction for the coding of the image.
  • More complex operators can be used for calculating this high frequency image. It is thus possible to exploit operators based on intra or intra image prediction, applied to the basic structures of the image, for example blocks of the image, macroblocks or even any non-square regions. .
  • the next step referenced 7 in the figure determines the parts of the high definition image, the first window, not covered by the second window. For example, it creates a grouping of the different non-common areas to facilitate their coding.
  • the image of the residues and the image corresponding to the uncovered part are coded, for example by block using the discrete cosine transform or according to a coding of the wavelet subband type. .
  • the reference step 9 inserts the image-related coding data (F2) into a base layer of the data stream and the coding data relating to the residue image and the uncovered area in a higher layer. .
  • the image of the high frequencies (HF) makes it possible to improve the quality of the image (F2) once zoomed by adding the residues corresponding to the pixels of this zoomed image Fz.
  • the image corresponding to the uncovered area completes the high resolution image.
  • HF high frequency data
  • Fz low resolution image scaled
  • This approach results in the absence of edge information when encoding the low resolution image.
  • This information is additional information, in the same way as the information relating to the high frequency image, for the coding of the high resolution image.
  • an optimization of the coding cost is obtained for the coding of low resolution images.
  • no distortion is introduced by the coding method since only proportional image transformations are implemented, the video data relating to the low resolution image belonging only to a window Proportional dimensions in F2 format.
  • the second window is positioned so as to cover the maximum area of the first window to obtain the most information in the image (F2), to obtain a common area to code the largest possible and an uncovered area to be coded as low as possible.
  • the ratio between the F1 and F2 formats is calculated for both dimensions.
  • the smallest value, called ⁇ , is selected.
  • the dimensions of the second window are then the widths and heights of the format F2 multiplied by ⁇ x It is recalled that, for simplification, the dimensions of the first window are F1 format.
  • both windows have at least one dimension that has the same value.
  • FIG 3 gives an example of implementation of the method in this particular case.
  • the F1 format is the HD format and the F2 format is the SD format.
  • a first 720-line, 1280-pixel high-resolution HD video window, referenced 11, is positioned on the source image. It can also match the source image then in this HD format.
  • the second format, referenced 12, is an SD format corresponding to an image of 480 lines and 720 pixels per line.
  • the value retained for ⁇ is therefore 1, 5.
  • This window 13 is then centered horizontally on the first window 11 to give a part common to both formats, reference 14, and an uncovered area, a left sideband 15 and a right sideband 16.
  • the difference between the image (Fz ) and the (HD) image for the common part provides the high frequency image.
  • the two sidebands are coded independently of the content of the image (Fz).
  • Figures 4 give different examples of location of the second window, denoted Fz and gray in the figure, relative to the first hatched window.
  • Figure 4a corresponds to the example described above.
  • Figure 4b the second window is entirely inside the first. This positioning makes it possible to select an area of interest of the F1 format image to be encoded in the F2 format.
  • Figure 4c shows a case where part of the second window is outside the first.
  • the predicted image is limited to the common part with the first window or image (F1).
  • Figure 4d shows a second window whose dimensions are greater than those of the first.
  • the values l w and Cw defining the window position here are negative because outside of the first window or reference image.
  • the predicted image is limited to the common part of the full resolution image (F1).
  • the image (F1) can be only part of the source image.
  • the part of the second window outside the first case may contain information of the source image which is not encoded by the image (F1) but which will appear in FIG. picture (F2).
  • FIG. 5 shows the different operations performed at decoding.
  • the scalable bitstream is transmitted to the input of a concatenation circuit 41 whose function is to extract the data of the base layer and that of the high resolution layer or upper layer.
  • the low resolution data is transmitted to a low resolution decoding circuit 42.
  • This circuit provides the low resolution decoded video at the output of the decoder. It also transmits the data relating to the decoded low resolution image to a zoom circuit 44 of the reconstructed low resolution image.
  • the high resolution data from the circuit 41 are transmitted to a circuit 43 for decoding the geometrical parameters. This circuit supplies the circuit 44 with information relating to the size of the window ⁇ L and ⁇ H for scaling the low resolution image.
  • This circuit also provides a circuit 45 for decoding the residual image and edges, the information relating to the residual image and the area not covered by the window as well as the data relating to the positioning of the window on the screen.
  • the circuit 44 supplies the circuit 45 with the low resolution image scaled.
  • the circuit 45 calculates the high definition image with the edge and residue information and then combines this image with the low resolution image scaled and positioned in this high definition image to provide a global high definition image.
  • Figures 6 show, symbolically, the various steps of the decoding method.
  • the first step, circuit 42 and FIG. 6a consists of decoding data of the base layer of the data stream and corresponding to the low resolution image (F2). If only the low resolution image is desired, the decoding stops at this point. If you wish also access the high resolution image, the following steps are implemented.
  • the second stage circuit 43 performs decoding of the parameters w l and Cw (Xn and (XL.
  • the third step, and Figure 6b circuit 44 carries out the back of the decoded picture (F2) based on the H values ⁇ and (XL to obtain the image Fz.
  • the fourth step, circuit 45 and FIG. 6c decodes the data of the upper layer of the data stream. These are the areas not covered by the image (F1) and the residual image.
  • the low resolution (F2) scaled image is positioned on the partially reconstructed high definition image according to the decoded parameters l w and c w , to be combined with the residue image, step fifth, circuit 45 and Figure 6d.
  • the high definition image (F1) is the image obtained after this integration of the low resolution image, circuit 45 and FIG. 6e.
  • the coding method implemented for the coding of the base layer and the upper layer can be of hybrid type, exploiting the spatial correlation with the discrete cosine transform or the spatial wavelet transform and the temporal correlation with the international coding. images or sub-band type using sub-band coding or wavelet coding.
  • the encoding method is described for video source images. It is also possible, without departing from the scope of the invention, to code pretreated source images, for example subband images.
  • the method can thus be applied to each of the subband images, low frequencies and high frequencies obtained by spatial or spatiotemporal filtering. Since the same sub-band decomposition is applied to low and high resolution images, the equivalent sub-bands of low and high resolution can be encoded according to the method described in the invention. For example, the low frequency subband of the low resolution image and the high resolution image may be encoded according to this method. This is also true for all other spatial subbands.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Le procédé de codage de (F1) et (F2) comporte les étapes suivantes : codage de l'image (F2) (4) pour fournir des données codées à une couche de base du flux de données codées ; zoom de l'image (F2) (5) pour obtenir une image basse résolution zoomée (Fz) de dimensions celles de l'image (F1) pour la partie vidéo commune ; codage de l'image (F1) pour la partie commune (6, 8) à l'image zoomée (Fz) en prenant en compte cette image zoomée (Fz) comme image de prédiction pour le calcul de résidus, pour fournir des données codées à la couche supérieure du flux de données codées ; codage de l'image (F1) pour la partie non commune à l'image zoomée (Fz) (7, 8) pour fournir des données complémentaires à la couche supérieure du flux de données codées.

Description

PROCEDE DE CODAGE D'IMAGES VIDEO DE DIFFERENTS FORMATS NON PROPORTIONNELS
L'invention concerne un procédé et dispositif de codage et décodage hiérarchique d'images vidéos de différents formats non proportionnels. Elle concerne en particulier des images ayant une partie vidéo commune. Il s'agit par exemple du codage d'un signal de télévision numérique au format SD, acronyme de l'anglais Standard Définition et au format haute définition HD.
Les codeurs vidéo à échelonnabilité spatiale sont du domaine connu. Le flux de données généré par le codeur vidéo a une hiérarchie échelonnable, les données codées sont incorporées dans le flux de manière hiérarchique, avec échelonnabilité spatiale. Les formats vidéo concernés par ces codeurs sont ceux pour lesquels les dimensions de la résolution haute correspondent à un multiple de 2 de celles de la résolution basse, permettant une décomposition dyadique. Si ce n'est pas le cas, un procédé d'extension de résolution basse est utilisé pour faire coïncider exactement les deux formats, comme décrit par exemple dans la norme MPEG4-2. Ainsi, le codage compatible d'un format QCIF, acronyme de l'anglais Quarter Common Intermediate Format, de dimensions 176 pixels x 144 lignes et d'un format CIF, de dimensions 352 x 288, ou bien le codage compatible d'un format CIF et d'un format 4 CIF, de dimensions 704 x 576, s'obtient par sous-échantillonnage et filtrage de l'image haute résolution.
Le codage hiérarchique permet d'obtenir une couche de base, relative au format de basse résolution, et une couche supérieure qui correspond au format de haute résolution.
Lorsque le format basse résolution et le format haute résolution, qui sont des formats d'affichage, ne sont pas de taille homothétique, c'est à dire lorsque le rapport largeur de l'image en nombre de pixels sur une ligne et hauteur de l'image en nombre de lignes, n'est pas conservé, le format de codage de l'image basse résolution est généralement choisi différent du format d'affichage et tel que la transformation homothétique soit conservée entre les deux formats à coder, haute et basse résolution. L'ajustage des formats est effectué ensuite au décodeur, soit en éliminant des parties de l'image par exemple les parties droite et gauche de l'image, soit en ajoutant des bandes noires à l'image décodée, soit en effectuant une transformation anamorphique de manière à faire correspondre le format de codage au format d'affichage. L'image ainsi affichée est donc dégradée en qualité ou bien le codage d'une partie de l'image non visualisée est effectué, augmentant le coût de codage et de transmission.
Un des buts de l'invention est de pallier les inconvénients précités. A cet effet, l'invention a pour objet un procédé de codage hiérarchique d'images vidéo de différents formats non proportionnels pour donner un flux de données codées, une première image (F1 ) à un format F1 et au moins une deuxième image (F2) à un format F2 de résolution inférieure au format F1 , le contenu vidéo des images (F1) et (F2) ayant au moins une partie commune, caractérisé en ce qu'il met en œuvre les étapes suivantes :
- codage de l'image (F2) pour fournir des données codées à une couche de base du flux de données codées, - zoom de l'image (F2) pour obtenir une image basse résolution zoomée (Fz) de dimensions celles de l'image (F1 ) pour la partie vidéo commune,
- codage de l'image (F1) pour la partie commune à l'image zoomée (Fz) en prenant en compte cette image zoomée (Fz) comme image de prédiction pour le calcul de résidus, pour fournir des données codées à la couche supérieure du flux de données codées,
- codage de l'image (F1 ) pour la partie non commune à l'image zoomée (Fz) pour fournir des données complémentaires à la couche supérieure du flux de données codées. Selon une mise en œuvre particulière, l'image (F2) utilisée pour le zoom est une image reconstruite obtenue par décodage local de l'image codée
(F2).
Selon une mise en œuvre particulière, la mise à l'échelle consiste en un suréchantillonnage et filtrage de l'image. Selon une mise en œuvre particulière, les images vidéo de différents formats sont des images de sous-bandes obtenues par décomposition temporelle de type ondelette ou codage sous-bandes.
Selon une mise en œuvre particulière, la partie commune du contenu vidéo est définie à partir de paramètres géométriques tels qu'un ou des facteurs de zoom à partir duquel est effectué le zoom de l'image (F2) pour obtenir l'image basse résolution zoomée (Fz) et une position de l'image zoomée (Fz) dans l'image (F1 ), ces paramètres étant codés et transmis dans la couche supérieure.
Selon une mise en œuvre particulière, les paramètres géométriques sont obtenues en mettant en œuvre les étapes suivantes : - prédétermination, dans une image source, d'une première fenêtre vidéo définissant le contenu vidéo à coder au format F1 , et d'une deuxième fenêtre vidéo définissant le contenu vidéo à coder au format F2 et ayant au moins une partie vidéo commune à la première fenêtre,
- si les dimensions de la première fenêtre sont supérieures à celles du format F1 , sous-échantillonnage de la vidéo dans la première fenêtre pour obtenir une image (F1 ) au format F1 ,
- si les dimensions de la deuxième fenêtre sont supérieures à celles du format F2, sous-échantillonnage de la vidéo dans la deuxième fenêtre pour obtenir une image (F2) au format F2. - calcul du ou des facteurs de zoom en fonction des rapports de dimensions de la première et deuxième fenêtre respectivement aux formats F1 et F2 et calcul de la position de l'image (F2) dans l'image (F1 ).
Selon une mise en œuvre particulière, la première image est au format de résolution haute définition HD et la deuxième image est au format de résolution standard SD.
L'invention concerne également un procédé de décodage d'un flux de données numériques structurées en au moins une couche de base comprenant des données relatives à une image basse résolution et une couche supérieure comprenant des données relatives à une image haute résolution, l'image faible résolution correspondant à au moins une partie vidéo de l'image haute résolution, caractérisé en ce qu'il comporte les étapes suivantes :
- extraction de données de la couche de base relatives à l'image basse résolution et décodage de l'image basse résolution,
- mise à l'échelle de l'image décodée pour mettre en correspondance la partie vidéo commune, pour fournir une image de prédiction,
- extraction et décodage de données de la couche supérieure relatives à une image de résidus correspondant à la partie vidéo commune et combinaison de cette image de résidus décodée avec l'image décodée mise à l'échelle, - extraction et décodage de données complémentaires de la couche supérieure relatives à la partie vidéo non commune et ajout à l'image combinée. Selon une mise en œuvre particulière, le procédé est caractérisé en ce qu'il comporte une étape d'extraction et de décodage de données géométriques de la couche supérieure définissant le facteur de mise à l'échelle pour l'image décodée et la position de l'image mise à l'échelle dans l'image haute résolution.
L'invention concerne également un flux de données hiérarchique pour le codage d'images vidéo de différents formats non proportionnels et ayant au moins une partie vidéo commune, caractérisé en ce qu'il comprend une couche basse correspondant à une image à un format basse résolution et une couche supérieure comprenant des données relatives à une image de résidus fonction de l'image au format basse fréquence, pour la partie vidéo commune aux deux formats, et des données complémentaires relatives à la partie vidéo non commune.
Le codage de l'image haute résolution est effectué d'une part en utilisant l'image basse résolution comme image de prédiction pour le codage de la partie commune aux deux formats et d'autre part en codant la zone non commune, ces données de codage étant ensuite transmises dans une couche supérieure du flux de données. Grâce à l'invention, la qualité des images de résolutions différentes extraites du flux de données échelonnable est conservée quelles que soient les dimensions des formats proposés. Pour une même qualité d'image, le coût de codage est réduit, le taux de compression des données est amélioré, le coût de transmission est optimisé pour chacun des formats. Une image de haute résolution peut être convertie en une image de basse résolution, et inversement, sans dégrader la qualité de l'image même si la conversion n'est pas une transformation homothétique. Ainsi, il est possible de convertir une image d'un format CIF en une image d'un format SD de 720 pixels par 480 lignes ou une image d'un format de définition standard SD en une image d'un format haute définition HD de 1280 pixels par 720 lignes à partir du flux de données échelonnable, en conservant la qualité optimale pour les images.
Du fait de ce procédé de codage et de cette organisation hiérarchique du flux de données codées obtenu en sortie du codeur, il est très facile d'adapter les données transmises au niveau de résolution du dispositif de visualisation ou au débit de transmission du réseau exploités. Ceci pour des niveaux de résolution correspondant à des images de dimensions quelconques, définies lors du codage.
D'autres particularités et avantages de l'invention apparaîtront clairement dans la description suivante donnée à titre d'exemple non limitatif, et faite en regard des figures annexées qui représentent :
- la figure 1 , un organigramme du procédé de création des contenus vidéo,
- la figure 2, un organigramme du procédé de codage,
- la figure 3, un exemple de codage des formats SD et HD, - la figure 4, des exemples de formats F1 et F2,
- la figure 5, un circuit de décodage,
- la figure 6, une représentation des étapes de décodage.
Le procédé de codage des données est un procédé de codage hiérarchique, c'est à dire que le flux de données codées est structuré de manière hiérarchique, les données relatives au format de plus faible résolution étant intégrées dans une couche de base ou couche inférieure, les données complémentaires relatives au format de résolution supérieure étant intégrées dans une couche supérieure. Il est ainsi facile, au niveau du flux de données, de filtrer les seules données relatives à un standard, en sélectionnant les seules couches correspondant au niveau de résolution souhaité. Il s'agit ici d'échelonnabilité spatiale, compatible de toute échelonnabilité temporelle exigée par le standard relatif au format de résolution.
L'invention concerne le codage de contenus vidéo à différents formats non proportionnels en largeur et/ou hauteur d'image et ayant une partie vidéo commune. Un des formats est de résolution inférieure à l'autre format. Il est soit de plus faible définition avec le nombre de pixels par ligne ou le nombre de lignes définissant par exemple la partie vidéo commune inférieur, soit, pour une même définition, de taille inférieure.
Il est considéré que ces contenus sont disponibles et que les paramètres qui les relient sont aussi fournis. Un procédé de création de contenu vidéo est décrit ci-après, à titre d'exemple, afin d'introduire les notions qui sont utilisées par la suite dans l'invention. La figure 1 représente un organigramme d'un procédé de génération de contenus vidéo à basse et haute résolution et de paramètres associés. Une première étape 1 prend en compte les différents formats vidéo à coder. Le flux de données codées permet d'alimenter des décodeurs compatibles d'un de ces formats, la sélection du format, fonction du dispositif d'affichage, du décodeur ou de paramètres tels que débit de transmission... se faisant par filtrage des données au niveau de ce flux de données codées, en amont ou au niveau du décodeur.
Dans l'exemple décrit, un premier format haute résolution F1 et un deuxième format basse résolution F2 sont exploités. Chacun de ces formats est défini par sa largeur LFi, LF2 ou nombre de pixels sur une ligne et sa hauteur HFI, HF2 θu nombre de lignes. Ces formats permettent de définir une première et une deuxième fenêtre vidéo dans l'image source qui représentent les contenus vidéo à coder au format F1 et au format F2. Ces contenus vidéo, en référence à l'image source, peuvent être différents. Par hypothèse, les fenêtres ont une zone commune, c'est à dire que les images codées aux formats vidéo F1 et F2 correspondent à une partie commune de la vidéo de l'image source.
Les dimensions des première et deuxième fenêtres ne correspondent pas nécessairement aux dimensions des formats F1 et F2. Dans ce cas, une opération supplémentaire de transformation homothétique ou non homothétique des images de ces fenêtres est effectuée afin d'ajuster ces images aux dimensions des formats F1 et F2. Pour simplifier le raisonnement, on considère que la première fenêtre correspond à l'image au format F1.
L'image haute résolution au format F1 peut donc être soit l'image source, soit un partie de l'image source, ces images éventuellement échantillonnées. Cette image, appelée (F1), est choisie comme l'image de référence pour le calcul de paramètres géométriques définissant l'image de format F2 appelée (F2).
La deuxième étape 2 consiste en la détermination de ces paramètres géométriques. La deuxième fenêtre est dimensionnée et positionnée sur l'image source pour définir le contenu vidéo à visualiser au format F2. Ses dimensions sont celles dans l'image (F1 ) en prenant comme hypothèse que la première fenêtre correspond au format F1.
Les paramètres géométriques relatifs à l'image de référence sont les suivants :
- position dans l'image (F1 ), - dimensions de la deuxième fenêtre dans l'image (F1 ).
Le positionnement de la deuxième fenêtre est défini par exemple par les coordonnées du coin supérieur gauche dans cette image (F1 ). Ces coordonnées sont le numéro de ligne lw et le numéro de colonne Cw de ce coin dans l'image (F1 ).
Les valeurs αL et vertical αH définissent les facteurs de zoom horizontal et vertical à appliquer à l'image au format basse résolution pour obtenir la taille de la deuxième fenêtre dans l'image de référence (F1 ). Cette deuxième fenêtre, positionnée dans (F1) en (lw, cw) est de dimensions :
Hw = C*H HF2 Lw = C*L LF2
HF2 est le nombre de lignes de l'image au format F2 LF2 est nombre de pixels par ligne de l'image au format F2.
Hw est le nombre de lignes de la deuxième fenêtre dans l'image de référence (F1 ),
Lw est nombre de pixels par ligne de la deuxième fenêtre dans l'image de référence (F1 ). L'étape 3 effectue la sélection des informations vidéo de l'image source correspondant à la fenêtre définie par les paramètres puis un filtrage de type passe-bas et un sous-échantillonnage de ce contenu, avec des facteurs de sous-échantillonnage 1/αL et 1/CXH, pour fournir une image au format F2.
Dans le cas où la première fenêtre de l'image source ne correspond pas au format F1 , la position et la taille de la deuxième fenêtre dans l'image (F1) sont par exemple calculées dans l'image source puis modifiée conformément à la transformation homothétique ou non homothétique faisant correspondre la première fenêtre au format F1.
A l'issue de ces 3 étapes, on dispose des contenus vidéo basse et haute résolution et des paramètres géométriques. Ces sources vidéo au format F1 et au format F2 et les paramètres géométriques sont transmis à un codeur vidéo pour le codage des contenus vidéo.
La figure 2 représente un organigramme du procédé de codage selon l'invention. La première étape de codage, référencée 4, effectue le codage de l'image au format F2. La deuxième étape référencée 5 réalise le décodage de cette image codée pour fournir une image décodée locale ou image reconstruite. Dans une version simplifiée, l'image décodée locale peut consister explicitement en l'image d'origine avant codage. Cette image est ensuite mise à l'échelle ou zoomée, selon les facteurs αL et αH> pour obtenir une image (F2) zoomée, appelée (Fz), aux dimensions de la deuxième fenêtre. Le filtre d'interpolation permettant de passer de (F2) à (Fz) peut par exemple être un filtre d'interpolation bilinéaire.
L'étape suivante référencée 6 effectue le codage des paramètres géométriques (CXH1(XL, Iw1Cw) définissant l'image de format F2 dans l'image de format F1. Puis elle réalise un calcul de résidu pour fournir une image de résidus aussi appelée image de fréquences hautes (HF). L'image (Fz) est positionnée sur l'image haute résolution (F1 ) issue de l'image source en fonction des paramètres lw et Cw. L'image de résidus est alors obtenue en soustrayant, pixel à pixel, aux pixels de l'image (Fz), les pixels correspondants de l'image (F1 ). L'image (Fz) est aussi appelée image prédite car elle est utilisée comme prédiction pour le codage de l'image haute résolution (F1 ).
Des opérateurs plus complexes peuvent être utilisés pour le calcul de cette image de fréquences hautes. Il est ainsi possible d'exploiter des opérateurs basés sur la prédiction d'image de type inter ou intra, appliqués sur les structures basiques de l'image, par exemple des blocs de l'image, des macroblocs ou même des régions quelconques non carrées.
L'étape suivante référencée 7 sur la figure détermine les parties de l'image haute définition, la première fenêtre, non recouvertes par la deuxième fenêtre. Elle réalise par exemple un regroupement des différentes zones non communes pour faciliter leur codage. Lors de l'étape suivante, référence 8, l'image des résidus et l'image correspondant à la partie non couverte sont codées, par exemple par bloc en utilisant la transformée cosinus discrète ou bien selon un codage de type sous-bandes par ondelettes.
L'étape de référence 9 insère les données de codage relatives à l'image (F2) dans une couche de base du flux de données et les données de codage relatives à l'image de résidus et à la zone non couverte dans une couche supérieure.
Le procédé de codage des images (F1 ) peut se résumer par l'équation suivante : (F1 ) = (Fz) ® (HF) + (zone non couverte).
L'image des hautes fréquences (HF) permet d'améliorer la qualité de l'image (F2) une fois zoomée en ajoutant les résidus correspondant aux pixels de cette image zoomée Fz. L'image correspondant à la zone non couverte permet de compléter l'image haute résolution. Cette équation montre que les données peuvent facilement être incorporées de manière hiérarchique pour obtenir un flux de données échelonnable. Ainsi, le flux est organisé de manière hiérarchique avec 3 types de données :
- une couche de base ou basse résolution contenant les données de codage de l'image basse résolution (F2), - une couche d'amélioration ou haute résolution contenant
- les données haute fréquence (HF) de codage consistant en un affinage du contenu de l'image basse résolution mise à l'échelle (Fz),
- les données additionnelles correspondant aux zones non couvertes.
Cette approche entraîne l'absence d'informations relatives aux bordures lors du codage de l'image de basse résolution. Ces informations sont des informations additionnelles, au même titre que les informations relatives à l'image de fréquence haute, pour le codage de l'image haute résolution. De ce fait, une optimisation du coût de codage est obtenue pour le codage des images de basse résolution. D'une autre manière, on peut dire qu'aucune distorsion n'est introduite par le procédé de codage puisque seules des transformations proportionnelles d'images sont mises en œuvre, les données vidéo relatives à l'image basse résolution appartenant uniquement à une fenêtre de dimensions proportionnelles au format F2.
Il est ainsi très facile d'obtenir une image basse résolution de dimensions quelconques, par exemple correspondant à un format vidéo propriétaire, par rapport aux dimensions de l'image haute résolution et inversement d'obtenir une image haute résolution de dimension quelconque par rapport aux dimensions d'une image basse résolution définie par un standard. Les deux formats sont indépendants l'un de l'autre.
Selon une mise en oeuvre particulière de l'invention, la deuxième fenêtre est positionnée de manière à couvrir le maximum de surface de la première fenêtre pour obtenir le plus d'information dans l'image (F2), pour obtenir une zone commune à coder la plus grande possible et une zone non couverte à coder la plus faible possible. On peut procéder de la manière suivante :
Le rapport entre les formats F1 et F2 est calculé pour les deux dimensions. La plus petite des valeurs, appelée α, est sélectionnée. Les dimensions de la deuxième fenêtre sont alors les largeurs et hauteurs du format F2 multiplié par <x On rappelle que, par simplification, les dimensions de la première fenêtre sont celles du format F1. Ainsi, les deux fenêtres ont au moins une des dimensions qui a la même valeur.
La figure 3 donne un exemple de mise en œuvre du procédé dans ce cas particulier. Le format F1 est le format HD et le format F2 est le format SD.
Une première fenêtre au format haute résolution HD de 720 lignes et 1280 pixels par ligne, référencée 11 , est positionnée sur l'image source. Elle peut aussi correspondre à l'image source alors à ce format HD. Le deuxième format, référencé 12, est un format SD correspondant à une image de 480 lignes et de 720 pixels par ligne.
Le rapport entre les longueurs de lignes est de 1280/720=1 ,77, le rapport entre le nombre de lignes est de 720/480=1 ,5. La valeur retenue pour α est donc 1 ,5. La deuxième fenêtre, référencée 13, proportionnelle au format SD, a donc une hauteur égale à celle de la première fenêtre ou du format F1 et une largeur de 720 x 1 ,5 = 1080 pixels. Cette fenêtre 13 est ensuite centrée horizontalement sur la première fenêtre 11 pour donner une partie commune aux deux formats, référence 14, et une zone non couverte, une bande latérale gauche 15 et une bande latérale droite 16. La différence entre l'image (Fz) et l'image (HD) pour la partie commune fournit l'image haute fréquence. Les deux bandes latérales sont codées indépendamment du contenu de l'image (Fz).
Dans le cas où αL est plus petit que αH> la zone non couverte correspond à deux bandes horizontales.
Les figures 4 donnent différents exemples d'emplacement de la deuxième fenêtre, notée Fz et grisée sur la figure, par rapport à la première fenêtre, hachurée.
La figure 4a correspond à l'exemple décrit précédemment. A la figure 4b, la deuxième fenêtre est intégralement à l'intérieur de la première. Ce positionnement permet de sélectionner une zone d'intérêt de l'image au format F1 pour être codée au format F2.
La figure 4c présente un cas où une partie de la deuxième fenêtre se trouve à l'extérieur de la première. Dans ce cas, l'image prédite se limite à la partie commune avec la première fenêtre ou image (F1 ).
La figure 4d représente une deuxième fenêtre dont les dimensions sont supérieures à celles de la première. Les valeurs lw et Cw définissant la position de la fenêtre sont ici négatives car à l'extérieur de la première fenêtre ou image de référence. L'image prédite se limite à la partie commune à l'image pleine résolution (F1).
Comme on l'a vu précédemment, l'image (F1 ) peut n'être qu'une partie de l'image source. Ainsi, la partie de la deuxième fenêtre à l'extérieur de la première, cas de la figure 4c et 4d, peut contenir des informations de l'image source qui ne sont pas codées par l'image (F1 ) mais qui apparaîtront dans l'image (F2).
La figure 5 représente les différentes opérations effectuées au décodage.
Le train binaire échelonnable est transmis à l'entrée d'un circuit de concaténation 41 qui a pour rôle d'extraire les données de la couche de base et celle de la couche haute résolution ou couche supérieure. Les données basse résolution sont transmises à un circuit de décodage de la basse résolution 42. Ce circuit fournit la vidéo décodée basse résolution en sortie du décodeur. Il transmet également les données relatives à l'image basse résolution décodée à un circuit 44 de zoom de l'image basse résolution reconstruite. Les données haute résolution provenant du circuit 41 sont transmises à un circuit 43 de décodage des paramètres géométriques. Ce circuit fournit au circuit 44 les informations relatives à la taille de la fenêtre αL et αH pour la mise à l'échelle de l'image basse résolution. Ce circuit fournit également à un circuit 45 de décodage de l'image de résidu et des bords, les informations relatives à l'image de résidus et à la zone non couverte par la fenêtre ainsi que les données relatives au positionnement de la fenêtre sur l'image haute définition, lw, c*. Le circuit 44 fournit au circuit 45 l'image basse résolution mise à l'échelle. Le circuit 45 calcule l'image haute définition avec les informations de bords et de résidu puis combine cette image avec l'image basse résolution mise à l'échelle et positionnée dans cette image haute définition pour donner une image haute définition globale.
Les figures 6 représentent, de manière symbolique, les différentes étapes du procédé de décodage. La première étape, circuit 42 et figure 6a, consiste en un décodage des données de la couche de base du flux de données et correspondant à l'image basse résolution (F2). Si l'on ne souhaite que l'image basse résolution, le décodage s'arrête à ce stade. Si l'on souhaite accéder aussi à l'image haute résolution, les étapes suivantes sont mises en œuvre.
La deuxième étape, circuit 43, effectue un décodage des paramètres lw et Cw, (Xn et (XL . La troisième étape, circuit 44 et figure 6b, réalise le zoom de l'image décodée (F2) en fonction des valeurs αH et (XL pour obtenir l'image Fz.
La quatrième étape, circuit 45 et figure 6c, effectue un décodage des données de la couche supérieure du flux de données. Il s'agit des zones non couvertes de l'image (F1 ) et de l'image de résidus. L'image basse résolution (F2) mise à l'échelle est positionnée sur l'image partiellement reconstruite haute définition en fonction des paramètres décodés lw et cw, pour être combinée à l'image de résidus, étape cinquième, circuit 45 et figure 6d. L'image haute définition (F1 ) est l'image obtenue après cette intégration de l'image basse résolution, circuit 45 et figure 6e.
Le procédé de codage mis en œuvre pour le codage de la couche de base et de la couche supérieure peut être de type hybride, exploitant la corrélation spatiale avec la transformée cosinus discrète ou la transformée par ondelettes spatiale et la corrélation temporelle avec le codage inter-images ou bien de type sous-bande exploitant le codage sous-bande ou le codage ondelettes.
Le procédé de codage est décrit pour des images source vidéo. Il est également possible, sans sortir du domaine de l'invention, de coder des images sources prétraitées, par exemple des images de sous-bandes. Le procédé peut ainsi s'appliquer sur chacune des images de sous-bandes, basse fréquences et hautes fréquences obtenues par filtrage spatial ou spatiotemporel. La même décomposition sous-bandes étant appliquée aux images basse et haute résolution, les sous-bandes équivalentes de la basse et de la haute résolution peuvent être codées selon le procédé décrit dans l'invention. Par exemple, la sous-bande basse fréquence de l'image basse résolution et de l'image haute résolution peuvent être codées selon ce procédé. Ceci est aussi vrai pour toutes les autres sous-bandes spatiales.

Claims

REVENDICATIONS
1 Procédé de codage hiérarchique d'images vidéo de différents formats non proportionnels pour donner un flux de données codées, une première image (F1 ) à un format F1 (1 , 11 ) et au moins une deuxième image (F2) à un format F2 (1 , 12) de résolution inférieure au format F1 , le contenu vidéo des images (F1 ) et (F2) ayant au moins une partie commune, caractérisé en ce qu'il met en œuvre les étapes suivantes : - codage de l'image (F2) (4) pour fournir des données codées à une couche de base du flux de données codées,
- zoom de l'image (F2) (5) pour obtenir une image basse résolution zoomée (Fz) de dimensions celles de l'image (F1 ) pour la partie vidéo commune, - codage de l'image (F1 ) pour la partie commune (6, 8) à l'image zoomée (Fz) en prenant en compte cette image zoomée (Fz) comme image de prédiction pour le calcul de résidus, pour fournir des données codées à la couche supérieure du flux de données codées,
- codage de l'image (F1 ) pour la partie non commune à l'image zoomée (Fz) (7, 8) pour fournir des données complémentaires à la couche supérieure du flux de données codées.
2 Procédé selon la revendication 1 , caractérisé en ce que l'image (F2) utilisée pour le zoom est une image reconstruite obtenue par décodage local (5) de l'image codée (F2).
3 Procédé selon la revendication 1 , caractérisé en ce que le zoom (5) consiste en un suréchantillonnage et filtrage de l'image.
4 Procédé selon la revendication 1 , caractérisé en ce que les images vidéo de différents formats sont des images de sous-bandes obtenues par décomposition temporelle de type ondelette ou codage sous-bandes.
5 Procédé selon la revendication 1 , caractérisé en ce que la partie commune du contenu vidéo est définie à partir de paramètres géométriques tels qu'un ou des facteurs de zoom à partir duquel est effectué le zoom de l'image
(F2) pour obtenir l'image basse résolution zoomée (Fz) et une position de l'image zoomée (Fz) dans l'image (F1 ) et et en ce que ces paramètres sont codés et transmis dans la couche supérieure.
6 Procédé selon la revendication 5, caractérisé en ce que les paramètres géométriques sont obtenues en mettant en œuvre les étapes suivantes :
- prédétermination, dans une image source, d'une première fenêtre vidéo (1 ) définissant le contenu vidéo à coder au format F1 , et d'une deuxième fenêtre vidéo (1 ) définissant le contenu vidéo à coder au format F2 et ayant au moins une partie vidéo commune à la première fenêtre,
- si les dimensions de la première fenêtre sont supérieures à celles du format F1 , sous-échantillonnage de la vidéo (1 ) dans la première fenêtre pour obtenir une image (F1 ) au format F1 ,
- si les dimensions de la deuxième fenêtre sont supérieures à celles du format F2, sous-échantillonnage (3) de la vidéo dans la deuxième fenêtre pour obtenir une image (F2) au format F2.
- calcul du ou des facteurs de zoom en fonction des rapports de dimensions de la première et deuxième fenêtre respectivement aux formats F1 et F2 et calcul de la position de l'image (F2) dans l'image (F1 ).
7 Procédé selon la revendication 1 , caractérisé en ce que la première image est au format de résolution haute définition HD et la deuxième image est au format de résolution standard SD (Standard Définition).
8 Procédé de décodage d'un flux de données numériques structurées en au moins une couche de base comprenant des données relatives à une image basse résolution et une couche supérieure comprenant des données relatives à une image haute résolution, l'image faible résolution correspondant à au moins une partie vidéo de l'image haute résolution, caractérisé en ce qu'il comporte les étapes suivantes :
- extraction de données de la couche de base (41 ) relatives à l'image basse résolution et décodage (42) de l'image basse résolution,
- mise à l'échelle de l'image décodée (44) pour mettre en correspondance la partie vidéo commune, pour fournir une image de prédiction, - extraction (41 ) et décodage de données de la couche supérieure relatives à une image de résidus (45) correspondant à la partie vidéo commune et combinaison de cette image de résidus décodée avec l'image décodée mise à l'échelle (45),
- extraction (41 ) et décodage de données complémentaires de la couche supérieure relatives à la partie vidéo non commune (45) et ajout à l'image combinée (45).
9 Procédé selon la revendication 8, caractérisé en ce qu'il comporte une étape d'extraction (41 ) et de décodage (43) de données géométriques de la couche supérieure définissant le facteur de mise à l'échelle pour l'image décodée et la position de l'image mise à l'échelle dans l'image haute résolution.
10 Flux de données hiérarchique pour le codage d'images vidéo de différents formats non proportionnels et ayant au moins une partie vidéo commune, caractérisé en ce qu'il comprend une couche basse correspondant à une image à un format basse résolution et une couche supérieure comprenant des données relatives à une image de résidus fonction de l'image au format basse fréquence, pour la partie vidéo commune aux deux formats, et des données complémentaires relatives à la partie vidéo non commune.
PCT/FR2005/050840 2004-10-20 2005-10-11 Procede de codage d'images video de differents formats non proportionnels WO2006059021A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0411128 2004-10-20
FR0411128A FR2876861A1 (fr) 2004-10-20 2004-10-20 Procede de codage d'images video de differents formats non proportionnels

Publications (1)

Publication Number Publication Date
WO2006059021A1 true WO2006059021A1 (fr) 2006-06-08

Family

ID=34951180

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2005/050840 WO2006059021A1 (fr) 2004-10-20 2005-10-11 Procede de codage d'images video de differents formats non proportionnels

Country Status (3)

Country Link
FR (1) FR2876861A1 (fr)
TW (1) TW200614820A (fr)
WO (1) WO2006059021A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105075258A (zh) * 2013-03-05 2015-11-18 高通股份有限公司 针对具有不同纵横比的空间可缩放性的层间参考图片建构

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4903317A (en) * 1986-06-24 1990-02-20 Kabushiki Kaisha Toshiba Image processing apparatus
US5742343A (en) * 1993-07-13 1998-04-21 Lucent Technologies Inc. Scalable encoding and decoding of high-resolution progressive video
WO1998041011A1 (fr) * 1997-03-12 1998-09-17 Matsushita Electric Industrial Co., Ltd. Systeme de transposition, par abaissement de frequence, des signaux de television a haute definition (t.v.h.d.)
WO2001077871A1 (fr) * 2000-04-07 2001-10-18 Demografx Organisation renforcee en couches temporelles et par resolution dans la television avancee

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4903317A (en) * 1986-06-24 1990-02-20 Kabushiki Kaisha Toshiba Image processing apparatus
US5742343A (en) * 1993-07-13 1998-04-21 Lucent Technologies Inc. Scalable encoding and decoding of high-resolution progressive video
WO1998041011A1 (fr) * 1997-03-12 1998-09-17 Matsushita Electric Industrial Co., Ltd. Systeme de transposition, par abaissement de frequence, des signaux de television a haute definition (t.v.h.d.)
WO2001077871A1 (fr) * 2000-04-07 2001-10-18 Demografx Organisation renforcee en couches temporelles et par resolution dans la television avancee

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NGO C: "IMAGE RESIZING AND ENHANCED DIGITAL VIDEO COMPRESSION", EDN ELECTRICAL DESIGN NEWS, CAHNERS PUBLISHING CO. NEWTON, MASSACHUSETTS, US, vol. 41, no. 1, 4 January 1996 (1996-01-04), pages 145 - 148,150,15, XP000554477, ISSN: 0012-7515 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105075258A (zh) * 2013-03-05 2015-11-18 高通股份有限公司 针对具有不同纵横比的空间可缩放性的层间参考图片建构
CN105075258B (zh) * 2013-03-05 2019-04-05 高通股份有限公司 针对具有不同纵横比的空间可缩放性的层间参考图片建构
US10284842B2 (en) 2013-03-05 2019-05-07 Qualcomm Incorporated Inter-layer reference picture construction for spatial scalability with different aspect ratios

Also Published As

Publication number Publication date
FR2876861A1 (fr) 2006-04-21
TW200614820A (en) 2006-05-01

Similar Documents

Publication Publication Date Title
US9503757B2 (en) Filtering for image and video enhancement using asymmetric samples
US8682089B2 (en) Image processing apparatus, image processing method, program and semiconductor integrated circuit
KR101176650B1 (ko) 3d 부-대역 코딩을 위한 내장형 기본 계층 코덱
JP5529293B2 (ja) メタデータによる時間スケーリングのためのエッジエンハンスメントのための方法
US20120082243A1 (en) Method and Apparatus for Feature Based Video Coding
WO2007020230A2 (fr) Procede de codage et de decodage d&#39;images video avec echelonnabilite spatiale
US20120170646A1 (en) Method and apparatus for spacial scalability for hevc
KR20060092826A (ko) Sdmctf 인코딩된 비디오의 디코딩 방법
US9992503B2 (en) Scalable video coding with enhanced base layer
KR20150010903A (ko) 모바일 단말 화면을 위한 3k해상도를 갖는 디스플레이 영상 생성 방법 및 장치
EP1808023B1 (fr) Procede de codage hierarchique d&#39;images video
TW420955B (en) Image compression
US7848429B2 (en) Hierarchical coding and decoding method
EP1600003B1 (fr) Procede de codage d&#39;une image video prenant en compte la parite relative a une composante du vecteur de mouvement
Auli-Llinas et al. JPEG2000 quality scalability without quality layers
WO2006059021A1 (fr) Procede de codage d&#39;images video de differents formats non proportionnels
JPH07203441A (ja) 符号化装置及び復号化装置
EP0848557A2 (fr) Méthode de codage d&#39;image par sous bandes
JPH07322255A (ja) ディジタル画像信号の階層符号化装置
Bae et al. An efficient wavelet-based motion estimation algorithm
FR2879066A1 (fr) Procede et dispositif de codage hierarchique inter couches
WO2007020278A2 (fr) Procede de codage et de decodage d&#39;images progressives a haute resolution et entrelacees a basse resolution

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05810809

Country of ref document: EP

Kind code of ref document: A1