WO2007020233A2 - Method for encoding and decoding interleave high-resolution and progressive low-resolution images - Google Patents

Method for encoding and decoding interleave high-resolution and progressive low-resolution images Download PDF

Info

Publication number
WO2007020233A2
WO2007020233A2 PCT/EP2006/065228 EP2006065228W WO2007020233A2 WO 2007020233 A2 WO2007020233 A2 WO 2007020233A2 EP 2006065228 W EP2006065228 W EP 2006065228W WO 2007020233 A2 WO2007020233 A2 WO 2007020233A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
frame
resolution
low
prediction
Prior art date
Application number
PCT/EP2006/065228
Other languages
French (fr)
Other versions
WO2007020233A3 (en
Inventor
Gwenaelle Marquant
Jérome Vieron
Patrick Lopez
Original Assignee
Thomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing filed Critical Thomson Licensing
Publication of WO2007020233A2 publication Critical patent/WO2007020233A2/en
Publication of WO2007020233A3 publication Critical patent/WO2007020233A3/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/34Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

The inventive method consists in encoding a low-resolution image (2) for delivering an encoded low-resolution image, in decoding the low-resolution image (3) for delivering a reconstructed low-resolution image, in upsampling (4) the reconstructed image for delivering a prediction image, in separating (5) a reconstructed upsampled image into even and odd prediction frames, in deinterleaving (6) a high-resolution image for delivering even and odd high-resolution frames, in encoding (7, 8) the even or odd high-resolution frame by computing the difference between the high-resolution frame and the prediction frame of the same parity in such a way that an encodable residue is available.

Description

PROCEDE DE CODAGE ET DE DECODAGE D'IMAGES ENTRELACEES A HAUTE RESOLUTION ET PROGRESSIVES A BASSE RESOLUTION METHOD FOR ENCODING AND DECODING INTERLACED HIGH-RESOLUTION AND LOW-RESOLUTION PROGRESSIVE IMAGES
L'invention est relative à un procédé et dispositif de codage et décodage vidéo avec scalabilité ou échelonnabilité spatiale, temporelle et/ou SNR entre vidéo entrelacées et progressives. Elle concerne plus particulièrement le codage d'images entrelacées haute résolution et d'images progressives basse résolution. Le ratio entre les résolutions peut être, d'autre part, non dyadique.The invention relates to a video coding and decoding method and device with spatial or temporal scalability or scalability, temporal and / or SNR between interlaced and progressive video. It relates more particularly to the coding of high resolution interlaced images and low resolution progressive images. The ratio between the resolutions can be, on the other hand, non-dyadic.
Le domaine est celui de la compression de données relative au standard MPEG, en particulier le standard en cours de définition MPEG4-SVC, par exemple décrit dans le document de J. Reichel, M. Wien, H. Schwarz, intitulé "Scalable video model 3.0", ISO/IEC JTC1/SC29/WG11/N6716, Palma de mallorca, Spain, October 2004.The field is that of data compression relative to the MPEG standard, in particular the standard currently being defined MPEG4-SVC, for example described in the document by J. Reichel, M. Wien, H. Schwarz, entitled "Scalable video model 3.0 ", ISO / IEC JTC1 / SC29 / WG11 / N6716, Palma de Mallorca, Spain, October 2004.
Le problème est de pouvoir générer, pour le codage d'un contenu vidéo, un train binaire scalable pouvant être décodé à certaines résolutions en mode entrelacé, à d'autres en mode progressif, le ratio haute/basse résolution pouvant lui-même ne pas nécessairement être égal à 2, et être distinct horizontalement et verticalement. Différents scénarios peuvent être envisagés, par exemple :The problem is to be able to generate, for the coding of a video content, a scalable bit stream that can be decoded at certain resolutions in interlaced mode, to others in progressive mode, the high / low resolution ratio which itself can not be resolved. necessarily be equal to 2, and be distinct horizontally and vertically. Different scenarios can be envisaged, for example:
- couche d'amélioration ou « enhancement layer » relative à la vidéo originale en 108Oi, 60Hz, et couche de base ou « base layer » en 72Op 60Hz ou 30Hz, - couche d'amélioration en 108Oi, 60Hz, et couche de base (base layer) SDi 60Hz- enhancement layer or "enhancement layer" relative to the original video in 108Oi, 60Hz, and base layer or "base layer" in 72Op 60Hz or 30Hz, - enhancement layer in 108Oi, 60Hz, and base layer ( base layer) SDi 60Hz
- couche d'amélioration en 108Oi 60Hz et couche de base en 108Op 30 Hz.- Improvement layer in 108Oi 60Hz and base layer in 108Op 30 Hz.
L'indice i signifie un balayage entrelacé (interlaced) et l'indice p un balayage progressif (progressive).The index i means an interlaced scan and the index p a progressive (progressive) scan.
La compression compatible de tels scénarios, et selon les schémas connus, n'est pas effectuée de manière efficace au niveau du taux de compression, de la qualité d'image ou de la simplicité de mise en œuvre.The compatible compression of such scenarios, and according to the known schemes, is not effected effectively in terms of the compression ratio, the image quality or the simplicity of implementation.
Un des buts de l'invention est de pallier les inconvénients précités. L'invention a pour objet un procédé de codage d'images vidéo avec échelonnabilité spatiale réalisant le codage d'une première image progressive basse résolution et d'au moins une deuxième image entrelacée de plus haute résolution à partir de l'image basse résolution, la première image ayant une partie vidéo commune avec la deuxième image, caractérisé en ce qu'il comporte :One of the aims of the invention is to overcome the aforementioned drawbacks. The subject of the invention is a method for coding video images with spatial scalability, coding a first low-resolution progressive image and at least a second higher-order interlaced image. resolution from the low resolution image, the first image having a common video portion with the second image, characterized in that it comprises:
- une étape de codage de l'image basse résolution pour fournir une image basse résolution codée,a step of encoding the low resolution image to provide a coded low resolution image,
- une étape de décodage de l'image basse résolution pour fournir une image basse résolution reconstruite,a step of decoding the low resolution image to provide a reconstructed low resolution image,
- une étape de sur-échantillonnage de l'image reconstruite pour fournir une image de prédiction, - une étape de séparation de l'image reconstruite suréchantillonnée en une trame de prédiction paire et une trame de prédiction impaire,an oversampling step of the reconstructed image to provide a prediction image; a step of separating the oversampled reconstructed image into an even prediction frame and an odd prediction frame;
- une étape de désentrelacement de la dite deuxième image pour fournir une trame haute résolution paire et une trame haute résolution impaire,a step of deinterleaving said second image to provide an even high resolution frame and an odd high resolution frame,
- une étape de codage d'une trame haute résolution paire ou impaire effectuant un calcul de différence entre une trame haute résolution et la trame de prédiction de même parité, pour donner un résidu à coder.a coding step of an even or odd high resolution frame performing a difference calculation between a high resolution frame and the same parity prediction frame, to give a residue to be coded.
Selon une mise en œuvre particulière, il comporte une étape de désentrelacement de la dite deuxième image et une étape de sous- échantillonnage de l'image désentrelacée pour fournir une première image progressive basse résolution à coder.According to a particular implementation, it comprises a step of deinterleaving said second image and a step of sub-sampling the deinterleaved image to provide a first low resolution progressive image to be encoded.
Selon une mise en œuvre particulière, l'étape de codage d'une trame haute résolution utilise une trame de prédiction provenant d'une image basse résolution synchrone de la trame haute résolution à coder ou une trame de prédiction provenant d'une image basse résolution synchrone d'une précédente ou suivante trame haute résolution par rappport à la trame courante haute résolution à coder.According to a particular implementation, the step of encoding a high resolution frame uses a prediction frame derived from a synchronous low resolution image of the high resolution frame to be coded or a prediction frame coming from a low resolution image. synchronous with a previous or next high resolution frame by reference to the high resolution current frame to be encoded.
Selon une mise en œuvre particulière, l'étape de suréchantillonnage est effectué selon la méthode ESS (Extended Spatial Scalability) Selon une mise en œuvre particulière, le décodage de l'image basse résolution correspond au calcul de l'image décodée locale pour fournir l'image reconstruite pendant l'étape de codage de l'image basse résolution.According to one particular implementation, the oversampling step is performed according to the ESS (Extended Spatial Scalability) method. According to one particular embodiment, the decoding of the low resolution image corresponds to the calculation of the local decoded image to provide the image reconstructed during the coding step of the low resolution image.
L'invention concerne également un procédé de décodage d'images, caractérisé en ce qu'il comporte: - une étape de décodage d'une image basse résolution progressive effectuant un calcul d'une image reconstruite, - une étape de sur-échantillonnage de l'image reconstruite pour obtenir une image sur-échantillonnée,The invention also relates to a method for decoding images, characterized in that it comprises: a step of decoding a progressive low resolution image performing a calculation of a reconstructed image, a step of oversampling the reconstructed image to obtain an oversampled image,
- une étape de désentrelacement de l'image sur-échantillonnée pour obtenir une trame prédite, - une étape de décodage d'une trame de plus haute résolution en ajoutant à la trame prédite de même parité, le résidu correspondant.a de-interleaving step of the oversampled image to obtain a predicted frame; a step of decoding a higher resolution frame by adding to the predicted frame of the same parity the corresponding residue.
Selon une mise en œuvre particulière, l'étape de suréchantillonnage est effectué selon la méthode ESS (Extended Spatial Scalability).According to a particular implementation, the oversampling step is performed according to the ESS (Extended Spatial Scalability) method.
L'invention consiste en une architecture globale permettant de traiter des données texture vidéo disponibles sous forme entrelacées de façon à proposer une scalabilité spatiale, temporelle et en qualité (SNR). Etant donné une source vidéo entrelacée, des opérations adéquates de séparation des données et un filtrage spatio-temporel permettent de générer des séquences vidéo scalables à des sous-résolutions.The invention consists of a global architecture for processing video texture data available in interleaved form so as to propose a spatial, temporal and quality (SNR) scalability. Given an interlaced video source, adequate data separation operations and spatio-temporal filtering make it possible to generate scalable video sequences at sub-resolutions.
Un partitionnement de la source vidéo entrelacée en deux couches, aussi appelées "layer" est effectué:Partitioning of the video source interleaved in two layers, also called "layer" is performed:
- une couche de base, "base layer", constituée d'une description complètement échelonnable ou « scalable », c'est à dire dans le domaine spatial, temporel et en qualité, de la source vidéo en mode progressif. Cette couche de base décrit la vidéo de basse résolution spatiale (BR),a base layer, consisting of a completely scalable or scalable description, ie in the spatial, temporal and quality domain, of the progressive mode video source. This base layer describes the video of low spatial resolution (BR),
- une couche d'amélioration, "enhancement layer", également scalable et qui permet la reconstruction, parfaite, de la vidéo originale en mode entrelacé haute résolution spatiale lorsqu'on l'associe à la couche de base.an enhancement layer, which is also scalable and which allows the perfect reconstruction of the original video in high spatial resolution interlaced mode when it is associated with the base layer.
La solution algorithmique adoptée permet de traiter de manière adaptée les cas de scalabilité spatiale entre une haute résolution entrelacée et une basse résolution progressive, la fréquence image ou « frame rate » demeurant cependant identique.The adopted algorithmic solution makes it possible to suitably deal with the cases of spatial scalability between a high interlaced resolution and a low progressive resolution, the image frequency or "frame rate" remaining however identical.
D'autres particularités et avantages de l'invention apparaîtront clairement dans la description suivante donnée à titre d'exemple non limitatif et faite en regard des figures annexées qui représentent :Other features and advantages of the invention will become clear in the following description given by way of non-limiting example and with reference to the appended figures which represent:
- la figure 1 , une architecture d'encodage,FIG. 1, an encoding architecture,
- la figure 2, l'évolution du format de la vidéo, - la figure 3, les modes de prédiction pour la trame haute de l'image source,- Figure 2, the evolution of the format of the video, FIG. 3, the prediction modes for the high frame of the source image,
- la figure 4, les modes de prédiction pour la trame basse de l'image source.- Figure 4, the prediction modes for the low frame of the source image.
La séquence vidéo source est en mode entrelacé de résolution 2MxN de fréquence temporelle 2α Hz.The source video sequence is in interlaced mode with a 2 MHz frequency resolution 2MxN.
L'architecture complète de l'encodage est représentée à la figure 1.The complete architecture of the encoding is shown in Figure 1.
Le procédé est peut être décomposée en plusieurs étapes décrites ci-dessous. La source vidéo est tout d'abord désentrelacée par le circuit de sous-échantillonnage et de désentrelaçage, référencé 1 sur la figure, afin d'obtenir une image en mode progressif de même largeur et hauteur que la source entrelacée. La séquence progressive obtenue est ensuite sous- échantillonnée, par ce circuit de désentrelaçage et de sous-échantillonnage 1 , à la résolution spatiale voulue (LR), pour fournir la couche de base appeléeThe process can be broken down into several steps as described below. The video source is first de-interlaced by the subsampling and deinterleaving circuit, referenced 1 in the figure, to obtain a progressive mode image of the same width and height as the interlaced source. The resulting progressive sequence is then subsampled, by this deinterleaving and subsampling circuit 1, to the desired spatial resolution (LR), to provide the base layer called
« base layer ». Ce sous-échantillonnage est effectué à partir de méthodes de filtrage connues. A titre d'exemple, après application d'un filtre passe-bas, un sous-échantillonnage peut être effectué à partir d'un filtre linéaire séparable dont les coefficients correspondent à un sinus cardinal pondéré par une fenêtre d'atténuation. Par exemple le filtre suivant peut être utilisé :"Base layer". This sub-sampling is performed from known filtering methods. For example, after applying a low-pass filter, subsampling can be performed from a separable linear filter whose coefficients correspond to a cardinal sinus weighted by an attenuation window. For example, the following filter can be used:
HH
Φ) = ' ' < 2 où x est la partie fractionnaire de laΦ) = '' <2 where x is the fractional part of the
Figure imgf000006_0001
position du pixel à interpoler dans l'image source.
Figure imgf000006_0001
position of the pixel to interpolate in the source image.
Un filtre passe-bas demi-bande peut être utilisé. Le filtre séparable proposé à titre informatif pour le standard MPEG-4 et défini dans le documentA half-band low-pass filter can be used. The separable filter proposed for information purposes for the MPEG-4 standard and defined in the document
ISO/IEC JTC1/SC29/WG11 N3515 intitulé « Generic Extended SpatialISO / IEC JTC1 / SC29 / WG11 N3515 entitled "Generic Extended Spatial
Scalability » peut être appliqué. Ce filtre de longueur 13 a pour coefficientsScalability "can be applied. This filter of length 13 has for coefficients
(2,0,-4,-3,5,19,26,19,5,-3,-4,0,2), chacun des coefficients étant divisé par(2.0, -4, -3.5,19,26,19,5, -3, -4,0,2), each of the coefficients being divided by
128. Le filtrage passe-bas permet de limiter les risques de recouvrement de spectre et constitue une étape préalable à l'étape de sous-échantillonnage.128. Low-pass filtering limits the risk of spectrum recovery and is a step prior to the subsampling stage.
Ensuite, cette couche de base est encodée par un codeur référencé 2 en utilisant un logiciel ou « software » d'encodage, par exemple MPEG4-AVC décrit dans le document ITU-T and ISO/IEC JTC1 intitulé "Advanced video coding for generic audiovisual services", ITU-T recommendation H.264 - ISO/IEC 14496-10 AVC, 2003. Cette couche sous-échantillonnée correspond à la couche de base en mode progressif. Les étapes suivantes consistent à prédire la texture pour la haute résolution (HR). Pour cela, le train binaire constituant la couche de base est décodé avec le décodeur associé au software de codage utilisé précédemment et référencé 3, donnant une couche de base reconstruite, notée r_BL. Cette dernière est ensuite sur-échantillonnée du ratio nécessaire afin de retrouver les dimensions de la vidéo haute résolution. C'est l'objet du circuit de sur-échantillonnage 4. Ce sur-échantillonnage est effectué avec la méthode ESS, acronyme de l'anglais Extended Spatial Scalability décrite par exemple dans le document ISO/IEC JTC1/SC29/WG11 , M11957 intitulé "Generic Extended Spatial Scalability", auteurs François, Vieron, Marquant, Burdin, Lopez. Busan, 2005. Ainsi, dans le cas 108Oi 60Hz - 72Op 30 Hz, le procédé ESS est appliqué avec un ratio de 3/2. La vidéo obtenue est par contre en mode progressif. Par conséquent, un circuit de séparation des lignes paires et impaires 5 réalise, pour chaque image progressive, une séparation en deux trames, l'une formée par les lignes paires et l'autre par les lignes impaires de l'image progressive, respectivement r_BL UpTOP et r_BL Up BOT.Then, this base layer is encoded by a coder referenced 2 using a software or "software" encoding, for example MPEG4-AVC described in ITU-T and ISO / IEC JTC1 entitled "Advanced video coding for generic audiovisual services", ITU-T recommendation H.264 - ISO / IEC 14496-10 AVC, 2003. This subsampled layer corresponds to the layer basic in progressive mode. The next steps are to predict the texture for high resolution (HR). For this, the bit stream constituting the base layer is decoded with the decoder associated with the coding software previously used and referenced 3, giving a reconstructed base layer, denoted r_BL. The latter is then oversampled of the necessary ratio to find the dimensions of the high resolution video. This is the object of the oversampling circuit 4. This oversampling is performed with the ESS method, the acronym for Extended Spatial Scalability, described for example in ISO / IEC JTC1 / SC29 / WG11, entitled M11957. "Generic Extended Spatial Scalability", authors François, Vieron, Marquant, Burdin, Lopez. Busan, 2005. Thus, in the case of 108Oi 60Hz - 72Op 30Hz, the ESS process is applied with a ratio of 3/2. The video obtained is in contrast in progressive mode. Consequently, a separation circuit of the even and odd lines 5 carries out, for each progressive image, a separation in two frames, one formed by the even lines and the other by the odd lines of the progressive image, respectively r_BL UpTOP and r_BL Up BOT.
Ces trames sont exploitées lors du codage de chaque trame de l'image entrelacée source, trames obtenues par désentrelaçage de l'image source effectué par le circuit de désentrelaçage 6, pour fournir la couche d'amélioration. Ainsi, le codeur 7 et le codeur 8 effectuent respectivement le codage de la trame basse et de la trame haute de l'image source en exploitant, pour un mode de codage, les trames correspondantes basse résolution reconstituées. La trame paire ou haute est codée en premier et peut être exploitée comme trame de référence pour le codage de la trame impaire ou basse.These frames are exploited during the coding of each frame of the source interlaced image, frames obtained by deinterleaving the source image made by the deinterleaver circuit 6, to provide the enhancement layer. Thus, the encoder 7 and the encoder 8 respectively perform the coding of the low frame and the high frame of the source image by exploiting, for a coding mode, the corresponding low resolution reconstructed frames. The even or high frame is coded first and can be exploited as a reference frame for coding the odd or low frame.
La figure 2 indique l'évolution du format de la vidéo séquentiellement après chaque brique d'opérations dans le cas 72Op 60Hz - SDi 60 Hz. L'image source entrelacée de 1080 lignes de 1920 pixels à la fréquence de 60 Hz, norme dite 1080Î60, est désentrelacée et sous- échantillonnée pour fournir des images progressives de 720 lignes de 1280 pixels à la fréquence de 30 Hz, norme dite 720p30, pour le codage de la couche de base. Les images reconstruites sont sur-échantillonnées pour fournir une image r_BL Up au format 1080p30. De cette image sont extraites une trame haute r_BL Up TOP et une trame basse r_BL Up BOT au format 540p30 qui sont les trames de prédiction pour le codage des trames de l'image source. Les figures 3 et 4 représentent des modes de prédiction de l'image source, utilisés par les codeurs 7 et 8 pour le codage de la couche d'amélioration.Figure 2 shows the evolution of the format of the video sequentially after each brick of operations in the case 72Op 60Hz - SDi 60 Hz. The interlaced source image of 1080 lines of 1920 pixels at a frequency of 60 Hz, the so-called 1080i60 standard, is deinterleaved and downsampled to provide progressive images of 720 lines of 1280 pixels at the frequency of 30 Hz, a so-called 720p30 standard. for the coding of the base layer. The reconstructed images are oversampled to provide a r_BL Up image in 1080p30 format. From this image are extracted a high r_BL Up TOP frame and a 540p30 r_BL Up BOT low frame which are the prediction frames for the coding of the frames of the source image. Figures 3 and 4 show source image prediction modes used by encoders 7 and 8 for coding the enhancement layer.
La texture de la couche d'amélioration est codée à partir de texture de prédiction pour la trame haute ou paire et de texture de prédiction pour la trame basse ou impaire.The texture of the enhancement layer is encoded from prediction texture for the high or even field and prediction texture for the low or odd field.
La prédiction de la trame haute, aussi appelée "top field", dépend des modes de prédiction choisis, entre autres :The prediction of the high frame, also called "top field", depends on the prediction modes chosen, among others:
- modes de prédiction intra-couche (intra layer), par exemple décrits dans MPEG4-AVC (H264/AVC) représentés par les lignes pointillées sur la figure 3. Il s'agit de prédiction temporelle à partir de trame haute résolution précédente ou suivante de parité identique ou opposée.intra-layer prediction modes, for example described in MPEG4-AVC (H264 / AVC) represented by the dashed lines in FIG. 3. This is a temporal prediction starting from previous or next high resolution frame. identical or opposite parity.
- modes de prédiction inter-couche (inter layer) des trames hautes (i.e. Top field), prédiction effectuée entre les trames « trame haute » ou Topjnput et r_BL Up TOP comme représenté sur la figureinter-layer prediction modes of the high frames (i.e. Top field), prediction performed between the "high frame" or Topjnput frames and r_BL Up TOP as shown in the figure
2, trames appelées respectivement T_ipt et T_up sur la figure 3. Ces modes symbolisés par des traits pleins sur la figure 3 sont appelés modes de prédiction temporelle pour des trames à des instants différents, i.e. entre T_ipt(k) et T_up(k-1 , k+1 ) et modes de prédiction synchrone pour des trames au même instant k, i.e. entre T_ipt(k) et2, frames named respectively T_ipt and T_up in FIG. 3. These modes symbolized by solid lines in FIG. 3 are called time prediction modes for frames at different times, ie between T_ipt (k) and T_up (k-1 , k + 1) and synchronous prediction modes for frames at the same time k, ie between T_ipt (k) and
T_up(k).T_up (k).
La prédiction de la trame basse, aussi appelée "bottom field", dépend des modes de prédiction choisis, entre autres : - modes de prédiction intra-couche (intra layer) représentés par des lignes en pointillés sur la figure 4. Il s'agit de prédiction temporelle à partir de trame haute résolution précédente ou suivante de parité identique ou opposée. - modes de prédiction inter-couche (inter layer) de la trame basse (i.e. Botiom field), prédiction effectuée entre les trames HR Bot_input et trame impaire provenant du circuit 5 ou trame paire provenant du circuit 5 via le codeur 8, comme représenté sur la figure 1 pour le codeur 7. Ces trames sont appelées respectivement « trame basse » ou B_ipt pour la trame HR, r_BL Up BOT correspondant àThe prediction of the low frame, also called "bottom field", depends on the prediction modes chosen, among others: intra-layer prediction modes represented by dashed lines in FIG. 4. This is a temporal prediction from a previous or next high resolution frame of identical or opposite parity. inter-layer prediction modes (inter layer) of the low frame (ie Botiom field), prediction made between the HR Bot_input frames and odd field from the circuit 5 or even frame from the circuit 5 via the encoder 8, as represented on Figure 1 for the encoder 7. These frames are called respectively "low frame" or B_ipt for the HR frame, r_BL Up BOT corresponding to
B_up pour la trame impaire et r_BL Up TOP correspondant à T_up pour la trame paire, sur les figures 4 et 2. Ces modes symbolisés par des traits pleins sur la figure 4 sont appelés modes de prédiction temporelle pour des trames décalées, du fait du décalage ou « time shift » entre les trames paires et impaires, i.e. entre B_ipt(k+ts) etB_up for the odd field and r_BL Up TOP corresponding to T_up for the even field, in FIGS. 4 and 2. These modes symbolized by solid lines in FIG. 4 are called time prediction modes for staggered frames, due to the offset or "time shift" between even and odd frames, ie between B_ipt (k + ts) and
T_up(k) et entre B_ipt(k+ts) et B_up(k). Ces modes sont appelés modes de prédiction synchrone pour des trames au même instant k+ts, i.e. entre B_ipt(k+ts) et les trames Bm(k+ts) et Tm(k+ts). Ces dernières trames correspondent respectivement à des interpolations entre B_up(k) et B_up(k+1 ) et entre T_up(k) et T_up(k+1 ).T_up (k) and between B_ipt (k + ts) and B_up (k). These modes are called synchronous prediction modes for frames at the same time k + ts, i.e. between B_ipt (k + ts) and the frames Bm (k + ts) and Tm (k + ts). These last frames correspond respectively to interpolations between B_up (k) and B_up (k + 1) and between T_up (k) and T_up (k + 1).
Au décodeur, la couche de base est d'abord décodée. Ensuite, les images reconstruites sont sur-échantillonnées et divisées avec les mêmes méthodes que celles utilisées à l'encodeur. Une fois ces trames de prédiction obtenues, les données de la couche d'amélioration (enhancement layer) relatives aux trames haute résolution correspondantes sont décodées et ajoutées afin de pouvoir reconstruire le contenu de la vidéo haute résolution.At the decoder, the base layer is first decoded. Then, the reconstructed images are oversampled and divided with the same methods as those used at the encoder. Once these prediction frames have been obtained, the enhancement layer data relating to the corresponding high resolution frames are decoded and added in order to reconstruct the content of the high resolution video.
Le décodeur effectue les opérations inverses du codeur. Les informations de résidus de la couche d'amélioration sont ajoutées aux données correspondant à la texture de prédiction. L'image de prédiction exploitée est celle définie, pour le macrobloc à coder, à partir des informations de codage du flux de données reçues. Ainsi, les opérations de suréchantillonnage de l'image relative à la couche de base, de séparation de l'image ainsi sur-échantillonnée en deux trames, telles que décrites à la figure 2, sont réalisées. De même les opérations d'interpolation temporelle permettant d'obtenir les trames de prédiction Tm et Bm.The decoder performs the inverse operations of the encoder. The residue information of the enhancement layer is added to the data corresponding to the prediction texture. The exploited prediction image is that defined, for the macroblock to be encoded, from the coding information of the data stream received. Thus, the oversampling operations of the image relating to the base layer, of the image separation thus oversampled into two frames, as described in FIG. 2, are realized. Similarly, the temporal interpolation operations making it possible to obtain the prediction frames Tm and Bm.
Etant donné une séquence vidéo, plusieurs solutions sont possibles pour gérer des données entrelacées haute résolution et progressive basse résolution. Parmi ces solutions :Given a video sequence, several solutions are possible for managing high resolution and low resolution interlaced data. Among these solutions:
- Une première solution simplifiée où seulement les trames sont prises en compte : il s'agit du mode trame ou mode « Field », comme proposé sur la figure 1. - Une deuxième solution, appelée encodage PAFF, acronyme de l'anglais Picture Adaptive Frame/Field, où les images haute résolution entrelacées sont soit encodées en tant que trame comme sur la figure 1 , soit encodées en tant qu'image, et ceci par prédiction temporelle avec les autres images entrelacées haute résolution ou bien par prédiction spatiale par rapport à l'image de la couche de base sur-échantillonnée.- A first simplified solution where only the frames are taken into account: this is the frame mode or "Field" mode, as proposed in Figure 1. - A second solution, called PAFF encoding, acronym for English Picture Adaptive Frame / Field, where the interlaced high resolution images are either encoded as a frame as in Figure 1, or encoded as an image, and this by temporal prediction with the other high resolution interlaced images or by spatial prediction relative to like the over-sampled base layer.
- Une autre solution, appelée MBAFF, acronyme de l'anglais MacroBlock Adaptive Frame Field, utilisant la même approche que pour le codage PAFF mais au niveau de chaque macrobloc.- Another solution, called MBAFF, acronym for the English MacroBlock Adaptive Frame Field, using the same approach as for the PAFF coding but at the level of each macroblock.
Le choix parmi ces différents modes de codage, combinés à notre procédé de codage, est effectué de manière classique, par exemple en fonction du coût de codage.The choice among these different coding modes, combined with our coding method, is carried out in a conventional manner, for example as a function of the coding cost.
Les modes de codage MBAFF ou PAF sont connus et décrits par exemple dans la norme H264. The modes of encoding MBAFF or PAF are known and described for example in the H264 standard.

Claims

REVENDICATIONS
1. Procédé de codage d'images vidéo avec échelonnabilité spatiale réalisant le codage d'une première image progressive basse résolution et d'au moins une deuxième image entrelacée de plus haute résolution à partir de l'image basse résolution, la première image ayant une partie vidéo commune avec la deuxième image, caractérisé en ce qu'il comporte :A method of encoding video images with spatial scalability encoding a first low resolution progressive image and at least one second higher resolution interlaced image from the low resolution image, the first image having a resolution common video part with the second image, characterized in that it comprises:
- une étape de codage de l'image basse résolution (2) pour fournir une image basse résolution codée,a coding step of the low-resolution image (2) to provide an encoded low-resolution image,
- une étape de décodage de l'image basse résolution (3) pour fournir une image basse résolution reconstruite,a step of decoding the low resolution image (3) to provide a reconstructed low resolution image,
- une étape de sur-échantillonnage (4) de l'image reconstruite pour fournir une image de prédiction, - une étape de séparation (5) de l'image reconstruite suréchantillonnée en une trame de prédiction paire et une trame de prédiction impaire,an oversampling step (4) of the reconstructed image to provide a prediction image; a step of separating (5) the oversampled reconstructed image into an even prediction frame and an odd prediction frame;
- une étape de désentrelacement (6) de la dite deuxième image pour fournir une trame haute résolution paire et une trame haute résolution impaire, - une étape de codage (7, 8) d'une trame haute résolution paire ou impaire effectuant un calcul de différence entre une trame haute résolution et la trame de prédiction de même parité, pour donner un résidu à coder.a deinterleaving step (6) of said second image to provide an even high resolution frame and an odd high resolution frame; a coding step (7, 8) of an even or odd high resolution frame performing a calculation of difference between a high resolution frame and the prediction frame of the same parity, to give a residue to be coded.
2. Procédé selon la revendication 1 , caractérisé en ce qu'il comporte une étape de désentrelacement (1) de la dite deuxième image et une étape de sous-échantillonnage (1) de l'image désentrelacée pour fournir une première image progressive basse résolution à coder.2. Method according to claim 1, characterized in that it comprises a deinterleaving step (1) of said second image and a step of sub-sampling (1) of the deinterleaved image to provide a first low resolution progressive image. to code.
3. Procédé selon la revendication 1 , caractérisé en ce que l'étape de codage d'une trame haute résolution (7, 8) utilise une trame de prédiction provenant d'une image basse résolution synchrone de la trame haute résolution à coder ou une trame de prédiction provenant d'une image basse résolution synchrone d'une précédente ou suivante trame haute résolution par rappport à la trame courante haute résolution à coder. 3. Method according to claim 1, characterized in that the step of encoding a high resolution frame (7, 8) uses a prediction frame from a synchronous low resolution image of the high resolution frame to be coded or a prediction frame from a synchronous low resolution image of a previous or next high resolution frame to the current high resolution frame to be encoded.
4. Procédé selon la revendication 1 , caractérisé en ce que l'étape de suréchantillonnage est effectué selon la méthode ESS (Extended Spatial Scalability)4. Method according to claim 1, characterized in that the oversampling step is performed according to the method ESS (Extended Spatial Scalability)
5. Procédé selon la revendication 1 , caractérisé en ce que le décodage de l'image basse résolution correspond au calcul de l'image décodée locale pour fournir l'image reconstruite pendant l'étape de codage de l'image basse résolution.5. Method according to claim 1, characterized in that the decoding of the low resolution image corresponds to the calculation of the local decoded image to provide the reconstructed image during the coding step of the low resolution image.
6. Procédé de décodage d'images codées selon le procédé de la revendication 1 , caractérisé en ce qu'il comporte:6. Method for decoding coded images according to the method of claim 1, characterized in that it comprises:
- une étape de décodage d'une image basse résolution progressive effectuant un calcul d'une image reconstruite,a step of decoding a progressive low resolution image performing a calculation of a reconstructed image,
- une étape de sur-échantillonnage (4) de l'image reconstruite pour obtenir une image sur-échantillonnée,a step of oversampling (4) of the reconstructed image to obtain an oversampled image,
- une étape de désentrelacement (5) de l'image sur-échantillonnée pour obtenir une trame prédite,a deinterleaving step (5) of the oversampled image to obtain a predicted frame,
- une étape de décodage d'une trame de plus haute résolution en ajoutant à la trame prédite de même parité, le résidu correspondant.a step of decoding a frame of higher resolution by adding to the predicted frame of the same parity, the corresponding residue.
7. Procédé selon la revendication 6, caractérisé en ce que l'étape de suréchantillonnage (4) est effectué selon la méthode ESS (Extended Spatial Scalability). 7. Method according to claim 6, characterized in that the oversampling step (4) is performed according to the ESS (Extended Spatial Scalability) method.
PCT/EP2006/065228 2005-08-18 2006-08-10 Method for encoding and decoding interleave high-resolution and progressive low-resolution images WO2007020233A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP05300680.5 2005-08-18
EP05300680 2005-08-18

Publications (2)

Publication Number Publication Date
WO2007020233A2 true WO2007020233A2 (en) 2007-02-22
WO2007020233A3 WO2007020233A3 (en) 2007-05-03

Family

ID=37668050

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/065228 WO2007020233A2 (en) 2005-08-18 2006-08-10 Method for encoding and decoding interleave high-resolution and progressive low-resolution images

Country Status (1)

Country Link
WO (1) WO2007020233A2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0577428A2 (en) * 1992-07-03 1994-01-05 Sony Corporation Image signal coding and decoding and image signal recording medium
EP0883300A2 (en) * 1997-06-05 1998-12-09 General Instrument Corporation Temporal and spatial scaleable coding for video object planes

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0577428A2 (en) * 1992-07-03 1994-01-05 Sony Corporation Image signal coding and decoding and image signal recording medium
EP0883300A2 (en) * 1997-06-05 1998-12-09 General Instrument Corporation Temporal and spatial scaleable coding for video object planes

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BAYRAKERI S ET AL: "MPEG-2/ECVQ LOOKAHEAD HYBRID QUANTIZATION AND SPATIALLY SCALABLE CODING" PROCEEDINGS OF THE SPIE, SPIE, BELLINGHAM, VA, US, vol. 3024, 1997, pages 129-137, XP008042521 ISSN: 0277-786X *
PURI A ET AL: "Spatial domain resolution scalable video coding" PROCEEDINGS OF THE SPIE, SPIE, BELLINGHAM, VA, US, vol. 2094, 1993, pages 718-729, XP002316512 ISSN: 0277-786X *
REICHEL J ET AL: "JOINT SCALABLE VIDEO MODEL JSVM-4" JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 AND ITU-T SG16 Q6), [Online] no. JVT O039, 14 avril 2005 (2005-04-14), pages 1-15, XP002417268 15th Meeting, Busan, Korea, 16-22 April 2005 Extrait de l'Internet: URL:http://ftp3.itu.int/av-arch/jvt-site/2 005_04_Busan/JVT-O039.doc> [extrait le 2007-01-29] *

Also Published As

Publication number Publication date
WO2007020233A3 (en) 2007-05-03

Similar Documents

Publication Publication Date Title
US8743955B2 (en) Method, medium, and apparatus for encoding and/or decoding video by generating scalable bitstream with adaptive bit-depth and video format
US8428364B2 (en) Edge enhancement for temporal scaling with metadata
US7787540B2 (en) Method for scalably encoding and decoding video signal
EP1913781A2 (en) Method of encoding and decoding video images with spatial scalability
US20090003435A1 (en) Method, medium, and apparatus for encoding and/or decoding video data
US20040252767A1 (en) Coding
JP6272419B2 (en) High precision upsampling in scalable coding of high bit depth video
US8320460B2 (en) Dyadic spatial re-sampling filters for inter-layer texture predictions in scalable image processing
EP1808023B1 (en) Method for hierarchically coding video images
KR101158437B1 (en) Method for scalably encoding and decoding video signal
US20060133677A1 (en) Method and apparatus for performing residual prediction of image block when encoding/decoding video signal
FR2886787A1 (en) METHOD AND DEVICE FOR ENCODING AND DECODING AN IMAGE SEQUENCE
KR100883604B1 (en) Method for scalably encoding and decoding video signal
EP1878249B1 (en) Method for scalably decoding a video signal
WO2016146158A1 (en) Adaptive clipping in filtering
WO2007020233A2 (en) Method for encoding and decoding interleave high-resolution and progressive low-resolution images
WO2007020278A2 (en) Method for encoding and decoding high-resolution progressive and interleave low-resolution images
WO2021115386A1 (en) Video encoding or decoding methods and apparatuses with scaling ratio constraint
WO2024042286A1 (en) Coding-loop-external smoothing of a boundary between two image regions
EP2842324A1 (en) Progressive compression/decompression of a digital video stream comprising at least one interleaved image
FR2894423A1 (en) METHOD FOR PREDICTING MOTION DATA AND TEXTURE

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06778224

Country of ref document: EP

Kind code of ref document: A2