FR2894424A1 - Procede de prediction de donnees mouvement et de texture - Google Patents

Procede de prediction de donnees mouvement et de texture Download PDF

Info

Publication number
FR2894424A1
FR2894424A1 FR0553713A FR0553713A FR2894424A1 FR 2894424 A1 FR2894424 A1 FR 2894424A1 FR 0553713 A FR0553713 A FR 0553713A FR 0553713 A FR0553713 A FR 0553713A FR 2894424 A1 FR2894424 A1 FR 2894424A1
Authority
FR
France
Prior art keywords
image
high resolution
low resolution
inter
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0553713A
Other languages
English (en)
Inventor
Jerome Vieron
Vincent Bottreau
Patrick Lopez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to FR0553713A priority Critical patent/FR2894424A1/fr
Priority to EP06807832A priority patent/EP1958447A2/fr
Priority to JP2008543766A priority patent/JP5031763B2/ja
Priority to PCT/EP2006/068786 priority patent/WO2007065796A2/fr
Priority to US12/085,987 priority patent/US8855204B2/en
Priority to CN201210082629.6A priority patent/CN102638685B/zh
Priority to CN2006800453772A priority patent/CN101322411B/zh
Publication of FR2894424A1 publication Critical patent/FR2894424A1/fr
Priority to US14/471,479 priority patent/US20140369416A1/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

L'invention concerne un procédé pour générer pour au moins un bloc de pixels d'une image d'une séquence d'images entrelacées au moins un prédicteur de mouvement et au moins un prédicteur de texture à partir de données de mouvements respectivement de données de texture associées aux images d'une séquence d'images entrelacées basse résolution.

Description

PROCEDE DE PREDICTION DE DONNEES MOUVEMENT ET DE TEXTURE 1. Domaine de
l'invention L'invention concerne un procédé pour générer, pour des images d'une séquence haute résolution entrelacée, au moins un prédicteur de mouvement et éventuellement au moins un prédicteur de texture à partir de données de mouvement et éventuellement de données de texture associées à des images d'une séquence basse résolution entrelacée. 2. Etat de l'art Les procédés de codage hiérarchique avec graduation ou scalabilité spatiale ( spatial scalability en anglais) sont du domaine connu. La graduation représente la capacité d'échelonner l'information pour la rendre décodable à plusieurs niveaux de résolution et/ou de qualité. Plus précisément, un flux de données généré par ce type de procédé de codage est divisé en plusieurs couches, notamment une couche de base et une ou plusieurs couches d'amélioration. Ces procédés permettent notamment d'adapter un unique flux de données à des conditions de transport variables (bande passante, taux d'erreurs,...), ainsi qu'aux attentes des clients et aux capacités variées de leurs récepteurs (CPU, caractéristiques du dispositif de visualisation, ...). Dans le cas particulier de la graduation spatiale, la partie du flux de données correspondant à des images basse résolution de la séquence pourra être décodée indépendamment de la partie du flux de données correspondant à des images haute résolution. En revanche, la partie du flux de données correspondant aux images haute résolution de la séquence ne pourra être décodée qu'à partir de la partie du flux de données correspondant aux images basse résolution. Le codage hiérarchique avec graduation spatiale permet de coder une première partie de données appelée couche de base, relative aux images basse résolution, et à partir de cette couche de base une deuxième partie de données appelée couche d'amélioration, relative aux images haute résolution. Généralement, chaque macrobloc de l'image haute résolution est prédit temporellement selon un mode de prédiction classique (par exemple mode de prédiction bidirectionnel, mode de prédiction direct, mode de prédiction anticipé ...) ou bien est prédit selon un mode de prédiction inter-couche. Dans ce dernier cas, des données de mouvement (par exemple un partitionnement du macrobloc en blocs, éventuellement des vecteurs de mouvement et des indices d'images de référence) et éventuellement des données de texture associées à un bloc de pixels de l'image haute résolution sont déduites ou héritées des données de mouvement respectivement des données de texture associées à des blocs de pixels d'une image basse résolution. Toutefois, les procédés connus ne permettent pas de générer de tels prédicteurs dans le cas où la séquence basse résolution et la séquence haute résolution sont entrelacées. 3. Résumé de l'invention L'invention a pour but de pallier au moins un des inconvénients de l'art antérieur. L'invention concerne un procédé pour générer pour au moins un bloc de pixels d'une image d'une séquence d'images entrelacées haute résolution, dite séquence haute résolution, au moins un prédicteur de mouvement à partir de données de mouvement associées aux images d'une séquence d'images entrelacées basse résolution, dite séquence basse résolution, de même fréquence temporelle que la séquence haute résolution. Chaque image entrelacée comprend une trame supérieure entrelacée avec une trame inférieure et peut être codée en mode bi-trame ou en mode mono- trame. A chaque trame d'une image entrelacée étant associée une référence temporelle. Le procédé permet notamment de générer : • des premier et deuxième prédicteurs de mouvement pour au moins un bloc de pixels de l'image haute résolution à partir des données de mouvement associées à au moins un bloc de pixels de la trame supérieure d'une image basse résolution de même référence temporelle que la trame supérieure de l'image haute résolution si l'image basse résolution est codée en mode mono-trame; • un troisième prédicteur de mouvement pour au moins un bloc de pixels de l'image haute résolution à partir des données de mouvement associées à au moins un bloc de pixels de la trame inférieure de l'image basse résolution de même référence temporelle que la trame inférieure de l'image haute résolution si l'image basse résolution est codée en mode mono-trame ; et • des quatrième et cinquième prédicteurs de mouvement pour le au moins un bloc de pixels de l'image haute résolution à partir des données de mouvement associées à au moins un bloc de pixels d'une image basse résolution comprenant une trame de même référence temporelle qu'une des trames supérieure ou inférieure de l'image haute résolution si l'image basse résolution est codée en mode bitrame. Préférentiellement , le premier prédicteur de mouvement est généré en sous échantillonnant lesdites données de mouvement associées à au moins au moins un bloc de pixels de la trame supérieure avec un rapport inter-couche horizontal dans la direction horizontale de l'image et un premier rapport inter-couche vertical dans la direction verticale de l'image, le deuxième prédicteur de mouvement est généré en sous échantillonnant lesdites données de mouvement associées à au moins un bloc de pixels de la trame supérieure avec le rapport inter-couche horizontal dans la direction horizontale de l'image et un deuxième rapport inter-couche vertical dans la direction verticale de l'image, le troisième prédicteur de mouvement est généré en sous échantillonnant lesdites données de mouvement associées à au moins un bloc de pixels de la trame inférieure avec le rapport inter-couche horizontal dans la direction horizontale de l'image et le premier rapport inter-couche vertical dans la direction verticale de l'image, le quatrième prédicteur de mouvement est généré en sous échantillonnant lesdites données de mouvement associées à au moins un bloc de pixels de l'image basse résolution avec le rapport inter-couche horizontal dans la direction horizontale de l'image et un troisième rapport inter-couche vertical dans la direction verticale de l'image et le cinquième prédicteur de mouvement est généré en sous échantillonnant lesdites données de mouvement associées à au moins un bloc de pixels de l'image basse résolution avec le rapport inter-couche horizontal dans la direction horizontale de l'image et le premier rapport inter- couche vertical dans la direction verticale de l'image. Le procédé permet également de générer pour le bloc de pixels de l'image haute résolution, un premier prédicteur de texture à partir des données de texture associées à au moins un bloc de pixels de la trame supérieure d'une image basse résolution de même référence temporelle que la trame supérieure de l'image haute résolution, un deuxième prédicteur de texture à partir des données de texture associées à au moins un bloc de pixels de la trame inférieure d'une image basse résolution de même référence temporelle que la trame inférieure de l'image haute résolution et un troisième prédicteur de texture à partir des données de texture associées à au moins un bloc de pixels de chacune des trames supérieure et inférieure de l'image basse résolution. Avantageusement, le premier prédicteur de texture est généré en sous échantillonnant lesdites données de texture associées à au moins un bloc de pixels d'une trame supérieure d'une image basse résolution de même référence temporelle que la trame supérieure de l'image haute résolution avec le rapport inter-couche horizontal dans la direction horizontale de l'image et le premier rapport inter-couche vertical dans la direction verticale de l'image, le deuxième prédicteur de texture est généré en sous échantillonnant lesdites données de texture associées à au moins un bloc de pixels d'une trame inférieure d'une image basse résolution de même référence temporelle que la trame inférieure de l'image haute résolution avec le rapport inter-couche horizontal dans la direction horizontale de l'image et le premier rapport inter-couche vertical dans la direction verticale de l'image et le troisième prédicteur de texture est généré en entrelaçant les premier et deuxième prédicteurs de texture. Selon une caractéristique particulière, le rapport inter-couche horizontal est égal à la largeur des images haute résolution divisée par la largeur des trames des images basse résolution, en ce que le premier rapport inter- couche vertical est égal à la hauteur des images haute résolution divisée par la hauteur des images basse résolution, en ce que le deuxième rapport inter-couche vertical est égal à la hauteur des images haute résolution divisée par la hauteur des trames des images basse résolution et en ce que le troisième rapport intercouche vertical est égal à la hauteur des trames des images haute résolution divisée par la hauteur des images basse résolution . Avantageusement, les données de mouvement associées aux images basse résolution comprennent des vecteurs de mouvement.
Préférentiellement, les vecteurs de mouvement associées à une image basse résolution codées en mode bi-trame ou à chacune des trames supérieure et inférieure d'une image basse résolution codée en mode mono-trame ont la même parité.
Le procédé est avantageusement utilisé par un procédé de codage d'images haute résolution à partir d'images basse résolution et par un procédé de décodage d'images haute résolution à partir d'images basse résolution. Préférentiellement, les images basse résolution sont codées 10 conformément à la norme MPEG-4 AVC.
4. Listes des fiqures L'invention sera mieux comprise et illustrée au moyen d'exemples de modes de réalisation et de mise en ceuvre avantageux, nullement limitatifs, 15 en référence aux figures annexées sur lesquelles : la figure 1 représente une séquence d'images basse résolution et une séquence d'images haute résolution entrelacées de même fréquence temporelle; la figure 2 illustre le procédé de génération de prédicteurs de texture 20 selon l'invention dans le cas où la séquence d'images basse résolution et la séquence d'images haute résolution sont entrelacées ; la figure 3 illustre le procédé de génération de prédicteurs de mouvement selon l'invention dans le cas où la séquence d'images basse résolution et la séquence d'images haute résolution sont 25 entrelacées ; la figure 4 illustre le sous-échantillonnage par un facteur 2 dans la direction horizontale de l'image de deux macroblocs MB1 et MB2 d'une image basse résolution et le partitionnement résultant pour le macrobloc prédicteur MB_pred correspondant. 30 5. Description détaillée de l'invention L'invention concerne un procédé de prédiction inter-couche qui consiste à générer des prédicteurs de mouvement et éventuellement des prédicteurs de texture pour des images d'une séquence ordonnée d'images entrelacées haute résolution, dite séquence haute résolution, à partir d'images d'une séquence ordonnée d'images entrelacées basse résolution, dite séquence basse résolution. Les séquences sont découpées en groupe d'images appelés GOP ( Group Of Pictures en anglais). Chaque image basse et haute résolution comprend une trame supérieure ( top field en anglais) entrelacée avec une trame inférieure ( bottom field en anglais). Sur la figure 1 une image entrelacée d'indice k est composée d'une trame supérieure référencée kT et d'une trame inférieure référencée kB. Une référence temporelle est associée à chaque trame des images haute et basse résolution. Une trame d'une image haute résolution et une trame d'une image basse résolution ayant la même référence temporelle coïncident verticalement. Les images basse résolution, également référencées images BR, ont une largeur w (w représentant un nombre de pixels ou de colonnes) et une hauteur de 2h (2h représentant un nombre de pixels ou de lignes et signifie 2 multiplié par h). Chaque trame d'une image basse résolution a une largeur w et une hauteur h. Les images haute résolution, également référencées images HR, ont une largeur W (W représentant un nombre de pixels ou de colonnes) et une hauteur de 2H (2H représentant un nombre de pixels ou de lignes et signifie 2 multiplié par H). Chaque trame d'une image haute résolution a une largeur W et une hauteur H. Dans le mode de réalisation décrit, les images entrelacées peuvent être codées soit en mode mono-trame ( field picture en anglais), i.e. chaque trame est codée comme une image à part entière, ou bien en mode bi-trame ( frame picture en anglais), i.e. les deux trames sont codées ensemble. Les lignes d'une image sont numérotées à partir de 0 et donc la première ligne est une ligne paire et la deuxième ligne (numérotée 1) est une ligne impaire. L'invention consiste donc à générer pour des images de la séquence haute résolution ou pour au moins un bloc de pixels de celles-ci, au moins un prédicteur de mouvement et éventuellement au moins un prédicteur de texture. Un prédicteur de texture associé à une image haute résolution ou à au moins un bloc de pixels d'une image haute résolution est une image ou un bloc de prédiction qui associe à chacun de ses pixels des données de texture (par exemple une valeur de luminance et éventuellement des valeurs de chrominance) qui sont générées à partir de données de texture associées à au moins une image (ou trame) ou à au moins un bloc de pixels d'une image (ou à au moins un bloc de pixels d'une trame) basse résolution selon un procédé de sous échantillonnage de la texture tel que le procédé ESS appliqué à la texture (ESS est l'acronyme de l'anglais de Extended Spatial Scalability) qui est décrit dans le document ISO/IEC MPEG & ITU-T VCEG intitulé Joint Scalable Video Model JSVM3 Annex-S référencé JVT-P202, J.Reichel, H.Schwarz, M.Wien. Ce document est référencé JSVM3 dans la suite. Un prédicteur de mouvement associé à une image haute résolution ou à au moins un bloc de pixels d'une image haute résolution est défini comme une image de prédiction ou un bloc de prédiction auxquels sont associés des données de mouvement (p.ex. un type de partitionnement, éventuellement des indices d'images de référence permettant d'identifier les images de référence vers lesquelles pointent les vecteurs de mouvement). Le prédicteur de mouvement est généré à partir de données de mouvement associées à au moins une image (ou trame) ou à au moins un bloc de pixels d'une image (ou à au moins un bloc de pixels d'une trame) basse résolution selon un procédé de sous échantillonnage du mouvement tel que le procédé ESS appliqué au mouvement qui est décrit dans JSVM3 ou tel que le procédé ESS modifié, décrit ci-après, dérivé du procédé ESS appliqué au mouvement. Le procédé ESS modifié, référencé MESS sur la figure 3 permet notamment de traiter des séquences haute et/ou basse résolution entrelacées. Plus particulièrement, il permet de traiter le cas où la hauteur ou la largeur de l'image haute résolution est inférieure à celle de l'image basse résolution. En outre, il permet avantageusement d'éviter que les prédicteurs de mouvement comprennent des vecteurs de mouvement invalides, i.e. qui pointent vers des images de référence non disponibles, lorsque le procédé de prédiction selon l'invention est utilisé par un procédé de codage ou décodage hiérarchique. Selon le procédé ESS modifié, un prédicteur de mouvement intermédiaire est généré en sous échantillonnant par 2 les données de mouvement associées à l'image basse résolution, plus particulièrement les données de mouvement associées à chacun des macroblocs de l'image basse résolution, dans la direction verticale de l'image, dans la direction horizontale de l'image ou dans les deux directions. Le procédé de sous échantillonnage par 2 est réitéré dans la direction verticale de l'image tant que la hauteur dudit prédicteur intermédiaire est supérieure à la hauteur de l'image haute résolution et il est réitéré dans la direction horizontale de l'image tant que la largeur dudit prédicteur intermédiaire est supérieure à la largeur de l'image haute résolution. Le sous échantillonnage consiste notamment à diviser par deux les coordonnées des vecteurs de mouvement associés aux blocs de pixels. Par exemple, en référence à la figure 4, à partir de deux macroblocs MB1 ou MB2 de l'image basse résolution éventuellement divisés en bloc de pixels, un macrobloc MB du prédicteur de mouvement intermédiaire est généré. La taille des blocs de pixels dans un macrobloc est indiquée au dessus dudit macrobloc. Par exemple, sur la deuxième ligne de la figure 4, le macrobloc MB1 n'est pas divisé, le macrobloc MB2 est divisé en deux blocs de taille 8 par 16 pixels (notée 8x16) et le macrobloc MB généré à partir de ces deux macroblocs est divisé en 4 bloc 8x8 dont deux sont divisés en blocs 4x8.
L'homogénéisation des indices d'images de référence entre les blocs de taille 8 par 8 pixels à l'intérieur d'un macrobloc MB et la suppression des blocs de type intra isolés à l'intérieur d'un macrobloc MB sont effectuées de la même manière que dans le procédé de prédiction inter-couche ESS appliqué au mouvement et décrit dans JSVM3.
Le prédicteur de mouvement associé à l'image haute résolution est généré à partir du dernier prédicteur de mouvement intermédiaire ainsi généré, en appliquant le procédé ESS avec un rapport inter-couche égal à W selon la wl direction horizontale de l'image et 2H selon la direction verticale de l'image, 2hz où w; et 2h; sont respectivement la largeur et la hauteur du dernier prédicteur de mouvement intermédiaire généré. En outre, pour chaque macrobloc de prédiction, le procédé d'héritage des vecteurs de mouvement est modifié pour ne pas générer des vecteurs de mouvement invalides, i.e. qui pointent vers des trames ou des images bi-trames non disponibles dans le processus de décomposition temporelle. En l'occurrence, si tous les vecteurs de mouvements associés à un macrobloc de prédiction MB_pred sont invalides alors la prédiction de mouvement inter-couche n'est pas autorisée pour ce macrobloc. Dans le cas contraire (i.e. au moins un des vecteurs est valide), le procédé de prédiction ESS appliqué au mouvement est utilisé. Le procédé selon l'invention, illustré par les figures 1 à 3, est décrit pour une image mais peut s'appliquer à une partie d'image et notamment à un macrobloc. Il permet par exemple de gérer le cas d'une séquence basse résolution entrelacée au format SD, i.e. de dimension 720 par 288 pixels, 60 Hz et d'une séquence haute résolution entrelacée au format 1080i, i.e. 1920 par 540 pixels, 60 Hz.
Des prédicteurs de texture associés à une image haute résolution d'indice k sur la figure 1 sont générés de la manière suivante tel qu'illustré par la figure 2:
• Un prédicteur de texture de dimension W par H est généré 20 pour la trame supérieure de l'image haute résolution à partir des données de texture de la trame supérieure de l'image basse résolution d'indice k en appliquant le procédé ESS avec un rapport inter-couche égal à W w selon la direction horizontale de l'image et h selon la direction verticale de l'image ;
• Un prédicteur de texture de dimension W par H est généré 21 pour la trame inférieure de l'image haute résolution à partir des données de texture de la trame inférieure de l'image basse résolution d'indice k en appliquant le procédé ESS avec un rapport inter-couche égal à W w selon la direction horizontale de l'image et h selon la direction verticale de l'image ; et • Un prédicteur de texture bi-trame de dimension W par 2H est généré 22 en entrelaçant les prédicteurs de texture associés aux trames supérieure et inférieure.
Selon une variante illustrée sur la figure 2 par des lignes pointillées, le prédicteur de texture bi-trame est généré 23 à partir des données de texture de l'image basse résolution bi-trame, i.e. les trames supérieure et inférieure de l'image basse résolution entrelacées, en appliquant le procédé ESS avec un rapport inter-couche égal à W selon la direction horizontale de l'image et w 2h selon la direction verticale de l'image. Si l'image basse résolution d'indice k est codée en mode mono-trame, des prédicteurs de mouvement associés à une image haute résolution d'indice k sur la figure 1 sont générés de la manière suivante tel qu'illustré par la figure 3: • Un prédicteur de mouvement de dimension W par H est généré 30 pour la trame supérieure de l'image haute résolution à partir des données de mouvement de la trame supérieure de l'image basse résolution d'indice k en appliquant le procédé ESS modifié avec un rapport inter-couche égal à W selon la direction horizontale de l'image w et h selon la direction verticale de l'image ; • Un prédicteur de mouvement de dimension W par H est généré 31 pour la trame inférieure de l'image haute résolution à partir des données de mouvement de la trame inférieure de l'image basse résolution d'indice k en appliquant le procédé ESS modifié avec un rapport inter-couche égal à W selon la direction horizontale de l'image w et h selon la direction verticale de l'image ; et • Un prédicteur de mouvement bi-trame de dimension W par 2H est généré 32 à partir des données de mouvement de l'image trame supérieure basse résolution d'indice k en appliquant le procédé ESS modifié avec un rapport inter-couche égal à W selon la direction w horizontale de l'image et 2H ù selon la direction verticale de l'image.
Dans les autres cas, i.e. l'image basse résolution d'indice k est codée en mode bi-trame, des prédicteurs de mouvement associés à une image haute résolution d'indice k sur la figure 1 sont générés de la manière suivante tel qu'illustré par la figure 3:
• Un prédicteur de mouvement de dimension W par H est généré 33 pour la trame supérieure de l'image haute résolution à partir des données de mouvement de l'image bi-trame basse résolution d'indice k en appliquant le procédé ESS modifié avec un rapport inter-couche égal à w selon la direction horizontale de l'image et h selon la direction verticale de l'image ;
• Un prédicteur de mouvement de dimension W par H est généré 33 pour la trame inférieure de l'image haute résolution à partir des données de mouvement de l'image bi-trame basse résolution d'indice k en appliquant le procédé ESS modifié avec un rapport inter-couche égal à w selon la direction horizontale de l'image et h selon la direction verticale de l'image ; et • Un prédicteur de mouvement bi-trame de dimension W par 2H est généré 34 à partir des données de mouvement de l'image basse résolution bi-trame d'indice k en appliquant le procédé ESS modifié avec un rapport inter-couche égal à W selon la direction horizontale w de l'image et Zh selon la direction verticale de l'image.
Dans ce cas, les prédicteurs de mouvement associés aux trame inférieure et trame supérieure de l'image haute résolution sont identiques. Bien entendu, l'invention n'est pas limitée aux exemples de réalisation mentionnés ci-dessus. En particulier, l'homme du métier peut apporter toute variante dans les modes de réalisation exposés et les combiner pour bénéficier de leurs différents avantages. Par exemple, le procédé selon l'invention peut s'appliquer à une partie de l'image haute résolution. En effet, il est possible de générer des prédicteurs de mouvement et/ou de texture pour des blocs de pixels (p.ex. des macroblocs de taille 16 par 16 pixels) de l'image haute résolution à partir de données de mouvement et/ou de texture associées à des blocs de pixels des images basse résolution. De même, l'invention a été décrite dans le cas où la trame supérieure d'une image entrelacée est affichée en premier (cas top field first en anglais) et peut être étendue de manière directe au cas où la trame inférieure est affichée en premier (cas bottom field first en anglais) en inversant les trames supérieure et inférieure. Par ailleurs, l'invention peut également être étendue au cas de plusieurs séquences haute résolution (i.e. plusieurs couche d'amélioration). En outre, l'invention est avantageusement utilisée par un procédé de codage ou de décodage d'une séquence d'images ou vidéo.
Préférentiellement, la séquence d'images basse résolution est codée conformément à la norme de codage MPEG4 AVC définie dans le document ISO/IEC 14496-10 (intitulé en anglais Information technology -- Coding of audio-visual objects -- Part 10: Advanced Video Coding ).15

Claims (10)

Revendications
1. Procédé pour générer pour au moins un bloc de pixels d'une image d'une séquence d'images entrelacées haute résolution, dite séquence haute résolution, au moins un prédicteur de mouvement à partir de données de mouvement associées aux images d'une séquence d'images entrelacées basse résolution, dite séquence basse résolution, de même fréquence temporelle que ladite séquence haute résolution, chaque image entrelacée comprenant une trame supérieure entrelacée avec une trame inférieure et pouvant être codée en mode bi-trame ou en mode mono-trame, à chaque trame d'une image entrelacée étant associée une référence temporelle caractérisé en ce que : • des premier et deuxième prédicteurs de mouvement sont générés (30, 32) pour ledit au moins un bloc de pixels de ladite image haute résolution à partir des données de mouvement associées à au moins un bloc de pixels de la trame supérieure d'une image basse résolution de même référence temporelle que la trame supérieure de ladite image haute résolution si ladite image basse résolution est codée en mode mono-trame; • un troisième prédicteur de mouvement est généré (31) pour ledit au moins un bloc de pixels de ladite image haute résolution à partir des données de mouvement associées à au moins un bloc de pixels de la trame inférieure de ladite image basse résolution de même référence temporelle que la trame inférieure de ladite image haute résolution si ladite image basse résolution est codée en mode mono-trame ; et • des quatrième et cinquième prédicteurs de mouvement sont générés (33, 34) pour ledit au moins un bloc de pixels de ladite image haute résolution à partir des données de mouvement associées à au moins un bloc de pixels d'une image basse résolution comprenant une trame de même référence temporelle qu'une des trames supérieure ou inférieure de l'image haute résolution si ladite image basse résolution est codée en mode bi-trame.
2. Procédé selon la revendication 1, caractérisé en ce que ledit premier prédicteur de mouvement est généré en sous échantillonnant (30) lesdites données de mouvement associées audit au moins au moins un bloc de pixels de ladite trame supérieure avec un rapport inter-couche horizontal dans la direction horizontale de l'image et un premier rapport inter-couche vertical dans la direction verticale de l'image, ledit deuxième prédicteur de mouvement est généré en sous échantillonnant (32) lesdites données de mouvement associées audit au moins un bloc de pixels de ladite trame supérieure avec ledit rapport inter-couche horizontal dans la direction horizontale de l'image et un deuxième rapport inter-couche vertical dans la direction verticale de l'image, ledit troisième prédicteur de mouvement est généré en sous échantillonnant (31) lesdites données de mouvement associées audit au moins un bloc de pixels de ladite trame inférieure avec ledit rapport inter-couche horizontal dans la direction horizontale de l'image et ledit premier rapport inter-couche vertical dans la direction verticale de l'image, ledit quatrième prédicteur de mouvement est généré en sous échantillonnant (33) lesdites données de mouvement associées audit au moins un bloc de pixels de ladite image basse résolution avec ledit rapport inter-couche horizontal dans la direction horizontale de l'image et un troisième rapport inter-couche vertical dans la direction verticale de l'image et ledit cinquième prédicteur de mouvement est généré en sous échantillonnant (34) lesdites données de mouvement associées audit au moins un bloc de pixels de ladite image basse résolution avec ledit rapport inter-couche horizontal dans la direction horizontale de l'image et ledit premier rapport inter-couche vertical dans la direction verticale de l'image.
3. Procédé selon l'une des revendications 1 et 2, caractérisé en ce que, pour ledit bloc de pixels de ladite image haute résolution, un premier prédicteur de texture est généré (20) à partir des données de texture associées à au moins un bloc de pixels de la trame supérieure d'une image basse résolution de même référence temporelle que la trame supérieure de ladite image haute résolution, un deuxième prédicteur de texture est généré (21) à partir des données de texture associées à au moins un bloc de pixels de la trame inférieure d'une image basse résolution de même référence temporelle que latrame inférieure de ladite image haute résolution et un troisième prédicteur de texture est généré (22) à partir des données de texture associées à au moins un bloc de pixels de chacune desdites trames supérieure et inférieure de ladite image basse résolution.
4. Procédé selon la revendication 3 elle même dépendant de la revendication 2, caractérisé en ce que ledit premier prédicteur de texture est généré en sous échantillonnant (20) lesdites données de texture associées à au moins un bloc de pixels d'une trame supérieure d'une image basse résolution de même référence temporelle que la trame supérieure de ladite image haute résolution avec ledit rapport inter-couche horizontal dans la direction horizontale de l'image et ledit premier rapport inter-couche vertical dans la direction verticale de l'image, ledit deuxième prédicteur de texture est généré en sous échantillonnant (21) lesdites données de texture associées à au moins un bloc de pixels d'une trame inférieure d'une image basse résolution de même référence temporelle que la trame inférieure de ladite image haute résolution avec ledit rapport inter-couche horizontal dans la direction horizontale de l'image et ledit premier rapport inter-couche vertical dans la direction verticale de l'image et ledit troisième prédicteur de texture est généré en entrelaçant (22) lesdits premier et deuxième prédicteurs de texture.
5. Procédé selon l'une des revendications 2 et 4, caractérisé en ce que ledit rapport inter-couche horizontal est égal à la largeur des images haute résolution divisée par la largeur des trames des images basse résolution, en ce que ledit premier rapport inter-couche vertical est égal à la hauteur des images haute résolution divisée par la hauteur des images basse résolution, en ce que ledit deuxième rapport inter-couche vertical est égal à la hauteur des images haute résolution divisée par la hauteur des trames des images basse résolution et en ce que ledit troisième rapport inter-couche vertical est égal à la hauteur des trames des images haute résolution divisée par la hauteur des images basse résolution .
6. Procédé selon l'une des revendications 1 à 5, caractérisé en ce que les données de mouvement associées aux images basse résolution comprennent des vecteurs de mouvement.
7. Procédé selon la revendication 6, caractérisé en ce que les vecteurs de mouvement associées à une image basse résolution codées en mode bitrame ou à chacune des trames supérieure et inférieure d'une image basse résolution codée en mode mono-trame ont la même parité.
8. Procédé selon l'une des revendications 1 à 7, caractérisé en ce que ledit procédé est utilisé par un procédé de codage d'images haute résolution à partir d'images basse résolution.
9. Procédé selon la revendication 8, caractérisé en ce que les images basse 15 résolution sont codées conformément à la norme MPEG-4 AVC.
10. Procédé selon la revendication 1 à 7, caractérisé en ce que ledit procédé est utilisé par un procédé de décodage d'images haute résolution à partir d'images basse résolution. 20
FR0553713A 2005-12-05 2005-12-05 Procede de prediction de donnees mouvement et de texture Pending FR2894424A1 (fr)

Priority Applications (8)

Application Number Priority Date Filing Date Title
FR0553713A FR2894424A1 (fr) 2005-12-05 2005-12-05 Procede de prediction de donnees mouvement et de texture
EP06807832A EP1958447A2 (fr) 2005-12-05 2006-11-23 Procede de prediction de mouvements et de donnees de texture
JP2008543766A JP5031763B2 (ja) 2005-12-05 2006-11-23 動き及びテクスチャデータを予測する方法
PCT/EP2006/068786 WO2007065796A2 (fr) 2005-12-05 2006-11-23 Procede de prediction de mouvements et de donnees de texture
US12/085,987 US8855204B2 (en) 2005-12-05 2006-11-23 Method of predicting motion and texture data
CN201210082629.6A CN102638685B (zh) 2005-12-05 2006-11-23 预测运动和纹理数据的方法
CN2006800453772A CN101322411B (zh) 2005-12-05 2006-11-23 预测运动和纹理数据的方法
US14/471,479 US20140369416A1 (en) 2005-12-05 2014-08-28 Method of predicting motion and texture data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0553713A FR2894424A1 (fr) 2005-12-05 2005-12-05 Procede de prediction de donnees mouvement et de texture

Publications (1)

Publication Number Publication Date
FR2894424A1 true FR2894424A1 (fr) 2007-06-08

Family

ID=36182361

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0553713A Pending FR2894424A1 (fr) 2005-12-05 2005-12-05 Procede de prediction de donnees mouvement et de texture

Country Status (6)

Country Link
US (2) US8855204B2 (fr)
EP (1) EP1958447A2 (fr)
JP (1) JP5031763B2 (fr)
CN (2) CN101322411B (fr)
FR (1) FR2894424A1 (fr)
WO (1) WO2007065796A2 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2894424A1 (fr) * 2005-12-05 2007-06-08 Thomson Licensing Sas Procede de prediction de donnees mouvement et de texture
US10349069B2 (en) * 2012-12-11 2019-07-09 Sony Interactive Entertainment Inc. Software hardware hybrid video encoder
US11863786B2 (en) * 2021-05-21 2024-01-02 Varjo Technologies Oy Method of transporting a framebuffer

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0577337A2 (fr) * 1992-07-02 1994-01-05 AT&T Corp. Codage vidéo spatialement échelonné facilitant la dérivation d'images à résolutions variables

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01118085A (ja) 1988-09-27 1989-05-10 Sanyo Electric Co Ltd 冷蔵庫等の箱体
JP3135692B2 (ja) 1992-08-28 2001-02-19 株式会社日立製作所 階層的動画像信号符号化装置及び方法
JP3189258B2 (ja) 1993-01-11 2001-07-16 ソニー株式会社 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置
CA2126467A1 (fr) * 1993-07-13 1995-01-14 Barin Geoffry Haskell Codage et decodage variables pour systeme video haute definition progressif
CA2127151A1 (fr) 1993-09-21 1995-03-22 Atul Puri Codage et decodage video a gradation spatiale
TW358296B (en) * 1996-11-12 1999-05-11 Matsushita Electric Ind Co Ltd Digital picture encoding method and digital picture encoding apparatus, digital picture decoding method and digital picture decoding apparatus, and data storage medium
US6057884A (en) * 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
JP2000013790A (ja) * 1998-06-19 2000-01-14 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
JP2000041248A (ja) * 1998-07-23 2000-02-08 Sony Corp 画像復号装置及び画像復号方法
JP2000059793A (ja) * 1998-08-07 2000-02-25 Sony Corp 画像復号装置及び画像復号方法
JP2001045475A (ja) 1999-07-27 2001-02-16 Matsushita Electric Ind Co Ltd 映像信号階層化符号化装置と映像信号階層化復号化装置及びプログラム記録媒体
JP3975629B2 (ja) * 1999-12-16 2007-09-12 ソニー株式会社 画像復号装置及び画像復号方法
US6647061B1 (en) * 2000-06-09 2003-11-11 General Instrument Corporation Video size conversion and transcoding from MPEG-2 to MPEG-4
JP2005506815A (ja) * 2001-10-26 2005-03-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 空間拡張可能圧縮のための方法及び装置
AU2003238771A1 (en) * 2002-05-29 2003-12-19 Simon Butler Predictive interpolation of a video signal
EP1455534A1 (fr) * 2003-03-03 2004-09-08 Thomson Licensing S.A. Codage et décodage échelonnables pour des signaux vidéo numériques entrelacés
US7970056B2 (en) * 2003-06-26 2011-06-28 Lsi Corporation Method and/or apparatus for decoding an intra-only MPEG-2 stream composed of two separate fields encoded as a special frame picture
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
JP4470431B2 (ja) * 2003-10-01 2010-06-02 ソニー株式会社 データ処理装置およびその方法
US7362809B2 (en) * 2003-12-10 2008-04-22 Lsi Logic Corporation Computational reduction in motion estimation based on lower bound of cost function
EP1700482A1 (fr) 2003-12-22 2006-09-13 Koninklijke Philips Electronics N.V. Signaux compatibles de type sdtv entrelacee et hdtv progressive
US7894526B2 (en) * 2004-02-27 2011-02-22 Panasonic Corporation Motion estimation method and moving picture coding method
EP1574995A1 (fr) * 2004-03-12 2005-09-14 Thomson Licensing S.A. Procédé de codage de données vidéo entrelacées
JP5017825B2 (ja) * 2005-09-15 2012-09-05 ソニー株式会社 復号装置および復号方法
FR2894422A1 (fr) 2005-12-01 2007-06-08 Thomson Licensing Sas Procede de prediction de donnees mouvement et de texture
FR2894424A1 (fr) * 2005-12-05 2007-06-08 Thomson Licensing Sas Procede de prediction de donnees mouvement et de texture

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0577337A2 (fr) * 1992-07-02 1994-01-05 AT&T Corp. Codage vidéo spatialement échelonné facilitant la dérivation d'images à résolutions variables

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J. REICHEL, H. SCHWARZ, M. WIEN: "Joint Scalable Video Model JSVM-3 Annex S (JVT-P202)", JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 AND ITU-T SG16 Q.6), 25 July 2005 (2005-07-25) - 29 July 2005 (2005-07-29), Poznan, Poland, XP002378451 *
MARQUANT GWENAELLE ET AL: "Extended spatial scalability for non dyadic video formats: From SDTV to HDTV", PROC SPIE INT SOC OPT ENG; PROCEEDINGS OF SPIE - THE INTERNATIONAL SOCIETY FOR OPTICAL ENGINEERING; VISUAL COMMUNICATIONS AND IMAGE PROCESSING 2005 2005, vol. 5960, no. 1, 12 July 2005 (2005-07-12), pages 547 - 558, XP002378452 *
SCHWARZ H ET AL: "Constrained Inter-Layer Prediction for Single-Loop Decoding in Spatial Scalability", IMAGE PROCESSING, 2005. ICIP 2005. IEEE INTERNATIONAL CONFERENCE ON GENOVA, ITALY 11-14 SEPT. 2005, PISCATAWAY, NJ, USA,IEEE, 11 September 2005 (2005-09-11), pages 870 - 873, XP010851192, ISBN: 0-7803-9134-9 *

Also Published As

Publication number Publication date
EP1958447A2 (fr) 2008-08-20
JP2009518907A (ja) 2009-05-07
US8855204B2 (en) 2014-10-07
US20140369416A1 (en) 2014-12-18
CN101322411B (zh) 2012-05-30
JP5031763B2 (ja) 2012-09-26
CN102638685B (zh) 2014-08-20
WO2007065796A3 (fr) 2007-08-09
CN101322411A (zh) 2008-12-10
CN102638685A (zh) 2012-08-15
WO2007065796A2 (fr) 2007-06-14
US20100034269A1 (en) 2010-02-11

Similar Documents

Publication Publication Date Title
JP7269257B2 (ja) フレームレベル超解像ベースビデオ符号化
Wien High efficiency video coding
Ye et al. The scalable extensions of HEVC for ultra-high-definition video delivery
US8681866B1 (en) Method and apparatus for encoding video by downsampling frame resolution
US8165207B2 (en) Method of effectively predicting multi-layer based video frame, and video coding method and apparatus using the same
US7734151B2 (en) Method for decoding image block
US20060013308A1 (en) Method and apparatus for scalably encoding and decoding color video
US20130010863A1 (en) Merging encoded bitstreams
KR20160108430A (ko) 스케일러블 비디오 코딩을 위한 참조 계층 샘플 위치 유도
US20150341636A1 (en) Method and Apparatus of Adaptive Intra Prediction for Inter-Layer and Inter-View Coding
JP2019508943A (ja) 空間スケーラブル・ビデオ・コーディング
KR101158437B1 (ko) 스케일러블 비디오 신호 인코딩 및 디코딩 방법
JP5137119B2 (ja) ビデオ画像の階層符号化法
FR2894422A1 (fr) Procede de prediction de donnees mouvement et de texture
FR2894424A1 (fr) Procede de prediction de donnees mouvement et de texture
FR2894423A1 (fr) Procede de prediction de donnees mouvement et de texture
FR2933837A1 (fr) Procede de codage, procede et dispositif de transcodage et flux de donnees image codees.
Yeh et al. Inter-embedding error-resilient mechanism in scalable video coding
WO2019076764A1 (fr) Procédés de codage et de décodage d'un flux de données représentatif d'une vidéo omnidirectionnelle
Thomas et al. Towards Low-Complexity Scalable Coding for Ultra-High Resolution Video And Beyond
FR2915341A1 (fr) Dispositif et procede de codage sous forme scalable d'un bloc de donnees image et dispositif et procede de decodage correspondants.