FR2902216A1 - Motional field generation module for group of pictures, has estimation unit for estimating motional field between two images, where one of images is separated from other image at distance higher than or equal to another distance - Google Patents

Motional field generation module for group of pictures, has estimation unit for estimating motional field between two images, where one of images is separated from other image at distance higher than or equal to another distance Download PDF

Info

Publication number
FR2902216A1
FR2902216A1 FR0652045A FR0652045A FR2902216A1 FR 2902216 A1 FR2902216 A1 FR 2902216A1 FR 0652045 A FR0652045 A FR 0652045A FR 0652045 A FR0652045 A FR 0652045A FR 2902216 A1 FR2902216 A1 FR 2902216A1
Authority
FR
France
Prior art keywords
image
images
motion
field
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0652045A
Other languages
French (fr)
Inventor
Patrick Lopez
Jerome Vieron
Nicolas Burdin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to FR0652045A priority Critical patent/FR2902216A1/en
Publication of FR2902216A1 publication Critical patent/FR2902216A1/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The module has an estimation unit (110) i.e. estimator, for estimating a motional field between two images of a sequence of images, where one of the images is separated from the other image at a temporal distance higher than or equal to another temporal distance. A deducing unit (120) deduces another motional field between the latter image and a third image from the motional field estimated by the estimation unit. An independent claim is also included for a method for generating a motional field between images of a sequence of images.

Description

PROCEDE ET DISPOSITIF DE GENERATION DE CHAMPS DE MOUVEMENT ET DISPOSITIFMETHOD AND DEVICE FOR GENERATING MOTION FIELDS AND DEVICE

DE CODAGE IMPLEMENTANT LEDIT PROCEDE 1. Domaine de l'invention L'invention concerne un dispositif et un procédé de génération de champs de mouvement entre une première image et une seconde image d'une séquence d'images. L'invention concerne également un dispositif de codage d'une séquence d'images implémentant ledit procédé de génération de champs de mouvement.  Field of the Invention The invention relates to a device and a method for generating motion fields between a first image and a second image of a sequence of images. The invention also relates to a coding device for a sequence of images implementing said method of generating motion fields.

2. Etat de l'art La plupart des procédés de codage de séquence d'images, tel que MPEG ou tel que les procédés basés sur un schéma ondelettes t+2D (i.e. utilisant une étape d'analyse temporelle t et une étape d'analyse spatiale 2D), comprennent une première étape d'analyse temporelle qui permet de réduire la redondance temporelle entre images successives. Préalablement au codage, la séquence d'images est généralement divisée en groupes d'images ( GOP - Group Of Pictures ou GOF - Group Of Frames en anglais). En référence à la figure 1, l'étape 10 du procédé de codage consiste en une analyse temporelle des images de la séquence. A cet effet, les images sont généralement compensées en mouvement à partir de vecteurs de mouvement MV, par exemple par filtrage temporel compensé en mouvement ("MCTF"- Motion Compensated Temporal Filtering en anglais) afin d'obtenir différentes bandes de fréquence temporelles ou bien par prédiction comme cela est le cas dans les schémas de codage basés sur la norme MPEG2 définie dans le document ISO/IEC 13818-2 (intitulé en anglais Information technology -- Generic coding of moving pictures and associated audio information: Video ). Une image est compensée en mouvement en utilisant des vecteurs de mouvement MV préalablement générés par une étape d'estimation de mouvement 11. Cette étape 11 peut, par exemple, mettre en oeuvre une estimation classique par appariement de blocs ( block matching en anglais) ou une estimation de type pel-récursif. Les images résultantes de cette analyse temporelle sont ensuite codées lors d'une étape 12. Lors d'une étape de multiplexage 13, les données de mouvement préalablement codées lors d'une l'étape 14 sont combinées aux données codées relatives aux coefficients spatio-temporels afin de créer un unique train de données codées. La figure 2 illustre une méthode d'analyse temporelle selon l'état de l'art d'un GOF de 4 images référencées A1, B1, C1 et D1 par un filtrage type Haar sans étape de mise à jour ( update step en anglais). Une telle méthode permet de générer à partir des 4 images du GOF une image basse résolution L et 3 images haute résolution H1, H2 et H3. En l'occurrence, l'image basse résolution est l'image A1. L'image H1 est générée à partir de l'image B1 et de l'image Al préalablement compensée en mouvement (MC) par rapport à B1 à l'aide d'un premier champ de mouvement estimé (ME) entre Al et B1. Plus précisément, Hl = BlûM B~(A1) où MCAlBl(Al) correspond à la compensation de mouvement de l'image Al à partir du champ de mouvement estimé de B1 vers A1. L'image H2 est générée à partir de l'image D1 et de l'image C1 préalablement compensée en mouvement (MC) par rapport à D1 à l'aide d'un deuxième champ de mouvement estimé (ME) entre C1 et D1. Plus précisément, H2= DlûMC D1 (Cl) où MCciDI(Cl) correspond à la compensation de mouvement de l'image C1 à partir du champ de mouvement estimé de D1 vers C1. Enfin, l'image H3 est générée à partir de l'image C1 et de l'image Al préalablement compensée en mouvement (MC) par rapport à ci à l'aide d'un troisième champ de mouvement estimé (ME) entre Al et D1. Plus précisément, H3 - Cl ûM ci (Al) où MCAlci(Al) correspond à la compensation de mouvement de l'image Al à partir du champ de mouvement estimé de C1 vers A1. Un tel procédé de codage nécessite de générer pour chaque GOF trois champs de mouvement entre des images séparées d'une distance temporelle qui varie. En effet, la distance temporelle entre les images Al et C1 est égale à deux fois la distance temporelle entre Al et B1. 3. Résumé de l'invention L'invention a pour but de pallier au moins un des inconvénients de l'art antérieur. A cet effet, l'invention concerne un dispositif de génération d'un champ de mouvement entre une première image et une seconde image d'une séquence d'images, les première et seconde images étant espacées d'une première distance temporelle. Le dispositif comprend : - des premiers moyens pour estimer un champ de mouvement entre la première image et une troisième image précédant la seconde image, la troisième image étant espacée de la première image d'une deuxième distance temporelle supérieure ou égale à la première distance temporelle; et - des seconds moyens pour déduire un champ de mouvement entre la première image et la seconde image à partir du champ de mouvement estimé par les premiers moyens. Préférentiellement, les premiers moyens sont adaptés pour estimer un champ de mouvement entre deux images espacées d'une distance temporelle prédéterminée et fixe égale à la deuxième distance temporelle. Avantageusement, les premiers moyens sont un estimateur de mouvement adapté pour estimer un champ de mouvement entre deux images espacées d'une distance temporelle prédéterminée et fixe égale à la deuxième distance temporelle. Selon une caractéristique particulière, cet estimateur de mouvement opère séquentielleme nt sur les images de la séquence des images. Cet estimateur de mouvement peut avantageusement être un estimateur utilisant la propagation temporelle d'un champ de mouvement pour estimer un champ de mouvement courant à partir de champs de mouvement estimés précédemment.  2. State of the art Most image sequence encoding methods, such as MPEG or such as methods based on a t + 2D wavelet pattern (ie using a time analysis step t and a step of 2D spatial analysis), comprise a first temporal analysis step which makes it possible to reduce the temporal redundancy between successive images. Before coding, the image sequence is generally divided into groups of images (GOP - Group Of Pictures or GOF - Group Of Frames). With reference to FIG. 1, step 10 of the coding method consists of a temporal analysis of the images of the sequence. For this purpose, the images are generally motion compensated from motion vectors MV, for example by motion-compensated temporal filtering ("MCTF") in order to obtain different time frequency bands or else by prediction as is the case in encoding schemes based on the MPEG2 standard defined in ISO / IEC 13818-2 (entitled Information technology - Generic coding of moving pictures and associated audio information: Video). An image is motion compensated by using motion vectors MV previously generated by a motion estimation step 11. This step 11 may, for example, implement a conventional block matching estimation or a pel-recursive estimate. The resulting images of this time analysis are then coded in a step 12. During a multiplexing step 13, the motion data previously coded during a step 14 are combined with the coded data relating to the space coefficients. in order to create a single coded data stream. FIG. 2 illustrates a temporal analysis method according to the state of the art of a GOF of 4 images referenced A1, B1, C1 and D1 by Haar type filtering without an update step. . Such a method makes it possible to generate from the 4 images of the GOF a low resolution image L and 3 high resolution images H1, H2 and H3. In this case, the low resolution image is A1. The image H1 is generated from the image B1 and from the image A1 previously compensated in motion (MC) with respect to B1 with the aid of a first estimated motion field (ME) between Al and B1. More precisely, H1 = B1 (B) (A1) where MCAlB1 (A1) corresponds to the motion compensation of the image A1 from the estimated motion field from B1 to A1. The image H2 is generated from the image D1 and the image C1 previously compensated in motion (MC) with respect to D1 with the aid of a second estimated motion field (ME) between C1 and D1. More precisely, H2 = Dl ™ D1 (C1) where MCciDI (C1) corresponds to the motion compensation of the image C1 from the estimated motion field from D1 to C1. Finally, the image H3 is generated from the image C1 and the image A1 previously compensated in motion (MC) with respect to ci using a third estimated motion field (ME) between Al and D1. More precisely, H3 - Cl ûM ci (Al) where MCAlci (Al) corresponds to the motion compensation of the image Al from the estimated motion field from C1 to A1. Such a coding method requires generating for each GOF three fields of motion between images separated by a varying time distance. Indeed, the temporal distance between the images A1 and C1 is equal to twice the time distance between Al and B1. SUMMARY OF THE INVENTION The object of the invention is to overcome at least one of the drawbacks of the prior art. To this end, the invention relates to a device for generating a motion field between a first image and a second image of a sequence of images, the first and second images being spaced apart by a first temporal distance. The device comprises: - first means for estimating a motion field between the first image and a third image preceding the second image, the third image being spaced from the first image of a second temporal distance greater than or equal to the first temporal distance ; and second means for deriving a motion field between the first image and the second image from the motion field estimated by the first means. Preferably, the first means are adapted to estimate a motion field between two images spaced by a predetermined and fixed temporal distance equal to the second temporal distance. Advantageously, the first means are a motion estimator adapted to estimate a motion field between two images spaced by a predetermined and fixed temporal distance equal to the second temporal distance. According to one particular characteristic, this motion estimator operates sequentially on the images of the sequence of the images. This motion estimator may advantageously be an estimator using the temporal propagation of a motion field to estimate a current motion field from motion fields previously estimated.

L'invention concerne également, un dispositif de codage d'une séquence d'images qui comprend un dispositif d'estimation de mouvement selon l'invention. L'invention concerne en outre un procédé de génération du champ de mouvement entre une première image et une seconde image d'une séquence d'images, la seconde image précédant la première image, les première et seconde images étant espacées d'une première distance temporelle. Le procédé comprend les étapes suivantes : - estimer un champ de mouvement entre la première image et une troisième image précédant la seconde image, la troisième image étant espacée de la première image d'une deuxième distance temporelle; et - en déduire un champ de mouvement entre la première image et la seconde image. Selon une caractéristique particulière, le champ de mouvement généré est utilisé par un procédé de codage pour coder la séquence d'images. Préférentiellement, le procédé de codage comprend une étape de filtrage temporel compensé en mouvement. 4. Listes des figures L'invention sera mieux comprise et illustrée au moyen d'exemples de modes de réalisation et de mise en oeuvre avantageux, nullement limitatifs, en référence aux figures annexées sur lesquelles : la figure 1 illustre un procédé de codage selon l'état de l'art; la figure 2 illustre un procédé d'analyse temporelle basé ondelettes d'une séquence d'images structurée en GOF de 4 images selon l'état de l'art; la figure 3 illustre les états successifs de la mémoire dans laquelle sont stockées les images à partir desquelles son estimés des champs de mouvement; la figure 4 représente un vecteur V1 d'un champ de mouvement estimé et un vecteur V2 d'un champ de mouvement déduit du champ de mouvement auquel appartient V1; la figure 5 illustre un procédé d'analyse temporelle basé ondelettes d'une séquence d'images structurée en GOF de 4 images selon l'invention; la figure 6 illustre un module d'estimation de mouvement selon l'invention ; et la figure 7 illustre un dispositif de codage d'une séquence d'images selon l'invention. 5. Description détaillée de l'invention L'invention concerne un procédé de génération de champs de mouvement entre deux images non nécessairement consécutives d'une séquence d'images ordonnées selon un ordre prédéfini appelé ordre d'affichage.  The invention also relates to a coding device for a sequence of images that comprises a motion estimation device according to the invention. The invention further relates to a method of generating the motion field between a first image and a second image of a sequence of images, the second image preceding the first image, the first and second images being spaced a first distance apart. time. The method comprises the steps of: estimating a motion field between the first image and a third image preceding the second image, the third image being spaced from the first image of a second temporal distance; and - deducing a motion field between the first image and the second image. According to a particular characteristic, the generated motion field is used by a coding method to encode the image sequence. Preferably, the coding method comprises a motion-compensated temporal filtering step. 4. Lists of Figures The invention will be better understood and illustrated by means of examples of advantageous embodiments and implementations, in no way limiting, with reference to the appended figures in which: FIG. 1 illustrates a coding method according to FIG. 'state of the art; FIG. 2 illustrates a time-based wavelet analysis method of a GOF structured image sequence of 4 images according to the state of the art; FIG. 3 illustrates the successive states of the memory in which are stored the images from which its motion field estimates; FIG. 4 represents a vector V1 of an estimated motion field and a vector V2 of a motion field deduced from the motion field to which V1 belongs; FIG. 5 illustrates a time-based wavelet analysis method of a GOF-structured image sequence of 4 images according to the invention; FIG. 6 illustrates a motion estimation module according to the invention; and FIG. 7 illustrates a device for coding an image sequence according to the invention. 5. Detailed Description of the Invention The invention relates to a method of generating motion fields between two images, not necessarily consecutive, of a sequence of images ordered according to a predefined order called a display order.

Les images de la séquence à partir desquelles un champ de mouvement est généré sont stockées dans leur ordre d'affichage dans une mémoire de longueur N images. En référence à la figure 3 et pour N=3, les images DO, Al et B1 sont stockées en mémoire (Etat 1). Un premier champ de mouvement MVDO<_B1 est estimé entre la première image stockée DO et la dernière image stockée B1. De ce premier champ de mouvement estimé, il est possible de déduire un deuxième champ de mouvement MVA1<_B1 par mise à l'échelle des vecteurs de mouvement du premier champ MVpo<_B1. La figure 4 représente un vecteur de mouvement V1 du premier champ de mouvement MVpo<_B1 affecté à un bloc de pixels BIkB de l'image B1 à partir duquel on déduit un vecteur V2 affecté également à ce même bloc de pixels. A cet effet, le vecteur V2 appartenant au deuxième champ de mouvement MVA1<_B1 est déduit du premier vecteur de mouvement V1 en mettant à l'échelle ses coordonnées V1 x et V1 y de telle sorte que V2x= T1 *V1 x et V2y= T1 *V1 y, T2 T2  The images of the sequence from which a motion field is generated are stored in their order of display in a memory of length N frames. With reference to FIG. 3 and for N = 3, the images DO, Al and B1 are stored in memory (state 1). A first MVDO <_B1 motion field is estimated between the first stored image DO and the last stored image B1. From this first estimated motion field, it is possible to deduce a second motion field MVA1 <_B1 by scaling the motion vectors of the first field MVpo <_B1. FIG. 4 represents a motion vector V1 of the first movement field MVpo <_B1 assigned to a block of pixels BIkB of the image B1 from which a vector V2 also assigned to this same block of pixels is deduced. For this purpose, the vector V2 belonging to the second motion field MVA1 <_B1 is deduced from the first motion vector V1 by scaling its coordinates V1 x and V1 y so that V2x = T1 * V1 x and V2y = T1 * V1 y, T2 T2

où Ti est la distance temporelle entre les images Al et B1 et T2 est la distance temporelle entre les images DO et B1. Ensuite, les images stockées en mémoire sont décalées de telle sorte que l'image Al occupe la place précédemment occupée par l'image DO, l'image B1 occupe la place précédemment occupée par l'image Al et l'image C1 occupe la place précédemment occupée par l'image B1, l'image DO n'étant alors plus stockée en mémoire (Etat 2). Un troisième champ de mouvement MVA1<_c1 est estimé entre la première image stockée Al et la dernière image stockée C1. De ce troisième champ de mouvement MVA1<_c1, il est possible de déduire un quatrième champ de mouvement MVB1<_c1 par mise à l'échelle des vecteurs de mouvement du premier champ MVA1<_c1. Les images stockées en mémoire sont de nouveau décalées de telle sorte que l'image B1 occupe la place précédemment occupée par l'image A1, l'image C1 occupe la place précédemment occupée par l'image B1 et l'image D1 occupe la place précédemment occupée par l'image C1, l'image Al n'étant alors plus stockée en mémoire (Etat 3). Un cinquième champ de mouvement MVB1<_D1 est alors estimé entre la première image stockée B1 et la dernière image stockée D1.  where Ti is the time distance between the images A1 and B1 and T2 is the temporal distance between the images DO and B1. Then, the images stored in memory are shifted so that the image A1 occupies the place previously occupied by the image DO, the image B1 occupies the place previously occupied by the image A1 and the image C1 occupies the place previously occupied by the image B1, the image DO being no longer stored in memory (State 2). A third motion field MVA1 <_c1 is estimated between the first stored image A1 and the last stored image C1. From this third motion field MVA1 <_c1, it is possible to deduce a fourth motion field MVB1 <_c1 by scaling the motion vectors of the first field MVA1 <_c1. The images stored in memory are again shifted so that the image B1 occupies the place previously occupied by the image A1, the image C1 occupies the place previously occupied by the image B1 and the image D1 occupies the place previously occupied by the image C1, the image Al is then no longer stored in memory (State 3). A fifth motion field MVB1 <_D1 is then estimated between the first stored image B1 and the last stored image D1.

De ce cinquième champ de mouvement MVB1<_D1, il est possible de déduire un sixième champ de mouvement MVc1<_D1 par mise à l'échelle des vecteurs de mouvement du premier champ MVB1<_D1. Le procédé décrit pour quatre images consécutives de la séquence d'image peut être appliqué sur l'ensemble de la séquence. Les c hamps de mouvement estimés peuvent l'être par un procédé cla ssique par appariement de blocs, les vecteurs estimés étant alors affecté à des blocs de pixels dans une image comme illustré par la figure 4 ou par un procédé de type pel-récursif, les vecteurs estimés étant alors affectés à des pixels dans une image. Selon une caractéristique particulière de l'invention l'estimation d'un champ de mouvement est toujours effectuée entre deux images espacées d'une distance temporelle prédéterminée fixe en l'occurrence égale à T2. Avantageusement, l'invention permet donc de générer des champs de mouvement entre des images espacées d'une distance temporelle qui peut varier (p.ex. en référence aux figures 3 et 4, des champs de mouvement sont estimés séquentiellement entre deux images espacées d'une distance T2 ; à partir de ces champs de mouvement estimés le procédé selon l'invention génère des champs de mouvement entre des images espacées d'une distance temporelle Ti différente de T2) en utilisant un procédé d'estimation de champs de mouvement opérant séquentiellement et entre des images espacées d'une distance temporelle fixe. De tels estimateurs sont par exemple des estimateurs ayant recours à une propagation temporelle, i.e. utilisant des champs de mouvement précédemment estimés pour initialiser de nouveaux champs de mouvement à estimer. Selon un effet avantageux de l'invention les vecteurs de mouvement déduits sont précis dans la mesure où chacun des vecteurs déduits est affecté au même pixel ou bloc que le vecteur estimé à partir duquel il est déduit. Ainsi en référence à la figure 4, le vecteur de mouvement V2 déduit du vecteur de mouvement V1 estimé est affecté au bloc blkB comme l'est le vecteur V1.  From this fifth motion field MVB1 <_D1, it is possible to deduce a sixth motion field MVc1 <_D1 by scaling the motion vectors of the first field MVB1 <_D1. The method described for four consecutive images of the image sequence can be applied to the entire sequence. The estimated motion cambps may be by a block-pairing method, the estimated vectors being then assigned to blocks of pixels in an image as illustrated in Figure 4 or by a pel-recursive method, the estimated vectors are then assigned to pixels in an image. According to a particular characteristic of the invention, the estimation of a motion field is always carried out between two images spaced by a fixed predetermined time distance in this case equal to T2. Advantageously, the invention thus makes it possible to generate fields of motion between images spaced by a temporal distance that can vary (for example with reference to FIGS. 3 and 4), motion fields are estimated sequentially between two images spaced apart from one another. a distance T2 from these estimated motion fields the method according to the invention generates motion fields between images spaced by a temporal distance Ti different from T2) using a motion field estimation method operating sequentially and between images spaced by a fixed time distance. Such estimators are, for example, estimators using time propagation, i.e. using previously estimated motion fields to initialize new motion fields to estimate. According to an advantageous effect of the invention the deduced motion vectors are accurate insofar as each of the deduced vectors is assigned to the same pixel or block as the estimated vector from which it is deduced. Thus with reference to FIG. 4, the motion vector V2 deduced from the estimated motion vector V1 is assigned to the block blkB as is the vector V1.

Préférentiellement, le procédé de génération de champs de mouvement selon l'invention est utilisé par un procédé de codage d'une séquence d'images. Le procédé de codage selon l'invention comprend une étape l'analyse temporelle de la séquence. Selon un mode de réalisation particulier, cette étape d'analyse temporelle est effectuée par un filtrage de type Haar sans étape de mise à jour ( update step en anglais). Préférentiellement, la séquence est divisée en groupes d'images ou GOF, chacun des groupes comprenant un nombre prédéterminé (p. ex. 4) d'images consécutives. En référence à la figure 5, dans le cas particulier de groupes de 4 images, l'analyse temporelle génère à partir de 4 images A1, B1, C1, D1 de la séquence initiale 3 images haute fréquence H1, H2, H3 et une image basse fréquence L . Dans le cas particulier d'une étape d'analyse temporelle ne faisant pas intervenir d'étape de mise à jour l'image basse fréquence L est l'image A1. Le procédé de codage selon l'invention met en oeuvre le procédé d'estimation de mouvement selon l'invention. Ainsi, le premier champ de mouvement MVpo<_B1 est estimé entre l'image Do et l'image Bi. Le deuxième champ de mouvement MVA1< _B1 est alors déduit du premier champ estimé MVpo<_B1 comme décrit précédemment. L'image Al est ensuite compensée en  Preferably, the method of generating motion fields according to the invention is used by a method of coding an image sequence. The coding method according to the invention comprises a step of time analysis of the sequence. According to a particular embodiment, this time analysis step is performed by Haar-type filtering without an update step. Preferably, the sequence is divided into groups of images or GOFs, each group comprising a predetermined number (eg 4) of consecutive images. With reference to FIG. 5, in the particular case of groups of 4 images, the temporal analysis generates from 4 images A1, B1, C1, D1 of the initial sequence 3 high frequency images H1, H2, H3 and an image low frequency L. In the particular case of a time analysis step not involving an updating step, the low frequency image L is the image A1. The coding method according to the invention implements the motion estimation method according to the invention. Thus, the first motion field MVpo <_B1 is estimated between the image Do and the image Bi. The second motion field MVA1 <_B1 is then deduced from the first estimated field MVpo <_B1 as previously described. The image Al is then compensated in

mouvement par rapport à B1 à partir du deuxième champ de mouvement MVA1<_B1. Le procédé de codage selon l'invention génère une image haute fréquence H1 à partir de l'image B1 et de l'image Al compensée en mouvement par rapport à l'image B1 de la manière suivante : Bl ù MCA1BI(Al) Hl = ou MCAlBl (Al) correspond à la compensation de mouvement de l'image Al à partir du champ MVA1<_B1.  movement with respect to B1 from the second motion field MVA1 <_B1. The coding method according to the invention generates a high frequency image H1 from the image B1 and the image A1 compensated in motion with respect to the image B1 in the following manner: B1 ù MCA1BI (A1) H1 = or MCAlB1 (Al) corresponds to the motion compensation of the image A1 from the field MVA1 <_B1.

L'estimateur de mouvement estime ensuite le troisième champ de mouvement MVA1<_c1 entre l'image Al et l'image C1. L'image Al est ensuite compensée en mouvement par rapport à ci à l'aide du champ MVA1<_c1 estimé. Le procédé de codage selon l'invention génère une image haute fréquence H3 à partir de l'image C1 et de l'image Al compensée en mouvement par rapport à l'image C1 de la manière suivante : H3 - Cl ùM ci (Al) où MCAlci(Al) correspond à la compensation de mouvement de l'image Al à partir du champ MVA1<_c1. Le quatrième champ de mouvement MVB1<_c1 généré à partir de ce troisième champ de mouvement MVA1< _c1 n'est pas utilisé pour l'analyse temporelle. Le cinquième champ de mouvement MVB1<_D1 est estimé entre B1 et D1 à partir duquel est déduit le sixième champ de mouvement MVC1<_D1 entre C1 et D1.  The motion estimator then estimates the third motion field MVA1 <_c1 between the image A1 and the image C1. The image A1 is then compensated in motion with respect to ci using the estimated field MVA1 <_c1. The coding method according to the invention generates a high frequency image H3 from the image C1 and the image A1 compensated in motion with respect to the image C1 as follows: H3 - Cl ùM ci (Al) where MCAlci (Al) corresponds to the motion compensation of the image Al from the field MVA1 <_c1. The fourth motion field MVB1 <_c1 generated from this third motion field MVA1 <_c1 is not used for time analysis. The fifth motion field MVB1 <_D1 is estimated between B1 and D1 from which is deduced the sixth motion field MVC1 <_D1 between C1 and D1.

L'image C1 est ensuite compensée en mouvement par rapport à D1 à partir du sixième champ de mouvement MVC1<_D1. Le procédé de codage selon l'invention génère une image haute fréquence H2 à partir de l'image D1 et de l'image C1 compensée en mouvement par rapport à l'image D1 de la manière suivante : H2 = Dl ù MCciDI (Cl) où MCciDI(Cl) correspond à la compensation de mouvement de l'image C1 à partir du champ MVC1<_D1.  The image C1 is then compensated in motion with respect to D1 from the sixth motion field MVC1 <_D1. The coding method according to the invention generates a high frequency image H2 from the image D1 and from the image C1 compensated in motion with respect to the image D1 in the following manner: H2 = D1 ù MCciDI (C1) where MCciDI (C1) corresponds to the motion compensation of the image C1 from the field MVC1 <_D1.

Les images stockées en mémoire sont alors décalées de telle sorte que l'image A2 occupe la place précédemment occupée par l'image D1, l'image D1 occupe la place précédemment occupée par l'image C1 et l'image C1 occupe la place précédemment occupée par l'image B1, l'image B1 n'étant alors plus stockée en mémoire (Etat 4 sur la figure 3). Il n'est cependant pas nécessaire d'estimer le champ de mouvement entre la première image C1 stockée en mémoire et la dernière image stockée en mémoire A2. En effet, dans le mode de réalisation particulier décrit, le champ de mouvement MVC1<_A2 n'est pas utilisé par le procédé de codage selon l'invention. En référence à la figure 6, l'invention concerne également un module de génération de champs de mouvement 1 qui implémente le procédé de génération de champs de mouvement selon l'invention. Le module 1 comprend notamment une mémoire 100 permettant de stocker N images de la séquence dans l'ordre d'affichage. Par exemple dans le mode de réalisation précédent N=3. Selon un mode particulier de l'invention, une estimation de mouvement est effectuée entre les première et dernière images stockées en mémoire 110 afin de générer les champs de mouvement MVDO<_ B1, MVA1<-C1, MVB1<-D1, et éventuellement MVC1<-A2. Cette estimation est  The images stored in memory are then shifted so that the image A2 occupies the place previously occupied by the image D1, the image D1 occupies the place previously occupied by the image C1 and the image C1 occupies the place previously occupied by the image B1, the image B1 is then no longer stored in memory (State 4 in Figure 3). However, it is not necessary to estimate the motion field between the first image C1 stored in memory and the last image stored in memory A2. Indeed, in the particular embodiment described, the motion field MVC1 <_A2 is not used by the coding method according to the invention. With reference to FIG. 6, the invention also relates to a motion field generation module 1 which implements the method of generating motion fields according to the invention. The module 1 notably comprises a memory 100 making it possible to store N images of the sequence in the display order. For example in the previous embodiment N = 3. According to a particular embodiment of the invention, a motion estimation is performed between the first and last images stored in memory 110 in order to generate the MVDO motion fields <B1, MVA1 <-C1, MVB1 <-D1, and possibly MVC1 <-A2. This estimate is

effectuée par une unité 110 d'estimation d'un champ de mouvement. L'unité 110 met en oeuvre un procédé classique d'estimation de mouvement par exemple par appariement de blocs ou pel-récursif. Le module 1 comprend en outre une unité 120 adaptée pour déduire les autres champs de mouvement MVA1<-B1, MVB1<-C1, MVC1<-D1, MVD1<-A2 à partir des champs de mouvement  performed by a unit 110 for estimating a motion field. The unit 110 implements a conventional motion estimation method, for example by block matching or pel-recursive. The module 1 further comprises a unit 120 adapted to deduce the other motion fields MVA1 <-B1, MVB1 <-C1, MVC1 <-D1, MVD1 <-A2 from the motion fields

estimés par l'unité d'estimation 110. Selon une variante le module 1 comprend également une unité 130 permettant de multiplexer les champs de mouvement générés par l'unité d'estimation 110 et par l'unité 120. Selon une caractéristique avantageuse, l'unité 110 opère séquentiellement et entre des images espacées d'une distance temporelle fixe prédéterminée.  estimated by the estimation unit 110. According to a variant, the module 1 also comprises a unit 130 making it possible to multiplex the motion fields generated by the estimation unit 110 and by the unit 120. According to an advantageous characteristic, the unit 1 unit 110 operates sequentially and between images spaced by a predetermined fixed time distance.

Préférentiellement, l'unité 110 met oeuvre un procédé d'estimation de mouvement de type pel-récursif utilisant une propagation temporelle du mouvement, i.e. ledit procédé utilise un champ de mouvement précédemment estimé pour initialiser le champ de mouvement courant.  Preferably, the unit 110 implements a pel-recursive motion estimation method using a temporal motion propagation, i.e. said method uses a previously estimated motion field to initialize the current motion field.

Avantageusement, le module d'estimation de mouvement 1 est utilisé par un dispositif de codage 2 d'une séquence d'images illustré par la figure 7. Le dispositif de codage 2 comprend un module d'estimation de mouvement 1 permettant de générer des champs de mouvement selon le procédé de l'invention. Il comprend en outre un module d'analyse temporelle 20 utilisant les champs de mouvement générés par le module d'estimation de mouvement 1. Par ailleurs, il comprend un module de codage 21 permettant de générer un train de données codées à partir des données générées par le module d'analyse temporelle 20. Selon un mode de réalisation particulier, le module de codage 21 comprendre une unité d'analyse spatiale mettant en oeuvre une transformée spatiale (p.ex. une transformée en cosinus discret) et une unité de codage entropique. Selon une caractéristique particulière, le dispositif de codage 2 comprend également un module de multiplexage 22 permettant de combiner les données générés par le module de codage 21 et les données de mouvement générées par une unité de codage des vecteurs de mouvement 23 afin de générer un unique train de données codées. Sur les figures 6 et 7, les modules représentés sont des unités fonctionnelles, qui peuvent ou non correspondre à des unités physiquement distinguables. Par exemple, ces modules ou certains d'entre eux peuvent être regroupés dans un unique composant, ou constituer des fonctionnalités d'un même logiciel. A contrario, certains modules peuvent éventuellement être composés d'entités physiques séparées.  Advantageously, the motion estimation module 1 is used by a coding device 2 of a sequence of images illustrated in FIG. 7. The coding device 2 comprises a motion estimation module 1 making it possible to generate fields movement according to the method of the invention. It further comprises a time analysis module 20 using the motion fields generated by the motion estimation module 1. Moreover, it comprises a coding module 21 for generating a coded data stream from the data generated. by the temporal analysis module 20. According to a particular embodiment, the coding module 21 comprises a spatial analysis unit implementing a spatial transform (eg a discrete cosine transform) and a coding unit. entropic. According to a particular characteristic, the coding device 2 also comprises a multiplexing module 22 making it possible to combine the data generated by the coding module 21 and the motion data generated by a coding unit of the motion vectors 23 in order to generate a unique encoded data stream. In Figures 6 and 7, the modules shown are functional units, which may or may not correspond to physically distinguishable units. For example, these modules or some of them may be grouped into a single component, or be functionalities of the same software. On the other hand, some modules may be composed of separate physical entities.

Bien entendu, l'invention n'est pas limitée aux exemples de réalisation mentionnés ci-dessus. En particulier, l'homme du métier peut apporter toute variante dans les modes de réalisation exposés et les combiner pour bénéficier de leurs différents avantages. Notamment l'invention décrite pour des groupes de 4 images peut être appliquée à des groupes de plus de 4 images ou de moins de 4 images. L'invention décrite pour être utilisée par un procédé de codage comprenant une étape d'analyse temporelle basée ondelettes peut avantageusement s'appliquer à tout procédé de codage comprenant une étape d'analyse temporelle nécessitant la génération de champs de mouvement entre des images espacées d'une distance variable (par exemple entre des images espacées d'une distance Ti et entre d'autres images espacées d'une distance T2). Ainsi, l'invention peut avantageusement être utilisée par un procédé de codage basé sur la norme H.264 lorsque le procédé utilise la possibilité offerte par la norme d'utiliser plusieurs images de référence ( multiple reference frame en anglais). Dans ce cas, selon l'invention, une estimation du champ de mouvement entre l'image courante d'indice k et l'image précédente d'indice k-N est effectuée. Les champs de mouvement intermédiaires entre l'image courante et les images d'indice k-I avec I<N sont déduits du champ de mouvement estimé entre l'image courante d'indice k et l'image précédente d'indice k-N.20  Of course, the invention is not limited to the embodiments mentioned above. In particular, those skilled in the art can make any variant in the exposed embodiments and combine them to benefit from their various advantages. In particular the invention described for groups of 4 images can be applied to groups of more than 4 images or less than 4 images. The invention described for use by an encoding method comprising a wavelet based time analysis step may advantageously be applied to any coding method comprising a time analysis step requiring the generation of motion fields between images spaced apart from each other. a variable distance (for example between images spaced a distance Ti and between other images spaced a distance T2). Thus, the invention may advantageously be used by an encoding method based on the H.264 standard when the method uses the possibility offered by the standard to use several reference frames (multiple reference frames). In this case, according to the invention, an estimation of the motion field between the current image of index k and the preceding image of index k-N is performed. The intermediate motion fields between the current image and the images of index k-I with I <N are deduced from the estimated motion field between the current image of index k and the previous image of index k-N.20.

Claims (7)

Revendicationsclaims 1. Dispositif de génération d'un champ de mouvement (1) entre une première image (BI) et une seconde image (Al) d'une séquence d'images, lesdites première et seconde images étant espacées d'une première distance temporelle (T1), caractérisé en ce qu'il comprend: - des premiers moyens (110) pour estimer un champ de mouvement entre ladite première image (BI) et une troisième image (DO) précédant ladite seconde image (Al), ladite troisième image (DO) étant espacée de ladite première image (BI) d'une deuxième distance temporelle (T2) supérieure ou égale à ladite première distance temporelle (Ti); et - des seconds moyens (120) pour déduire un champ de mouvement entre ladite première image (BI) et ladite seconde image (Al) à partir du champ de mouvement estimé par lesdits premiers moyens.  A device for generating a motion field (1) between a first image (BI) and a second image (A1) of a sequence of images, said first and second images being spaced apart by a first temporal distance ( T1), characterized in that it comprises: first means (110) for estimating a motion field between said first image (BI) and a third image (DO) preceding said second image (A1), said third image ( DO) being spaced apart from said first image (BI) by a second time distance (T2) greater than or equal to said first time distance (Ti); and second means (120) for deriving a motion field between said first image (BI) and said second image (A1) from the motion field estimated by said first means. 2. Dispositif selon la revendication 1, caractérisé en ce que lesdits premiers moyens (110) sont un estimateur de mouvement adapté pour estimer un champ de mouvement entre deux images de ladite séquence espacées d'une distance temporelle prédéterminée et fixe égale à ladite deuxième distance temporelle (T2).  2. Device according to claim 1, characterized in that said first means (110) are a motion estimator adapted to estimate a motion field between two images of said sequence spaced by a predetermined and fixed temporal distance equal to said second distance temporal (T2). 3. Dispositif selon la revendication 2, caractérisé en ce que ledit estimateur de mouvement est adapté pour opérer séquentiellement sur les images de ladite séquence.  3. Device according to claim 2, characterized in that said motion estimator is adapted to operate sequentially on the images of said sequence. 4. Dispositif de codage (2) d'une séquence d'images caractérisé en ce qu'il comprend un dispositif de génération d'un champ de mouvement_(1) selon l'une des revendications 1 à 3. 30  4. Encoding device (2) of a sequence of images characterized in that it comprises a device for generating a motion field (1) according to one of claims 1 to 3. 30 5. Procédé de génération d'un champ de mouvement entre une première image (BI) et une seconde image (Al) d'une séquence d'images, ladite seconde image (Al) précédant ladite première image (BI), lesdites première et seconde images étant espacées d'une première distance temporelle (T1) caractérisé en ce qu'il comprend les étapes suivantes :25FR0652045 12 -estimer un champ de mouvement entre ladite première image (BI) et une troisième image (DO) précédant ladite seconde image (Al), ladite troisième image (DO) étant espacée de ladite première image (BI) d'une deuxième distance temporelle (T2) supérieure ou égale à ladite première distance temporelle (T1); et - en déduire un champ de mouvement entre ladite première image (B1) et ladite seconde image (Al).  5. A method of generating a motion field between a first image (BI) and a second image (A1) of a sequence of images, said second image (A1) preceding said first image (BI), said first and second images (A1) second images being spaced apart by a first temporal distance (T1), characterized in that it comprises the following steps: estimating a motion field between said first image (BI) and a third image (DO) preceding said second image (A1), said third image (DO) being spaced apart from said first image (BI) by a second time distance (T2) greater than or equal to said first time distance (T1); and - deducing a motion field between said first image (B1) and said second image (Al). 6. Procédé selon la revendication 5, caractérisé en ce que ledit champ de 10 mouvement généré est utilisé par un procédé de codage pour coder ladite séquence d'images.  The method of claim 5, characterized in that said generated motion field is used by a coding method to encode said sequence of images. 7. Procédé selon la revendication 6, caractérisé en ce que ledit procédé de codage comprend une étape de filtrage temporel compensé en mouvement. 15  7. Method according to claim 6, characterized in that said coding method comprises a motion-compensated temporal filtering step. 15
FR0652045A 2006-06-07 2006-06-07 Motional field generation module for group of pictures, has estimation unit for estimating motional field between two images, where one of images is separated from other image at distance higher than or equal to another distance Pending FR2902216A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR0652045A FR2902216A1 (en) 2006-06-07 2006-06-07 Motional field generation module for group of pictures, has estimation unit for estimating motional field between two images, where one of images is separated from other image at distance higher than or equal to another distance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0652045A FR2902216A1 (en) 2006-06-07 2006-06-07 Motional field generation module for group of pictures, has estimation unit for estimating motional field between two images, where one of images is separated from other image at distance higher than or equal to another distance

Publications (1)

Publication Number Publication Date
FR2902216A1 true FR2902216A1 (en) 2007-12-14

Family

ID=37951834

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0652045A Pending FR2902216A1 (en) 2006-06-07 2006-06-07 Motional field generation module for group of pictures, has estimation unit for estimating motional field between two images, where one of images is separated from other image at distance higher than or equal to another distance

Country Status (1)

Country Link
FR (1) FR2902216A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040057523A1 (en) * 2002-01-18 2004-03-25 Shinichiro Koto Video encoding method and apparatus and video decoding method and apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040057523A1 (en) * 2002-01-18 2004-03-25 Shinichiro Koto Video encoding method and apparatus and video decoding method and apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"WORKING DRAFT NUMBER 2, REVISION 0 (WD-2)", DOCUMENT JVT-B118, 3 December 2001 (2001-12-03), pages 1,3 - 100, XP001086632 *
SCHWARZ H ET AL: "Technical Description of HHI Proposal for SVC CE3", ISO/IEC JTC1/SC29/WG11 MPEG2004 M11246, October 2004 (2004-10-01), pages 1 - 13, XP002329593 *

Similar Documents

Publication Publication Date Title
EP1721470B1 (en) Method of encoding and decoding an image sequence by means of hierarchical temporal analysis
WO2006006609A1 (en) Motion compensation method
EP1766997B1 (en) Method and device for encoding a video image sequence into frequency subband coefficients of different spatial resolutions
FR2881898A1 (en) METHOD AND DEVICE FOR CODING A VIDEO IMAGE IN INTER OR INTRA MODE
FR2948845A1 (en) METHOD FOR DECODING A FLOW REPRESENTATIVE OF AN IMAGE SEQUENCE AND METHOD FOR CODING AN IMAGE SEQUENCE
EP1721471A1 (en) Method for coding and decoding an image sequence encoded with spatial and temporal scalability
EP0937291B1 (en) Prediction method and device with motion compensation
EP0782339A1 (en) Method and apparatus for compressing digital data
EP2279621B1 (en) Method of coding, decoding, coder and decoder
EP2443835B1 (en) Motion vector coding by competition within a set of predictors
FR2886787A1 (en) METHOD AND DEVICE FOR ENCODING AND DECODING AN IMAGE SEQUENCE
US7450639B2 (en) Advanced noise estimation method and apparatus based on motion compensation, and method and apparatus to encode a video using the same
FR2895172A1 (en) METHOD AND DEVICE FOR ENCODING A VIDEO STREAM CODE FOLLOWING HIERARCHICAL CODING, DATA STREAM, METHOD AND DECODING DEVICE THEREOF
FR2857205A1 (en) DEVICE AND METHOD FOR VIDEO DATA CODING
EP0368400A1 (en) Coding, decoding and transmitting system for television pictures
EP0603947B1 (en) Coding apparatus for digital television image signals
FR2887711A1 (en) METHOD OF ENCODING AND HIERARCHICAL DECODING
EP3632103B1 (en) Methods and devices for coding and decoding a data stream representative of at least one image
FR2902216A1 (en) Motional field generation module for group of pictures, has estimation unit for estimating motional field between two images, where one of images is separated from other image at distance higher than or equal to another distance
FR2944936A1 (en) METHODS OF ENCODING AND DECODING AN IMAGE DATA BLOCK, CODING AND DECODING DEVICES IMPLEMENTING SAID METHODS
FR2851111A1 (en) DEVICE FOR CODING A VIDEO DATA STREAM
FR2769163A1 (en) METHOD AND DEVICE FOR CODING A TRAVEL VECTOR
FR2860940A1 (en) DEVICE AND METHOD FOR REDUCING NOISE OF A VIDEO SIGNAL
KR20040068973A (en) Method and apparatus for motion compensated temporal interpolation of video sequences
FR2759524A1 (en) LUMINANCE ESTIMATION CODING METHOD AND DEVICE