FR2940576A1 - Method for video coding of sequence of digital images, involves coding intermediate images based on global motion compensation, and constructing intermediate image processing zone by fusion of global motion compensation key image zone - Google Patents

Method for video coding of sequence of digital images, involves coding intermediate images based on global motion compensation, and constructing intermediate image processing zone by fusion of global motion compensation key image zone Download PDF

Info

Publication number
FR2940576A1
FR2940576A1 FR0858833A FR0858833A FR2940576A1 FR 2940576 A1 FR2940576 A1 FR 2940576A1 FR 0858833 A FR0858833 A FR 0858833A FR 0858833 A FR0858833 A FR 0858833A FR 2940576 A1 FR2940576 A1 FR 2940576A1
Authority
FR
France
Prior art keywords
images
motion
coding
compensated
int
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0858833A
Other languages
French (fr)
Inventor
Edouard Francois
Dominique Thoreau
Jerome Vieron
Aurelie Martin
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to FR0858833A priority Critical patent/FR2940576A1/en
Priority to JP2011541573A priority patent/JP5512696B2/en
Priority to BRPI0922734A priority patent/BRPI0922734A2/en
Priority to KR1020117016796A priority patent/KR101638211B1/en
Priority to PCT/FR2009/052625 priority patent/WO2010070247A1/en
Priority to CN200980151139.3A priority patent/CN102257817B/en
Priority to US12/998,921 priority patent/US20120207217A1/en
Priority to EP09805757.3A priority patent/EP2374278B1/en
Publication of FR2940576A1 publication Critical patent/FR2940576A1/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Abstract

The method involves coding intermediate images based on global motion compensation in front and rear directions from a key image. An intermediate image processing zone is constructed by fusion of global motion compensation key image zone or by conventional coding, where the fusion of global motion compensation key image zone or the conventional coding is chosen based on coherence measurement result between signals of global motion compensation key image zone. Independent claims are also included for the following: (1) a device for video coding of a sequence of digital images, comprising a coder (2) a device for video decoding of a sequence of digital images comprising a decoding unit.

Description

Procédé de codage vidéo basé sur la compensation de mouvement global et dispositifs apparentés L'invention concerne un procédé de codage vidéo basé sur la compensation de mouvement global et un dispositif mettant en oeuvre le procédé. Elle s'applique notamment aux domaines de la transmission, de l'analyse, du décodage et du transcodage de vidéos. The invention relates to a video coding method based on global motion compensation and to a device implementing the method. It applies in particular to the fields of video transmission, analysis, decoding and transcoding.

Une séquence vidéo comporte de par sa nature même une importante redondance statistique tant dans le domaine temporel que spatial. La volonté d'utiliser toujours plus efficacement la bande passante des médias de transmissions sur lesquels transitent ces séquences et les objectifs de réduction du coût de leur stockage ont posé très tôt la question de la compression vidéo. Les techniques classiques de compression vidéo peuvent habituellement se diviser en deux étapes. La première vise à réduire la redondance spatiale et pour cela à compresser une image fixe. L'image est tout d'abord divisée en blocs de pixels (de 4x4 ou 8x8 selon, par exemple, les standards MPEG-1/2/4), un passage dans le domaine fréquentiel puis une quantification permettent d'approximer ou de supprimer les hautes fréquences auxquelles l'oeil est moins sensible, et enfin les données quantifiées sont codées entropiquement. La seconde a pour but de réduire la redondance temporelle. Cette technique permet de prédire une image, appelée image intermédiaire dans la suite de la description, à partir d'une ou plusieurs autre(s) image(s) de référence(s) précédemment décodée(s) au sein de la même séquence. En d'autres termes, une estimation de mouvement est effectuée. Cette technique consiste à chercher dans ces images de référence le bloc qui correspond le mieux à celui à prédire, et seul est conservé un vecteur estimation de mouvement correspondant au déplacement du bloc entre les deux images ainsi qu'une erreur résiduelle permettant de raffiner le rendu visuel. Afin d'améliorer les performances de codage, notamment à bas et moyen débit, et donc obtenir pour des débits équivalents une meilleure qualité visuelle de la vidéo décodée, une technique appelée compensation du mouvement global, désignée dans la suite de la description par l'acronyme GMC venant de l'expression anglo-saxonne Global Motion Compensation , a été proposée. De nombreux modèles de mouvement globaux pour la compression vidéo existent dans l'état de l'art. Ce type de modèles a notamment été introduit dans le standard MPEG-4 Visual , appelé également MPEG-4 part 2 ainsi que dans les standards DivX ou Dirac. Dans les approches développées, pour une image donnée, le mouvement global est estimé sur l'image entière ou par région, et ce entre ladite image et ses images de référence avec au moins un mouvement global par image de référence. Les images de référence compensées par le mouvement global associé deviennent alors des candidates possibles pour la prédiction temporelle, au même titre que les images de références compensées par des mouvements non globaux, c'est-à-dire avec les méthodes classiques de codage menant à des vecteurs de mouvement par bloc. L'intérêt de l'usage du GMC est une réduction significative du coût de l'information de mouvement sur les zones de l'image où elle s'applique. La prédiction temporelle est également améliorée (mouvement au pixel) par rapport à une représentation du mouvement basée sur un vecteur de translation par bloc. A video sequence has by its very nature a significant statistical redundancy in both the temporal and spatial domains. The desire to use the bandwidth of the transmission media in which these sequences pass through and the objectives of reducing the cost of their storage always made the issue of video compression very early. Conventional video compression techniques can usually be divided into two stages. The first aims to reduce the spatial redundancy and for that to compress a still image. The image is first divided into blocks of pixels (4x4 or 8x8 according to, for example, the MPEG-1/2/4 standards), a passage in the frequency domain and then a quantization to approximate or delete the high frequencies at which the eye is less sensitive, and finally the quantized data are encoded entropically. The second aims to reduce temporal redundancy. This technique makes it possible to predict an image, called an intermediate image in the remainder of the description, from one or more other reference image (s) previously decoded within the same sequence. In other words, a motion estimate is made. This technique consists of searching in these reference images the block that best corresponds to the one to be predicted, and only a motion estimation vector corresponding to the displacement of the block between the two images is preserved, as well as a residual error allowing to refine the rendering. visual. In order to improve the coding performance, especially at low and medium bit rates, and therefore obtain for equivalent bit rates a better video quality of the decoded video, a technique called global motion compensation, designated in the following description by the acronym GMC from the Anglo-Saxon expression Global Motion Compensation, has been proposed. Many global motion models for video compression exist in the state of the art. This type of model has notably been introduced in the MPEG-4 Visual standard, also called MPEG-4 part 2 as well as in DivX or Dirac standards. In the developed approaches, for a given image, the global motion is estimated on the entire image or region, and between said image and its reference images with at least one global motion per reference image. The reference images compensated by the associated global motion then become possible candidates for temporal prediction, in the same way as the reference images compensated by non-global movements, that is to say with the conventional coding methods leading to block motion vectors. The interest of the use of the GMC is a significant reduction in the cost of the movement information on the areas of the image where it applies. The temporal prediction is also improved (pixel motion) with respect to a motion representation based on a block translation vector.

Dans un schéma de codage conventionnel, les images intermédiaires sont habituellement appelées images bidirectionnelles. Dans ce type de schémas, la construction de la prédiction temporelle basée sur la GMC, même en cas de prédiction bi-directionnelle employant un mélange de prédiction avant et arrière, la compensation ne s'applique habituellement que dans un sens, avant et/ou arrière, ce qui peut générer des incohérences temporelles entre les versions compensées avant et arrière et dégrader le rendu visuel par des fluctuations temporelles sur les zones concernées. Par ailleurs, des images intermédiaires utilisant en référence des zones reconstruites à partir d'un mouvement global n'exploitent pas réellement cette information d'incohérence temporelle entre les prédictions avant et arrière. Un autre inconvénient des schémas de codage existant est que les zones exploitant un mouvement global doivent être signalées. Cela implique typiquement la nécessité de coder une information pour chaque bloc de l'image. De plus un résidu de codage est en général codé et si ce n'est pas le cas, il faut le signaler au décodeur. Il est en outre important de noter que le procédé de décodage basé sur la technique GMC est totalement déterminé et non adaptable à la complexité du terminal réalisant le décodage du flux vidéo. In a conventional encoding scheme, the intermediate images are usually called bidirectional images. In this type of scheme, the construction of GMC-based temporal prediction, even in the case of bi-directional prediction using a mixture of forward and backward prediction, the compensation usually only applies in one direction, before and / or rearward, which can generate temporal inconsistencies between the front and rear compensated versions and degrade the visual rendering by temporal fluctuations on the areas concerned. On the other hand, intermediate images referencing reconstructed areas from a global motion do not actually exploit this temporal inconsistency information between forward and backward predictions. Another disadvantage of the existing coding schemes is that the zones with global motion must be reported. This typically involves the need to code information for each block of the image. In addition, a coding residue is generally coded and if this is not the case, it must be reported to the decoder. It is also important to note that the decoding method based on the GMC technique is totally determined and not adaptable to the complexity of the terminal performing the decoding of the video stream.

Un but de l'invention est notamment de pallier les inconvénients précités. A cet effet l'invention a pour objet un procédé de codage vidéo d'au moins une séquence d'images numériques, les images de ladite séquence pouvant être des images intermédiaires ou des images clés utilisées comme références pour le codage par compensation de mouvement des images intermédiaires. Les images intermédiaires sont codées par zone en se basant sur une compensation globale de mouvement GMC dans les sens avant et arrière à partir des images clés, les zones de l'image intermédiaire étant construites soit par fusion des zones des images clés compensées en mouvement global, soit par codage conventionnel, le choix entre fusion et codage conventionnel étant réalisé suivant le résultat d'une mesure de cohérence entre les signaux des zones des images clés compensées en mouvement global. An object of the invention is in particular to overcome the aforementioned drawbacks. To this end, the subject of the invention is a video coding method of at least one sequence of digital images, the images of said sequence possibly being intermediate images or key images used as references for the coding by motion compensation of the images. intermediate images. The intermediate images are zone-coded based on a global GMC motion compensation in the forward and reverse directions from the keyframes, the areas of the intermediate image being constructed either by merging the compensated keyframe areas into global motion. or by conventional coding, the choice between merging and conventional coding being carried out according to the result of a measurement of coherence between the signals of the zones of the compensated key images in global movement.

Par exemple, les images de référence sont codées avant les images intermédiaires et au moins une carte de segmentation associée auxdites images est calculée de manière à pouvoir distinguer les pixels de type GMC des autres pixels de ces images. Les paramètres de mouvement global peuvent être estimés et codés 25 avant le codage des images intermédiaires. Selon un aspect de l'invention, des images clés compensées en mouvement sont déduites des images de clés en utilisant au moins les paramètres de mouvement global. Des cartes de segmentation associées aux images clés compensées 30 en mouvement peuvent être déduites des cartes de segmentation associées aux images clés par transpositions en utilisant au moins les paramètres d'estimation de mouvement. L'image intermédiaire à coder ainsi que les images clés compensées en mouvement utilisées pour son codage sont, par exemple, découpées en 35 zones de traitements, les zones de traitements de l'image intermédiaire à coder correspondant aux zones de traitement des images clés compensées en mouvement. Selon un mode de réalisation de l'invention, les zones de traitement des images clés compensées en mouvement sont classées en fonction de leur proportion de pixels GMC, ladite proportion étant comparée à un seuil r1 compris entre 0 et 1, une zone étant classée GMC lorsque ladite proportion est supérieure à i et classée non-GMC dans le cas contraire. Selon un autre mode de mise en oeuvre de l'invention, la proportion de pixels GMC par zone des images clés compensées en mouvement est déduite des cartes de segmentation. Si au moins une zone d'une des images compensées en mouvement et utilisées comme références pour le codage de la zone à coder d'une image intermédiaire est classée non-GMC , un codage conventionnel de ladite zone peut être effectué. For example, the reference images are encoded before the intermediate images and at least one segmentation map associated with said images is calculated so as to be able to distinguish the GMC pixels from the other pixels of these images. Global motion parameters can be estimated and encoded prior to encoding the intermediate images. According to one aspect of the invention, motion compensated keyframes are derived from the keyframes using at least the global motion parameters. Segmentation maps associated with the moving compensated keyframes can be derived from the segmentation maps associated with the keyframes by transpositions using at least the motion estimation parameters. The intermediate image to be encoded as well as the motion-compensated key images used for its encoding are, for example, divided into processing zones, the processing zones of the intermediate image to be encoded corresponding to the compensated key image processing zones. moving. According to one embodiment of the invention, the processing areas of the motion compensated key images are classified according to their proportion of GMC pixels, said proportion being compared with a threshold r1 between 0 and 1, an area being classified as GMC when said proportion is greater than i and classified non-GMC otherwise. According to another embodiment of the invention, the proportion of GMC pixels per zone of the keyframes compensated in motion is deduced from the segmentation maps. If at least one area of one of the motion compensated images used as references for encoding the area to be encoded of an intermediate image is classified as non-GMC, conventional coding of said area may be performed.

Selon un autre aspect de l'invention, si les zones des images compensées en mouvement utilisées comme références pour le codage d'une zone d'une image intermédiaire sont classées GMC , la cohérence desdites zones est analysée par comparaison des signaux des zones des images clés compensées en mouvement global. According to another aspect of the invention, if the zones of the motion compensated images used as references for the coding of a zone of an intermediate image are classified as GMC, the coherence of said zones is analyzed by comparison of the signals of the zones of the images. compensated keys in global movement.

Les zones des images clés compensées en mouvement par la prise en compte des paramètres de compensation global dont la cohérence doit être analysée sont, par exemple, compensées en mouvement une seconde fois à l'aide d'un vecteur de translation d'une précision au pixel près. Le vecteur de translation de la seconde compensation de mouvement peut être calculé à l'aide d'un estimateur de type block matching . Selon un mode de réalisation, l'erreur quadratique moyenne D de la zone à coder est calculée et est comparée à un seuil prédéfini de manière à distinguer les zones à faible gradient local des zones à fort gradient local, la zone étant considérée à faible gradient local et classée cohérente si D est inférieur à et étant considérée à fort gradient local dans le cas contraire. Une borne supérieur S de l'erreur quadratique moyenne D est calculée, par exemple, en utilisant les valeurs des gradients locaux de la zone courante et que l'erreur quadratique moyenne D est comparée à ladite borne S, la zone courante étant classée cohérente lorsque D est inférieur à cette borne et non cohérente dans le cas contraire. The areas of the keyframes compensated in motion by taking into account the global compensation parameters whose coherence must be analyzed are, for example, compensated in motion a second time using a translation vector of a precision at pixel close. The translation vector of the second motion compensation can be calculated using a block matching estimator. According to one embodiment, the mean squared error D of the zone to be coded is computed and is compared with a predefined threshold so as to distinguish the low local gradient zones from the high local gradient zones, the zone being considered at low gradient local and classified as coherent if D is lower than and considered to be a high local gradient in the opposite case. An upper bound S of the mean square error D is computed, for example, by using the local gradient values of the current area and the mean squared error D is compared to the said terminal S, the current area being classified as consistent when D is less than this bound and not consistent otherwise.

Lorsque la zone à coder est classée cohérente , la fusion des zones correspondantes des images clés compensées en mouvement peut être réalisée. La fusion est réalisée, par exemple, en utilisant un algorithme de type 5 Graph cut . Selon un mode de réalisation, lorsque la zone en cours de traitement est classée non cohérente , le codage conventionnel de ladite zone est réalisé. L'invention a aussi pour objet un dispositif de codage vidéo d'au moins 10 une séquence d'images numériques, les images de ladite séquence pouvant être des images intermédiaires ou des images clés utilisées comme références pour le codage par compensation de mouvement des images intermédiaires. Le dispositif de codage comporte des moyens pour coder les images intermédiaires par zone de traitement en se basant sur une 15 compensation globale de mouvement GMC dans les sens avant et arrière à partir des images clés, les zones de traitement de l'image intermédiaire étant codées soit par fusion des zones correspondantes des images clés, soit par codage conventionnel et pour choisir automatiquement entre fusion et codage conventionnel par analyse de la zone à coder. 20 L'invention a aussi pour objet un dispositif de décodage vidéo d'au moins une séquence d'images numériques préalablement codée en utilisant le procédé de codage selon l'invention, les images de ladite séquence pouvant être des images intermédiaires ou des images clés utilisées comme références pour le décodage par compensation de mouvement des images 25 intermédiaires. Les images intermédiaires sont décodées par zone en se basant sur une compensation globale de mouvement GMC dans les sens avant et arrière à partir des images clés décodées, les zones de l'image intermédiaire étant reconstruites soit par fusion des zones des images clés compensées en mouvement global, soit par décodage conventionnel, le 30 choix entre fusion et décodage conventionnel étant réalisé suivant le résultat d'une mesure de cohérence entre les signaux des zones des images clés compensées en mouvement global. When the zone to be coded is classified as coherent, the merging of the corresponding zones of the moving compensated key images can be performed. The merge is performed, for example, using a Graph-cut algorithm. According to one embodiment, when the zone being processed is classified as non-coherent, the conventional coding of said zone is carried out. The invention also relates to a video encoding device of at least one digital image sequence, the images of said sequence possibly being intermediate images or keyframes used as references for the coding by motion compensation of the images. intermediate. The coding device includes means for encoding the intermediate images per processing area based on a global GMC motion compensation in the forward and reverse directions from the keyframes, the processing areas of the intermediate image being encoded either by merging the corresponding areas of the keyframes, or by conventional coding and to automatically choose between fusion and conventional coding by analysis of the area to be coded. The invention also relates to a device for video decoding of at least one sequence of digital images previously coded using the coding method according to the invention, the images of said sequence possibly being intermediate images or key images. used as references for motion compensation decoding of intermediate images. The intermediate images are decoded by zone based on a global GMC motion compensation in the forward and reverse directions from the decoded keyframes, the regions of the intermediate image being reconstructed either by merging the zones of the compensated keyframes in motion. overall, or by conventional decoding, the choice between conventional merging and decoding being performed according to the result of a measurement of coherence between the signals of the zones of the compensated key images in global movement.

L'invention a notamment comme avantage d'améliorer les 35 performances de codage, par réduction du débit requis tout en améliorant potentiellement la qualité visuelle de la séquence vidéo codée/décodée. Sur des séquences où seuls quelques objets d'avant plan bougent dans la scène, l'utilisation de ce procédé induit une réduction signification du débit du flux vidéo compressé par rapport aux techniques existantes. Par ailleurs, les artéfacts visuels dus à des fluctuations temporelles du signal sur ces zones sont limités par l'emploi du procédé. The invention has the particular advantage of improving the coding performance by reducing the required bit rate while potentially improving the visual quality of the coded / decoded video sequence. In sequences where only a few foreground objects move in the scene, the use of this method induces a reduced significance of the compressed video stream rate compared to existing techniques. On the other hand, visual artifacts due to temporal fluctuations of the signal on these areas are limited by the use of the method.

D'autres caractéristiques et avantages de l'invention apparaîtront à l'aide de la description qui suit donnée à titre illustratif et non limitatif, faite en 10 regard des dessins annexés parmi lesquels : Other features and advantages of the invention will become apparent from the following description given by way of nonlimiting illustration, with reference to the appended drawings in which:

- la figure 1 illustre le principe de dépendance temporelle entre images clés et images intermédiaires ; - la figure 2 donne un exemple de mise en oeuvre du procédé 15 de codage selon l'invention ; - la figure 3 présente une méthode pour tester la cohérence d'une zone sur deux images différentes. FIG. 1 illustrates the principle of temporal dependence between key images and intermediate images; FIG. 2 gives an exemplary implementation of the coding method according to the invention; FIG. 3 presents a method for testing the coherence of an area on two different images.

Le figure 1 illustre le principe de dépendance temporelle entre images 20 de référence, appelées images clés dans la suite de la description, et images intermédiaires. L'exemple de la figure considère un groupe d'images, habituellement désigné par l'acronyme GOP venant de l'expression anglo-saxonne Group of Picture , formé de deux images clés ICO, ICI et encadrant une ou des images intermédiaires INT. Le procédé de codage 25 selon l'invention opère sur des zones de traitement pouvant correspondre, par exemples, à un ou plusieurs blocs ou macroblocs. Les images clés du GOP ICO et ICI sont codées en premier. Le codage est effectué selon une approche conventionnelle, les outils de codage basés GMC pouvant être également mis en oeuvre. Ainsi des zones 30 d'une image clé peuvent être codées ou servir de référence, avec une prédiction GMC et d'autres non. Il est alors possible de déduire au niveau du codeur et du décodeur une carte de segmentation binaire indiquant si une zone, et donc les pixels qui la composent, est de type GMC ou non. L'invention porte notamment sur le codage des images intermédiaires 35 INT. Pour une zone à coder d'une image intermédiaire donnée, il est supposé pour la suite de la description que les paramètres de mouvement global vers l'avant et vers l'arrière notés GMO et GM1 ont été préalablement estimés et codés. Il est également pris comme hypothèse que les images clés ICO et ICI sont reconstruites afin de servir d'images de référence, les images intermédiaires déjà codées pouvant aussi être disponibles comme images de référence. Enfin, une carte de segmentation binaire est calculée pour chaque image par le module de décision de l'encodeur et indique pour chaque pixel de l'image de référence s'il est de type GMC ou non. FIG. 1 illustrates the principle of temporal dependence between reference images, called keyframes in the following description, and intermediate images. The example of the figure considers a group of images, usually designated by the acronym GOP from the Anglo-Saxon Group of Picture, consisting of two key images ICO, ICI and framing one or more intermediate images INT. The coding method according to the invention operates on processing zones which may correspond, for example, to one or more blocks or macroblocks. GOP ICO and ICI keyframes are encoded first. The coding is done according to a conventional approach, the GMC-based coding tools can also be implemented. Thus areas of a keyframe may be encoded or referenced, with GMC prediction and others not. It is then possible to deduce at the level of the coder and the decoder a binary segmentation map indicating whether a zone, and thus the pixels that compose it, is of GMC type or not. The invention relates in particular to the coding of intermediate images INT. For an area to be encoded of a given intermediate image, it is assumed for the rest of the description that the forward and backward global motion parameters denoted GMO and GM1 have been previously estimated and coded. It is also assumed that the key images ICO and ICI are reconstructed to serve as reference images, the intermediate images already coded may also be available as reference images. Finally, a binary segmentation map is calculated for each image by the decision module of the encoder and indicates for each pixel of the reference image whether it is of GMC type or not.

La figure 2 donne un exemple de mise en oeuvre du procédé de codage selon l'invention. Le procédé de codage peut être décomposé en plusieurs étapes. Une première étape 200 réalise la compensation de mouvement global GMC des images clés ICO et ICI. Leurs cartes de segmentation associées SO et S1, déterminées préalablement par un module de décision de l'encodeur, ou par décodage des modes de codage au décodeur, sont utilisées en entrée, ainsi que les paramètres de mouvement GMO et GM1 déterminés préalablement par un module d'estimation des paramètres de mouvement 208. Les images IGO et IG1 sont alors obtenues, ces dernières correspondant respectivement aux images ICO et ICI compensées en mouvement suivant les modèles de mouvement GMO et GM1. Par ailleurs, deux cartes de segmentation SGO et SG1 associées aux images IGO et IG1 sont transposées à partir des cartes de segmentation SO et S1 par compensation de mouvement suivant les modèles de mouvement GMO et GM1 L'image intermédiaire à coder est découpée en zones de traitement. Ce découpage peut être automatique ou adaptatif. A titre d'exemple, une zone de traitement peut correspondre à un macrobloc de l'image à coder. Une succession d'étapes est ensuite appliquée pour chacune des zones de l'image intermédiaire à coder. Dans la suite de la description, la zone en cours de traitement est appelée zone courante . Un classification 201 des zones correspondantes est réalisée en s'appuyant sur les cartes de segmentation SGO et SG1. Chaque zone est associée, par exemple, à une classe parmi deux possibles. Chacune desdites classes identifie respectivement une zone GMC ou non- GMC . Ainsi, pour la zone courante, une variable CO associée à IGO porte cette information de classe. De la même manière, une variable Cl est associée à IG1. A titre d'exemple, les deux classes peuvent être définies en dénombrant la proportion de pixels classés GMC de l'image dans la zone considérée et de comparer cette proportion à un seuil donné n compris entre 0 et 1, et ce à l'aide des cartes de segmentation SGO et SG1. Il est aussi possible de ne pas utiliser les cartes SO, S1, SGO et SG1. Dans ce cas, CO et Cl sont, par exemple, systématiquement considérées comme GMC . FIG. 2 gives an example of implementation of the coding method according to the invention. The encoding method can be broken down into several steps. A first step 200 performs the GMC global motion compensation of the key images ICO and ICI. Their associated segmentation maps SO and S1, determined beforehand by a decision module of the encoder, or by decoding coding modes at the decoder, are used as input, as well as the GMO and GM1 motion parameters previously determined by a module. The images IGO and IG1 are then obtained, the latter respectively corresponding to the images ICO and ICI compensated in motion according to the motion models GMO and GM1. Moreover, two segmentation maps SGO and SG1 associated with the images IGO and IG1 are transposed from the segmentation maps SO and S1 by motion compensation according to the motion models GMO and GM1. The intermediate image to be encoded is divided into zones of treatment. This cutting can be automatic or adaptive. For example, a processing area may correspond to a macroblock of the image to be encoded. A succession of steps is then applied for each of the zones of the intermediate image to be encoded. In the remainder of the description, the zone being processed is called the current zone. A classification 201 of the corresponding zones is carried out based on the segmentation maps SGO and SG1. Each zone is associated, for example, with one of two possible classes. Each of these classes respectively identifies a GMC or non-GMC zone. Thus, for the current field, a CO variable associated with IGO carries this class information. In the same way, a variable C1 is associated with IG1. By way of example, the two classes can be defined by counting the proportion of GMC-classified pixels of the image in the area considered and comparing this proportion to a given threshold n between 0 and 1, using Segmentation maps SGO and SG1. It is also possible not to use the SO, S1, SGO and SG1 cards. In this case, CO and Cl are, for example, systematically considered as GMC.

Il est ensuite vérifié 202 si CO et Cl sont de type GMC. Dans cet exemple de mise en oeuvre, si CO ou Cl ne sont pas de type GMC , un codage conventionnel 203 de la zone est effectué. Ce codage conventionnel peut être, par exemple, de type prédiction spatiale, prédiction temporelle monodirectionnelle ou prédiction temporelle bidirectionnelle. Le codage conventionnel peut toujours employer la prédiction GMC, mais ceci sera un mode parmi d'autres devant être signalé au décodeur dans le flux binaire. Lorsque CO et Cl sont de type GMC , la cohérence dans la zone considérée des images IGO et IG1 est testée 204. La notion de cohérence entre zone d'images est détaillée plus loin dans la description. Si les contenus desdites images sont considérés cohérents, le signal est généré par fusion 205 de la zone traité de IGO et IG1, ce qui implique qu'aucune information n'a besoin d'être codée. Les zones construites par fusion ne nécessitent le codage d'aucune information additionnelle et correspondent donc à un coût de codage nul, ce qui est évidemment très avantageux si lesdites zones sont nombreuses. Le mode de codage ainsi mis en oeuvre est un mode implicite, qui ne nécessite aucune information de signalisation. Ce mode de codage, testé côté codeur, est aussi testé côté décodeur. Le décodeur est alors lui-même capable, sans information de signalisation, de savoir si la zone courante est construite selon ce mode de codage GMC implicite ou non. Si les contenus sont sensiblement différents, et donc que la cohérence n'est pas vérifiée, un codage conventionnel 203 de la zone est effectué. La prédiction GMC peut toujours être utilisée comme un des modes de prédiction possibles. It is then checked 202 if CO and Cl are of type GMC. In this exemplary implementation, if CO or Cl are not GMC type, a conventional coding 203 of the zone is performed. This conventional coding may be, for example, spatial prediction type, one-way time prediction or bidirectional time prediction. Conventional coding may still employ GMC prediction, but this will be one of many modes to be reported to the decoder in the bitstream. When CO and Cl are of GMC type, the coherence in the considered zone of the images IGO and IG1 is tested 204. The notion of coherence between image zones is detailed later in the description. If the contents of said images are considered coherent, the signal is generated by merging 205 of the treated area of IGO and IG1, which implies that no information needs to be encoded. The zones constructed by fusion do not require the coding of any additional information and therefore correspond to a zero coding cost, which is obviously very advantageous if said zones are numerous. The encoding mode thus implemented is an implicit mode, which does not require any signaling information. This coding mode, tested on the encoder side, is also tested on the decoder side. The decoder is then itself capable, without signaling information, of knowing whether the current zone is constructed according to this implicit GMC coding mode or not. If the contents are substantially different, and therefore the coherence is not verified, a conventional coding 203 of the zone is performed. GMC prediction can still be used as one of the possible prediction modes.

L'image intermédiaire codée en utilisant le procédé selon l'invention est donc composée de zones prédites 207 ne pouvant être utilisées comme référence pour le codage d'autres images intermédiaires et de zones reconstruites 206 pouvant être, quant à elle, utilisées comme références pour le codage d'autres images. The intermediate image encoded using the method according to the invention is therefore composed of predicted zones 207 that can not be used as a reference for the coding of other intermediate images and reconstructed zones 206 that can, for its part, be used as references for coding other images.

Le procédé de codage, décrit ci-dessus côté encodeur, peut s'appliquer symétriquement au décodeur. Les images clés ICO et ICI du GOP sont décodées en premier. Le décodeur, à partir des modes de codage décodés des images clés, construit pour chaque image clé ICO et ICI une carte de segmentation binaire SO et S1 indiquant si une zone, et donc les pixels qui la composent, est de type GMC ou non. L'invention porte notamment sur le décodage des images intermédiaires INT. Pour une zone à décoder d'une image intermédiaire donnée, les paramètres de mouvement global vers l'avant et vers l'arrière notés GMO et GM1 sont préalablement décodés. Le procédé de décodage peut être décomposé en plusieurs étapes. Une première étape réalise la compensation de mouvement global GMC des images clés ICO et ICI. Les images IGO et IG1 sont alors obtenues, ces dernières correspondant respectivement aux images ICO et ICI compensées en mouvement suivant les modèles de mouvement GMO et GM1. Par ailleurs, deux cartes de segmentation SGO et SG1 associées aux images IGO et IG1 sont transposées à partir des cartes de segmentation SO et S1 par compensation de mouvement suivant les modèles de mouvement GMO et GM1. L'image intermédiaire à décoder est découpée en zones de traitement. Ce découpage peut être automatique ou adaptatif. A titre d'exemple, une zone de traitement peut correspondre à un macrobloc de l'image à coder. Une succession d'étapes est ensuite appliquée pour 3o chacune des zones de l'image intermédiaire à coder. Un classification des zones correspondantes est réalisée en s'appuyant sur les cartes de segmentation SGO et SG1. Il est ensuite vérifié si CO et Cl sont de type GMC. Dans cet exemple de mise en oeuvre, si CO ou Cl ne sont pas de type GMC , un décodage 35 des informations de codage (mode de codage, paramètres associés û par exemple direction de prédiction intra, vecteurs mouvements - résidu de prédiction) pour la zone courante est effectué. Ces informations doivent donc alors être présentes dans le flux binaire. Lorsque CO et Cl sont de type GMC , la cohérence dans la zone 5 considérée des images IGO et IG1 est testée. Si les contenus desdites images sont considérés cohérents, le signal est généré par fusion de la zone traité de IGO et IG1, ce qui implique qu'aucune information n'a besoin d'être décodée. Les zones construites par fusion ne nécessitent le décodage d'aucune information additionnelle. 10 Si les contenus sont sensiblement différents, et donc que la cohérence n'est pas vérifiée, un décodage des informations de codage est effectué. Ces informations doivent donc alors être présentes dans le flux binaire. The encoding method, described above encoder side, can be applied symmetrically to the decoder. The ICO and ICI keyframes of the GOP are decoded first. The decoder, from the decoded encoding modes of the keyframes, constructs for each key image ICO and ICI a binary segmentation map SO and S1 indicating whether a zone, and therefore the pixels that compose it, is of the GMC type or not. The invention relates in particular to the decoding of intermediate images INT. For an area to be decoded from a given intermediate image, the global forward and backward motion parameters denoted GMO and GM1 are previously decoded. The decoding method can be decomposed into several steps. A first step performs GMC global motion compensation of ICO and ICI keyframes. The images IGO and IG1 are then obtained, the latter respectively corresponding to the images ICO and ICI compensated in motion according to the motion models GMO and GM1. In addition, two segmentation maps SGO and SG1 associated with the images IGO and IG1 are transposed from the segmentation maps SO and S1 by motion compensation according to the motion models GMO and GM1. The intermediate image to be decoded is divided into processing zones. This cutting can be automatic or adaptive. For example, a processing area may correspond to a macroblock of the image to be encoded. A succession of steps is then applied for each of the zones of the intermediate image to be encoded. A classification of the corresponding zones is carried out based on the segmentation maps SGO and SG1. It is then checked if CO and Cl are of type GMC. In this exemplary implementation, if CO or Cl are not of GMC type, a decoding of the coding information (coding mode, associated parameters - for example intra prediction direction, motion vectors - prediction residue) for the current area is performed. This information must then be present in the bit stream. When CO and Cl are of GMC type, the coherence in the zone 5 considered of the images IGO and IG1 is tested. If the contents of said images are considered coherent, the signal is generated by merging the processed area of IGO and IG1, which implies that no information needs to be decoded. Fusion-built zones do not require the decoding of any additional information. If the contents are substantially different, and therefore the coherency is not checked, a decoding of the coding information is performed. This information must then be present in the bit stream.

15 La figure 3 présente une méthode pour tester la cohérence d'une zone sur deux images différentes. La notion de cohérence entre images a été abordée avec la figure précédente. La mesure de cohérence des deux signaux IGO et IG1 dans la zone courante peut se faire par des mesures classiques de distorsion, telle que l'erreur quadratique moyenne. Cependant, 20 du fait des limitations possibles de l'estimateur de mouvement global et de la quantification nécessaire lors du codage des paramètres de mouvement global, les signaux IGO et IG1 ne seront jamais parfaitement alignés et un léger décalage a de très grandes chances d'apparaître, même si les deux signaux sont jugés cohérents. Ce décalage peut être d'autant plus important 25 que le modèle de mouvement s'éloigne d'un modèle translationnel, c'est-à-dire d'un modèle où tous les pixels d'une zone se déplacent selon le même vecteur. Dans ce cas, le mouvement dépend de la position du pixel. Lorsque l'on est loin du point d'origine, une erreur infime d'une composante non translationnelle du modèle va se traduire par un écart important du vecteur 30 mouvement issu du modèle. L'erreur quadratique moyenne seule ne permet pas de prendre en compte ce possible décalage. Afin de prendre en compte ce décalage, une approche est proposée dans le cadre de l'invention. Une première étape 300 a notamment pour objectif un recalage au 35 pixel de IG1 par compensation de mouvement locale de IG1 par rapport à IGO. Cette compensation est faite avec un vecteur de translation, d'une précision au pixel, et avec une excursion maximum excmax limitée. L'excursion vaut par exemple 2 ou 3 pixels. Pour ce faire un estimateur classique de type block-matching peut être utilisé. Ce type d'algorithme a pour but de rechercher un vecteur minimisant l'erreur quadratique moyenne. Ceci est mis en oeuvre afin de corriger les décalages importants dus aux erreurs du modèle de mouvement. Lors d'une seconde étape, l'erreur quadratique moyenne est calculée 301 sur la zone courante. Cette erreur D peut s'exprimer avec 10 l'expression suivante : Figure 3 presents a method for testing the coherence of an area on two different images. The notion of coherence between images has been discussed with the previous figure. The coherence measurement of the two signals IGO and IG1 in the current zone can be done by conventional distortion measurements, such as the mean squared error. However, because of the possible limitations of the overall motion estimator and the quantization required in encoding the global motion parameters, the IGO and IG1 signals will never be perfectly aligned and a slight offset is very likely to occur. appear even if both signals are considered consistent. This shift can be all the more important as the motion model moves away from a translational model, that is to say from a model where all the pixels of a zone move according to the same vector. In this case, the motion depends on the position of the pixel. When one is far from the point of origin, a small error of a non-translational component of the model will result in a large deviation of the motion vector from the model. The mean squared error alone does not take into account this possible shift. In order to take this shift into account, an approach is proposed in the context of the invention. A first step 300 has the particular objective of a pixel registration of IG1 by local motion compensation of IG1 relative to IGO. This compensation is done with a translation vector, with a pixel accuracy, and with a maximum excursion excmax limited. The excursion is for example 2 or 3 pixels. To do this a classic block-matching estimator can be used. This type of algorithm aims to find a vector that minimizes the mean squared error. This is implemented in order to correct the large discrepancies due to the errors of the motion model. In a second step, the mean squared error is calculated 301 on the current area. This error D can be expressed with the following expression:

D = I (IGO[p]- IG1,n [p])2 (1) pE Z D = I (IGO [p] -IG1, n [p]) 2 (1) pE Z

dans laquelle Z désigne la zone considérée, p un pixel et IG1 mc l'image 15 compensée en mouvement de IG1. Il est possible d'intégrer dans l'équation (1) la variation des moyennes, ce qui mène à l'expression suivante : in which Z designates the zone considered, p a pixel and IG1 mc the motion compensated image of IG1. It is possible to integrate in the equation (1) the variation of the means, which leads to the following expression:

D = I (IGO[p]-,to- IG1,, [pl +,t1)2 (2) pE Z 20 dans laquelle 1.10 et g1 sont les moyennes estimées des luminances respectives de IGO et de IG1 mc sur la zone courante Z. Cette estimation est suivie d'une comparaison directe des signaux pour les zones à faible gradient local. Si D est inférieur à un seuil prédéfini X, IGO et IG1 sont considérées cohérentes sur la zone. Le seuil peut, par 25 exemple, prendre comme valeur 52xNz, Nz étant le nombre de points de la zone courante Z. Cela implique, dans ce cas, qu'un écart moyen inter-signaux de 5 est toléré. Si le test précédent 302 est négatif, une mesure du gradient local est effectuée 303, et ce pour les zones à fort gradient local. La forte valeur de D 30 peut être due, par exemple, à un léger décalage, inférieur au pixel, d'une zone texturée et donc à fort gradients. Si les deux signaux sont cohérents, IG1 mc peut s'exprimer pour tout pixel p dans la zone courante avec l'expression : IG1mc [p] IGO[p + 8] (3) D = I (IGO [p] -, to-IG1 ,, [p1 +, t1) 2 (2) pE Z 20 where 1.10 and g1 are the estimated average luminance values of IGO and IG1 mc on the current area Z. This estimate is followed by a direct signal comparison for low local gradient areas. If D is less than a predefined threshold X, IGO and IG1 are considered consistent on the zone. The threshold may, for example, take the value 52xNz, where Nz is the number of points in the current zone Z. This implies, in this case, that an inter-signal mean deviation of 5 is tolerated. If the previous test 302 is negative, a measurement of the local gradient is performed 303, and this for the zones with high local gradient. The high value of D 30 may be due, for example, to a slight shift, less than the pixel, of a textured zone and therefore with strong gradients. If the two signals are coherent, IG1 mc can be expressed for any pixel p in the current zone with the expression: IG1mc [p] IGO [p + 8] (3)

dans laquelle 8=(8x, 8y) est un vecteur dont les deux composantes 8x et 8y sont d'amplitude inférieure à 1, puisqu'un recalage au pixel a déjà été fait. where 8 = (8x, 8y) is a vector whose two components 8x and 8y are of amplitude less than 1, since a pixel registration has already been done.

Il est alors possible, après développement de Taylor de l'équation (3) et en considérant l'expression (2) de déterminer une borne supérieure S de D dont l'expression est : 2 ~<S= aIGO[p] 2 + alGO[p] +2 pE Z ax ' pE Zay i CaIGO [p] aIGO [p] ax ay ~ pE Z It is then possible, after developing Taylor of equation (3) and considering expression (2) to determine an upper bound S of D whose expression is: 2 ~ <S = aIGO [p] 2 + alGO [p] + 2 pE Z ax 'pE Zay i CaIGO [p] aIGO [p] ax ay ~ pE Z

(4) Les gradients locaux sont donc calculés 303, puis la somme S est comparée 304 à D. Si D est inférieur ou égal à s, IGO et IG1 sont considérées cohérentes sur la zone courante Z. Dans le cas contraire, IGO et IG1 sont considérées non cohérentes sur la zone courante. (4) The local gradients are thus calculated 303, then the sum S is compared 304 to D. If D is less than or equal to s, IGO and IG1 are considered coherent on the current zone Z. Otherwise, IGO and IG1 are considered inconsistent on the current area.

Certains paramètres tels excmax et intervenant dans l'algorithme peuvent être codés et transmis au décodeur. Il a été vu avec l'exemple de la figure 2 que lorsque la zone comparée est considérée cohérente, une fusion des deux signaux IGO et IG1 peut être envisagée. L'algorithme de fusion vise à mélanger les deux signaux de façon satisfaisante, c'est-à-dire sans faire apparaître d'échos dus au léger décalage spatial mentionné précédemment. Une solution est d'utiliser des algorithmes de plaquage sans couture, de type Graph cut . Un exemple de ce type de technique est décrit dans l'article de Vivek Kwatra et al. intitulé Graphcut Textures : Image and Video Synthesis Using Graph Cuts , Proc. ACM Transactions on Graphics, Siggraph'03. Ces algorithmes permettent d'assembler des parcelles de texture en limitant les artéfacts visuels de type coutures apparentes. Certain parameters such as exc max and intervening in the algorithm can be coded and transmitted to the decoder. It has been seen with the example of Figure 2 that when the compared area is considered consistent, a merger of the two signals IGO and IG1 can be considered. The fusion algorithm aims to mix the two signals satisfactorily, that is to say without displaying echoes due to the slight spatial shift mentioned above. One solution is to use seamless plating algorithms, such as Graph cut. An example of this type of technique is described in the article by Vivek Kwatra et al. titled Graphcut Textures: Image and Video Synthesis Using Graph Cuts, Proc. ACM Transactions on Graphics, Siggraph'03. These algorithms make it possible to assemble plots of texture by limiting visual artifacts of apparent stitching type.

Claims (19)

REVENDICATIONS1- Procédé de codage vidéo d'au moins une séquence d'images numériques, les images de ladite séquence pouvant être des images intermédiaires (INT) ou des images clés (ICO, ICI) utilisées comme références pour le codage par compensation de mouvement des images intermédiaires (INT), le procédé de codage étant caractérisé en ce que les images intermédiaires (INT) sont codées par zone en se basant sur une compensation globale de mouvement GMC (200) dans les sens avant (GM1) et arrière (GMO) à partir des images clés (ICO, ICI), les zones de l'image intermédiaire (INT) étant construites soit par fusion (205) des zones des images clés compensées en mouvement global, soit par codage conventionnel (203), le choix entre fusion et codage conventionnel étant réalisé (201, 202, 204) suivant le résultat d'une mesure de cohérence entre les signaux des zones des images clés compensées en mouvement global. CLAIMS1- A method for video coding at least one sequence of digital images, the images of said sequence possibly being intermediate images (INT) or keyframes (ICO, ICI) used as references for the coding by motion compensation of intermediate images (INT), the coding method being characterized in that the intermediate images (INT) are zone-coded based on a global motion compensation GMC (200) in the forward (GM1) and backward (GMO) directions from the keyframes (ICO, ICI), the areas of the intermediate image (INT) being constructed either by merging (205) the areas of the global motion compensated keyframes, or by conventional encoding (203), the choice between fusion and conventional coding being performed (201, 202, 204) according to the result of a measurement of coherence between the signals of the zones of the compensated key images in global movement. 2- Procédé de codage vidéo selon la revendication 1 caractérisé en ce que les images de référence (ICO, ICI) sont codées avant les images intermédiaires et qu'au moins une carte de segmentation (SO, Si) associée auxdites images est calculée de manière à pouvoir distinguer les pixels de type GMC des autres pixels de ces images. 2- video coding method according to claim 1 characterized in that the reference images (ICO, ICI) are encoded before the intermediate images and at least one segmentation map (SO, Si) associated with said images is calculated to be able to distinguish the GMC pixels from the other pixels of these images. 3- Procédé de codage vidéo selon l'une quelconque des revendications précédentes caractérisé en ce que les paramètres de mouvement global (GMO, GM1) sont estimés et codés (208) avant le codage des images intermédiaires (INT). 3- video coding method according to any one of the preceding claims characterized in that the global motion parameters (GMO, GM1) are estimated and encoded (208) before the coding of the intermediate images (INT). 4- Procédé de codage vidéo selon la revendication 3 caractérisé en ce que des images clés compensées en mouvement (IGO, IG1) sont déduites (200) des images de clés (ICO, ICI) en utilisant au moins les paramètres de mouvement global (GMO, GM1). 4- Video coding method according to claim 3 characterized in that key images compensated in motion (IGO, IG1) are derived (200) keyframes (ICO, ICI) using at least the global movement parameters (GMO , GM1). 5- Procédé de codage vidéo selon la revendication 4 caractérisé en ce que des cartes de segmentation (SGO, SG1) associées aux imagesclés compensées en mouvement (IGO, IG1) sont déduites des cartes de segmentation (SO, Si) associées aux images clés (ICO, ICI) par transpositions en utilisant au moins les paramètres d'estimation de mouvement (GMO, GM1). 5- video coding method according to claim 4 characterized in that segmentation maps (SGO, SG1) associated with the motion-compensated keyframes (IGO, IG1) are deduced from the segmentation maps (SO, Si) associated with the keyframes ( ICO, ICI) by transpositions using at least the motion estimation parameters (GMO, GM1). 6- Procédé de codage vidéo selon l'une quelconque des revendications 4 ou 5 caractérisé en ce que l'image intermédiaire (INT) à coder ainsi que les images clés compensées en mouvement (IGO, IG1) utilisées pour son codage sont découpées en zones de traitements, les zones de traitements de l'image intermédiaire (INT) à coder correspondant aux zones de traitement des images clés compensées en mouvement (IGO, IG1). 6. Video coding method according to any one of claims 4 or 5 characterized in that the intermediate image (INT) to be encoded and the keyframes compensated in motion (IGO, IG1) used for its encoding are divided into zones of processing, the processing zones of the intermediate image (INT) to be encoded corresponding to the processing areas of the keyframes compensated in motion (IGO, IG1). 7- Procédé de codage vidéo selon l'une quelconque des revendications précédentes caractérisé en ce que les zones de traitement des images clés compensées en mouvement (IGO, IG1) sont classées (CO, Cl) en fonction de leur proportion de pixels GMC, ladite proportion étant comparée à un seuil r1 compris entre 0 et 1, une zone étant classée (201) GMC lorsque ladite proportion est supérieure à i et classée non-GMC dans le cas contraire. 7- video encoding method according to any one of the preceding claims characterized in that the processing areas of the keyframes compensated in motion (IGO, IG1) are classified (CO, Cl) according to their proportion of GMC pixels, said proportion being compared with a threshold r1 between 0 and 1, an area being classified (201) GMC when said proportion is greater than i and classified non-GMC otherwise. 8- Procédé de codage vidéo selon la revendication 7 caractérisé en ce que la proportion de pixels GMC par zone des images clés compensées en mouvement (IGO, IG1) est déduite des cartes de segmentation (SGO, SG1). 8- Video encoding method according to claim 7 characterized in that the proportion of GMC pixels per area of the key images compensated in motion (IGO, IG1) is deduced from the segmentation maps (SGO, SG1). 9- Procédé de codage vidéo selon l'une quelconque des revendications 7 ou 8 caractérisé en ce que si au moins une zone d'une des images compensées en mouvement (SGO, SG1) et utilisées comme références pour le codage de la zone à coder d'une image intermédiaire (INT) est classée non-GMC , un codage conventionnel de ladite zone est effectué. 9- video encoding method according to any one of claims 7 or 8 characterized in that if at least one area of a motion compensated images (SGO, SG1) and used as references for coding the area to be encoded an intermediate image (INT) is classified non-GMC, a conventional coding of said zone is performed. 10- Procédé de codage vidéo selon l'une quelconque des revendications 7 à 9 caractérisé en ce que si les zones des images compensées enmouvement (SGO, SG1) utilisées comme références pour le codage d'une zone d'une image intermédiaire (INT) sont classées GMC , la cohérence desdites zones est analysée (204) par comparaison des signaux des zones des images clés compensées en mouvement global. 10- video encoding method according to any one of claims 7 to 9 characterized in that if the areas of the images compensated in motion (SGO, SG1) used as references for coding an area of an intermediate image (INT) are classified GMC, the coherence of said zones is analyzed (204) by comparison of the signals of the zones of the compensated key images in global movement. 11- Procédé de codage vidéo selon la revendication 10 caractérisé en ce que les zones des images clés compensées en mouvement (IGO, IG1) par la prise en compte des paramètres de compensation global (GMO, GM1) dont la cohérence doit être analysée sont compensées en mouvement une seconde fois (300) à l'aide d'un vecteur de translation d'une précision au pixel près. 11- video coding method according to claim 10 characterized in that the areas of the keyframes compensated in motion (IGO, IG1) by taking into account the global compensation parameters (GMO, GM1) whose consistency must be analyzed are compensated moving a second time (300) using a translational vector with pixel accuracy. 12- Procédé de codage vidéo selon la revendication 11 caractérisé en ce que le vecteur de translation de la seconde compensation (300) de mouvement est calculé à l'aide d'un estimateur de type block matching . 12- video encoding method according to claim 11 characterized in that the translation vector of the second compensation (300) of movement is calculated using a blocking type estimator. 13- Procédé de codage vidéo selon l'une quelconque des revendications 10 à 12 caractérisé en ce que l'erreur quadratique moyenne D de la zone à coder est calculée et est comparée à un seuil prédéfini (302) de manière à distinguer les zones à faible gradient local des zones à fort gradient local, la zone étant considérée à faible gradient local et classée cohérente si D est inférieur à et étant considérée à fort gradient local dans le cas contraire. 13- video encoding method according to any one of claims 10 to 12 characterized in that the mean squared error D of the zone to be encoded is calculated and is compared with a predefined threshold (302) so as to distinguish the zones to weak local gradient of zones with high local gradient, the zone being considered at low local gradient and classified as coherent if D is lower than and considered to be a high local gradient in the opposite case. 14- Procédé de codage vidéo selon la revendication 13 caractérisé en ce qu'une borne supérieur S de l'erreur quadratique moyenne D est calculée en utilisant les valeurs des gradients locaux de la zone courante et que l'erreur quadratique moyenne D est comparée (304) à ladite borne S, la zone courante étant classée cohérente lorsque D est inférieur à cette borne et non cohérente dans le cas contraire. 14. The video coding method as claimed in claim 13, characterized in that an upper bound S of the mean squared error D is calculated by using the values of the local gradients of the current zone and that the mean squared error D is compared ( 304) at said terminal S, the current area being classified coherent when D is less than this bound and not coherent in the opposite case. 15- Procédé de codage vidéo selon l'une quelconque des revendications 13 ou 14 caractérisé en ce que lorsque la zone à coder est classée cohérente , la fusion des zones correspondantes des images clés compensées en mouvement (IGO, IG1) est réalisée. 15- Video coding method according to any one of claims 13 or 14 characterized in that when the area to be coded is classified as coherent, the merging of the corresponding areas of the keyframes compensated in motion (IGO, IG1) is performed. 16- Procédé de codage vidéo selon la revendication 15 caractérisé en ce que la fusion est réalisée en utilisant un algorithme de type Graph cut . 16- video encoding method according to claim 15 characterized in that the fusion is performed using a Graph cut algorithm. 17- Procédé de codage vidéo selon l'une quelconque des revendications 15 à 16 caractérisé en ce que lorsque la zone en cours de traitement est classée non cohérente , le codage conventionnel de ladite zone est réalisé. 17- Video coding method according to any one of claims 15 to 16 characterized in that when the zone being processed is classified as non-coherent, the conventional coding of said zone is carried out. 18- Dispositif de codage vidéo d'au moins une séquence d'images numériques, les images de ladite séquence pouvant être des images intermédiaires (INT) ou des images clés (ICO, ICI) utilisées comme références pour le codage par compensation de mouvement des images intermédiaires (INT), le dispositif de codage étant caractérisé en ce qu'il comporte des moyens pour : - coder les images intermédiaires (INT) par zone de traitement en se basant sur une compensation globale de mouvement GMC dans les sens avant (GM1) et arrière (GMO) à partir des images clés (ICO, ICI), les zones de traitement de l'image intermédiaire (INT) étant codées soit par fusion des zones correspondantes des images clés, soit par codage conventionnel ; - choisir automatiquement entre fusion et codage conventionnel par analyse de la zone à coder. 18- Video coding device of at least one sequence of digital images, the images of said sequence possibly being intermediate images (INT) or key images (ICO, ICI) used as references for the coding by motion compensation of intermediate images (INT), the coding device being characterized in that it comprises means for: - coding the intermediate images (INT) by processing zone based on a global compensation of GMC movement in the forward directions (GM1 ) and back (GMO) from the keyframes (ICO, ICI), the processing areas of the intermediate image (INT) being encoded either by merging the corresponding areas of the keyframes or by conventional coding; - automatically choose between fusion and conventional coding by analysis of the zone to be coded. 19- Dispositif de décodage vidéo d'au moins une séquence d'images numériques préalablement codée en utilisant le procédé selon l'une quelconque des revendications 1 à 17, les images de ladite séquence pouvant être des images intermédiaires (INT) ou des images clés (ICO, ICI) utilisées comme références pour le décodage par compensation de mouvement des images intermédiaires (INT), le dispositif de décodage étant caractérisé en ce qu'il comporte desmoyens pour décoder les images intermédiaires (INT) par zone en se basant sur une compensation globale de mouvement GMC dans les sens avant (GM1) et arrière (GMO) à partir des images clés décodées (ICO, ICI), les zones de l'image intermédiaire (INT) étant reconstruites soit par fusion (205) des zones des images clés compensées en mouvement global, soit par décodage conventionnel (203), le choix entre fusion et décodage conventionnel étant réalisé suivant le résultat d'une mesure de cohérence entre les signaux des zones des images clés compensées en mouvement global. 19- video decoding device of at least one sequence of digital images previously coded using the method according to any one of claims 1 to 17, the images of said sequence can be intermediate images (INT) or key images; (ICO, ICI) used as references for motion compensation decoding of the intermediate images (INT), the decoding device being characterized in that it comprises means for decoding the intermediate images (INT) by zone based on a overall GMC motion compensation in the forward (GM1) and backward (GMO) directions from the decoded keyframes (ICO, ICI), the areas of the intermediate image (INT) being reconstructed either by merging (205) the zones of the compensated key images in global motion, either by conventional decoding (203), the choice between conventional fusion and decoding being performed according to the result of a coherence measurement between the areas of compensated keyframes in global motion.
FR0858833A 2008-12-19 2008-12-19 Method for video coding of sequence of digital images, involves coding intermediate images based on global motion compensation, and constructing intermediate image processing zone by fusion of global motion compensation key image zone Pending FR2940576A1 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
FR0858833A FR2940576A1 (en) 2008-12-19 2008-12-19 Method for video coding of sequence of digital images, involves coding intermediate images based on global motion compensation, and constructing intermediate image processing zone by fusion of global motion compensation key image zone
JP2011541573A JP5512696B2 (en) 2008-12-19 2009-12-18 Method and apparatus for predicting and encoding motion parameters of video picture sequences
BRPI0922734A BRPI0922734A2 (en) 2008-12-19 2009-12-18 method of estimating and encoding the motion parameters of a related video image sequence and device.
KR1020117016796A KR101638211B1 (en) 2008-12-19 2009-12-18 Video coding based on global movement compensation
PCT/FR2009/052625 WO2010070247A1 (en) 2008-12-19 2009-12-18 Video coding based on global movement compensation
CN200980151139.3A CN102257817B (en) 2008-12-19 2009-12-18 Video coding based on global movement compensation
US12/998,921 US20120207217A1 (en) 2008-12-19 2009-12-18 Video coding based on global movement compensation
EP09805757.3A EP2374278B1 (en) 2008-12-19 2009-12-18 Video coding based on global movement compensation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0858833A FR2940576A1 (en) 2008-12-19 2008-12-19 Method for video coding of sequence of digital images, involves coding intermediate images based on global motion compensation, and constructing intermediate image processing zone by fusion of global motion compensation key image zone

Publications (1)

Publication Number Publication Date
FR2940576A1 true FR2940576A1 (en) 2010-06-25

Family

ID=40786434

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0858833A Pending FR2940576A1 (en) 2008-12-19 2008-12-19 Method for video coding of sequence of digital images, involves coding intermediate images based on global motion compensation, and constructing intermediate image processing zone by fusion of global motion compensation key image zone

Country Status (1)

Country Link
FR (1) FR2940576A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0909092A2 (en) * 1997-10-07 1999-04-14 Hitachi, Ltd. Method and apparatus for video signal conversion
US6205178B1 (en) * 1996-09-20 2001-03-20 Hitachi, Ltd. Method and synthesizing a predicted image, video coding device and video coding method
US20030043912A1 (en) * 2001-08-23 2003-03-06 Sharp Laboratories Of America, Inc. Method and apparatus for motion vector coding with global motion parameters

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6205178B1 (en) * 1996-09-20 2001-03-20 Hitachi, Ltd. Method and synthesizing a predicted image, video coding device and video coding method
EP0909092A2 (en) * 1997-10-07 1999-04-14 Hitachi, Ltd. Method and apparatus for video signal conversion
US20030043912A1 (en) * 2001-08-23 2003-03-06 Sharp Laboratories Of America, Inc. Method and apparatus for motion vector coding with global motion parameters

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LYNCH W E ED: "Bidirectional motion estimation based on P frame motion vectors and area overlap", PROCEEDINGS OF THE 1992 INTERNATIONAL CONFERENCE ON ACOUSTIGS, SPEECH AND SIGNAL PROCESSING (ICASSP 1992), vol. 3, 23 March 1992 (1992-03-23), IEEE, US, pages 445 - 448, XP010058915, ISBN: 978-0-7803-0532-8 *
ZHANG J ET AL: "Bidirectional variable size block motion compensation", ELECTRONICS LETTERS, vol. 34, no. 1, 8 January 1998 (1998-01-08), IEE, Stevenage, GB, pages 52 - 53, XP006009109, ISSN: 0013-5194 *

Similar Documents

Publication Publication Date Title
EP1604529B1 (en) Methods and devices for encoding and decoding a sequence of images by means of motion/texture decomposition and wavelet encoding
KR20140110881A (en) Video quality assessment considering scene cut artifacts
FR2891686A1 (en) Gradual video sequence transition detecting method for video coder/decoder, involves calculating criteria indicating if one distance is greater than another distance and making decision on image belongingness to transition based on criteria
EP2279621B1 (en) Method of coding, decoding, coder and decoder
Lin et al. PEA265: Perceptual assessment of video compression artifacts
WO2016083709A1 (en) Image encoding method and equipment for implementing the method
EP3788789A2 (en) Method and device for image processing, and suitable method and device for decoding a multi-view video
EP2374278B1 (en) Video coding based on global movement compensation
EP1020085B1 (en) Method for assessing the degradation of a video image input by a coding and/or storage and/or transmission system
EP1413140B1 (en) Method for estimating the motion between two images with management of mesh overturning, and corresponding coding method
EP2443835B1 (en) Motion vector coding by competition within a set of predictors
FR2813485A1 (en) METHOD FOR CONSTRUCTING AT LEAST ONE INTERPRETED IMAGE BETWEEN TWO IMAGES OF AN ANIMATED SEQUENCE, METHODS OF ENCODING AND DECODING, SIGNAL AND CORRESPONDING DATA CARRIER
EP1297710B1 (en) Device and method for motion-compensated recursive filtering of video images prior to coding and corresponding coding system
EP2810436A1 (en) Encoding and decoding by means of selective inheritance
EP1702473B1 (en) Method for coding an image sequence
FR2955730A1 (en) CODING AND DECODING METHODS
FR2940576A1 (en) Method for video coding of sequence of digital images, involves coding intermediate images based on global motion compensation, and constructing intermediate image processing zone by fusion of global motion compensation key image zone
FR2821998A1 (en) Method for coding digital images in macroblocks with exclusion based on reconstruction capacity estimated on the basis of concealment of errors
EP1261209A2 (en) Method of noise detection in a video data stream
FR2833796A1 (en) Video packet coded digital video suppression quality control having binary train coded, then video packets suppressed and masking algorithm applied with validation process iterating process until quality level reached.
EP1297494B1 (en) Method and device for processing image sequences with masking
WO2004047451A1 (en) Method and system for measuring video image degradations introduced by an encoding system with throughput reduction
FR2907989A1 (en) Video stream&#39;s image part compressing method, involves making decision for coding or not-coding residue based on value of distortion associated to prediction, and rate and distortion associated to residue
Diop et al. Performances of the estimation and motion compensation for the reconstruction of motion areas in a sequence video Motion JPEG 2000
FR2966681A1 (en) Image slice coding method, involves determining lighting compensation parameter so as to minimize calculated distance between cumulated functions, and coding image slice from reference image