FR2966681A1 - Image slice coding method, involves determining lighting compensation parameter so as to minimize calculated distance between cumulated functions, and coding image slice from reference image - Google Patents
Image slice coding method, involves determining lighting compensation parameter so as to minimize calculated distance between cumulated functions, and coding image slice from reference image Download PDFInfo
- Publication number
- FR2966681A1 FR2966681A1 FR1154618A FR1154618A FR2966681A1 FR 2966681 A1 FR2966681 A1 FR 2966681A1 FR 1154618 A FR1154618 A FR 1154618A FR 1154618 A FR1154618 A FR 1154618A FR 2966681 A1 FR2966681 A1 FR 2966681A1
- Authority
- FR
- France
- Prior art keywords
- reference image
- image
- slice
- illumination compensation
- coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000006870 function Effects 0.000 title abstract description 20
- 230000001955 cumulated effect Effects 0.000 title abstract 3
- 239000013598 vector Substances 0.000 claims description 48
- 238000005286 illumination Methods 0.000 claims description 47
- 230000001186 cumulative effect Effects 0.000 claims description 22
- 230000002123 temporal effect Effects 0.000 claims description 9
- 239000000654 additive Substances 0.000 claims description 7
- 230000000996 additive effect Effects 0.000 claims description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 102100034033 Alpha-adducin Human genes 0.000 description 1
- 101100072002 Arabidopsis thaliana ICME gene Proteins 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 102100024348 Beta-adducin Human genes 0.000 description 1
- 101000799076 Homo sapiens Alpha-adducin Proteins 0.000 description 1
- 101000689619 Homo sapiens Beta-adducin Proteins 0.000 description 1
- 101000629598 Rattus norvegicus Sterol regulatory element-binding protein 1 Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/527—Global motion vector estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/142—Detection of scene cut or scene change
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
PROCEDE DE CODAGE D'UNE TRANCHE D'IMAGE METHOD OF ENCODING IMAGE SLICE
1. Domaine de l'invention L'invention se rapporte au domaine général du codage d'images. FIELD OF THE INVENTION The invention relates to the general field of image coding.
L'invention concerne plus particulièrement un procédé de codage d'une tranche d'image à partir d'au moins une image de référence. The invention relates more particularly to a method of encoding an image slice from at least one reference image.
2. Etat de l'art La plupart des procédés de codage/décodage par bloc utilisent la prédiction entre images (prédiction inter-image ou mode inter) ou la prédiction dans l'image (prédiction intra-image ou mode intra). Une telle prédiction permet d'améliorer la compression d'une séquence d'images. La prédiction inter consiste à générer un bloc de prédiction à partir d'un bloc d'une image de référence (précédemment codée) pour un bloc courant devant être codé et à coder la différence entre le bloc courant et le bloc de prédiction, également appelée bloc résiduel. Plus le bloc de prédiction est corrélé au bloc courant, plus le nombre de bits nécessaire pour coder le bloc courant est faible et donc la compression efficace. Toutefois, la prédiction perd de son efficacité lorsqu'il existe une variation de luminosité entre les images de la séquence ou à l'intérieur d'une image. Une telle variation de luminosité est par exemple due à une modification d'illumination, à des effets de fondus (« fades » en anglais), à des flashs, etc. Il est connu des procédés de codage/décodage de séquence d'images qui tiennent compte d'une variation globale de la luminosité. Ainsi, dans le cadre de la norme H.264, décrite dans le document ISO/IEC 14496-10, il est connu d'utiliser un procédé de prédiction pondérée afin d'améliorer la compression dans le cas d'une variation de luminosité. Les paramètres de compensation d'illumination associés aux images de référence (connu sous la terminologie anglaise de « weighted prediction parameters») sont explicitement transmis par tranche d'image (également connue sous la terminologie anglaise de « slice »). La correction d'illumination s'applique de manière identique pour tous les blocs de la tranche. De tels paramètres sont par exemple déterminés à partir de la composante continue (coefficient DC) d'un bloc courant et la composante continue d'un bloc de référence associé au bloc courant. Une telle méthode ne permet de déterminer qu'un seul paramètre soit additif, soit multiplicatif. Selon une variante, un paramètre multiplicatif et un paramètre additif sont déterminés en minimisant l'erreur quadratique moyenne calculée entre une image courante et une image de référence associée à l'image courante. Une telle solution est décrite dans le document de Kato et al intitulé « Weighted factor determination algorithm for H.264/AVC weighted prediction » et publié en 2004 dans les actes de la conférence Workshop on Multimedia Signal Processing. Une telle méthode est toutefois très sensible au mouvement car l'erreur est calculée pixel à pixel entre les pixels de l'image courante et les pixels colocalisés dans l'image de référence. Selon une autre approche décrite dans le document de Shen et al intitulé « Adaptive Weighted Prediction in Video Coding » publié en 2004 dans les actes de la conférence ICME, un vecteur de mouvement et des paramètres sont déterminés en minimisant l'erreur quadratique moyenne calculée entre une image courante et une image de référence associée à l'image courante compensée en mouvement. Une telle approche a un coût calculatoire très élevé. 3. Résumé de l'invention L'invention a pour but de pallier au moins un des inconvénients de l'art antérieur. A cet effet, l'invention concerne un procédé de codage d'une tranche d'image, dite tranche courante, à partir d'au moins une image de référence comprenant les étapes suivantes : - déterminer au moins un paramètre de compensation d'illumination ; et - coder la tranche courante à partir de l'image de référence en tenant compte du paramètre de compensation d'illumination déterminé. Avantageusement, l'étape de détermination du paramètre de compensation d'illumination comprend les étapes suivantes : - déterminer une zone de recouvrement entre la tranche courante et l'image de référence ; - calculer un histogramme de la partie de la tranche courante dans la zone de recouvrement, dit premier histogramme, et un histogramme de la partie de l'image de référence dans la zone de recouvrement, dit second histogramme; - calculer une fonction cumulée du premier histogramme, dite première fonction cumulée, et une fonction cumulée du second histogramme, dite seconde fonction cumulée; déterminer le paramètre de compensation d'illumination de telle sorte à minimiser une distance calculée entre la première fonction cumulée et la seconde fonction cumulée pondérée par le paramètre de compensation d'illumination. Le procédé selon l'invention permet avantageusement une détermination précise et robuste des paramètres de compensation d'illumination car elle n'est pas basée sur une différence entre pixels colocalisés mais sur des histogrammes d'images. Elle n'est donc pas sensible au mouvement local ou global. En outre, elle est rapide car justement elle repose sur le calcul d'histogrammes d'images. Aucune compensation de mouvement locale n'est nécessaire. 2. State of the art Most block coding / decoding methods use inter-image prediction (inter-image prediction or inter mode) or image prediction (intra-image prediction or intra mode). Such a prediction makes it possible to improve the compression of a sequence of images. The inter prediction consists in generating a prediction block from a block of a reference image (previously coded) for a current block to be coded and coding the difference between the current block and the prediction block, also called residual block. The more the prediction block is correlated to the current block, the smaller the number of bits needed to code the current block and thus the effective compression. However, the prediction loses its effectiveness when there is a variation in brightness between the images of the sequence or within an image. Such a change in brightness is for example due to an illumination modification, fade effects, flashes, etc. There are known image sequence coding / decoding methods that take into account an overall variation in brightness. Thus, in the context of the H.264 standard described in ISO / IEC 14496-10, it is known to use a weighted prediction method to improve the compression in the case of a variation in brightness. The illumination compensation parameters associated with the reference images (known as "weighted prediction parameters") are explicitly transmitted by image slice (also known as "slice"). The illumination correction applies identically for all blocks in the slice. Such parameters are for example determined from the DC component (DC coefficient) of a current block and the DC component of a reference block associated with the current block. Such a method makes it possible to determine that a single parameter is additive or multiplicative. According to one variant, a multiplicative parameter and an additive parameter are determined by minimizing the mean squared error calculated between a current image and a reference image associated with the current image. Such a solution is described in the paper by Kato et al entitled "Weighted factor determination algorithm for H.264 / AVC weighted prediction" and published in 2004 in the Proceedings of the Workshop on Multimedia Signal Processing. Such a method is, however, very sensitive to motion because the error is calculated pixel by pixel between the pixels of the current image and the co-located pixels in the reference image. According to another approach described in Shen et al entitled "Adaptive Weighted Prediction in Video Coding" published in 2004 in the proceedings of the ICME conference, a motion vector and parameters are determined by minimizing the mean squared error calculated between a current image and a reference image associated with the current image compensated in motion. Such an approach has a very high computational cost. SUMMARY OF THE INVENTION The object of the invention is to overcome at least one of the drawbacks of the prior art. For this purpose, the invention relates to a method of coding an image slice, called the current slice, from at least one reference image comprising the following steps: determining at least one illumination compensation parameter ; and - coding the current slice from the reference image taking into account the determined illumination compensation parameter. Advantageously, the step of determining the illumination compensation parameter comprises the following steps: determining an overlap zone between the current slice and the reference image; calculating a histogram of the portion of the current slice in the overlapping zone, said first histogram, and a histogram of the portion of the reference image in the overlapping zone, said second histogram; calculating a cumulative function of the first histogram, called the first cumulative function, and a cumulative function of the second histogram, called the second cumulative function; determining the illumination compensation parameter so as to minimize a calculated distance between the first cumulative function and the second cumulative function weighted by the illumination compensation parameter. The method according to the invention advantageously allows a precise and robust determination of the illumination compensation parameters because it is not based on a difference between co-located pixels but on histograms of images. It is therefore not sensitive to local or global movement. In addition, it is fast because precisely it is based on the calculation of image histograms. No local movement compensation is necessary.
Selon un mode particulier de réalisation, un paramètre de compensation d'illumination multiplicatif et un paramètre de compensation d'illumination additif étant déterminés, la tranche courante est codée à partir de l'image de référence en tenant compte des paramètres de compensation d'illumination quand la distance calculée pour les paramètres de compensation d'illumination déterminés est inférieure à un premier seuil prédéterminé et quand le rapport entre la distance calculée pour les paramètres de compensation d'illumination déterminés et la distance calculée pour un paramètre multiplicatif égal à 1 et un paramètre additif égal à zéro est inférieur à un second seuil prédéterminé et dans lequel la tranche courante est codée à partir de l'image de référence sans tenir compte des paramètres de compensation d'illumination sinon. Selon un aspect particulier de l'invention, la zone de recouvrement est déterminée par recalage de la tranche courante avec l'image de référence. Selon une variante de réalisation, la zone de recouvrement est déterminée par compensation de mouvement globale de la tranche courante par rapport à l'image de référence à partir d'un vecteur de mouvement global. Avantageusement, le vecteur de mouvement global est le vecteur de mouvement moyen calculé à partir de vecteurs de mouvement associés à des blocs de la tranche de l'image de référence colocalisée à la tranche courante, les vecteurs de mouvement étant remis à l'échelle pour tenir compte de la distance temporelle entre images. Avantageusement, le vecteur de mouvement global est le vecteur de mouvement médian calculé à partir de vecteurs de mouvement associés à des blocs de la tranche de l'image de référence colocalisée à la tranche courante, les vecteurs de mouvement étant remis à l'échelle pour tenir compte de la distance temporelle entre images. Selon une autre variante de réalisation, la zone de recouvrement est déterminée par compensation de mouvement globale de l'image de référence à partir de paramètres représentatifs d'un mouvement de caméra entre l'image de référence et l'image courante According to a particular embodiment, a multiplicative illumination compensation parameter and an additive illumination compensation parameter being determined, the current slice is coded from the reference image taking into account the illumination compensation parameters. when the calculated distance for the determined illumination compensation parameters is less than a first predetermined threshold and when the ratio between the calculated distance for the determined illumination compensation parameters and the calculated distance for a multiplicative parameter equal to 1 and a additive parameter equal to zero is less than a second predetermined threshold and in which the current slice is encoded from the reference image without taking into account illumination compensation parameters otherwise. According to a particular aspect of the invention, the overlap zone is determined by registering the current slice with the reference image. According to an alternative embodiment, the overlap zone is determined by global motion compensation of the current slice relative to the reference image from a global motion vector. Advantageously, the global motion vector is the average motion vector computed from motion vectors associated with blocks of the slice of the reference image co-located with the current slice, the motion vectors being rescaled to take into account the temporal distance between images. Advantageously, the global motion vector is the median motion vector calculated from motion vectors associated with blocks of the slice of the reference image co-located with the current slice, the motion vectors being rescaled to take into account the temporal distance between images. According to another variant embodiment, the overlap area is determined by global motion compensation of the reference image from parameters representative of a camera movement between the reference image and the current image.
4. Listes des figures L'invention sera mieux comprise et illustrée au moyen d'exemples de modes de réalisation et de mise en oeuvre avantageux, nullement limitatifs, en référence aux figures annexées sur lesquelles : - la figure 1 illustre un procédé de codage selon l'invention; - la figure 2 représente une image courante et une image de référence ainsi qu'une zone de recouvrement des deux images ; - la figure 3 représente une fonction cumulée de l'histogramme d'une image courante et une fonction cumulée de l'histogramme d'une image de référence ; et - La figure 4 représente un dispositif de codage selon l'invention. 4. Lists of Figures The invention will be better understood and illustrated by means of examples of advantageous embodiments and implementations, in no way limiting, with reference to the appended figures in which: FIG. 1 illustrates a coding method according to the invention; FIG. 2 represents a current image and a reference image as well as a zone of overlap of the two images; FIG. 3 represents a cumulative function of the histogram of a current image and a cumulative function of the histogram of a reference image; and FIG. 4 represents a coding device according to the invention.
5. Description détaillée de l'invention Dans la suite, le terme « entité de codage » désigne une structure de base d'une image à coder ou à reconstruire. Elle comprend un sous-ensemble de pixels contigus de l'image, i.e. non disjoints. L'ensemble des entités de codage d'une image peuvent ou non avoir des pixels communs. Généralement, l'entité de codage est un bloc de pixels. Toutefois, le terme « entité de codage » est générique et peut désigner un carré, un rectangle, un cercle, un polygone, une région de forme quelconque. Un bloc de pixels est une entité de codage particulière. Le terme « entité de prédiction » désigne la structure de base utilisée pour la prédiction d'une entité de codage. Elle comprend un sous-ensemble de pixels contigus, i.e. non disjoints. Généralement, l'entité de codage est un bloc de pixels. 5. Detailed Description of the Invention In the following, the term "coding entity" designates a basic structure of an image to be coded or reconstructed. It comprises a subset of contiguous pixels of the image, i.e. not disjoint. The set of coding entities of an image may or may not have common pixels. Generally, the encoding entity is a block of pixels. However, the term "coding entity" is generic and may designate a square, a rectangle, a circle, a polygon, a region of any shape. A block of pixels is a particular encoding entity. The term "prediction entity" refers to the basic structure used for the prediction of a coding entity. It comprises a subset of contiguous, i.e. non-disjoint pixels. Generally, the encoding entity is a block of pixels.
Dans la littérature, l'entité de prédiction est généralement un bloc. Toutefois, le terme « entité de prédiction » est générique et peut désigner un carré, un rectangle, un cercle, un polygone, une région de forme quelconque. Une entité de prédiction est utilisée pour prédire une entité de codage, p.e.x en vue de calculer une erreur résiduelle. Une tranche d'image est formée de plusieurs entités de codage. En référence à la figure 1, l'invention concerne un procédé de codage d'une tranche courante Scur d'une image courante Icur à partir d'images de référence Iref;, où i est l'indice de l'image de référence. Les images courantes et de référence appartiennent à une séquence d'images. Dans une même tranche d'image, certains blocs peuvent utiliser l'image Iref; comme image de référence et d'autres blocs peuvent utiliser l'image Iref comme image de référence avec j i. Dans la suite de la description, le terme bloc est utilisé pour raison de simplification. Toutefois ce terme peut être remplacé par le terme générique d'entité de codage. Lors d'une étape 10, une zone de recouvrement REC est déterminée entre la tranche courante Scur à coder et une image de référence Iref;. Cette zone de recouvrement REC correspond aux parties de la scène communes entre la tranche courante et l'image de référence. Une telle zone de recouvrement REC est représentée en hachuré sur la figure 2. Cette zone de recouvrement est, par exemple, déterminée à partir d'un algorithme de recalage d'image. Un exemple d'un tel algorithme est décrit dans le document de P.Saravanan et al., intitulé « Techniques for Video Mosaicing », publié dans World Academy of Science, Engineering and Technology en 11 2005. Selon une variante, la zone de recouvrement REC est déterminée par compensation de mouvement global de la tranche courante par rapport à l'image de référence Iref;. Cette compensation de mouvement globale est effectuée à partir d'un vecteur de mouvement global GMV. Ce vecteur de mouvement global est par exemple égal au vecteur obtenu en moyennant les vecteurs de mouvement mv associés à des blocs B de la tranche de l'image de référence Iref; colocalisée à la tranche courante, lesdits vecteurs de mouvement étant remis à l'échelle pour tenir compte de la distance temporelle entre images. La tranche colocalisée est la tranche qui occupe la même place dans l'image de référence Iref; que Scur dans l'image courante Icur. En référence à la figure 3, le vecteur de mouvement mv remis à l'échelle est donc égal à (Tcur-Tref;)/(Tref;-T,)*mv. Ces vecteurs de mouvement sont les vecteurs de mouvement utilisés lors du codage de l'image de référence Iref;. Dans le cas particulier où tous les blocs de l'image de référence Iref; sont codés en mode intra, avec ou sans prédiction spatiale, alors le vecteur de mouvement GMV est une vecteur défini par défaut, p.ex. le dernier vecteur GMV déterminé ou bien le vecteur nul. De même, dans le cas où le vecteur de mouvement GMV conduit à l'absence d'une zone de recouvrement, il est remplacé par un vecteur défini par défaut, p.ex. le vecteur nul. Selon une variante, ce vecteur de mouvement global GMV est le vecteur médian des vecteurs de mouvement associés à des blocs de la tranche de l'image de référence Iref; colocalisée à la tranche courante, lesdits vecteurs de mouvement étant remis à l'échelle pour tenir compte de la distance temporelle entre images. Selon encore une autre variante, la compensation de mouvement globale est effectuée à partir de paramètres représentatifs d'un mouvement de caméra entre l'image de référence et l'image courante, la caméra ayant servie à capturer la séquence d'images. Lors d'une étape 12, un histogramme Hist1, dit premier histogramme, de la partie de la tranche courante Scur dans la zone de recouvrement et un histogramme Hist2, dit second histogramme, de la partie de l'image de référence Iref; dans la zone de recouvrement sont calculés dans la zone de recouvrement. In the literature, the prediction entity is generally a block. However, the term "prediction entity" is generic and can mean a square, a rectangle, a circle, a polygon, a region of any shape. A prediction entity is used to predict an encoding entity, p.e.x, for calculating a residual error. An image slice is formed of a plurality of encoding entities. With reference to FIG. 1, the invention relates to a method of encoding a current Scur slice of a current image Icur from reference images Iref ;, where i is the index of the reference image. Current and reference images belong to a sequence of images. In the same image slice, some blocks can use the image Iref; as a reference image and other blocks can use the image Iref as a reference image with j i. In the remainder of the description, the term block is used for the sake of simplification. However, this term can be replaced by the generic term coding entity. In a step 10, a recovery area REC is determined between the current Scur slice to be encoded and a reference image Iref; This overlap area REC corresponds to the parts of the scene common between the current slice and the reference image. Such a recovery zone REC is shown hatched in FIG. 2. This overlapping zone is, for example, determined from an image registration algorithm. An example of such an algorithm is described in P.Saravanan et al., Entitled "Techniques for Video Mosaicing", published in World Academy of Science, Engineering and Technology in 2005. Alternatively, the area of overlap REC is determined by global motion compensation of the current slice relative to the reference image Iref; This global motion compensation is performed from a GMV global motion vector. This global motion vector is, for example, equal to the vector obtained by averaging the motion vectors mv associated with blocks B of the slice of the reference image Iref; collocated to the current slice, said motion vectors being scaled to account for the temporal distance between images. The collocated slice is the slice that occupies the same place in the reference image Iref; that Scur in the current picture Icur. With reference to FIG. 3, the scaled motion vector mv is therefore equal to (Tcur-Tref;) / (Tref; -T,) * mv. These motion vectors are the motion vectors used during the coding of the reference image Iref; In the particular case where all the blocks of the reference image Iref; are encoded in intra mode, with or without spatial prediction, then the GMV motion vector is a vector defined by default, eg the last determined GMV vector or the null vector. Similarly, in the case where the motion vector GMV leads to the absence of a recovery zone, it is replaced by a vector defined by default, eg the null vector. According to one variant, this global motion vector GMV is the median vector of the motion vectors associated with blocks of the slice of the reference image Iref; collocated to the current slice, said motion vectors being scaled to account for the temporal distance between images. According to another variant, the global motion compensation is performed from parameters representative of a camera movement between the reference image and the current image, the camera having served to capture the sequence of images. In a step 12, a histogram Hist1, said first histogram, of the portion of the current slice Scur in the overlap area and histogram Hist2, said second histogram, of the portion of the reference image Iref; in the overlap area are calculated in the overlap area.
Lors d'une étape 14, une fonction cumulée L1, dite première fonction cumulée, du premier histogramme et une fonction cumulée, dite seconde fonction cumulée L2, du second histogramme sont calculées. De telles fonctions sont représentées sur la figure 4. Lors d'une étape 16, un ou des paramètre(s) de compensation d'illumination est(sont) déterminé(s) de telle sorte à minimiser une distance dist(w;,o;) calculée entre la première fonction cumulée et la seconde fonction cumulée pondérée par le(s) paramètre(s) de compensation d'illumination. La distance est par exemple égale à n=100% dist(wi, oi) = (L1(n ) - wL x L2(n ) - oi)z n=0% où (w;,o;) sont les paramètres de compensation d'illumination, L1 (n) est l'abscisse correspondant à la valeur « n » de la fonction cumulée L1 et L2(n) est l'abscisse correspondant à la valeur « n » de la fonction cumulée L2. Selon une variante la distance est égale à dist(w, o) = dist(wi, oL) = En= yrl L1(n ) - wi x L2(n ) - oil Dans une mode particulier de réalisation, une méthode classique de minimisation par moindre carrée est utilisée. Dans ce cas, les paramètres (w;,o;) sont ceux qui vérifient le système d'équations suivant : 18dist - _ O 8wi Sdist - _ O Soi Les étapes 10 à 16 sont réitérées pour toutes les images de référence Iref; utilisables pour coder les blocs de la tranche courante Scur. Lors d'une étape 18, les blocs de la tranche courante sont codés à partir d'une des images de référence en tenant compte du ou des paramètre(s) de compensation d'illumination déterminé(s) à l'étape 16. Ainsi, pour un bloc courant de la tranche courante, l'erreur résiduelle entre ce bloc courant et un bloc de référence compensé en mouvement pondéré par les paramètres de compensation d'illumination déterminé(s) à l'étape 16 est calculée. Cette erreur résiduelle est donc égale à Icur(x,y)-w;*Iref;(x+Ax,y+Ay)-o; où (Ax, Ay) sont les coordonrées du vecteur de mouvement associé au bloc à coder, où (x,y) sont les coordonnées des pixels du bloc courant à coder et où (w;, o;) sont les paramètres de compensation d'illumination déterminés à partir de l'image de référence Iref;. Généralement, les erreurs résiduelles calculées pour un bloc sont transformées en des coefficients par exemple avec une DCT (acronyme anglais de Discrete Cosine Transform) puis quantifiées avant leur codage entropique. Selon une variante de réalisation de l'étape 18, les paramètres de compensation d'illumination ne sont pas systématiquement appliqués. En effet, l'utilisation de tels paramètres n'est pas toujours appropriée notamment dans le cas de changement de scène ou dans le cas de variation locale d'illumination. Lors d'une étape 17, préalable à l'étape de codage 18, on détermine s'il est approprié d'utiliser les paramètres de compensation d'illumination déterminés et cela pour chaque image de référence Iref; utilisée pour coder des blocs de la tranche courante. A cet effet, les paramètres de compensation d'illumination associés à une image de référence Iref; sont utilisés pour coder les blocs de la tranche courante utilisant l'image Iref; comme image de référence si les inégalités suivantes sont vérifiées : dist(w;,o;)<TH1 (1) et dist(w;,o;)/error(1,0)<TH2 (2), où TH1 et TH2 sont deux valeurs de seuils. Dans le cas contraire, les paramètres de pondération (w;, o;) ne sont pas utilisés pour le codage des blocs de la tranche courante qui utilisent l'image Iref; comme image de référence, i.e. l'erreur résiduelle est égale à Icur(x,y)- Iref(x+Ax,y+Ay) où (Ax, Axy) sont les coordonrées du vecteur de mouvement associé a u bloc à coder. During a step 14, a cumulative function L1, called the first cumulative function, of the first histogram and a cumulative function, called the second cumulative function L2, of the second histogram are calculated. Such functions are shown in FIG. 4. In a step 16, one or more illumination compensation parameter (s) is (are) determined so as to minimize a distance dist (w; calculated between the first cumulative function and the second cumulative function weighted by the illumination compensation parameter (s). The distance is for example equal to n = 100% dist (wi, oi) = (L1 (n) - wL x L2 (n) - oi) zn = 0% where (w;, o;) are the compensation parameters of illumination, L1 (n) is the abscissa corresponding to the value "n" of the cumulative function L1 and L2 (n) is the abscissa corresponding to the value "n" of the cumulative function L2. According to a variant, the distance is equal to dist (w, o) = dist (wi, oL) = En = yr1 L1 (n) - wi x L2 (n) - oil In a particular embodiment, a conventional minimization method square least is used. In this case, the parameters (w;, o;) are those which satisfy the following system of equations: ## EQU1 ## Steps 10 to 16 are repeated for all the reference images Iref; usable to code the blocks of the current Scur slice. In a step 18, the blocks of the current slice are coded from one of the reference images taking into account the illumination compensation parameter (s) determined in step 16. Thus, for a current block of the current slice, the residual error between this current block and a motion compensated reference block weighted by the illumination compensation parameters determined in step 16 is calculated. This residual error is therefore equal to Icur (x, y) -w; * Iref; (x + Ax, y + Ay) -o; where (Ax, Ay) are the coordinates of the motion vector associated with the block to be encoded, where (x, y) are the coordinates of the pixels of the current block to be encoded and where (w;, o;) are the compensation parameters of illumination determined from the reference image Iref; Generally, the residual errors calculated for a block are transformed into coefficients for example with a DCT (acronym for Discrete Cosine Transform) then quantized before their entropy coding. According to an alternative embodiment of step 18, the illumination compensation parameters are not systematically applied. Indeed, the use of such parameters is not always appropriate especially in the case of scene change or in the case of local variation of illumination. During a step 17, prior to the coding step 18, it is determined whether it is appropriate to use the illumination compensation parameters determined and that for each reference image Iref; used to encode blocks of the current slice. For this purpose, the illumination compensation parameters associated with a reference image Iref; are used to encode the blocks of the current slice using the Iref image; as a reference image if the following inequalities are satisfied: dist (w;, o;) <TH1 (1) and dist (w;, o;) / error (1,0) <TH2 (2), where TH1 and TH2 are two threshold values. In the opposite case, the weighting parameters (w;, o;) are not used for the coding of the blocks of the current slice that use the image Iref; as a reference image, i.e. the residual error is equal to Icur (x, y) - Iref (x + Ax, y + Ay) where (Ax, Axy) are the coordinates of the motion vector associated with a block to be encoded.
Dans le cas où les paramètres (w;,o;) ne sont pas utilisés pour coder les blocs de la tranche courante utilisant Iref; comme image de référence, un fanion (« flag » en anglais) est codé dans le flux, plus précisément dans l'entête (« header » en anglais) de la tranche Scur, indiquant que pour l'image de référence Iref; aucun paramètre de compensation d'illumination n'est transmis, et donc par voie de conséquence utilisés. Dans le cas où les paramètres (w;,o;) sont utilisés pour coder les blocs de la tranche courante utilisant Iref; comme image de référence, un fanion (« flag » en anglais) est codé dans le flux, plus précisément dans l'entête (« header » en anglais) de la tranche Scur, indiquant que pour l'image de référence Iref; des paramètres de compensation d'illumination sont transmis, lesdits paramètres étant codés dans le flux à la suite de ce fanion. Selon une autre variante de réalisation, pour les blocs de la tranche courante qui utilisent comme image de référence une image Iref; pour laquelle des paramètres de compensation d'illumination sont transmis, un fanion est codé dans l'entête de ces blocs indiquant si les paramètres (w;, o;) sont effectivement utilisés pour coder et donc reconstruire ce bloc. A titre d'exemple illustratif, une tranche d'image Scur comprend 4 blocs B1, B2, B3 et B4 qui sont codés en référence à 2 images de référence Iref, et Iref2. Seuls les paramètres de compensation d'illumination (w,, o,) sont transmis dans l'entête de la tranche. Les paramètres de compensation d'illumination (w2, 02) déterminés à l'étape 16 pour l'image de référence Iref2 ne sont pas transmis car ils ne vérifient pas les inégalités (1) et (2). Supposons, que les blocs B1 et B3 sont codés en référence à l'image Iref,, alors un fanion supplémentaire est codé dans l'entête de chaque bloc pour indiquer si le bloc en question utilise effectivement les paramètres (w,, o,) de compensation d'illumination codés dans l'entête de la tranche Scur. A titre d'exemple, un bloc Bk utilise les paramètres (w;, o;) de compensation d'illumination si la condition suivante est vérifiée : In the case where the parameters (w;, o;) are not used to code the blocks of the current slice using Iref; as a reference image, a flag is encoded in the stream, more precisely in the header of the Scur slice, indicating that for the reference image Iref; no illumination compensation parameter is transmitted, and therefore consequently used. In the case where the parameters (w;, o;) are used to code the blocks of the current slice using Iref; as a reference image, a flag is encoded in the stream, more precisely in the header of the Scur slice, indicating that for the reference image Iref; illumination compensation parameters are transmitted, said parameters being encoded in the stream as a result of this flag. According to another variant embodiment, for the blocks of the current slice which use as reference image an image Iref; for which illumination compensation parameters are transmitted, a flag is coded in the header of these blocks indicating whether the parameters (w;, o;) are actually used to code and thus reconstruct this block. By way of illustrative example, a Scur image slice comprises 4 blocks B1, B2, B3 and B4 which are coded with reference to 2 reference images Iref, and Iref2. Only the illumination compensation parameters (w ,, o,) are transmitted in the header of the slice. The illumination compensation parameters (w2, 02) determined in step 16 for the reference image Iref2 are not transmitted because they do not check the inequalities (1) and (2). Assume that blocks B1 and B3 are encoded with reference to image Iref ,, then an additional flag is coded in the header of each block to indicate whether the block in question actually uses the parameters (w ,, o,) in the header of the Scur slice. For example, a block Bk uses the illumination compensation parameters (w;, o;) if the following condition is satisfied:
Pelcur (x, y) - wL X Pelre fi (x + Ox, y + Dy) - oL (x,y)EBk < I Pelcur(x, y) - PelYefi(x + Ox, y + oy) (x,y)EBk où Pelcur(x,y) est la valeur du pixel de coordonnées (x,y) dans le bloc Bk et Pelrefi(x+Ax,y+Ay) est la valeur du pixel correspondant dans l'image de référence I refi. Supposons que les blocs B2 et B4 sont codés en référence à l'image Iref2, alors ils sont codés sans tenir compte d'aucun paramètre de compensation d'illumination. Pelcur (x, y) - wL X Pelre fi (x + Ox, y + Dy) - oL (x, y) EBk <I Pelcur (x, y) - PelYefi (x + Ox, y + oy) (x, y) EBk where Pelcur (x, y) is the value of the pixel of coordinates (x, y) in the block Bk and Pelrefi (x + Ax, y + Ay) is the value of the corresponding pixel in the reference image I refi. Assume that blocks B2 and B4 are encoded with reference to image Iref2, then they are encoded without regard to any illumination compensation parameter.
L'invention concerne également un dispositif de codage 12 décrit en référence à la figure 5. Le dispositif de codage 12 reçoit en entrée des images 1 appartenant à une séquence d'images. Chaque image est divisée en blocs de pixels à chacun desquels est associée au moins une donnée image, e.g. de luminance et/ou de chrominance. Le dispositif de codage 12 met en oeuvre notamment un codage avec prédiction temporelle. Seuls les modules du dispositif de codage 12 se rapportant au codage par prédiction temporelle ou codage inter sont représentés sur la figure 12. D'autres modules non représentés et connus de l'homme du métier des codeurs vidéo mettent en oeuvre le codage intra avec ou sans prédiction spatiale. Le dispositif de codage 12 comprend notamment un module de calcul ADD1 apte à soustraire pixel à pixel d'un bloc courant Bc un bloc de prédiction Bp pour générer un bloc de données image résiduelles ou bloc résiduel noté res. 11 comprend en outre un module TQ apte à transformer puis quantifier le bloc résiduel res en des données quantifiées. La transformée T est par exemple une transformée en cosinus discret (ou « DCT » acronyme anglais de « discrete cosine transform »). Le dispositif de codage 12 comprend en outre un module de codage entropique COD apte à coder les données quantifiées en un flux F de données codées. 11 comprend en outre un module ITQ effectuant l'opération inverse du module TQ. Le module ITQ effectue une quantification inverse Q-' suivie d'une transformation inverse T-'. Le module ITQ est relié à un module de calcul ADD2 apte à additionner pixel à pixel le bloc de données issu du module ITQ et le bloc de prédiction Bp pour générer un bloc de données image reconstruites qui sont stockées dans une mémoire MEM. Le dispositif de codage 12 comprend en outre un module d'estimation de mouvement ME apte à estimer au moins un vecteur de mouvement entre le bloc Bc et un bloc d'une image de référence Irefi stockée dans la mémoire MEM, cette image ayant été précédemment codée puis reconstruite. Selon une variante l'estimation de mouvement peut être faite entre le bloc courant Bc et l'image de référence originale auquel cas la mémoire MEM n'est pas reliée au module d'estimation de mouvement ME. Selon une méthode bien connue de l'homme du métier, le module d'estimation de mouvement recherche dans l'image de référence Iref; un vecteur de mouvement de telle sorte à minimiser une erreur calculée entre le bloc courant Bc et un bloc dans l'image de référence Iref; identifié à l'aide dudit vecteur de mouvement. Les données de mouvement sont transmises par le module d'estimation de mouvement ME à un module de décision DECISION apte à sélectionner un mode de codage pour le bloc Bc dans un ensemble prédéfinis de mode de codage. Le mode de codage retenu est par exemple celui qui minimise un critère de type débit-distorsion. Toutefois l'invention n'est pas limitée à cette méthode de sélection et le mode retenu peut être sélectionné selon un autre critère par exemple un critère de type a priori. Le mode de codage sélectionné par le module de décision DECISION ainsi que les données de mouvement, p.ex. le ou les vecteurs de mouvement dans le cas du mode de prédiction temporelle ou mode inter sont transmis à un module de prédiction PRED. Le ou les vecteurs de mouvement et le mode de codage sélectionné sont en outre transmis au module de codage entropique COD pour être codés dans le flux F. Si un mode de prédiction inter est retenu par le module de décision DECISION, le module de prédiction PRED détermine ensuite dans l'image de référence Iref; précédemment reconstruite et stockée dans la mémoire MEM, le bloc de prédiction Bp à partir du vecteur de mouvement déterminé par le module d'estimation de mouvement ME et du mode de codage déterminé par le module de décision DECISION. Si un mode de prédiction INTRA est retenu par le module de décision DECISION, le module de prédiction PRED détermine dans l'image courante, parmi les blocs précédemment codés et stockés dans la mémoire MEM, le bloc de prédiction Bp. The invention also relates to a coding device 12 described with reference to FIG. 5. The coding device 12 receives images 1 belonging to a sequence of images as input. Each image is divided into blocks of pixels each of which is associated with at least one image data, e.g. luminance and / or chrominance. The coding device 12 implements, in particular, coding with temporal prediction. Only the modules of the coding device 12 relating to the coding by temporal prediction or inter coding are represented in FIG. 12. Other modules, not shown and known to those skilled in the video coder art, implement the intra coding with or without spatial prediction. The coding device 12 comprises in particular a calculation module ADD1 able to subtract pixel by pixel from a current block Bc a prediction block Bp to generate a block of residual image data or residual block denoted res. 11 further comprises a TQ module adapted to transform and quantify the residual block res in quantized data. The transform T is for example a discrete cosine transform (or "DCT"), which stands for "discrete cosine transform". The coding device 12 further comprises an entropic coding module COD able to encode the quantized data into a stream F of coded data. It further comprises an ITQ module performing the inverse operation of the TQ module. The ITQ module performs an inverse quantization Q- 'followed by an inverse transformation T-'. The ITQ module is connected to a calculation module ADD2 capable of adding pixel by pixel the data block from the ITQ module and the prediction block Bp to generate a block of reconstructed image data which are stored in a memory MEM. The coding device 12 furthermore comprises a motion estimation module ME able to estimate at least one motion vector between the block Bc and a block of a reference image Irefi stored in the memory MEM, this image having been previously coded and rebuilt. According to a variant, the motion estimation can be made between the current block Bc and the original reference image in which case the memory MEM is not connected to the motion estimation module ME. According to a method well known to those skilled in the art, the motion estimation module looks in the reference image Iref; a motion vector so as to minimize an error calculated between the current block Bc and a block in the reference image Iref; identified using said motion vector. The motion data is transmitted by the motion estimation module ME to a decision module DECISION able to select an encoding mode for the block Bc in a predefined set of coding mode. The coding mode chosen is for example the one that minimizes a criterion of the type of bitrate-distortion. However, the invention is not limited to this selection method and the selected mode can be selected according to another criterion, for example a criterion of the prior type. The encoding mode selected by the decision module DECISION as well as the motion data, eg the motion vector or vectors in the case of the temporal prediction mode or the inter mode are transmitted to a prediction module PRED. The motion vector or vectors and the selected coding mode are furthermore transmitted to the entropic coding module COD in order to be coded in the stream F. If an inter prediction mode is retained by the decision module DECISION, the prediction module PRED then determines in the reference image Iref; previously reconstructed and stored in the memory MEM, the prediction block Bp from the motion vector determined by the motion estimation module ME and the coding mode determined by the DECISION decision module. If a prediction mode INTRA is retained by the decision module DECISION, the prediction module PRED determines in the current image, among the previously coded blocks and stored in the memory MEM, the prediction block Bp.
Le module de prédiction PRED est apte à déterminer le bloc de prédiction Bp en tenant compte d'un modèle de variation de luminosité défini par des paramètres de compensation d'illumination également appelés paramètres dans le contexte particulier du codage d'image de pondération de prédiction représentatif d'une variation de luminosité entre les images de la séquence ou à l'intérieur d'une image. The prediction module PRED is able to determine the prediction block Bp taking into account a brightness variation model defined by illumination compensation parameters also called parameters in the particular context of the prediction weighting image coding. representative of a variation of brightness between the images of the sequence or within an image.
A cet effet, le dispositif de codage 12 comprend un module de détermination de paramètres de compensation d'illumination IC. Le module de détermination IC est apte à mettre en oeuvre les étapes 10 à 16 du procédé de codage décrit en référence à la figure 1. For this purpose, the coding device 12 comprises a module for determining illumination compensation parameters IC. The determination module IC is able to implement steps 10 to 16 of the coding method described with reference to FIG.
Bien entendu, l'invention n'est pas limitée aux exemples de réalisation mentionnés ci-dessus. En particulier, l'homme du métier peut apporter toute variante dans les modes de réalisation exposés et les combiner pour bénéficier de leurs différents avantages. Of course, the invention is not limited to the embodiments mentioned above. In particular, those skilled in the art can make any variant in the exposed embodiments and combine them to benefit from their various advantages.
Notamment, l'invention n'est aucunement limitée à des blocs de pixels mais s'applique à des entités de codage telles que précédemment définies. Par ailleurs, l'invention définies pour deux paramètres l'un multiplicatif (w;) l'autre additif (o;), n'est pas limitée à deux paramètres et peut s'appliquer à un modèle de compensation d'illumination faisant intervenir l'un seulement des deux paramètres ou encore un modèle plus complexes faisant intervenir d'autres paramètres de compensation d'illumination. In particular, the invention is in no way limited to blocks of pixels, but applies to coding entities as previously defined. Moreover, the invention defined for two parameters the one multiplicative (w;) the other additive (o;), is not limited to two parameters and can be applied to an illumination compensation model involving only one of the two parameters or a more complex model involving other illumination compensation parameters.
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1154618A FR2966681A1 (en) | 2011-05-26 | 2011-05-26 | Image slice coding method, involves determining lighting compensation parameter so as to minimize calculated distance between cumulated functions, and coding image slice from reference image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1154618A FR2966681A1 (en) | 2011-05-26 | 2011-05-26 | Image slice coding method, involves determining lighting compensation parameter so as to minimize calculated distance between cumulated functions, and coding image slice from reference image |
Publications (1)
Publication Number | Publication Date |
---|---|
FR2966681A1 true FR2966681A1 (en) | 2012-04-27 |
Family
ID=44550748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1154618A Pending FR2966681A1 (en) | 2011-05-26 | 2011-05-26 | Image slice coding method, involves determining lighting compensation parameter so as to minimize calculated distance between cumulated functions, and coding image slice from reference image |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR2966681A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014044504A1 (en) * | 2012-09-19 | 2014-03-27 | Thomson Licensing | Method and apparatus for compensating illumination variations in a sequence of images |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004013985A1 (en) * | 2002-08-06 | 2004-02-12 | Motorola, Inc. | Method and apparatus for performing high quality fast predictive motion search |
WO2007092215A2 (en) * | 2006-02-02 | 2007-08-16 | Thomson Licensing | Method and apparatus for adaptive weight selection for motion compensated prediction |
US7646437B1 (en) * | 2003-09-03 | 2010-01-12 | Apple Inc. | Look-ahead system and method for pan and zoom detection in video sequences |
-
2011
- 2011-05-26 FR FR1154618A patent/FR2966681A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004013985A1 (en) * | 2002-08-06 | 2004-02-12 | Motorola, Inc. | Method and apparatus for performing high quality fast predictive motion search |
US7646437B1 (en) * | 2003-09-03 | 2010-01-12 | Apple Inc. | Look-ahead system and method for pan and zoom detection in video sequences |
WO2007092215A2 (en) * | 2006-02-02 | 2007-08-16 | Thomson Licensing | Method and apparatus for adaptive weight selection for motion compensated prediction |
Non-Patent Citations (6)
Title |
---|
KATO H ET AL: "Weighting factor determination algorithm for H.264/MPEG-4 AVC weighted prediction", MULTIMEDIA SIGNAL PROCESSING, 2004 IEEE 6TH WORKSHOP ON SIENA, ITALY SEPT. 29 - OCT. 1, 2004, PISCATAWAY, NJ, USA,IEEE, 29 September 2004 (2004-09-29), pages 27 - 30, XP010802077, ISBN: 978-0-7803-8578-8, DOI: 10.1109/MMSP.2004.1436407 * |
ULRICH FECKER ET AL: "Luminance and Chrominance Compensation for Multi-View Sequences Using Histogram Matching", 74. MPEG MEETING; 17-10-2005 - 21-10-2005; NICE; (MOTION PICTUREEXPERT GROUP OR ISO/IEC JTC1/SC29/WG11),, no. M12487, 30 September 2005 (2005-09-30), XP030041157, ISSN: 0000-0243 * |
W-Y CHEN ET AL: "Fast luminance and chrominance correction based on motion compensated linear regression for multi-view video coding", VISUAL COMMUNICATIONS AND IMAGE PROCESSING; 30-1-2007 - 1-2-2007; SAN JOSE,, 30 January 2007 (2007-01-30), XP030081149 * |
XUEMING QIAN ET AL: "Effective Fades and Flashlight Detection Based on Accumulating Histogram Difference", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 16, no. 10, 1 October 2006 (2006-10-01), pages 1245 - 1258, XP011149963, ISSN: 1051-8215, DOI: 10.1109/TCSVT.2006.881858 * |
YANFEI SHEN ET AL: "Adaptive weighted prediction in video coding", 2004 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME): JUNE 27 - 30, 2004, TAIPEI, TAIWAN, PISCATAWAY, NJ : IEEE OPERATIONS CENTER, US, vol. 1, 27 June 2004 (2004-06-27), pages 427 - 430, XP010770802, ISBN: 978-0-7803-8603-7, DOI: 10.1109/ICME.2004.1394220 * |
YUSHAN CHEN ET AL: "Luminance and Chrominance Correction for Multi-View Video Using Simplified Color Error Model", 25. PICTURE CODING SYMPOSIUM;24-4-2006 - 26-4-2006; BEIJING,, 24 April 2006 (2006-04-24), XP030080269 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014044504A1 (en) * | 2012-09-19 | 2014-03-27 | Thomson Licensing | Method and apparatus for compensating illumination variations in a sequence of images |
EP2733933A1 (en) * | 2012-09-19 | 2014-05-21 | Thomson Licensing | Method and apparatus of compensating illumination variations in a sequence of images |
CN104641636A (en) * | 2012-09-19 | 2015-05-20 | 汤姆逊许可公司 | Method and apparatus for compensating illumination variations in a sequence of images |
US9870606B2 (en) | 2012-09-19 | 2018-01-16 | Thomson Licensing | Method and apparatus for compensating illumination variations in a sequence of images |
CN104641636B (en) * | 2012-09-19 | 2018-04-10 | 汤姆逊许可公司 | Method and apparatus for compensating the illumination change in image sequence |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101632598B1 (en) | Backward-compatible coding for ultra high definition video signals with enhanced dynamic range | |
JP5044057B2 (en) | Method and apparatus for selecting a filter | |
CN103262535B (en) | Utilize the video coding technique that the consistent dynamic range of timeliness maps | |
FR2948845A1 (en) | METHOD FOR DECODING A FLOW REPRESENTATIVE OF AN IMAGE SEQUENCE AND METHOD FOR CODING AN IMAGE SEQUENCE | |
US20100309975A1 (en) | Image acquisition and transcoding system | |
RU2668056C1 (en) | Image processing device and image processing method | |
US8369417B2 (en) | Optimal denoising for video coding | |
US20120019727A1 (en) | Efficient Motion-Adaptive Noise Reduction Scheme for Video Signals | |
US8855213B2 (en) | Restore filter for restoring preprocessed video image | |
EP3139608A1 (en) | Method for compressing a video data stream | |
CN1650328A (en) | System for and method of sharpness enhancement for coded digital video | |
JP2004518338A (en) | Method and system for enhancing the sharpness of an encoded video | |
FR2891686A1 (en) | Gradual video sequence transition detecting method for video coder/decoder, involves calculating criteria indicating if one distance is greater than another distance and making decision on image belongingness to transition based on criteria | |
EP2443835A1 (en) | Encoding motion vectors using competition between predictors | |
KR20170102015A (en) | Inter-layer prediction for signals with enhanced dynamic range | |
FR2914125A1 (en) | IMAGE PROCESSING METHOD AND ENCODING DEVICE IMPLEMENTING SAID METHOD. | |
EP3972246B1 (en) | Method for encoding and decoding of images, corresponding device for encoding and decoding of images and computer programs | |
EP2374278B1 (en) | Video coding based on global movement compensation | |
FR2966681A1 (en) | Image slice coding method, involves determining lighting compensation parameter so as to minimize calculated distance between cumulated functions, and coding image slice from reference image | |
JP2012104969A (en) | Motion vector generation device, motion vector generation method and computer program | |
FR2919412A1 (en) | METHOD AND DEVICE FOR RECONSTRUCTING AN IMAGE | |
WO2008049628A1 (en) | Method and device for optimizing the compression of a video stream | |
EP2839641A1 (en) | Dynamic quantisation method for video encoding | |
FR2951346A1 (en) | MULTIVATED CODING METHOD AND CORRESPONDING DECODING METHOD | |
WO2013107600A1 (en) | Dynamic quantisation method for encoding data streams |