FR2878384A1 - VIDEO COMPRESSION BY MODIFICATION OF QUANTIFICATION BY ZONES OF IMAGES - Google Patents

VIDEO COMPRESSION BY MODIFICATION OF QUANTIFICATION BY ZONES OF IMAGES Download PDF

Info

Publication number
FR2878384A1
FR2878384A1 FR0505036A FR0505036A FR2878384A1 FR 2878384 A1 FR2878384 A1 FR 2878384A1 FR 0505036 A FR0505036 A FR 0505036A FR 0505036 A FR0505036 A FR 0505036A FR 2878384 A1 FR2878384 A1 FR 2878384A1
Authority
FR
France
Prior art keywords
video signal
images
image data
original video
quantization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0505036A
Other languages
French (fr)
Inventor
Paul Bazzaz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR0412425A external-priority patent/FR2878395A1/en
Application filed by Individual filed Critical Individual
Priority to FR0505036A priority Critical patent/FR2878384A1/en
Priority to PCT/FR2005/050982 priority patent/WO2006056720A1/en
Publication of FR2878384A1 publication Critical patent/FR2878384A1/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals

Abstract

L'invention concerne le domaine du traitement du signal vidéo, et plus particulièrement un procédé de codage de signal vidéo adapté pour la compression.Elle concerne un procédé de codage d'un signal vidéo d'origine comprenant une succession temporelle d'images comprenant des données d'images quantifiées dans le domaine spatial, pour l'obtention d'un signal vidéo modifié, caractérisé en ce qu'il comprend les étapes consistant à :- recevoir ledit signal vidéo d'origine,- découper les images dudit signal vidéo en un ensemble de zones d'image,- définir une nouvelle quantification des données d'images dans le domaine spatial, variable en fonction des zones dudit ensemble de zones, pour l'obtention d'un signal vidéo modifié.The invention relates to the field of video signal processing, and more particularly to a video signal coding method adapted for compression. It relates to a method of encoding an original video signal comprising a temporal succession of images comprising quantized image data in the spatial domain, for obtaining a modified video signal, characterized in that it comprises the steps of: - receiving said original video signal, - cutting the images of said video signal into a set of image areas, - defining a new quantization of the image data in the spatial domain, variable according to the zones of said set of zones, for obtaining a modified video signal.

Description

COMPRESSION VIDÉO PAR MODIFICATION DE QUANTIFICATIONVIDEO COMPRESSION BY MODIFICATION OF QUANTIFICATION

PAR ZONES D'IMAGES La présente invention concerne le domaine des systèmes de traitement du signal vidéo, ces systèmes pouvant être des émetteurs (caméra, codeurs), des récepteurs (décodeurs, écrans) des noeuds de transmission, ou de stockage où peut s'opérer une transformation du signal, tel qu'un transcodage.  The present invention relates to the field of video signal processing systems, these systems can be transmitters (camera, encoders), receivers (decoders, screens) nodes transmission, or storage where can perform a signal transformation, such as transcoding.

Les systèmes de compression vidéo ont pour objectif de réduire le volume du signal vidéo pour pouvoir le transmettre ou bien pour le stocker. Le volume du signal vidéo d'origine dépend de plusieurs paramètres. En premier lieu, ces paramètres sont ceux relatifs à la numérisation du signal vidéo. Le signal vidéo numérique est défini comme une succession temporelle d'images, chaque image étant constitué de pixels, chaque pixel étant codé sur un nombre de bits, ce nombre de bits par pixel étant connu sous le nom de profondeur couleur. Un pixel d'un signal vidéo couleur est défini par ses trois composantes de couleur qui sont exprimées dans un espace couleur donné (l'espace couleur RGB, l'espace couleur YUV, etc.). Ainsi les paramètres relatifs à la numérisation du signal vidéo sont la fréquence image, la résolution spatiale de l'image en pixels et le nombre de bits décrivant le pixel sur chacune de ses composantes de couleur.  Video compression systems aim to reduce the volume of the video signal in order to transmit it or to store it. The volume of the original video signal depends on several parameters. In the first place, these parameters are those relating to the digitization of the video signal. The digital video signal is defined as a temporal succession of images, each image consisting of pixels, each pixel being encoded on a number of bits, this number of bits per pixel being known as color depth. A pixel of a color video signal is defined by its three color components that are expressed in a given color space (the RGB color space, the YUV color space, etc.). Thus, the parameters relating to the digitization of the video signal are the image frequency, the spatial resolution of the image in pixels and the number of bits describing the pixel on each of its color components.

Avec l'avènement de l'accès aux données audiovisuelles à travers des réseaux à très bas débit, tels les réseaux mobiles, il est primordial de fournir des techniques permettant de compresser plus encore le signal vidéo. Le coût de déploiement prohibitif de ces réseaux, ajouté à une limitation des performances, notamment dans des situations de surcharges, en fait un impératif. D'autre part, il est à noter que les terminaux devant afficher ces signaux vidéos sont de plus en plus disparates au niveau de leurs caractéristiques d'écran.  With the advent of access to audiovisual data through very low-speed networks, such as mobile networks, it is essential to provide techniques to further compress the video signal. The prohibitive cost of deployment of these networks, coupled with a limitation of performance, especially in overload situations, makes it imperative. On the other hand, it should be noted that the terminals to display these video signals are increasingly disparate in their screen characteristics.

Dans les normes de compression en vigueur, les paramètres cités ne sont pris en compte par la norme que de manière statique. Ainsi, au flux résultat de la compression d'un signal vidéo sont ajoutées des informations donnant la valeur de ces paramètres. L'objectif est de permettre au décodeur de connaître ces informations pour pouvoir se configurer.  In the compression standards in force, the parameters mentioned are taken into account by the standard only statically. Thus, to the stream result of the compression of a video signal are added information giving the value of these parameters. The objective is to allow the decoder to know this information to be able to configure itself.

Les techniques de compression actuelles prévoient bien de modifier la quantification du signal vidéo, mais cette modification s'opère dans le domaine fréquentiel, sur les coefficients DCT ( Discrete Cosine Transform en anglais, pour transformation en cosinus discret ), du signal. Dans ce domaine, les données sont décorrelées spatialement et ne sont plus liées au paramètre de profondeur couleur caractéristique majeure de l'écran amené à afficher le signal vidéo. Ainsi, la quantification des coefficients DCT est moins efficace que ce qu'elle pourrait être puisqu'elle ne tient pas compte de la forte corrélation spatiale, ni du contexte applicatif que représente l'écran du terminal.  The current compression techniques do indeed provide for modifying the quantization of the video signal, but this modification takes place in the frequency domain, on the DCT (Discrete Cosine Transform) coefficients of the signal. In this area, the data is spatially decorrelated and is no longer related to the major characteristic color depth parameter of the screen to display the video signal. Thus, the quantization of the DCT coefficients is less effective than it could be since it does not take into account the strong spatial correlation or the application context that represents the screen of the terminal.

Le procédé selon l'invention tire au contraire profit de la corrélation spatiale de même qu'il tire profit de la corrélation temporelle.  On the contrary, the method according to the invention takes advantage of the spatial correlation as well as takes advantage of the temporal correlation.

Par ailleurs, la norme de compression connue MPEG-4 ISO-IEC 14496-2 définit des outils qui permettent d'indiquer qu'une portion d'image donnée a été compressée avec une résolution spatiale réduite de moitié dans chacune des directions horizontales et verticales par rapport à la résolution de la séquence vidéo.  In addition, the known MPEG-4 ISO-IEC 14496-2 compression standard defines tools for indicating that a portion of a given image has been compressed with a spatial resolution reduced by half in each of the horizontal and vertical directions. compared to the resolution of the video sequence.

Pour ce faire, la norme MPEG a prévu d'analyser le signal d'entrée pour identifier les VOP (Video Object Planes) correspondant à des objets spécifiques dans l'image, et modifier la résolution spatiale associée à certains VOP. La norme prévoit une modification uniforme des composantes YUV.  To do this, the MPEG standard plans to analyze the input signal to identify the VOP (Video Object Planes) corresponding to specific objects in the image, and change the spatial resolution associated with certain VOPs. The standard provides for a uniform modification of the YUV components.

Plus particulièrement, la demande PCT WO 03/107678, 10 décrit une modification non uniforme de ces composantes et une syntaxe associée.  More particularly, PCT application WO 03/107678 discloses non-uniform modification of these components and associated syntax.

Ce procédé de compression comprend deux inconvénients majeurs. D'une part, les VOP tels que définis dans MPEG-4 sont obtenus de façon semiautomatique, et la définition d'un VOP fait appel à un opérateur. La modification de la résolution spatiale selon les VOP nécessite donc cette intervention qui n'est pas compatible avec un procédé de compression efficace. De plus, il est possible que la modification de la résolution spatiale selon ces VOP ne soit pas la modification la plus adaptée pour la compression.  This compression process has two major disadvantages. On the one hand, the VOPs as defined in MPEG-4 are obtained semiautomatically, and the definition of a VOP uses an operator. The modification of the spatial resolution according to the VOPs therefore requires this intervention which is not compatible with an efficient compression method. In addition, it is possible that the modification of the spatial resolution according to these VOPs is not the most suitable modification for the compression.

La présente invention entend donc résoudre les inconvénients de l'art antérieur tels que définis plus haut. 25 Pour ce faire, la présente invention concerne un procédé de codage d'un signal vidéo d'origine comprenant une succession temporelle d'images comprenant des données d'images quantifiées dans le domaine spatial, pour l'obtention d'un signal vidéo modifié, caractérisé en ce qu'il comprend les étapes consistant à : - recevoir ledit signal vidéo d'origine, - découper les images dudit signal vidéo en un ensemble de zones d'images, - définir une nouvelle quantification des données d'images dans le domaine spatial, variable en fonction des zones dudit ensemble de zones, pour l'obtention d'un signal vidéo modifié.  The present invention therefore intends to solve the disadvantages of the prior art as defined above. To this end, the present invention relates to a method of encoding an original video signal comprising a temporal succession of images comprising quantized image data in the spatial domain, for obtaining a modified video signal. , characterized in that it comprises the steps of: - receiving said original video signal, - cutting the images of said video signal into a set of image areas, - defining a new quantization of the image data in the spatial domain, variable according to the zones of said set of zones, for obtaining a modified video signal.

De préférence, ledit découpage des images est variable en fonction du numéro de l'image dans ladite succession temporelle d'images, ce qui permet d'adapter la quantification à la succession d'image.  Preferably, said cutting of the images is variable according to the number of the image in said temporal succession of images, which makes it possible to adapt the quantization to the image succession.

Avantageusement, ladite nouvelle quantification est variable en fonction du numéro de l'image dans ladite succession temporelle d'images, et ce, que le découpage reste identique ou non, encore une fois pour adapter temporellement la compression.  Advantageously, said new quantization is variable according to the number of the image in said temporal succession of images, and this, whether the cutting remains identical or not, again to adapt the compression temporally.

De préférence, le procédé selon l'invention comprend en outre une étape d'analyse dudit signal vidéo d'origine, et ledit découpage et/ou ladite nouvelle quantification dépendent de ladite analyse. De la sorte, les zones sélectionnées et la quantification associée sont optimisées pour la compression. Selon une variante, l'analyse des images concerne au moins la proximité spatiale, les caractéristiques de mouvement et d'énergie résiduelle des blocs d'image.  Preferably, the method according to the invention further comprises a step of analyzing said original video signal, and said division and / or said new quantification depend on said analysis. In this way, the selected areas and the associated quantization are optimized for compression. According to one variant, the analysis of the images concerns at least the spatial proximity, the movement characteristics and the residual energy characteristics of the image blocks.

Selon une autre variante, ledit découpage et/ou ladite nouvelle quantification sont prédéterminés.  According to another variant, said division and / or said new quantization are predetermined.

Selon encore une autre variante du procédé, ledit découpage et/ou ladite nouvelle quantification dépendent d'une action externe au procédé, comme par exemple les caractéristiques du terminal de réception.  According to yet another variant of the method, said division and / or said new quantization depend on an action external to the method, such as, for example, the characteristics of the receiving terminal.

Selon un mode de réalisation, la nouvelle quantification concerne la résolution spatiale selon les composantes d'images. Dans ce cas, lesdites images comprennent un ensemble de données numériques d'image échantillonnées en pixel au sein de ladite image, et ladite nouvelle quantification est un ré-échantillonnage de la résolution spatiale selon au moins une desdites données numériques d'images, les données numériques d'images étant par exemple les composantes couleur.  According to one embodiment, the new quantization concerns the spatial resolution according to the image components. In this case, said images comprise a set of pixel-sampled digital image data within said image, and said new quantization is a resampling of the spatial resolution according to at least one of said digital image data, the data digital images being for example the color components.

Selon un autre mode de réalisation, la nouvelle quantification concerne le nombre de bits sur lesquels sont codées les données d'images, et dans ce cas, lesdites images comprennent un ensemble de données numériques échantillonnées en pixel, et sont quantifiées sur un nombre de bits d'origine, et ladite nouvelle quantification est une nouvelle quantification dudit nombre de bits selon au moins une desdites données numériques d'images ou la manière de quantifier les données d'images sur ces bits, les données numériques d'images étant par exemple les composantes couleur.  According to another embodiment, the new quantization relates to the number of bits on which the image data are coded, and in this case, said images comprise a set of digital data sampled in pixels, and are quantized over a number of bits. of origin, and said new quantization is a new quantification of said number of bits according to at least one of said digital image data or the manner of quantifying the image data on these bits, the digital image data being for example the color components.

De façon plus générale, en combinant les deux modes de réalisation cidessus, lesdites images comprennent un ensemble de données numériques échantillonnées en pixel, et quantifiées sur un nombre de bits d'origine, et ladite nouvelle quantification est une nouvelle quantification dudit nombre de bits selon au moins une desdites données numériques d'images ou la manière de quantifier les données d'images sur ces bits, ainsi qu'un ré-échantillonnage de la résolution spatiale selon au moins une desdites données numériques d'images, par exemple les composantes couleurs.  More generally, by combining the two embodiments above, said images comprise a set of digital data sampled in pixels, and quantized over a number of original bits, and said new quantization is a new quantization of said number of bits according to at least one of said digital image data or the manner of quantizing the image data on these bits, as well as a resampling of the spatial resolution according to at least one of said digital image data, for example the color components .

Selon une variante, lesdites images du signal vidéo 35 d'origine sont découpées en une pluralité de blocs de tailles prédéfinies, et en ce que lesdites zones d'image obtenues lors de l'étape de découpage correspondent à une pluralité desdits blocs adjacents.  According to one variant, said images of the original video signal are cut into a plurality of predefined size blocks, and in that said image areas obtained during the cutting step correspond to a plurality of said adjacent blocks.

L'invention concerne également un appareil de codage d'un signal vidéo d'origine comprenant une succession temporelle d'images comprenant des données d'images quantifiées dans le domaine spatial, pour l'obtention d'un signal vidéo modifié, caractérisé en ce qu'il comprend un moyen pour recevoir ledit signal vidéo d'origine, un moyen pour découper les images dudit signal vidéo en un ensemble de zones d'image, un moyen pour générer une nouvelle quantification des données d'images dans le domaine spatial, variable en fonction des zones dudit ensemble de zones, pour l'obtention d'un signal vidéo modifié.  The invention also relates to an apparatus for encoding an original video signal comprising a temporal succession of images comprising space-domain quantized image data, for obtaining a modified video signal, characterized in that it comprises means for receiving said original video signal, means for splitting the images of said video signal into a set of image areas, means for generating a new quantization of the image data in the spatial domain, variable according to the zones of said set of zones, for obtaining a modified video signal.

L'invention concerne aussi un support d'enregistrement sur lequel une série d'images d'une scène vidéo codée selon le procédé selon l'invention, sont stockées.  The invention also relates to a recording medium on which a series of images of a video scene coded according to the method according to the invention are stored.

Il est à signaler que le procédé décrit dans la présente invention est compatible avec les normes de compression en vigueur.  It should be noted that the process described in the present invention is compatible with the compression standards in force.

On comprendra mieux l'invention à l'aide de la description, faite ciaprès à titre purement explicatif, d'un mode de réalisation de l'invention, en référence aux figures annexées: la figure 1 illustre de façon générale la 30 description d'un signal vidéo en images, la figure 2a est un exemple de découpage d'une succession d'images en zones d'image dans lesquelles varie la quantification, la figure 2b représente un découpage en VOP tel 35 que défini dans l'art antérieur, la figure 3 est un schéma illustrant la mise en uvre de l'invention dans un codeur, la figure 4 détaille l'entité de compression décrite dans la figure 3,  The invention will be better understood on the basis of the description, given purely for explanatory purposes, of one embodiment of the invention, with reference to the appended figures: FIG. 1 generally illustrates the description of FIG. a video signal in images, FIG. 2a is an example of a division of a succession of images in image zones in which quantization varies, FIG. 2b represents a VOP slicing as defined in the prior art, FIG. 3 is a diagram illustrating the implementation of the invention in an encoder, FIG. 4 details the compression entity described in FIG. 3,

- la figure 5 donne une description plus détaillée  - Figure 5 gives a more detailed description

de l'invention suivant un mode de réalisation envisageable dans un codeur vidéo reprenant le schéma de compression basé sur la prédiction spatiale et la prédiction temporelle,  of the invention according to a possible embodiment in a video coder using the compression scheme based on the spatial prediction and the temporal prediction,

la figure 6 donne une description du processus de  Figure 6 gives a description of the process of

modification de quantification selon l'invention, les figures 7a et 7b sont des exemples d'algorithmes pour la définition des zones selon l'invention.  quantization modification according to the invention, FIGS. 7a and 7b are examples of algorithms for defining the zones according to the invention.

En outre, le tableau 1 décrit les variables prises en compte dans un exemple d'algorithme mis en uvre par la présente invention.  In addition, Table 1 describes the variables taken into account in an exemplary algorithm implemented by the present invention.

L'objet de l'invention est un procédé de modifications de quantification des composantes couleur d'un signal vidéo dans le but d'améliorer les systèmes de compression/décompression vidéo et plus généralement les systèmes de traitement de signal vidéo.  The subject of the invention is a method for modifying the quantization of the color components of a video signal in order to improve the video compression / decompression systems and more generally the video signal processing systems.

Le signal vidéo est décrit dans la figure 1. Cette figure donne une structure d'une séquence vidéo telle que communément employée aujourd'hui. La séquence vidéo, de structure telle que décrite dans la figure, consiste en une succession périodique d'images Ij de même taille HxL. Dans cette représentation, j indique la référence temporelle. Une image est composée de pixels, dont le nombre définit la résolution spatiale de l'image. Ainsi, une image à un instant j est un tableau de HxL pixels. Cet exemple n'exclut pas d'autres types de vidéo, et de manière générale on notera qu'un signal vidéo peut se décrire comme une succession temporelle d'images bidimensionnelles ou tridimensionnelles. La périodicité de la succession temporelle, ainsi que la géométrie et la taille d'image peuvent être variables. Ces images peuvent résulter d'une prise de vue naturelle à travers un capteur tel qu'une caméra, ou bien d'un programme informatique de synthèse d'images, ou bien de dessins, ou bien de tout autre procédé matériel et/ou logiciel et/ou humain. Ces images peuvent tout autant être formées d'une combinaison d'images générées séparément et combinées par tout procédé de montage.  The video signal is described in Figure 1. This figure gives a structure of a video sequence as commonly used today. The video sequence, of structure as described in the figure, consists of a periodic succession of images Ij of the same size HxL. In this representation, j indicates the time reference. An image is composed of pixels, the number of which defines the spatial resolution of the image. Thus, an image at a time j is an array of HxL pixels. This example does not exclude other types of video, and in general it should be noted that a video signal can be described as a temporal succession of two-dimensional or three-dimensional images. The periodicity of the temporal succession, as well as the geometry and the image size can be variable. These images can result from a natural shooting through a sensor such as a camera, or a computer program for image synthesis, or drawings, or any other material and / or software and / or human. These images can equally be formed of a combination of images generated separately and combined by any editing process.

Comme dans tout système couleur, un point couleur est représenté par trois composantes: les composantes RVB par exemple. Généralement dans un système de compression vidéo, on utilise trois autres composantes, Y, U et V, qui sont une combinaison des composantes RVB. D'autres triplets de composantes que ceux cités ci-dessus sont définis et peuvent être utilisés tout autant, ces triplets de composantes étant liés les uns aux autres par une combinaison linéaire. Quel que soit le triplet de composantes choisi, nous noterons dorénavant dans le présent document les composantes couleurs Cl, C2 et C3. Dans l'exemple de structure d'image considéré dans la figure 1, nous considérons la plus simple, à savoir que chaque pixel PX,y de l'image possède une valeur donnée par un triplet Cl, C2 et C3. Dans les systèmes de vidéo classiques, les trois composantes couleur Cl, C2 et C3 sont quantifiées sur un nombre de bits généralement identique. La quantification est généralement linéaire.  As in any color system, a color dot is represented by three components: the RGB components for example. Generally in a video compression system, three other components, Y, U and V, which are a combination of the RGB components, are used. Other triplets of components than those mentioned above are defined and can be used just as much, these triplets of components being linked to each other by a linear combination. Whatever the selected triplet of components, we will now note in this document the color components C1, C2 and C3. In the exemplary image structure considered in Figure 1, we consider the simplest, namely that each pixel PX, y of the image has a value given by a triplet C1, C2 and C3. In conventional video systems, the three color components C1, C2 and C3 are quantized over a generally identical number of bits. Quantification is usually linear.

Dans la présente invention, nous proposons de modifier la quantification des signaux représentant chacune des trois composantes couleurs Cl, C2 et C3. Pour cela, nous définissons la notion de zone sur lequel la modification est effectuée. Telle que dessinée dans la figure 2, une zone est un ensemble de pixels de l'image vidéo, les pixels pouvant être voisins ou pas dans une même image. Suivant cette définition, l'objet de l'invention est de modifier la quantification de Cl, C2 et C3 pour un groupe de zones Zk en une quantification prédéfinie Q1, et ce pour une durée d'images donnée, la durée d'images pouvant aller d'une image au nombre d'images constituant la séquence vidéo totale. Ainsi, de par le procédé décrit ici, sur la durée de la séquence vidéo, une zone Zk aura ses composantes quantifiées chronologiquement suivant, par exemple, le type Q1 durant 100 images, puis Qm durant 1000 images, puis Qn durant 50 images etc. Il est l'objet de cette invention que les zones peuvent se faire et se défaire au fur et à mesure de l'avancement dans la séquence vidéo.  In the present invention, we propose to modify the quantization of the signals representing each of the three color components C1, C2 and C3. For this, we define the notion of zone on which the modification is carried out. As drawn in FIG. 2, an area is a set of pixels of the video image, the pixels possibly being neighbors or not in the same image. According to this definition, the object of the invention is to modify the quantization of C1, C2 and C3 for a group of zones Zk into a predefined quantization Q1, for a given duration of images, the duration of images possibly being go from an image to the number of images constituting the total video sequence. Thus, by the method described here, over the duration of the video sequence, a zone Zk will have its components quantified chronologically according to, for example, the type Q1 during 100 images, then Qm during 1000 images, then Qn during 50 images etc. It is the object of this invention that the zones can be made and discarded as and when advancement in the video sequence.

On note également que selon un autre mode de réalisation de l'invention, la modification de la quantification porte sur la résolution spatiale du signal vidéo d'origine. Dans ce cas, on modifie la résolution spatiale selon au moins une des composantes couleurs. Comme précédemment, cette modification peut être variable en fonction des zones obtenues par le procédé de l'invention, et en fonction de l'image ou du groupe d'image choisi, pour une variation temporelle. De la sorte, on obtient une variation spatio-temporelle de la résolution spatiale du signal vidéo.  It is also noted that according to another embodiment of the invention, the modification of the quantization relates to the spatial resolution of the original video signal. In this case, the spatial resolution is modified according to at least one of the color components. As previously, this modification can be variable according to the zones obtained by the method of the invention, and as a function of the image or the image group chosen, for a temporal variation. In this way, a spatio-temporal variation of the spatial resolution of the video signal is obtained.

L'homme du métier comprendra également que l'on peut combiner les deux modes de réalisation ci-dessus en modifiant à la fois la résolution spatiale de l'image par zone, et le nombre de bits sur lesquels sont quantifiés les composantes couleur ou la manière de quantifier les composantes couleur sur ces bits.  Those skilled in the art will also understand that the above two embodiments can be combined by modifying both the spatial resolution of the image per zone, and the number of bits on which the color components or the color component are quantized. way of quantifying the color components on these bits.

De façon générale, aux fins de la présente demande, on 35 appellera modification de quantification les modifications portant sur le nombre de bits sur lesquels sont quantifiés les composantes couleur ou la manière de quantifier les données d'images sur ces bits, ce qui correspond à une quantification en profondeur, les modifications portant sur la résolution spatiale de l'image, ce qui correspond à une quantification spatiale ainsi que les modifications sur ces deux types de quantification de façon temporelle, donc selon l'index de l'image.  In general terms, for purposes of the present application, changes in the number of bits on which the color components are quantized or in the manner of quantizing the image data on these bits, which corresponds to a quantization in depth, the modifications relating to the spatial resolution of the image, which corresponds to a spatial quantization as well as the modifications on these two types of quantization in a temporal manner, therefore according to the index of the image.

Il est entendu que dans toute la suite de la présente description, les modifications de quantification appliquées au nombre de bits de quantification sont également applicables à une modification de la résolution spatiale, ou à une combinaison de ces deux modifications de quantification.  It will be understood that throughout the remainder of the present description, the quantization modifications applied to the number of quantization bits are also applicable to a modification of the spatial resolution, or to a combination of these two quantization modifications.

Selon l'invention, la formation des zones, le choix d'en modifier la quantification ainsi que le choix du type de quantification se font grâce à une entité de contrôle.  According to the invention, the formation of the zones, the choice to modify the quantification thereof as well as the choice of the type of quantification are done by means of a control entity.

Cette entité de contrôle peut se baser sur différents outils.  This control entity can be based on different tools.

Ces outils permettent l'analyse du signal vidéo qui consiste à étudier chacune des composantes formant le signal vidéo à modifier, de manière globale -c'est-à-dire sur l'image- ou locale -c'est-à-dire sur une zone de l'image. Cette analyse du signal vidéo calcule sa complexité, à savoir sa texture, de même cette analyse porte sur sa gamme, à savoir l'ensemble des valeurs prises par chacune des composantes, de même cette analyse porte sur sa propreté, donc sur la puissance du bruit inclus dans le signal, de même cette analyse porte sur sa variation, notamment temporelle, c'est-à-dire d'une image aux suivantes. Cette étape d'analyse sera décrite plus en détail par la suite.  These tools allow the analysis of the video signal which consists of studying each of the components forming the video signal to be modified, in a global manner-that is to say on the image-or local-that is to say on an area of the image. This analysis of the video signal calculates its complexity, namely its texture, likewise this analysis relates to its range, namely the set of values taken by each of the components, likewise this analysis relates to its cleanliness, therefore to the power of the noise included in the signal, likewise this analysis relates to its variation, in particular temporal, that is to say from one image to the following ones. This analysis step will be described in more detail later.

D'autre part, la qualité de service recherchée, notamment en termes de débit, moyen ou instantané, est un élément de décision.  On the other hand, the quality of service sought, particularly in terms of speed, average or instantaneous, is a decision element.

D'autre part, le choix effectué par des entités de décision existantes dans les normes de compression actuelles, notamment sur l'utilisation de la prédiction temporelle ou de la prédiction spatiale, et sur leur type, peut être pris en compte.  On the other hand, the choice made by existing decision entities in the current compression standards, in particular on the use of temporal prediction or spatial prediction, and on their type, can be taken into account.

Enfin, un paramétrage manuel aide aussi l'entité de contrôle.  Finally, a manual setting also helps the control entity.

Ainsi, suivant l'application, l'entité pourra utiliser 15 la totalité ou une partie de ces outils. D'autres critères de décision peuvent être tout autant utilisés.  Thus, depending on the application, the entity may use all or part of these tools. Other decision criteria can be used as well.

Enfin, il faut signaler que suivant le procédé décrit le signal modifié préserve l'espace spatio-temporel du 20 signal original.  Finally, it should be pointed out that according to the method described the modified signal preserves the space-time space of the original signal.

La figure 1 décrit une structure de la vidéo comme étant une succession temporelle d'images (j étant l'indice temporel). Chaque image est un tableau de HxL pixels (suivant des axes x et y), chaque pixel PX,y de coordonnées (x,y) pouvant être décrit au maximum par trois valeurs C1, y(j) ,C2X,y(j) ,C3x.y(j) La figure 2 décrit l'invention en donnant un exemple de zones d'image Zk. Dans ce même exemple, l'entité de contrôle prend les décisions suivantes en ce qui concerne les quantifications par zone après modification objet de l'invention: Quantification Q1 appliquée sur Z1 et Z4 Quantification Q3 appliquée sur Z2, Z5 et Z6 Quantification Q4 appliquée sur Z3 et Z, Q1: Cl, C2 et C3 quantifiés linéairement sur 8 bits Q3 Q4 : Cl quantifié C2 quantifié C3 quantifié : Cl quantifié C2 quantifié C3 quantifiélinéairement sur linéairement sur linéairement sur non-linéairement non-linéairement non-linéairement 6 bits bits bits sur 6 bits sur 5 bits sur 5 bits etc. Dans la figure 3, on donne une vue générale de l'exemple d'un mode de réalisation de l'invention, dans lequel le signal vidéo est amené à être compressé par un codeur.  Figure 1 depicts a structure of the video as a temporal succession of images (j being the time index). Each image is an array of HxL pixels (along x and y axes), each pixel PX, y of coordinates (x, y) can be described at most by three values C1, y (j), C2X, y (j) C3x.y (j) Figure 2 describes the invention giving an example of image areas Zk. In this same example, the control entity makes the following decisions with regard to the area-based quantifications that are the subject of the invention: Quantification Q1 applied to Z1 and Z4 Quantification Q3 applied to Z2, Z5 and Z6 Quantification Q4 applied to Z3 and Z, Q1: C1, C2 and C3 quantized linearly over 8 bits Q3 Q4: Qu quantized C3 quantified C3: quantized quantized C3 C3 quantized linearly on linearly on nonlinearly nonlinearly nonlinearly 6 bits bit bits on 6 bits on 5 bits on 5 bits etc. In FIG. 3, a general view is given of the example of an embodiment of the invention, in which the video signal is caused to be compressed by an encoder.

Suivant ce mode, le signal est reçu par l'entité de contrôle qui analyse le signal pour en générer des éléments techniques tels que sa complexité, la gamme de valeurs prises par chacune des composantes, sa propreté, sa variation temporelle, etc. Cette analyse peut être effectuée après le processus de Pré-traitement .  In this mode, the signal is received by the control entity which analyzes the signal to generate technical elements such as its complexity, the range of values taken by each component, its cleanliness, its time variation, etc. This analysis can be done after the Pre-treatment process.

Le même signal vidéo d'origine composé par C1,C2 et C3, est transformé par l'entité de Pré-traitement . La sortie de cette entité est aussi un signal vidéo décrit par trois signaux composantes couleurs. Ces signaux sont compressés par l'entité Compression qui génère un signal que l'on appelle flux binaire. Comme cela sera détaillé dans la figure 4, cette entité de compression peut comprendre des fonctions des normes de compression MPEG ou H.26x, telles que la prédiction spatiale, la prédiction temporelle, la transformation (DCT, DWT, etc.), la quantification des coefficients, le codage entropique, pour ne citer que les principales.  The same original video signal composed by C1, C2 and C3 is transformed by the preprocessing entity. The output of this entity is also a video signal described by three color component signals. These signals are compressed by the Compression entity that generates a signal that is called a bitstream. As will be detailed in FIG. 4, this compression entity may comprise functions of MPEG or H.26x compression standards, such as spatial prediction, temporal prediction, transformation (DCT, DWT, etc.), quantization coefficients, entropy coding, to name only the main ones.

L'entité de contrôle, de par son analyse du signal vidéo d'origine et/ou d'autres paramètres, calcule des zones Zk (cf. Figure 2) dans les images successives. Sur certaines de ces zones, l'entité de contrôle réduit la quantification de chacune des composantes Cl, C2 et C3. Dans ce mode de réalisation, la réduction consiste à diminuer le nombre de bits décrivant Cl, C2 et C3 et donc de passer à un nombre Ni, N2 et N3 (pour chaque composante) inférieurs à 8, 8 étant la quantification supposée dans le signal vidéo d'origine. La modification de quantification s'opère sur des signaux représentant chacune des composantes Cl, C2 et C3, autant dans l'entité de Pré-traitement que dans celle de Compression .  The control entity, by its analysis of the original video signal and / or other parameters, calculates zones Zk (see Figure 2) in the successive images. On some of these areas, the control entity reduces the quantization of each of the components C1, C2 and C3. In this embodiment, the reduction consists in decreasing the number of bits describing C1, C2 and C3 and thus moving to a number Ni, N2 and N3 (for each component) less than 8, 8 being the quantification assumed in the signal original video. The quantization modification takes place on signals representing each of the components C1, C2 and C3, as much in the preprocessing entity as in that of compression.

L'entité de contrôle ajoute dans le flux binaire sortant de l'entité de Compression des informations supplémentaires telles que celles décrivant les zones et leur quantification, ainsi qu'une information de changement de scène. Il est bien entendu que ces informations supplémentaires peuvent être acheminées différemment de l'émetteur au récepteur, de même qu'elles peuvent ne pas y être acheminées, et ce, suivant l'application. D'autres informations peuvent être utilisées tout autant.  The control entity adds in the outgoing bitstream of the Compression entity additional information such as those describing the zones and their quantization, as well as scene change information. It is understood that this additional information can be conveyed differently from the sender to the receiver, and they may not be routed, depending on the application. Other information can be used just as much.

Le flux binaire tramé enrichi ou pas de ces informations est ensuite transmis ou stocké.  The raster bit stream enriched or not this information is then transmitted or stored.

Dans la figure 5, on donne un exemple plus détaillé d'un mode de réalisation, dans lequel le signal vidéo est amené à être compressé par un codeur. Dans ce mode de réalisation, la modification de quantification est opérée dans l'entité de compression. Toujours dans cet exemple, l'entité de compression est supposée être basée sur un schéma tel que détaillé dans la figure 4. Dans la figure 5, seules les fonctions principales et seuls les signaux principaux sont montrés. Ainsi, par exemple et pour n'en citer que quelques-uns, les signaux de contrôle, les signaux d'informations supplémentaires (incluant notamment le choix de modification de quantification, les zones formées dans image), le signal des vecteurs mouvements, les entités de stockage ( Buf Im ) ne sont pas indiqués.  In FIG. 5, a more detailed example of an embodiment in which the video signal is made to be compressed by an encoder is given. In this embodiment, the quantization modification is performed in the compression entity. Still in this example, the compression entity is assumed to be based on a schema as detailed in Figure 4. In Figure 5, only the main functions and only the main signals are shown. Thus, for example and to name but a few, the control signals, the additional information signals (including in particular the choice of quantization modification, the zones formed in the image), the signal of the motion vectors, the storage entities (Buf Im) are not shown.

Dans ce qui suit, nous n'utiliserons plus les termes de composantes couleurs Cl, C2, C3 dans les différentes phases de traitement, mais tout simplement celui de signal en lieu et place. Le signal (1) de la vidéo original traverse l'entité de Pré-traitement (A) et devient le signal (2) devant être compressé. Ce signal est traité par l'entité (B) de Prédiction Spatiale et l'entité (F) de Prédiction Temporelle.  In what follows, we will no longer use the terms of color components Cl, C2, C3 in the different processing phases, but simply the signal instead. The signal (1) of the original video passes through the Preprocessing entity (A) and becomes the signal (2) to be compressed. This signal is processed by the Spatial Prediction entity (B) and the Temporal Prediction entity (F).

L'entité de Prédiction Spatiale (B) génère trois signaux: le signal (3) Image, le signal (10) Prédiction Spatiale et le signal (4) Résiduel Spatial. Le signal Image est l'ensemble de pixels de l'image d'origine transmis vers les autres étapes de compression (DCT, DWT ou autre type de transformation équivalente, quantification, réorganisation, codage entropique). Le signal Prédiction Spatiale est l'ensemble des pixels considérés comme bonne prédiction pour des pixels spatialement voisins et utilisés en tant que telle. Le signal Résiduel Spatial est l'ensemble de pixels représentés par la différence entre leur valeur originale et la valeur du pixel Prédiction correspondant. Les signaux (3) et (4) sont alors traités par l'entité (C) de Modification de Quantification objet de la présente invention. Les deux signaux résultant (5) et (6) sont donc respectivement le signal Image et le signal Résiduel Spatial après Modification de Quantification. Ces deux signaux sont ensuite transmis vers les étapes de compression qui suivent (DCT, DWT ou autre type de transformation équivalente, quantification, réorganisation, codage entropique). Ces mêmes signaux (5) et (6) sont aussi traités par l'entité (D) de Remise à l'Echelle autre objet de cette invention. Cette entité a pour objectif d'opérer la fonction inverse de l'entité (C) de modification de quantification. Les signaux résultant (7) et (8) sont respectivement le signal Image et Résiduel Spatial après Remise à l'Echelle et sont orientés vers l'entité (E) de Reconstruction qui reçoit de même le signal (10). L'objectif de (E) est de re-former les pixels d'origine notamment pour les pixels résiduels. Pour lesdits pixels résiduels, cette re-formation des pixels d'origine est basée sur une simple addition de la valeur du pixel résiduel et la valeur du pixel prédiction correspondant. Le signal (9) Reconstruit Spatial sert alors de signal de référence pour la Prédiction Spatiale (B) au même titre que le signal (2) Image. De même ce signal (8) sert de signal de référence pour la Prédiction Temporelle (F).  The Spatial Prediction entity (B) generates three signals: the signal (3) Image, the signal (10) Spatial Prediction and the signal (4) Residual Spatial. The signal Image is the set of pixels of the original image transmitted to the other compression steps (DCT, DWT or other type of equivalent transformation, quantization, reorganization, entropy encoding). The signal Spatial Prediction is the set of pixels considered as good prediction for spatially adjacent pixels and used as such. The Residual Spatial signal is the set of pixels represented by the difference between their original value and the value of the corresponding Prediction pixel. The signals (3) and (4) are then processed by the Quantization Modification entity (C) which is the subject of the present invention. The two resulting signals (5) and (6) are respectively the Image signal and the Spatial Residual signal after Modification of Quantization. These two signals are then transmitted to the following compression steps (DCT, DWT or other type of equivalent transformation, quantization, reorganization, entropy encoding). These same signals (5) and (6) are also processed by the entity (D) Scaling another object of this invention. The purpose of this entity is to operate the inverse function of the quantization modification entity (C). The resulting signals (7) and (8) are respectively the Image and Spatial Residual signal after resizing and are directed to the Reconstruction entity (E) which likewise receives the signal (10). The objective of (E) is to re-form the original pixels, in particular for the residual pixels. For said residual pixels, this re-formation of the original pixels is based on a simple addition of the value of the residual pixel and the value of the corresponding prediction pixel. The Spatial Rebuilt signal (9) then serves as a reference signal for the Spatial Prediction (B) in the same way as the signal (2) Image. In the same way, this signal (8) serves as a reference signal for the temporal prediction (F).

L'entité de Prédiction Temporelle (F) génère deux signaux: le signal (15) Prédiction Spatio-Temporelle et le signal (11) Résiduel Spatio-Temporel. De manière analogue à précédemment, le signal Prédiction SpatioTemporelle est l'ensemble des pixels considérés comme bonne prédiction pour des pixels spatio-temporellement voisins et utilisés en tant que telle. Le signal Résiduel Spatio-Temporel est l'ensemble de pixels représentés par la différence entre leur valeur originale et la valeur du pixel Prédiction correspondant. Le signal (11) est alors traité par l'entité (G) de Modification de Quantification objet de la présente invention. Le signal résultant (12) est donc le signal Résiduel SpatioTemporel après Modification de Quantification. Ce signal est ensuite transmis vers les étapes de compression qui suivent (DCT, DWT ou autre type de transformation équivalente, quantification, réorganisation, codage entropique). Ce même signal (12) est aussi traité par l'entité (D) de Remise à l'Echelle. Cette entité a pour objectif d'opérer la fonction inverse de l'entité (G) de modification de quantification. Le signal résultant (13) est le signal Résiduel Spatio-Temporel après Remise à l'Echelle et est orienté vers l'entité (E) de Reconstruction qui reçoit de même le signal (15) Prédiction. Le signal (14) Reconstruit SpatioTemporel sert alors de signal de référence pour la Prédiction Temporelle (F) au même titre que le signal (2) Image. De même ce signal (14) Reconstruit sert de signal de référence pour la Prédiction Spatiale (B).  The Time Prediction (F) entity generates two signals: the Spatiotemporal Prediction (15) signal and the Spatio-Temporal Residual (11) signal. In a manner analogous to that previously, the SpatioTemporal Prediction signal is the set of pixels considered as good prediction for spatially and temporally adjacent pixels and used as such. The Spatio-Temporal Residual signal is the set of pixels represented by the difference between their original value and the value of the corresponding Prediction pixel. The signal (11) is then processed by the Quantification Modification entity (G) object of the present invention. The resulting signal (12) is therefore the SpatioTemporal residual signal after quantization modification. This signal is then transmitted to the following compression steps (DCT, DWT or other type of equivalent transformation, quantization, reorganization, entropy encoding). This same signal (12) is also processed by the entity (D) of Scaling. The purpose of this entity is to operate the inverse function of the quantization modification entity (G). The resulting signal (13) is the Spatio-Temporal Residual signal after Scaling and is directed to the Reconstruction entity (E) which likewise receives the Prediction signal (15). The Spatial Time Reconstructed signal (14) then serves as a reference signal for the Time Prediction (F) as well as the signal (2) Image. Likewise, this Reconstructed signal (14) serves as a reference signal for Spatial Prediction (B).

Par souci de clarification de l'interface entre les entités décrites dans cette figure et de fonctions (DCT, Q, et DCT-' principalement) de l'entité de compression non apparentes, notons que l'entité de Reconstruction (E) reçoit aussi des signaux (30) venant des autres fonctions de la compression, notamment les signaux ayant parcouru le chemin DCT, Q, Q-' et DCT-1.  In order to clarify the interface between the entities described in this figure and functions (DCT, Q, and DCT- mainly) of the non-apparent compression entity, note that the entity of Reconstruction (E) also receives signals (30) coming from the other functions of the compression, in particular the signals having traversed the path DCT, Q, Q- 'and DCT-1.

En ce qui concerne la fonction de Modification de Quantification effectuée par les entités (C) et (G), citons à titre d'exemple, l'opération de division avec arrondi.  With regard to the Quantification Modification function performed by the entities (C) and (G), let us quote as an example the rounding operation with rounding.

Ainsi, on a Sortie = valeur arrondie (Entrée/Q) où Entrée est la valeur d'un pixel en entrée de l'entité (C) ou (G) et Sortie est la valeur de ce même pixel en sortie, Q étant une constante dont la valeur varie sous la commande d'une entité de Contrôle telle que celle montrée dans la figure 3. Cet exemple de modification de quantification peut être utilisé dans le cas où l'on désire diminuer la quantification des signaux et donc gagner en taux de compression.  Thus, we have Output = rounded value (Input / Q) where Input is the value of a pixel at the input of the entity (C) or (G) and Output is the value of this same pixel at the output, Q being a constant whose value varies under the control of a control entity such as that shown in FIG. 3. This quantification modification example can be used in the case where it is desired to reduce the quantification of the signals and thus to gain in compression.

Un autre exemple de modification de quantification simple peut être mise en oeuvre selon l'invention par l'utilisation d'un masquage bit à bit, avec par exemple l'instruction: Sortie = Entrée & Mask_Q  Another example of simple quantization modification can be implemented according to the invention by the use of a bit-to-bit mask, with for example the instruction: Output = Input & Mask_Q

Exemple:Example:

si Entrée = 10110110 et Mask Q = 11110000 alors Sortie = 10110000 En ce qui concerne la fonction de Remise à l'Echelle effectuée par l'entité (D), citons, toujours à titre d'exemple, l'opération de multiplication. Ainsi, pour reprendre les notations ci-dessus appliquée à l'entité (D), Sortie = Entrée x Q où Entrée est la valeur d'un pixel en entrée de l'entité (D) et Sortie est la valeur de ce même pixel en sortie, Q étant une constante dont la valeur varie sous la commande d'une entité de Contrôle telle que celle montrée dans la figure 3.  if Input = 10110110 and Mask Q = 11110000 then Output = 10110000 With regard to the Scaling function performed by the entity (D), let us quote, also by way of example, the multiplication operation. Thus, to use the above notations applied to the entity (D), Output = Input x Q where Input is the value of a pixel at the input of the entity (D) and Output is the value of this same pixel at the output, Q being a constant whose value varies under the control of a control entity such as that shown in FIG.

En ce qui concerne la fonction de Reconstruction effectuée par l'entité (E), notons que cette entité peut, en plus de la fonction de re-formation du pixel d'origine telle que déjà décrite, inclure d'autres fonctions utiles mais non indispensables. Ainsi, il est envisageable d'inclure une fonction d'uniformisation dont le traitement dépend de l'applicationconsidérée. De manière générale, la fonction d'uniformisation peut se décrire suivant la formule: Px,y (j) = Pxm,Yn(ji) l m', n', m, n = 0,1,2, ; i=0,1,2, où P représente le pixel après fonction d'uniformisation, P' représente le pixel avant fonction 35 d'uniformisation, x,y sont les coordonnées spatiales du pixel, j est l'indice temporel du pixel (l'indice de l'image à laquelle il appartient), xm,yn et xm,,yn. sont les coordonnées spatiales de pixels, pixels pris en compte dans la fonction 5 d'uniformisation, jr et ji sont les indices temporels de pixels, pixels pris en compte dans la fonction d'uniformisation, C est une combinaison linéaire de totalité ou partie de pixels.  As regards the reconstruction function performed by the entity (E), note that this entity can, in addition to the re-forming function of the original pixel as already described, include other useful functions but not indispensable. Thus, it is conceivable to include a standardization function whose processing depends on the application considered. In general, the standardization function can be described according to the formula: Px, y (j) = Pxm, Yn (ji) 1 m ', n', m, n = 0,1,2,; i = 0,1,2, where P represents the pixel after uniformization function, P 'represents the front pixel, and x, y are the spatial coordinates of the pixel, j is the temporal index of the pixel ( the index of the image to which it belongs), xm, yn and xm ,, yn. are the spatial coordinates of pixels, pixels taken into account in the uniformization function, jr and ji are the temporal indices of pixels, pixels taken into account in the uniformization function, C is a linear combination of all or part of pixels.

Dans la figure 6, on donne une description de la phase de Modification de Quantification et des éléments qui l'entourent. Dans cette figure, on considère un cas plus général que celui décrit dans la figure 5. Dans la figure 6, on considère que la modification de quantification peut se faire sur les signaux composantes couleurs traversant l'entité de Prétraitement tel qu'apparaissant dans la figure 3, de même qu'elle peut se faire sur les signaux composantes couleurs en entrée des deux entités de prédiction spatiale et temporelle, ou qu'elle peut se faire sur les signaux devant être traités par les étapes de compression qui suivent (DCT, DWT ou autre type de transformation équivalente, quantification, réorganisation, codage entropique) tel que décrit dans la figure 5, etc. Dans la figure 6, l'entité (H) d'Analyse de Signal et de Choix de Modification de Quantification reçoit trois signaux: un signal (16), ce signal étant généralement le signal Image 2) selon la figure 5), le signal (17) sur lequel la modification de quantification sera opérée et le signal (20) portant des résultats d'analyses effectuées ou des commandes supplémentaires qui seront décrits plus en détail dans les exemples d'algorithme appliqué à la modification de la quantification. L'entité (J) est l'entité qui opère la Modification de Quantification. Cette entité (J) reçoit donc le signal (17) déjà cité et le signal (22) portant les choix de modifications de quantification provenant de l'entité (H). L'entité (K) est un simple Multiplexeur, commandé à travers le signal (21) provenant de l'entité (H). Ainsi, l'entité (K) aiguillera vers la sortie (signal (19) ) soit le signal de quantification modifiée (18) soit le signal original (17). Cet aiguillage s'opère au rythme pixel. En sortie, on retrouve donc le signal (19) devant être traité par les entités qui suivent et le signal (22) portant les choix de modification de quantification.  Figure 6 gives a description of the Quantification Modification phase and its surrounding elements. In this figure, a more general case than that described in FIG. 5 is considered. In FIG. 6, it is considered that the quantization modification can be done on the color component signals traversing the Pretreatment entity as appearing in FIG. FIG. 3, just as it can be done on the input color component signals of the two spatial and temporal prediction entities, or it can be done on the signals to be processed by the following compression steps (DCT, DWT or other type of equivalent transformation, quantization, reorganization, entropy coding) as described in Figure 5, etc. In FIG. 6, the Quantization Editing Signal Selection and Selection (Q) entity receives three signals: a signal (16), this signal being generally the signal Image 2) according to FIG. (17) on which the quantization modification will be performed and the signal (20) carrying analysis results performed or additional commands which will be described in more detail in the algorithm examples applied to the modification of the quantization. Entity (J) is the entity that performs Quantification Modification. This entity (J) therefore receives the signal (17) already mentioned and the signal (22) carrying the choice of quantization changes from the entity (H). The entity (K) is a simple Multiplexer, controlled through the signal (21) from the entity (H). Thus, the entity (K) will switch to the output (signal (19)) either the modified quantization signal (18) or the original signal (17). This switching takes place at the pixel rate. At the output, therefore, there is the signal (19) to be processed by the following entities and the signal (22) carrying the quantization modification choices.

De façon générale, la modification de quantification s'opère au moins sur les signaux résiduels des pixels situés dans les zones concernées. Ainsi, pour les zones prédits spatialement, les pixels qui servent de prédicteurs aux pixels voisins peuvent ne pas être affectées par la modification de quantification.  In general, the quantization modification takes place at least on the residual signals of the pixels situated in the zones concerned. Thus, for spatially predicted areas, the pixels that predict the neighboring pixels may not be affected by the quantization change.

D'autre part, il n'est pas exclu que le signal (17) soit le même que le signal (16). Dans l'exemple détaillé ci- dessus et reprenant la figure 5, les signaux (16) et (17) sont distincts.  On the other hand, it is not excluded that the signal (17) is the same as the signal (16). In the example detailed above and repeating FIG. 5, the signals (16) and (17) are distinct.

Notons que l'information véhiculée par le signal (22) est reprise pour être insérée éventuellement dans le flux binaire en sortie de l'entité de Tramage tel que montré dans la figure 3, et ce en tant que partie de l'information supplémentaire tel que décrit précédemment, de même que ce signal (22) peut être utilisé par d'autres entités de la compression.  Note that the information conveyed by the signal (22) is taken again to be inserted possibly in the bit stream at the output of the Screening entity as shown in FIG. 3, and this as part of the additional information such as as previously described, just as this signal (22) can be used by other entities of the compression.

Notons aussi, que l'entité (H) est une partie de l'entité de Contrôle montrée dans la figure 3.  Note also that the entity (H) is a part of the Control entity shown in Figure 3.

On définit maintenant plus précisément les moyens 35 d'analyses qui amèneront à prendre les décisions de formation de zones dans l'image et de modification de quantification (soit-elle la quantification de l'image, c'est-à-dire la résolution spatiale, ou la quantification du pixel), modification de quantification sur chacune desdites zones, moyens d'analyses les mieux adaptés au signal, à l'application et au contexte.  The analysis means which will lead to the decisions of zone formation in the image and quantification modification (ie, the quantification of the image, that is to say the resolution spatial, or quantization of the pixel), quantization modification on each of said zones, analysis means best suited to the signal, the application and the context.

De façon générale, la modification de quantification s'opère au moins sur les signaux résiduels des pixels situés dans les zones concernées. Ainsi, pour les zones prédits spatialement, les pixels qui servent de prédicteurs aux pixels voisins peuvent ne pas être affectées par la modification de quantification.  In general, the quantization modification takes place at least on the residual signals of the pixels situated in the zones concerned. Thus, for spatially predicted areas, the pixels that predict the neighboring pixels may not be affected by the quantization change.

Illustrés figures 7a et 7b, nous allons maintenant donner des exemples d'algorithmes pour la mise en uvre de l'invention afin de compléter la description pour l'homme du métier. Ces algorithmes reposent sur les normes de compression en vigueur telles les normes MPEG et H.26x.  Illustrated Figures 7a and 7b, we will now give examples of algorithms for the implementation of the invention to complete the description for the skilled person. These algorithms are based on current compression standards such as MPEG and H.26x.

Dans les systèmes de compression décrits dans les normes citées, les images sont découpées en blocs de tailles prédéfinies. Suivant des critères propres, le codeur décide pour chaque bloc du type de prédiction noté Type Pred et du mode noté Mode Pred pour cette prédiction qui sera opérée dessus.  In the compression systems described in the cited standards, the images are cut into blocks of predefined sizes. According to specific criteria, the coder decides for each block of the type of prediction noted Type Pred and mode noted Pred mode for this prediction that will be operated on.

D'autre part, l'estimateur de mouvement reçoit un signal vidéo. Il calcule pour les blocs devant être prédits temporellement l'erreur sur le bloc entre les pixels des potentiels blocs prédicteurs et les pixels du bloc courant. Il retient alors comme bloc prédicteur celui qui donne l'erreur minimum, qui sera noté Erreur Pred. Il en déduit le vecteur mouvement correspondant, qui sera noté MV.  On the other hand, the motion estimator receives a video signal. It calculates for the blocks to be predicted temporally the error on the block between the pixels of the potential predictor blocks and the pixels of the current block. It then retains as block predictor the one that gives the minimum error, which will be noted Pred error. He deduces the corresponding motion vector, which will be noted MV.

Pour les blocs intra-prédits spatialement, une erreur de prédiction qu'on notera aussi Erreur Pred est généralement calculée pour choisir parmi les différents modes de prédiction spatiale.  For spatially intra-predicted blocks, a prediction error that will also be noted Pred error is usually calculated to choose among the different spatial prediction modes.

Tel que nous l'avons décrit dans le mode de réalisation ci-dessus, le signal après être passé par la voie a) c'est-à-dire par les fonctions de modification de quantification et de remise à l'échelle ou bien par la voie b) c'est-à-dire par les fonctions de modification de quantification, de DCT, de quantification et de sa fonction inverse des coefficients et de remise à l'échelle, est reconstruit par l'entité (E). Le signal reconstruit suivant l'une de deux voies a) ou b) est comparé au signal original, et une erreur entre les deux signaux est calculée. Cette erreur sera notée Erreur a Posteriori.  As described in the above embodiment, the signal after passing through a) i.e. by quantization modification and rescaling functions or by the channel b), that is to say by the quantization modification functions, DCT, quantization and its inverse function of the coefficients and rescaling, is reconstructed by the entity (E). The reconstructed signal along one of two channels a) or b) is compared to the original signal, and an error between the two signals is calculated. This error will be noted Error Posteriori.

Ainsi, chaque bloc d'une image à un index temporel donné possède un jeu de variables que sont: Type Pred, Mode Pred, Erreur aPosteriori, Erreur Pred et MV, excepté les blocs intra pour lesquels la variable MV n'existe pas. Nous définissons pour Erreur a _Posteriori, Erreur Pred et MV des seuils respectivement S EaPi,S Ej et S MVk. Type Pred et Mode Pred ont quant à eux des valeurs discrètes définies dans les normes citées.  Thus, each block of an image at a given time index has a set of variables that are: Pred type, Pred mode, aPosteriori error, Pred and MV error, except intra blocks for which the MV variable does not exist. We define for Error a _Posteriori, Error Pred and MV thresholds respectively S EaPi, S Ej and S MVk. Pred type and Pred mode have meanwhile discrete values defined in the cited standards.

Variable Bloc Variable Zone Seuils Remarque MV Valeur moyenne des S_MVk La moyenne s'effectue par variables des blocs dans la rapport au nombre de zone pixels inclus dans les blocs dans la zone Erreur_Pred Valeur moyenne des SE./ La moyenne s'effectue par variables des blocs dans la rapport au nombre de zone pixels inclus dans les blocs dans la zone Erreur_a_Posteriori Valeur moyenne des S_EaPi La moyenne s'effectue par variables des blocs dans la rapport au nombre de zone pixels inclus dans les blocs dans la zone Type_Pred Identique On suppose que les zones ne sont formées que de blocs ayant le même Type_Pred Mode_Pred Identique On suppose que les zones ne sont formées que de blocs ayant le même Mode_Pred t Identique Index temporel  Variable Block Variable Area Threshold Remark MV Average value of S_MVk The average is made by variables of the blocks in the ratio to the number of zone pixels included in the blocks in the zone Error_Pred Average value of SE./ The average is carried out by variables of blocks in the ratio to the number of zone pixels included in the blocks in the zone_a_Posteriori average value of S_EaPi The average is made by variables of the blocks in the ratio to the number of zone pixels included in the blocks in the zone Type_Pred Identical One supposes that the zones are only formed of blocks having the same Type_Pred Mode_Pred Identical It is assumed that the zones are formed only of blocks having the same Mode_Pred t Identical Temporal index

Tableau 1Table 1

Le tableau 1 ci-dessus est un tableau récapitulatif des variables d'un bloc et de leurs valeurs prises pour la zone formée de bloc(s). D'autres possibilités peuvent être prévues telles remplacer les valeurs moyennes par des sommes, auquel cas les seuils auxquels seront comparées les valeurs obtenues par ces sommes devront être multipliés par le facteur correspondant au nombre de pixels inclus dans les blocs dans la zone.  Table 1 above is a summary table of the variables of a block and their values taken for the zone formed of block (s). Other possibilities may be provided such replace the average values by sums, in which case the thresholds at which the values obtained by these sums will be compared will have to be multiplied by the factor corresponding to the number of pixels included in the blocks in the zone.

Enfin, en plus de ces variables, on considère des actions extérieures telles les caractéristiques de l'écran du terminal cible, des configurations de l'utilisateur (par exemple l'opérateur), une commande issue par l'entité de contrôleur de débit, des requêtes du réseau pour plus au moins de débit et plus généralement des informations du contexte de l'application. On définit pour ces paramètres extérieurs des valeurs discrètes.  Finally, in addition to these variables, external actions are considered, such as the characteristics of the screen of the target terminal, user configurations (for example the operator), a command issued by the debit controller entity, requests from the network for more or less debit and more generally context information of the application. For these external parameters, discrete values are defined.

Les diagrammes des figure 7a et 7b décrivent un exemple d'algorithme de formation de zone. Cet algorithme est un algorithme de renouvellement automatique de zone dans chaque image. Le principe de cet algorithme est que les blocs voisins spatialement sont rassemblés dans une zone si leurs Erreur Preds et leurs MVs sont proches en valeurs.  The diagrams in FIGS. 7a and 7b describe an example of zone formation algorithm. This algorithm is an automatic zone renewal algorithm in each image. The principle of this algorithm is that neighboring blocks spatially are gathered in a zone if their Error Preds and their MVs are close in values.

Pour cela, les blocs sont scannés dans le sens naturel. Un bloc peut avoir comme voisines plusieurs zones formées d'au moins un bloc.  For this, the blocks are scanned in the natural sense. A block may have as neighbors several areas formed of at least one block.

Arrivé à un bloc donné, soit on force l'inclusion du bloc dans la zone qui se situe à sa gauche, ou à défaut dans la zone qui se situe au-dessus, soit on applique l'algorithme décrit dans ce qui suit.  Arrived at a given block, one forces the inclusion of the block in the zone which is on his left, or in default in the zone which is above, or one applies the algorithm described in what follows.

Si ce bloc est un bloc prédit temporellement, le processus suivant (figure 7a) est appliqué : pour chaque zone, on vérifie d'abord que la zone et le bloc ont le même type et mode de prédiction. Dans le cas affirmatif, on calcule la différence entre le vecteur MV du bloc en cours et le vecteur MV de la zone, et la différence entre Erreur Pred du bloc en cours et Erreur Pred de la zone. On compare la différence des erreurs avec un seuil S E1: si la différence dépasse ce seuil, on passe à la zone voisine suivante, sinon on continue le processus. On compare alors la différence des MVs avec un premier seuil S MV1, : si cette différence ne dépasse pas le seuil, on inclut le bloc dans la zone et on met à jours les variables de cette zone en calculant les valeurs moyennes; si cette différence dépasse le seuil, on compare les signes de MV de la zone et de MV du bloc: si les signes sont différents, on passe à la zone voisine suivante, sinon on continue le processus. On compare alors la différence des MVs avec un seuil S MV2: si la différence dépasse ce seuil, on passe à la zone voisine suivante, sinon on inclut le bloc dans la zone et on met à jour les variables de cette zone en calculant les valeurs moyennes. Une fois une zone répondant aux critères d'inclusion trouvée, on a le choix de passer au bloc suivant ou bien de tester toutes les zones voisines et d'appliquer alors l'option décrite dans le paragraphe qui suit.  If this block is a temporally predicted block, the following process (figure 7a) is applied: for each zone, we first check that the zone and the block have the same type and prediction mode. In the affirmative case, the difference between the vector MV of the current block and the vector MV of the zone is calculated, and the difference between the Pred error of the current block and the Pred error of the zone. We compare the difference of the errors with a threshold S E1: if the difference exceeds this threshold, we go to the next neighboring zone, otherwise we continue the process. The difference of the MVs is then compared with a first threshold S MV1, if this difference does not exceed the threshold, the block is included in the zone and the variables of this zone are updated by calculating the average values; if this difference exceeds the threshold, we compare the signs of MV of the zone and MV of the block: if the signs are different, we go to the next neighboring zone, otherwise we continue the process. We compare then the difference of the MVs with a threshold S MV2: if the difference exceeds this threshold, we go to the next neighboring zone, otherwise we include the block in the zone and we update the variables of this zone by calculating the values averages. Once a zone meeting the inclusion criteria has been found, it is possible to go to the next block or to test all the neighboring zones and then apply the option described in the following paragraph.

Dans le cas où le bloc donné n'est pas un bloc prédit temporellement mais un bloc intra-prédit spatialement, la partie d'algorithme décrite dans la figure 7b est appliquée: le bloc donné est inclus dans toute zone voisine ayant le même type et le même mode de prédiction que ce bloc, si la différence de Erreur Pred du bloc et de Erreur Pred de la zone ne dépasse pas S E2 en valeur absolu.  In the case where the given block is not a temporally predicted block but a spatially predicted block, the algorithm part described in FIG. 7b is applied: the given block is included in any neighboring zone having the same type and the same prediction mode as this block, if the difference of Pred Prediction of the block and Pred error of the zone does not exceed S E2 in absolute value.

Une option non décrite dans les figures 7a et 7b prévoit de choisir parmi les zones qui répondent aux critères d'inclusion du bloc traité la zone pour laquelle la valeur Erreur Pred est la plus faible. Pour implémenter cette option, par exemple il suffira lors du traitement d'un bloc, d'enregistrer les données relatives à chaque zone répondant aux critères d'inclusion et de comparer ensuite les valeurs des Erreur Pred et prendre la bonne décision d'inclusion. Si plus d'une zone répond à ce critère, alors ces zones ne formeront plus qu'une nouvelle zone incluant de plus le bloc traité, et les variables de cette zone seront mises à jour en calculant les valeurs moyennes.  An option not described in FIGS. 7a and 7b provides for selecting from the zones that meet the inclusion criteria of the processed block the zone for which the Pred error value is the lowest. To implement this option, for example, it will suffice during the processing of a block, to record the data relating to each area meeting the inclusion criteria and then to compare the values of the Pred errors and to make the right inclusion decision. If more than one zone meets this criterion, then these zones will only form a new zone including the processed block, and the variables of this zone will be updated by calculating the average values.

Enfin, tout bloc qui ne trouve pas de zone voisine répondant aux critères d'inclusion forme une nouvelle zone.  Finally, any block that does not find a neighboring area that meets the inclusion criteria forms a new area.

On décrit maintenant un exemple d'algorithme de modification de quantification par zones.  An example of a zone quantization modification algorithm is now described.

On rappelle d'abord qu'il existe trois types d'informations utiles à cet algorithme: l'information temporelle de la zone c'est-à-dire l'index de l'image à laquelle elle appartient, les variables calculées pour une zone telles que données dans le tableau 1 et les actions extérieures.  We first recall that there are three types of information useful for this algorithm: the temporal information of the zone that is to say the index of the image to which it belongs, the variables calculated for a given area as given in Table 1 and external actions.

Pour une zone donnée, on choisit une nouvelle quantification suivant l'index temporel de la zone, les actions extérieures et le résultat des tests de comparaison des variables Type Pred, Mode Pred, MV et Erreur Pred avec les valeurs discrètes que les deux premières variables sont susceptibles de prendre ou avec les seuils respectifs S MVk et S Ej pour les deux dernières variables. Il est bien entendu que la nouvelle quantification choisie peut être la même que celle d'origine.  For a given zone, we choose a new quantization according to the temporal index of the zone, the external actions and the result of comparison tests of the variables Pred type, Pred mode, MV and Pred error with the discrete values that the first two variables are likely to take or with the respective thresholds S MVk and S Ej for the last two variables. It is understood that the new quantization chosen may be the same as the original one.

Une fois cette première étape effectuée pour une zone, on calcule Erreur a Posteriori que l'on compare avec les seuils S EaPi. Suivant le résultat de ces tests, soit l'on décide de ne pas modifier le choix de nouvelle quantification prise lors de la première étape, soit l'on décide de ne pas changer de quantification d'origine, soit enfin une nouvelle quantification est choisie. Dans ce dernier cas, on peut alors décider que le nouveau choix n'est pas définitif et décider de recalculer Erreur a _Posteriori et la comparer à nouveau avec les seuils S EaPi. Cette seconde étape peut être répétée un nombre de fois.  Once this first step is performed for a zone, we calculate Error a Posteriori that we compare with the thresholds S EaPi. Depending on the result of these tests, either we decide not to modify the choice of new quantification taken during the first step, or we decide not to change the original quantization, or else a new quantization is chosen. . In the latter case, we can then decide that the new choice is not definitive and decide to recalculate Error _Posteriori and compare it again with the thresholds S EaPi. This second step can be repeated a number of times.

Dans une variante à cet exemple d'algorithme de découpage en zones et à cet exemple d'algorithme de modification de quantifications par zone, il peut être décidé de ne pas appliquer un découpage en zones et/ou une modification de quantification par zone si le nombre d'images successives dans lesquelles des modifications de quantification ont été effectuées dépasse un certain seuil ou si le nombre d'images successives dans lesquelles des modifications de quantification ont été effectuées sur une zone dépasse un certain seuil.  In an alternative to this example of zoning algorithm and to this example of modification algorithm for zone quantization, it may be decided not to apply a zone division and / or a quantization modification by zone if the number of successive images in which quantization modifications have been made exceeds a certain threshold or if the number of successive images in which quantization modifications have been performed on an area exceeds a certain threshold.

Enfin, dans les cas où des variables indiquées dans le tableau ne sont pas utilisables, d'autres algorithmes peuvent être prévus, basé sur les mêmes principes de proximité spatiale et de caractéristiques de mouvement et d'énergie résiduelle.  Finally, in cases where variables indicated in the table are not usable, other algorithms may be provided, based on the same principles of spatial proximity and motion characteristics and residual energy.

Les décisions prises par les algorithmes décrits ci-dessus sont transmises ou stockées pour être utilisées éventuellement par d'autres fonctions de la compression.  The decisions made by the algorithms described above are transmitted or stored for possible use by other functions of the compression.

L'homme du métier comprendra enfin que le procédé faisant l'objet de cette invention ainsi que les différentes étapes le constituant peuvent être implémentés de manière matérielle et/ou logicielle, dans tout système de traitement de signal vidéo, de transmission de signal vidéo ou de stockage de signal vidéo. L'invention concerne plus particulièrement les systèmes où la compression ainsi que l'optimisation du signal vidéo par rapport aux écrans des terminaux sont primordiales.  Those skilled in the art will finally understand that the method that is the subject of this invention as well as the various steps constituting it can be implemented in a hardware and / or software way, in any video signal processing system, video signal transmission or video signal storage. The invention relates more particularly to systems where the compression as well as the optimization of the video signal with respect to the screens of the terminals are of primary importance.

Claims (15)

REVENDICATIONS 1. Procédé de codage d'un signal vidéo d'origine comprenant une succession temporelle d'images comprenant des données d'images quantifiées dans le domaine spatial, pour l'obtention d'un signal vidéo modifié, caractérisé en ce qu'il comprend les étapes consistant à : - recevoir ledit signal vidéo d'origine, - découper les images dudit signal vidéo en un 10 ensemble de zones d'image, - définir une nouvelle quantification des données d'images dans le domaine spatial, variable en fonction des zones dudit ensemble de zones, pour l'obtention d'un signal vidéo modifié.  A method of encoding an original video signal comprising a temporal succession of images comprising quantized image data in the spatial domain, for obtaining a modified video signal, characterized in that it comprises the steps of: - receiving said original video signal, - cutting the images of said video signal into a set of image areas, - defining a new quantization of the image data in the spatial domain, variable according to the zones of said set of zones, for obtaining a modified video signal. 2. Procédé de codage d'un signal vidéo d'origine selon la revendication 1, caractérisé en ce que ledit découpage des images est variable en fonction du numéro de l'image dans ladite succession temporelle d'images.  2. A method of encoding an original video signal according to claim 1, characterized in that said division of the images is variable according to the number of the image in said temporal succession of images. 3. Procédé de codage d'un signal vidéo d'origine selon la revendication 1, caractérisé en ce que ladite nouvelle quantification est variable en fonction du numéro de l'image dans ladite succession temporelle d'images.  3. A method of encoding an original video signal according to claim 1, characterized in that said new quantization is variable according to the number of the image in said temporal succession of images. 4. Procédé de codage d'un signal vidéo d'origine selon l'une quelconque des revendications 1 à 3, caractérisé en ce qu'il comprend en outre une étape d'analyse dudit signal vidéo d'origine, et en ce que ledit découpage et/ou ladite nouvelle quantification dépendent de ladite analyse.  4. A method of coding an original video signal according to any one of claims 1 to 3, characterized in that it further comprises a step of analyzing said original video signal, and in that said division and / or said new quantification depend on said analysis. 5. Procédé de codage d'un signal vidéo d'origine selon l'une quelconque des revendications 1 à 4, caractérisé en ce que ledit découpage et/ou ladite nouvelle quantification sont prédéterminés.  5. A method of coding an original video signal according to any one of claims 1 to 4, characterized in that said cutting and / or said new quantization are predetermined. 6. Procédé de codage d'un signal vidéo d'origine selon l'une quelconque des revendications 1 à 5, caractérisé en ce que ledit découpage et/ou ladite nouvelle quantification dépendent/dépend d'une action externe au procédé.  6. A method of coding an original video signal according to any one of claims 1 to 5, characterized in that said division and / or said new quantification depends / depends on an action external to the process. 7. Procédé de codage d'un signal vidéo d'origine selon la revendication 1, caractérisé en ce que lesdites images comprennent un ensemble de données numériques d'image échantillonnées en pixel au sein de ladite image, et en ce que ladite nouvelle quantification est un ré-échantillonnage de la résolution spatiale selon au moins une desdites données numériques d'images.  A method of encoding an original video signal according to claim 1, characterized in that said images comprise a set of pixel-sampled digital image data within said image, and that said new quantization is resampling the spatial resolution according to at least one of said digital image data. 8. Procédé de codage d'un signal vidéo d'origine selon la revendication 1, caractérisé en ce que lesdites images comprennent un ensemble de données numériques échantillonnées en pixel, et quantifiées sur un nombre de bits d'origine, et en ce que ladite nouvelle quantification est une nouvelle quantification dudit nombre de bits selon au moins une desdites données numériques d'images ou la manière de quantifier au moins une desdites données numériques d'images sur ces bits.  A method of coding an original video signal according to claim 1, characterized in that said images comprise a set of digital data sampled in pixels, and quantized over a number of original bits, and in that said new quantization is a new quantization of said number of bits according to at least one of said digital image data or the manner of quantizing at least one of said digital image data on these bits. 9. Procédé de codage d'un signal vidéo d'origine selon la revendication 1, caractérisé en ce que lesdites images comprennent un ensemble de données numériques échantillonnées en pixel, et quantifiées sur un nombre de bits d'origine, et en ce que ladite nouvelle quantification est une nouvelle quantification dudit nombre de bits selon au moins une desdites données numériques d'images ou la manière de quantifier au moins une desdites données numériques d'images sur ces bits, ainsi qu'un ré- échantillonnage de la résolution spatiale selon au moins une desdites données numériques d'images.  9. A method of coding an original video signal according to claim 1, characterized in that said images comprise a set of digital data sampled in pixels, and quantized over a number of original bits, and in that said new quantization is a new quantization of said number of bits according to at least one of said digital image data or the manner of quantizing at least one of said digital image data on these bits, as well as a resampling of the spatial resolution according to at least one of said digital image data. 10. Procédé de codage d'un signal vidéo d'origine selon l'une quelconque des revendications 7 à 9, caractérisé en ce que ledit ensemble de données numériques d'image correspond à des composantes couleurs.  A method of encoding an original video signal according to any one of claims 7 to 9, characterized in that said set of digital image data corresponds to color components. 11. Procédé de codage selon la revendication 1, caractérisé en ce que ladite étape de découpage comprend la création d'un ensemble ou une pluralité d'ensembles de pixels dans une image dudit signal vidéo, les pixels étant définis par leurs coordonnées spatiales.  11. Coding method according to claim 1, characterized in that said step of cutting comprises the creation of a set or a plurality of sets of pixels in an image of said video signal, the pixels being defined by their spatial coordinates. 12. Procédé de codage selon la revendication 1, caractérisé en ce que lesdites images du signal vidéo d'origine sont découpées en une pluralité de blocs de tailles prédéfinies, et en ce que lesdites zones d'image obtenues lors de l'étape de découpage correspondent à une pluralité desdits blocs adjacents.  Coding method according to claim 1, characterized in that said images of the original video signal are cut into a plurality of predefined size blocks, and in that said image areas obtained during the cutting step. correspond to a plurality of said adjacent blocks. 13. Procédé de codage selon la revendication 12, caractérisé en ce que lesdits blocs correspondent aux blocs MPEG ou H.26x.  13. Encoding method according to claim 12, characterized in that said blocks correspond to MPEG or H.26x blocks. 14. Appareil de codage d'un signal vidéo d'origine comprenant une succession temporelle d'images comprenant des données d'images quantifiées dans le domaine spatial, pour l'obtention d'un signal vidéo modifié, caractérisé en ce qu'il comprend un moyen pour recevoir ledit signal vidéo d'origine, un moyen pour découper les images dudit signal vidéo en un ensemble de zones d'image, un moyen pour générer une nouvelle quantification des données d'images dans le domaine spatial, variable en fonction des zones dudit ensemble de zones, pour l'obtention d'un signal vidéo modifié.  An apparatus for coding an original video signal comprising a temporal succession of images comprising quantized image data in the spatial domain, for obtaining a modified video signal, characterized in that it comprises means for receiving said original video signal, means for splitting the images of said video signal into a set of image areas, means for generating a new quantization of the image data in the spatial domain, variable according to the zones of said set of zones, for obtaining a modified video signal. 15. Support d'enregistrement sur lequel une série 5 d'images d'une scène vidéo codée selon procédé selon l'une quelconque des revendications 1 à 13, sont stockées.  Recording medium on which a series of images of a video scene encoded according to the method according to any one of claims 1 to 13, are stored.
FR0505036A 2004-11-23 2005-05-19 VIDEO COMPRESSION BY MODIFICATION OF QUANTIFICATION BY ZONES OF IMAGES Pending FR2878384A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0505036A FR2878384A1 (en) 2004-11-23 2005-05-19 VIDEO COMPRESSION BY MODIFICATION OF QUANTIFICATION BY ZONES OF IMAGES
PCT/FR2005/050982 WO2006056720A1 (en) 2004-11-23 2005-11-23 Video compression involving modification of quantisation by image areas

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0412425A FR2878395A1 (en) 2004-11-23 2004-11-23 Video signal processing method for use in e.g. camera, involves clipping video signal into image areas, modifying quantization of three color components of signal by area of signal, and adding additional information into modified signal
FR0505036A FR2878384A1 (en) 2004-11-23 2005-05-19 VIDEO COMPRESSION BY MODIFICATION OF QUANTIFICATION BY ZONES OF IMAGES

Publications (1)

Publication Number Publication Date
FR2878384A1 true FR2878384A1 (en) 2006-05-26

Family

ID=36029454

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0505036A Pending FR2878384A1 (en) 2004-11-23 2005-05-19 VIDEO COMPRESSION BY MODIFICATION OF QUANTIFICATION BY ZONES OF IMAGES

Country Status (2)

Country Link
FR (1) FR2878384A1 (en)
WO (1) WO2006056720A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04266286A (en) * 1991-02-21 1992-09-22 Seiko Epson Corp Video signal compressor for television telephone set
US5162898A (en) * 1988-10-06 1992-11-10 Sharp Kabushiki Kaisha Color image data compressing apparatus and method
EP0541302A2 (en) * 1991-11-08 1993-05-12 AT&T Corp. Improved video signal quantization for an MPEG like coding environment
US5396292A (en) * 1992-02-26 1995-03-07 Nec Corporation Encoding apparatus for motion video signals
JPH0879757A (en) * 1994-08-31 1996-03-22 Sanyo Electric Co Ltd Moving image encoding device
US6490319B1 (en) * 1999-06-22 2002-12-03 Intel Corporation Region of interest video coding
WO2003107678A1 (en) * 2002-06-18 2003-12-24 Koninklijke Philips Electronics N.V. Video encoding method and corresponding encoding and decoding devices

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5162898A (en) * 1988-10-06 1992-11-10 Sharp Kabushiki Kaisha Color image data compressing apparatus and method
JPH04266286A (en) * 1991-02-21 1992-09-22 Seiko Epson Corp Video signal compressor for television telephone set
EP0541302A2 (en) * 1991-11-08 1993-05-12 AT&T Corp. Improved video signal quantization for an MPEG like coding environment
US5396292A (en) * 1992-02-26 1995-03-07 Nec Corporation Encoding apparatus for motion video signals
JPH0879757A (en) * 1994-08-31 1996-03-22 Sanyo Electric Co Ltd Moving image encoding device
US6490319B1 (en) * 1999-06-22 2002-12-03 Intel Corporation Region of interest video coding
WO2003107678A1 (en) * 2002-06-18 2003-12-24 Koninklijke Philips Electronics N.V. Video encoding method and corresponding encoding and decoding devices

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
MURCHING A M ET AL: "Adaptive subsampling of color images", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP) AUSTIN, NOV. 13 - 16, 1994, LOS ALAMITOS, IEEE COMP. SOC. PRESS, US, vol. VOL. 3 CONF. 1, 13 November 1994 (1994-11-13), pages 963 - 966, XP010146490, ISBN: 0-8186-6952-7 *
MUSMANN H G ET AL: "ADVANCES IN PICTURE CODING", PROCEEDINGS OF THE IEEE, IEEE. NEW YORK, US, vol. 73, no. 4, 1 April 1985 (1985-04-01), pages 523 - 548, XP002057834, ISSN: 0018-9219 *
PATENT ABSTRACTS OF JAPAN vol. 017, no. 057 (E - 1315) 4 February 1993 (1993-02-04) *
PATENT ABSTRACTS OF JAPAN vol. 1996, no. 07 31 July 1996 (1996-07-31) *
SINGHAL A ET AL: "SPATIALLY ADAPTIVE RENDERING OF IMAGES FOR DISPLAY ON MOBILE DEVICES", PROCEEDINGS. IS&T'S PICS CONFERENCE. ANNUAL CONFERENCE, PROCEEDINGS OF CONFERENCE OF THE SOCIETY FOR IMAGING SCIENCE AND TECHNOLOGY, XX, XX, 13 May 2003 (2003-05-13), pages 360 - 365, XP008047825 *

Also Published As

Publication number Publication date
WO2006056720A1 (en) 2006-06-01

Similar Documents

Publication Publication Date Title
US9565439B2 (en) System and method for enhancing data compression using dynamic learning and control
EP1766997B1 (en) Method and device for encoding a video image sequence into frequency subband coefficients of different spatial resolutions
JP2008503981A (en) Scalable video coding using grid motion estimation / compensation
JP2012521734A (en) Method and apparatus for selecting a filter
EP0866426A1 (en) Dynamic selection of image compression algorithm
EP3318061B1 (en) Method of image encoding and facility for the implementation of the method
EP1721470A1 (en) Method of encoding and decoding an image sequence by means of hierarchical temporal analysis
EP2279621B1 (en) Method of coding, decoding, coder and decoder
FR2951345A1 (en) METHOD AND DEVICE FOR PROCESSING A VIDEO SEQUENCE
EP3139608A1 (en) Method for compressing a video data stream
EP3198876B1 (en) Generation and encoding of residual integral images
EP3479572A1 (en) Method for intra-coding of a digital image and corresponding decoding method
EP1702473B1 (en) Method for coding an image sequence
EP3632103B1 (en) Methods and devices for coding and decoding a data stream representative of at least one image
HUE033524T2 (en) Method for compression of data
EP3202147B1 (en) Method of transcoding video data with fusion of coding units, computer program, transcoding module and telecommunications equipment associated therewith
FR2878384A1 (en) VIDEO COMPRESSION BY MODIFICATION OF QUANTIFICATION BY ZONES OF IMAGES
WO2018073523A1 (en) Method for coding and decoding image parameters, device for coding and decoding image parameters and computer programs corresponding thereto
CN116074528A (en) Video coding method and device, and coding information scheduling method and device
FR2907989A1 (en) Video stream's image part compressing method, involves making decision for coding or not-coding residue based on value of distortion associated to prediction, and rate and distortion associated to residue
FR2957744A1 (en) METHOD FOR PROCESSING A VIDEO SEQUENCE AND ASSOCIATED DEVICE
Nasiri Machine learning based optimization for VVC low bitrate coding
FR2916931A1 (en) METHOD OF SELECTING ENCODING DATA AND ENCODING DEVICE IMPLEMENTING SAID METHOD
FR2878395A1 (en) Video signal processing method for use in e.g. camera, involves clipping video signal into image areas, modifying quantization of three color components of signal by area of signal, and adding additional information into modified signal
WO2022175626A1 (en) Method for determining an image coding mode