FR2889381A1 - Procede et dispositif de determination de parametres de quantification dans une image - Google Patents
Procede et dispositif de determination de parametres de quantification dans une image Download PDFInfo
- Publication number
- FR2889381A1 FR2889381A1 FR0552345A FR0552345A FR2889381A1 FR 2889381 A1 FR2889381 A1 FR 2889381A1 FR 0552345 A FR0552345 A FR 0552345A FR 0552345 A FR0552345 A FR 0552345A FR 2889381 A1 FR2889381 A1 FR 2889381A1
- Authority
- FR
- France
- Prior art keywords
- pixels
- quantization parameter
- groups
- group
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/192—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
- H04N19/194—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/15—Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/152—Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/19—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/192—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
L'invention concerne un procédé pour déterminer un paramètre de quantification pour chaque groupe de pixels d'une image. Il comprend les étapes suivantes:- Calculer (10) un paramètre de quantification préliminaire (q<max>i) pour chacun des groupes de pixels de manière à minimiser la variation de qualité de reconstruction entre les groupes lorsque les paramètres de quantification préliminaires sont utilisés pour coder l'image en un second nombre de bits (Cmin) inférieur au nombre de bits de consigne (Cconsigne); et- Calculer (20) un paramètre de quantification final (q*i) inférieur ou égal au paramètre de quantification préliminaire (q<max>i) pour chacun des groupes de pixels en réallouant la différence de bits entre le premier et le deuxième nombre de bits aux groupes de pixels en fonction de leur contenu et de leur intérêt perceptuel.
Description
2889381 1
PROCEDE ET DISPOSITIF DE DETERMINATION DE PARAMETRES DE QUANTIFICATION DANS UNE IMAGE
1. Domaine de l'invention L'invention concerne un dispositif et un procédé de détermination de paramètres de quantification pour chaque groupe de pixels d'une image utilisant une information sur l'intérêt perceptuel de chacun des groupes de pixels. Ces paramètres de quantification sont utilisés par la suite pour coder l'image avec un nombre de bits Cconsigne.
2. Etat de l'art La compression sélective permet de faire varier localement le débit dans une image en répartissant un nombre de bits Cconsigne de manière non homogène dans l'image afin d'améliorer la qualité de l'image reconstruite ou qualité de reconstruction, i.e. de l'image codée puis décodée. Par exemple, dans le cas des normes de codage vidéo MPEG2 et MPEG4, le paramètre de quantification utilisé pour coder chaque image peut varier dans une même image d'un bloc de pixels à l'autre, par exemple d'un macrobloc (bloc de 16 pixels par 16 pixels) à l'autre. De cette manière, les régions d'intérêt de l'image peuvent être codées avec une qualité de reconstruction supérieure à celle des régions de non intérêt en leur allouant davantage de bits, i.e. en leur associant un paramètre de quantification plus faible. Dans le cas d'une application de vidéo conférence, l'arrière-plan est considéré comme une région de non intérêt tandis que la tête et les épaules du locuteur sont considérées comme des régions d'intérêt. Ainsi, l'allocation non homogène du nombre de bits permet d'améliore r globalement la qualité de reconstruction perçue en allouant davantage de bits aux blocs de pixels appartenant au visage ou aux épaules du locuteur qu'à ceux appartenant à l'arrière-plan.
Dès lors, il est nécessaire d'identifier dans l'image les régions d'intérêt et de leur allouer un plus grand nombre de bits pour les coder. L'identification des régions d'intérêt peut être basée par exemple sur une modélisation de l'attention visuelle préattentive ( computational modelization of bottom-up visual selective attention en anglais). Une telle modélisation est décrite dans un article de O. Le Meur et al. intitulé "Performance assessment of a visual 2889381 2 attention system entirely based on a human vision modeling" et publié dans les actes de la conférence ICIP d'octobre 2004 ainsi que dans la demande de brevet européen EP 1 544 792 publiée en juin 2005.
Comme indiqué précédemment, une fois les régions d'intérêt identifiées, un plus grand nombre de bits leur est alloué pour les coder afin d'améliorer leur qualité de reconstruction. Les solutions classiques permettent une allocation de bits en adaptant localement le paramètre de quantification en fonction de l'intérêt perceptuel des régions. Elles introduis ent cependant de nombreux défauts visuels spatio-temporels notamment dans les régions de non intérêts, par exemple dans l'arrière- plan. Ces défauts visuels sont gênants car ils attirent l'oeil de l'observateur et créent donc des points de fixation dans l'image qui diminuent la qualité de reconstruction perçue.
3. Résumé de l'invention L'invention a pour but de pallier tout ou partie de ces inconvénients. A cet effet, l'invention propose un procédé de détermination d'un paramètre de quantification pour chaque groupe de pixels d'une image permettant de garantir une qualité de reconstruction minimale sur toutes les régions de l'image, et notamment sur les zones de non intérêt.
L'invention concerne un procédé pour déterminer un paramètre de quantification pour chaque groupe de pixels d'une image, les paramètres de quantification étant utilisés pour coder l'image en un premier nombre de bits (Cconsigne) correspondant au nombre de bits nécessaires pour coder l'image avec un pas de quantification de consigne (qconsigne). Le procédé comprend les étapes suivantes: Calculer un paramètre de quantification préliminaire (gma.) pour chacun des groupes de pixels (MB i) de manière à minimiser la variation de qualité de reconstruction entre les groupes lorsque les paramètres de quantification préliminaires sont utilisés pour coder l'image en un second nombre de bits (Cmin) inférieur au premier nombre de bits (Cconsigne); et Calculer un paramètre de quantification final (qi) inférieur ou égal au paramètre de quantification préliminaire (gmax) pour chacun des 2889381 3 groupes de pixels en réallouant la différence de bits (Cconsigne - Cmin) entre le premier et le deuxième nombre de bits aux groupes de pixels en fonction de leur contenu et de leur intérêt perceptuel.
Selon une caractéristique particulière, la différence de bits (Cconsigne Cmin) entre le premier et le deuxième nombre de bits est réallouée aux groupes de pixels proportionnellement à leur intérêt perceptuel, i.e. que le nombre de bits réalloué et la valeur de l'intérêt perceptuel varient dans le même sens.
Préférentiellement, l'intérêt perceptuel d'un groupe de pixels est caractérisé par une valeur de saillance calculée pour ce groupe de pixels.
Selon une variante, l'étape de calcul du paramètre de quantification préliminaire (gmax) est précédée d'une étape associant un ensemble de points à chacun des groupes de pixels, chaque point comprenant une valeur de paramètre de quantification, un nombre de bits nécessaires au codage du groupe de pixels avec le paramètre de quantification et une valeur de distorsion associée.
Avantageusement, l'étape de calcul des paramètres de quantification préliminaire (gma.) comprend les étapes suivantes: a. Calculer, pour chacun des groupes de pixels (MBi), une valeur de distorsion (dv(i,ginit)) correspondant au codage du groupe de pixels avec un paramètre de quantification initial (ginit) inférieur au paramètre de quantification de consigne (qconsigne); b. Calculer, pour l'image, une valeur de variance courante (6 2) de la distorsion correspondant au codage des groupes de pixels de l'image avec le paramètre de quantification initial (ginic) ; c. Identifier un premier ensemble de groupes de pixels correspondant aux N groupes de pixels ayant les valeurs de distorsion les plus petites et un deuxième ensemble de groupes de pixels correspondant aux N groupes de pixels ayant les valeurs de distorsion les plus grandes, N étant un entier prédéterminé ; d. Augmenter d'une valeur n les paramètres de quantification associés aux groupes de pixels du premier ensemble et diminuer d'une valeur n 2889381 4 les paramètres de quantification associés aux groupes de pixels du deuxième ensemble, les paramètres de quantification associés à chacun des groupes de pixels autres que ceux appartenant aux premier et deuxième ensembles restant inchangés, n étant un entier prédéterminé ; e. Recalculer pour l'image une nouvelle valeur de variance (6v2) de la distorsion correspondant au codage des groupes de pixels de l'image avec les paramètres de quantification à l'issue de l'étape d, la valeur de variance courante devenant une valeur de variance précédente et la nouvelle valeur de variance devenant la valeur de variance courante; et f. Si la valeur absolue de la différence entre la valeur de variance courante et la valeur de variance précédente est supérieure à un seuil (e) retourner à l'étape c, sinon affecter, pour chacun des groupes de pixels, la valeur du paramètre de quantification issu de l'étape c au paramètre de quantification préliminaire (gmax) de ce groupe.
Préférentiellement, l'entier N est la partie entière du produit de M par K, où K est le nombre de groupes de pixels dans l'image et où M est un nombre compris entre 0 et 1.
Avantageusement, l'étape de calcul des paramètres de quantification finaux (qi) comprend les étapes suivantes: a. Calculer, pour chacun des groupes de pixels (MB;), un paramètre X(i3O), dit paramètre de débit- distorsion initial, selon la formule suivante: X(i3O) = D(i, q) D(i, gmax +1) R(i,gm +1) R(i,gm) où : - gmax est le paramètre de quantification préliminaire associé au groupe de pixel (MB;) d'indice i; - D(i,A) est une valeur de distorsion perceptuelle correspondant au codage du groupe de pixels MB; avec le paramètre de quantification A; et - R(i, A) est le nombre de bits nécessaires au codage du groupe de pixels d'indice i avec le paramètre de quantification A. 2889381 5 b. Déterminer la valeur maximale des paramètres de débit-distorsion associé à chacun des groupes de pixels; c. Diminuer d'une valeur m le paramètre de quantification associé au groupe de pixels d'indice io ayant le paramètre de débit-distorsion maximal, dit groupe identifié, les paramètres de quantification associés à chacun des groupes de pixels autres que le groupe identifié restant inchangés, m étant une entier prédéterminé; d. Calculer la différence entre le nombre de bits nécessaire au codage du groupe identifié avec le paramètre de quantification du groupe identifié calculé à l'étape c et le nombre de bits nécessaire au codage du groupe identifié avec le paramètre de quantification du groupe identifié avant l'étape c, cette différence étant appelée nombre de bits supplémentaires; e. Soustraire le nombre de bits supplémentaires de la différence de bits (Cconsigne - Cmin) ; f. Recalculer pour le groupe identifié le paramètre de débit-distorsion selon la formule suivante: D(i, QP(io, k)) D(io, QP(io, k + 1)) R(io, QP(io,k + 1)) R(io, QP(io, k)) où : - D(io,A) est la valeur de distorsion perceptuelle correspondant au codage du groupe identifié avec le paramètre de quantification A; - R(i, A) est le nombre de bits nécessaires au codage du groupe identifié avec le paramètre de quantification A; et - QP(io,k) est le paramètre associé au groupe identifié à l'itération k précédente et QP(io,k+l) est le paramètre de quantification calculé à l'itération k+1.
Si la différence de bits (Cconsigne - Cmin) est positive retourner à l'étape b, sinon affecter, pour chacun des groupes de pixels, la valeur du paramètre de quantification issu de l'étape c au paramètre de quantification final (qi) de ce groupe.
Avantageusement, la distorsion perceptuelle D(i,gi) associée à un groupe de pixels d'indice i codé avec le paramètre de quantification qi est g 2889381 6 déduite d'une valeur de distorsion classique d/(i,gi) selon l'une des formules suivantes: - D(i,gi) = dv(i,gi) *s(i) ; ou -D(i,gi) = dv(i,gi)*sp(i).
où - s(i) représente une valeur caractérisant l'intérêt perceptuel du groupe de pixels d'indice i; - p est un entier positif; et - * est l'opérateur de multiplication.
L'invention concerne également un dispositif pour déterminer un paramètre de quantification pour chaque groupe de pixels d'une image, les paramètres de quantification étant utilisés pour coder l'image en un premier nombre de bits (Cconsigne) correspondant au nombre de bits nécessaires pour coder l'image avec un pas de quantification de consigne (qconsigne). Le dispositif comprend les moyens suivants: des moyens pour calculer un paramètre de quantification préliminaire (gmax) pour chacun des groupes de pixels (MBi) de manière à minimiser la variation de qualité de reconstruction entre les groupes lorsque les paramètres de quantification préliminaires sont utilisés pour coder l'image en un second nombre de bits (Cmin) inférieur au premier nombre de bits (Cconsigne); et des moyens pour calculer un paramètre de quantification final (qi) inférieur ou égal au paramètre de quantification préliminaire (ex) pour chacun des groupes de pixels en réallouant la différence de bits (Cconsigne - Cmin) entre le premier et le deuxième nombre de bits aux groupes de pixels en fonction de leur contenu et de leur intérêt perceptuel.
Enfin, l'invention concerne un produit programme d'ordinateur qui comprend 30 des instructions de code de programme pour l'exécution des étapes du procédé lorsque le programme est exécuté sur ordinateur.
2889381 7 4. Listes des figures L'invention sera mieux comprise et illustrée au moyen d'exemples de modes de réalisation et de mise en oeuvre avantageux, nullement limitatifs, en référence aux figures annexées sur lesquelles: la figure 1 illustre un procédé de détermination de paramètre de quantification selon l'invention; la figure 2 illustre une courbe débit-distorsion associée à un groupe de pixels d'indice i; la figure 3 représente deux histogrammes de qualité de reconstruction à deux itérations différentes du procédé selon l'invention; et la figure 4 illustre un dispositif selon l'invention.
5. Description détaillée de l'invention
L'invention concerne un procédé de détermination de paramètres de quantification dans une image qui utilise des informations sur le contenu de cette image, plus précisément des informations, telles que par exemple des valeurs de saillance, caractérisant l'intérêt perceptuel d es régions ou d es groupes de pixels (par exemple bloc ou macrobloc) de l'image. Une image comprend des pixels à chacun desquels est associé au moins une valeur de luminance. Le procédé peut être appliqué à une seule image ou une séquence de plusieurs images. Chaque image est divisée en K groupes de pixels, MB;, iE [1,K]. Chaque groupe de pixels peut être un macrobloc ou plus généralement un bloc de I pixels par J pixels. On peut également envisager des groupes de pixels de forme quelconque.
L'invention nécessite de connaître la qualité de reconstruction d'une image ou d'un MB;. A cet effet, plusieurs métriques de qualité de reconstruction peuvent être utilisées pour estimer la distorsion entre une image source (respectivement un MB; source) et l'image reconstruite correspondante (respectivement le MB; reconstruit correspondant), i.e. l'image source codée avec un paramètre de quantification donné puis décodée (respectivement le MB; codé puis décodé). Parmi les techniques utilisées pour calculer une distorsion classique, la somme des erreurs au carré (SSE 10 2889381 8 Sum of Square Errors en anglais) est définie pour une image (respectivement pour un MB;) comme la somme sur cette image (respectivement sur ce MB;) des différences au carré entre la valeur de luminance associée au pixel de l'image originale et la valeur de luminance associée au pixel de mêmes coordonnées dans l'image reconstruite. Une autre technique de calcul (MSE Mean Square Error en anglais) est définie comme étant égal à la SSE divisée par le nombre d'échantillons utilisés (i.e. nombre de pixels). L'invention utilise également des distorsions perceptuelles, i.e. qui tiennent compte d'informations sur le contenu de l'image et plus précisément sur l'intérêt perceptuel des MB; de l'image. Ces différentes distorsions perceptuelles peuvent être déduites des distorsions classiques selon différentes formules. Ainsi, une distorsion perceptuelle pour un MB; référencée D(i,q;) peut être déduite d'une distorsion classique référencée d/(i,q;) par les formules suivantes: D(i,q;) = dv(i,q;)*s(i) ou D(i,q;) = dv(i,q;)*sp(i), où : - s(i) représente une valeur comprise entre 0 et 1 caractérisant l'intérêt perceptuel du MB; ; - p est un entier positif (par exemple p=2) ; - (1 est le paramètre de quantification utilisé pour coder l'image; et - * est l'opérateur de multiplication.
Ces fonctions sont des exemples et d'autres fonctions peuvent être utilisées. Pour un MB; avec une valeur s(i) égale à 1, la distorsion classique d/(i) sur ce groupe de pixels est conservée. Pour un MB; ayant une faible valeur s(i), la distorsion classique est fortement diminuée. Avantageusement, cette valeur s(i) est une valeur de saillance. Dans ce cas, une carte de saillance est calculée pour une image. Une carte de saillance est une représentation topographique bidimensionnelle du degré de saillance de chaque pixel de l'image. Cette carte est normalisée par exemple entre 0 et 1 mais peut également l'être entre 0 et 255. La carte de saillance fournit ainsi une valeur de saillance S(x,y) par pixel (où (x,y) sont les coordonnées d'un pixel de l'image) qui caractérise l'intérêt perceptuel de ce pixel. Plus la valeur de S(x,y) est élevée, plus le pixel de coordonnées (x,y) est pertinent d'un point de vue 2889381 9 perceptuel. Afin d'obtenir une valeur de saillance s(i) par MB;, on calcule par exemple la valeur moyenne des valeurs de saillance S(x,y) associées à chacun des pixels d'un MB;. La valeur médiane peut également être utilisée au lieu de la valeur moyenne pour représenter le MB;. Une carte de saillance associée à une image donnée peut être obtenue par le procédé comprenant les étapes suivantes: - projection dans un espace de couleur psycho-visuel de l'image selon la composante de luminance dans le cas d'une image monochrome et selon la composante de luminance et selon chacune des composantes de chrominance dans le cas d'une image colorée; dans la suite on considèrera que l'image traitée est une image colorée; décomposition perceptuelle en sous-bandes des composantes projetées (une composante de luminance et deux composantes de chrominance) dans le domaine fréquentiel selon un seuil de visibilité de l'oeil humain; les sous-bandes sont obtenues en partageant le domaine fréquentiel selon la fréquence spatiale radiale et l'orientation (sélectivité angulaire) ; chaque sous-bande peut être considérée comme l'image neuronale correspondant à une population de cellules visuelles accordées sur un intervalle de fréquences spatiales et une orientation particulière; extraction des éléments saillants des sous-bandes relative à la composante de luminance et relative à chacune des composantes de chrominance, i.e. les informations les plus importantes des sous-bandes; - amélioration des contours des éléments saillants dans chaque sous-bande relative à la composante de luminance et relative à chacune des 25 composantes de chrominance; - calcul d'une carte de saillance pour la luminance à partir des contours améliorés des éléments saillants de chaque sous-bande relative à la composante de luminance; - calcul d'une carte de saillance pour chacune des composantes de 30 chrominance à partir des contours améliorés des éléments saillants de chaque sous-bande relative aux composantes de chrominance; et 2889381 10 - génération d'une carte de saillance finale à partir des cartes de saillance de luminance et de chrominance.
Cette méthode est décrite dans la demande de brevet européen EP 1 544 792 publiée en juin 2005. L'article d'O. Le Meur et al. intitulé "Performance assessment of a visual attention system entirely based on a human vision modeling" et publié dans les actes de la conférence ICIP d'octobre 2004 détaille également le modèle de saillance. D'autres méthodes peuvent être utilisée pour caractériser l'intérêt perceptuel d'un MBi.
Selon un mode de réalisation préféré, illustré par la figure 1, le procédé se décompose en 2 étapes référencées 10 et 20. Sur la figure 1, les modules représentés sont des unités fonctionnelles, qui peuvent ou non correspondre à des unités physiquement distinguables. Par exemple, ces modules ou certains d'entre eux peuvent être regroupés dans un unique composant, ou constituer des fonctionnalités d'un même logiciel. A contrario, certains modules peuvent éventuellement être composés d'entités physiques séparées. L'objectif du procédé est d'atteindre un compromis satisfaisant entre la qualité de reconstruction des régions d'intérêt par rapport aux régions de non intérêt de l'image de manière à améliorer la qualité de reconstruction globale perçue sans introduire d'autres défauts comme par exemple des défauts spatio-temporels dans le cas d'une séquence d'images. A cet effet, les étapes 10 et 20 du procédé consistent à répartir un nombre de bits de consigne Cconsigne entre les groupes de pixels MBi d'une image, dite image courante, en fonction de leur intérêt perceptuel caractérisé, par exemple, par une valeur de saillance s(i) et en utilisant éventuellement des courbes de débit- distorsion associées à chaque MBi. Plus précisément, elles consistent à associer à chaque groupe de pixels MBi dans l'image courante un paramètre de quantification final qi. Dans le cas d'une séquence d'image, les étapes 10 et 20 peuvent être appliquées successivement sur toutes les images de la 30 séquence.
Le nombre Cconsigne est un paramètre d'entrée du procédé et correspond au nombre de bits alloué à l'image courante pour la coder. Ce nombre peut, par exemple, être fourni par l'utilisateur du procédé en fonction de l'application.
2889381 11 Dans le cas d'une séquence d'images, ce nombre de bits Cconsigne p eut également être déterminé par un procédé de régulation de débit classique comme celui défini dans le document ISO/IEC JTC1 /SC29/WG11, Test mode/ 5, 1993. Ce nombre peut varier notamment en fonction du type de l'image courante(par exemple image intra, image prédite). En effet, un plus grand nombre de bits est nécessaire au codage d'une image de type intra (i.e. une image d'une séquence d'images codée sans référence aux autres images de la séquence) que pour une image codée de type prédite (i.e. une image d'une séquence d'images codée par référence à une autre image de la séquence).
Le nombre de bits de consigne Cconsigne correspond au nombre de bits nécessaire pour coder l'image courante avec un unique paramètre de quantification qconsigne ou avec un paramètre différent pour chaque MBi. Pour des raisons de clarté, un seul paramètre qconsigne sera utilisé ici pour décrire l'invention. La valeur de qconsigne référencée sur la figure 2 peut être fournie directement par le procédé de régulation de débit indiqué plus haut ou bien peut être déterminée à partir de la valeur de Cconsigne et d'une courbe de débit-distorsion associée à l'image courante telle que celle illustrée par la figure 2 pour un MBi.
La génération d'une courbe de débit-distorsion consiste à associer à chaque paramètre de quantification dans un intervalle donné (par exemple, [0 -31] pour MPEG-2 et [0-51] pour MPEG-4 AVC) spécifié par exemple par la norme de codage une valeur de distorsion et un coût de codage (i.e. un nombre de bits). Une telle courbe peut être associée à une image ou à un MBi. Une courbe de débit-distorsion peut être fournie par des moyens externes ou bien générée comme suit pour un MBi. La même technique peut être utilisée pour générer la courbe de débit-distorsion associée à une image. Une technique pour calculer les points 30 de la courbe de débitdistorsion consiste à coder chaque MBi avec plusieurs paramètres de quantification (par exemple 1, 2, qi, qi+1, qi+2, ...) et à le décoder afin de générer un ensemble de points 30. A chaque point 30 de la courbe correspond un paramètre de quantification qi, un coût de codage R(i,gz) et une valeur de distorsion classique d/(i,gi). Le coût de codage R(i,gl) représente le nombre de bits nécessaires au codage d'un MBi en utilisant le paramètre de quantification qi. Comme indiqué 2889381 12 précédemment, la valeur d/(i,q;) est obtenue en codant le MB; avec le paramètre de quantification q;, en le décodant et en calculant la distorsion classique entre ce MB; reconstruit et le MB; source. Afin d'éviter trop d'opérations de codage, il est possible de coder chaque MB; avec un nombre réduit de paramètres de quantification par exemple un sur deux (i. e. 2, 4, ..., q;+2, q;+4, ...). La courbe totale telle qu'illustrée sur la figure 2 est alors interpolée entre les points 30 calculés par exemple en utilisant une interpolation cubique ou par des courbes splines. Il est également envisageable de ne construire qu'une portion de la courbe autour du paramètre de quantification qconsigne. Une autre méthode pour construire cette courbe consiste à utiliser les propriétés statistiques des images. En effet, les images sont généralement modélisées par un modèle Gaussien dont différents paramètres (i.e. moyenne, variance) sont estimés directement à partir de l'image courante ou des images de la séquence.
Quelle que soit la manière dont les données ont été obtenues, elles peuvent être stockées dans des tables de correspondance ( Look-Up Table en anglais), une par groupe de pixels MB;, qui associent à chaque pas de quantification q; une valeur de distorsion classique d/(i,q;) et un nombre de bits R(i, qi) . Les données d'entrée du procédé peuvent être fournies au procédé de l'invention sous forme de fichiers de données.
En se référant de nouveau à la figure 1, l'étape 10 consiste à calculer un paramètre de quantification préliminaire qm pour chaque MB; de manière à minimiser la variation de qualité de reconstruction autour d'une qualité de reconstruction moyenne. Elle s'effectue en quatre sous-étapes: une sous-étape d'initialisation et trois sous-étapes appliquées itérativement jusqu'à un premier critère d'arrêt.
A cet effet, un paramètre de quantification intial q;n;t uniforme sur toute l'image et inférieur au paramètre de quantification de consigne qconsigne est déterminé. Par exemple qinit est égal à qconsigne -T (avec par exemple T=3).
En variante, une consigne de départ Cin;t est déterminée à partir de Cconsigne et d'autres paramètres, tels que par exemple la résolution des images de la 2889381 13 séquence et/ou des méta-données et/ou l'activité spatio-temporelle des images. Un paramètre de quantification qinit est déduit de la valeur de Cin;t et de la courbe de débit-distorsion associée à l'image courante. La valeur Cinit correspond au nombre de bits utilisés pour coder l'image courante avec le paramètre de quantification qinit.
La sous-étape d'initialisation consiste à calculer, pour chaque MB; de l'image courante, la distorsion classique dv(i,ginit), i.e. non perceptuelle, associée à ce MB; codé avec le paramètre de quantification qinit. La valeur moyenne dv de la distorsion classique ainsi que sa variance a,' sont calculées sur l'image courante considérée selon les formules suivantes: 1 2 1 dv = E dv (i, qinit) et 6 v = E (dv (i, gznzt) dv) 2
N N
Les valeurs dv et a," peuvent aussi être calculées directement à partir de l'image courante source et de l'image courante reconstruite.
La deuxième sous-étape consiste à identifier un premier ensemble de groupes de pixels correspondant aux N groupes de pixels MB; ayant les valeurs de distorsion classique les plus petites, ledit premier groupe étant référencé ESQ sur la figure 3, et un deuxième ensemble de groupes de pixels correspondant aux N groupes de pixels MB; ayant les valeurs de distorsion classique les plus grandes, ledit deuxième groupe étant référencé ES2 sur la figure 3. N est par exemple défini par la formule N=E[M*K] où E[.] est la fonction partie entière, * est l'opérateur de multiplication et M est un nombre compris entre 0 et 1. Une valeur de M=0, 1 semble bien adaptée.
La troisième sous-étape consiste à augmenter d'une valeur n les paramètres de quantification associés aux groupes de pixels MB; du premier ensemble pour diminuer leur qualité de reconstruction, et à diminuer d'une valeur n les paramètres de quantification associés aux groupes de pixels MB; du deuxième ensemble pour augmenter leur qualité de reconstruction, n étant un entier prédéterminé. Une valeur de n égale 1 semble bien adaptée. Les autres MB; conservent le même pas de quantification.
La dernière sous-étape consiste à recalculer la valeur moyenne de la distorsion classique de l'image courante dv ainsi que sa variance 6v2. Si la 2889381 14 valeur absolue de la différence entre la valeur de variance calculée à l'itération précédente et la valeur actuelle est inférieure à un seuil e (par exemple e =10-6), la distribution de bits est terminée. Sinon, le procédé retourne à la première sous-étape pour continuer la distribution.
Cette étape 10 permet d'avoir pour l'image courante une qualité dereconstruction qui est inférieure à la qualité de reconstruction de consigne mais qui est plus homogène. La figure 3 représente deux histogrammes de qualité de reconstruction à deux itérations différentes de l'étape 10. A la deuxième itération la qualité de reconstruction des macroblocs appartenant au premier ensemble ESQ a augmenté et la qualité de reconstruction des macroblocs appartenant au deuxième ensemble ES2 a diminué pour se rapprocher de la qualité de reconstruction moyenne. La qualité de reconstruction de consigne est la qualité de reconstruction calculée entre l'image courante source et l'image courante reconstruite, i.e. l'image courante source codée avec le paramètre de quantification qconsigne puis décodée. En effet, la qualité globale sur une image est maximale quand la qualité locale est identique ainsi quand la qualité chute localement, la qualité globale chute fortement. Cette étape permet d'associer à chaque MBi de l'image courante, un paramètre d e quantification préliminaire gma. qui correspond au dernier paramètre de quantification calculé. Un nouveau débit est calculé Cmn qui tient compte des paramètres de quantification préliminaires associés à chacun des MBi: Cmin =R(i,gmax). Z-1 L'étape 20 consiste à calculer un paramètre de quantification final qi pour chaque MBi en réallouant les bits restants AC, i.e. la différence de bits entre Cconsigne et Cmin, en fonction notamment de l'intérêt perceptuel des MBi, un plus grand nombre de bits étant réalloué aux MBi dont l'intérêt perceptuel est le plus élevé. La réallocation de bits est effectuée selon trois sous-étapes: une sousétape d'initialisation et deux sous-étapes appliquées itérativement jusqu'à un deuxième critère d'arrêt.
La première sous-étape, dite d'initialisation, consiste à calculer pour chaque MBi un paramètre débit distorsion initial X(i3O) de la manière suivante à partir 2889381 15 des courbes de débit-distorsion préalablement calculées et des cartes de saillance: (i 0) = dVZ (i, gm) dVZ (i, gm' +1) R(i, gmax +1) R(i, q) où X(i,k) représente la pente de la courbe débit - distorsion perceptuelle à un point donné de cette courbe calculé à l'itération k. La courbe débit - distorsion perceptuelle est déduite directement de la courbe débit - distorsion fournie en entrée du procédé et d'une des formules retenue pour calculer une distorsion perceptuelle (par exemple D(i) = d/(i) *s(i)). Plus le paramètre X(i,k) est élevé, plus la distorsion diminue fortement pour un faible surcoût de bits.
Soit QP(i,k) le paramètre de quantification associé au MB; à l'itération k. Lors d'une itération k, la deuxième sous-étape consiste à déterminer la valeur maximum X,r,ax(k) parmi tous les paramètres X(i,k) calculés: Xmax (k) = maxX(i,k) . Le groupe de pixels MB,o d'indice io correspondant à ,max (k) se voit associé un paramètre de quantification diminué d'une valeur entière m par rapport à l'itération précédente, i.e QP(io, k + l) = QP(io, k) m. Préférentiellement, m est égal à 1. Les autres MB,,, o conservent leur paramètre de quantification, i.e. QP(i,k+l) =QP(i,k).
Par ailleurs, le nombre de bits à réallouer est mis à jour de la manière suivante: AC=OC (R(io,QP(io,k+1)) R(io,QP(io,k))).
Lors de l'itération k, la troisième sous-étape consiste à recalculer le paramètre débit-distorsion associé au MB;o dont le pas de quantification vient d'être modifié de la manière suivante: D(i,QP(io,k)) D(io,QP(io,k+1) ) R(io, QP(io, k + 1)) R(io, QP(io, k)) Les paramètres débit-distorsion associés aux autres MB;, ;o restent inchangés, i.e. X(i,k +1) = X(i,k). Tant que AC est positif le procédé retourne à la deuxième sous-étape. Cette étape 20 permet d'associer à chaque MB; de l'image courante, un paramètre de quantification final qi qui correspond au dernier paramètre de quantification calculé.
2889381 16 La présente invention concerne également un dispositif référencé 40 sur la figure 4 qui implémente le procédé décrit précédemment. Seuls les éléments essentiels du dispositif sont représentés sur la figure 4. Le dispositif 40 comprend notamment: une mémoire vive 42 (RAM ou composant similaire), une mémoire morte 43 (disque dur ou composant similaire), une unité de traitement 44 telle qu'un microprocesseur ou un composant similaire, une interface d'entrée/sortie 45 et une interface homme-machine 46. Ces éléments sont reliés entre eux par un bus d'adresse et de données 41. La mémoire morte 43 contient notamment les algorithmes mettant en oeuvre les étapes 10 et 20 du procédé selon l'invention. Elle peut également contenir les algorithmes permettant d'obtenir les paramètres d'entrée du procédé comme par exemple un algorithme de régulation de débit, un algorithme pour générer les cartes de saillance et également un algorithme de codage/décodage des images. A la mise sous tension, l'unité de traitement 44 charge et exécute les instructions de ces algorithmes. La mémoire vive 42 comprend notamment les programmes de fonctionnement de l'unité de traitement 44 qui sont chargés à la mise sous tension de l'appareil, ainsi que les images à traiter. L'interface d'entrées/sorties 45 a pour fonction de recevoir le signal d'entrée (i.e. la séquence d'images source, et éventuellement les paramètres d'entrée tels que le nombre de bits de consigne Cconsigne, le paramètre de quantification associé qconsigne, les cartes de saillance, les courbes de débit-distorsion) et de délivrer les paramètres de quantification déterminés selon les étapes 10 et 20 du procédé de l'invention. L'interface homme-machine 46 du dispositif permet à l'utilisateur d'interrompre le traitement. Les résultats de la détermination des pas de quantification dans chaque image sont stockés en mémoire vive puis transférés en mémoire morte pour être archivés en vue de traitements ultérieurs, par exemple d'un codage des images avec ces paramètres de quantification. L'interface homme-machine 46 comprend notamment un panneau de contrôle et un écran de visualisation.
Bien entendu, l'invention n'est pas limitée aux exemples de réalisation mentionnés ci-dessus. En particulier, l'homme du métier peut apporter toute variante dans les modes de réalisation exposés et les combiner pour bénéficier de leurs différents avantages. Par exemple, d'autres métriques de 2889381 17 distorsion perceptuelle peuvent être utilisées que celles décrites précédemment. De même, d'autres procédés peuvent être utilisés pour déterminer les courbes débit-distorsion associées à chacun des groupes de pixels MBi. Par ailleurs, au lieu de déterminer directement des valeurs Cconsigne et Cinit par exemple en utilisant un procédé de régulation de débit, il est possible d'utiliser directement des paramètres de quantification qconsigne et ginit proposés par exemple par un utilisateur en fonction de l'application. Les valeurs Cconsigne et Cinit correspondent alors au nombre de bits utilisés pour coder l'image courante respectivement avec qconsigne et ginit. En outre, selon l'invention il n'est pas nécessaire de construire des cartes de débit- distorsion. En effet, un groupe de pixels MBi peut être codé avec un paramètre de quantification donné à chaque fois qu'il est indispensable de connaître le nombre de bits nécessaires pour coder ce MBi avec le pas de quantification donné et la distorsion associée. Les données d'entrée du procédé selon l'invention, i.e. le débit de consigne Cconsigne, éventuellement qconsigne, les cartes de saillance et éventuellement les courbes de débit-distorsion peuvent être fournies par d'autres moyens que ceux décrits précédemment.
Claims (1)
18 Revendications
1. Procédé pour déterminer un paramètre de quantification pour chaque groupe de pixels d'une image, lesdits paramètres de quantification étant utilisés pour coder ladite image en un premier nombre de bits (Cconsigne) correspondant au nombre de bits nécessaires pour coder ladite image avec un pas de quantification de consigne (qconsigne), caractérisé en ce qu'il comprend les étapes suivantes: Calculer (10) un paramètre de quantification préliminaire (gma.) pour chacun desdits groupes de pixels (MBi) de manière à minimiser la variation de qualité de reconstruction entre lesdits groupes lorsque lesdits paramètres de quantification préliminaires sont utilisés pour coder ladite image en un second nombre de bits (Cmin) inférieur au premier nombre de bits (Cconsigne); et Calculer (20) un paramètre de quantification final (qi) inférieur ou égal au paramètre de quantification préliminaire (gma.) pour chacun desdits groupes de pixels en réallouant la différence de bits (Cconsigne - Cmin) entre le premier et le deuxième nombre de bits auxdits groupes de pixels en fonction de leur contenu et de leur intérêt perceptuel.
2. Procédé selon la revendication 1, caractérisé en ce ladite différence de bits (Cconsigne - Cmin) entre le premier et le deuxième nombre de bits est réallouée auxdits groupes de pixels proportionnellement à leur intérêt perceptuel.
3. Procédé selon l'une des revendications 1 ou 2, caractérisé en ce que l'intérêt perceptuel d'un groupe de pixels est caractérisé par une valeur de saillance calculée pour ce groupe de pixels.
4. Procédé selon l'une des revendications 1 à 3, caractérisé en ce que l'étape de calcul dudit paramètre de quantification préliminaire (gmax) est précédée 2889381 19 d'une étape associant un ensemble de points (30) à chacun desdits groupes de pixels, chaque point comprenant une valeur de paramètre de quantification, un nombre de bits nécessaires au codage dudit groupe de pixels avec ledit paramètre de quantification et une valeur de distorsion associée.
5. Procédé selon l'une des revendications 1 à 4, caractérisé en ce que l'étape de calcul desdits paramètres de quantification préliminaire (ex) comprend les étapes suivantes: a. Calculer, pour chacun desdits groupes de pixels (MBi), une valeur de distorsion (dv(i,ginit)) correspondant au codage dudit groupe de pixels avec un paramètre de quantification initial (ginit) inférieur au paramètre de quantification de consigne (qconsigne); b. Calculer, pour ladite image, une valeur de variance courante (6 2) de la distorsion correspondant au codage desdits groupes de pixels de ladite image avec ledit paramètre de quantification initial (ginic) ; c. Identifier un premier ensemble de groupes de pixels correspondant aux N groupes de pixels ayant les valeurs de distorsion les plus petites et un deuxième ensemble de groupes de pixels correspondant aux N groupes de pixels ayant les valeurs de distorsion les plus grandes, N étant un entier prédéterminé ; d. Augmenter d'une valeur n les paramètres de quantification associés auxdits groupes de pixels dudit premier ensemble et diminuer d'une valeur n les paramètres de quantification associés auxdits groupes de pixels dudit deuxième ensemble, les paramètres de quantification associés à chacun des groupes de pixels autres que ceux appartenant auxdits premier et deuxième ensembles restant inchangés, n étant un entier prédéterminé ; e. Recalculer pour ladite image une nouvelle valeur de variance (6 2) de la distorsion correspondant au codage desdits groupes de pixels de ladite image avec les paramètres de quantification issus de l'étape d, la valeur de variance courante devenant une valeur de variance précédente et la nouvelle valeur de variance devenant la valeur de variance courante; et f. Si la valeur absolue de la différence entre la valeur de variance courante et la valeur de variance précédente est supérieure à un seuil (e) retourner à l'étape c, sinon affecter, pour chacun desdits groupes de pixels, la valeur du paramètre de quantification issu de l'étape d au paramètre de quantification préliminaire (gmax) de ce groupe.
6. Procédé selon la revendication 5, caractérisé en ce que l'entier N est la partie entière du produit de M par K, où K est le nombre de groupes de pixels dans ladite image et où M est un nombre compris entre 0 et 1.
7. Procédé selon la revendication 6, caractérisé en ce que M=0.1, n=1, et c=10-6.
8. Procédé selon l'une des revendications 1 à 7, caractérisé en ce que l'étape de calcul desdits paramètres de quantification finaux (qi) comprend les étapes suivantes: a. Calculer, pour chacun desdits groupes de pixels (MB;), un paramètre X(i3O), dit paramètre de débit-distorsion initial, selon la formule suivante: X(i3O) = D(i, q) D(i, gmax +1) R(l, q +1) R(i, gm) où : - gmax est le paramètre de quantification préliminaire associé au groupe de pixel (MB;) d'indice i; - D(i,A) est une valeur de distorsion perceptuelle correspondant au codage dudit groupe de pixels MB; avec le paramètre de quantification A; et - R(i, A) est le nombre de bits nécessaires au codage dudit groupe de pixels d'indice i avec le paramètre de quantification A. b. Déterminer la valeur maximale desdits paramètres de débit-distorsion 30 associé à chacun desdits groupes de pixels; c. Diminuer d'une valeur m le paramètre de quantification associé au groupe de pixels d'indice io ayant ledit paramètre de débit-distorsion maximal, dit groupe identifié, les paramètres de quantification associés à chacun des groupes de pixels autres que le groupe identifié restant inchangés, m étant une entier prédéterminé; d. Calculer la différence entre le nombre de bits nécessaire au codage dudit groupe identifié avec le paramètre de quantification du groupe identifié calculé à l'étape c et le nombre de bits nécessaire au codage dudit groupe identifié avec le paramètre de quantification du groupe identifié avant l'étape c, cette différence étant appelée nombre de bits supplémentaires; e. Soustraire ledit nombre de bits supplémentaires de ladite différence de bits (Cconsigne - Cmin) ; f. Recalculer pour ledit groupe identifié ledit paramètre de débit- distorsion selon la formule suivante: D(i,QP(io,k)) D(io,QP(io,k+1)) R(io, QP(io, k + 1)) R(io, QP(io, k)) où : - D(io,A) est la valeur de distorsion perceptuelle correspondant au codage dudit groupe identifié avec le paramètre de quantification A; -R(i, A) est le nombre de bits nécessaires au codage dudit groupe identifié avec le paramètre de quantification A; et - QP(io,k) est le paramètre associé audit groupe identifié à l'itération k précédente et QP(io,k+l) est le paramètre de quantification calculé à l'itération k+1.
g. Si ladite différence de bits (Cconsigne - C min) est positive retourner à l'étape b, sinon affecter, pour chacun desdits groupes de pixels, la valeur du paramètre de quantification issu de l'étape c au paramètre de quantification final (qi) de ce groupe.
9. Procédé selon la revendication 8, caractérisé en ce que la distorsion perceptuelle D(i,gi) associée à un groupe de pixels d'indice i codé avec le paramètre de quantification qi est déduite d'une valeur de distorsion classique dv(i,gi) selon l'une des formules suivantes: 2889381 22 - D(i, gi) = dv(i,gi) *s(i) ; ou D(i,gi) = dv(i,gi)*sp(i).
où - s(i) représente une valeur caractérisant l'intérêt perceptuel dudit groupe de pixels d'indice i; - p est un entier positif; et - * est l'opérateur de multiplication.
10. Procédé selon la revendication 9, caractérisé en ce que m=1 et p=2.
11. Dispositif pour déterminer un paramètre de quantification pour chaque groupe de pixels d'une image, lesdits paramètres de quantification étant utilisés pour coder l'image en un premier nombre de bits (Cconsigne) correspondant au nombre de bits nécessaires pour coder ladite image avec un pas de quantification de consigne (qconsigne), caractérisé en ce qu'il comprend les moyens suivants: des moyens pour calculer (40) un paramètre de quantification préliminaire (ex) pour chacun desdits groupes de pixels (MB i) de manière à minimiser la variation de qualité de reconstruction entre lesdits groupes lorsque lesdits paramètres de quantification préliminaires sont utilisés pour coder ladite image en un second nombre de bits (Cmin) inférieur au premier nombre de bits (Cconsigne); et des moyens pour calculer (40) un paramètre de quantification final (qi) inférieur ou égal au paramètre de quantification préliminaire (gmax) pour chacun desdits groupes de pixels en réallouant la différence de bits (Cconsigne -C min) entre le premier et le deuxième nombre de bits auxdits groupes de pixels en fonction de leur contenu et de leur intérêt perceptuel.
12. Produit programme d'ordinateur, caractérisé en ce qu'il comprend des instructions de code de programme pour l'exécution des étapes du procédé 2889381 23 selon l'une des revendications 1 à 10, lorsque ledit programme est exécuté sur ordinateur.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0552345A FR2889381A1 (fr) | 2005-07-28 | 2005-07-28 | Procede et dispositif de determination de parametres de quantification dans une image |
PCT/EP2006/064393 WO2007014850A2 (fr) | 2005-07-28 | 2006-07-19 | Procede et dispositif permettant de determiner des parametres de quantification dans une image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0552345A FR2889381A1 (fr) | 2005-07-28 | 2005-07-28 | Procede et dispositif de determination de parametres de quantification dans une image |
Publications (1)
Publication Number | Publication Date |
---|---|
FR2889381A1 true FR2889381A1 (fr) | 2007-02-02 |
Family
ID=36177783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0552345A Pending FR2889381A1 (fr) | 2005-07-28 | 2005-07-28 | Procede et dispositif de determination de parametres de quantification dans une image |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR2889381A1 (fr) |
WO (1) | WO2007014850A2 (fr) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2963190A1 (fr) * | 2010-07-23 | 2012-01-27 | Canon Kk | Procede et dispositif de codage d'une sequence d'images |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2549754A1 (fr) * | 2011-07-19 | 2013-01-23 | Thomson Licensing | Procédé et appareil pour recadrer et coder un signal vidéo original |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997037322A1 (fr) * | 1996-03-29 | 1997-10-09 | Sarnoff Corporation | Appareil et procede permettant d'optimiser le codage et d'effectuer une compression d'image automatique et orientable a l'aide d'une echelle de perception |
US5754236A (en) * | 1995-05-29 | 1998-05-19 | Samsung Electronics Co., Ltd. | Variable bit rate coding using the BFOS algorithm |
US5819004A (en) * | 1995-05-08 | 1998-10-06 | Kabushiki Kaisha Toshiba | Method and system for a user to manually alter the quality of previously encoded video frames |
WO2003084240A1 (fr) * | 2002-03-28 | 2003-10-09 | Koninklijke Philips Electronics N.V. | Codage d'image mettant en oeuvre une selection de l'echelle de quantification |
US20040184535A1 (en) * | 1997-03-14 | 2004-09-23 | Microsoft Corporation | Motion video signal encoder and encoding method |
US6834080B1 (en) * | 2000-09-05 | 2004-12-21 | Kabushiki Kaisha Toshiba | Video encoding method and video encoding apparatus |
-
2005
- 2005-07-28 FR FR0552345A patent/FR2889381A1/fr active Pending
-
2006
- 2006-07-19 WO PCT/EP2006/064393 patent/WO2007014850A2/fr active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5819004A (en) * | 1995-05-08 | 1998-10-06 | Kabushiki Kaisha Toshiba | Method and system for a user to manually alter the quality of previously encoded video frames |
US5754236A (en) * | 1995-05-29 | 1998-05-19 | Samsung Electronics Co., Ltd. | Variable bit rate coding using the BFOS algorithm |
WO1997037322A1 (fr) * | 1996-03-29 | 1997-10-09 | Sarnoff Corporation | Appareil et procede permettant d'optimiser le codage et d'effectuer une compression d'image automatique et orientable a l'aide d'une echelle de perception |
US20040184535A1 (en) * | 1997-03-14 | 2004-09-23 | Microsoft Corporation | Motion video signal encoder and encoding method |
US6834080B1 (en) * | 2000-09-05 | 2004-12-21 | Kabushiki Kaisha Toshiba | Video encoding method and video encoding apparatus |
WO2003084240A1 (fr) * | 2002-03-28 | 2003-10-09 | Koninklijke Philips Electronics N.V. | Codage d'image mettant en oeuvre une selection de l'echelle de quantification |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2963190A1 (fr) * | 2010-07-23 | 2012-01-27 | Canon Kk | Procede et dispositif de codage d'une sequence d'images |
US9185419B2 (en) | 2010-07-23 | 2015-11-10 | Canon Kabushiki Kaisha | Method and device for coding a sequence of images |
Also Published As
Publication number | Publication date |
---|---|
WO2007014850A2 (fr) | 2007-02-08 |
WO2007014850A3 (fr) | 2007-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10819993B2 (en) | Methods and apparatuses for performing encoding and decoding on image | |
US10832447B2 (en) | Artificial intelligence encoding and artificial intelligence decoding methods and apparatuses using deep neural network | |
FR2762699A1 (fr) | Procede et appareil pour le codage et le decodage d'images mobiles, sur la base de regions | |
FR2906433A1 (fr) | Procedes et dispositifs de codage et de decodage d'images, programme d'ordinateur les mettant en oeuvre et support d'informaton permettant de les mettre en oeuvre | |
FR2932637A1 (fr) | Procede et dispositif de codage d'une sequence d'images | |
FR2951345A1 (fr) | Procede et dispositif de traitement d'une sequence video | |
US10531103B2 (en) | Video coding using a saliency map | |
FR3073999A1 (fr) | Compression intelligente de contenus video graines | |
Wang et al. | Perceptual video coding based on saliency and just noticeable distortion for H. 265/HEVC | |
FR2889381A1 (fr) | Procede et dispositif de determination de parametres de quantification dans une image | |
US20230276070A1 (en) | Artificial intelligence (ai) encoding apparatus and method and ai decoding apparatus and method for region of object of interest in image | |
CA2962864A1 (fr) | Procede de transcodage de donnees video a fusion d'unites de codage, programme informatique, module de transcodage et equipement de telecommunications associes | |
CN116458157A (zh) | 用于图像中感兴趣的对象区域的ai编码装置和方法以及ai解码装置和方法 | |
FR2956789A1 (fr) | Procede et dispositif de traitement d'une sequence video | |
FR2848373A1 (fr) | Procede de mesure d'artefacts de bloc | |
EP1679899A1 (fr) | Procédé et dispositif de réduction des artefacts d'une image numérique | |
EP2364552A1 (fr) | Dispositif d'encodage d'un flux d'images numeriques et dispositif de decodage correspondant avec approximation du voisinage d'un bloc par le voisinage elargi du bloc | |
FR2957744A1 (fr) | Procede de traitement d'une sequence video et dispositif associe | |
US11930222B1 (en) | Encoding video for film grain synthesis | |
Dong et al. | An efficient and integrated algorithm for video enhancement in challenging lighting conditions | |
FR2916931A1 (fr) | Procede de selection d'une donnee de codage et dispositif de codage implementant ledit procede | |
EP3203737A1 (fr) | Procédé et dispositif d'encodage d'un signal numérique multidimensionnel, en particulier un signal d'image, et procédé et dispositif correspondants de décodage | |
JP2004348293A (ja) | 画像品質計算装置および方法、そのプログラム並びに記録媒体 | |
FR2956552A1 (fr) | Procede de codage ou de decodage d'une sequence video, dispositifs associes | |
Ben-David et al. | Perceptually optimized low bit-rate image encoding |