FR2959093A1 - Procede et dispositif de prediction d'une information de complexite de texture contenue dans une image - Google Patents

Procede et dispositif de prediction d'une information de complexite de texture contenue dans une image Download PDF

Info

Publication number
FR2959093A1
FR2959093A1 FR1053014A FR1053014A FR2959093A1 FR 2959093 A1 FR2959093 A1 FR 2959093A1 FR 1053014 A FR1053014 A FR 1053014A FR 1053014 A FR1053014 A FR 1053014A FR 2959093 A1 FR2959093 A1 FR 2959093A1
Authority
FR
France
Prior art keywords
current
image
layer
base unit
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1053014A
Other languages
English (en)
Other versions
FR2959093B1 (fr
Inventor
Leannec Fabrice Le
Xavier Henocq
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to FR1053014A priority Critical patent/FR2959093B1/fr
Publication of FR2959093A1 publication Critical patent/FR2959093A1/fr
Application granted granted Critical
Publication of FR2959093B1 publication Critical patent/FR2959093B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Pour prédire une information de complexité de texture d'une image courante d'une séquence d'images, afin de coder l'image courante dans une couche d'amélioration courante, selon un codage de type hiérarchique consistant à coder la séquence d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, un procédé utilisant un modèle de prédiction d'information de complexité de texture, est remarquable en ce que, l'image courante étant subdivisée en unités de base prédéfinies, pour chaque unité de base courante de l'image courante, les étapes suivantes sont mises en œuvre : - obtenir (S705) au moins une information de codage relative à une seconde unité de base appartenant à une seconde image coïncidant temporellement avec l'image courante et déjà codée dans une seconde couche hiérarchiquement inférieure à la couche courante ; - obtenir (S705) un modèle (S707, S713) de prédiction de l'information de complexité de texture à partir d'un modèle de prédiction temporelle intra-couche et d'un modèle de prédiction spatiale inter-couche, en fonction de ladite au moins une information de codage obtenue. L'invention a aussi pour objets un procédé de contrôle de débit de codage vidéo, un procédé de codage vidéo, et des dispositifs correspondants, qui incluent ou mettent en œuvre un tel procédé de prédiction d'information de complexité de texture.

Description

La présente invention concerne de manière générale le domaine du codage vidéo hiérarchique d'une séquence vidéo, et plus précisément celui du contrôle de débit d'un codeur vidéo de type SVC. L'invention concerne en particulier un procédé de prédiction d'une information de complexité de texture contenue dans une image courante d'une séquence d'images, afin de coder l'image courante dans une couche d'amélioration, selon un codage de type hiérarchique de type SVC, ainsi qu'un procédé de contrôle de débit alloué pour le codage hiérarchique d'une image, mettant en oeuvre le procédé de prédiction d'information de complexité de texture précité. Le standard de compression vidéo SVC (Scalable Video Coding) apporte une extension au standard H.264/AVC (AVC : Advanced Video Coding, pour codage vidéo avancé), consistant en un système de compression vidéo hiérarchique ou « Scalable » compatible avec le standard H.264/AVC initial, offrant des fonctionnalités de scalabilité spatiale, temporelle et en qualité (amélioration du rapport signal sur bruit, SNR). Une méthode de référence de contrôle de débit dans le codage vidéo standard H.264/AVC est décrite en particulier dans le document ci-après désigné par « document [1] » et intitulé "Text Description of Joint Model Reference Encoding methods and Decoding Concealment Methods" de K-P. Lim, G. Sullivan, et T. Wiegand û Joint Video Team (JVT), ISO/IEC MPEG & ITU-T VCEG, document JVT-N046 ù Hong Kong, janvier 2005. Concernant l'extension SVC du standard H.264/AVC, dans un flux vidéo SVC, la scalabilité temporelle est fournie par les images de type B (bidirectionnel) hiérarchiques, tandis que la scalabilité spatiale et la scalabilité en qualité sont obtenues par le codage d'une ou plusieurs couches d'amélioration (encore dites de rehaussement ou de raffinement) spatial ou en qualité, au dessus d'une couche de base compatible H.264/AVC. Dans un tel système de codage vidéo, le contrôle de débit est une composante importante puisqu'il permet de générer des flux binaires comprimés qui satisfont les contraintes de bande passante disponible et de capacité des mémoires tampons de sortie. Le document ci-après désigné par « document [2] » et intitulé "Joint Scalable Video Model JSVM-12 text" de J. Reichel, H. Schwarz, et M. Wien ù Joint Video Team (JVT), ISO/IEC MPEG & ITU-T VCEG, document JVT-Y202 û Shenzhen, Chine, octobre 2007, décrit les fonctionnalités d'un logiciel implémentant l'extension SVC du standard H.264/AVC. Comme décrit dans le document [2] précité, en particulier section 2.6 de ce document, dans le standard SVC, seul un contrôle de débit est proposé pour la couche de base compatible H.264/AVC, alors qu'aucun contrôle de débit n'est proposé pour les couches de rehaussement. Le contrôle de débit proposé pour la couche de base compatible H.264/AVC, reprend essentiellement la méthode de contrôle de débit définie dans le cadre du standard H.264/AVC et décrite notamment en section 2.6 du document [1] précité. Ainsi, la méthode standard de contrôle de débit H.264/AVC met en oeuvre un modèle débit-distorsion qui relie le débit de codage d'une image, le pas de quantification assigné à l'image, et l'énergie contenue dans l'information de texture résiduelle de l'image. La texture résiduelle est définie comme la différence entre les valeurs des pixels de l'image originale en cours de codage et les valeurs de pixels utilisés pour prédire l'image originale en cours de codage, obtenues par prédiction spatiale ou par prédiction temporelle. L'énergie contenue dans l'information de texture de l'image est mesurée au travers du calcul d'une moyenne des valeurs absolues des différences notée MAD, pour Mean Absolute Différence, en anglais entre les valeurs des pixels de l'image originale et les valeurs des pixels de prédiction, c'est-à-dire la moyenne des pixels de la texture résiduelle à coder. Cependant, compte tenu de l'algorithme de codage vidéo selon le standard H.264/AVC, la MAD d'une image considérée n'est pas connue du codeur au moment de choisir le pas de quantification pour l'image ou la partie d'image considérée en cours de codage, car la sélection de la prédiction spatiale ou temporelle est faite en fonction du contrôle de débit. On utilise alors, conformément au standard H.264/AVC, un modèle de prédiction linéaire du premier ordre, pour prédire la MAD d'une image donnée à partir de la MAD de l'image précédemment codée. Dans le cas d'une régulation de débit au niveau macrobloc (bloc de pixels de taille 16x16, par exemple) d'une image, la MAD d'un macrobloc courant à coder est prédite à partir de la MAD du macrobloc co-localisé dans l'image précédente, également à l'aide d'un modèle linéaire du premier ordre.
Le modèle de prédiction de MAD ainsi que le modèle débit-distorsion ci-dessus sont progressivement mis à jour au fur et à mesure que la séquence vidéo est codée, à l'aide d'un algorithme de régression linéaire. Le document désigné ci-après par « document [3] » et intitulé "Rate Control of H.264/AVC Scalable Extension" de Y. Liu, Z.G. Li, et Y.G. Soh û IEEE Transactions on Circuits and Systems For Video Technology, Vol. 18 No. 1, Janvier 2008, décrit un procédé de contrôle de débit pour l'extension SVC de H.264/AVC, dans lequel un modèle de prédiction commuté (switched model) est proposé pour prédire la MAD de la texture résiduelle d'une image à coder dans une couche de raffinement, à partir de l'information MAD disponible de l'image précédente dans la même couche et de celle de la même image dans la couche de base correspondante. Plus précisément, le modèle de prédiction proposé dans le document [3] se compose de deux sous-modèles de prédiction au niveau image : un modèle temporel et un modèle spatial. La MAD peut être ainsi prédite à partir de l'image précédente dans la même couche par le modèle temporel, et à partir de la même image dans la couche de base par le modèle spatial. Une valeur de MAD prédite est calculée en utilisant chacun des deux sous-modèles, puis un calcul de similarité est effectué pour chacune des deux valeurs de MAD obtenues, afin d'évaluer l'efficacité de chacun des deux sous-modèles de prédiction. Enfin, la MAD prédite selon le modèle temporel ou le modèle spatial est choisie de manière adaptative en fonction de l'efficacité comparée du modèle temporel et du modèle spatial sur un ensemble d'images précédemment codées. La présente invention propose une technique de prédiction d'une information de complexité de texture résiduelle d'une image à coder selon un codage vidéo hiérarchique, du type de celle décrite dans le document [3] précité c'est-à-dire utilisant un modèle de prédiction de l'information de complexité de texture choisi selon un critère prédéterminé, entre un modèle de prédiction temporelle infra-couche et un modèle de prédiction spatiale inter-couches et offrant l'avantage notamment d'être plus précise que les techniques connues tout en impliquant une complexité de calcul comparable. Ainsi, l'invention a pour objet, selon un premier aspect, un procédé de prédiction d'une information de complexité de texture d'une image courante d'une séquence d'images, afin de coder l'image courante dans une couche d'amélioration courante, selon un codage de type hiérarchique consistant à coder la séquence d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, ce procédé utilisant un modèle de prédiction d'information de complexité de texture. Conformément à l'invention, ce procédé est remarquable en ce que, l'image courante 5 étant subdivisée en unités de base prédéfinies, pour chaque unité de base courante de l'image courante, les étapes suivantes sont mises en oeuvre : - obtenir au moins une information de codage relative à une seconde unité de base appartenant à une seconde image coïncidant temporellement avec l'image courante et déjà codée dans une seconde couche hiérarchiquement inférieure à la couche 10 courante ; - obtenir un modèle de prédiction de l'information de complexité de texture à partir d'un modèle de prédiction temporelle intra-couche et d'un modèle de prédiction spatiale inter-couche, en fonction de ladite au moins une information de codage obtenue. Grâce au procédé de l'invention qui prend en compte une ou plusieurs informations 15 de codage relatives à une seconde unité de base appartenant à une (seconde) image coïncidant temporellement avec l'image courante, on obtient au final une prédiction de la complexité de texture résiduelle de l'image à coder, plus précise comparativement aux techniques de l'art antérieur. Le procédé de prédiction d'information de complexité de texture selon l'invention est ainsi susceptible d'améliorer la précision du modèle débit/quantification utilisé pour le 20 contrôle de débit et donc d'améliorer le choix du paramètre de quantification pour chaque unité de base. Par conséquent, un tel procédé de prédiction de complexité de texture résiduelle utilisé dans le cadre du contrôle de débit dans un codeur vidéo, par exemple de type SVC, améliore la précision du contrôle de débit de codage résultant. Selon une caractéristique particulière de l'invention, l'image courante est codée dans 25 une couche d'amélioration selon le standard SVC, et la seconde couche est la couche de référence de la couche d'amélioration courante, la seconde image est l'image de base de l'image courante, et la seconde unité de base est l'unité de base co-localisée de l'unité de base courante, dans l'image de base. Selon une autre caractéristique particulière de l'invention, l'information de 30 complexité de texture à prédire pour une unité de base courante de l'image courante, est représentée par une mesure statistique de similarité, relative à la différence entre les valeurs des pixels contenus dans l'unité de base courante et des valeurs de pixels utilisés pour une prédiction de l'unité de base courante. En pratique, selon un exemple de réalisation, cette mesure statistique de similarité est une mesure de la moyenne des valeurs absolues (MAD) des différences entre les valeurs des pixels contenus dans l'unité de base courante et des valeurs de pixels utilisés pour une prédiction de l'unité de base courante. Selon un premier mode de réalisation de l'invention, une unité de base de l'image courante est composée d'un ensemble de macroblocs de pixels et, pour chaque macrobloc courant contenu dans une unité de base courante, l'information de codage est représentative du mode de codage, INTRA ou INTER, du macrobloc co-localisé dans la seconde unité de base, et, lors de l'étape d'obtention d'un modèle de prédiction de l'information de complexité de texture : - si le mode de codage est INTRA, on sélectionne le modèle de prédiction spatiale inter-couche pour prédire l'information de complexité de texture à coder pour le macrobloc 15 courant de l'unité de base courante ; sinon, - si le mode de codage est INTER, on sélectionne le modèle de prédiction temporelle intra-couche pour prédire l'information de complexité de texture à coder pour le macrobloc courant de l'unité de base courante. En sélectionnant le modèle de prédiction, spatiale ou temporelle, en fonction du type 20 de codage des macroblocs de l'unité de base co-localisée dans l'image de base utilisée pour le codage de l'image courante, la prédiction de l'information de complexité de texture de l'image courante est plus précise car des changements de scène survenant rapidement dans la séquence vidéo seront reflétés plus précisément dans l'image courante. Selon des caractéristiques particulières du premier mode de réalisation : 25 û pour un macrobloc courant de l'unité de base courante, si le mode de codage du macrobloc co-localisé correspondant, dans l'image de base, appelé «macrobloc de base », est INTRA, on calcule une valeur de prédiction de la mesure statistique de similarité du macrobloc courant, en calculant une fonction affine de la mesure statistique de similarité effective dudit macrobloc de base ; 30 û pour un macrobloc courant de l'unité de base courante, si le mode de codage du macrobloc co-localisé correspondant, dans l'image de base, appelé « macrobloc de base », est INTER, on calcule une valeur de prédiction de la mesure statistique de similarité du macrobloc courant, en calculant une fonction affine de la mesure statistique de similarité effective du macrobloc de l'image de référence dans la couche courante, qui coïncide temporellement avec l'image de référence du macrobloc de base, et pointé par le vecteur de mouvement du macrobloc de base ; ù on obtient une valeur de prédiction de la mesure statistique de similarité globale pour l'unité de base courante, en effectuant la somme des mesures statistiques de similarité prédites calculées pour l'ensemble des macroblocs de l'unité courante. L'utilisation, en particulier, de l'information de mouvement déjà estimée et codée dans la couche inférieure à celle de l'image courante, augmente la précision du modèle de 10 prédiction temporelle de la mesure statistique de similarité. Selon un deuxième mode de réalisation de l'invention, une unité de base de l'image courante est composée d'un ensemble de macroblocs de pixels et l'information de codage est représentative de la proportion de macroblocs codés en INTRA et de la proportion de macroblocs codés en INTER, dans l'ensemble de macroblocs de la seconde unité de base dans 15 la seconde image, et dans lequel le modèle de prédiction de l'information de complexité de texture est obtenu en utilisant simultanément le modèle de prédiction temporelle intra-couche et le modèle de prédiction spatiale inter-couche, en pondérant l'utilisation du modèle de prédiction temporelle intra-couche par la proportion de macroblocs codés en INTER dans la seconde unité de base, et en pondérant l'utilisation du modèle de prédiction spatiale inter- 20 couche par la proportion de macroblocs codés en INTRA dans la seconde unité de base. Ce deuxième mode de réalisation de l'invention présente notamment l'avantage, par rapport au premier mode de réalisation précité, de réduire la complexité du calcul de la prédiction de l'information de complexité de texture sur l'ensemble de l'unité de base courante. 25 Selon une caractéristique de l'invention, dans le mode de réalisation ci-dessus, on obtient une prédiction de la mesure statistique de similarité des pixels contenus dans l'unité de base courante, en effectuant les opérations suivantes : (a) - calculer la mesure statistique de similarité effective de l'unité de base colocalisée de l'unité de base courante, dans l'image de référence de l'image courante, dans la 30 couche d'amélioration courante ; (b) - calculer la mesure statistique de similarité effective de l'unité de base colocalisée de l'unité de base courante, dans l'image de base de l'image courante, dans ladite couche de référence de la couche courante ; (c) - calculer le nombre de macroblocs codés en INTRA dans ladite unité de base co- localisée de l'unité de base courante ; (d) - calculer le nombre de macroblocs codés en INTER dans ladite unité de base colocalisée de l'unité de base courante ; (e) - obtenir une prédiction de la mesure statistique de similarité de l'unité de base courante selon un calcul d'une somme pondérée qui est fonction des mesures statistiques de similarité effectives calculées aux étapes (a) et (b), avec comme facteurs de pondération, la proportion de macroblocs codés en INTER et la proportion de macroblocs codés en INTRA dans l'unité de base co-localisée de l'unité de base courante. Ainsi, si une grande proportion de macroblocs sont codés en INTRA dans des images de la couche de référence de la couche à laquelle appartient l'image courante, cela traduit un probable changement de plan brutal, et grâce aux caractéristiques ci-dessus de l'invention, cela sera pris en compte directement pour le codage des images correspondantes de la couche courante, ce qui apportera une plus grande réactivité dans le contrôle de débit de codage, par rapport aux techniques connues. Selon un troisième mode de réalisation de l'invention, une unité de base de l'image courante est composée d'un ensemble de macroblocs de pixels et l'information de codage est représentative du mode de codage majoritaire, INTRA ou INTER, des macroblocs de l'ensemble de macroblocs de la seconde unité de base dans la seconde image, et, lors de l'étape d'obtention d'un modèle de prédiction de l'information de complexité de texture : - si le mode de codage majoritaire est INTRA, on sélectionne le modèle de prédiction spatiale inter-couche pour prédire l'information de complexité de texture à coder pour l'unité de base courante de l'image courante ; sinon, - si le mode de codage majoritaire est INTER, on sélectionne le modèle de prédiction temporelle infra-couche pour prédire l'information de complexité de texture à coder pour l'unité de base courante de l'image courante.
Ce troisième mode de réalisation présente également l'avantage, par rapport au premier mode de réalisation exposé plus haut, de réduire la complexité du calcul de calcul de la prédiction de l'information de complexité de texture.
Selon un deuxième aspect, l'invention a pour objet procédé de contrôle du débit alloué pour le codage hiérarchique d'une image appartenant à une séquence d'images dans une couche d'amélioration, le codage précité consistant à coder la séquence d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, le procédé comprenant une opération de prédiction d'une information de complexité de texture pour coder ladite image dans une couche d'amélioration. Conformément à l'invention, ce procédé de contrôle de débit est remarquable en ce que l'opération de prédiction est mise en oeuvre selon un procédé de prédiction tel que succinctement exposé supra.
Selon un troisième aspect, l'invention a pour objet un procédé de codage vidéo d'une image courante dans une couche d'amélioration courante selon un codage de type hiérarchique consistant à coder une séquence d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, le procédé de codage comportant une étape de contrôle du débit alloué pour le codage de l'image courante, incluant une opération de prédiction d'une information de complexité de texture contenue dans l'image courante, selon laquelle on utilise un modèle de prédiction d'information de complexité de texture. Conformément à l'invention, ce procédé de codage est remarquable en ce que l'opération de prédiction est mise en oeuvre selon un procédé de prédiction tel que succinctement exposé supra.
Corrélativement, selon un quatrième aspect, l'invention a aussi pour objet un dispositif de prédiction d'une information de complexité de texture contenue dans une image courante d'une séquence d'images, afin de coder ladite image courante dans une couche d'amélioration courante, selon un codage de type hiérarchique consistant à coder la séquence d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, ce dispositif utilisant un modèle de prédiction d'information de complexité de texture, et étant remarquable en ce qu'il comporte des moyens de traitement numérique adaptés à traiter chaque unité de base prédéfinie courante de l'image courante, de manière à : - obtenir une information de codage relative à une seconde unité de base appartenant 30 à une seconde image coïncidant temporellement avec l'image courante et déjà codée dans une seconde couche hiérarchiquement inférieure à la couche courante ; - obtenir un modèle de prédiction de l'information de complexité de texture à partir d'un modèle de prédiction temporelle intra-couche et d'un modèle de prédiction spatiale inter-couche, en fonction de ladite information de codage obtenue. De même, selon un cinquième aspect, la présente invention a pour objet dispositif de contrôle du débit alloué pour le codage hiérarchique d'une image appartenant à une séquence d'images dans une couche d'amélioration, ledit codage consistant à coder la séquence d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, ce dispositif étant caractérisé en ce qu'il inclut un dispositif de prédiction d'une information de complexité de texture contenue dans une image, tel que succinctement exposé supra. L'invention a également pour objet, selon un sixième aspect, un dispositif de codage vidéo d'une image dans une couche d'amélioration courante selon un codage de type hiérarchique consistant à coder une séquence d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, ce dispositif comprenant pour au moins une couche d'amélioration, un module de contrôle du débit alloué pour le codage d'une image courante dans la couche d'amélioration, le module de contrôle de débit comprenant un sous-module de prédiction d'une information de complexité de texture contenue dans l'image courante. Selon l'invention, le dispositif de codage vidéo est remarquable en que le sous-module de prédiction comporte des moyens de traitement numérique adaptés à traiter chaque unité de base prédéfinie courante de l'image courante, de manière à : - obtenir une information de codage relative à une seconde unité de base appartenant à une seconde image coïncidant temporellement avec l'image courante et déjà codée dans une seconde couche hiérarchiquement inférieure à la couche courante ; - obtenir un modèle de prédiction de l'information de complexité de texture à partir d'un modèle de prédiction temporelle intra-couche et d'un modèle de prédiction spatiale inter-couche, en fonction de l'information de codage obtenue. Selon des modes particuliers de réalisation de l'invention, les dispositifs susmentionnés, de prédiction, de contrôle de débit, et de codage, sont réalisés sous la forme de programmes informatiques ou modules logiciels installés et/ou chargés sur un ou plusieurs systèmes, par conséquent la présente invention a aussi pour objet des programmes d'ordinateur tels que brièvement définis ci-après : - un programme d'ordinateur sur un support d'informations, remarquable en ce qu'il comporte des instructions de programme adaptées à mettre en oeuvre un procédé de prédiction d'une information de complexité de texture d'image tel que succinctement exposé plus haut, lorsque ce programme est chargé et exécuté dans un système informatique approprié ; - un programme d'ordinateur sur un support d'informations, remarquable en ce qu'il comporte des instructions de programme adaptées à mettre en oeuvre un procédé de contrôle du débit alloué pour le codage hiérarchique d'une image, tel que succinctement exposé plus haut, lorsque ce programme est chargé et exécuté dans un système informatique approprié ; - un programme d'ordinateur sur un support d'informations, remarquable en ce qu'il comporte des instructions de programme adaptées à mettre en oeuvre un procédé de codage vidéo tel que brièvement exposé plus haut, lorsque ce programme est chargé et exécuté dans un système informatique approprié. Les avantages, buts et caractéristiques de ces dispositifs de prédiction de complexité d'information de texture, de contrôle de débit de codage, et de codage, ainsi que ceux relatifs aux programmes d'ordinateur précités sont similaires à ceux mentionnés plus haut en relation avec les procédés correspondants objets de la présente invention, ils ne sont par conséquent pas rappelés ici. D'autres aspects et avantages de l'invention apparaîtront à la lecture de la description détaillée qui suit de modes particuliers de réalisation, donnés à titre d'exemples non limitatifs. 20 La description se réfère aux dessins qui l'accompagnent, dans lesquels : - la figure 1 illustre schématiquement un mode de réalisation particulier d'un dispositif de prédiction d'une information de complexité de texture et/ou d'un dispositif de contrôle de débit de codage et/ou d'un dispositif de codage vidéo, objets de la présente invention ; 25 - la figure 2 représente un schéma fonctionnel d'un dispositif de codage SVC avec contrôle de débit, dans lequel on peut implémenter un procédé de contrôle de débit selon l'invention ; la figure 3 représente un organigramme illustrant les étapes d'un algorithme global de contrôle de débit dans une couche d'amélioration SVC, connu de l'état de la 30 technique, dans lequel s'inscrit un procédé de contrôle de débit de codage, selon la présente invention ; - la figure 4 représente un organigramme illustrant un procédé de contrôle de débit pour le codage d'une unité de base d'une image, dans lequel est mis en oeuvre un procédé de prédiction d'une information de complexité de texture résiduelle selon la présente invention ; - La figure 5 illustre une méthode de prédiction de la MAD d'une unité de base d'une image à coder dans une couche d'amélioration SVC, selon l'art antérieur ; - La figure 6 illustre le principe de la méthode de prédiction de la MAD d'une unité de base d'une image à coder dans une couche d'amélioration SVC, selon la présente invention ; et - La figure 7 est un organigramme détaillant un procédé de prédiction d'une information de texture (MAD) d'une unité de base d'une image à coder dans une couche d'amélioration SVC, selon un mode de réalisation de l'invention. Dans le cadre de la présente description, les termes ci-après qui s'appliquent au codage SVC d'une séquence vidéo, sont définis comme suit.
Couche de base : couche de plus bas niveau dans le codage SVC (couche compatible H.264/AVC). Couche d'amélioration (encore désignée par couche de « raffinement » ou de « rehaussement » - en anglais : « enhancement layer ») : couche hiérarchiquement supérieure à la couche de base dans le codage SVC.
Couche de référence : couche hiérarchiquement inférieure à une couche d'amélioration courante, qui sert de référence pour la prédiction inter-couches (inter-layer prédiction en anglais) utilisée lors du codage de la couche courante. Image de base d'une image en cours de codage dans une couche d'amélioration : image de la couche de référence qui coïncide temporellement avec l'image courante.
Unité de base d'une image courante en cours de codage : sous-ensemble de macroblocs de l'image (entre un et tous les macroblocs de l'image). Image de référence : image d'une même couche qu'une image courante à coder, servant de référence pour la prédiction temporelle compensée en mouvement (codage INTER). Unité de base co-localisée dans l'image de base : unité de base de l'image de base d'une image courante à coder, qui se situe à la même position spatiale dans l'image de base, que celle de l'unité de base en cours de codage dans l'image courante.
Dans la description qui suit, on utilise indifféremment les termes d'« amélioration », de « raffinement » et de « scalabilité » pour qualifier les couches au dessus de la couche de base. Dans un mode de réalisation choisi et illustré, les procédés précités de prédiction d'information de complexité de texture, de contrôle de débit, et de codage vidéo, selon la présente invention, sont mis en oeuvre sous forme de modules logiciels, c'est-à-dire un ou plusieurs programmes d'ordinateur formant un ensemble et comprenant des instructions adaptées à la mise en oeuvre des procédés précités de prédiction d'information de complexité de texture, de contrôle de débit, et de codage vidéo, selon la présente invention. Ces procédés sont par conséquent mis en oeuvre lorsque ce ou ces programmes sont chargés et exécutés dans un ordinateur ou dispositif informatique. Ainsi, un ordinateur, tel qu'un ordinateur personnel, ou une station de travail, dans lequel sont installés de tels modules logiciels selon l'invention constituent en particulier un dispositif de prédiction d'information de complexité de texture et/ou de contrôle débit de codage d'un signal vidéo et/ou de codage vidéo, selon l'invention. On notera aussi qu'un programme d'ordinateur selon l'invention, dont la finalité est la mise en oeuvre de l'invention lorsqu'il est exécuté par un système informatique approprié, peut être stocké sur un support d'information de types variés. En effet, un tel support d'information peut être constitué par n'importe quelle entité ou dispositif capable de stocker un programme selon l'invention. Par exemple, le support en question peut comporter un moyen de stockage matériel, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, ou encore un moyen d'enregistrement magnétique, par exemple un disque dur. En variante, le support d'informations peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant utilisé pour la mise en oeuvre du procédé considéré. Par ailleurs, le support d'information peut être aussi un support immatériel transmissible, tel qu'un signal électrique ou optique pouvant être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Un programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
D'un point de vue conception, un programme d'ordinateur selon l'invention peut utiliser n'importe quel langage de programmation et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet (par ex., une forme partiellement compilée), ou dans n'importe quelle autre forme souhaitable pour implémenter un procédé selon l'invention. Ainsi, la figure 1 illustre un dispositif objet de la présente invention c'est-à-dire un dispositif de prédiction de complexité de texture ou un dispositif de contrôle de débit de codage ou un dispositif de codage vidéo, selon l'invention , prenant la forme d'un micro-ordinateur 100 muni d'un logiciel implémentant le procédé correspondant, objet de la présente invention, et de différents périphériques. Le dispositif est constitué ici d'un serveur adapté à transmettre des images codées à des destinataires ou « clients » (non représentés). Le micro-ordinateur 100 est connecté à différents périphériques, par exemple un moyen d'acquisition ou de stockage d'images 107, par exemple une caméra numérique ou un scanner, relié à une carte graphique (non représentée) et fournissant des informations d'image à coder et à transmettre. Le micro-ordinateur 100 comporte une interface de communication 118 reliée à un réseau 134 apte à recevoir des données numériques à coder et à transmettre des données codées par le micro-ordinateur. Le micro-ordinateur 100 comporte également un moyen de stockage de type mémoire de masse 112 tel que, par exemple, un disque dur. Le micro-ordinateur 100 comporte aussi un lecteur de mémoire externe 114. Une mémoire de masse externe, ou « clé » comportant une mémoire (par exemple une clé dite « USB » par référence à son port de communication) 116, comme le moyen de stockage 112, peuvent contenir des données à traiter. La mémoire externe 116 peut aussi contenir des instructions d'un logiciel implémentant le procédé objet de la présente invention, instructions qui, une fois lues par le micro-ordinateur 100, sont stockées dans le moyen de stockage 112. Selon une variante, le programme Progr permettant au dispositif de mettre en oeuvre la présente invention est stocké en mémoire morte 104 (appelée « ROM », acronyme de « read only memory », en figure 1), qui est également une mémoire de masse. En seconde variante, le programme est reçu par l'intermédiaire du réseau de communication 134 et est stocké dans le moyen de stockage 112. Le micro-ordinateur 100 est relié à un micro 124 par l'intermédiaire de la carte d'entrée/sortie 122. Le micro-ordinateur 100 possède un écran 108 permettant de visualiser les données à coder ou de servir d'interface avec l'utilisateur, à l'aide d'un clavier 110 ou de tout autre moyen (souris par exemple).
Bien entendu, la mémoire externe 116 peut être remplacée par tout support d'information tel que CD-ROM (acronyme de « Compact Disc û Read Only Memory » pour mémoire en lecture seule en disque compact) ou une carte mémoire. De manière plus générale, un moyen de stockage d'information, lisible par un ordinateur ou par un microprocesseur, intégré ou non au dispositif, éventuellement amovible, mémorise un programme mettant en oeuvre le procédé objet de la présente invention. Une unité centrale 120 (CPU - Central Processing Unit) exécute les instructions du logiciel implémentant le procédé objet de la présente invention. Lors de la mise sous tension, les programmes permettant l'implémentation du procédé objet de la présente invention stockés dans une mémoire non volatile, par exemple la ROM 104, sont transférés dans la mémoire vive RAM 106 qui contient alors les instructions de ce logiciel ainsi que des registres pour mémoriser les variables nécessaires à la mise en oeuvre de l'invention.
Un bus de communication 102 permet la communication entre les différents éléments du micro-ordinateur 100 ou reliés à lui. La représentation du bus 102 n'est pas limitative. Notamment, l'unité centrale 120 est susceptible de communiquer des instructions à tout élément du dispositif directement ou par l'intermédiaire d'un autre élément du dispositif. La figure 2 représente un schéma fonctionnel d'un dispositif de codage SVC avec contrôle de débit, dans lequel on peut implémenter un procédé de contrôle de débit selon l'invention. Le schéma représenté est organisé en deux étages 200, 230 respectivement dédiés au codage de chacune des couches de scalabilité générées. Les références numériques des fonctions similaires sont incrémentées de 30 entre les étages successifs. Chaque étage prend, en entrée, la séquence d'images originale à compresser, respectivement 202, 232, éventuellement sous-échantillonnée à la résolution spatiale de la couche de scalabilité codée par l'étage considéré (cas du premier étage 200 codant la couche de base, en bas dans la figure 2). Au sein de chaque étage est mise en oeuvre une boucle de prédiction temporelle compensée en mouvement. Le premier étage 200 de la figure 2 correspond au schéma de prédiction temporelle et spatiale d'un codeur vidéo non scalable H.264/AVC et est connu de l'homme du métier. I1 réalise successivement les étapes suivantes pour coder la couche de base compatible H.264/AVC. Une image courante 202 à compresser en entrée du codeur est découpée en macroblocs de taille 16x16 pixels, par un module 204. Chaque macrobloc subit, tout d'abord, une étape d'estimation de mouvement, mise en oeuvre par un module 216, qui recherche, parmi des images de références stockées dans une mémoire tampon 212, des blocs de référence permettant de prédire au mieux le macrobloc courant. Un module d'estimation de mouvement 216 fournit un ou deux indices d'images de référence contenant les blocs de référence trouvés, ainsi que des vecteurs de mouvement correspondants. Un module 218 de compensation en mouvement applique les vecteurs de mouvement estimés sur les blocs de référence trouvés et copie les blocs ainsi obtenus dans une image de prédiction temporelle. Par ailleurs, un module de prédiction intra 220 détermine le mode de prédiction spatiale du macrobloc courant qui fournirait les meilleures performances pour le codage du macrobloc courant en INTRA. Ensuite, un module 214 de sélection de mode de codage détermine, parmi les prédictions temporelle et spatiale, le mode de codage qui fournit le meilleur compromis débit distorsion dans le codage du macrobloc courant. La différence entre le macrobloc courant et le macrobloc de prédiction ainsi sélectionné est calculée, par un module de calcul 226, pour fournir un résidu (temporel ou spatial) à compresser. Le macrobloc résiduel subit alors des opérations de transformation en cosinus discrète (ou « DCT » pour « discrete cosine transform ») et de quantification, mises en oeuvre par un module 'TFM-Quant' 206. Un codage entropique des échantillons ainsi quantifiés est alors effectué, par un module 228 de codage entropique, et fournit les données de texture compressées du macrobloc courant.
Enfin, le macrobloc courant est reconstruit via, d'une part, des opérations de quantification inverse et de transformation inverse mises en oeuvre par un module 208, puis, d'autre part, une addition 210 du résidu obtenu après transformation inverse avec le macrobloc de prédiction du macrobloc courant. Une fois l'image courante ainsi reconstruite, celle-ci est stockée dans une mémoire tampon 212 pour servir de référence à la prédiction temporelle de prochaines images à coder. Des modules de filtrage 222 et 224 effectuent une opération de filtrage connue de l'homme du métier sous le nom de « deblocking filter » et visant à réduire les effets de blocs pouvant apparaître en frontière de macroblocs. Le deuxième étage 230 de la figure 2 illustre le codage de la première couche de raffinement du flux SVC. Cette couche apporte un raffinement en résolution spatiale par rapport à la couche de base obtenue par l'étage 200. Le schéma de codage de la couche de raffinement est également connu de l'homme du métier. Comme l'indique la figure 2, il est analogue au schéma de codage de la couche de base, à ceci près que, pour chaque macrobloc d'une image courante 232 en cours de compression, un mode de prédiction additionnel par rapport au codage de la couche de base peut être choisi par le module 244 de sélection du mode de codage. Ce mode de prédiction est appelé «prédiction inter-couches » (inter-layer prédiction en anglais). II consiste à réutiliser les données codées dans une couche inférieure à la couche de raffinement en cours de codage comme données de prédiction du macrobloc courant. La couche inférieure dans le cas présent, la couche de base est appelée la « couche de référence » pour la prédiction inter-couches de la couche de raffinement (étage 230).
Dans le cas où la couche de référence contient une image qui coïncide temporellement avec l'image courante de la couche de raffinement, cette image est alors appelée « image de base » de l'image courante. Dans ce cas, un macrobloc courant quelconque de l'image courante possède un macrobloc dit « co-localisé », c'est-à-dire un macrobloc qui se situe à la même position spatiale dans l'image de base. Dans le cas d'une couche de scalabilité en qualité, la détermination de ce macrobloc co-localisé est aisée car l'image de base et l'image courante ont la même résolution spatiale. Dans le cas d'une couche de scalabilité spatiale, le calcul de la position du bloc co-localisé dans l'image de base de résolution spatiale inférieure consiste en la division des coordonnées du macrobloc courant par le rapport d'échelle existant entre les tailles de l'image respectivement dans la couche de rehaussement et la couche de base. Ce macrobloc co-localisé ainsi déterminé peut servir de référence pour prédire le macrobloc courant de la couche de raffinement. Plus précisément, le mode de codage, la partition de macroblocs, les données de mouvement (si elles sont présentes) ainsi que les données de texture (résidu dans le cas d'un macrobloc prédit temporellement, texture reconstruite dans le cas d'un macrobloc codé en INTRA) du macrobloc co-localisé, peuvent être utilisés pour prédire le macrobloc courant. Dans le cas d'une couche de raffinement spatial, des opérations (non représentées) de sur-échantillonnage des données de texture et de mouvement de la couche de référence sont effectuées. En dehors de cette technique de prédiction inter-couches utilisée dans l'extension SVC du standard H.264/AVC, le codage d'une couche de scalabilité SVC met en oeuvre une boucle de prédiction temporelle compensée en mouvement (références 234, 256, 236, 238, 242, 254, 246, 248, 250, 258) similaire à celle utilisée pour le codage de la couche de base 200 compatible H.264/AVC. Le premier étage 200 du codeur SVC de la figure 2, correspondant à la couche de base, comporte une fonction de contrôle de débit 229 mettant en oeuvre un algorithme équivalent à celui implémenté dans le logiciel de référence SVC (document [2]) et qui constitue l'algorithme de contrôle de débit de référence du standard H.264/AVC, documenté dans le document [1]. En résumé, la fonction de contrôle de débit 229 dans le codage de la couche de base est mise en oeuvre de façon optionnelle afin de tenter de générer un flux vidéo respectant un débit cible. Par exemple, un tel débit peut être calculé en fonction de la bande passante du réseau et de l'état de la mémoire tampon 227 de sortie du codeur, dans laquelle sont produites des unités NAL (VALU - Network Abstraction Layer Units) successivement encodées. Etant donné le débit cible, le module 229 de contrôle de débit du codeur détermine alors les paramètres de quantification à assigner a chaque image et/ou macrobloc à coder, de façon à générer des données codées avec le débit requis. Le deuxième étage 230 du codeur SVC de la figure 2 comporte un module 259 de contrôle de débit analogue à celui équipant le premier étage 200 (module 229). Il est ainsi possible, lors du codage d'une couche d'amélioration SVC considérée, de contrôler le choix des paramètres de quantification à assigner aux macroblocs de cette couche d'amélioration, de façon à ce que le débit de la couche de raffinement codée soit le plus proche possible d'un débit cible attribué à la couche de raffinement SVC considérée. Selon une variante (non représentée), le contrôle de débit dans la couche de raffinement peut prendre en entrée un débit total attribué à l'ensemble des deux couches, et régule alors le codage de la couche de raffinement de façon à ce que la somme du débit généré dans la couche de base et dans la couche de raffinement soit la proche du débit cible total. Comme mentionné plus haut dans la description, l'invention propose une méthode de contrôle de débit particulière dans le codage des couches d'amélioration SVC, qui modifie la manière de choisir les paramètres de quantification des macroblocs dans ces couches, afin d'obtenir un contrôle de débit procurant une meilleure précision que les méthodes existantes. La méthode de contrôle de débit selon l'invention s'inscrit dans le cadre d'un algorithme global de contrôle de débit dans une couche de scalabilité, mis en oeuvre dans le module 259 de la figure 2 et tel que représenté à la figure 3 décrite ci-après.
La figure 3 représente un organigramme illustrant les étapes d'un algorithme global de contrôle de débit, adapté à réguler le débit du codage dans une couche d'amélioration SVC. Dans le cas de la couche de base d'un flux vidéo SVC, cet algorithme est équivalent à l'algorithme implémenté dans le logiciel de référence SVC (document [2]) et qui constitue l'algorithme de contrôle de débit de référence du standard H.264/AVC (document [1]). Ainsi, cet algorithme est mis en oeuvre dans chacun des modules (229, 259) de contrôle de débit associé au codage d'une couche donnée, illustrés par la figure 2.
Dans le cas de couches de raffinement SVC différentes de la couche de base, conformément à l'invention, l'algorithme de contrôle de débit se distingue de l'algorithme connu, notamment en ce qui concerne le traitement des images de type I (codage INTEA) ou P (codage INTER), de niveau temporel nul. Pour rappel, une image de niveau temporel nul est de type I ou P (predictive) et est située en frontière d'un groupe d'images ou GOP (Group Of Pictures en anglais) SVC. La spécificité de l'algorithme global précité pour les couches de raffinement, conformément à l'invention, se décrit plus bas dans la description, en liaison avec les figures 4, 5 et 6. L'algorithme général de contrôle de débit représenté à la figure 3 opère sur une 10 période IDR, c'est-à-dire un intervalle d'images délimité par deux images de type IDR (Instantaneous Decoding Refresh). Les données d'entrée de l'algorithme de la figure 3 sont les suivantes : i : l'indice de la période IDR courante. RiÙ) : le débit moyen auquel on souhaite coder la période IDR d'indice i. Ce 15 débit est susceptible de varier en cours de codage de la période IDR courante. Par souci de simplicité, on considérera qu'il demeure constant par la suite, et noté Rtarget. f : la fréquence d'images de la séquence en cours de codage. Ni : le nombre d'images dans la période IDR courante. Sur la figure 3, l'algorithme débute par une étape S1 d'initialisation (à 1) de l'indice j 20 de l'image courante dans la période IDR courante i. L'étape suivante S2 détermine le débit alloué à la période IDR courante. Celui-ci est noté BiÙ) et est mis à jour avant le codage de chaque image dans la période IDR considérée, selon les équations suivantes : où bi(j -1) est le nombre de bits utilisé pour le codage de l'image d'indice (jûl) de 25 la période IDR i. La suite de l'algorithme consiste à calculer (étape S4) le niveau d'occupation courant J/) de la mémoire tampon (buffer) virtuelle en sortie du codeur. Ce niveau est calculé selon l'équation suivante : Le niveau d'occupation est utilisé ultérieurement par le processus de contrôle de débit pour calculer le nombre de bits alloué au codage d'une image. Ensuite, dans le cas (test S5, oui) où l'image j correspond à la première image (de type IDR) de la période IDR courante, à l'étape S6, on assigne à l'image un paramètre de quantification QPi(1) qui sera utilisé dans le codage de tous les macroblocs de l'image IDR considérée, puis on passe à une image suivante à coder dans la période IDR courante (étape S3), et le processus recommence avec l'étape S2. Typiquement, le paramètre QPi(1) est fixé à une valeur entière en fonction du débit Rtarget, comme décrit dans le document [1].
Dans le cas contraire (test S5, non), un test S7 est effectué pour déterminer si l'image courante j a un niveau temporel égal à 0. Dans la négative (S7, non), cela signifie que l'image courante est de type B ou P hiérarchique. Dans ce cas, à l'étape S8, un paramètre de quantification est attribué à l'image courante, et est utilisé dans le codage de tous les macroblocs de l'image. Le paramètre de quantification assigné est obtenu selon l'équation suivante : x 19 2 T où QPp (j) represente le paramètre de quantification moyen attribué à la dernière image codée de niveau temporel 0 avant l'image d'indice j, et TL représente le niveau temporel de l'image courante. Par conséquent le paramètre de quantification des images B hiérarchiques des couches SVC est fixé uniquement en fonction des paramètres de quantification des images P avoisinantes. Aucun contrôle de débit proprement dit n'est mis en oeuvre dans le codage des images B hiérarchiques. Une fois le paramètre de quantification QPb i (j, TL) attribué à l'image courante, celle-ci est codée, à l'étape S9.
L'étape suivante, S10, consiste alors en la mise à jour de la mesure de complexité de la dernière image B ou P hiérarchique codée, notée Wb,,( j) , selon l'équation suivante : -2 %.(.t,T T:3 Cette complexité est utilisée plus tard dans une étape d'allocation de débit pour les images de niveau temporel zéro. Dans le cas où le niveau temporel de l'image courante j est égal à zéro (test S7, oui), cela signifie que l'image courante est de type I ou P et est située en frontière d'un groupe d'images (GOP) SVC. Dans ce cas, un processus de contrôle de débit spécifique à ces images est mis en oeuvre, conformément à l'invention. Il consiste tout d'abord à calculer, à l'étape S11, un nombre de bits (budget) alloué à l'image courante. Le nombre de bits alloué pour l'image j de niveau temporel nul est noté Ti( j) . Son calcul est réalisé comme suit. Tout d'abord, les complexités moyennes Wp i(j) et WL i(j) des images 10 précédemment codées sont calculées selon les équations suivantes : 7 x' 8 Où W p i(j) représente la complexité de la dernière image codée de niveau temporel 0. Les équations (8) et (9) ci-dessus sont utilisées lorsque respectivement au moins huit images P et huit images B ont été codées. Dans le cas contraire, les coefficients de valeur 15 respective `7' et `8', associés aux sommes pondérées (8) et (9) ci-dessus, sont adaptés en fonction du nombre d'image déjà codées. Une fois ces complexités d'images calculées, on calcule le niveau cible du buffer virtuel Si(j +1) pour la prochaine image de niveau temporel nul à coder, selon les équations suivantes : x où numB est le nombre d'images B hiérarchiques codées dans chaque GOP SVC dans la couche de scalabilité considérée, et Np(i) est le nombre d'images de niveau temporel nul dans la période IDR courante i. Le calcul du nombre de bits alloués pour l'image de niveau temporel 0 courante j 25 peut alors être effectué. Le budget de bits Ti(j) est constitué de deux composantes T (j) et s ,:.i + .t? = 20 T(j).
La première composante dépend du niveau cible SiÙ) du buffer virtuel, l'occupation effective courante J/) du buffer virtuel, le débit cible RiÙ) et la fréquence d'image f Le calcul est effectué selon l'équation suivante : t r>
Où y est égal a 0,5 pour un GOP de longueur 1 (c'est-à-dire ne contenant aucune image de niveau temporel strictement supérieur à 0) et 0,25 pour des GOPs plus longs. La deuxième composante de TiÙ) dépend du nombre de bits BiÙ) restants pour coder la période IDR courante, et consiste en une portion de Bi(j) pondérée par les complexités respectives des images de niveaux temporels 0 et supérieurs à 0, elle est obtenue selon l'équation suivante : où Np,r et Nb,r sont respectivement les nombres d'images de niveaux temporels 0 et supérieurs a 0 restants à coder dans la période IDR courante. Finalement, le nombre de bits alloués à l'image courante j de niveau temporel nul est une combinaison pondérée de 'i';( j) et î;( j) , selon l'équation suivante : 7; ) où 13 est une constante, par exemple égale à 0,5 pour une longueur de GOP égale à 1, et égale à 0,9 pour des GOPs plus longs. Une fois le budget de bits TiÙ) alloué à l'image courante j de niveau temporel zéro (étape S11 terminée), on passe à l'étape S12 au cours de laquelle on procède au contrôle de débit et au codage des unités de base contenues dans l'image courante. Une « unité de base » est définie, dans le cadre de la présente description, comme un sous-ensemble de macroblocs de l'image courante en cours de codage. Une unité de base peut par exemple contenir un macrobloc, plusieurs macroblocs consécutifs de l'image, ou encore tous les macroblocs de l'image. Cette étape S12 de contrôle de débit au sein de l'image courante et de codage de ses macroblocs est détaillée plus bas en liaison avec l'organigramme de la figure 4. Une fois que tous les macroblocs de l'image courante ont été codés selon l'algorithme mis en oeuvre à l'étape S12, on passe à l'étape suivante, S13, au cours de laquelle on calcule la complexité de l'image courante j qui vient d'être codée. Cette complexité Wp i(j) est calculée selon l'équation suivante : Cette complexité ainsi mise à jour est ensuite utilisée lors de l'étape S11 de calcul du nombre de bits alloué à l'image courante de niveau temporel 0, comme expliqué plus haut. Une fois le traitement (S8-S10 ou S11-S13) de l'image courante de niveau temporel égal ou supérieur à 0 effectué, on passe à l'étape de test S14 pour déterminer si l'image d'indice j correspond à la dernière image de la période IDR en cours de codage. Si c'est le cas (S 14, oui), l'algorithme de la figure 3 est terminé. Sinon (S 14, non), une nouvelle itération de l'algorithme de contrôle de débit est mise en oeuvre pour le codage d'une nouvelle image (étape S3), et le processus recommence avec l'étape S2 d'attribution de budget de débit à la période IDR en cours de traitement. L'étape S12 de contrôle de débit des unités de base contenues dans l'image courante, va être maintenant détaillée en liaison avec la figure 4.
On rappelle ici qu'une unité de base est constituée d'un sous-ensemble de macroblocs (au minimum un macrobloc) de l'image courante en cours de codage. La figure 4 représente un organigramme illustrant un procédé de contrôle de débit pour le codage d'une unité de base d'une image, dans lequel est mis en oeuvre un procédé de prédiction d'une information de complexité de texture selon la présente invention.
Plus précisément, la figure 4 détaille le processus de contrôle de débit des unités de base appartenant à une image de niveau temporel 0, d'indice j strictement supérieur à 1, en cours de traitement lors de la mise en oeuvre de l'algorithme global de contrôle de débit dans une couche d'amélioration SVC, tel qu'illustré à la figure 3. Les données fournies en entrée du processus de contrôle de débit des unités de base 25 de l'image courante (image de niveau temporel 0, d'indice j > 1), sont les suivantes : Ti(j): le nombre de bits alloués pour le codage de l'image courante ; QPI,,i(j -1) : le paramètre de quantification moyen attribué à l'image de niveau temporel 0 précédente ; - Ni : le nombre d'images total dans la période IDR courante. 30 Le procédé illustré à la figure 4 commence par une étape 5120 d'initialisation de l'indice courant 1 de l'unité de base en cours de traitement.
L'étape suivante 5121 consiste en la prédiction de la complexité de la texture à coder dans l'unité de base courante. En pratique, la complexité de la texture à coder est prédite au moyen d'une métrique ou mesure statistique de similarité. Dans le mode de réalisation décrit et illustré ici, de manière non limitative cette complexité de texture est représentée par la moyenne des valeurs absolues des différences (mean absolute différence û MAD) entre les valeurs de pixels de l'unité de base à coder dans sa version originale, et les valeurs de pixels utilisées pour prédire temporellement ou spatialement les macroblocs de l'unité de base courante. Cependant, selon des variantes de réalisation, l'information de complexité de texture peut être prédite au moyen d'une autre mesure statistique de similarité, par exemple sous la forme d'une variance, d'un écart-type, d'une Somme des Différences Absolues (SAD) entre un macrobloc original considéré et un macrobloc prédicteur correspondant, ou encore sous la forme d'une norme infinie (c'est-à-dire le maximum des valeurs absolues des différences entre pixels du macrobloc original considéré et le macrobloc prédicteur correspondant).
Comme expliqué précédemment, il est nécessaire de disposer de la MAD pour pouvoir choisir le pas de quantification adéquat pour coder l'unité de base courante. Or, il est impossible de connaître la MAD exacte sans connaître les modes de codage choisis pour les macroblocs de l'unité de base courante. Dans le codage H.264/AVC et SVC, ce choix est réalisé en fonction du paramètre de quantification sélectionné pour l'unité de base, on ne peut par conséquent pas connaître la MAD exacte de l'unité de base courante avant de lui avoir attribué un paramètre de quantification. On estime donc cette MAD via un modèle de prédiction des unités de base dans les couches de rehaussement SVC, conformément à l'objet de la présente invention. Le modèle de prédiction d'information de complexité de texture (MAD) mis en 25 oeuvre à l'étape S121 est détaillé plus bas dans la description en liaison avec la figure 7. De retour à la figure 4, lorsque la MAD de l'unité de base courante l a été prédite (étape S121), à l'étape suivante, 5122, on calcule le nombre b; de bits cible pour le codage de l'unité de base courante : 24 où 61,,( j) représente la MAD prédite de l'unité de base courante ; Nunit est le nombre total d'unités de base dans l'image courante, et Tr est le nombre de bits disponibles restants pour le codage de l'image courante, sa valeur initiale étant égale à TiÙ). A l'étape suivante, S123, on détermine et on attribue un paramètre de quantification 5 à l'unité de base courante. Pour le premier macrobloc de l'image, le paramètre de quantification Q]1(j) est déterminé par l'équation suivante : QI 1=1,i (/) = QPp,i (/) (17) Pour les autres macroblocs, le paramètre de quantification est calculé en fonction d'un modèle quadratique reliant le nombre de bits alloués pour l'unité de base courante, la 10 MAD de l'unité de base courante prédite et le pas de quantification, selon l'équation suivante: où : Qstep,i,i(j) est le pas de quantification à déterminer ; mhdr,l est le nombre de bits d'en-tête estimés pour l'unité de base courante l ; (cl, c2) sont les paramètres du modèle quadratique. 15 La résolution de l'équation (18) ci-dessus fournit le pas de quantification Qstep,i,iÙ)• Le paramètre de quantification de l'unité de base courante l est alors déduit du pas de quantification obtenu. L'étape suivante, S124, consiste en l'optimisation débit-distorsion et le codage de chaque macrobloc de l'unité de base courante. Cette étape connue de l'homme du métier ne 20 sera pas davantage détaillée ici. Ensuite, aux étapes S125-S127 qui suivent, on met successivement à jour le nombre de bits disponibles restants pour l'image courante (S125), le modèle de prédiction de MAD utilisé (S126), et le modèle quadratique utilisé dans l'équation (18) précitée (S127). Les mises à jour des modèles de prédiction linéaire de MAD et du modèle quadratique défini par 25 l'équation (18), mettent en oeuvre un processus de régression linéaire, connu de l'homme du métier. Par exemple, dans le cas de l'équation (18), le processus de régression linéaire prend en compte les dernières valeurs effectivement prises par la MAD (paramètre 6i j ')), le nombre de bits effectivement utilisé pour coder l'unité de base courante, le pas de quantification appliqué sur cette unité de base, et tente d'ajuster les paramètres et et c2 de façon à ce que le 30 modèle de prédiction se rapproche progressivement de la réalité.
Enfin, à l'étape de test S128, on détermine si l'unité de base courante est la dernière unité de base de l'image courante. Si c'est le cas (5128, oui), le processus de contrôle de débit des unités de base de l'image courante est terminé. Dans le cas contraire, on passe (étape S129) à l'unité de base suivante de l'image courante, puis on retourne à l'étape S121 de prédiction de MAD, et le processus recommence. La figure 5 illustre une méthode de prédiction de la MAD d'une unité de base d'une image à coder dans une couche d'amélioration SVC, selon l'art antérieur. En particulier, la méthode illustrée est celle décrite dans le document [3] mentionné dans la partie introductive de la présente description.
A titre d'exemple, la figure 5 représente deux couches de scalabilité SVC la couche de base BL et une couche d'amélioration EL et deux images successives dans chacune de ces couches : ELIM 1 et ELIM2 ; BLIM 1 et BLIM2. De plus, dans cet exemple, l'unité de base en cours de traitement (unité de base courante) est illustrée dans la deuxième image (ELIM2) de la couche supérieure SVC, par la portion grisée de l'image, et porte la référence EL2. L'unité de base considérée est ici un ensemble de pixels correspondant à une ligne de macroblocs de l'image courante ELIM2. La méthode de prédiction selon l'art antérieur considéré (document [3]), effectue un choix entre une prédiction temporelle et une prédiction spatiale de la MAD de l'unité de base courante EL2.
La prédiction temporelle, représentée par la flèche Pl, consiste à prédire la MAD de l'unité de base courante EL2 à partir de la MAD effective de l'unité de base EL1 co-localisée dans l'image précédente de la couche d'amélioration courante. La prédiction spatiale, représentée par la flèche P2, consiste quant à elle à prédire la MAD de l'unité de base courante EL2 à partir de la MAD effective de l'unité de base BL2 co- localisée dans la même image mais codée dans la couche inférieure (la couche de base dans cet exemple). Selon le document [3] les deux modèles de prédiction précités, temporelle et spatiale, sont linéaires et sont décrits plus précisément respectivement par les équations (19) et (20) ci-dessous.
Pour le modèle de prédiction temporelle : Ou : - layer est l'indice de la couche de scalabilité contenant l'unité de base en cours de traitement ; - currPic est l'indice de l'image courante dans la couche de scalabilité courante layer ; - MADpYed temp[layer] [currPic] représente la MAD prédite de l'unité de base courante ; - refPic représente l'indice de l'image de référence utilisé dans la prédiction temporelle de l'image courante ; - MADaetuaz[layer][refPic] représente la MAD effective de l'unité de base co-localisée de l'unité de base courante dans l'image de référence de l'image courante ; - al [layer] et a2[layer] sont les paramètres du modèle de prédiction linéaire considéré.
Pour le modèle de prédiction spatiale : Où: - layer est l'indice de la couche de scalabilité contenant l'unité de base en cours de traitement, et currPic est l'indice de l'image courante dans la couche de scalabilité 15 courante layer ; - MADpYecspattaz[layer][currPic] représente la MAD de l'unité de base courante, prédite spatialement ; - MADactual[layer û 1 ] [currPic] représente la MAD effective de l'unité de base colocalisée de l'unité de base courante, dans l'image de référence de l'image courante, 20 dans la couche de scalabilité inférieure (layer û 1) ; - b1 [layer] et b2[layer] sont les paramètres du modèle de prédiction linéaire considéré. Selon l'art antérieur, le choix entre prédiction temporelle et prédiction spatiale de la MAD est effectué en sélectionnant le modèle de prédiction (temporelle ou spatiale) qui a donné les meilleures performances en termes de précision de prédiction sur un ensemble 25 d'images récemment codées, par exemple les dix dernières images codées. Comme on peut l'observer, la méthode de prédiction connue ne prend pas en compte le fait que le codeur SVC dispose, au moment de prédire la MAD, d'informations relatives aux caractéristiques de la scène vidéo en cours de codage et de son contenu. En particulier, les informations qui ont été précédemment codées dans la couche inférieure à la couche courante 30 sont facilement accessibles par le codeur SVC via les mécanismes de prédiction inter-couches spécifiques au standard SVC. Ces informations peuvent ainsi fournir des indications pertinentes au module de contrôle de débit, en particulier concernant le type de prédiction de MAD susceptible de donner de bons résultats. Les informations considérées correspondent à toutes les informations de la couche inférieure qui peuvent servir de référence dans la prédiction des macroblocs de la couche courante. Le procédé de prédiction de la MAD proposée selon la présente invention repose en particulier sur l'utilisation des informations précédemment codées dans une couche inférieure (la couche de référence plus précisément) à la couche d'amélioration SVC en cours de codage. Les informations codées de la couche inférieure servant à prédire la couche courante incluent le type des macroblocs (INTRA, INTER, ...) de la couche inférieure, les indices d'images de référence temporelle, les vecteurs de mouvements. Ainsi, un nombre élevé de macroblocs INTRA dans la couche de référence (couche de base par exemple dans la figure 2) est susceptible de traduire un phénomène de changement de scène en train de s'opérer dans l'image courante. Dans un tel cas, il semble qu'une prédiction spatiale de la MAD soit pertinente. Au contraire, une forte proportion de macroblocs INTER dans la couche de référence (couche de base par exemple) signifie que le contenu de la scène est facilement prédictible temporellement. Par conséquent, dans ce cas, une prédiction temporelle de la MAD semble justifiée. La figure 6 illustre ainsi le principe de la méthode de prédiction de la MAD d'une unité de base d'une image à coder dans une couche d'amélioration SVC, selon l'invention. A la figure 6, à titre d'exemple, le codage SVC est effectué sur deux couches de scalabilité, une couche de base BL et une couche d'amélioration EL. Sur la figure 6, sont représentées deux images successives dans chacune de ces couches : EL_IM 1 et EL_IM2 ; BL_IM 1 et BL_IM2. L'image ELIM2 est en cours de codage dans la couche d'amélioration EL. Dans l'image ELIM2 deux unités de base sont considérées : EL21 et EL22. Dans cet exemple, les unités de base sont constituées de macroblocs, c'est-à-dire des blocs carrés de pixels contigus de l'image constituant les entités de codage élémentaires, qui subissent les opérations de codage décrites en référence à la figure 2. Les unités de base EL21 et EL22 de l'image courante (ELIM2) ont pour unité de base co-localisée dans l'image de base BLIM2, respectivement les unités de base BL21 et BL22. Comme représenté à la figure 6, l'unité de base co-localisée BL21 a été codée en INTER, comme indiqué par la flèche P4. Dans ce cas, l'image BLIM1 est l'image de référence pour l'image BLIM2 pour le codage INTER (prédiction par compensation de mouvement). Selon l'invention, le type de codage INTER de l'unité de base co-localisée BL21 induit une sélection du modèle temporel de prédiction de la MAD de l'unité de base EL21, comme indiqué par la flèche Pl, pour coder l'unité de base EL21 de l'image courante (ELIM2). En revanche, l'unité de base co-localisée BL22 a été codée en INTRA, ce qui induit une sélection du modèle de prédiction spatiale de la MAD de l'unité de base EL22 de l'image courante (ELIM2), comme indiqué par la flèche P2. Ainsi, comme exposé précédemment, la méthode de prédiction de MAD d'une unité de base courante, selon l'invention, consiste en l'utilisation de deux modèles de prédictions linéaires, spatial et temporel, comme dans la méthode décrite dans le document [3], cependant à la différence de la méthode enseignée dans le document [3], une sélection entre prédiction spatiale et prédiction temporelle est opérée, en fonction du type de codage INTRA ou INTER relatif à l'unité de base co-localisée dans l'image de base de l'image courante (c'est-à-dire l'image de la couche de référence qui coïncide temporellement avec l'image courante). Selon un premier mode de réalisation de l'invention, la sélection entre prédiction spatiale et prédiction temporelle de la MAD, est effectuée pour chaque macrobloc composant l'unité de base considérée de l'image courante. Dans ce mode de réalisation, le calcul de la MAD prédite de l'unité courante, MADpred[layer][currPic] (correspondant à la grandeur â',,,( j) de l'équation (16)), est effectué selon l'équation suivante : Z. r3 .. t t e• .1 },r-., - ti ,+.,.:.Ali; \ où: - [layer] et [currPic] sont les indices respectivement de la couche courante et de l'image courante, et [layer-1] est l'indice de la couche de référence pour la couche courante ; NMB représente le nombre de macroblocs dans l'unité de base courante ; BaseMblslnter est une variable binaire indiquant si le macrobloc co-localisé mb du macrobloc considéré, appelé «macrobloc de base », a été codé en INTER, c'est-à-dire via une prédiction temporelle compensée en mouvement. Par exemple, BaseMblslnter vaut 1 si le codage est INTER et 0 sinon. Ainsi dans l'équation (21) ci-dessus, si le codage du macrobloc mb est INTER alors l'équation sélectionnée est la suivante : ai[.] X MADYeJMB + a2[.], sinon l'équation sélectionnée est la suivante : bi[.] X MADeositeBaseMb + b2[.]. - MADYe[layer][refPic] représente la MAD effective du macrobloc de l'image de référence de la couche courante coïncidant temporellement avec l'image de référence du macrobloc de base considéré, et pointé par le vecteur de mouvement du macrobloc de base ; MADcOSZteBaseMb[layer-1][currPic] représente la MAD effective du macrobloc de base du macrobloc courant ; al[layer], a2[layer], bl[layer] et b2[layer] sont des paramètres pour le modèle de prédiction linéaire utilisé. En d'autres termes, pour un macrobloc considéré de l'unité courante, si le mode de codage du macrobloc de base est INTER alors le modèle de prédiction temporelle est choisi, 10 et ce dernier fournit la valeur de MAD définie par l'équation suivante : 1 211c (211) En revanche, si le mode de codage du macrobloc de base est INTRA alors le modèle de prédiction spatiale est choisi, ce dernier fournit la valeur de MAD définie par l'équation suivante : } } 15 Afin de clarifier davantage les définitions ci-dessus, en reprenant l'exemple illustré à la figure 6, on donne les explications qui suivent. Concernant le paramètre BaseMblslnter : - BL22 est le macrobloc de base du macrobloc courant EL22 de l'image courante 20 ELIM2, puisque BL22 est le macrobloc co-localisé du macrobloc EL22, dans l'image de base BL IM2. Il en est de même pour les macroblocs BL21 et EL21. Concernant la valeur de MAD définie par MADYe[layer] [refPic] : - si l'on considère le macrobloc de base BL21 associé au macrobloc courant EL21, alors BLIM1 est l'image de référence du macrobloc de base BL21 et EL_IM1 est l'image de 25 référence de la couche courante (EL) qui coïncide temporellement avec l'image de référence (ELIM1) du macrobloc de base BL21, et EL 11 est donc le macrobloc de référence pointé par le vecteur de mouvement du macrobloc de base BL21. De plus, concernant la valeur de MAD définie par MADYe[layer][refPic], comme le montre la figure 6, le macrobloc de référence EL11 couvre potentiellement 4 macroblocs 30 différents de la grille de macroblocs de l'image ELIM1 coïncidant temporellement avec l'image de référence BLIM1 du macrobloc de base BL21. Par conséquent, pour estimer la MAD du macrobloc (EL11) ainsi déterminé, on stocke les valeurs de MAD effectives de (212) aye chaque macrobloc au fur et à mesure que les macroblocs sont codés, et on calcule une moyenne des MADs des 4 macroblocs couverts, pondérée par la surface couverte dans chacun de ces 4 macroblocs. Par ailleurs, pour le macrobloc courant EL21, comme le macrobloc de base BL21 est codé en INTER, alors la valeur de MAD du macrobloc EL21 sera calculée via l'équation (2l 1) ci-dessus. En revanche, pour le macrobloc courant EL22, le macrobloc de base BL22 est codé en INTRA, ce sera donc l'équation (212) qui s'appliquera pour calculer la valeur de MAD pour le macrobloc courant EL22. Enfin, les paramètres des deux modèles de prédiction temporelle (équation (211)) et spatiale (équation (212)) de la MAD sont progressivement mis à jour, par exemple via un algorithme de régression linéaire, au fur et à mesure que les images de la séquence vidéo considérée sont codées. Selon un second mode de réalisation de l'invention, on calcule la MAD prédite de l'unité de base courante MADpred[layer][currPic] de l'image courante à coder dans la couche d'amélioration considérée, selon l'équation suivante : ?il ât:iyr'_ F;.t: ei..' Z' où : - NbBaselnter représente le nombre de macroblocs codés en INTER dans l'unité de base co-localisée de l'unité de base courante, ce nombre incluant le nombre de macroblocs non codés de l'unité de base co-localisée (mode de codage P SKIP ou B_SKIP du standard SVC) ; - NbBaselntra représente le nombre de macroblocs codés en INTRA dans l'unité de base co-localisée de l'unité de base courante. Par conséquent la somme (NbBaselntra + NbBaselnter) est égal au nombre total de macroblocs dans l'unité de base co-localisée de l'unité de base courante, dans l'image de base de l'image courante ; MADreU représente la MAD de l'unité de base co-localisée de l'unité de base courante, dans l'image de référence de l'image courante, dans la couche de scalabilité courante ; (22) 31 MADbaseBU représente la MAD de l'unité de base co-localisée de l'unité de base courante, dans l'image de base de l'image courante (dans la couche de référence de la couche de scalabilité courante). - al[layer], a2[layer], bl[layer] et b2[layer] sont des paramètres pour le modèle de prédiction linéaire utilisé. Ce deuxième mode de réalisation de calcul (équation (22)) de la MAD prédite pour une unité de base courante de l'image en cours de codage, présente notamment l'avantage, par rapport au mode de réalisation précédemment décrit, de réduire la complexité du calcul de la MAD sur l'ensemble de l'unité de base courante.
Selon un troisième mode de réalisation, on calcule la MAD prédite de l'unité de base courante MADpred[layer][currPic] de l'image courante à coder dans la couche d'amélioration considérée, selon l'équation suivante : (23) Selon ce troisième mode de réalisation, on sélectionne le modèle de prédiction temporelle de la MAD de l'unité de base courante : ai[.] X MADYefu[layer][.] + a2[.], si l'unité de base co-localisée de l'unité de base courante dans l'image de base de l'image courante, possède plus de macroblocs INTER que de macroblocs INTRA. Dans le cas contraire, le modèle de prédiction spatiale de la MAD de l'unité de base courante est sélectionné: bi[.] X MADBaseBU[layer -1][.] + b2[.] . Ainsi, si le mode de codage majoritaire de l'unité de base co-localisée de l'unité de base courante dans l'image de base est INTRA, on sélectionne le modèle de prédiction spatiale inter-couches, alors que si le mode de codage majoritaire de l'unité de base colocalisée de l'unité de base courante dans l'image de base est INTER, on sélectionne le modèle de prédiction temporelle intra-couche pour prédire la MAD de l'unité de base courante. Ce troisième mode de réalisation présente également l'avantage, par rapport au premier mode de réalisation décrit en référence à la figure 6, de réduire la complexité du calcul de la prédiction de l'information de complexité de texture (MAD).
En liaison avec l'organigramme de la figure 7 on va à présent décrire de manière plus détaillée l'utilisation d'une méthode de calcul de MAD d'une unité de base quelconque de l'image courante à coder dans une couche d'amélioration SVC, selon le premier mode de réalisation précité, dans le cadre du procédé de contrôle de débit décrit plus haut en liaison avec la figure 4. L'organigramme de la figure 7 illustre ainsi un algorithme de prédiction de MAD pour une unité de base en cours de traitement, mis en oeuvre à l'étape 5121 de la figure 4. L'algorithme de prédiction de MAD pour une unité de base, illustré à la figure 7, reçoit en entrées les données suivantes : l'unité de base courante l dont on cherche à prédire la MAD ; les informations de prédiction inter-couche provenant de l'image de base de 10 l'image courante, c'est-à-dire de l'image coïncidant temporellement avec l'image courante et appartenant à la couche de scalabilité inférieure ; - l'image de référence dans la couche courante, c'est-à-dire l'image de la couche courante qui coïncide temporellement avec l'image de référence qui a été utilisée pour prédire temporellement l'image de base de l'image courante.
15 Lors d'une première étape 5701, la variable contenant la valeur 61,,(j) de la MAD de l'unité de base courante est initialisée à 0. Ensuite, on parcourt successivement tous les macroblocs mb de l'unité de base courante l en commençant par le premier macrobloc de l'unité de base courante (étape S703). Ensuite, pour chacun des macroblocs de l'unité de base courante, on détermine 20 (étape 5705) si le macrobloc de base correspondant c'est-à-dire le macrobloc qui est co- localisé dans l'image de base a été codé en INTEA ou non. Si c'est le cas (5705, oui), le mode de prédiction spatiale de la MAD est sélectionné. Le modèle de prédiction linéaire spatiale défini par l'équation (212) plus haut, est alors utilisé. On augmente alors, à l'étape 5707, la valeur 6,,,( j) de MAD de l'unité de base courante l d'une quantité correspondant à 25 la valeur de prédiction de la MAD du macrobloc courant obtenue via le modèle de prédiction spatiale, comme défini par l'équation ci-dessous : (j) = (j) + bi [layer] x MADeositeBaseMB [layer -1] [currPic] + b2 [layer] (24) Si, lors du test 5705, on détermine que le mode de codage du macrobloc de base du macrobloc courant mb est INTER, à l'étape 5709, on obtient le vecteur de mouvement du 30 macrobloc de base puis on calcule la MAD du macrobloc de référence de la couche courante pointé par ce vecteur de mouvement, éventuellement ré-échantillonné à la résolution spatiale de la couche courante. Cette MAD calculée est notée MADre. [layer] [refPic] . On augmente alors, à l'étape S713, la valeur â-,,,( j) de MAD de l'unité de base courante 1 d'une quantité correspondant à la valeur de prédiction de la MAD du macrobloc 5 courant obtenue via le modèle de prédiction temporelle, comme défini par l'équation ci-dessous : (j) =à-4i( j) + al [layer] x MADre [layer] [refPic] + a2 [layer] (25) Ensuite, à l'issue de l'étape 5707 ou S713, on teste à l'étape S715, si le dernier macrobloc de l'unité de base courante a été traité. Si c'est le cas (S715, oui), le processus de 10 calcul de la MAD d'une unité de base de l'image en cours de codage, est terminé. Dans le cas contraire (S715, non), on passe au macrobloc suivant de l'unité de base (étape S717), et le processus recommence comme décrit précédemment avec l'étape de test (5705) du mode de codage du macrobloc co-localisé du macrobloc courant, dans l'image de base.

Claims (19)

  1. REVENDICATIONS1. Procédé de prédiction d'une information de complexité de texture d'une image courante d'une séquence d'images, afin de coder ladite image courante dans une couche d'amélioration courante, selon un codage de type hiérarchique consistant à coder la séquence 10 d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, ledit procédé utilisant un modèle de prédiction d'information de complexité de texture, et étant caractérisé en ce que, l'image courante étant subdivisée en unités de base prédéfinies, pour chaque unité de base courante de l'image courante, les étapes suivantes sont mises en oeuvre : 15 - obtenir (5705) au moins une information de codage relative à une seconde unité de base appartenant à une seconde image coïncidant temporellement avec l'image courante et déjà codée dans une seconde couche hiérarchiquement inférieure à la couche courante ; - obtenir (5705) un modèle (5707, S713) de prédiction de l'information de 20 complexité de texture à partir d'un modèle de prédiction temporelle intra-couche et d'un modèle de prédiction spatiale inter-couche, en fonction de ladite au moins une information de codage obtenue.
  2. 2. Procédé selon la revendication 1, dans lequel l'image courante est codée dans une 25 couche d'amélioration selon le standard SVC, et dans lequel ladite seconde couche est la couche de référence de la couche d'amélioration courante, ladite seconde image est l'image de base de l'image courante, et ladite seconde unité de base est l'unité de base co-localisée de l'unité de base courante, dans ladite image de base. 30
  3. 3. Procédé selon la revendication 1 ou 2, dans lequel l'information de complexité de texture à prédire pour une unité de base courante de l'image courante, est représentée par une mesure statistique de similarité, relative à la différence entre les valeurs des pixels contenus dans l'unité de base courante et des valeurs de pixels utilisés pour une prédiction de l'unité de base courante.
  4. 4. Procédé selon la revendication 3, dans lequel une unité de base de l'image courante est composée d'un ensemble de macroblocs de pixels et dans lequel, pour chaque macrobloc courant contenu dans une unité de base courante, ladite information de codage est représentative du mode de codage, INTRA ou INTER, du macrobloc co-localisé dans ladite seconde unité de base, et dans lequel, lors de l'étape d'obtention (S705) d'un modèle de prédiction de l'information de complexité de texture : - si le mode de codage est INTRA, on sélectionne (S707) le modèle de prédiction spatiale inter-couche pour prédire l'information de complexité de texture à coder pour le macrobloc courant de l'unité de base courante ; sinon, - si le mode de codage est INTER, on sélectionne (S709-S713) le modèle de prédiction temporelle intra-couche pour prédire l'information de complexité de texture à coder pour le macrobloc courant de l'unité de base courante.
  5. 5. Procédé selon la revendication 4, dans lequel, pour un macrobloc courant de l'unité de base courante, si le mode de codage du macrobloc co-localisé correspondant, dans l'image de base, appelé «macrobloc de base », est INTRA, on calcule une valeur de prédiction de la mesure statistique de similarité dudit macrobloc courant, en calculant une fonction affine de la mesure statistique de similarité effective dudit macrobloc de base.
  6. 6. Procédé selon la revendication 4 ou 5, dans lequel, pour un macrobloc courant de l'unité de base courante, si le mode de codage du macrobloc co-localisé correspondant, dans l'image de base, appelé «macrobloc de base », est INTER, on calcule une valeur de prédiction de la mesure statistique de similarité dudit macrobloc courant, en calculant une fonction affine de la mesure statistique de similarité effective du macrobloc de l'image de référence dans la couche courante, qui coïncide temporellement avec l'image de référence du macrobloc de base, et pointé par le vecteur de mouvement du macrobloc de base.
  7. 7. Procédé selon l'une des revendications 5 ou 6, dans lequel on obtient une valeur de prédiction de la mesure statistique de similarité globale pour l'unité de base courante, en effectuant la somme des mesures statistiques de similarité prédites calculées pour l'ensemble des macroblocs de l'unité courante.
  8. 8. Procédé selon la revendication 3, dans lequel une unité de base de l'image courante est composée d'un ensemble de macroblocs de pixels et dans lequel ladite information de codage est représentative de la proportion de macroblocs codés en INTRA et de la proportion de macroblocs codés en INTER, dans l'ensemble de macroblocs de la seconde unité de base dans la seconde image, et dans lequel ledit modèle de prédiction de l'information de complexité de texture est obtenu en utilisant simultanément le modèle de prédiction temporelle intra-couche et le modèle de prédiction spatiale inter-couche, en pondérant l'utilisation du modèle de prédiction temporelle intra-couche par la proportion de macroblocs codés en INTER dans la seconde unité de base, et en pondérant l'utilisation du modèle de prédiction spatiale inter-couche par la proportion de macroblocs codés en INTRA dans la seconde unité de base.
  9. 9. Procédé selon la revendication 8, dans lequel on obtient une prédiction de la mesure statistique de similarité des pixels contenus dans l'unité de base courante, en effectuant les opérations suivantes : (a) - calculer la mesure statistique de similarité effective de l'unité de base co- localisée de l'unité de base courante, dans l'image de référence de l'image courante, dans la couche d'amélioration courante ; (b) - calculer la mesure statistique de similarité effective de l'unité de base colocalisée de l'unité de base courante, dans l'image de base de l'image courante, dans ladite couche de référence de la couche courante ; (c) - calculer le nombre de macroblocs codés en INTRA dans ladite unité de base co- localisée de l'unité de base courante ; (d) - calculer le nombre de macroblocs codés en INTER dans ladite unité de base colocalisée de l'unité de base courante ; (e) - obtenir une prédiction de la mesure statistique de similarité de l'unité de base 30 courante selon un calcul d'une somme pondérée qui est fonction des mesures statistiques de similarité effectives calculées aux étapes (a) et (b), avec comme facteurs de pondération, la proportion de macroblocs codés en INTER et la proportion de macroblocs codés en INTRA dans l'unité de base co-localisée de l'unité de base courante.
  10. 10. Procédé selon la revendication 3, dans lequel une unité de base de l'image courante est composée d'un ensemble de macroblocs de pixels et dans lequel ladite information de codage est représentative du mode de codage majoritaire, INTRA ou INTER, des macroblocs de l'ensemble de macroblocs de la seconde unité de base dans la seconde image, et dans lequel, lors de l'étape d'obtention (S705) d'un modèle de prédiction de l'information de complexité de texture : - si le mode de codage majoritaire est INTRA, on sélectionne (S707) le modèle de prédiction spatiale inter-couche pour prédire l'information de complexité de texture à coder pour l'unité de base courante de l'image courante ; sinon, - si le mode de codage majoritaire est INTER, on sélectionne (S709-S713) le modèle de prédiction temporelle intra-couche pour prédire l'information de complexité de texture à coder pour l'unité de base courante de l'image courante.
  11. 11. Procédé selon l'une quelconque des revendications 3 à 10, dans lequel ladite mesure statistique de similarité est une mesure de la moyenne des valeurs absolues (MAD) des différences entre les valeurs des pixels contenus dans l'unité de base courante et des valeurs de pixels utilisés pour une prédiction de l'unité de base courante.
  12. 12. Procédé de contrôle du débit alloué pour le codage hiérarchique d'une image appartenant à une séquence d'images dans une couche d'amélioration, ledit codage consistant à coder la séquence d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, le procédé comprenant une opération de prédiction d'une information de complexité de texture pour coder ladite image dans une couche d'amélioration, et étant caractérisé en ce que ladite opération de prédiction est mise en oeuvre selon un procédé de prédiction conforme à l'une quelconque des revendications 1 à 11.
  13. 13. Procédé de codage vidéo d'une image courante dans une couche d'amélioration courante selon un codage de type hiérarchique consistant à coder une séquence d'images en un4 q flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, ledit procédé comportant une étape de contrôle du débit alloué pour le codage de l'image courante, incluant une opération de prédiction d'une information de complexité de texture contenue dans l'image courante, selon laquelle on utilise un modèle de prédiction d'information de complexité de texture, ledit procédé de codage étant caractérisé en ce que ladite opération de prédiction est mise en oeuvre selon un procédé conforme à l'une quelconque des revendications 1 à 11.
  14. 14. Dispositif de prédiction d'une information de complexité de texture contenue 10 dans une image courante d'une séquence d'images, afin de coder ladite image courante dans une couche d'amélioration courante, selon un codage de type hiérarchique consistant à coder la séquence d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, ledit dispositif utilisant un modèle de prédiction d'information de complexité de texture , et étant 15 caractérisé en ce qu'il comporte des moyens de traitement numérique adaptés à traiter chaque unité de base prédéfinie courante de l'image courante, de manière à : - obtenir une information de codage relative à une seconde unité de base appartenant à une seconde image coïncidant temporellement avec l'image courante et déjà codée dans une seconde couche hiérarchiquement inférieure à la couche courante ; 20 - obtenir un modèle de prédiction de l'information de complexité de texture à partir d'un modèle de prédiction temporelle intra-couche et d'un modèle de prédiction spatiale inter-couche, en fonction de ladite information de codage obtenue.
  15. 15. Dispositif de prédiction selon la revendication 14, dans lequel lesdits moyens de 25 traitement numérique sont adaptés à mettre en oeuvre les étapes d'un procédé de prédiction selon l'une quelconque des revendications 2 à 11.
  16. 16. Dispositif de contrôle du débit alloué pour le codage hiérarchique d'une image appartenant à une séquence d'images dans une couche d'amélioration, ledit codage consistant 30 à coder la séquence d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, ledity 4 dispositif étant caractérisé en qu'il inclut un dispositif de prédiction d'une information de complexité de texture contenue dans une image, selon l'une des revendications 14 ou 15.
  17. 17. Dispositif de codage vidéo d'une image dans une couche d'amélioration courante selon un codage de type hiérarchique consistant à coder une séquence d'images en un flux d'images comprimé comprenant une couche de base et au moins une couche d'amélioration hiérarchiquement supérieure à la couche de base, ledit dispositif comprenant pour au moins une couche d'amélioration, un module de contrôle du débit alloué pour le codage d'une image courante dans ladite couche d'amélioration, ledit module de contrôle de débit comprenant un sous-module de prédiction d'une information de complexité de texture contenue dans l'image courante, ledit dispositif de codage vidéo étant caractérisé en que ledit sous-module de prédiction inclut un dispositif de prédiction d'une information de complexité de texture contenue dans l'image courante, selon la revendication 14.
  18. 18. Dispositif de codage vidéo selon la revendication 17, dans lequel lesdits moyens de traitement numérique sont adaptés à mettre en oeuvre les étapes d'un procédé de prédiction d'une information de complexité de texture d'image, selon l'une quelconque des revendications 2 à 11.
  19. 19. Programme d'ordinateur sur un support d'informations, caractérisé en ce qu'il comporte des instructions de programme adaptées à mettre en oeuvre un procédé, selon l'une quelconque des revendications 1 à 11, 12, 13, lorsque ledit programme est chargé et exécuté dans un système informatique approprié.25
FR1053014A 2010-04-20 2010-04-20 Procede et dispositif de prediction d'une information de complexite de texture contenue dans une image Expired - Fee Related FR2959093B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1053014A FR2959093B1 (fr) 2010-04-20 2010-04-20 Procede et dispositif de prediction d'une information de complexite de texture contenue dans une image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1053014A FR2959093B1 (fr) 2010-04-20 2010-04-20 Procede et dispositif de prediction d'une information de complexite de texture contenue dans une image

Publications (2)

Publication Number Publication Date
FR2959093A1 true FR2959093A1 (fr) 2011-10-21
FR2959093B1 FR2959093B1 (fr) 2013-07-26

Family

ID=42797089

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1053014A Expired - Fee Related FR2959093B1 (fr) 2010-04-20 2010-04-20 Procede et dispositif de prediction d'une information de complexite de texture contenue dans une image

Country Status (1)

Country Link
FR (1) FR2959093B1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110895789A (zh) * 2018-09-13 2020-03-20 杭州海康威视数字技术股份有限公司 一种人脸美颜方法及装置
CN117579832A (zh) * 2023-12-04 2024-02-20 延边大学 一种基于自适应采样和量化的点云属性压缩方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060153297A1 (en) * 2003-01-07 2006-07-13 Boyce Jill M Mixed inter/intra video coding of macroblock partitions

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060153297A1 (en) * 2003-01-07 2006-07-13 Boyce Jill M Mixed inter/intra video coding of macroblock partitions

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BOYCE J M: "Weighted prediction in the H.264/MPEG AVC video coding standard", CIRCUITS AND SYSTEMS, 2004. ISCAS '04. PROCEEDINGS OF THE 2004 INTERNATIONAL SYMPOSIUM ON,, 23 May 2004 (2004-05-23), pages III - 789, XP010719383, ISBN: 978-0-7803-8251-0 *
CHATTOPADHYAY D ET AL: "Adaptive rate control for H.264 based video conferencing over a low bandwidth wired and wireless channel", BROADBAND MULTIMEDIA SYSTEMS AND BROADCASTING, 2009. BMSB '09. IEEE INTERNATIONAL SYMPOSIUM ON, IEEE, PISCATAWAY, NJ, USA, 13 May 2009 (2009-05-13), pages 1 - 6, XP031480186, ISBN: 978-1-4244-2590-7 *
LIU Y ET AL: "Rate Control for Spatial/CGS Scalable Extension of H.264/AVC", CIRCUITS AND SYSTEMS, 2007. ISCAS 2007. IEEE INTERNATIONAL SYMPOSIUM O N, IEEE, PI LNKD- DOI:10.1109/ISCAS.2007.378009, 1 May 2007 (2007-05-01), pages 1746 - 1750, XP031181622, ISBN: 978-1-4244-0920-4 *
YANG LIU ET AL: "Rate Control of H.264/AVC Scalable Extension", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, IEEE SERVICE CENTER, PISCATAWAY, NJ, US LNKD- DOI:10.1109/TCSVT.2007.903325, vol. 18, no. 1, 1 January 2008 (2008-01-01), pages 116 - 121, XP011195135, ISSN: 1051-8215 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110895789A (zh) * 2018-09-13 2020-03-20 杭州海康威视数字技术股份有限公司 一种人脸美颜方法及装置
CN110895789B (zh) * 2018-09-13 2023-05-02 杭州海康威视数字技术股份有限公司 一种人脸美颜方法及装置
CN117579832A (zh) * 2023-12-04 2024-02-20 延边大学 一种基于自适应采样和量化的点云属性压缩方法

Also Published As

Publication number Publication date
FR2959093B1 (fr) 2013-07-26

Similar Documents

Publication Publication Date Title
FR2904494A1 (fr) Procede et dispositif de compression d'image, systeme de telecommunication comportant un tel dispositif et programme mettant en oeuvre un tel procede
FR2932637A1 (fr) Procede et dispositif de codage d'une sequence d'images
EP3318061B1 (fr) Procede d'encodage d'image et equipement pour la mise en oeuvre du procede
FR2894421A1 (fr) Procede et dispositif de decodage d'un flux video code suivant un codage hierarchique
FR2906433A1 (fr) Procedes et dispositifs de codage et de decodage d'images, programme d'ordinateur les mettant en oeuvre et support d'informaton permettant de les mettre en oeuvre
FR2898757A1 (fr) Procede et dispositif d'adaptation d'une frequence temporelle d'une sequence d'images video
FR2951345A1 (fr) Procede et dispositif de traitement d'une sequence video
FR3029055A1 (fr) Procede d'encodage d'image et equipement pour la mise en oeuvre du procede
EP3198876B1 (fr) Génération et codage d'images intégrales résiduelles
WO2017046273A1 (fr) Procede d'encodage d'image et equipement pour la mise en oeuvre du procede
EP2761871B1 (fr) Estimation de mouvement au niveau du décodeur par mise en correspondance de modèles
EP2716045B1 (fr) Procédé de codage et de décodage d'images, dispositif de codage et de décodage d'images et programmes d'ordinateur correspondants
FR2959093A1 (fr) Procede et dispositif de prediction d'une information de complexite de texture contenue dans une image
EP3632103B1 (fr) Procédés et dispositifs de codage et de décodage d'un flux de données représentatif d'au moins une image
FR2955995A1 (fr) Procede et dispositif de traitement d'une sequence video
FR2956789A1 (fr) Procede et dispositif de traitement d'une sequence video
FR3057130B1 (fr) Procede de codage d'une image, procede de decodage, dispositifs, equipement terminal et programmes d'ordinateurs associes
FR2957744A1 (fr) Procede de traitement d'une sequence video et dispositif associe
WO2011051596A1 (fr) Procédés et dispositifs de codage et de décodage d'images, et programmes d'ordinateur correspondants
FR3035761A1 (fr) Procede de codage et de decodage d'images, dispositif de codage et de decodage d'images et programmes d'ordinateur correspondants
FR3041851A1 (fr) Procede d'allocation de debit, dispositif, codeur et programme d'ordinateur associes
FR2956552A1 (fr) Procede de codage ou de decodage d'une sequence video, dispositifs associes
FR3107383A1 (fr) Procédé et dispositif de traitement de données de vidéo multi-vues
WO2022175626A1 (fr) Determination d'un mode de codage d'image
WO2020260843A1 (fr) Procédé d'encodage et de décodage vidéo par signalisation d'un sous-ensemble de candidat

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

ST Notification of lapse

Effective date: 20191205