FR2915048A1 - Oversampling method for decoding scalable data stream in data transmission system, involves determining sub pixel position of given pixel from position of reference pixel and from offset representing distance between positions of pixels - Google Patents

Oversampling method for decoding scalable data stream in data transmission system, involves determining sub pixel position of given pixel from position of reference pixel and from offset representing distance between positions of pixels Download PDF

Info

Publication number
FR2915048A1
FR2915048A1 FR0702903A FR0702903A FR2915048A1 FR 2915048 A1 FR2915048 A1 FR 2915048A1 FR 0702903 A FR0702903 A FR 0702903A FR 0702903 A FR0702903 A FR 0702903A FR 2915048 A1 FR2915048 A1 FR 2915048A1
Authority
FR
France
Prior art keywords
image
resolution level
pixel
sub
pixellic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0702903A
Other languages
French (fr)
Inventor
Nathalie Cammas
Sylvain Kervadec
Stephane Pateux
Isabelle Amonou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Priority to FR0702903A priority Critical patent/FR2915048A1/en
Publication of FR2915048A1 publication Critical patent/FR2915048A1/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The method involves determining the position i.e. sub pixel position, of a pixel of each of the images taken at upper resolution level. The sub pixel position is stored in an oversampling table. Another sub pixel position of a given pixel is determined by the sub pixel position of a reference pixel in lower resolution level of the image and from an offset representing the distance between positions of the given and reference pixels determined by reading the table for the image of the sequence taken at upper resolution level for a given pixel of the image. Independent claims are also included for the following: (1) a device for decoding a data stream representing an image and presenting a data layer organization, comprising an over sampling unit (2) a computer program product comprising program code instructions for implementing a method for decoding data stream (3) an over sampling method for coding an image (4) a device for coding an image, comprising an over sampling unit (5) a computer program product comprising program code instructions for implementing a method for coding an image.

Description

Procédé de sur-échantillonnage pour le codage et/ou le décodage d'un fluxOver-sampling method for encoding and / or decoding a stream

de données échelonnable, produits programme d'ordinateur et dispositifs correspondants. 1. Domaine de l'invention Le domaine de l'invention est celui du codage et du décodage d'images ou de séquences vidéo d'images. Plus précisément, l'invention concerne le codage d'images, ou de séquences vidéo d'images, générant un flux présentant une organisation en couches de données.  scalable data, computer program products and corresponding devices. FIELD OF THE INVENTION The field of the invention is that of encoding and decoding images or video sequences of images. More specifically, the invention relates to the encoding of images, or video sequences of images, generating a stream having a data layer organization.

L'invention s'applique notamment, mais non exclusivement, au codage et au décodage de flux de données échelonnables (ou scalables ), à qualité adaptable et résolution spatio-temporelle variable. 2. Art antérieur 2.1 Principe général du codage vidéo scalable De nombreux systèmes de transmission de données sont aujourd'hui hétérogènes, en ce sens qu'ils desservent une pluralité de clients (terminaux de réception) disposant de types d'accès aux données très divers. Ainsi, le réseau mondial Internet, par exemple, est accessible aussi bien à partir d'un terminal de type ordinateur personnel (PC) que d'un radiotéléphone. Plus généralement, la bande passante pour l'accès au réseau, les capacités de traitement des terminaux clients, la taille de leurs écrans varient fortement d'un utilisateur à l'autre. Ainsi, un premier client peut par exemple accéder au réseau Internet à partir d'un PC puissant, et disposer d'un débit ADSL ( Asymmetric Digital Subscriber Line pour Ligne d'abonné numérique à structure asymétrique ) à 1024 kbits/s alors qu'un deuxième client cherche à accéder aux mêmes données au même instant à partir d'un terminal de type PDA ( Personal Digital Assistant pour assistant numérique personnel ) connecté à un modem à faible débit. Or la plupart des codeurs vidéo génèrent un seul flux compressé correspondant à l'intégralité de la séquence codée. Ainsi, si plusieurs clients souhaitent exploiter le fichier compressé pour décodage et visualisation, ils devront télécharger (ou streamer ) le fichier compressé complet. Il est donc nécessaire de proposer à ces divers utilisateurs un flux de données qui soit adapté tant en termes de débit que de résolution des images à leurs différents besoins. Cette nécessité s'impose plus largement pour toutes les applications accessibles à des clients disposant de capacités d'accès et de traitement très diverses, et notamment les applications de : service de vidéo à la demande (VOD, en anglais Video On Demand pour vidéo à la carte ), accessibles aux terminaux de radiocommunication de type UMTS ( Universal Mobile Telecommunication Service pour service de télécommunication mobile universel ), aux PC ou aux terminaux de télévision avec accès ADSL, etc ; mobilité de session (par exemple reprise sur un PDA d'une session vidéo commencée sur un téléviseur, ou, sur un mobile UMTS d'une session commencée sur GPRS ( General Packet Radio Service pour service général de radiocommunication par paquets )) ; continuité de session (dans un contexte de partage de la bande passante avec une nouvelle application) ; télévision haute définition, dans laquelle un encodage vidéo unique doit permettre de servir aussi bien des clients disposant d'une définition standard SD que des clients disposant d'un terminal à haute définition HD; visioconférence, dans laquelle un encodage unique doit répondre aux besoins de clients disposant d'un accès UMTS et d'un accès Internet ; - etc. Pour répondre à ces différents besoins, des algorithmes de codage d'images échelonnables, ou scalables , ont été développés, permettant une qualité adaptable et une résolution spatio-temporelle variable. Selon ces techniques, le codeur génère un flux compressé présentant une structure en couches. Par exemple, une première couche de données véhicule un flux à 256 kbits/s, qui pourra être décodé par un terminal de type PDA, et une deuxième couche de données complémentaire véhicule un flux de résolution supérieure à 256 kbits/s qui pourra être décodé, en complément du premier, par un terminal plus puissant de type PC. Le débit nécessaire pour le transport de ces deux couches emboîtées est dans cet exemple de 512 kbits/s. De tels algorithmes de codage sont ainsi très utiles pour toutes les applications pour lesquelles la génération d'un seul flux compressé, organisé en plusieurs couches de scalabilité, peut servir à plusieurs clients de caractéristiques différentes.  The invention applies in particular, but not exclusively, to the encoding and decoding of scalable data streams, with adaptable quality and variable space-time resolution. 2. PRIOR ART 2.1 General Principle of Scalable Video Coding Many data transmission systems are today heterogeneous, in the sense that they serve a plurality of clients (receiving terminals) having very different types of access to data. . Thus, the global Internet network, for example, is accessible from both a personal computer terminal (PC) and a radiotelephone. More generally, the bandwidth for access to the network, the processing capabilities of the client terminals, the size of their screens vary greatly from one user to another. Thus, a first customer can for example access the Internet from a powerful PC, and have an ADSL (Asymmetric Digital Subscriber Line) for 1024 kbit / s while digital subscriber line a second client seeks to access the same data at the same time from a PDA terminal (Personal Digital Assistant) connected to a low-speed modem. Most video coders generate a single compressed stream corresponding to the entire coded sequence. Thus, if several clients wish to use the compressed file for decoding and visualization, they will have to download (or stream) the complete compressed file. It is therefore necessary to provide these various users with a data stream that is adapted both in terms of bit rate and resolution of the images to their different needs. This need is more widely needed for all applications accessible to customers with a wide range of access and processing capabilities, including video-on-demand (VOD) applications for video-on-demand. the card), accessible to universal mobile telecommunication service (UMTS) terminals, PCs or television terminals with ADSL access, etc .; session mobility (for example resumption on a PDA of a video session started on a television, or, on a UMTS mobile of a session started on GPRS (General Packet Radio Service)); continuity of session (in a context of bandwidth sharing with a new application); high definition television, in which a single video encoding should serve both standard definition SD clients and high definition HD terminal customers; videoconferencing, in which a single encoding must meet the needs of customers with UMTS access and Internet access; - etc. To meet these different needs, scalable or scalable image coding algorithms have been developed, allowing for adaptable quality and variable spatio-temporal resolution. According to these techniques, the encoder generates a compressed stream having a layered structure. For example, a first data layer conveys a 256 kbit / s stream, which can be decoded by a PDA type terminal, and a second complementary data layer conveys a resolution stream greater than 256 kbit / s that can be decoded. , in addition to the first, by a more powerful PC-type terminal. The rate required for the transport of these two nested layers is in this example 512 kbit / s. Such coding algorithms are thus very useful for all applications for which the generation of a single compressed stream, organized in several scalability layers, can serve several clients of different characteristics.

Certains de ces algorithmes de codage vidéo échelonnables, notés SVC ( Scalable video coding ), sont aujourd'hui en cours d'adoption par la norme MPEG-4 ( Moving Picture Expert Group ) AVC ( Advanced Video Coding pour codage vidéo avancé ), dans le cadre du groupe de travail JVT ( Joint Video Team ) joint entre l'ITU ( International Telecommunication Union pour Union Internationale des Télécommunications ) et l'ISO ( International Organization for Standardization pour Organisation internationale de normalisation ). Plus précisément, un flux généré par un codeur de type SVC comprend une première couche, dite couche de base, et optionnellement des couches supérieures, dites de rehaussement. Classiquement, une couche de rehaussement est codée par prédiction par rapport à une ou plusieurs couches inférieures, par exemple une couche de rehaussement inférieure ou une couche de base. 2.2 Le codeur SVC La figure 1 illustre la structure d'un tel codeur, qui présente une structure pyramidale. Les composantes d'entrée vidéo 10 subissent un sous-échantillonnage (décimation spatiale 2D référencée 11). Chacun des flux sous-échantillonnés subit ensuite une décomposition temporelle 12 de type images B hiérarchiques . Une version basse résolution de la séquence vidéo est codée jusqu'à un débit donné R_r0_max qui correspond au débit maximum décodable pour la résolution spatiale basse rO (cette version basse résolution est codée en une couche de base avec un débit R r0 min et des couches de rehaussement, jusqu'à atteindre le débit R_rO_max ; ce niveau de base est compatible AVC).  Some of these Scalable Video Coding (SVC) scalable video coding algorithms are now being adopted by Advanced Video Coding (AVC) MPEG-4 (Moving Picture Expert Group). the Joint Video Team (JVT) working group attached between the International Telecommunication Union (ITU) and the International Organization for Standardization (ISO). More precisely, a stream generated by an SVC type encoder comprises a first layer, called a base layer, and optionally upper layers, called raising layers. Conventionally, an enhancement layer is prediction coded with respect to one or more lower layers, for example a lower enhancement layer or a base layer. 2.2 The SVC Encoder Figure 1 illustrates the structure of such an encoder, which has a pyramidal structure. The video input components 10 undergo subsampling (2D spatial decimation referenced 11). Each of the subsampled streams is then subjected to a temporal decomposition 12 of hierarchical image B type. A low resolution version of the video sequence is encoded up to a given bit rate R_r0_max which corresponds to the maximum decodable bit rate for the low spatial resolution rO (this low resolution version is coded as a base layer with a bit rate R r0 min and layers up to R_rO_max, this basic level is AVC compatible).

Les niveaux de résolution supérieurs sont ensuite codés par soustraction du niveau de résolution inférieur reconstruit et sur-échantillonné, et codage des résidus. Plus précisément, les blocs de décomposition temporelle 12 (filtrage de type images B hiérarchiques ) délivrent des informations de mouvement 14 qui alimentent un bloc de codage de mouvement 13, et des informations de résidu 151, 152, ou de texture 151, 152, 153, qui alimentent un module de prédiction inter-couches 16, pour la prédiction de la texture, encore appelée prédiction intra, ou du résidu, encore appelée prédiction résiduelle. Les données prédites, en sortie du module de prédiction inter-couches 16, alimentent un bloc 17 de transformation et de codage entropique. Les données issues de ce bloc 17 servent notamment à réaliser une interpolation spatiale 2D 18 depuis le niveau de résolution inférieur. Finalement, un module de multiplexage 19 ordonne les différents sous-flux générés dans un flux de données compressé global 20. 2.3 Interpolation spatiale 2D Plus précisément, dans la norme MPEG-4 SVC, une étape de sur-échantillonnage est nécessaire lorsqu'une prédiction inter-couches est effectuée entre deux couches de résolutions spatiales différentes. Cette étape de sur-échantillonnage permet de mettre le résidu et/ou la texture d'une image de résolution inférieure à la même résolution que l'image courante, afin d'utiliser ce résidu ou cette texture sur-échantillonné(e) comme prédiction pour le résidu ou la texture de l'image courante. Côté codage, cette mise à l'échelle est mise en oeuvre dans le bloc d'interpolation spatiale 2D 18 de la figure 1. En particulier, on peut noter que selon qu'on réalise une prédiction intra ou une prédiction résiduelle, les filtres de sur-échantillonnage mis en oeuvre dans le bloc d'interpolation spatiale 2D 18 sont différents. Plus précisément, on utilise pour la prédiction de la texture un filtre de type 4-tap , dont les coefficients sont fixés dans la norme avec seize phases de filtre. Pour la prédiction du résidu, un filtre de type bilinéaire est utilisé. Par exemple, l'utilisation de tels filtres permet d'améliorer les effets visuels des placages de textures, en interpolant de nouveaux pixels entre deux pixels horizontaux et deux pixels verticaux. Dans la version actuelle de la norme (document JVT-V201 de T. Wiegand, G. Sullivan, J. Reichel, H. Schwarz, M. Wien, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG, (ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6), 22eme Meeting: Marrakech, Maroc, 13-19 janvier 2007, Joint Draft 9 of SVC Amendment), des équations sont spécifiées afin de calculer la position d'un pixel d'une image sur-échantillonnée (c'est-à-dire d'une image présentant un niveau de résolution supérieure par rapport à une image courante), dans l'image courante, en fonction du ratio entre les résolutions. Autrement dit, l'image courante correspond à une image de base, présentant un niveau de résolution inférieur. Cette position est classiquement calculée à une précision sous-pixellique au 16eme de pixels. Par exemple, la figure 2A illustre la position des pixels 211, 212 et 213 d'une image présentant une résolution N+1 référencée 21, dans la même image présentant une résolution N référencée 22. La résolution N+1 21 est supérieure à la résolution N 22, selon un facteur 3/2, ce qui signifie que deux pixels 221, 222 de l'image présentant une résolution N 22 sont mis en correspondance avec trois pixels 211, 212 et 213 de l'image présentant une résolution N+1 21. Par exemple, la résolution N 22 correspond à un niveau de base 1920x1088 pixels, et la résolution N+1 21 correspond à un niveau de rehaussement de 2880x1632 pixels. De manière générale, la position sous-pixellique d'un pixel (encore appelé point) est décomposée en la position du pixel inférieur le plus proche dans le niveau de résolution inférieur et par le décalage par rapport à ce pixel exprimé en intervalle, ou distance, sous-pixellique. Par exemple, à une précision au 16ème de pixel, seize intervalles sous-pixelliques sont possibles correspondant à quinze positions sous-pixelliques entre deux positions pixelliques entières. Ainsi, pour une précision au 16ieme de pixel, la position du pixel 211 à la résolution N+1 21, dans l'image à la résolution N 22, est définie par la position du pixel 221 à la résolution N 22, décalé de trois intervalles sous-pixelliques. La position du pixel 212 à la résolution N+1 21, dans l'image à la résolution N 22, est définie par la position du pixel 221 à la résolution N 22, décalé de treize intervalles sous-pixelliques. La position du pixel 213 à la résolution N+1 21, dans l'image à la résolution N 22, est définie par la position du pixel 222 à la résolution N 22, décalé de huit intervalles sous-pixelliques. La phase du filtre 4-tap (prédiction de texture) et les pondérations du filtre bilinéaire (prédiction de résidu) sont dépendantes de cette position des pixels de l'image de résolution supérieure, dans l'image de résolution inférieure. En considérant la figure 2A et une prédiction intra, les phases du filtre 4 tap utilisé pour le sur-échantillonnage sont donc une phase égale à trois pour le pixel 211, égale à treize pour le pixel 212, et égale à huit pour le pixel 213. Pour une prédiction résiduelle, les pondérations du filtre bilinéaire sont respectivement égales à 13/16 et 3/16 pour les deux premiers pixels 221 et 222 à la résolution N 22 lors du sur-échantillonnage du pixel 211, puis 3/16 et 13/16 pour les pixels 221 et 222 à la résolution N 22 lors du sur-échantillonnage du pixel 212, puis 8/16 et 8/16 pour les pixels 222 et 223 à la résolution N 22 lors du sur-échantillonnage du pixel 213, etc. De manière générale, lorsqu'on utilise une précision infinie, on observe, quel que soit le filtre utilisé, un schéma répétitif des positions sous-pixelliques définies par les pixels de l'image de résolution supérieure N+l 21 dans l'image de résolution inférieure N 22. Cette période r , ou motif de répétition du schéma, varie selon le facteur entre les résolutions. Par exemple, en reprenant l'exemple de la figure 2A et comme illustré en figure 2B, les décalages de trois, treize, et huit positions sous-pixelliques se répètent selon une période r = 3.  The higher resolution levels are then encoded by subtracting the reconstructed and oversampled lower resolution level, and encoding the residuals. More precisely, the temporal decomposition blocks 12 (hierarchical image B type filtering) deliver motion information 14 that feeds a motion coding block 13, and residue information 151, 152, or texture information 151, 152, 153 , which feed an inter-layer prediction module 16, for the prediction of the texture, also called intra prediction, or of the residue, also called residual prediction. The predicted data, at the output of the inter-layer prediction module 16, feed a block 17 of transformation and entropy encoding. The data from this block 17 serve in particular to perform a 2D spatial interpolation 18 from the lower resolution level. Finally, a multiplexing module 19 orders the different sub-streams generated in a global compressed data stream 20. 2.3 Spatial interpolation 2D More precisely, in the MPEG-4 SVC standard, an oversampling step is necessary when a prediction inter-layer is performed between two layers of different spatial resolutions. This over-sampling step makes it possible to put the residue and / or the texture of a lower resolution image at the same resolution as the current image, in order to use this over-sampled residue or texture as a prediction. for the residue or texture of the current image. On the encoding side, this scaling is implemented in the 2D spatial interpolation block 18 of FIG. 1. In particular, it can be noted that, depending on whether an intra prediction or a residual prediction is made, the filters of FIG. oversampling implemented in the 2D spatial interpolation block 18 are different. More precisely, for the prediction of texture, a 4-tap type filter whose coefficients are fixed in the standard with sixteen filter phases is used. For the prediction of the residue, a bilinear type filter is used. For example, the use of such filters improves the visual effects of textured veneers by interpolating new pixels between two horizontal pixels and two vertical pixels. In the current version of the standard (document JVT-V201 by T. Wiegand, G. Sullivan, J. Reichel, H. Schwarz, M. Wien, Joint Video Team (JVT) of ISO / IEC MPEG & ITU-T VCEG, (ISO / IEC JTC1 / SC29 / WG11 and ITU-T SG16 Q.6), 22nd Meeting: Marrakesh, Morocco, 13-19 January 2007, Joint Draft 9 of SVC Amendment), equations are specified in order to calculate the position of a pixel of an oversampled image (i.e., an image having a higher resolution level than a current image), in the current image, as a function of the ratio between the resolutions. In other words, the current image corresponds to a basic image with a lower level of resolution. This position is classically calculated to sub-pixellic precision at the 16th pixel. For example, FIG. 2A illustrates the position of the pixels 211, 212 and 213 of an image having a resolution N + 1 referenced 21, in the same image having a resolution N referenced 22. The resolution N + 1 21 is greater than the resolution N 22, according to a factor 3/2, which means that two pixels 221, 222 of the image having a resolution N 22 are mapped to three pixels 211, 212 and 213 of the image having a resolution N + 1 21. For example, the resolution N 22 corresponds to a base level of 1920x1088 pixels, and the resolution N + 1 21 corresponds to an enhancement level of 2880 × 1632 pixels. In general, the sub-pixellic position of a pixel (also called a point) is decomposed into the position of the nearest lower pixel in the lower resolution level and by the offset with respect to this pixel expressed in an interval, or distance , sub-pixellic. For example, at 16-pixel precision, sixteen sub-pixellic intervals are possible corresponding to fifteen sub-pixellic positions between two entire pixel positions. Thus, for an accuracy at the 16 th pixel, the position of the pixel 211 at the resolution N + 1 21, in the image at the resolution N 22, is defined by the position of the pixel 221 at the resolution N 22, shifted by three sub-pixellic intervals. The position of the pixel 212 at the resolution N + 1 21, in the image at the resolution N 22, is defined by the position of the pixel 221 at the resolution N 22, shifted by thirteen sub-pixellic intervals. The position of the pixel 213 at the resolution N + 1 21, in the image at the resolution N 22, is defined by the position of the pixel 222 at the resolution N 22, shifted by eight sub-pixellic intervals. The phase of the 4-tap filter (texture prediction) and the bilinear filter weights (residue prediction) are dependent on this position of the pixels of the higher resolution image in the lower resolution image. Considering FIG. 2A and an intra prediction, the phases of the tap filter 4 used for oversampling are therefore a phase equal to three for the pixel 211, equal to thirteen for the pixel 212, and equal to eight for the pixel 213 For a residual prediction, the weightings of the bilinear filter are respectively equal to 13/16 and 3/16 for the first two pixels 221 and 222 to the resolution N 22 during the oversampling of the pixel 211, then 3/16 and 13 / 16 for the pixels 221 and 222 at the resolution N 22 during the oversampling of the pixel 212, then 8/16 and 8/16 for the pixels 222 and 223 at the resolution N 22 during the oversampling of the pixel 213, etc. In general, when infinite precision is used, there is observed, regardless of the filter used, a repetitive pattern of the sub-pixellic positions defined by the pixels of the higher resolution image N + 1 in the image of lower resolution N 22. This period r, or pattern repetition pattern, varies depending on the factor between resolutions. For example, by taking the example of FIG. 2A and as illustrated in FIG. 2B, the offsets of three, thirteen, and eight sub-pixellic positions are repeated in a period r = 3.

Ainsi, connaissant : la position d'un pixel dans l'image sur-échantillonnée (c'est-à-dire la position des pixels 211, 212 et 213 dans l'image de résolution supérieure N+1 21) ; et le ratio entre les niveaux de résolution (par exemple un ratio de 3/2 entre le niveau N+l de résolution 21 et le niveau N de résolution 22) ; il est possible de prédire la position sous-pixellique de ce pixel dans l'image de résolution inférieure (c'est-à-dire la position des pixels 211, 212 et 213 dans l'image de résolution inférieure N 22). Ceci permet de prédire la phase du filtre 4-tap mis en oeuvre pour une prédiction intra, ou les pondérations du filtre bilinéaire mis en oeuvre pour une prédiction résiduelle. Par exemple, afin de réduire la complexité de mise en oeuvre du codage/décodage SVC pour certains facteurs entre les résolutions fréquemment utilisés (par exemple 3/2), il est possible de connecter directement (en hardware) les phases du filtre utilisé. Malheureusement, selon la méthode de calcul que l'on utilise pour obtenir la position sous-pixellique d'un point dans l'image de résolution inférieure, par exemple avec les équations actuelles de la norme SVC, lorsque l'on opère sur de grandes résolutions (en haute définition HD par exemple), on observe une déviation dans les motifs de répétition des positions sous-pixelliques atteintes par les pixels de l'image de résolution supérieure dans l'image de résolution inférieure. Cette déviation est due aux erreurs d'arrondis dans le calcul des positions sous-pixelliques défini dans la norme. Par exemple, pour une résolution de base de 1920x1088 et un rehaussement de 2880x1632, le facteur (ou ratio) entre les résolutions est de 3/2. Comme illustré en figure 2A, les phases du filtre 4-tap utilisées seraient idéalement avec une précision infinie égales à trois, huit et treize. Or, à partir de la position d'un certain macrobloc, on observe que les positions sous-pixelliques dans l'image de résolution inférieure obtenues par le calcul défini dans la norme sont égales à trois, huit et quatorze. Il n'est alors plus possible de prédire les phases pour ce ratio. On rappelle qu'un macrobloc comprend classiquement 16x16 pixels. Ainsi, ces techniques classiques de détermination des caractéristiques des filtres 4-tap ou bilinéaire génèrent un biais, ce qui est problématique pour une mise en oeuvre efficace du codage et/ou décodage d'images. 3. Exposé de l'invention L'invention propose une solution nouvelle qui ne présente pas l'ensemble de ces inconvénients de l'art antérieur, sous la forme d'un procédé de sur-échantillonnage pour le décodage d'un flux de données représentatif d'au moins une image, et présentant une organisation en couches de données comprenant au moins une couche de rehaussement, une couche de rehaussement correspondant à un niveau de résolution supérieur d'une image dudit flux par rapport au niveau de résolution d'une couche précédente, dit niveau de résolution inférieur, les données de la couche de rehaussement étant codées par prédiction à partir de données d'au moins une couche précédente correspondant à un niveau de résolution inférieur. Selon l'invention, un tel procédé de sur-échantillonnage comprend : pour une séquence d'au moins une image prise à un niveau de résolution inférieur, une première étape de détermination de la position, dite position sous-pixellique, d'au moins un pixel de chacune des images de ladite séquence, prises à un niveau de résolution supérieur ; une étape de mémorisation de ladite au moins une position sous-pixellique dans au moins une table de sur-échantillonnage ; - pour au moins une image de ladite séquence prise à un niveau de résolution supérieur, et pour au moins un pixel donné de ladite image, une deuxième étape de détermination d'une position sous-pixellique dudit au moins un pixel donné, dans ledit niveau de résolution inférieur de ladite image, à partir : ^ d'une position sous-pixellique d'un pixel de référence dans l'image à un niveau de résolution inférieur, déterminée à partir d'une lecture de ladite au moins une table de sur-échantillonnage, et ^ d'un décalage représentatif de la distance entre les positions sous-pixelliques desdits pixels donné et de référence, déterminé à partir d'une lecture de ladite au moins une table de sur-échantillonnage. Ainsi, l'invention propose une nouvelle technique de sur-échantillonnage qui ne génère pas de déviation due aux erreurs d'arrondis dans les filtres utilisés pour le sur-échantillonnage. Pour ce faire, le procédé selon l'invention comprend deux phases principales : une phase de pré-calcul d'une ou plusieurs tables de sur- échantillonnage, correspondant à la première étape de détermination et à l'étape de mémorisation, et une phase de sur-échantillonnage, correspondant à la deuxième étape de détermination. La phase de pré-calcul permet donc de déterminer les positions sous- pixelliques de pixels de référence, encore appelés points de référence. Il est bien entendu que les positions sous-pixelliques peuvent être mémorisées dans une table de sur-échantillonnage de manière directe ou indirecte, par exemple par le biais d'un index permettant d'accéder à la position souspixellique.  Thus, knowing: the position of a pixel in the oversampled image (i.e. the position of the pixels 211, 212 and 213 in the higher resolution image N + 1 21); and the ratio between the resolution levels (for example a ratio of 3/2 between the level N + 1 of resolution 21 and the level N of resolution 22); it is possible to predict the sub-pixellic position of this pixel in the lower resolution image (i.e. the position of the pixels 211, 212 and 213 in the lower resolution image N 22). This makes it possible to predict the phase of the 4-tap filter used for an intra prediction, or the bilinear filter weights used for a residual prediction. For example, in order to reduce the complexity of implementing the SVC coding / decoding for certain factors between the resolutions frequently used (for example 3/2), it is possible to directly connect (in hardware) the phases of the filter used. Unfortunately, depending on the calculation method used to obtain the sub-pixellic position of a point in the lower resolution image, for example with the current equations of the SVC standard, when operating on large resolutions (in HD high definition for example), there is a deviation in the patterns of repetition subpixel positions reached by the pixels of the higher resolution image in the lower resolution image. This deviation is due to rounding errors in the subpixel position calculation defined in the standard. For example, for a base resolution of 1920x1088 and an enhancement of 2880x1632, the factor (or ratio) between resolutions is 3/2. As illustrated in FIG. 2A, the 4-tap filter phases used would ideally be infinitely accurate equal to three, eight, and thirteen. However, from the position of a certain macroblock, it is observed that the sub-pixellic positions in the lower resolution image obtained by the calculation defined in the standard are equal to three, eight and fourteen. It is no longer possible to predict the phases for this ratio. It is recalled that a macroblock conventionally comprises 16x16 pixels. Thus, these conventional techniques for determining the characteristics of the 4-tap or bilinear filters generate a bias, which is problematic for efficient implementation of coding and / or decoding of images. 3. DISCLOSURE OF THE INVENTION The invention proposes a new solution that does not have all of these drawbacks of the prior art, in the form of an oversampling method for decoding a data stream. representative of at least one image, and having a data layer organization comprising at least one enhancement layer, an enhancement layer corresponding to a higher resolution level of an image of said flux with respect to the resolution level of a preceding layer, said lower resolution level, the data of the enhancement layer being coded by prediction from data of at least one previous layer corresponding to a lower resolution level. According to the invention, such an oversampling method comprises: for a sequence of at least one image taken at a lower resolution level, a first step of determining the position, called the sub-pixellic position, of at least a pixel of each of the images of said sequence, taken at a higher resolution level; a step of storing said at least one sub-pixellic position in at least one oversampling table; for at least one image of said sequence taken at a higher resolution level, and for at least one given pixel of said image, a second step of determining a sub-pixellic position of said at least one given pixel, in said level lower resolution of said image, from: ^ sub-pixellic position of a reference pixel in the image to a lower resolution level, determined from a reading of said at least one table of on sampling, and an offset representative of the distance between the sub-pixellic positions of said given and reference pixels, determined from a reading of said at least one over-sampling table. Thus, the invention proposes a new technique of oversampling which does not generate a deflection due to rounding errors in the filters used for oversampling. To do this, the method according to the invention comprises two main phases: a pre-calculation phase of one or more oversampling tables, corresponding to the first determination step and the memorization step, and a phase oversampling, corresponding to the second determination step. The pre-calculation phase thus makes it possible to determine the sub-pixellic positions of reference pixels, also called reference points. It is understood that the sub-pixellic positions can be stored in an over-sampling table directly or indirectly, for example by means of an index allowing access to the subpixel position.

Ensuite, la phase de sur-échantillonnage permet de déterminer la position sous-pixellique d'un autre pixel, dit pixel donné, dans le niveau de résolution inférieur de l'image, à partir d'une lecture de la ou des tables de sur-échantillonnage. Par exemple, la lecture d'une table peut donner directement la valeur d'une position sous-pixellique. Elle peut également stocker une information permettant d'accéder à la position sous-pixellique, à l'aide d'un index par exemple. Autrement dit, lors de la phase de sur-échantillonnage, on calcule pour un pixel donné de l'image au niveau de résolution supérieur, sa position souspixellique dans le niveau de résolution inférieur à partir : de la position sous-pixellique dans le niveau de résolution inférieur d'un pixel de référence, précédemment déterminée et mémorisée dans la table de sur-échantillonnage ; et d'un décalage, ajouté à la position sous-pixellique de référence dans le niveau de résolution inférieur.  Then, the oversampling phase makes it possible to determine the sub-pixellic position of another pixel, said given pixel, in the lower resolution level of the image, from a reading of the at least one of the tables. -sampling. For example, reading a table can directly give the value of a sub-pixellic position. It can also store information allowing access to the sub-pixellic position, using an index for example. In other words, during the over-sampling phase, for a given pixel of the image at the higher resolution level, its subpixellic position in the lower resolution level is calculated from: the sub-pixellic position in the level of lower resolution of a reference pixel, previously determined and stored in the oversampling table; and an offset, added to the subpixel reference position in the lower resolution level.

Plus précisément, ce décalage est associé à la distance entre le pixel donné et le pixel de référence dans le niveau de résolution supérieur. Ce décalage, dans le niveau de résolution inférieur, est déterminé à partir d'une lecture dans une table de sur-échantillonnage. Selon une caractéristique particulière de l'invention, ladite deuxième étape de détermination met en oeuvre un ajout, à ladite position sous-pixellique d'un pixel de référence, dudit décalage représentatif de la distance entre les positions sous-pixelliques desdits pixels donné et de référence. On détermine ainsi la position sous-pixellique du pixel donné dans le niveau de résolution inférieur.  More precisely, this offset is associated with the distance between the given pixel and the reference pixel in the higher resolution level. This offset, in the lower resolution level, is determined from a reading in an over-sampling table. According to a particular characteristic of the invention, said second determination step implements an addition, at said sub-pixellic position of a reference pixel, of said offset representative of the distance between sub-pixellic positions of said given pixels and of reference. This determines the sub-pixel position of the given pixel in the lower resolution level.

Selon une variante de réalisation, les positions sous-pixelliques étant représentées par un ensemble de bits, la position sous-pixellique dudit pixel de référence dans l'image à un niveau de résolution inférieur est obtenue par ajouts de décalages représentatifs de distances pixelliques dans l'image à un niveau de résolution supérieure, pré-calculés en puissance de deux, lesdits ajouts dépendant de la valeur des bits dudit ensemble représentatif de la position dudit pixel de référence. Selon un aspect particulier de l'invention, les pixels de ladite au moins une image sont organisés en lignes et colonnes, et ladite étape de mémorisation met en oeuvre deux tables de sur-échantillonnage : une première table (Tx) mémorisant la position d'au moins un pixel de ladite image à un niveau de résolution supérieur, dans ladite image à un niveau de résolution inférieur, suivant une ligne de ladite image, et une deuxième table (Ty) mémorisant la position d'au moins un pixel de ladite image à un niveau de résolution supérieur, dans ladite image à un niveau de résolution inférieur, suivant une colonne de ladite image. L'invention permet ainsi de pré-calculer plusieurs tables par groupe d'images, par exemple une première table correspondant aux positions sous- pixelliques selon l'axe x des images, et une deuxième table correspondant aux positions sous-pixelliques selon l'axe y des images. Selon un mode de réalisation particulier de l'invention, les positions souspixelliques respectent un motif de répétition, et ladite table présente une longueur supérieure ou égale à la longueur dudit motif de répétition. Plus précisément, les positions sous-pixelliques peuvent respecter un motif de répétition distinct selon les différents axes de l'image. Dans ce cas, les tables de sur-échantillonnage définies selon chacun des axes peuvent présenter des longueurs différentes. Il est ainsi possible de ne mémoriser dans une table de sur-échantillonnage que les positions sous-pixelliques correspondant à un seul motif de répétition (ou une seule période), et d'appeler cette table à chaque nouveau motif. La longueur d'une table peut alors être la période, un multiple de la période ou la taille de l'image selon un des axes de l'image. En particulier, la longueur du motif de répétition peut être signalée dans un paquet de données (NALU) dudit flux, au moyen d'indicateur (par exemple un élément binaire) inséré dans le paquet. On rappelle qu'un flux SVC est organisé en AUs ("Access Units" pour Unités d'Accès) correspondant chacune à un instant temporel donné et comprenant une ou plusieurs NALUs ("Network Abstraction Layer Units" pour Unités d'Accès pour le réseau), ou paquets de données. Ainsi, la période, et éventuellement les phases associées aux filtres mis en oeuvre lors de la phase de sur-échantillonnage, sont signalées dans le flux.  According to an alternative embodiment, the sub-pixellic positions being represented by a set of bits, the sub-pixellic position of said reference pixel in the image at a lower resolution level is obtained by additions of offsets representative of pixel distances in the image. image at a higher resolution level, pre-calculated in power of two, said additions depending on the value of the bits of said set representative of the position of said reference pixel. According to one particular aspect of the invention, the pixels of said at least one image are organized in rows and columns, and said storage step implements two over-sampling tables: a first table (Tx) memorizing the position of at least one pixel of said image at a higher resolution level, in said image at a lower resolution level, along a line of said image, and a second table (Ty) storing the position of at least one pixel of said image at a higher resolution level, in said image at a lower resolution level, following a column of said image. The invention thus makes it possible to pre-calculate several tables per group of images, for example a first table corresponding to the sub-pixellic positions along the x-axis of the images, and a second table corresponding to the sub-pixel positions along the axis. there are pictures. According to a particular embodiment of the invention, the subpixel positions respect a repetition pattern, and said table has a length greater than or equal to the length of said repetition pattern. More precisely, the sub-pixellic positions can respect a distinct repetition pattern according to the different axes of the image. In this case, the oversampling tables defined along each of the axes can have different lengths. It is thus possible to store in an oversampling table only subpixel positions corresponding to a single repeating pattern (or a single period), and to call that table to each new pattern. The length of a table can then be the period, a multiple of the period or the size of the image along one of the axes of the image. In particular, the length of the repetition pattern may be signaled in a data packet (NALU) of said stream, by means of an indicator (eg a bit) inserted in the packet. It will be recalled that an SVC stream is organized into AUs (Access Units for Access Units) each corresponding to a given time instant and comprising one or more NALUs (Network Abstraction Layer Units for Network Access Units). ), or data packets. Thus, the period, and possibly the phases associated with the filters implemented during the oversampling phase, are indicated in the stream.

Ces informations sont, par exemple insérées dans un paquet de données de signalisation SPS ( Sequence Parameter Set ), ou dans un paquet de données d'images PPS ( Picture Parameter Set ), ou encore dans un en-tête de slice ( suce header ), où une suce regroupe un ensemble de macroblocs d'une image pour un niveau de représentation (par exemple niveau de représentation spatiale), etc. Selon un autre mode de réalisation, l'étape de première détermination des positions sous-pixelliques met en oeuvre un algorithme de type Bresenham. Les troisième et quatrième modes de réalisation décrits ci-après sont notamment basés sur une adaptation de l'algorithme de Bresenham. Notamment, le troisième mode de réalisation met en oeuvre une adaptation de l'algorithme de Bresenham lors de la première étape de détermination des positions souspixelliques uniquement, tandis que le quatrième mode de réalisation met en oeuvre une adaptation de cet algorithme lors des première et deuxième étapes de détermination des positions sous-pixelliques. En particulier, le procédé de sur-échantillonnage selon l'invention met en oeuvre un filtre appartenant au groupe comprenant : un filtre bilinéaire, un filtre à quatre coefficients, dit 4-tap .  This information is, for example, inserted in a Sequence Parameter Set (SPS) signaling data packet, or in a Picture Parameter Set (PPS) data packet, or in a slice header (succe header). , where a pacifier groups together a set of macroblocks of an image for a level of representation (for example level of spatial representation), etc. According to another embodiment, the step of first determining the sub-pixellic positions implements a Bresenham-type algorithm. The third and fourth embodiments described below are based in particular on an adaptation of the Bresenham algorithm. In particular, the third embodiment implements an adaptation of the Bresenham algorithm during the first step of determining subpixel positions only, while the fourth embodiment implements an adaptation of this algorithm during the first and second steps for determining sub-pixellic positions. In particular, the oversampling method according to the invention implements a filter belonging to the group comprising: a bilinear filter, a filter with four coefficients, called 4-tap.

Comme déjà indiqué en relation avec l'art antérieur, le filtre bilinéaire permet de réaliser une prédiction de résidu, encore appelée prédiction résiduelle, tandis que le filtre 4-tap permet de réaliser une prédiction de texture, encore appelée prédiction intra. Selon une variante de réalisation, le flux de données comprend une information indiquant qu'une mémorisation des positions sous-pixelliques dans au moins une table est effectuée. Cet indicateur est par exemple un élément binaire inséré dans un paquet de données NALU du flux. Par exemple, l'utilisation de tables de sur-échantillonnage est signalée à l'aide d'un indicateur inséré dans un paquet de données de signalisation SPS, ou dans un paquet de données d'images PPS, ou encore dans un en-tête de slice, etc. L'invention concerne également sous une autre forme de réalisation un dispositif de décodage d'un flux de données représentatif d'au moins une image, et présentant une organisation en couches de données comprenant au moins une couche de rehaussement correspondant. Un tel dispositif de décodage comprend des moyens de sur-échantillonnage comprenant : pour une séquence d'au moins une image prise à un niveau de résolution inférieur, des moyens de détermination de la position, dite position souspixellique, d'au moins un pixel de chacune des images de ladite séquence, prises à un niveau de résolution supérieur ; des moyens de mémorisation de ladite au moins une position souspixellique dans au moins une table de sur-échantillonnage ; pour au moins une image de ladite séquence prise à un niveau de résolution supérieur, et pour au moins un pixel donné de ladite image, des moyens de détermination d'une position sous-pixellique dudit au moins un pixel donné, dans ledit niveau de résolution inférieur de ladite image, à partir : ^ d'une position sous-pixellique d'un pixel de référence dans l'image à un niveau de résolution inférieur, déterminée à partir d'une lecture de ladite au moins une table de sur-échantillonnage, et ^ d'un décalage représentatif de la distance entre les positions sous-pixelliques desdits pixels donné et de référence, 25 déterminé à partir d'une lecture de ladite au moins une table. Un tel dispositif de décodage est notamment adapté à mettre en oeuvre le procédé de décodage décrit précédemment. Il s'agit par exemple d'un téléviseur, d'une set top box , d'un ordinateur, .... 30 Un autre aspect de l'invention concerne également un produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutable par un processeur, comprenant des instructions de code de programme pour la mise en oeuvre du procédé de sur-échantillonnage décrit précédemment, dans un décodeur.  As already indicated in relation with the prior art, the bilinear filter makes it possible to carry out a prediction of a residue, also called residual prediction, while the 4-tap filter makes it possible to carry out a texture prediction, also called intra prediction. According to an alternative embodiment, the data stream comprises information indicating that storage of the sub-pixellic positions in at least one table is performed. This indicator is for example a bit inserted into a NALU data packet of the stream. For example, the use of over-sampling tables is signaled by means of an indicator inserted in an SPS signaling data packet, or in a PPS image data packet, or in a header. slice, etc. The invention also relates to another embodiment of a device for decoding a data stream representative of at least one image, and having a data layer organization comprising at least one corresponding enhancement layer. Such a decoding device comprises oversampling means comprising: for a sequence of at least one image taken at a lower resolution level, means for determining the position, called subpixell position, of at least one pixel of each of the images of said sequence taken at a higher resolution level; means for storing said at least one subpixel position in at least one oversampling table; for at least one image of said sequence taken at a higher resolution level, and for at least one given pixel of said image, means for determining a sub-pixellic position of said at least one given pixel, in said resolution level lower of said image, from: ^ sub-pixellic position of a reference pixel in the image to a lower resolution level, determined from a reading of said at least one over-sampling table , and ^ of an offset representative of the distance between subpixel positions of said given and reference pixels, determined from a reading of said at least one table. Such a decoding device is particularly suitable for implementing the decoding method described above. This is for example a television, a set top box, a computer, .... Another aspect of the invention also relates to a computer program product downloadable from a communication network and / or recorded on a computer-readable and / or executable medium by a processor, comprising program code instructions for implementing the oversampling method described above, in a decoder.

Un autre aspect de l'invention concerne un procédé de codage d'au moins une image, délivrant un flux de données présentant une organisation en couches de données comprenant au moins une couche de rehaussement. Un tel procédé de codage comprend : pour une séquence d'au moins une image prise à un niveau de résolution inférieur, une première étape de détermination de la position, dite position sous-pixellique, d'au moins un pixel de chacune des images de ladite séquence prises à un niveau de résolution supérieur ; une étape de mémorisation de ladite au moins une position sous-pixellique dans au moins une table de sur-échantillonnage ; - pour au moins une image de ladite séquence prise à un niveau de résolution supérieur, et pour au moins un pixel donné de ladite image, une deuxième étape de détermination d'une position sous-pixellique dudit au moins un pixel donné, dans ledit niveau de résolution inférieur de ladite image, à partir : ^ d'une position sous-pixellique d'un pixel de référence dans l'image à un niveau de résolution inférieur, déterminée à partir d'une lecture de ladite au moins une table de sur-échantillonnage, et ^ d'un décalage représentatif de la distance entre les positions sous-pixelliques desdits pixels donné et de référence, déterminé à partir d'une lecture de ladite au moins une table de sur-échantillonnage. Les avantages du procédé de codage sont les mêmes que ceux du procédé de décodage et ne sont pas décrits plus en détail.  Another aspect of the invention relates to a method for coding at least one image, delivering a data stream having a data layer organization comprising at least one enhancement layer. Such a coding method comprises: for a sequence of at least one image taken at a lower resolution level, a first step of determining the position, called the sub-pixellic position, of at least one pixel of each of the images of said sequence taken at a higher resolution level; a step of storing said at least one sub-pixellic position in at least one oversampling table; for at least one image of said sequence taken at a higher resolution level, and for at least one given pixel of said image, a second step of determining a sub-pixellic position of said at least one given pixel, in said level lower resolution of said image, from: ^ sub-pixellic position of a reference pixel in the image to a lower resolution level, determined from a reading of said at least one table of on sampling, and an offset representative of the distance between the sub-pixellic positions of said given and reference pixels, determined from a reading of said at least one over-sampling table. The advantages of the coding method are the same as those of the decoding method and are not described in more detail.

L'invention concerne également sous une autre forme de réalisation undispositif de codage d'au moins une image, délivrant un flux de données présentant une organisation en couches de données comprenant au moins une couche de rehaussement. Un tel dispositif de codage comprend des moyens de sur-échantillonnage 5 comprenant : pour une séquence d'au moins une image prise à un niveau de résolution inférieur, des moyens de détermination de la position, dite position souspixellique, d'au moins un pixel de chacune des images de ladite séquence, prises à un niveau de résolution supérieur ; 10 - des moyens de mémorisation de ladite au moins une position sous-pixellique dans au moins une table de sur-échantillonnage ; pour au moins une image de ladite séquence prise à un niveau de résolution supérieur, et pour au moins un pixel donné de ladite image, des moyens de détermination d'une position sous-pixellique dudit au moins un 15 pixel donné, dans ledit niveau de résolution inférieur de ladite image, à partir : ^ d'une position sous-pixellique d'un pixel de référence dans l'image à un niveau de résolution inférieur, déterminée à partir d'une lecture de ladite au moins une table de sur- 20 échantillonnage, et ^ d'un décalage représentatif de la distance entre les positions sous-pixelliques desdits pixels donné et de référence, déterminé à partir d'une lecture de ladite au moins une table de sur-échantillonnage. 25 Un tel dispositif de codage est notamment adapté à mettre en oeuvre le procédé de codage décrit précédemment. Il s'agit par exemple d'un serveur de diffusion, comme un serveur de vidéo à la demande. Un autre aspect de l'invention concerne également un produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré 30 sur un support lisible par ordinateur et/ou exécutable par un processeur, comprenant des instructions de code de programme pour la mise en oeuvre du procédé de sur-échantillonnage décrit précédemment, dans un codeur. 4. Liste des figures D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation particulier, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : la figure 1, déjà décrite en relation avec l'art antérieur, présente un codeur de type SVC; - les figures 2A et 2B, également décrites en relation avec l'art antérieur, illustrent la position de pixels d'une image entre deux niveaux de résolution différents de la même image ; la figure 3 illustre les principales étapes du procédé de sur-échantillonnage, pour le décodage d'un flux présentant une organisation en couches de données; la figure 4 présente plus précisément l'algorithme de sur-échantillonnage mis en oeuvre au décodage ; la figure 5 illustre les couches de base et de rehaussement, et les relations entre les différentes variables utilisées. 5. Description d'un mode de réalisation de l'invention 5.1 Notations On indique ci-après, en relation avec la figure 5, les notations utilisées dans la suite de la description. On considère pour ce faire que les pixels des images sont organisés en lignes et en colonnes, une image comprenant un ensemble de macroblocs comprend seize lignes et seize colonnes, soit 16x16 pixels. On considère également qu'une image donnée présente différents niveaux de résolution, par exemple un niveau (ou couche) de base 51, noté niveau de résolution inférieur, et un niveau (ou couche) de rehaussement 53, noté niveau de résolution supérieur.  The invention also relates, in another embodiment, to an encoding device for at least one image, delivering a data stream having a data layer organization comprising at least one enhancement layer. Such a coding device comprises over-sampling means 5 comprising: for a sequence of at least one image taken at a lower resolution level, means for determining the position, called subpixellic position, of at least one pixel each of the images of said sequence, taken at a higher resolution level; Means for storing said at least one sub-pixellic position in at least one oversampling table; for at least one image of said sequence taken at a higher resolution level, and for at least one given pixel of said image, means for determining a sub-pixellic position of said at least one given pixel, in said level of lower resolution of said image, from: a subpixel position of a reference pixel in the image to a lower resolution level, determined from a reading of said at least one overhead table; 20 sampling, and ^ an offset representative of the distance between the sub-pixellic positions of said given and reference pixels, determined from a reading of said at least one oversampling table. Such a coding device is particularly suitable for implementing the coding method described above. This is for example a broadcast server, such as a video-on-demand server. Another aspect of the invention also relates to a computer program product downloadable from a communication network and / or recorded on a computer-readable and / or executable medium by a processor, including program code instructions for setting of the oversampling method previously described in an encoder. 4. List of Figures Other features and advantages of the invention will appear more clearly on reading the following description of a particular embodiment, given as a simple illustrative and non-limiting example, and the accompanying drawings, among which: Figure 1, already described in connection with the prior art, has an SVC type encoder; FIGS. 2A and 2B, also described in relation to the prior art, illustrate the position of pixels of an image between two different resolution levels of the same image; FIG. 3 illustrates the main steps of the oversampling method, for the decoding of a stream having a data layer organization; FIG. 4 more precisely shows the oversampling algorithm implemented during decoding; Figure 5 illustrates the basic and enhancement layers, and the relationships between the different variables used. 5. DESCRIPTION OF AN EMBODIMENT OF THE INVENTION 5.1 Notations It is indicated below, in relation with FIG. 5, the notations used in the remainder of the description. To do this, it is considered that the pixels of the images are organized in rows and columns, an image comprising a set of macroblocks comprises sixteen lines and sixteen columns, ie 16 × 16 pixels. It is also considered that a given image has different levels of resolution, for example a basic level (or layer) 51, noted level of lower resolution, and a level (or layer) of enhancement 53, noted level of higher resolution.

Ainsi : soit (xP, yP) la position d'un pixel situé sur la première ligne et la première colonne (soit en haut à gauche) d'un macrobloc d'une image à un niveau de résolution supérieur ; soit k un entier variant de 0 à 15, où k traduit la position selon l'axe x (numéro de colonne) ou l'axe y (numéro de ligne) d'un pixel dans le référentiel du macrobloc auquel il appartient. La position du pixel dans l'image sur-échantillonnée, c'est-à-dire dans l'image à un niveau de résolution supérieur, est alors k+xP selon l'axe x et k+yP selon l'axe y ; soient RxBase et RyBase les niveaux de résolution de la couche de base, respectivement selon les axes x et y ; soient RxEnh et RyEnh les niveaux de résolution de la partie 53 de la couche de rehaussement complète effectivement prédite par la couche de base, respectivement selon les axes x et y. Dans la suite de la description, on nomme cette partie couche de rehaussement; - soient RxEnhR et RyEnhR les niveaux de résolution de la couche de rehaussement complète codée ou à coder, respectivement selon les axes x et y ; soient Tx une table de sur-échantillonnage selon l'invention, permettant de mémoriser la position d'au moins un pixel de l'image à un niveau de résolution supérieur dans l'image à un niveau de résolution inférieur suivant l'axe x, et Ty une table de sur-échantillonnage selon l'invention, permettant de mémoriser la position d'au moins un pixel de l'image à un niveau de résolution supérieur dans l'image à un niveau de résolution inférieur suivant l'axe y.  Thus: let (xP, yP) be the position of a pixel located on the first line and the first column (in the upper left) of a macroblock of an image at a higher resolution level; let k be an integer varying from 0 to 15, where k translates the position along the x axis (column number) or the y axis (line number) of a pixel in the macroblock repository to which it belongs. The position of the pixel in the oversampled image, i.e. in the image at a higher resolution level, is then k + xP along the x axis and k + yP along the y axis; let RxBase and RyBase be the resolution levels of the base layer, respectively along the x and y axes; let RxEnh and RyEnh be the resolution levels of the part 53 of the complete enhancement layer actually predicted by the base layer, respectively along the x and y axes. In the rest of the description, this part is called enhancement layer; - Let RxEnhR and RyEnhR the resolution levels of the complete enhancement layer encoded or coded, respectively along the x and y axes; let Tx be an over-sampling table according to the invention, making it possible to store the position of at least one pixel of the image at a higher resolution level in the image at a lower resolution level along the x-axis, and Ty an over-sampling table according to the invention, for storing the position of at least one pixel of the image at a higher resolution level in the image at a lower resolution level along the y-axis.

On considère également les variables ScaledBaseLeftOffset, ScaledBaseTopOffset, deltaX, deltaY, baseRefX et baseRefY définies dans le document JVT-V201 précité. Plus précisément, les numéros d'équations entre parenthèses font référence à cette norme. Plus précisément, la variable ScaledBaseLeftOffset est définie par : ScaledBaseLeftOffset = 2 * scaled_base_left_offset (équation G.49) où la variable scaled_base_left_offset correspond au décalage horizontal entre le pixel localisé sur la première ligne et la première colonne (c'est-à-dire le plus en haut et le plus à gauche) de l'image de résolution inférieure (RxBase,RyBase) mise à l'échelle de la résolution supérieure (RxEnh,RyEnh), et le pixel localisé sur la première ligne et la première colonne (c'est-à-dire le plus en haut et le plus à gauche) de l'image de rehaussement complète codée et de résolution (RxEnhR, RyEnhR). Ce décalage est exprimé dans la norme en unité de deux pixels de l'image. La variable ScaledBaseTopOffset est définie par : ScaledBaseTopOffset = 2 * scaled_base_top_offset * (2 - frame_mbs_only jlag) (équation G.51) où la variable scaled_base_top_offset correspond au décalage vertical entre le pixel localisé sur la première ligne et la première colonne (c'est-à-dire le plus en haut et le plus à gauche) de l'image de résolution inférieure mise à l'échelle de la résolution supérieure, et le pixel localisé sur la première ligne et la première colonne (c'est-à-dire le plus en haut et le plus à gauche) de l'image de rehaussement complète codée et de résolution (RxEnhR, RyEnhR). Ce décalage est exprimé en unité de deux pixels de l'image. La variable frame_mbs_only_flag correspond quant à elle à un élément binaire de la syntaxe spécifiant si l'image de résolution supérieure correspond à une image progressive ou entrelacée. Ainsi, comme illustré sur la figure 5, les variables ScaledBaseLeftOffet (SBLO) et ScaledBaseTopOffset (SBTO) représentent le décalage dans l'image de la couche de rehaussement complète 52 de la partie prédite 53 de cette image. On rappelle que la figure 5 illustre les couches de base 51 et de rehaussement (52, 53), et les relations entre les différentes variables de résolution utilisées. On se place ici dans le cas général où seule une partie 53 de l'image de la couche de rehaussement 52 est prédite par la couche de base 51. La variable deltaX est définie par : deltaX = ((BasePicWidth 16) + (ScaledBaseWidth 1)) / ScaledBaseWidth (équation G.166) où les variables BasePicWidth et ScaledBaseWidth correspondent à respectivement à RxBase et RxEnh. L'opération n correspond à la multiplication par deux à la puissance n. La variable deltaY est définie par : deltaY = ((BasePicHeight 16) + (ScaledBaseHeight 1))/ScaledBaseHeight (équation G.167) où les variables BasePicHeight et ScaledBaseHeight correspondent à respectivement RyBase et RyEnh. La variable baseRefX est définie par : baseRefX = ((BasePicWidth 15) + (ScaledBaseWidth 1)) / ScaledBaseWid th + 2048 (Equation G.168) La variable baseRefY est définie par : baseRefY = ((BasePicHeight 15) + (ScaledBaseHeight 1)) / ScaledBaseH eight + 2048 (Equation G.169) 5.2 Principe général Le principe général de l'invention repose sur la détermination d'une ou plusieurs tables de sur-échantillonnage, permettant de pallier les inconvénients des techniques classiques, et notamment les erreurs dues au problème d'arrondi. Plus précisément, l'invention permet de mémoriser, dans des tables de sur- échantillonnage, des positions des pixels d'une image présentant un niveau de résolution supérieur, selon un des axes de l'image, dans cette même image présentant un niveau de résolution inférieur, à la précision du 161ème de pixel. Lors de l'opération de sur-échantillonnage, il est ainsi possible d'inférer à partir de cette (ces) table(s) et d'un décalage, qui peut être nul, la position d'un pixel donné de l'image de résolution supérieure dans l'image de résolution inférieure. Côté décodeur, on considère plus précisément un flux de données représentatif d'au moins une image, et présentant une organisation en couches de données comprenant au moins une couche de rehaussement.  The variables ScaledBaseLeftOffset, ScaledBaseTopOffset, deltaX, deltaY, baseRefX and baseRefY defined in the aforementioned document JVT-V201 are also considered. More specifically, equation numbers in parentheses refer to this standard. Specifically, the ScaledBaseLeftOffset variable is defined by: ScaledBaseLeftOffset = 2 * scaled_base_left_offset (Equation G.49) where the variable scaled_base_left_offset is the horizontal offset between the pixel located on the first line and the first column (that is, the more up and leftmost) of the lower resolution image (RxBase, RyBase) scaling the higher resolution (RxEnh, RyEnh), and the pixel located on the first line and the first column (c the highest and leftmost) of the full coded enhancement image and resolution (RxEnhR, RyEnhR). This offset is expressed in the standard in units of two pixels of the image. The variable ScaledBaseTopOffset is defined by: ScaledBaseTopOffset = 2 * scaled_base_top_offset * (2 - frame_mbs_only jlag) (equation G.51) where the variable scaled_base_top_offset is the vertical offset between the pixel located on the first line and the first column (ie highest and lowest left) of the lower resolution image scaling the upper resolution, and the pixel located on the first line and the first column (ie the highest and most left) of the complete coded enhancement image and resolution (RxEnhR, RyEnhR). This offset is expressed in units of two pixels of the image. The frame_mbs_only_flag variable corresponds to a binary element of the syntax specifying whether the higher resolution image corresponds to a progressive or interlaced image. Thus, as illustrated in FIG. 5, the variables ScaledBaseLeftOffect (SBLO) and ScaledBaseTopOffset (SBTO) represent the offset in the image of the complete enhancement layer 52 of the predicted part 53 of this image. It will be recalled that FIG. 5 illustrates the basic layers 51 and enhancement layers (52, 53), and the relationships between the different resolution variables used. Here we are placed in the general case where only a portion 53 of the image of the enhancement layer 52 is predicted by the base layer 51. The deltaX variable is defined by: deltaX = ((BasePicWidth 16) + (ScaledBaseWidth 1 )) / ScaledBaseWidth (equation G.166) where the BasePicWidth and ScaledBaseWidth variables correspond to RxBase and RxEnh respectively. The operation n corresponds to the multiplication by two to the power n. The variable deltaY is defined by: deltaY = ((BasePicHeight 16) + (ScaledBaseHeight 1)) / ScaledBaseHeight (equation G.167) where the BasePicHeight and ScaledBaseHeight variables correspond to RyBase and RyEnh, respectively. The baseRefX variable is defined by: baseRefX = ((BasePicWidth 15) + (ScaledBaseWidth 1)) / ScaledBaseWid th + 2048 (Equation G.168) The baseRefY variable is defined by: baseRefY = ((BasePicHeight 15) + (ScaledBaseHeight 1) 5.2 General Principle The general principle of the invention is based on the determination of one or more over-sampling tables, making it possible to overcome the drawbacks of conventional techniques, and in particular errors. due to the rounding problem. More precisely, the invention makes it possible to store, in over-sampling tables, the positions of the pixels of an image having a higher resolution level, along one of the axes of the image, in this same image having a level of lower resolution, to the precision of the 161th pixel. During the oversampling operation, it is thus possible to infer from this (these) table (s) and an offset, which may be zero, the position of a given pixel of the image. higher resolution in the lower resolution image. On the decoder side, a data stream representative of at least one image and having a data layer organization comprising at least one enhancement layer is more specifically considered.

Plus précisément, une couche de rehaussement correspond à un niveau de résolution supérieur d'une image du flux par rapport au niveau de résolution d'une couche précédente, dit niveau de résolution inférieur. Ainsi, les données de la couche de rehaussement sont codées par prédiction à partir de données d'au moins une couche précédente correspondant à un niveau de résolution inférieur. Comme illustré en figure 3, un procédé de sur-échantillonnage selon l'invention comprend trois étapes principales. Au cours d'une première étape de détermination 31, on détermine, pour une séquence comprenant au moins une image, et pour chaque image de la séquence, la position d'au moins un pixel de l'image à un niveau de résolution supérieur, dans l'image à un niveau de résolution inférieur. Cette position dans le niveau de résolution inférieure est notée position sous-pixellique. Les positions sous-pixelliques associées aux pixels des images de la séquence à un niveau de résolution supérieur sont alors mémorisées, dans une ou plusieurs table de sur-échantillonnage, au cours d'une étape de mémorisation 32. Par exemple, la table Tx permet de mémoriser les positions sous-pixelliques selon les colonnes d'une image, et la table Ty permet de mémoriser les positions souspixelliques selon les lignes d'une image. Ensuite, pour au moins une image de la séquence, et pour au moins un pixel donné de l'image à un niveau de résolution supérieur, on détermine au cours d'une deuxième étape de détermination 33 une position sous-pixellique du pixel donné dans le niveau de résolution inférieur. On travaille ici image par image. La position sous-pixellique du pixel donné, dans le niveau de résolution inférieur, est déterminée à partir : o d'une position sous-pixellique d'un pixel de référence dans l'image à un niveau de résolution inférieur, déterminée à partir d'une lecture de ladite au moins une table de sur-échantillonnage, et o d'un décalage représentatif de la distance entre les positions souspixelliques desdits pixels donné et de référence, déterminé à partir d'une lecture de ladite au moins une table de sur-échantillonnage. Autrement dit, en se référant par exemple à la figure 2A, pour un pixel donné 212 de l'image au niveau de résolution supérieur 21, on calcule sa position sous-pixellique dans le niveau de résolution inférieur à partir : de la position sous-pixellique dans le niveau de résolution inférieur d'un pixel de référence (par exemple le pixel 211 dans le niveau de résolution supérieur), précédemment calculée dans la table de sur- échantillonnage ; et d'un décalage, ajouté à la position sous-pixellique de référence dans le niveau de résolution inférieur. Plus précisément, ce décalage, dans le niveau de résolution inférieur, est calculé à partir d'une lecture dans la table. Ce décalage est associé à la distance, dans le niveau de résolution supérieur 21, entre le pixel donné (212) et le pixel de référence (211). Ainsi, l'invention propose, selon ses différents modes de réalisation, de pré-remplir une ou plusieurs tables de sur-échantillonnage comprenant les positions de l'image de résolution supérieure à la précision du 16ième de pixel dans l'image de résolution inférieure. En particulier, l'invention permet de tenir compte des motifs de répétition des positions sous-pixelliques, ce qui permet, selon certains modes de réalisation, de mémoriser dans une table les positions sous-pixelliques pour une seule période (qui correspond à un seul motif de répétition), et d'appeler cette table à chaque nouveau motif. La longueur d'une table peut alors être la période, un multiple de la période ou la taille de l'image selon un des axes de l'image. Côté codage, l'invention trouve également des applications lorsqu'une prédiction inter-couches est effectuée entre deux couches de résolution spatiales différentes. L'opération de sur-échantillonnage présente donc les mêmes intérêts au niveau du codage que ceux cités au niveau du décodage.  More specifically, an enhancement layer corresponds to a higher resolution level of an image of the stream relative to the resolution level of a previous layer, said lower resolution level. Thus, the data of the enhancement layer is prediction coded from data of at least one previous layer corresponding to a lower resolution level. As illustrated in FIG. 3, an oversampling method according to the invention comprises three main steps. During a first determination step 31, for a sequence comprising at least one image, and for each image of the sequence, the position of at least one pixel of the image at a higher resolution level is determined, in the image at a lower resolution level. This position in the lower resolution level is noted subpixel position. The sub-pixellic positions associated with the pixels of the images of the sequence at a higher resolution level are then stored, in one or more over-sampling table, during a storage step 32. For example, the Tx table allows to memorize the sub-pixellic positions according to the columns of an image, and the table Ty makes it possible to memorize subpixel positions according to the lines of an image. Then, for at least one image of the sequence, and for at least one given pixel of the image at a higher resolution level, during a second determination step 33, a sub-pixellic position of the pixel given in the lower resolution level. We work here image by image. The sub-pixellic position of the given pixel, in the lower resolution level, is determined from: o a sub-pixel position of a reference pixel in the image at a lower resolution level, determined from a reading of said at least one oversampling table, and o an offset representative of the distance between the subpixel positions of said given and reference pixels, determined from a reading of said at least one table of on -sampling. In other words, referring for example to FIG. 2A, for a given pixel 212 of the image at the higher resolution level 21, its sub-pixellic position is calculated in the lower resolution level from: the sub-pixel position; pixellic in the lower resolution level of a reference pixel (for example the pixel 211 in the higher resolution level), previously calculated in the oversampling table; and an offset, added to the subpixel reference position in the lower resolution level. More precisely, this offset, in the lower resolution level, is calculated from a reading in the table. This offset is associated with the distance, in the higher resolution level 21, between the given pixel (212) and the reference pixel (211). Thus, the invention proposes, according to its various embodiments, to pre-fill one or more over-sampling tables comprising the positions of the resolution image greater than the precision of the 16 th of a pixel in the lower resolution image. . In particular, the invention makes it possible to take into account the patterns of repetition of the sub-pixellic positions, which allows, according to some embodiments, to store in a table the sub-pixellic positions for a single period (which corresponds to a single repetition pattern), and call this table to each new pattern. The length of a table can then be the period, a multiple of the period or the size of the image along one of the axes of the image. On the coding side, the invention also finds applications when inter-layer prediction is performed between two different spatial resolution layers. The oversampling operation therefore has the same coding interests as those mentioned at the decoding level.

En effet, le même problème de précision peut apparaître au niveau codage lors de l'opération de sur-échantillonnage. De plus, la mise en oeuvre de l'invention côté codage permet de fournir un flux codé conforme à la norme décrite, c'est-à-dire dont le décodage, par des décodeurs différents dits conformes à la norme, produit le même résultat. L'invention trouve donc des applications dans la norme MPEG-4 SVC, amendement de MPEG-4 AVC, ainsi que dans tout système nécessitant une étape de sur-échantillonnage avec un ratio pouvant être quelconque. L'invention trouve ainsi des applications côté codeur et/ou décodeur, que le codeur mette en oeuvre le procédé de sur-échantillonnage selon l'invention et pas le décodeur, ou vice-versa. Par ailleurs, on note que dans les exemples décrits ci-après on cherche à déterminer un algorithme de sur-échantillonnage à appliquer entre une couche de base et une couche de rehaussement. Cet exemple n'est bien entendu pas limitatif, et l'invention s'applique également à la détermination d'un algorithme de sur-échantillonnage à appliquer entre deux couches de rehaussement. Il convient alors de remplacer les références à la couche de base par une référence à une couche de rehaussement précédente. De plus, les exemples présentés ci-après s'appliquent au calcul de position d'un pixel de luminance. De la même manière, des tables peuvent être pré-définies pour déterminer les positions de pixels de chrominance, en utilisant les équations correspondantes de la norme concernant ces positions (document JVTV201 précité). 5.3 Premier mode de réalisation On décrit ci-après un premier mode de réalisation de l'invention, dans lequel l'étape de mémorisation met en oeuvre deux tables de sur-échantillonnage Tx et Ty, de longueurs respectivement égales au nombre de colonnes et au nombre de lignes d'une image donnée, correspondant à un niveau de résolution supérieur par rapport au niveau de résolution d'une couche précédente (dit de niveau de résolution inférieur).  Indeed, the same problem of precision can appear at the coding level during the oversampling operation. In addition, the implementation of the invention on the coding side makes it possible to provide a coded stream conforming to the described standard, that is to say whose decoding, by different decoders said to conform to the standard, produces the same result. . The invention therefore finds applications in the MPEG-4 SVC standard, amendment of MPEG-4 AVC, as well as in any system requiring an oversampling step with a ratio that can be arbitrary. The invention thus finds applications on the coder and / or decoder side, whether the coder implements the oversampling method according to the invention and not the decoder, or vice versa. Furthermore, it is noted that in the examples described below, it is sought to determine an oversampling algorithm to be applied between a base layer and an enhancement layer. This example is of course not limiting, and the invention also applies to the determination of an oversampling algorithm to be applied between two enhancement layers. It is then necessary to replace the references to the base layer with a reference to a previous enhancement layer. In addition, the examples presented below apply to the calculation of the position of a luminance pixel. In the same way, tables can be pre-defined to determine the positions of chrominance pixels, using the corresponding equations of the standard concerning these positions (document JVTV201 cited above). 5.3 First Embodiment A first embodiment of the invention is described below, in which the storage step implements two over-sampling tables Tx and Ty, of lengths respectively equal to the number of columns and the number of columns. number of lines of a given image, corresponding to a resolution level higher than the resolution level of a previous layer (said level of lower resolution).

Autrement dit, les positions sous-pixelliques des pixels de l'image de résolution supérieure dans l'image de résolution inférieure sont pré-calculées dans les tables Tx et Ty sur la taille de l'image de résolution supérieure selon chaque axe x et y.  In other words, the sub-pixellic positions of the pixels of the higher resolution image in the lower resolution image are pre-calculated in the Tx and Ty tables on the size of the higher resolution image along each x and y axis. .

La première étape de détermination, l'étape de mémorisation des positions sous-pixelliques et la deuxième étape de détermination sont effectuées au début du décodage d'un flux de données représentatif d'au moins une image, lorsque les différents niveaux de résolution entre les couches inter-dépendantes sont connus. Plus précisément, la première étape de détermination des positions sous- l0 pixelliques comprend une première sous-étape consistant à calculer, selon chaque axe x et y, la période, ou la longueur, du motif de répétition des positions souspixelliques, en tenant compte des niveaux de résolution inférieur (couche de base) et supérieur (couche de rehaussement). Ainsi, en notant : 15 Px et Py les périodes selon les axes x et y respectivement ; PGCDX le plus grand commun diviseur entre RxEnh et RxBase ; et PGCDY le plus grand commun diviseur entre RyEnh et RyBase ; alors les périodes Px et Py sont données par : Px = RxEnh/PGCDX 20 Py = RyEnh/PGCDY Au cours d'une deuxième sous-étape, les positions sous-pixelliques de pixels de référence dans l'image de résolution inférieure sont déterminées selon chaque axe x et y, en utilisant les équations définies dans le document JVT-V201 précité, puis mémorisées dans les tables Tx et Ty au cours de l'étape de :25 mémorisation. Ainsi, selon ce premier mode de réalisation, les tables Tx et Ty sont de la taille de l'image de résolution supérieure, c'est-à-dire respectivement de taille RxEnh et RyEnh. On note : 30 dx = ((((16*Px-ScaledBaseLeftOffset)*deltaX+baseRefX) 12)-8) -(((ScaledBaseLeftOffset*deltaX+baseRefX) 12)-8) et dy = ((((16*Py-ScaledBaseTopOffset)*deltaY+baseRefY) 12)-8) ù (((ScaledBaseTopOffset*deltaY+baseRefY) 12)-8) alors la table Tx est remplie comme suit : pour chaque x allant de ScaledBaseLeftOffset à Px+ScaledBaseLeftOffset, Tx[x] = ((((x-ScaledBaseLeftOffset)*deltaX+baseRefX) 12)-8) et la table Ty est remplie comme suit : pour chaque x allant de ScaledBaseTopOffset à Py+ScaledBaseTopOffset, Ty[x] = (((((x-ScaledBaseTopOffset)*delta Y+baseRefY) 12)-8) La deuxième étape de détermination des positions sous-pixelliques des autres pixels (pixel donné) est effectuée comme décrit ci-après. Les positions sous-pixelliques ainsi déterminées sont mémorisées dans les tables Tx et Ty : pour chaque x allant de ScaledBaseLeftOffset à Px+ScaledBaseLeftOffset pour y allant de x à RXEnh si y+Px < RXEnh alors Tx[y+Px] = Tx[y] + dx y=y+Px pour y allant de x à RYEnh si y + Py < RYEnh alors Ty [y+Py] = Ty[y] + dy y=y+Py où l'opérateur n est représentatif d'un décalage de n bits vers la droite, qui correspond à une opération de division par deux à la puissance n. Les tables Tx et Ty ainsi pré-définies permettent de déterminer un filtre de sur-échantillonnage à appliquer à l'image de résolution inférieure. Cette pré- détermination des tables peut être mise en oeuvre une seule fois, au début du décodage d'un flux de données. En plus de régler le problème d'arrondis dans les grandes résolutions mentionné en relation avec l'art antérieur, l'utilisation de tables de sur-échantillonnage permet de simplifier le processus de calcul des phases ou pondérations lors d'une étape de sur-échantillonnage d'une image ou d'un macrobloc. En effet, ces tables de sur-échantillonnage permettent, lors d'une étape ultérieure de sur-échantillonnage, d'appliquer la phase (pour une prédiction de la texture) ou les pondérations (pour une prédiction du résidu) correspondantes selon la position du pixel dans l'image sur-échantillonnée. Autrement dit, cette étape de sur-échantillonnage permet de mettre le résidu et/ou la texture de l'image de résolution inférieure à la même résolution que l'image courante, afin d'utiliser ce résidu ou cette texture sur-échantillonné(e) comme prédiction pour le résidu ou la texture de l'image courante.  The first determination step, the step of storing the sub-pixellic positions and the second determining step are performed at the beginning of the decoding of a representative data stream of at least one image, when the different levels of resolution between the interdependent layers are known. More precisely, the first step of determining sub-pixel positions comprises a first substep consisting in calculating, according to each axis x and y, the period, or the length, of the repeating pattern of subpixel positions, taking into account the Lower (base layer) and higher (enhancement layer) resolution levels. Thus, noting: Px and Py the periods along the x and y axes respectively; PGCDX the largest common divider between RxEnh and RxBase; and PGCDY the greatest common divider between RyEnh and RyBase; then the periods Px and Py are given by: Px = RxEnh / PGCDX Py = RyEnh / PGCDY During a second substep, subpixel positions of reference pixels in the lower resolution image are determined according to each axis x and y, using the equations defined in the aforementioned document JVT-V201, then stored in the tables Tx and Ty during the step of: storage. Thus, according to this first embodiment, the tables Tx and Ty are of the size of the higher resolution image, that is to say respectively of size RxEnh and RyEnh. We write: 30 dx = ((((16 * Px-ScaledBaseLeftOffset) * deltaX + baseRefX) 12) -8) - (((ScaledBaseLeftOffset * deltaX + baseRefX) 12) -8) and dy = ((((16 * Py-ScaledBaseTopOffset) * deltaY + baseRefY) 12) -8) ù (((ScaledBaseTopOffset * deltaY + baseRefY) 12) -8) then the Tx table is populated as follows: for each x ranging from ScaledBaseLeftOffset to Px + ScaledBaseLeftOffset, Tx [x] = ((((x-ScaledBaseLeftOffset) * deltaX + baseRefX) 12) -8) and the table Ty is filled as follows: for each x ranging from ScaledBaseTopOffset to Py + ScaledBaseTopOffset, Ty [x] = ((( ((x-ScaledBaseTopOffset) * delta Y + baseRefY) 12) -8) The second step of determining the sub-pixellic positions of the other pixels (given pixel) is carried out as described below: The sub-pixellic positions thus determined are stored in tables Tx and Ty: for each x ranging from ScaledBaseLeftOffset to Px + ScaledBaseLeftOffset for y going from x to RXEnh if y + Px <RXEnh then Tx [y + Px] = Tx [y] + dx y = y + Px for going from x to RYEn h if y + Py <RYEnh then Ty [y + Py] = Ty [y] + dy y = y + Py where the operator n is representative of an offset of n bits to the right, which corresponds to an operation of division by two at power n. The tables Tx and Ty thus pre-defined make it possible to determine an oversampling filter to be applied to the lower resolution image. This pre-determination of the tables can be implemented once, at the beginning of the decoding of a data stream. In addition to solving the problem of rounding in the large resolutions mentioned in relation with the prior art, the use of over-sampling tables makes it possible to simplify the process of calculating the phases or weights during a step of over-sampling. sampling an image or macroblock. Indeed, these over-sampling tables allow, during a subsequent step of oversampling, to apply the phase (for a prediction of the texture) or the weights (for a prediction of the residue) corresponding to the position of the pixel in the oversampled image. In other words, this over-sampling step makes it possible to put the residue and / or the texture of the image of lower resolution at the same resolution as the current image, in order to use this residue or this oversampled texture (e ) as a prediction for the residue or texture of the current image.

Plus précisément, l'étape de sur-échantillonnage peut être effectuée pour chaque image de résolution supérieure qui dépend par prédiction de texture ou de résidu d'une image de résolution inférieure. Elle peut être appelée une fois pour toute l'image, ou une fois par macrobloc. L'étape de sur-échantillonnage se définit alors de la manière suivante, pour un macrobloc xP,yP de l'image de résolution supérieure. Soit x,y allant de 0 à 15. La position entière posIntX de x, et posIntY de y dans l'image de résolution inférieure est alors obtenue par : posIntX = Tx[x+xP] 4 posIntY = Ty[y+yP] 4 On entend par position entière la position d'un pixel de l'image à un niveau de résolution inférieure dans cette image. Il s'agit donc d'une position pixellique , distincte d'une position sous-pixellique , qui correspond à une précision au 16ème de pixel.  Specifically, the oversampling step can be performed for each higher resolution image that depends by texture or residue prediction of a lower resolution image. It can be called once for the entire image, or once per macroblock. The oversampling step is then defined as follows, for a macroblock xP, yP of the higher resolution image. Let x, y be from 0 to 15. The integer position posIntX of x, and posIntY of y in the lower resolution image is then obtained by: posIntX = Tx [x + xP] 4 posIntY = Ty [y + yP] 4 Integer position refers to the position of a pixel in the image at a lower resolution level in this image. It is therefore a pixellic position, distinct from a sub-pixellic position, which corresponds to a precision at the 16th of a pixel.

Plus précisément, on utilise pour la prédiction de texture un filtre de type 4-tap . Les phases PhX et PhY du filtre 4-tap, selon les axes x et y respectivement, sont alors données par : PhX= (Tx[x+xP]+16)% 16 PhY= (Ty[y+yP]+16)%16 où l'opérateur % correspond à l'opérateur modulo.  More precisely, a 4-tap type filter is used for the texture prediction. The PhX and PhY phases of the 4-tap filter, along the x and y axes respectively, are then given by: PhX = (Tx [x + xP] +16)% 16 Phy = (Ty [y + yP] +16) % 16 where the% operator is the modulo operator.

Pour la prédiction du résidu, on utilise un filtre bilinéaire dont les pondérations wXl, wX2 et wYl, wY2 sont données par si (x == 0) alors wXl = 16 et wX2 = 0 sinon wXl = 16-Tx[x+xP]%16 et wX2 = Tx[x+xP]%16 si (y == 0) alors wYl = 16 et wY2 = 0 sinon wYl = 16-Ty[y+yP]%16 et wY2 = Ty[y+yP]%16 5.4 Deuxième mode de réalisation On décrit ci-après un deuxième mode de réalisation de l'invention, dans lequel l'étape de mémorisation met en oeuvre deux tables de sur-échantillonnage Tx et Ty, de longueurs égales à un multiple de la longueur d'un motif de répétition, respectivement selon les axes x et y. Autrement dit, les positions sous-pixelliques des pixels de l'image de résolution supérieure dans l'image de résolution inférieure sont pré-calculées dans les tables Tx et Ty sur un multiple de la période de répétition selon chaque axe x et y. Comme indiqué en relation avec le premier mode de réalisation, la première étape de détermination et l'étape de mémorisation des positions sous- pixelliques des pixels de références sont effectuées au début du décodage d'un flux de données représentatif d'au moins une image, lorsque les différents niveaux de résolution entre les couches inter-dépendantes sont connus. Ainsi, la première étape de détermination des positions sous-pixelliques comprend une première sous-étape consistant à calculer, selon chaque axe x et y, la période de répétition des positions sous-pixelliques. Les périodes Px et Py sont de nouveau données par : Px = RxEnh/PGCDX Py = RyEnh/PGCDY Au cours d'une deuxième sous-étape, les positions sous-pixelliques dans l'image de résolution inférieure sont déterminées selon chaque axe x et y, en utilisant les équations définies dans le document JVT-V201 précité, puis mémorisées dans les tables Tx et Ty au cours de l'étape de mémorisation. En considérant de nouveau qu'un macrobloc comprend 16x16 pixels, les tables Tx et Ty sont respectivement de taille 16*Px et 16*Py selon ce deuxième mode de réalisation. On note : soit dx = ((((16*Px-ScaledBaseLeftOffset)*deltaX+baseRefX) 12)-8) -(((ScaledBaseLeftOffset*deltaX+baseRefX) 12)-8) soit dy = ((((16*Py-ScaledBaseTopOffset)*deltaY+baseRefY) 12)-8) û (((ScaledBaseTopOffset*deltaY+baseRefY) 12)-8) alors la table Tx est remplie comme suit : pour chaque x allant de 0 à 16*Px, Tx[x] = ((((x-ScaledBaseLeftOffset)*deltaX+baseRefX) 12)-8) et la table Ty est remplie comme suit : pour chaque x allant de 0 à 16*Py, Ty[x] = (((((x-ScaledBaseTopOffset)*deltaY+baseRefY) 12)-8) Les tables Tx et Ty ainsi pré-définies permettent de déterminer un filtre de sur-échantillonnage à appliquer à l'image de résolution inférieure. Cette pré-détermination des tables peut être mise en oeuvre une seule fois, au début du décodage d'un flux de données. En effet, ces tables de sur-échantillonnage permettent, lors d'une étape ultérieure de sur-échantillonnage, d'appliquer la phase (pour une prédiction de la texture) ou les pondérations (pour une prédiction du résidu) correspondantes selon la position du pixel dans l'image sur-échantillonnée.  For the prediction of the residue, we use a bilinear filter whose weights wXl, wX2 and wYl, wY2 are given by if (x == 0) then wXl = 16 and wX2 = 0 otherwise wXl = 16-Tx [x + xP] % 16 and wX2 = Tx [x + xP]% 16 if (y == 0) then wYl = 16 and wY2 = 0 otherwise wYl = 16-Ty [y + yP]% 16 and wY2 = Ty [y + yP] 5.4 Second Embodiment A second embodiment of the invention is described below, in which the storage step implements two over-sampling tables Tx and Ty, of lengths equal to a multiple of the length of a repeating pattern, respectively along the x and y axes. In other words, the sub-pixellic positions of the pixels of the higher resolution image in the lower resolution image are pre-calculated in the Tx and Ty tables over a multiple of the repetition period along each x and y axis. As indicated in connection with the first embodiment, the first determination step and the step of storing subpixel positions of the reference pixels are performed at the beginning of the decoding of a data stream representative of at least one image when the different levels of resolution between interdependent layers are known. Thus, the first step of determining the sub-pixellic positions comprises a first substep of calculating, according to each axis x and y, the repetition period subpixel positions. The periods Px and Py are again given by: Px = RxEnh / PGCDX Py = RyEnh / PGCDY During a second substep, subpixel positions in the lower resolution image are determined along each x axis and y, using the equations defined in the aforementioned document JVT-V201, then stored in the tables Tx and Ty during the storage step. Considering again that a macroblock comprises 16x16 pixels, the tables Tx and Ty are respectively of size 16 * Px and 16 * Py according to this second embodiment. Note: either dx = ((((* Px-ScaledBaseLeftOffset) * deltaX + baseRefX) 12) -8) - (((ScaledBaseLeftOffset * deltaX + baseRefX) 12) -8) let dy = ((((16 * Py-ScaledBaseTopOffset) * deltaY + baseRefY) 12) -8) û (((ScaledBaseTopOffset * deltaY + baseRefY) 12) -8) then the Tx table is filled as follows: for each x ranging from 0 to 16 * Px, Tx [x] = ((((x-ScaledBaseLeftOffset) * deltaX + baseRefX) 12) -8) and the table Ty is filled as follows: for each x ranging from 0 to 16 * Py, Ty [x] = ((( ((x-ScaledBaseTopOffset) * deltaY + baseRefY) 12) -8) The pre-defined Tx and Ty tables allow to determine an oversampling filter to be applied to the lower resolution image. can be implemented only once, at the beginning of the decoding of a data stream, because these over-sampling tables make it possible, during a subsequent step of oversampling, to apply the phase (for a prediction of texture) or weights (for a precursor corresponding residue) according to the position of the pixel in the oversampled image.

De nouveau, l'étape de sur-échantillonnage peut être effectuée pour chaque image de résolution supérieure qui dépend par prédiction de texture ou de résidu d'une image de résolution inférieure. Elle peut être appelée une fois pour toute l'image, ou une fois par macrobloc. L'étape de sur-échantillonnage, encore appelée pour ce mode de réalisation deuxième étape de détermination des positions sous-pixelliques des autres pixels (par exemple pixel donné), se définit alors de la manière suivante, pour un macrobloc xP,yP de l'image de résolution supérieure. Soient les variables xnP, ynP, indX, indY, offsetX et offsetY définis par : xnP = xP/(16*Px) ynP = yP/(16*Py) indX = xP%(16*Px) indY = yP%(16*Py) offsetX = dx*xnP offsetY = dy*ynP Soit x,y allant de 0 à 15. On définit PosX et PosY les positions sous-pixelliques de x et y par : PosX = offsetX + Tx[indX+x] PosY = offsetY + Ty[indY+y] La position entière posIntX de x, et poslntY de y dans l'image de résolution inférieure est alors obtenue par : posIntX = PosX 4 poslntY = PosY 4 Plus précisément, on utilise pour la prédiction de texture un filtre de type 4-tap . Les phases PhX et PhY du filtre 4-tap, selon les axes x et y respectivement, sont alors données par : PhX= (PosX +16)%16 PhY= (PosY +16)%16 Pour la prédiction du résidu, on utilise un filtre bilinéaire dont les pondérations wXl, wX2 et wYl, wY2 sont données par : si (x == 0) alors wXl = 16 et wX2 = 0 sinon wXl = 16 -PosX%16 et wX2 = PosX%16 si (y == 0) alors wYl = 16 et wY2 = 0 :30 sinon wYl = 16 - PosY%16 et wY2 = PosY%16 5.5 Troisième mode de réalisation On décrit ci-après un troisième mode de réalisation de l'invention, dans lequel l'étape de mémorisation met en oeuvre deux tables de sur-échantillonnage Tx et Ty, de longueurs respectivement égales au nombre de colonnes et au nombre de lignes d'une image donnée, correspondant à un niveau de résolution supérieur par rapport au niveau de résolution d'une couche précédente (dit de niveau de résolution inférieur). Autrement dit, les positions sous-pixelliques des pixels de l'image de résolution supérieure dans l'image de résolution inférieure sont pré-calculées dans les tables Tx et Ty sur la taille de l'image de résolution supérieure selon chaque axe x et y. Selon ce troisième mode de réalisation, afin de réaliser les calculs de positions sous-pixelliques PosBaseX selon l'axe x (respectivement PosBaseY selon l'axe y), on introduit une variable supplémentaire ResPosBaseX (respectivement ResPosBaseY). On définit alors les étapes suivantes, basées sur une adaptation de l'algorithme de Bresenham. a) Définition du processus de mise à jour des positions : fonction ReducePosX(PosBaseX, ResPosBaseX) Ce processus vient modifier les valeurs de PosBaseX et ResPosBaseX comme suit : Si (ResPosBaseX>=RxEnh) alors ResPosBaseX = ResPosBaseX - RxEnh et PosBaseX+ + sinon PosBaseX et ResPosBaseX restent inchangés où l'opérateur ++ indique un incrément de 1 (PosBaseX = PosBaseX + 1). Ces opérations consistent en fait à trouver un couple équivalent (posX, resX) tel que (RxEnh*posX+resX = RxEnh*PosBaseX+ResPosBaseX) et que resX soit compris entre 0 et RxEnh - 1. On considère que cette condition est vérifiée dans cet exemple de réalisation.  Again, the oversampling step may be performed for each higher resolution image that depends by texture or residue prediction of a lower resolution image. It can be called once for the entire image, or once per macroblock. The oversampling step, also called for this second step of determining the sub-pixellic positions of the other pixels (for example given pixel), is then defined as follows, for a macroblock xP, yP of the higher resolution image. Let the variables xnP, ynP, indX, indY, offsetX and offsetY be defined by: xnP = xP / (16 * Px) ynP = yP / (16 * Py) indX = xP% (16 * Px) indY = yP% (16 * Px) * Py) offsetX = dx * xnP offsetY = dy * ynP Let x, y be from 0 to 15. We define PosX and PosY subpixel positions of x and y by: PosX = offsetX + Tx [indX + x] PosY = offsetY + Ty [indY + y] The integer position posIntX of x, and poslntY of y in the lower resolution image is then obtained by: posIntX = PosX 4 poslntY = PosY 4 More precisely, we use for the prediction of texture a 4-tap type filter. The PhX and PhY phases of the 4-tap filter, along the x and y axes respectively, are then given by: PhX = (PosX + 16)% 16 Phy = (PosY + 16)% 16 For the prediction of the residue, we use a bilinear filter whose weights wXl, wX2 and wYl, wY2 are given by: if (x == 0) then wXl = 16 and wX2 = 0 otherwise wXl = 16 -PosX% 16 and wX2 = PosX% 16 if (y = = 0) then wY1 = 16 and wY2 = 0: 30 otherwise wY1 = 16 - PosY% 16 and wY2 = PosY% 16 5.5 Third Embodiment A third embodiment of the invention is described below, in which storing step implements two over-sampling tables Tx and Ty, of lengths respectively equal to the number of columns and to the number of lines of a given image, corresponding to a level of resolution higher than the resolution level of a previous layer (called lower resolution level). In other words, the sub-pixellic positions of the pixels of the higher resolution image in the lower resolution image are pre-calculated in the Tx and Ty tables on the size of the higher resolution image along each x and y axis. . According to this third embodiment, in order to carry out the calculations of sub-pixellic positions PosBaseX along the x-axis (respectively PosBaseY along the y-axis), an additional variable ResPosBaseX (respectively ResPosBaseY) is introduced. The following steps are then defined, based on an adaptation of the Bresenham algorithm. a) Definition of the position update process: ReducePosX function (PosBaseX, ResPosBaseX) This process modifies the values of PosBaseX and ResPosBaseX as follows: If (ResPosBaseX> = RxEnh) then ResPosBaseX = ResPosBaseX - RxEnh and PosBaseX + + otherwise PosBaseX and ResPosBaseX remain unchanged where the ++ operator indicates an increment of 1 (PosBaseX = PosBaseX + 1). These operations consist in fact in finding an equivalent pair (posX, resX) such that (RxEnh * posX + resX = RxEnh * PosBaseX + ResPosBaseX) and that resX is between 0 and RxEnh - 1. We consider that this condition is verified in this embodiment.

Dans un cas général, il faudrait incrémenter PosBasX et décrémenter ResPosBasX jusqu'à vérifier cette condition sur ResPosBaseX. b) Etablissement des paramètres de mises à jour On définit les valeurs entières DeltaPos et DeltaResPos (correspondant aux variations de positions dans l'image de résolution inférieure à appliquer entre deux pixels à la résolution supérieure) comme suit : DeltaPos = (16*RxBase) / RxEnh DeltaResPos = (16*RxBase) ù DeltaPos*RxEnh c) Définition de l'état initial On définit une position initiale PosBaseXO comme étant le résultat des opérations suivantes : { PosBaseXO = -8; ResPosBaseXO = 8*RxBase + RxEnh/2; // Réduction du couple (PosBaxeXO, ResPosBaseXO) i = ResPosBaseXO/RxEnh; PosBaseXO = PosBaseXO + i; ResPosBaseXO = ResPosBaseXO - i*RxEnh; } d) Prétabulation globale des valeurs de positions On réalise le calcul de toutes les valeurs de positions (PosBaseX[u], ResPosBaseX[u]) pour u allant de 0 à RxEnh comme suit: { PosBaseX [0]=PosBaseXO;ResPosBaseX[0] = ResPosBaseXO; pour(int u=1; u<=RxEnh; u++) { ResPosBaseX[u] = ResPosBaseX[u-1] + DeltaResPos; PosBaseX[u] = PosBaseX[u-1] + DeltaPos; ReducePosX(PosBaseX[u], ResPosBaseX[u]); } Les deux premières lignes correspondent à la première étape de détermination des positions sous-pixelliques de pixels de référence, la boucle sur u correspond à la deuxième étape de détermination des positions sous-pixelliques des autres pixels (pixel donné). De la même manière, PosBaseY[u] et ResPosBaseY[u] sont définis en remplaçant les X par des Y dans les équations précédentes. Les tables Tx et Ty sont alors remplies en affectant directement les valeurs PosBaseX[u] à Tx[u+ScaledBaseLeftOffset] et PosBaseY[u] à 10 Ty[u+ScaledBaseTopOffset]. e) Précalcul global Une fois les étapes (b), (c) et (d) réalisées, on définit alors le calcul de la position xf par la formulation suivante, où xf correspond à une position souspixellique suivant l'axe x du pixel x+xP de l'image de résolution supérieure : 15 xf=Tx[x+xP] On rappelle que cette position xf est classiquement définie dans le document JVT-V201 précité par : xf = ((( x +xP ù ScaledBaseLeftOffset ) * deltaX + baseRefX ) 12 ) ù 8 (Equation G.264) 20 Les autres calculs pour obtenir les phases du filtre 4 tap et les pondérations du filtre bilinéaire restent inchangés par la suite. Le même raisonnement s'applique pour la détermination des positions sous-pixelliques yf selon l'axe y. Plus précisément, il suffit de remplacer les x par des y et X par des Y dans les notations précédentes. 25 On obtient alors : yf = Ty[y + yP] On rappelle que cette position yf est classiquement définie dans le document JVT-V201 précité par : yf = ((( y + yP ù ScaledBaseTopOffset ) * deltaY + baseRefY ) 12 ) ù 8 30 (Equation G.260) 5.6 Quatrième mode de réalisation On décrit ci-après un quatrième mode de réalisation de l'invention, dans lequel l'étape de mémorisation met en oeuvre deux tables de sur-échantillonnage Tx et Ty, de longueurs respectivement égales au nombre de macroblocs par colonnes et par lignes d'une image donnée. En effet, le troisième mode de réalisation présenté ci-dessus nécessite de stocker toutes les valeurs de positions précalculées. On présente ci-après un mode de réalisation moins complexe permettant de s'affranchir de l'étape (d) de prétabulation globale définie dans le troisième mode de réalisation.  In a general case, it would be necessary to increment PosBasX and to decrement ResPosBasX until checking this condition on ResPosBaseX. b) Establishment of update parameters We define the DeltaPos and DeltaResPos integer values (corresponding to the position variations in the lower resolution image to be applied between two pixels at the higher resolution) as follows: DeltaPos = (16 * RxBase) / RxEnh DeltaResPos = (16 * RxBase) û DeltaPos * RxEnh c) Definition of the initial state An initial position PosBaseXO is defined as the result of the following operations: {PosBaseXO = -8; ResPosBaseXO = 8 * RxBase + RxEnh / 2; // Torque reduction (PosBaxeXO, ResPosBaseXO) i = ResPosBaseXO / RxEnh; PosBaseXO = PosBaseXO + i; ResPosBaseXO = ResPosBaseXO - i * RxEnh; } d) Overall computation of the position values One calculates all the position values (PosBaseX [u], ResPosBaseX [u]) for u going from 0 to RxEnh as follows: {PosBaseX [0] = PosBaseXO; ResPosBaseX [ 0] = ResPosBaseXO; for (int u = 1; u <= RxEnh; u ++) {ResPosBaseX [u] = ResPosBaseX [u-1] + DeltaResPos; PosBaseX [u] = PosBaseX [u-1] + DeltaPos; ReducePosX (PosBaseX [u], ResPosBaseX [u]); } The first two lines correspond to the first step of determining subpixel positions of reference pixels, the loop on u corresponds to the second step of determining subpixel positions of the other pixels (given pixel). In the same way, PosBaseY [u] and ResPosBaseY [u] are defined by replacing the Xs with Ys in the previous equations. The Tx and Ty tables are then filled by directly assigning the values PosBaseX [u] to Tx [u + ScaledBaseLeftOffset] and PosBaseY [u] to 10 Ty [u + ScaledBaseTopOffset]. e) Global Precalculation Once the steps (b), (c) and (d) have been completed, the calculation of the position xf is then defined by the following formulation, where xf corresponds to a subpixelic position along the x-axis of the pixel x + xP of the higher resolution image: 15 xf = Tx [x + xP] Remember that this position xf is conventionally defined in the aforementioned document JVT-V201 by: xf = (((x + xP ù ScaledBaseLeftOffset) * deltaX + baseRefX) 12) ù 8 (Equation G.264) The other calculations to obtain the phases of the tap filter 4 and the bilinear filter weights remain unchanged thereafter. The same reasoning applies for the determination of subpixel positions yf along the y axis. More precisely, it suffices to replace x with y and X with Y in the previous notation. We then obtain: yf = Ty [y + yP] We recall that this position yf is conventionally defined in the aforementioned document JVT-V201 by: yf = (((y + yP ù ScaledBaseTopOffset) * deltaY + baseRefY) 12) ù Fourth Embodiment Next, a fourth embodiment of the invention is described, in which the storage step uses two Tx and Ty over-sampling tables, of lengths. respectively equal to the number of macroblocks per column and row of a given image. Indeed, the third embodiment presented above requires storing all the precalculated position values. Below is a less complex embodiment to overcome the step (d) global pre-packaging defined in the third embodiment.

Plus précisément, selon ce quatrième mode de réalisation, on pré-calcule uniquement les positions sous-pixelliques des pixels de coordonnées x = 0 et y = 0 de tous les macroblocs d'une image selon les axes x et y. On considère donc uniquement les positions sous-pixelliques des pixels situés sur la première ligne et la première colonne de chaque macrobloc.  More precisely, according to this fourth embodiment, only the sub-pixellic positions of the pixels of coordinates x = 0 and y = 0 of all the macroblocks of an image along the x and y axes are pre-computed. We therefore consider only the sub-pixellic positions of the pixels located on the first line and the first column of each macroblock.

Ces positions sous-pixelliques sont stockées dans les tables Tx et Ty, de tailles respectives RxEnh/16 et RyEnh/16. On définit également une table supplémentaire ResPosMBX (respectivement ResPosMBY) de taille RxEnh/16 (respectivement RyEnh/ 16). On définit alors les étapes suivantes, basées sur une adaptation de 20 l'algorithme de Bresenham. Les trois premières étapes (a) Définition du processus de mise à jour des positions : fonction ReducePosX(PosBaseX, ResPosBaseX), b) Etablissement des paramètres de mises à jour, et c) Définition de l'état initial) sont identiques aux étapes a), b) et c) présentée en relation avec le troisième mode de réalisation, et ne 25 sont donc pas décrites plus en détail. d) Pré-initialisations communes aux différents macro-blocs On initialise les différentes variables de la manière suivante: DeltaPosX[0] = DeltaPos DeltaResPosX[0] = DeltaResPos 30 pour(b=1; b<15; b++) { DeltaPosX[b] = 2*DeltaPosX[b-1]; DeltaResPosx[b] = 2*DeltaResPosX[b-1]; ReducePos(DeltaPosX, DeltaResPosX) } e) Pré-calcul des positions sous-pixelliques du premier pixel de chaque macrobloc Cette étape correspond à la première étape de détermination des positions sous-pixelliques de pixels de référence.  These subpixel positions are stored in the Tx and Ty tables of respective sizes RxEnh / 16 and RyEnh / 16. An additional table ResPosMBX (ResPosMBY) of size RxEnh / 16 (respectively RyEnh / 16) is also defined. The following steps are then defined, based on an adaptation of the Bresenham algorithm. The first three steps (a) Definition of the position update process: ReducePosX function (PosBaseX, ResPosBaseX), b) Establishment of the update parameters, and c) Definition of the initial state) are identical to the steps a ), b) and c) presented in connection with the third embodiment, and are therefore not described in more detail. d) Pre-initializations common to different macro-blocks One initializes the different variables in the following way: DeltaPosX [0] = DeltaPos DeltaResPosX [0] = DeltaResPos 30 for (b = 1; b <15; b ++) {DeltaPosX [b ] = 2 * DeltaPosX [b-1]; DeltaResPosx [b] = 2 * DeltaResPosX [b-1]; ReducePos (DeltaPosX, DeltaResPosX)} e) Pre-calculation of the sub-pixellic positions of the first pixel of each macroblock This step corresponds to the first step of determining subpixel positions of reference pixels.

Pour chaque macrobloc, on note xP la position de son premier pixel, soit : Tx[xP/16] = PosBaseXO; ResPosMBX[xP/16] = ResPosBaseXO; u = xP û ScaledBaseLeftOffset; pour (b=0; b<15; b++) { si ((u b) & 1) // test sur le b-ième bit de poids faible de la position u { Tx[xP/16] = Tx[xP/16] + DeltaPosX[b]; ResPosMBX[xP/16] = ResPosMBX[xP/16] + DeltaResPosX[b]; ReducePosX(Tx[xP/161, ResPosMBX[xP/161); } } f) Calcul par macro-bloc Lors de l'étape de sur-échantillonnage, qui correspond à la deuxième étape de détermination des positions sous-pixelliques, les positions PosBaseX[k] pour les différents pixels à l'intérieur du macro-bloc xP sont calculées de la façon suivante: pour(k=0; k<15; x++) { si(k==0) 33 PosBaseX[k] = Tx[xP/16]; ResPosMBX[k] = ResPosMBX[xP/16]; } sinon { PosBaseX[k] = PosBaseX[k-1] + DeltaPos; ResPosBaseX[k] = ResPosBaseX[k-1] + DeltaResPos; ReducePosX(posBaseX[k], ResPosBaseX[k]); } } Une fois ces étapes réalisées, on définit alors le calcul de la position xf par la formulation suivante, où xf correspond à une position sous-pixellique suivant l'axe x : xf = PosBaseX[x], où x correspond à la position dans le macro-bloc. Le même raisonnement s'applique pour la détermination des positions sous-pixelliques yf selon l'axe y. Plus précisément, il suffit de remplacer les x par des y et X par des Y dans les notations précédentes. On obtient alors : yf = PosBaseY[y] Selon les troisième et quatrième modes de réalisation, on peut noter que les étapes de détermination et de mémorisation des positions sous-pixelliques, c'est-à-dire de la position d'un pixel par rapport à celle de son précédent, peuvent être aisément réalisées sur un système dédié.  For each macroblock, we write xP the position of its first pixel, ie: Tx [xP / 16] = PosBaseXO; ResPosMBX [xP / 16] = ResPosBaseXO; u = xP - ScaledBaseLeftOffset; for (b = 0; b <15; b ++) {if ((ub) & 1) // test on the b-th least significant bit of position u {Tx [xP / 16] = Tx [xP / 16 ] + DeltaPosX [b]; ResPosMBX [xP / 16] = ResPosMBX [xP / 16] + DeltaResPosX [b]; ReducePosX (Tx [xP / 161, ResPosMBX [xP / 161]; }} f) Macroblock Calculation In the oversampling step, which corresponds to the second subpixel position determination step, the PosBaseX [k] positions for the different pixels inside the macro-block. block xP are calculated as follows: for (k = 0; k <15; x ++) {if (k == 0) 33 PosBaseX [k] = Tx [xP / 16]; ResPosMBX [k] = ResPosMBX [xP / 16]; } else {PosBaseX [k] = PosBaseX [k-1] + DeltaPos; ResPosBaseX [k] = ResPosBaseX [k-1] + DeltaResPos; ReducePosX (posBaseX [k], ResPosBaseX [k]); }} Once these steps are done, we then define the calculation of the position xf by the following formulation, where xf corresponds to a sub-pixellic position along the x axis: xf = PosBaseX [x], where x corresponds to the position in the macro-block. The same reasoning applies for the determination of subpixel positions yf along the y axis. More precisely, it suffices to replace x with y and X with Y in the previous notation. We obtain then: yf = PosBaseY [y] According to the third and fourth embodiments, it can be noted that the steps of determination and memorization of sub-pixellic positions, that is to say of the position of a pixel compared to that of its previous, can be easily performed on a dedicated system.

En effet, les ajouts des variables DeltaPos et de DeltaResPos peuvent être fait simultanément sur une architecture vectorielle. Il en résulte un moindre coût d'implémentation sur une architecture dédiée, car ne nécessitant pas d'opération de multiplication. De plus il n'est pas nécessaire d'augmenter la précision de calcul et de stockage des variables considérées ici. Autrement dit, les variables PosBaseX, 34 { ResPosBaseX, DeltaPosBaseX et DeltaResPosBaseX peuvent rester sur 16 bits avec une arithmétique de calcul sur 16 bits. On peut également remarquer dans ces deux derniers modes de réalisation que les valeurs des variables ResPosBaseX sont mises à jour en utilisant des 5 paramètres dépendant du couple (RxBase, RxEnh). Or ce couple (RxBase, RxEnh) peut être substitué par tout couple (RB, RE) tel que RB*RxEnh = RxBase*RU. Avantageusement, on peut prendre le couple (RB = RxBase/PGCD(RxBase, RxEnh), RU= RxEnh/PGCD(RxBase, RxEnh)) où 10 PGCD(a,b) représente le plus grand commun diviseur aux entiers a et b. 5.7 Signalisation dans le flux Selon une variante de réalisation, compatible avec les différents modes de réalisation présentés, le flux de données représentatif d'au moins une image comprend une information indiquant qu'une mémorisation des positions sous- 15 pixelliques dans une ou plusieurs tables a été effectuée. Cet indicateur est par exemple un élément binaire inséré dans un paquet de données NALU du flux. On rappelle qu'un flux SVC est organisé en AUs ("Access Units" pour Unités d'Accès) correspondant chacune à un instant temporel donné et comprenant une ou plusieurs NALUs ("Network Abstraction 20 Layer Units" pour Unités d'Accès pour le réseau), ou paquets de données. Par exemple, l'utilisation de tables de sur-échantillonnage est signalée à l'aide d'un indicateur nommé use_preset_upsampling. Cet indicateur, ou flag, peut par exemple être inséré dans un paquet de données de signalisation SPS ( Sequence Parameter Set ), ou dans un paquet de données d'images PPS 25 ( Picture Parameter Set ), ou encore dans un en-tête de slice ( slice header ), où une slice regroupe un ensemble de macroblocs d'une image pour un niveau de représentation (par exemple niveau de représentation spatiale), .... Le lecteur est invité à se référer au document JVT-V201 précité pour obtenir plus de détails concernant la syntaxe de ces flux. 30 L'annexe A, qui fait partie intégrante de la description, illustre notamment les modifications de syntaxe dans la norme SVC afin de prendre en compte la présence, dans un paquet de données, d'une information indiquant qu'une mémorisation des positions sous-pixelliques dans une ou plusieurs tables a été effectuée.  Indeed, the additions of DeltaPos and DeltaResPos variables can be done simultaneously on a vector architecture. This results in a lower implementation cost on a dedicated architecture because it does not require multiplication operation. Moreover, it is not necessary to increase the precision of calculation and storage of the variables considered here. In other words, the variables PosBaseX, 34 {ResPosBaseX, DeltaPosBaseX and DeltaResPosBaseX can remain on 16 bits with 16-bit computational arithmetic. It can also be seen in these latter two embodiments that the values of the ResPosBaseX variables are updated using torque-dependent parameters (RxBase, RxEnh). Now this pair (RxBase, RxEnh) can be substituted by any pair (RB, RE) such that RB * RxEnh = RxBase * RU. Advantageously, one can take the pair (RB = RxBase / PGCD (RxBase, RxEnh), RU = RxEnh / PGCD (RxBase, RxEnh)) where 10 GCD (a, b) represents the greatest common divisor to the integers a and b. 5.7 Signaling in the Stream According to an alternative embodiment, compatible with the various embodiments presented, the data stream representative of at least one image comprises information indicating that a storage of sub-pixel positions in one or more tables Has been done. This indicator is for example a bit inserted into a NALU data packet of the stream. It will be recalled that an SVC stream is organized into AUs (Access Units for Access Units) each corresponding to a given time instant and comprising one or more NALUs ("Network Abstraction Layer Units" for Access Units). network), or data packets. For example, the use of over-sampling tables is reported using a flag named use_preset_upsampling. This indicator, or flag, may for example be inserted in a Sequence Parameter Set (SPS) signaling data packet, or in a Picture Parameter Set (PPS) data packet, or in a header. slice (slice header), where a slice groups together a set of macroblocks of an image for a representation level (for example level of spatial representation), .... The reader is invited to refer to the aforementioned document JVT-V201 for get more details about the syntax of these feeds. Annex A, which is an integral part of the description, notably illustrates the syntax modifications in the SVC standard in order to take into account the presence, in a data packet, of information indicating that a memorization of the positions under -pixels in one or more tables has been performed.

Plus précisément, si l'indicateur use_preset_upsampling vaut 1, au décodage, alors les tables de sur-échantillonnage selon les axes x et y sont ou ont été calculées. La phase ou les pondérations des filtres de sur-échantillonnage sont déterminées à partir des ces tables, pour être utilisées lors de l'étape de sur- échantillonnage, Si l'indicateur use_preset_upsampling vaut 0, alors la méthode classique de sur-échantillonnage est utilisée. Selon une autre variante de réalisation, compatible avec les premier et deuxième modes de réalisation, les positions sous-pixelliques respectent un motif de répétition, et la longueur du motif de répétition est signalée dans le flux de données. Plus précisément, la période, et éventuellement les phases associées aux filtres mis en oeuvre lors de l'opération de sur-échantillonnage, sont signalées dans le flux.  More precisely, if the use_preset_upsampling flag is 1, at decoding, then the oversampling tables along the x and y axes are or have been calculated. The phase or weights of the over-sampling filters are determined from these tables, to be used during the oversampling step. If the use_preset_upsampling flag is 0, then the conventional over-sampling method is used. . According to another embodiment, compatible with the first and second embodiments, the sub-pixellic positions respect a repetition pattern, and the length of the repetition pattern is indicated in the data stream. More precisely, the period, and possibly the phases associated with the filters implemented during the oversampling operation, are indicated in the stream.

Ces informations sont, par exemple insérées dans un paquet de données de signalisation SPS, ou dans un paquet de données d'images PPS, ou encore dans un en-tête de suce, ... L'annexe B, qui fait partie intégrante de la description, illustre notamment les modifications de syntaxe dans la norme SVC afin de prendre en compte la présence, dans un paquet de données, d'informations relatives à la période, et éventuellement aux phases associées aux filtres. Plus précisément, l'indicateur upsampling_phase_period indique la période de récurrence des phases associées à l'opération de sur-échantillonnage (ou motifs de répétitions), et l'indicateur upsampling_phase[i] indique la phase associée à la i-ème position de la période. 5.8 Exemple d'algorithme de décodage On présente également, en relation avec la figure 4, l'algorithme de sur-échantillonnage mis en oeuvre au décodage. On note D la couche courante d'une image, où Dmax correspond à la couche présentant le plus haut niveau de résolution de l'image. Plus précisément, on lit au cours d'une étape 41 certains paramètres du flux de données, et notamment les résolutions des couches permettant de définir le facteur entre les différents niveaux de résolution et les décalages scaledBaseLeftOffset et scaledBaseTopOffset de la partie de la couche de résolution supérieure qui est prédite par une couche de résolution inférieure, par rapport aux dimensions de la couche de rehaussement à décoder ou à coder. Par exemple, en reprenant les figures 2A et 2B, le facteur entre la résolution de niveau supérieur et la résolution de niveau inférieur est de 3/2. On détermine ensuite au cours d'une étape 42, pour une séquence d'images, les positions sous-pixelliques des pixels des images de la séquence au niveau de résolution supérieur, et on mémorise ses positions dans des tables de sur-échantillonnage Tx et Ty. Pour toutes les images de la séquence, on effectue les étapes suivantes. Au cours de l'étape 43, on associe la valeur zéro à la variable Irec, où Irec correspond à l'image reconstruite courante. L'étape 44 consiste alors en un décodage des coefficients de la couche courante D de l'image courante, dans une variable ICoeff. Plus précisément, cette étape 44 met en oeuvre un décodage entropique, une quantification inverse, et une transformation inverse.  This information is, for example, inserted in an SPS signaling data packet, or in a PPS image data packet, or in a pacifier header, ... Appendix B, which is an integral part of the description illustrates, in particular, the syntax modifications in the SVC standard in order to take into account the presence, in a data packet, of information relating to the period, and possibly to the phases associated with the filters. Specifically, upsampling_phase_period indicates the recurrence period of the phases associated with the oversampling operation (or repetition patterns), and the upsampling_phase [i] indicates the phase associated with the i-th position of the period. 5.8 Example of a decoding algorithm The oversampling algorithm implemented at decoding is also presented in relation to FIG. We denote D the current layer of an image, where Dmax corresponds to the layer having the highest level of resolution of the image. More precisely, during a step 41, certain parameters of the data stream are read, and in particular the resolutions of the layers making it possible to define the factor between the different levels of resolution and the offsets scaledBaseLeftOffset and scaledBaseTopOffset of the portion of the resolution layer. higher that is predicted by a lower resolution layer, relative to the dimensions of the enhancement layer to be decoded or coded. For example, by repeating FIGS. 2A and 2B, the factor between the higher level resolution and the lower level resolution is 3/2. Then, during a step 42, for a sequence of images, the sub-pixellic positions of the pixels of the images of the sequence at the higher resolution level are determined, and its positions are stored in Tx over-sampling tables and Ty. For all the images in the sequence, the following steps are performed. During step 43, the value zero is associated with the variable Irec, where Irec corresponds to the current reconstructed image. Step 44 then consists in a decoding of the coefficients of the current layer D of the current image, in a variable ICoeff. More precisely, this step 44 implements entropy decoding, inverse quantization, and inverse transformation.

On teste alors au cours d'une étape 45 si la couche courante D correspond à la couche de plus haut niveau de résolution Dmax. Si oui (451), alors l'image reconstruite Irec est égale à ICoef. Sinon (452), on vérifie au cours d'une étape 46 s'il y a un changement de résolution spatiale entre la couche D et la couche Dprev qui correspond à la couche précédemment décodée (à l'initialisation, on a Dprev = Dmax).  It is then tested during a step 45 if the current layer D corresponds to the layer with the highest level of resolution Dmax. If yes (451), then the reconstructed image Irec is equal to ICoef. If not (452), it is checked in a step 46 if there is a change in spatial resolution between the layer D and the layer Dprev which corresponds to the previously decoded layer (at initialization, Dprev = Dmax ).

Si oui (461), alors l'algorithme de décodage met en oeuvre un sur-échantillonnage de l'image ICoef à l'aide des tables de sur-échantillonnage Tx et Ty, puis une addition de l'image ICoef sur-échantillonnée à l'image reconstruite Irec.  If yes (461), then the decoding algorithm implements an oversampling of the ICoef image using the Tx and Ty over-sampling tables, and then adding the over-sampled ICoef image to the reconstructed image Irec.

Sinon (462), on ajoute directement l'image ICoef à l'image Irec au cours d'une étape 47. On teste alors, au cours d'une étape 48, si la couche courante D dépend par prédiction d'une couche précédente de niveau de résolution inférieur, notée Dpred.  If not (462), the image ICoef is added directly to the image Irec during a step 47. It is then tested, during a step 48, whether the current layer D depends on the prediction of a previous layer. of lower resolution level, denoted Dpred.

Si oui (481), alors on pose, au cours d'une étape 49 : Dprev = D ; D = Dpred ; ICoeff = 0 ; et on retourne à l'étape 44 de décodage des coefficients de la couche D.  If yes (481), then we ask, during a step 49: Dprev = D; D = Dpred; ICoeff = 0; and return to step 44 of decoding the coefficients of the layer D.

Sinon (482), l'algorithme de décodage met en oeuvre une étape 50 de reconstruction de l'image Irec, en utilisant les techniques de compensation en mouvement. On vérifie ensuite, au cours d'une étape 51, si l'image est la dernière image de la séquence (dernière image décodée). Si oui (511), on arrête l'algorithme (52). Sinon (512), on retourne à l'étape 43 d'initialisation de l'image reconstruite. Un tel algorithme de décodage peut être mis en oeuvre dans un décodeur de type SVC. En particulier, ce décodeur peut comprendre une unité de traitement, équipée par exemple d'un microprocesseur et pilotée par un programme d'ordinateur mettant en oeuvre l'algorithme de décodage décrit ci-dessus.  Otherwise (482), the decoding algorithm implements a step 50 of reconstruction of the image Irec, using the techniques of compensation in motion. Then, during a step 51, it is checked whether the image is the last image of the sequence (last decoded image). If yes (511), stop the algorithm (52). Otherwise (512), we return to step 43 of initialization of the reconstructed image. Such a decoding algorithm can be implemented in an SVC type decoder. In particular, this decoder may comprise a processing unit, equipped for example with a microprocessor and driven by a computer program implementing the decoding algorithm described above.

ANNEXE A secs parameter set_svc_extension( ) { C Descriptor interlayer_deblocking_filter_control present_flag 0 u(1) extended_spatial_scalability 0 u(2) use_preset upsampling 0 u(1) if( chroma format idc = = 1 I chroma format idc = = 2 ) chroma phase_x plusl 0 u(2) if( chroma format idc = = 1 ) chroma phase_y plusl 0 u(2) if( extended spatial_scalability = = 1) { scaled base left offset 0 se(v) scaled_base_top_offset 0 se(v) scaled_base_right_offset 0 se(v) scaled base bottom offset 0 se(v) } } ANNEXE B seq parameter set svc_extension( ) { C Descriptor interlayer_deblocking_filter_control_present_flag 0 u(1) extended_spatia_scalability 0 u(2) use_preset upsampling 0 u(1) if( use _preset upsampling = = 1) { 0 u(1) upsampling_phase period 0 ue(v) for( i = 0; i < upsampling_phase_period; i+ + ) upsampling_phase[iJ 0 ue(v) } if( chroma format_ide = = 1 I I chroma format idc = = 2 ) chroma_phase_x_plusl 0 u(2) if( chroma format_idc = = 1 ) chroma_phase_y_plusl 0 u(2) if( extended spatial_scalability = = 1) { scaled_base_left_offset 0 se(v) scaled_base_top_offset 0 se(v) scaled_base_right_offset 0 se(v) scaled_base_bottom_offset 0 se(v) } } 5  APPENDIX A secs parameter set_svc_extension () {C Descriptor interlayer_deblocking_filter_control present_flag 0 u (1) extended_spatial_scalability 0 u (2) use_preset upsampling 0 u (1) if (chroma format idc = = 1 I chroma format idc = = 2) chroma phase_x plusl 0 u (2) if (chroma format idc = 1) chroma phase_y plusl 0 u (2) if (extended spatial_scalability = = 1) {scaled base left offset 0 se (v) scaled_base_top_offset 0 se (v) scaled_base_right_offset 0 se (v ) scaled base bottom offset 0 se (v)}} APPENDIX B seq parameter set svc_extension () {C Descriptor interlayer_deblocking_filter_control_present_flag 0 u (1) extended_spatia_scalability 0 u (2) use_preset upsampling 0 u (1) if (use _preset upsampling = = 1 ) {0 u (1) upsampling_phase period 0 ue (v) for (i = 0; i <upsampling_phase_period; i + +) upsampling_phase [iJ 0e (v)} if (chroma format_ide = = 1 II chroma format idc = = 2 ) chroma_phase_x_plusl 0 u (2) if (chroma format_idc = 1) chroma_phase_y_plusl 0 u (2) if (extended spatial_sc alability = = 1) {scaled_base_left_offset 0 se (v) scaled_base_top_offset 0 se (v) scaled_base_right_offset 0 se (v) scaled_base_bottom_offset 0 se (v)}} 5

Claims (15)

REVENDICATIONS 1. Procédé de sur-échantillonnage pour le décodage d'un flux de données représentatif d'au moins une image, et présentant une organisation en couches de données comprenant au moins une couche de rehaussement, une couche de rehaussement correspondant à un niveau de résolution supérieur d'une image dudit flux par rapport au niveau de résolution d'une couche précédente, dit niveau de résolution inférieur, les données de la couche de rehaussement étant codées par prédiction à partir de données d'au moins une couche précédente correspondant à un niveau de résolution inférieur, caractérisé en ce qu'il comprend : pour une séquence d'au moins une image prise à un niveau de résolution inférieur (22), une première étape (31) de détermination de la position, dite position sous-pixellique, d'au moins un pixel de chacune des images de ladite séquence, prises à un niveau de résolution supérieur (21) ; une étape de mémorisation (32) de ladite au moins une position souspixellique dans au moins une table de sur-échantillonnage ; pour au moins une image de ladite séquence prise à un niveau de résolution supérieur (21), et pour au moins un pixel donné (212) de ladite 20 image, une deuxième étape de détermination (33) d'une position souspixellique dudit au moins un pixel donné, dans ledit niveau de résolution inférieur (22) de ladite image, à partir : ^ d'une position sous-pixellique d'un pixel de référence (211) dans l'image à un niveau de résolution inférieur, déterminée à partir d'une lecture de ladite au moins une table de sur-échantillonnage, et ^ d'un décalage représentatif de la distance entre les positions sous-pixelliques desdits pixels donné (212) et de référence, (211) déterminé à partir d'une lecture de ladite au moins une table de sur-échantillonnage. 25 30  An oversampling method for decoding a representative data stream of at least one image, and having a data layer organization comprising at least one enhancement layer, an enhancement layer corresponding to a resolution level of an image of said stream relative to the resolution level of a previous layer, said lower resolution level, the data of the enhancement layer being coded by prediction from data of at least one previous layer corresponding to a lower resolution level, characterized in that it comprises: for a sequence of at least one image taken at a lower resolution level (22), a first step (31) for determining the position, called sub-pixellic position at least one pixel of each of the images of said sequence taken at a higher resolution level (21); a step of storing (32) said at least one subpixel position in at least one oversampling table; for at least one image of said sequence taken at a higher resolution level (21), and for at least one given pixel (212) of said image, a second step of determining (33) a subpixel position of said at least one a given pixel, in said lower resolution level (22) of said image, from: a subpixel position of a reference pixel (211) in the image to a lower resolution level, determined at from a reading of said at least one over-sampling table, and ^ of an offset representative of the distance between the sub-pixellic positions of said given (212) and reference pixels, (211) determined from a reading of said at least one over-sampling table. 25 30 2. Procédé de sur-échantillonnage selon la revendication 1, caractérisé en ce que ladite deuxième étape (33) de détermination met en oeuvre un ajout dudit décalage représentatif de la distance entre les positions sous-pixelliques desdits pixels donné et de référence, à ladite position sous-pixellique d'un pixel de référence.  2. An oversampling method according to claim 1, characterized in that said second determination step (33) implements an addition of said offset representative of the distance between the sub-pixellic positions of said given and reference pixels, to said sub-pixellic position of a reference pixel. 3. Procédé de sur-échantillonnage selon la revendication 1, caractérisé en ce que, lesdites positions sous-pixelliques étant représentées par un ensemble de bits, la position sous-pixellique dudit pixel de référence dans l'image à un niveau de résolution inférieur est obtenue par ajouts de décalages représentatifs de distances pixelliques dans l'image à un niveau de résolution supérieure, pré-calculés en puissance de deux, lesdits ajouts dépendant de la valeur des bits dudit ensemble représentatif de la position dudit pixel de référence.  An oversampling method according to claim 1, characterized in that, said sub-pixellic positions being represented by a set of bits, the sub-pixellic position of said reference pixel in the image at a lower resolution level is obtained by adding offsets representative of pixel distances in the image at a higher resolution level, pre-calculated in power of two, said additions depending on the value of the bits of said set representative of the position of said reference pixel. 4. Procédé de sur-échantillonnage selon l'une quelconque des revendications 1 à 3, caractérisé en ce que les pixels de ladite au moins une image sont organisés en lignes et colonnes, et en ce que ladite étape de mémorisation (32) met en oeuvre deux tables de sur-échantillonnage : une première table (Tx) mémorisant la position d'au moins un pixel de ladite image à un niveau de résolution supérieur, dans ladite image à un niveau de résolution inférieur, suivant une ligne de ladite image, et une deuxième table (Ty) mémorisant la position d'au moins un pixel de ladite image à un niveau de résolution supérieur, dans ladite image à un niveau de résolution inférieur, suivant une colonne de ladite image.  4. An oversampling method according to any one of claims 1 to 3, characterized in that the pixels of said at least one image are organized in rows and columns, and in that said memory step (32) implements implement two over-sampling tables: a first table (Tx) storing the position of at least one pixel of said image at a higher resolution level, in said image at a lower resolution level, along a line of said image, and a second table (Ty) storing the position of at least one pixel of said image at a higher resolution level, in said image at a lower resolution level, following a column of said image. 5. Procédé de sur-échantillonnage selon l'une quelconque des revendications 1 à 4, caractérisé en ce que lesdites positions sous-pixelliques respectent un motif de répétition, et en ce que ladite table présente une longueur supérieure ou égale à la longueur dudit motif de répétition.  5. An oversampling method according to any one of claims 1 to 4, characterized in that said sub-pixellic positions respect a repeating pattern, and in that said table has a length greater than or equal to the length of said pattern of repetition. 6. Procédé de sur-échantillonnage selon la revendication 5, caractérisé en ce que la longueur dudit motif de répétition est signalée dans un paquet de données (NALU) dudit flux.  An oversampling method according to claim 5, characterized in that the length of said repetition pattern is signaled in a data packet (NALU) of said stream. 7. Procédé de sur-échantillonnage selon l'une quelconque des revendications 1 à 6, caractérisé en ce que ladite première étape (31) de détermination des positions sous-pixelliques met en oeuvre un algorithme de type Bresenham.  7. An oversampling method according to any one of claims 1 to 6, characterized in that said first step (31) for determining the sub-pixellic positions uses a Bresenham type algorithm. 8. Procédé de sur-échantillonnage selon l'une quelconque des revendications 1 à 7, caractérisé en ce qu'il met en oeuvre un filtre appartenant au groupe comprenant : un filtre bilinéaire, permettant de réaliser une prédiction de résidu, un filtre à quatre coefficients, dit 4-tap , permettant de réaliser une prédiction de texture.  8. Oversampling method according to any one of claims 1 to 7, characterized in that it implements a filter belonging to the group comprising: a bilinear filter for making a prediction of residue, a filter four coefficients, called 4-tap, to achieve a texture prediction. 9. Procédé de sur-échantillonnage selon l'une quelconque des revendications 1 à 8, caractérisé en ce que ledit flux comprend une information indiquant qu'une mémorisation desdites positions sous-pixelliques dans au moins une table est effectuée.  9. An oversampling method according to any one of claims 1 to 8, characterized in that said stream comprises information indicating that a storage of said sub-pixellic positions in at least one table is performed. 10. Procédé de sur-échantillonnage selon la revendication 9, caractérisé en ce que ladite information est un élément binaire inséré dans un paquet de données (NALU) dudit flux.  An oversampling method according to claim 9, characterized in that said information is a bit inserted into a data packet (NALU) of said stream. 11. Dispositif de décodage d'un flux de données représentatif d'au moins une image, et présentant une organisation en couches de données comprenant au moins une couche de rehaussement, une couche de rehaussement correspondant à un niveau de résolution supérieur d'une image dudit flux par rapport au niveau de résolution d'une couche précédente, dit niveau de résolution inférieur, les données d'une couche de rehaussement étant codées par prédiction à partir de données d'au moins une couche précédente, caractérisé en ce qu'il comprend des moyens de sur-échantillonnage comprenant : pour une séquence d'au moins une image prise à un niveau de résolution inférieur, des moyens de détermination de la position, dite position souspixellique, d'au moins un pixel de chacune des images de ladite séquence, prises à un niveau de résolution supérieur ;des moyens de mémorisation de ladite au moins une position souspixellique dans au moins une table de sur-échantillonnage ; pour au moins une image de ladite séquence prise à un niveau de résolution supérieur, et pour au moins un pixel donné de ladite image, des moyens de détermination d'une position sous-pixellique dudit au moins un pixel donné, dans ledit niveau de résolution inférieur de ladite image, à partir : ^ d'une position sous-pixellique d'un pixel de référence dans l'image à un niveau de résolution inférieur, déterminée à partir d'une lecture de ladite au moins une table de sur-échantillonnage, et ^ d'un décalage représentatif de la distance entre les positions sous-pixelliques desdits pixels donné et de référence, déterminé à partir d'une lecture de ladite au moins une table.  Apparatus for decoding a data stream representative of at least one image, and having a data layer organization comprising at least one enhancement layer, an enhancement layer corresponding to a higher resolution level of an image said stream with respect to the resolution level of a previous layer, said lower resolution level, the data of an enhancement layer being coded by prediction from data of at least one previous layer, characterized in that comprises oversampling means comprising: for a sequence of at least one image taken at a lower resolution level, means for determining the position, said subpixel position, of at least one pixel of each of the images of said sequence, taken at a higher resolution level; means for storing said at least one subpixel position in at least one oversampling table; ge; for at least one image of said sequence taken at a higher resolution level, and for at least one given pixel of said image, means for determining a sub-pixellic position of said at least one given pixel, in said resolution level lower of said image, from: ^ sub-pixellic position of a reference pixel in the image to a lower resolution level, determined from a reading of said at least one over-sampling table , and ^ an offset representative of the distance between the sub-pixellic positions of said given and reference pixels, determined from a reading of said at least one table. 12. Produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutable par un processeur, caractérisé en ce qu'il comprend des instructions de code de programme pour la mise en oeuvre du procédé de sur-échantillonnage 20 selon l'une au moins des revendications 1 à 10.  12. Computer program product downloadable from a communication network and / or recorded on a computer readable medium and / or executable by a processor, characterized in that it comprises program code instructions for the implementation of the oversampling method according to at least one of claims 1 to 10. 13. Procédé de sur-échantillonnage pour le codage d'au moins une image, délivrant un flux de données présentant une organisation en couches de données comprenant au moins une couche de rehaussement, une couche de rehaussement correspondant à un niveau de résolution supérieur 25 d'une image dudit flux par rapport au niveau de résolution d'une couche précédente, dit niveau de résolution inférieur, les données de la couche de rehaussement étant codées par prédiction à partir de données d'au moins une couche précédente correspondant à un niveau de résolution inférieur, 30 caractérisé en ce qu'il comprend : 15pour une séquence d'au moins une image prise à un niveau de résolution inférieur, une première étape de détermination de la position, dite position sous-pixellique, d'au moins un pixel de chacune des images de ladite séquence, prises à un niveau de résolution supérieur ; une étape de mémorisation de ladite au moins une position sous-pixellique dans au moins une table de sur-échantillonnage ; pour au moins une image de ladite séquence prise à un niveau de résolution supérieur, et pour au moins un pixel donné de ladite image, une deuxième étape de détermination d'une position sous-pixellique dudit au moins un pixel donné, dans ledit niveau de résolution inférieur de ladite image, à partir : ^ d'une position sous-pixellique d'un pixel de référence dans l'image à un niveau de résolution inférieur, déterminée à partir d'une lecture de ladite au moins une table de sur- t 5 échantillonnage, et d'un décalage représentatif de la distance entre les positions souspixelliques desdits pixels donné et de référence, déterminé à partir d'une lecture de ladite au moins une table de sur-échantillonnage. 20  An over-sampling method for coding at least one image, delivering a data stream having a data layer organization comprising at least one enhancement layer, an enhancement layer corresponding to a higher resolution level. an image of said stream with respect to the resolution level of a preceding layer, said lower resolution level, the data of the enhancement layer being coded by prediction from data of at least one preceding layer corresponding to a level of lower resolution, characterized in that it comprises: for a sequence of at least one image taken at a lower resolution level, a first step of determining the position, called sub-pixellic position, of at least one pixel each of the images of said sequence, taken at a higher resolution level; a step of storing said at least one sub-pixellic position in at least one oversampling table; for at least one image of said sequence taken at a higher resolution level, and for at least one given pixel of said image, a second step of determining a sub-pixellic position of said at least one given pixel, in said level of lower resolution of said image, from: a subpixel position of a reference pixel in the image to a lower resolution level, determined from a reading of said at least one overhead table; t sampling, and an offset representative of the distance between subpixel positions of said given and reference pixels, determined from a reading of said at least one oversampling table. 20 14. Dispositif de codage d'au moins une image, délivrant un flux de données présentant une organisation en couches de données comprenant au moins une couche de rehaussement, une couche de rehaussement correspondant à un niveau de résolution supérieur d'une image dudit flux par rapport au niveau de résolution d'une couche 25 précédente, dit niveau de résolution inférieur, les données de la couche de rehaussement étant codées par prédiction à partir de données d'au moins une couche précédente correspondant à un niveau de résolution inférieur, caractérisé en ce qu'il comprend des moyens de sur-échantillonnage comprenantpour une séquence d'au moins une image prise à un niveau de résolution inférieur, des moyens de détermination de la position, dite position souspixellique, d'au moins un pixel de chacune des images de ladite séquence, prises à un niveau de résolution supérieur ; des moyens de mémorisation de ladite au moins une position souspixellique dans au moins une table de sur-échantillonnage ; pour au moins une image de ladite séquence prise à un niveau de résolution supérieur, et pour au moins un pixel donné de ladite image, des moyens de détermination d'une position sous-pixellique dudit au moins un pixel donné, dans ledit niveau de résolution inférieur de ladite image, à partir : ^ d'une position sous-pixellique d'un pixel de référence dans l'image à un niveau de résolution inférieur, déterminée à partir d'une lecture de ladite au moins une table de sur- échantillonnage, et ^ d'un décalage représentatif de la distance entre les positions sous-pixelliques desdits pixels donné et de référence, déterminé à partir d'une lecture de ladite au moins une table de sur-échantillonnage.  A device for coding at least one image, delivering a data stream having a data layer organization comprising at least one enhancement layer, an enhancement layer corresponding to a higher resolution level of an image of said stream by the resolution level of a previous layer, said lower resolution level, the enhancement layer data being prediction coded from data of at least one previous layer corresponding to a lower resolution level, characterized in that it comprises over-sampling means comprisingfor a sequence of at least one image taken at a lower resolution level, means for determining the position, called subpixel position, of at least one pixel of each of the images of said sequence, taken at a higher resolution level; means for storing said at least one subpixel position in at least one oversampling table; for at least one image of said sequence taken at a higher resolution level, and for at least one given pixel of said image, means for determining a sub-pixellic position of said at least one given pixel, in said resolution level lower of said image, from: ^ from a sub-pixel position of a reference pixel in the image to a lower resolution level, determined from a reading of said at least one oversampling table , and ^ an offset representative of the distance between the sub-pixellic positions of said given and reference pixels, determined from a reading of said at least one over-sampling table. 15. Produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutable par un processeur, caractérisé en ce qu'il comprend des instructions de code de programme pour la mise en oeuvre du procédé de sur-échantillonnage selon la revendication 13.25  15. Computer program product downloadable from a communication network and / or recorded on a computer readable medium and / or executable by a processor, characterized in that it comprises program code instructions for the implementation of the oversampling method according to claim 13.25
FR0702903A 2007-04-16 2007-04-16 Oversampling method for decoding scalable data stream in data transmission system, involves determining sub pixel position of given pixel from position of reference pixel and from offset representing distance between positions of pixels Pending FR2915048A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR0702903A FR2915048A1 (en) 2007-04-16 2007-04-16 Oversampling method for decoding scalable data stream in data transmission system, involves determining sub pixel position of given pixel from position of reference pixel and from offset representing distance between positions of pixels

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0702903A FR2915048A1 (en) 2007-04-16 2007-04-16 Oversampling method for decoding scalable data stream in data transmission system, involves determining sub pixel position of given pixel from position of reference pixel and from offset representing distance between positions of pixels

Publications (1)

Publication Number Publication Date
FR2915048A1 true FR2915048A1 (en) 2008-10-17

Family

ID=38962619

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0702903A Pending FR2915048A1 (en) 2007-04-16 2007-04-16 Oversampling method for decoding scalable data stream in data transmission system, involves determining sub pixel position of given pixel from position of reference pixel and from offset representing distance between positions of pixels

Country Status (1)

Country Link
FR (1) FR2915048A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6307887B1 (en) * 1997-04-04 2001-10-23 Microsoft Corporation Video encoder and decoder using bilinear motion compensation and lapped orthogonal transforms
US20020135592A1 (en) * 2001-01-11 2002-09-26 Slavin Keith R. Pixel resampling system and method for text
US20060126962A1 (en) * 2001-03-26 2006-06-15 Sharp Laboratories Of America, Inc. Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
US20060222068A1 (en) * 2005-04-01 2006-10-05 Lg Electronics Inc. Method for scalably encoding and decoding video signal
WO2006108863A2 (en) * 2005-04-13 2006-10-19 Thomson Licensing Process for scalable coding of images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6307887B1 (en) * 1997-04-04 2001-10-23 Microsoft Corporation Video encoder and decoder using bilinear motion compensation and lapped orthogonal transforms
US20020135592A1 (en) * 2001-01-11 2002-09-26 Slavin Keith R. Pixel resampling system and method for text
US20060126962A1 (en) * 2001-03-26 2006-06-15 Sharp Laboratories Of America, Inc. Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
US20060222068A1 (en) * 2005-04-01 2006-10-05 Lg Electronics Inc. Method for scalably encoding and decoding video signal
WO2006108863A2 (en) * 2005-04-13 2006-10-19 Thomson Licensing Process for scalable coding of images

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SULLIVAN G J: "Position calc for SVC upsampling", VIDEO STANDARDS AND DRAFTS, 11 January 2006 (2006-01-11), XP030006334 *
SULLIVAN G: "Position calculation for SVC upsampling", VIDEO STANDARDS AND DRAFTS, 28 March 2006 (2006-03-28), XP030006446 *
WIEGAND T. ET AL.: "JOINT DRAFT 9 OF SVC AMENDMENT", 22ND JVT MEETING, 13 January 2007 (2007-01-13) - 19 January 2007 (2007-01-19), Marrakech, Morocco, pages 412 - 445, XP002466497, Retrieved from the Internet <URL:http://ftp3.itu.int/av-arch/jvt-site/> *

Similar Documents

Publication Publication Date Title
EP2850830B1 (en) Encoding and reconstruction of residual data based on support information
US10448032B2 (en) Signaling of down-sampling location information in scalable video coding
US10116957B2 (en) Dual filter type for motion compensated prediction in video coding
FR2880743A1 (en) DEVICE AND METHODS FOR SCALING AND DECODING IMAGE DATA STREAMS, SIGNAL, COMPUTER PROGRAM AND CORRESPONDING IMAGE QUALITY ADAPTATION MODULE
FR2903556A1 (en) Digital image encoding method for e.g. mobile phone, involves associating information, representative of bit rate and distortion corresponding to target definition comprised between lower and upper definition layers, with coding result
WO2007020230A2 (en) Method of encoding and decoding video images with spatial scalability
EP1969854A1 (en) Method of coding and decoding an image or a sequence of images, corresponding devices, computer programs and signal
EP2868088A1 (en) Method for encoding a current block of a first image component relative to a reference block of at least one second image component, encoding device and corresponding computer program
EP3075155B1 (en) Method for encoding and decoding images, device for encoding and decoding images and corresponding computer programs
FR3008840A1 (en) METHOD AND DEVICE FOR DECODING A SCALABLE TRAIN REPRESENTATIVE OF AN IMAGE SEQUENCE AND CORRESPONDING ENCODING METHOD AND DEVICE
Wiegand et al. Video coding: Part II of fundamentals of source and video coding
FR2886787A1 (en) METHOD AND DEVICE FOR ENCODING AND DECODING AN IMAGE SEQUENCE
US10455253B1 (en) Single direction long interpolation filter
EP3345391A2 (en) Method of coding and decoding images, device for coding and decoding images and computer programmes corresponding thereto
EP3180914A1 (en) Image encoding and decoding method, image encoding and decoding device, and corresponding computer programs
FR2867328A1 (en) Image sequence decoding method for e.g. videotelephony field, involves determining motion resolution and filter based on spatial and temporal resolution of sources and decoding rate, or on level of temporal decomposition of images
FR3026261A1 (en) METHOD FOR ENCODING AND DECODING INTEGRAL IMAGES, DEVICE FOR ENCODING AND DECODING INTEGRAL IMAGES, AND CORRESPONDING COMPUTER PROGRAMS
KR20230116966A (en) Efficient patch rotation in point cloud coding
EP0691065B1 (en) Compatible television picture sub-band coding/decoding
FR2966680A1 (en) METHODS AND DEVICES FOR ENCODING AND DECODING AT LEAST ONE IMAGE FROM A HIERARCHICAL EPITOME, SIGNAL AND CORRESPONDING COMPUTER PROGRAM
FR2915048A1 (en) Oversampling method for decoding scalable data stream in data transmission system, involves determining sub pixel position of given pixel from position of reference pixel and from offset representing distance between positions of pixels
WO2019057368A1 (en) Methods for encoding and decoding an image
FR2769784A1 (en) FASHION CODING METHOD IN BINARY SHAPE CODING
FR2956789A1 (en) METHOD AND DEVICE FOR PROCESSING A VIDEO SEQUENCE
FR2933837A1 (en) Video images sequence coding method for e.g. satellite distribution network, involves coding auxiliary transcoding aid data e.g. coding parameters, into supplemental enhancement information message of coded image data stream