FR3036016A1 - PREDICTIVE CODING / DECODING OF IMAGES HAVING ARTIFACT USING EXTRAPOLATION - Google Patents

PREDICTIVE CODING / DECODING OF IMAGES HAVING ARTIFACT USING EXTRAPOLATION Download PDF

Info

Publication number
FR3036016A1
FR3036016A1 FR1554106A FR1554106A FR3036016A1 FR 3036016 A1 FR3036016 A1 FR 3036016A1 FR 1554106 A FR1554106 A FR 1554106A FR 1554106 A FR1554106 A FR 1554106A FR 3036016 A1 FR3036016 A1 FR 3036016A1
Authority
FR
France
Prior art keywords
image
pixels
artifact
reference block
micro
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1554106A
Other languages
French (fr)
Other versions
FR3036016B1 (en
Inventor
Joel Jung
Antoine Dricot
Marco Cagnazzo
Beatrice Pesquet-Popescu
Frederic Dufaux
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Institut Mines Telecom IMT
Original Assignee
Orange SA
Institut Mines Telecom IMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA, Institut Mines Telecom IMT filed Critical Orange SA
Priority to FR1554106A priority Critical patent/FR3036016B1/en
Publication of FR3036016A1 publication Critical patent/FR3036016A1/en
Application granted granted Critical
Publication of FR3036016B1 publication Critical patent/FR3036016B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • H04N19/865Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness with detection of the former encoding block subdivision in decompressed video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

L'invention concerne un codage/décodage par prédiction d'un bloc courant d'au moins une image courante, dans lequel on obtient un vecteur de mouvement (mv) pointant vers un bloc de référence (bref) d'une zone de pixels préalablement décodée, ladite zone de pixels comportant un artéfact ayant une position déterminée. En particulier : - on détermine (S3), en fonction de la position de l'artéfact dans ladite zone de pixels, si le bloc de référence comporte au moins une partie de l'artéfact, - le cas échéant, on corrige (S4) le bloc de référence en corrigeant des pixels au moins de ladite partie de l'artéfact par extrapolation à partir d'autres pixels de ladite zone de pixels, et - on utilise le bloc de référence corrigé (bref*) pour le décodage (S6) par prédiction.The invention relates to a prediction coding / decoding of a current block of at least one current image, in which a motion vector (mv) is obtained pointing to a reference block (brief) of a zone of pixels previously decoded, said pixel area comprising an artifact having a determined position. In particular: - determining (S3), depending on the position of the artifact in said pixel area, if the reference block comprises at least a part of the artifact, - if necessary, it corrects (S4) the reference block by correcting pixels at least of said part of the artifact by extrapolation from other pixels of said pixel area, and - using the corrected reference block (brief *) for decoding (S6) by prediction.

Description

Codage/décodage prédictif d'images comportant un artéfact, utilisant une extrapolation La présente invention concerne le codage/décodage, prédictif, d'une image courante (fixe ou d'une séquence) présentant, dans une même image, au moins un artéfact ayant une position déterminée. Cet artéfact peut être par exemple un motif périodique dans une même image, tel que rencontré notamment dans les images dites « intégrales » pour un affichage en trois dimensions (3D), comme des images vidéo 3D.The present invention relates to the coding / decoding, predictive, of a current image (fixed or of a sequence) having, in the same image, at least one artifact having at least one artifact. a determined position. This artifact can be for example a periodic pattern in the same image, as encountered especially in the so-called "integral" images for a three-dimensional (3D) display, such as 3D video images.

En effet, les techniques actuelles de vidéo 3D présentent certaines limitations. Par exemple, la stéréoscopie est basée sur l'utilisation de lunettes 3D (verres informatifs sur chaque oeil avec par exemple une différence de phase spatiale permettant une reconstruction 3D avec les images envoyées à chaque oeil). Toutefois, un inconvénient substantiel résulte de l'utilisation de cette technologie. Par exemple, un décalage temporel entre les images du verre droit et du verre gauche (y compris une seule image de décalage temporel seulement) peut rendre la visualisation désagréable. Une technique alternative à la stéréoscopie concerne les services de vidéo dits « 3D sans verre ». Dans ce type de technique, une image est reproduite une multiplicité de fois à différents points de vue en plaçant un réseau de micro-lentilles devant un objet d'origine. On obtient, pour cet objet, une multiplicité de micro-images, dont l'ensemble est dit « image intégrale » (figure 9). Chaque micro-image est différente selon l'angle de vue et la position de la micro-lentille correspondante. Ainsi, plutôt que d'afficher une image 2D, identique selon les directions d'observation, on obtient une reproduction du champ lumineux sur plus de deux dimensions (en quatre dimensions, plus exactement). Plus particulièrement, en se référant à la figure 1, cette technique d'imagerie « intégrale », connue aussi sous le nom d'imagerie holoscopique ou plénoptique consiste à capturer une multiplicité de vues en utilisant un réseau de lentilles optiques placé entre un objet et une caméra vidéo. Le réseau comprend typiquement un ensemble de micro-lentilles dont chacune LEN opère comme une micro-caméra individuelle de faible résolution (puisque le nombre de pixels nxm attribué à chaque micro-lentille LEN reste par principe limité par le nombre total 3036016 2 de pixels de la matrice MAT de la caméra vidéo). Les micro-lentilles, du fait de leurs positions respectives, enregistrent différentes parties d'une même scène (comme par exemple un disque et un carré espacés latéralement), comme présenté sur la figure 2. Les micro-lentilles permettent une capture d'une information angulaire individuelle (sur différents points de vue 5 de la scène) en dirigeant les rayons de lumière vers différentes parties de la matrice de pixels selon leur angle d'incidence comme illustré sur la figure 3. L'image complète « intégrale » ainsi obtenue est de résolution multiple par rapport à la résolution de chaque micro-image. Il est donc important de rechercher un codage qui met en oeuvre une compression efficace 10 d'images intégrales et/ou de flux vidéo comportant de telles images intégrales. Il est cité ci-après deux schémas de codage habituellement utilisés pour la compression de ce type d'image.Indeed, current 3D video techniques have certain limitations. For example, the stereoscopy is based on the use of 3D glasses (informative glasses on each eye with for example a spatial phase difference allowing a 3D reconstruction with the images sent to each eye). However, a substantial disadvantage results from the use of this technology. For example, a time lag between the right and left lens images (including only one time-shift image only) can make viewing uncomfortable. An alternative technique to stereoscopy concerns video services called "3D without glass". In this type of technique, an image is reproduced a multiplicity of times at different points of view by placing a network of microlenses in front of an object of origin. For this object, we obtain a multiplicity of micro-images, all of which is called "integral image" (Figure 9). Each micro-image is different according to the angle of view and the position of the corresponding micro-lens. Thus, rather than displaying a 2D image, identical according to the observation directions, we obtain a reproduction of the light field on more than two dimensions (in four dimensions, more exactly). More particularly, with reference to FIG. 1, this "integral" imaging technique, also known as holoscopic or plenoptic imaging, consists in capturing a multiplicity of views by using an optical lens array placed between an object and a video camera. The network typically comprises a set of micro-lenses each of which LEN operates as a low-resolution individual micro-camera (since the number of pixels n × m allocated to each LEN micro-lens is in principle limited by the total number 3036016 2 pixels of MAT matrix of the video camera). The microlenses, because of their respective positions, record different parts of the same scene (as for example a disk and a square spaced laterally), as shown in Figure 2. The microlenses allow a capture of a individual angular information (from different viewpoints of the scene) by directing the rays of light to different parts of the pixel array according to their angle of incidence as shown in Fig. 3. The complete "integral" image thus obtained is of multiple resolution with respect to the resolution of each micro-image. It is therefore important to look for a coding which implements an efficient compression of integral images and / or video streams comprising such integral images. Two coding schemes usually used for the compression of this type of image are cited below.

15 Le premier type de codage applique une décomposition de l'image intégrale en plusieurs vues, suivie d'une technique de codage 3D. Le second type de codage applique un codage 2D à l'image intégrale elle-même. Il s'agit d'une technique plus simple et plus directe. Néanmoins, elle nécessite encore des 20 optimisations. Notamment, l'estimation de mouvement d'une image à l'autre peut générer par exemple un vecteur de mouvement pointant sur un bloc de référence qui se positionne entre plusieurs micro-images. Dans ce cas, le vecteur de mouvement n'est pas sélectionné, ce qui réduit l'efficacité du codage en compression. Ce problème est illustré sur l'exemple de la figure 4, dans laquelle un tel bloc de référence est pointé par la flèche F et délimité par des 25 frontières claires. Il apparaît alors dans cet exemple que les frontières de micro-images consécutives MLB (frontières sombres) sont incluses dans le bloc de référence, de sorte que le contenu de ce bloc de référence n'est pas continu sur la partie de gauche et sur la partie de droite d'une micro-image (ou entre une partie de bas et une partie de haut en considérant une frontière horizontale en variante de l'exemple de la figure 4). Il s'ensuit qu'un bloc courant à 30 encoder ne correspond pas au bloc de référence. On peut prévoir de modifier le codage 2D appliqué à l'image intégrale elle-même en tenant compte de caractéristiques particulières de l'image intégrale. Par exemple, il est envisageable 3036016 3 d'encoder une image intégrale en appliquant une transformée telle qu'une transformée en ondelettes discrète (DWT) suivie d'un encodage classique des coefficients transformés. On peut prévoir ainsi de nouveaux modes de prédiction pour encoder les images intégrales avec un codec 2D.The first type of coding applies a decomposition of the integral image into several views, followed by a 3D coding technique. The second type of coding applies a 2D coding to the integral image itself. This is a simpler and more direct technique. Nevertheless, it still requires optimizations. In particular, the motion estimation from one image to another can generate, for example, a motion vector pointing to a reference block that is positioned between several micro-images. In this case, the motion vector is not selected, which reduces the efficiency of compression coding. This problem is illustrated in the example of FIG. 4, in which such a reference block is pointed by the arrow F and delimited by clear boundaries. It then appears in this example that the boundaries of consecutive micro-images MLB (dark borders) are included in the reference block, so that the content of this reference block is not continuous on the left-hand side and on the left-hand side. right part of a micro-image (or between a bottom part and a top part by considering an alternative horizontal border of the example of Figure 4). As a result, a current block to be encoded does not correspond to the reference block. It is possible to modify the 2D coding applied to the integral image itself, taking into account particular characteristics of the integral image. For example, it is conceivable to encode an integral image by applying a transform such as a discrete wavelet transform (DWT) followed by a conventional encoding of the transformed coefficients. One can thus predict new prediction modes for encoding the integral images with a 2D codec.

5 Ainsi, les problèmes généralement rencontrés avec ce type de technique résultent de la résolution ultrahaute qu'a l'image intégrale originale (et la complexité associée), ainsi que la présence d'une « grille » d'artéfacts que forment les frontières MLB entre micro-images, ces artéfacts rendant difficile l'encodage prédictif.Thus, the problems generally encountered with this type of technique result from the ultra-high resolution that the original integral image (and the associated complexity), as well as the presence of a "grid" of artifacts that form the MLB boundaries. between micro-images, these artifacts making difficult the predictive encoding.

10 La présente invention vient améliorer la situation. Elle propose à cet effet, selon un premier aspect, un procédé de décodage par prédiction d'un bloc courant d'au moins une image courante, dans lequel on obtient un vecteur de mouvement 15 pointant vers un bloc de référence d'une zone de pixels préalablement décodée, ladite zone de pixels comportant un artéfact ayant une position déterminée, caractérisé en ce qu'il comporte : - déterminer, en fonction de la position de l'artéfact dans ladite zone de pixels, si le bloc de référence comporte au moins une partie de l'artéfact, - le cas échéant, corriger le bloc de référence en corrigeant des pixels au moins de ladite 20 partie de l'artéfact par extrapolation à partir d'autres pixels de ladite zone de pixels, et - utiliser le bloc de référence corrigé pour le décodage par prédiction. L' « image courante » précitée peut être une image intégrale comme présentée plus haut, ou en variante une image « multi-vues », une image de film 2D classique (issue par exemple d'un 25 enregistrement initial sur une pellicule), etc., une telle image courante ayant une zone de pixels de référence contenant des dégradations (griffes, taches, ou autres). Par ailleurs, la zone de pixels « préalablement décodée » peut appartenir à l'image courante (par exemple en contexte de codage/décodage « intra ») ou à une autre image que l'image 30 courante (image précédant l'image courante dans une séquence, en codage « inter » par exemple).The present invention improves the situation. To this end, it proposes, according to a first aspect, a method of decoding by prediction of a current block of at least one current image, in which a motion vector 15 is obtained pointing to a reference block of a zone of pixels previously decoded, said pixel zone comprising an artifact having a determined position, characterized in that it comprises: determining, as a function of the position of the artifact in said pixel zone, whether the reference block comprises at least a part of the artifact, where appropriate, correcting the reference block by correcting pixels of at least said part of the artifact by extrapolation from other pixels of said pixel area, and - using the block corrected reference for prediction decoding. The aforementioned "current image" may be an integral image as presented above, or alternatively a "multi-view" image, a conventional 2D movie image (eg from an initial recording on a film), etc. such a current image having a reference pixel area containing degradations (claws, spots, or the like). Furthermore, the pixel area "previously decoded" may belong to the current image (for example in "intra" encoding / decoding context) or to another image than the current image (image preceding the current image in a sequence, in "inter" coding for example).

3036016 4 La présente invention vise aussi un procédé de codage par prédiction d'un bloc courant d'au moins une image courante dans lequel on détermine un vecteur de mouvement pointant vers un bloc de référence d'une zone de pixels (qui peut être codée, ou initialement codée puis décodée), ladite zone de pixels comportant un artéfact ayant une position déterminée. Le 5 procédé de codage comporte les étapes : - déterminer, en fonction de la position de l'artéfact dans ladite zone de pixels, si le bloc de référence comporte au moins une partie de l'artéfact, - le cas échéant, corriger le bloc de référence en corrigeant des pixels au moins de ladite partie de l'artéfact par extrapolation à partir d'autres pixels de ladite zone de pixels, et 10 - utiliser le bloc de référence corrigé pour le codage, par prédiction. Bien entendu, dans un mode de réalisation, le bloc de référence corrigé peut d'abord être mis en compétition avec d'autres blocs de référence, lors de l'estimation de mouvement, au lieu d'être sélectionné directement pour être utilisé au codage. Dans ce cas il est « présélectionné » 15 au moins (pour être mis en compétition). Il faut donc comprendre que les termes ci-dessus « utiliser le bloc de référence corrigé pour le codage, par prédiction » désignent aussi bien un mode de réalisation dans lequel le bloc est sélectionné directement et un mode de réalisation dans lequel il est d'abord mis en compétition.The present invention also relates to a prediction coding method of a current block of at least one current image in which a motion vector pointing to a reference block of a pixel area (which can be coded) is determined. , or initially coded and then decoded), said pixel area comprising an artifact having a determined position. The encoding method comprises the steps of: - determining, as a function of the position of the artifact in said pixel area, whether the reference block comprises at least a part of the artifact, - if necessary, correcting the block reference by correcting pixels at least of said portion of the artifact by extrapolation from other pixels of said pixel area, and using the corrected reference block for coding, by prediction. Of course, in one embodiment, the corrected reference block may first be competed with other reference blocks, during motion estimation, instead of being selected directly for use in encoding. . In this case it is "preselected" 15 at least (to be put in competition). It should therefore be understood that the above terms "use the corrected reference block for coding, by prediction" refer both to an embodiment in which the block is directly selected and an embodiment in which it is first put in competition.

20 Dans un mode de réalisation, au codage et/ou au décodage, la position de l'artefact peut être associée à au moins un paramètre à transmettre dans un flux codé, ce paramètre étant obtenu au codage et étant utilisé au décodage pour identifier la position de l'artefact dans un bloc de référence d'une zone de pixels préalablement décodée.In one embodiment, at the coding and / or decoding, the position of the artifact may be associated with at least one parameter to be transmitted in a code stream, this parameter being obtained at the coding and being used at decoding to identify the position of the artifact in a reference block of a pixel area previously decoded.

25 On entend ici par « paramètre obtenu » le fait que le paramètre peut être prédéfini, dans le sens où il s'agit d'un paramètre d'entrée du codeur (et/ou du décodeur) que le codeur lit, ou peut être déterminé dans le sens où il est détecté par une technique adaptée (dont des exemples sont décrits plus loin).Here "parameter obtained" is understood to mean that the parameter can be predefined, in the sense that it is an input parameter of the encoder (and / or decoder) that the encoder reads, or can be determined in the sense that it is detected by a suitable technique (examples of which are described later).

30 Dans un mode de réalisation, l'image courante est une image intégrale (du type présenté ci- avant en référence notamment à la figure 4), constituée de micro-images séparées entre elles par des motifs de grille correspondant à l'artéfact.In one embodiment, the current image is an integral image (of the type presented above with reference in particular to FIG. 4), consisting of micro-images separated from each other by grid patterns corresponding to the artifact.

3036016 5 Dans ce mode de réalisation, les pixels corrigés sont : - des pixels d'une partie de motif de grille que comporte le bloc de référence, et - des pixels d'une partie d'au moins une micro-image, adjacente à une partie d'au moins une autre micro-image, lesdites parties étant contenues dans le bloc de référence, les pixels de 5 ladite au moins une autre micro-image étant utilisés sans ladite correction pour constituer le bloc de référence corrigé. La partie de micro-image dont les pixels sont à corriger peut être à droite, à gauche, au-dessus ou en dessous de la partie de micro-image que comporte le bloc de référence.In this embodiment, the corrected pixels are: pixels of a part of the grid pattern that comprises the reference block, and pixels of a part of at least one micro-image, adjacent to a part of at least one other micro-image, said portions being contained in the reference block, the pixels of said at least one other micro-image being used without said correction to constitute the corrected reference block. The micro-image portion whose pixels are to be corrected may be to the right, to the left, above or below the micro-image part that the reference block comprises.

10 Plus particulièrement, la micro-image dont les pixels sont corrigés est fonction : - de la direction du vecteur de mouvement (verticale, horizontale ou diagonale), et - selon un mode d'acquisition de l'image intégrale orthoscopique ou pseudoscopique, avec, pour une direction donnée du vecteur mouvement : 15 - les pixels de la partie de ladite au moins une micro-image située dans une première position par rapport à la partie de ladite au moins une autre micro-image, à corriger si l'image est pseudoscopique, et - les pixels de la partie de ladite au moins une micro-image située dans une deuxième position par rapport à la partie de ladite au moins une autre micro-image, à corriger si 20 l'image est orthoscopique, la première position étant distincte de la deuxième position. Dans une forme de réalisation, une donnée indiquant si l'image intégrale est orthoscopique ou pseudoscopique peut être obtenue ou déterminée au codage et au décodage.More particularly, the micro-image whose pixels are corrected is a function of: - the direction of the motion vector (vertical, horizontal or diagonal), and - according to a mode of acquisition of the orthoscopic or pseudoscopic integral image, with for a given direction of the motion vector: the pixels of the portion of said at least one micro-image located in a first position with respect to the portion of said at least one other micro-image, to be corrected if the image is pseudoscopic, and - the pixels of the portion of said at least one micro-image located in a second position with respect to the portion of said at least one other micro-image, to be corrected if the image is orthoscopic, the first position being distinct from the second position. In one embodiment, data indicating whether the integral image is orthoscopic or pseudoscopic can be obtained or determined at the encoding and decoding.

25 Dans un mode de réalisation, pour déterminer si le bloc de référence comporte au moins une partie du motif de grille, on identifie la position du motif de grille dans l'image par la mise en oeuvre de l'une au moins des étapes : - par recherche de corrélations dans l'image intégrale, 30 - par détection de pixels correspondant à des motifs de grille comparativement à d'autres pixels de l'image intégrale.In one embodiment, to determine if the reference block comprises at least a part of the grid pattern, the position of the grid pattern in the image is identified by the implementation of at least one of the steps: by searching for correlations in the integral image, by detecting pixels corresponding to grid patterns compared to other pixels of the integral image.

3036016 6 Au sens de la deuxième étape ci-dessus, on peut prévoir par exemple que l'intensité des pixels le long d'une ligne ou d'une colonne de l'image intégrale montre des motifs périodiques. Les pixels dont l'intensité est inférieure à un premier seuil déterminé, et/ou supérieure à un deuxième seuil déterminé, sont alors associés au motif de grille.In the sense of the second step above, it can be provided for example that the intensity of the pixels along a line or a column of the integral image shows periodic patterns. The pixels whose intensity is less than a first determined threshold, and / or greater than a second determined threshold, are then associated with the grid pattern.

5 En complément ou en variante, la position de la grille peut être dérivée d'une information lue dans le flux (par exemple, la taille des micro-lentilles du dispositif d'acquisition). Dans une forme de réalisation, la correction des pixels de la partie d'artéfact dans le bloc de référence s'effectue en se référant au moins à des pixels voisins de l'artefact.In addition or alternatively, the position of the gate can be derived from information read from the stream (for example, the size of the micro-lenses of the acquisition device). In one embodiment, pixel correction of the artifact portion in the reference block is accomplished by reference to at least pixels adjacent to the artifact.

10 Dans cette forme de réalisation, la correction s'effectue par recopie des pixels voisins des pixels à corriger. En variante, la correction peut s'effectuer par remplissage de masque correspondant aux pixels 15 à corriger par une technique de type « inpainting ». La présente invention vise aussi un décodeur par prédiction d'un bloc courant d'au moins une image courante, comportant un circuit de traitement pour obtenir un vecteur de mouvement pointant vers un bloc de référence d'une zone de pixels préalablement décodée, ladite zone de 20 pixels comportant un artéfact ayant une position déterminée. Le circuit de traitement est agencé pour : déterminer, en fonction de la position de l'artéfact dans ladite zone de pixels, si le bloc de référence comporte au moins une partie de l'artéfact, le cas échéant, corriger le bloc de référence en corrigeant des pixels au moins de ladite 25 partie de l'artéfact par extrapolation à partir d'autres pixels de ladite zone de pixels, et utiliser le bloc de référence corrigé pour le décodage par prédiction. La présente invention vise aussi un programme informatique comportant des instructions pour la mise en oeuvre du procédé de décodage ci-avant, lorsque ce programme est exécuté par un 30 processeur. Un algorithme schématique d'un tel programme est illustré sur la figure 5 commentée plus loin. L'invention vise aussi un support mémoire non transitoire stockant un tel programme.In this embodiment, the correction is performed by copying neighboring pixels of the pixels to be corrected. As a variant, the correction can be performed by mask filling corresponding to the pixels 15 to be corrected by an "inpainting" type technique. The present invention also relates to a decoder by prediction of a current block of at least one current image, comprising a processing circuit for obtaining a motion vector pointing to a reference block of a previously decoded pixel zone, said zone 20 pixels having an artifact having a determined position. The processing circuit is arranged to: determine, as a function of the position of the artifact in said pixel area, whether the reference block comprises at least a part of the artifact, if necessary, correct the reference block by correcting pixels at least of said portion of the artifact by extrapolation from other pixels in said pixel area, and using the corrected reference block for prediction decoding. The present invention also relates to a computer program comprising instructions for implementing the above decoding method, when this program is executed by a processor. A schematic algorithm of such a program is illustrated in Figure 5 discussed below. The invention also relates to a non-transitory memory medium storing such a program.

3036016 7 La présente invention vise aussi un codeur par prédiction d'un bloc courant d'au moins une image courante, comportant un circuit de traitement pour déterminer un vecteur de mouvement pointant vers un bloc de référence d'une zone de pixels préalablement codée, ladite zone de 5 pixels comportant un artéfact ayant une position déterminée. Le circuit de traitement est agencé pour : - déterminer, en fonction de la position de l'artéfact dans ladite zone de pixels, si le bloc de référence comporte au moins une partie de l'artéfact, - le cas échéant, corriger le bloc de référence en corrigeant des pixels au moins de ladite 10 partie de l'artéfact par extrapolation à partir d'autres pixels de ladite zone de pixels, et - utiliser le bloc de référence corrigé pour le codage par prédiction. La figure 11 commentée plus loin illustre schématiquement de tels dispositifs codeur et décodeur, comportant des circuits de traitement à cet effet (incluant par exemple une mémoire 15 de travail pour stocker temporairement les blocs à corriger, successivement, par exemple à la volée). La présente invention vise aussi un programme informatique comportant des instructions pour la mise en oeuvre du procédé de codage ci-avant, lorsque ce programme est exécuté par un 20 processeur. Un algorithme schématique d'un tel programme est illustré sur la figure 6 commentée plus loin. L'invention vise aussi un support mémoire non transitoire stockant un tel programme. Dès lors que les artéfacts ont des positions déterminées ou déterminables dans les images (au 25 codage comme au décodage), le décodage au sens de l'invention peut être opéré de façon strictement autonome, indépendamment de la correction du bloc de référence qui a été faite au codage. En pratique, on utilise les mêmes techniques de correction au codage et au décodage. L'invention trouve une application avantageuse au codage/décodage d'images intégrales 30 comportant alors un artéfact ayant un motif de grille lié à la capture des images intégrales par un réseau de micro-lentilles, comme illustré sur les figures 4, 7a, 7b, 9 commentées ci-après. D'ailleurs, d'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci-après, et des dessins annexés sur lesquels : 3036016 8 - la figure 1 illustre un exemple de dispositif à réseau de micro-lentilles accolées à une matrice de photo-détecteurs pour acquérir des images intégrales telles que celle représentée sur la figure 9, - la figure 2 illustre schématiquement le principe de la capture d'une scène 3D par un tel 5 dispositif, - la figure 3 illustre plus particulièrement la capture des informations d'angles par un tel dispositif, - la figure 4 illustre un artéfact présentant un motif de grille MLB séparant les micro-images d'une image intégrale acquise par un dispositif du type illustré sur la figure 1, 10 - la figure 5 illustre les étapes d'un procédé de décodage selon un mode de réalisation de l'invention ; - la figure 6 illustre les étapes d'un procédé de codage selon un mode de réalisation de l'invention ; - la figure 7a illustre un vecteur de mouvement (flèche) pointant sur un bloc de référence 15 (en traits pointillés) dans l'image intégrale, ici pseudoscopique, le bloc de référence étant à corriger car il inclut un artéfact correspondant à une partie du motif de grille, - la figure 7b illustre un vecteur de mouvement pointant sur un bloc de référence dans l'image intégrale, ici orthoscopique, le bloc de référence étant à corriger car il inclut un artéfact correspondant à une partie du motif de grille, 20 - les figures 8a et 8b représentent le bloc de référence non corrigé bref et respectivement corrigé bref*, dans un premier exemple de réalisation, - la figure 9 illustre une image intégrale obtenue par un dispositif du type représenté sur la figure 1, - la figure 10a représente le vecteur de mouvement (flèche) pointant sur le bloc de référence 25 (en traits pointillés) dans une image intégrale pseudoscopique, et la figure 10b illustre dans ce cas les pixels du bloc de référence qui sont à corriger, ainsi que sa transformation, - la figure 11 illustre schématiquement des dispositifs codeur et décodeur, - les figures 12a et 12b représentent le bloc de référence non corrigé bref et respectivement corrigé bref*, dans un deuxième exemple de réalisation.The present invention also provides an encoder by prediction of a current block of at least one current image, comprising a processing circuit for determining a motion vector pointing to a reference block of a previously coded pixel area. said 5 pixel area having an artifact having a determined position. The processing circuit is arranged to: - determine, as a function of the position of the artifact in said pixel area, if the reference block comprises at least a part of the artifact, - if necessary, correct the block of reference by correcting at least pixels of said portion of the artifact by extrapolation from other pixels of said pixel area, and - using the corrected reference block for prediction coding. FIG. 11 discussed further schematically illustrates such encoder and decoder devices, including processing circuits for this purpose (including for example a working memory 15 for temporarily storing the blocks to be corrected, successively, for example on the fly). The present invention also relates to a computer program comprising instructions for implementing the above coding method, when this program is executed by a processor. A schematic algorithm of such a program is illustrated in Figure 6 discussed below. The invention also relates to a non-transitory memory medium storing such a program. As soon as the artefacts have determined or determinable positions in the images (at both encoding and decoding), the decoding in the sense of the invention can be operated in a strictly autonomous manner, independently of the correction of the reference block which has been made to the coding. In practice, the same coding and decoding correction techniques are used. The invention finds an advantageous application to the encoding / decoding of integral images then comprising an artefact having a grid pattern related to the capture of the integral images by an array of microlenses, as illustrated in FIGS. 4, 7a, 7b. , 9 commented below. Moreover, other features and advantages of the invention will become apparent upon examination of the following detailed description, and the accompanying drawings, in which: FIG. 1 illustrates an example of a microwave network device; lenses contiguous to a photodetector array for acquiring integral images such as that shown in FIG. 9; FIG. 2 diagrammatically illustrates the principle of capturing a 3D scene by such a device; FIG. more particularly, the capture of the angle information by such a device; FIG. 4 illustrates an artifact having a MLB grid pattern separating the micro-images from an integral image acquired by a device of the type illustrated in FIG. FIG. 5 illustrates the steps of a decoding method according to one embodiment of the invention; FIG. 6 illustrates the steps of a coding method according to one embodiment of the invention; FIG. 7a illustrates a motion vector (arrow) pointing to a reference block 15 (in dotted lines) in the integral image, here pseudoscopic, the reference block being to be corrected since it includes an artifact corresponding to a part of the FIG. 7b illustrates a motion vector pointing to a reference block in the integral image, here orthoscopic, the reference block being correct since it includes an artefact corresponding to a portion of the grid pattern, FIGS. 8a and 8b show the short uncorrected reference block, respectively brief corrected, in a first exemplary embodiment; FIG. 9 illustrates an integral image obtained by a device of the type shown in FIG. 1; FIG. 10a represents the motion vector (arrow) pointing to the reference block 25 (in dotted lines) in a pseudoscopic integral image, and FIG. 10b illustrates in this case the reference block pixels which are to be corrected, as well as its transformation, - FIG. 11 diagrammatically illustrates encoder and decoder devices, - FIGS. 12a and 12b represent the brief uncorrected reference block and respectively corrected brief *, in a second exemplary embodiment.

30 On se réfère aux figures 5 et 6 sur lesquelles on a illustré respectivement le traitement d'images au décodage et au codage, au sens de l'invention.FIGS. 5 and 6 are illustrated in which the image processing is decoded and coded, respectively, within the meaning of the invention.

3036016 9 La solution de codage/décodage proposée s'applique dans un schéma de codage/décodage standard, dit « par prédiction », qui utilise une compensation de mouvement, c'est-à-dire qui obtient un vecteur de mouvement mv pointant sur une zone causale, c'est-à-dire une image précédente ou suivante déjà codée/décodée ou bien une partie de l'image courante déjà 5 codée/décodée (en codage dit « Intra block copy », basé sur des similarités entre blocs d'image). Cette zone causale est dite « zone de référence », ou « bloc de référence » ci-après (portant la référence « bref » sur les dessins). Ce type de codage/décodage applique alors une prédiction d'un bloc courant par rapport à ce bloc de référence.The proposed encoding / decoding solution is applied in a standard "prediction" coding / decoding scheme that uses motion compensation, i.e., which obtains a motion vector mv pointing to a causal zone, that is to say a previous or next already coded / decoded image or a part of the already coded / decoded current image (in "block block copy" coding, based on similarities between blocks image). This causal zone is referred to as the "reference zone" or "reference block" hereafter (bearing the reference "brief" in the drawings). This type of coding / decoding then applies a prediction of a current block with respect to this reference block.

10 Au sens de l'invention, on corrige le bloc de référence utilisé pour la prédiction, de façon à prendre en compte des artéfacts caractéristiques, liés dans un exemple d'application de l'invention à la capture de la scène par des micro-lentilles. Il s'agit en particulier dans cette application des artefacts liés aux bords des micro-lentilles. Les problèmes de continuité liés au passage d'une micro-lentille à l'autre sont ainsi résolus.Within the meaning of the invention, the reference block used for the prediction is corrected so as to take into account characteristic artifacts linked, in an exemplary application of the invention, to the capture of the scene by microparticles. lenses. This is particularly in this application artifacts related to the edges of microlenses. The continuity problems related to the passage of a micro-lens to the other are thus solved.

15 Un avantage immédiat de la technique de codage est que la zone extrapolée dans le bloc de référence bref prédit mieux la zone d'un bloc courant b. Par conséquent, l'estimation de mouvement peut choisir le bloc bref, devenu pertinent pour la prédiction, et le résiduel Eb correspondant à la différence entre le bloc de référence corrigé bref* et le bloc courant b est 20 plus petit, et donc plus facile à coder en compression. En référence à la figure 5 qui s'examine parallèlement à la figure 7a, lors du décodage de l'image intégrale, pour un bloc courant b à décoder (bloc de traits clairs pleins sur figure 7a), il est réalisé une première étape Si de lecture (« parsing ») d'un vecteur de mouvement mv 25 (flèche de la figure 7a), pointant sur le bloc de référence bref dans la zone causale (bloc de traits clairs pointillés à gauche sur la figure 7a). On déduit donc du vecteur de mouvement mv à l'étape S2, la position du bloc de référence initial bref. Il est pratiqué ensuite une transformation de ce bloc bref, comme suit.An immediate advantage of the coding technique is that the extrapolated area in the short reference block better predicts the area of a current block b. Therefore, the motion estimation can choose the short block, become relevant for the prediction, and the residual Eb corresponding to the difference between the short-corrected reference block * and the current block b is smaller, and therefore easier. to encode in compression. With reference to FIG. 5, which is examined in parallel with FIG. 7a, during the decoding of the integral image, for a current block b to be decoded (block of solid lines in FIG. 7a), a first step Si is performed. parsing a motion vector mv (arrow in FIG. 7a), pointing to the short reference block in the causal zone (dashed block of dashes on the left in FIG. 7a). Therefore, from the motion vector mv in step S2, the position of the initial reference block is short. It is then practiced a transformation of this brief block, as follows.

30 Dans une étape S3, on localise les éventuels artefacts liés ici aux frontières MLB entre les micro-images, dans le bloc bref Les frontières MLB forment une grille qui peut être localisée : 3036016 10 - par lecture de ses paramètres dans le flux de données codées (connaissance de paramètres tels que le positionnement et la taille du motif de la grille d'artéfacts, transmis dans le flux codé), ou - par détection par des techniques algorithmiques (par exemple par identification 5 automatique des artéfacts par évaluation d'une discontinuité d'image, ou encore par identification de la grille par reconnaissance d'une forme générale de grille comportant des angles droits entre les lignes horizontales et verticales et des pas constants entre les lignes horizontales d'une part et/ou entre les lignes verticales d'autre part ; cette technique peut être précédée par une détection de contours et par l'application d'un 10 filtre médian). Dans le premier exemple ci-dessus, les paramètres peuvent être envoyés du codeur au décodeur et faire partie du flux codé qui sont alors lus au décodage à l'étape S3. Des paramètres susceptibles de définir la grille sont par exemple: 15 - les résolutions respectives de l'image intégrale, du réseau de lentilles, et des micro- images, - la largeur des traits de grille (d'un bord à l'autre). Les pixels dont la position est nulle (modulo la résolution d'une micro-image) sont identifiés comme appartenant à la grille, et leurs voisins contenus dans un intervalle correspondant à la 20 moitié de la largeur d'un trait de grille (en pixels) sont également identifiés comme appartenant à la grille. Dans le deuxième exemple ci-dessus où ces paramètres sont détectés et déterminés au décodage à l'étape S3, la résolution d'une micro-image peut être connue ou encore calculée en 25 déterminant la période (en nombre de pixels) donnant un maximum de l'autocorrélation de l'image. Ensuite, là encore, les pixels dont la position est multiple de la résolution d'une micro-image plus ou moins un seuil (correspondant à une épaisseur de trait de grille) sont identifiés comme appartenant à la grille.In a step S3, the possible artifacts linked here to the MLB boundaries between the micro-images are located in the short block. The MLB boundaries form a grid which can be located by reading its parameters in the data stream. coded (knowledge of parameters such as the positioning and the size of the pattern of the artifact grid, transmitted in the coded stream), or - by detection by algorithmic techniques (for example by automatic identification of the artifacts by evaluation of a image discontinuity, or by identification of the grid by recognizing a general grid shape having right angles between the horizontal and vertical lines and constant steps between the horizontal lines on the one hand and / or between the vertical lines on the other hand, this technique may be preceded by edge detection and the application of a median filter). In the first example above, the parameters can be sent from the encoder to the decoder and be part of the code stream which are then read at decoding in step S3. Possible parameters for defining the grid are, for example: the respective resolutions of the integral image, the lens array, and the micro-images, the width of the grid lines (from one edge to the other) . The pixels whose position is zero (modulo the resolution of a micro-image) are identified as belonging to the grid, and their neighbors contained in an interval corresponding to half the width of a grid line (in pixels ) are also identified as belonging to the grid. In the second example above where these parameters are detected and determined at decoding in step S3, the resolution of a micro-image can be known or calculated by determining the period (in number of pixels) giving a maximum autocorrelation of the image. Then, again, pixels whose position is multiple of the resolution of a micro-image plus or minus a threshold (corresponding to a grid line thickness) are identified as belonging to the grid.

30 Un deuxième moyen, complémentaire ou alternatif, peut consister à moyenner les intensités de pixels par ligne de micro-image. Les lignes dont l'intensité est inférieure à un seuil prédéterminé sont identifiées comme appartenant à la grille.A second means, complementary or alternative, may consist of averaging pixel intensities per micro-image line. Lines whose intensity is below a predetermined threshold are identified as belonging to the grid.

3036016 11 En combinant les deux techniques, de position par corrélation et intensité par lignes de pixels, les pixels répondant à ces deux critères sont alors marqués comme appartenant à la grille, et cette information peut être utilisée au codage pour l'extrapolation, et aussi envoyée au décodeur pour être utilisée au décodage.By combining the two techniques of position by correlation and intensity by rows of pixels, the pixels corresponding to these two criteria are then marked as belonging to the grid, and this information can be used in the coding for the extrapolation, and also sent to the decoder for use in decoding.

5 Dans une étape suivante S4 du décodage, on « extrapole » les pixels de grille MLB éventuellement présents dans le bloc de référence bref, à des pixels « valides » qui se situent à proximité d'une frontière MLB. En effet, il se peut que le bloc de référence bref pointé par le vecteur de mouvement mv contienne une ou plusieurs frontières MLB entre deux micro- 10 images ou plus. L'artéfact lié ici au motif de grille entraîne ce qui peut être interprété à titre purement illustratif comme un contraste d'image qui : - d'une part, est erroné et ne sert donc à rien, en termes d'information à coder, et - d'autre part, est assez coûteux en termes de différences à coder en compression avec une autre zone d'image sans nécessairement le même artéfact.In a next step S4 of the decoding, the MLB gate pixels possibly present in the short reference block are "extrapolated" to "valid" pixels which are in the vicinity of an MLB boundary. Indeed, it is possible that the short reference block pointed to by the motion vector mv contains one or more MLB boundaries between two or more micro-images. The artifact linked here to the grid pattern entails what can be interpreted as purely illustrative as a picture contrast which: - on the one hand, is erroneous and therefore useless, in terms of information to be coded, and on the other hand, is quite expensive in terms of differences to compress in compression with another image area without necessarily the same artifact.

15 On traite alors les pixels de frontière MLB par extrapolation, par exemple à titre purement illustratif en recopiant les pixels non noirs premiers voisins des pixels noirs la frontière MLB, à la place des pixels noirs de la partie de grille MLB qu'inclut le bloc prédicteur bref On a décrit ci-avant des exemples de traitement du motif que forment les frontières MLB. On 20 se réfère maintenant aux figures 8a et 8b pour décrire le traitement des discontinuités (entre micro-images) dans le cas d'un bloc de référence bref incluant au moins deux parties de micro-images distinctes. On comprendra alors que la « correction des artéfacts » dans un bloc de référence englobe, au sens large, le traitement des discontinuités entre micro-images, ainsi que le traitement des frontières MLB entre micro-images (lorsqu'elles sont apparentes, notamment 25 par des pixels noirs). Pour éviter les discontinuités, les pixels de la micro-image suivante qui vient « après » la frontière MLB dans le bloc de référence bref sont aussi remplacés, comme illustré sur les figures 8a et 8b.The MLB boundary pixels are then processed by extrapolation, for example purely by way of copying the neighboring non-black pixels of the black pixels MLB, instead of the black pixels of the MLB grid portion that the block includes. Brief Predictor Examples of processing of the pattern formed by the MLB boundaries have been described above. Reference is now made to FIGS. 8a and 8b to describe the treatment of discontinuities (between micro-images) in the case of a short reference block including at least two distinct micro-image portions. It will be understood that the "correction of artifacts" in a reference block includes, in the broadest sense, the processing of discontinuities between micro-images, as well as the MLB border processing between micro-images (when they are apparent, in particular by black pixels). To avoid discontinuities, the pixels of the next micro-image that "comes after" the MLB boundary in the short reference block are also replaced, as shown in FIGS. 8a and 8b.

30 Sur la figure 8a, le bloc de référence initial bref est à cheval entre deux micro-images consécutives, et englobe leur frontière. Dans l'exemple représenté sur la figure 8b, les pixels de la micro-image de droite sont conservés dans le bloc de référence corrigé bref*. En revanche, les pixels de la micro-image de gauche sont remplacés, au même titre que ceux de la 3036016 12 grille. Ainsi, le bloc bref* est situé à la même position que le bloc de référence initial bref et contient alors la partie commune issue de la micro-image de droite, ainsi que la partie estimée par extrapolation (à gauche). Dans l'exemple donné à titre purement illustratif sur la figure 8b, les teintes de pixels au bord gauche de la micro-image de droite sont simplement réutilisées sur 5 des lignes de pixels extrapolés à gauche du bloc bref*. Plus généralement, l'extrapolation des pixels peut s'effectuer par différentes techniques visant à reproduire au mieux, en continuité, un certain motif (en utilisant un filtre bilatéral, ou en utilisant des techniques de correction automatique d'artéfacts, dites d'« inpainting », en 10 remplaçant les pixels désignés comme masque pour le remplissage, ou en utilisant encore des techniques basées sur des fractales, ou autres). Par ailleurs, selon la réalisation ci-dessus, on extrapole les pixels de la micro-image de droite dans la frontière MLB et dans l'autre micro-image à gauche. Cette réalisation tient compte 15 d'un sens du vecteur de mouvement mv. En effet, on tient compte du sens du vecteur de mouvement mv pour déterminer quelle micro-image utiliser pour « recopier » ses pixels (par extrapolation) ailleurs dans le bloc de référence. En référence à nouveau à la figure 8a, le sens du vecteur de mouvement mv (flèche mv) justifie, dans l'exemple représenté, que les pixels de la micro-image de gauche soient extrapolés et les pixels de la micro-image de droite soient 20 conservés. En revanche, dans le même exemple, pour un vecteur de mouvement mv en sens inverse et dans une même position de bloc bref, les pixels de la micro-image de gauche sont conservés mais ceux de la micro-image de droite extrapolés (à l'inverse de la situation illustrée sur la figure 8b). Ainsi, le sens du vecteur de mouvement mv définit le sens de l'extrapolation d'une micro-image à l'autre dans une telle réalisation.In Fig. 8a, the brief initial reference block straddles two consecutive micro-images, and encompasses their boundary. In the example shown in FIG. 8b, the pixels of the right micro-image are kept in the short corrected reference block *. On the other hand, the pixels of the micro-image on the left are replaced, in the same way as those of the 3036016 12 grid. Thus, the short block * is located at the same position as the initial reference block short and then contains the common part from the micro-image on the right, and the estimated part extrapolation (left). In the example given purely by way of illustration in FIG. 8b, the pixel shades at the left edge of the right micro-image are simply reused on extrapolated pixel lines to the left of the short block *. More generally, the extrapolation of the pixels can be carried out by various techniques aiming to reproduce, in continuity, a certain pattern (by using a bilateral filter, or by using automatic correction techniques for artifacts, called " inpainting ", replacing the pixels designated as mask for filling, or still using fractal-based or other techniques). Moreover, according to the embodiment above, the pixels of the right micro-image are extrapolated in the MLB border and in the other micro-image on the left. This realization takes into account a sense of the motion vector mv. Indeed, we take into account the direction of motion vector mv to determine which micro-image to use to "copy" its pixels (by extrapolation) elsewhere in the reference block. With reference again to FIG. 8a, the direction of the motion vector mv (arrow mv) justifies, in the example represented, that the pixels of the left micro-image are extrapolated and the pixels of the right micro-image are kept. On the other hand, in the same example, for a motion vector mv in the opposite direction and in the same short block position, the pixels of the left micro-image are preserved but those of the right micro-image extrapolated the opposite of the situation illustrated in Figure 8b). Thus, the direction of the motion vector mv defines the direction of extrapolation from one micro-image to another in such an embodiment.

25 Plus particulièrement, il convient de distinguer dans une telle réalisation si l'image intégrale est orthoscopique (les micro-images étant dans le même sens que l'image intégrale) ou pseudoscopique (les micro-images étant inversées par rapport à l'image intégrale, par deux symétries axiales, l'une horizontale et l'autre verticale). On a représenté sur la figure 9 le cas 30 d'une image intégrale pseudoscopique de laquelle sont tirées les micro-images des figures 4, 7a, 8a et 8b, et 12a et 12b. La position du bandeau sur les cheveux du modèle (en haut à droite de la figure 9) est inversée par rapport à l'image réelle intégrale.More particularly, it is appropriate to distinguish in such an embodiment whether the integral image is orthoscopic (the micro-images being in the same sense as the integral image) or pseudoscopic (the micro-images being inverted with respect to the image). integral, by two axial symmetries, one horizontal and the other vertical). FIG. 9 shows the case of a pseudoscopic integral image from which the micro-images of FIGS. 4, 7a, 8a and 8b and 12a and 12b are drawn. The position of the headband on the hair of the model (top right of Figure 9) is reversed compared to the real integral image.

3036016 13 En revanche, sur la figure 7b, qui est le pendant de la figure 7a mais ici pour une image orthoscopique, il apparait bien des micro-images dans le même sens que l'image intégrale. Dans le cas général, l'extrapolation se fait préférentiellement : 5 - dans le sens opposé au vecteur de mouvement mv pour les images orthoscopiques, et - dans le même sens que celui du vecteur de mouvement mv pour les images pseudoscopiques. Ce choix s'explique comme suit, en référence à la figure 10a qui illustre le traitement d'une 10 image intégrale pseudoscopique. Le vecteur mv (flèche en traits pointillés) pointe du bloc courant b (traits pleins) vers le bloc de référence (en traits pointillés) à sa gauche. La position de l'objet (ici un disque) dans les micro-images (MIref left , MIref right) pointées par le vecteur de mouvement est donc décalée vers la gauche par rapport à sa position dans la micro-image courante (MIcurr). La partie de la scène que comporte la micro-image MIref right 15 contenue dans le bloc de référence bref est donc également contenue dans le bloc courant b. La partie de micro-image MIref left contenue dans le bloc de référence bref n'est en revanche pas contenue dans le bloc courant b, et doit alors être remplacée par des valeurs de pixels estimées par extrapolation des valeurs de pixels contenus dans la micro-image MIref right. Il en résulte le bloc de référence corrigé bref de la figure 10b (encadré en traits pleins). Dans l'exemple de 20 la figure 10b, l'extrapolation s'effectue encore à titre illustratif par prolongation des teintes de pixels de l'image MIref right, comme dans l'exemple simple de la figure 8b. En référence à nouveau à la figure 5, on obtient ainsi, à l'étape S5, le bloc de référence « extrapolé » bref, à la même position que le bloc de référence bref. Ce bloc corrigé bref* est 25 alors utilisé (à la place du bloc bref initial, dans l'état de l'art habituel) pour reconstruire à l'étape S6 au décodage le bloc décodé b'. Le bloc décodé est reconstruit à partir du bloc de référence corrigé bref et du résidu Eb obtenu dans le flux codé reçu. Ces étapes sont répétées jusqu'à obtention de tous les blocs décodés b' à l'étape S7.On the other hand, in FIG. 7b, which is the counterpart of FIG. 7a but here for an orthoscopic image, micro-images appear in the same direction as the integral image. In the general case, the extrapolation is preferably: 5 - in the opposite direction to the motion vector mv for the orthoscopic images, and - in the same direction as that of the motion vector mv for the pseudoscopic images. This choice is explained as follows, with reference to FIG. 10a which illustrates the processing of a pseudoscopic integral image. The vector mv (arrow in dashed lines) points from the current block b (solid lines) to the reference block (in dotted lines) to its left. The position of the object (here a disk) in the micro-images (MIref left, MIref right) pointed by the motion vector is shifted to the left with respect to its position in the current micro-image (MIcurr). The part of the scene that includes the MIref right micro-image 15 contained in the short reference block is therefore also contained in the current block b. The micro-image part MIref left contained in the short reference block is however not contained in the current block b, and must then be replaced by estimated pixel values by extrapolation of the pixel values contained in the micro-image. image MIref right. This results in the short corrected reference block of FIG. 10b (box in solid lines). In the example of FIG. 10b, the extrapolation is still carried out by way of illustration by extension of the pixel shades of the MIref right image, as in the simple example of FIG. 8b. Referring again to FIG. 5, in step S5 the short "extrapolated" reference block is thus obtained in the same position as the short reference block. This brief corrected block * is then used (in place of the initial short block, in the state of the art) to reconstruct at decoded step S6 the decoded block b '. The decoded block is reconstructed from the short corrected reference block and the Eb residue obtained in the received code stream. These steps are repeated until all the decoded blocks b 'are obtained in step S7.

30 Le flux codé que reçoit initialement le décodeur peut comporter, outre les vecteurs de mouvement mv et les résidus Eb, une information que transmet le codeur sur la particularité de l'image intégrale : orthoscopique ou pseudoscopique, et éventuellement des paramètres de la 3036016 14 grille que détermine le codeur (position, épaisseur des frontières MLB, pas entre frontières, etc.). Néanmoins, dans une forme de réalisation possible l'information sur la particularité de l'image 5 intégrale : orthoscopique ou pseudoscopique peut être déterminée aussi au décodage. Par exemple, on peut obtenir par recherche de similarité entre blocs (« block matching ») les vecteurs de mouvement entre chaque couple de micro-images adjacentes de l'image intégrale courante. Les vecteurs de mouvement sont ainsi horizontaux et verticaux.The coded stream that the decoder initially receives may comprise, in addition to the motion vectors mv and the residues Eb, information that the encoder transmits on the particularity of the integral image: orthoscopic or pseudoscopic, and possibly parameters of the 3036016. grid that determines the encoder (position, thickness of the MLB boundaries, not between boundaries, etc.). Nevertheless, in one possible embodiment the information on the feature of the integral: orthoscopic or pseudoscopic image can be determined also at decoding. For example, the motion vectors between each pair of adjacent micro-images of the current integral image can be obtained by block matching. The motion vectors are thus horizontal and vertical.

10 Dans le cas pseudoscopique, les vecteurs de mouvement horizontaux entre une micro-image à gauche et une micro-image à droite décrivent le mouvement d'un objet (dans une scène de l'image intégrale) entre la micro-image à gauche et la micro-image à droite et sont orientés de gauche à droite. Le calcul de ces vecteurs montre que plus une micro-image est à droite, et plus l'objet de la scène est situé à droite dans cette micro-image.In the pseudoscopic case, the horizontal motion vectors between a micro-image on the left and a micro-image on the right describe the movement of an object (in a scene of the integral image) between the micro-image on the left and the micro-image on the right and are oriented from left to right. The calculation of these vectors shows that the more a micro-image is on the right, and the more the object of the scene is situated on the right in this micro-image.

15 De façon similaire, les vecteurs de mouvement verticaux entre une micro-image en bas et une micro-image en haut décrivent le mouvement d'un objet entre la micro-image en bas et la micro-image en haut et sont orientés de bas en haut. Le calcul de ces vecteurs montre que plus une micro-image est en bas, et plus l'objet est situé en bas dans cette micro-image.Similarly, the vertical motion vectors between a micro-image at the bottom and a micro-image at the top describe the movement of an object between the micro-image at the bottom and the micro-image at the top and are oriented from below. up. The calculation of these vectors shows that the lower a micro-image, and the lower the object is in this micro-image.

20 Dans le cas orthoscopique, les vecteurs de mouvement horizontaux entre une micro-image à gauche et une micro-image à droite décrivent le mouvement d'un objet entre la micro-image à gauche et la micro-image à droite et sont orientés de droite à gauche. Le calcul de ces vecteurs montre que plus une micro-image est à droite, et plus l'objet de la scène est situé à gauche dans cette micro-image.In the orthoscopic case, the horizontal motion vectors between a micro-image on the left and a micro-image on the right describe the movement of an object between the micro-image on the left and the micro-image on the right and are oriented from right to left. The calculation of these vectors shows that the more a micro-image is on the right, and the more the object of the scene is situated on the left in this micro-image.

25 Les vecteurs de mouvement verticaux entre une micro-image en bas et une micro-image en haut décrivent le mouvement d'un objet entre la micro-image en bas et la micro-image en haut et sont orientés de haut en bas. Le calcul de ces vecteurs montre que plus une micro-image est en bas, et plus l'objet est situé en haut dans cette micro-image.The vertical motion vectors between a micro-image at the bottom and a micro-image at the top describe the movement of an object between the micro-image at the bottom and the micro-image at the top and are oriented from top to bottom. The calculation of these vectors shows that the lower a micro-image, and the higher the object is located in this micro-image.

30 En référence maintenant à la figure 6, au codage, pour chaque vecteur candidat possible lors de la recherche de mouvement à l'étape CS1, on obtient un vecteur de mouvement mv pointant vers un bloc de référence bref à l'étape CS2.Referring now to FIG. 6, to the coding, for each possible candidate vector when searching for motion in step CS1, a motion vector mv is obtained pointing to a short reference block at step CS2.

3036016 15 De manière générale, les traitements présentés ci-avant pour le décodage en référence à la figure 5, et qui permettent de déterminer la position des frontières MLB (paramètres de la grille tels que la position, l'épaisseur des frontières MLB, le pas entre les frontières, etc.), ainsi qu'éventuellement la particularité de l'image intégrale : orthoscopique ou pseudoscopique, 5 sans réception de ces données au décodeur, peuvent être effectués de manière similaire au codage. Ainsi, en référence à la figure 6, l'étape suivante CS3 au codage comporte la localisation des frontières MLB formant la grille, et en particulier dans le bloc de référence bref à traiter.In general, the processes presented above for the decoding with reference to FIG. 5, which make it possible to determine the position of the MLB boundaries (parameters of the grid such as the position, the thickness of the MLB boundaries, the not between the borders, etc.), as well as possibly the particularity of the integral: orthoscopic or pseudoscopic image, without receiving this data at the decoder, can be done similarly to the coding. Thus, with reference to FIG. 6, the following step CS3 to the coding comprises the location of the MLB boundaries forming the gate, and in particular in the short reference block to be processed.

10 L'étape suivante CS4 comporte l'extrapolation de la micro-image pointée par le vecteur de mouvement mv, pour créer le bloc prédicteur extrapolé bref à l'étape CS5, à la même position que le bloc initial bref. L'étape suivante CS6 comporte de façon classique le calcul du résidu Eb par soustraction du 15 bloc prédicteur corrigé bref au bloc courant à coder b. Eventuellement, il peut être prévu une étape supplémentaire CS7 comportant la sélection du meilleur vecteur de mouvement mv par estimation d'une fonction de coût FC. On obtient finalement le flux codé FLC à l'étape CS8 comportant au moins les vecteurs de mouvement et les blocs résiduels. Le flux codé peut comporter aussi initialement par exemple des données d'information selon laquelle l'image est 20 orthoscopique ou pseudoscopique, et éventuellement une information sur les paramètres de grille (position, épaisseur, etc.). Au codage comme au décodage, une étape SOK de sélection de la mise en oeuvre ou non du traitement de l'invention peut être prévue. En effet, afin d'économiser des ressources de calcul, 25 l'activation du traitement de l'invention peut être réalisée de manière automatique selon l'un ou plusieurs des critères d'activation ci-après: - la taille de la zone à extrapoler doit rester réduite (sinon, le traitement n'est pas effectué), - la taille du vecteur de mouvement mv doit être inférieure à un seuil, sans quoi il n'y a 30 aucune chance de retrouver des données de pixels manquantes dans la micro-image lointaine que pointe le vecteur de mouvement.The next step CS4 includes the extrapolation of the micro-image pointed by the motion vector mv, to create the short extrapolated predictor block at step CS5, at the same position as the brief initial block. The following step CS6 conventionally comprises calculating the Eb residue by subtracting the short corrected predictor block from the current block to be coded b. Optionally, there may be an additional step CS7 comprising selecting the best motion vector mv by estimating a cost function FC. Finally, the FLC coded stream is obtained at step CS8 comprising at least the motion vectors and the residual blocks. The coded stream may also initially comprise, for example, information data in which the image is orthoscopic or pseudoscopic, and possibly information on the grid parameters (position, thickness, etc.). Coding as well as decoding, a SOK step of selecting the implementation or not of the treatment of the invention may be provided. Indeed, in order to save computing resources, the activation of the treatment of the invention can be carried out automatically according to one or more of the following activation criteria: the size of the zone to be extrapolate must remain small (otherwise, the processing is not done), - the size of the motion vector mv must be less than a threshold, otherwise there is no chance of finding missing pixel data in the distant micro-image that points the motion vector.

3036016 16 Par ailleurs, le traitement peut s'appliquer à tous les blocs si le ou les critères ci-dessus sont respectés, mais n'a pas besoin d'être mis en oeuvre en particulier dans les cas où le bloc de référence bref ne contient aucune frontière MLB (information obtenue par consultation des données de position de grille). Par ailleurs, si le bloc courant contient une frontière MLB 5 horizontale ou verticale, alors on choisit un vecteur de mouvement mv lui-même horizontal ou vertical. Néanmoins, le vecteur de mouvement peut être diagonal, ce qui implique alors une extrapolation qui ne se restreint pas à une seule dimension. On a représenté sur la figure 11 un dispositif codeur, ainsi qu'un dispositif décodeur au sens de 10 l'invention. Le codeur COD comporte un circuit de traitement incluant par exemple : - une entrée ENT1 pour recevoir les blocs b d'images à coder, - des moyens de traitement MT1 des blocs b, comportant par exemple un processeur PROC1 et une mémoire de travail MEM1, pour appliquer le procédé de l'invention pour le codage des blocs avec une extrapolation de pixels dans les blocs de référence 15 bref*, et - une sortie SOR1 pour délivrer le flux codé FLC résultant du codage des blocs. Le décodeur DECOD comporte un circuit de traitement incluant par exemple : - une entrée ENT2 pour recevoir le flux codé FLC, - des moyens de traitement MT2 du flux FLC, comportant par exemple un processeur 20 PROC2 et une mémoire de travail MEM2, pour appliquer le procédé de l'invention pour le décodage du flux FLC et une correction des blocs de référence bref par extrapolation de leur pixels, et - une sortie SOR2 pour délivrer les blocs b' d'images décodées et disponibles pour une restitution d'image.Moreover, the processing can be applied to all the blocks if the above criterion or criteria are met, but need not be implemented particularly in cases where the short reference block does not need to be used. contains no MLB boundary (information obtained by viewing grid position data). On the other hand, if the current block contains a horizontal or vertical MLB boundary, then a motion vector mv itself horizontal or vertical is chosen. Nevertheless, the motion vector can be diagonal, which implies an extrapolation that is not restricted to a single dimension. FIG. 11 shows an encoder device as well as a decoder device within the meaning of the invention. The coder COD comprises a processing circuit including for example: an input ENT1 for receiving the blocks b of images to be encoded, processing means MT1 of the blocks b, comprising for example a processor PROC1 and a working memory MEM1, to apply the method of the invention for the coding of the blocks with an extrapolation of pixels in the reference blocks 15 brief *, and - an output SOR1 to deliver the FLC coded stream resulting from the coding of the blocks. The DECOD decoder comprises a processing circuit including, for example: an input ENT2 for receiving the FLC coded stream, MT2 processing means of the FLC stream, comprising for example a processor PROC2 and a working memory MEM2, for applying the method of the invention for the decoding of the FLC flux and a correction of the short reference blocks by extrapolation of their pixels, and - an output SOR2 to deliver the blocks b 'of decoded and available images for image restitution.

25 Bien entendu, la présente invention ne se limite pas aux formes de réalisation décrites ci-avant à titre d'exemple ; elle s'étend à d'autres variantes. Typiquement, on a décrit ci-avant une application de l'invention aux images intégrales 30 obtenues à partir d'un réseau de micro-lentilles. Toutefois, elle s'applique à tout type d'images dans lesquelles au moins un artéfact affectant au moins un bloc de référence est à corriger pour assurer une compression efficace. On relèvera d'ailleurs que la redondance des micro-images (propre à une image intégrale) n'est pas utilisée dans les exemples de traitement ci-avant.Of course, the present invention is not limited to the embodiments described above by way of example; it extends to other variants. Typically, an application of the invention to integral images obtained from a microlens array has been described above. However, it applies to any type of image in which at least one artifact affecting at least one reference block is to be corrected to ensure effective compression. It should also be noted that the redundancy of the micro-images (specific to an integral image) is not used in the treatment examples above.

3036016 17 Ainsi, une image intégrale comprenant une multiplicité de micro-images n'est pas une caractéristique essentielle pour la mise en oeuvre de l'invention, l'essentiel étant d'avoir une détermination de la position de l'artéfact à supprimer dans le bloc de référence à corriger.Thus, an integral image comprising a multiplicity of micro-images is not an essential characteristic for the implementation of the invention, the essential point being to have a determination of the position of the artifact to be deleted in the reference block to correct.

5 Par ailleurs, sur la figure 4 notamment, il apparait un motif d'artéfacts que forment les frontières MLB entre micro-images sous la forme d'une « grille » de lignes horizontales et verticales. Néanmoins, avec des dispositifs d'acquisition ayant des lentilles de formes différentes (hexagonales, sphériques, carrées, ou autres) ou encore de différentes tailles (dispositif « RaytrixTm »), ou encore disposées en quinconce plutôt qu'alignées, le motif 10 d'artéfacts peut avoir un aspect différent (en nid d'abeille par exemple, ou autre), les principales étapes de traitement selon l'invention n'étant pas modifiées pour autant (recherche de cette forme de motif particulière, correction des pixels dans les régions identifiées).Furthermore, in FIG. 4 in particular, there appears a pattern of artifacts that the MLB boundaries form between micro-images in the form of a "grid" of horizontal and vertical lines. Nevertheless, with acquisition devices having lenses of different shapes (hexagonal, spherical, square, or other) or of different sizes ("RaytrixTM" device), or arranged in staggered rows rather than aligned, the pattern 10 d artifacts can have a different appearance (honeycomb for example, or other), the main processing steps according to the invention are not modified so far (search for this particular form of pattern, correction of the pixels in the identified regions).

Claims (15)

REVENDICATIONS1. Procédé de décodage par prédiction d'un bloc courant d'au moins une image courante, dans lequel on obtient un vecteur de mouvement (mv) pointant vers un bloc de référence (bref) d'une zone de pixels préalablement décodée, ladite zone de pixels comportant un artéfact ayant une position déterminée, caractérisé en ce qu'il comporte : - déterminer (S3), en fonction de la position de l'artéfact dans ladite zone de pixels, si le bloc de référence comporte au moins une partie de l'artéfact, - le cas échéant, corriger (S4) le bloc de référence en corrigeant des pixels au moins de ladite partie de l'artéfact par extrapolation à partir d'autres pixels de ladite zone de pixels, et - utiliser le bloc de référence corrigé (bref) pour le décodage (S6) par prédiction.REVENDICATIONS1. A method of decoding by prediction of a current block of at least one current image, in which a motion vector (mv) is obtained pointing to a reference block (short) of a previously decoded pixel area, said area of pixels comprising an artifact having a determined position, characterized in that it comprises: - determining (S3), as a function of the position of the artifact in said pixel area, if the reference block comprises at least a part of the artifact, - where appropriate, correcting (S4) the reference block by correcting pixels of at least said part of the artifact by extrapolation from other pixels of said pixel area, and - using the reference block corrected (short) for decoding (S6) by prediction. 2. Procédé de codage par prédiction d'un bloc courant d'au moins une image courante dans lequel on détermine un vecteur de mouvement (mv) pointant vers un bloc de référence (bref) d'une zone de pixels, ladite zone de pixels comportant un artéfact ayant une position déterminée, caractérisé en ce qu'il comporte : - déterminer (CS3), en fonction de la position de l'artéfact dans ladite zone de pixels, si le bloc de référence comporte au moins une partie de l'artéfact, - le cas échéant, corriger (CS4) le bloc de référence en corrigeant des pixels au moins de ladite partie de l'artéfact (CS4) par extrapolation à partir d'autres pixels de ladite zone de pixels, et - utiliser le bloc de référence corrigé (bref) pour le codage (CS6), par prédiction.2. Method for coding by prediction of a current block of at least one current image in which a motion vector (mv) pointing to a reference block (short) of a pixel area, said pixel area is determined comprising an artifact having a determined position, characterized in that it comprises: - determining (CS3), as a function of the position of the artifact in said pixel area, if the reference block comprises at least a part of the artifact, - where appropriate, correcting (CS4) the reference block by correcting pixels of at least said part of the artifact (CS4) by extrapolation from other pixels of said pixel area, and - using the block corrected reference (brief) for coding (CS6), by prediction. 3. Procédé selon l'une des revendications 1 et 2, caractérisé en ce que la position de l'artefact est associée à au moins un paramètre à transmettre dans un flux codé, ledit au moins paramètre étant obtenu au codage et étant utilisé au décodage pour identifier la position de l'artefact dans un bloc de référence d'une zone de pixels préalablement décodée.3. Method according to one of claims 1 and 2, characterized in that the position of the artifact is associated with at least one parameter to be transmitted in a coded stream, said at least parameter being obtained coding and being used decoding to identify the position of the artifact in a reference block of a previously decoded pixel area. 4. Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce que l'image courante est une image intégrale, constituée de micro-images séparées entre elles par des motifs de grille (MLB) correspondant à l'artéfact. 3036016 194. Method according to any one of claims 1 to 3, characterized in that the current image is an integral image, consisting of micro-images separated from each other by grid patterns (MLB) corresponding to the artifact. 3036016 19 5. Procédé selon la revendication 4, caractérisé en ce que les pixels corrigés sont : - des pixels d'une partie de motif de grille que comporte le bloc de référence, et - des pixels d'une partie d'au moins une micro-image, adjacente à une partie d'au moins une autre micro-image, lesdites parties étant contenues dans le bloc de référence, les pixels de 5 ladite au moins une autre micro-image étant utilisés sans ladite correction pour constituer le bloc de référence corrigé (bref).5. Method according to claim 4, characterized in that the corrected pixels are: pixels of a part of the grid pattern that comprises the reference block, and pixels of a part of at least one micro-pixel. image, adjacent to a portion of at least one other micro-image, said portions being contained in the reference block, the pixels of said at least one other micro-image being used without said correction to constitute the corrected reference block (short). 6. Procédé selon la revendication 5, caractérisé en ce que la micro-image dont les pixels sont corrigés est fonction : 10 - de la direction du vecteur de mouvement, et - selon un mode d'acquisition de l'image intégrale orthoscopique ou pseudoscopique, avec, pour une direction donnée du vecteur mouvement : - les pixels de la partie de ladite au moins une micro-image située dans une première position par rapport à la partie de ladite au moins une autre micro-image, à corriger si 15 l'image est pseudoscopique, et - les pixels de la partie de ladite au moins une micro-image située dans une deuxième position par rapport à la partie de ladite au moins une autre micro-image, à corriger si l'image est orthoscopique la première position étant distincte de la deuxième position. 206. Method according to claim 5, characterized in that the micro-image whose pixels are corrected is a function of: - the direction of the motion vector, and - according to a mode of acquisition of the orthoscopic or pseudoscopic integral image with, for a given direction of the motion vector: - the pixels of the part of said at least one micro-image located in a first position with respect to the part of said at least one other micro-image, to be corrected if image is pseudoscopic, and - the pixels of the part of said at least one micro-image located in a second position with respect to the part of said at least one other micro-image, to be corrected if the image is orthoscopic the first position being distinct from the second position. 20 7. Procédé selon la revendication 6, caractérisé en ce qu'une donnée indiquant si l'image intégrale est orthoscopique ou pseudoscopique est déterminée au codage et au décodage.7. Method according to claim 6, characterized in that a data item indicating whether the integral image is orthoscopic or pseudoscopic is determined at the coding and decoding. 8. Procédé selon l'une des revendications 4 à 7, caractérisé en ce que, pour déterminer si le 25 bloc de référence comporte au moins une partie du motif de grille, on identifie la position du motif de grille dans l'image par la mise en oeuvre de l'une au moins des étapes : - par recherche de corrélations dans l'image intégrale, - par détection de pixels correspondant à des motifs de grille comparativement à d'autres pixels de l'image intégrale. 308. Method according to one of claims 4 to 7, characterized in that, in order to determine if the reference block comprises at least a part of the grid pattern, the position of the grid pattern in the image is identified by the implementing at least one of the steps: - by searching for correlations in the integral image, - by detecting pixels corresponding to grid patterns compared to other pixels of the integral image. 30 9. Procédé selon l'une des revendications précédentes, caractérisé en ce que la correction des pixels de la partie d'artéfact dans le bloc de référence s'effectue en se référant au moins à des pixels voisins de l'artefact. 3036016 209. Method according to one of the preceding claims, characterized in that the pixel correction of the artifact portion in the reference block is performed with reference to at least pixels adjacent to the artifact. 3036016 20 10. Procédé selon la revendication 9, caractérisé en ce que la correction s'effectue par recopie des pixels voisins des pixels à corriger.10. The method of claim 9, characterized in that the correction is performed by copying neighboring pixels of the pixels to be corrected. 11. Procédé selon la revendication 9, caractérisé en ce que la correction s'effectue par 5 remplissage de masque correspondant aux pixels à corriger par une technique de type inpainting.11. Method according to claim 9, characterized in that the correction is performed by mask filling corresponding to the pixels to be corrected by an inpainting technique. 12. Décodeur par prédiction d'un bloc courant d'au moins une image courante, comportant un circuit de traitement (PROC2, MEM2) pour obtenir un vecteur de mouvement (mv) pointant 10 vers un bloc de référence (bref) d'une zone de pixels préalablement décodée, ladite zone de pixels comportant un artéfact ayant une position déterminée, caractérisé en ce que le circuit de traitement est agencé pour : - déterminer, en fonction de la position de l'artéfact dans ladite zone de pixels, si le bloc de référence comporte au moins une partie de l'artéfact, 15 - le cas échéant, corriger le bloc de référence en corrigeant des pixels au moins de ladite partie de l'artéfact par extrapolation à partir d'autres pixels de ladite zone de pixels, et - utiliser le bloc de référence corrigé (bref) pour le décodage par prédiction.12. Decoder by prediction of a current block of at least one current image, comprising a processing circuit (PROC2, MEM2) to obtain a motion vector (mv) pointing to a reference block (brief) of a previously decoded pixel area, said pixel area having an artifact having a determined position, characterized in that the processing circuit is arranged to: - determine, as a function of the position of the artifact in said pixel area, whether the reference block comprises at least a part of the artifact, 15 - where appropriate, correcting the reference block by correcting pixels of at least said part of the artifact by extrapolation from other pixels of said pixel area , and - use the corrected reference block (brief) for prediction decoding. 13. Programme informatique caractérisé en ce qu'il comporte des instructions pour la mise en 20 oeuvre du procédé de décodage selon l'une des revendications 1, 3 à 11, lorsque ce programme est exécuté par un processeur.13. Computer program characterized in that it comprises instructions for implementing the decoding method according to one of claims 1, 3 to 11, when the program is executed by a processor. 14. Codeur par prédiction d'un bloc courant d'au moins une image courante, comportant un circuit de traitement (PROC 1, MEM1) pour déterminer un vecteur de mouvement (mv) 25 pointant vers un bloc de référence (bref) d'une zone de pixels préalablement codée, ladite zone de pixels comportant un artéfact ayant une position déterminée, caractérisé en ce que le circuit de traitement est agencé pour : déterminer, en fonction de la position de l'artéfact dans ladite zone de pixels, si le bloc de référence comporte au moins une partie de l'artéfact, 30 le cas échéant, corriger le bloc de référence en corrigeant des pixels au moins de ladite partie de l'artéfact par extrapolation à partir d'autres pixels de ladite zone de pixels, et utiliser le bloc de référence corrigé (bref) pour le codage par prédiction. 3036016 2114. Coder by prediction of a current block of at least one current image, comprising a processing circuit (PROC 1, MEM1) for determining a motion vector (mv) pointing to a reference block (brief) of a previously coded pixel area, said pixel area comprising an artifact having a determined position, characterized in that the processing circuit is arranged to: determine, as a function of the position of the artifact in said pixel area, whether the reference block comprises at least a part of the artifact, if necessary, correcting the reference block by correcting pixels at least of said part of the artifact by extrapolation from other pixels of said pixel area, and use the corrected reference block (brief) for prediction coding. 3036016 21 15. Programme informatique caractérisé en ce qu'il comporte des instructions pour la mise en oeuvre du procédé de codage selon l'une des revendications 2 à 11, lorsque ce programme est exécuté par un processeur.15. Computer program characterized in that it comprises instructions for implementing the coding method according to one of claims 2 to 11, when the program is executed by a processor.
FR1554106A 2015-05-07 2015-05-07 PREDICTIVE CODING / DECODING OF IMAGES HAVING ARTIFACT USING EXTRAPOLATION Active FR3036016B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1554106A FR3036016B1 (en) 2015-05-07 2015-05-07 PREDICTIVE CODING / DECODING OF IMAGES HAVING ARTIFACT USING EXTRAPOLATION

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1554106A FR3036016B1 (en) 2015-05-07 2015-05-07 PREDICTIVE CODING / DECODING OF IMAGES HAVING ARTIFACT USING EXTRAPOLATION
FR1554106 2015-05-07

Publications (2)

Publication Number Publication Date
FR3036016A1 true FR3036016A1 (en) 2016-11-11
FR3036016B1 FR3036016B1 (en) 2018-10-12

Family

ID=53404795

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1554106A Active FR3036016B1 (en) 2015-05-07 2015-05-07 PREDICTIVE CODING / DECODING OF IMAGES HAVING ARTIFACT USING EXTRAPOLATION

Country Status (1)

Country Link
FR (1) FR3036016B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112566559A (en) * 2018-07-11 2021-03-26 皇家飞利浦有限公司 Ultrasound imaging system with pixel extrapolation image enhancement

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003094525A1 (en) * 2002-04-30 2003-11-13 Koninklijke Philips Electronics N.V. Method of processing digital images for low-rate applications.
EP1978755A2 (en) * 2007-04-04 2008-10-08 Mitsubishi Electric Corporation Method and system for acquiring, encoding, decoding and displaying 3D light fields
JP2014212436A (en) * 2013-04-18 2014-11-13 キヤノン株式会社 Encoder, coding method and program, and imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003094525A1 (en) * 2002-04-30 2003-11-13 Koninklijke Philips Electronics N.V. Method of processing digital images for low-rate applications.
EP1978755A2 (en) * 2007-04-04 2008-10-08 Mitsubishi Electric Corporation Method and system for acquiring, encoding, decoding and displaying 3D light fields
JP2014212436A (en) * 2013-04-18 2014-11-13 キヤノン株式会社 Encoder, coding method and program, and imaging device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KWAN-JUNG OH ET AL: "Hole filling method using depth based in-painting for view synthesis in free viewpoint television and 3-D video Â", PICTURE CODING SYMPOSIUM 2009; 6-5-2009 - 8-5-2009; CHICAGO,, 6 May 2009 (2009-05-06), XP030081803 *
PAULO NUNES ET AL: "Recent Advances in 3D Holoscopic Video", 100. MPEG MEETING; 30-4-2012 - 4-5-2012; GENEVA; (MOTION PICTURE EXPERT GROUP OR ISO/IEC JTC1/SC29/WG11),, no. m25146, 3 May 2012 (2012-05-03), XP030053489 *
RAMACHANDRA V ET AL: "Depth-based 2D-3D combined scene images for 3D multiview displays", VISUAL COMMUNICATIONS AND IMAGE PROCESSING; 20-1-2009 - 22-1-2009; SAN JOSE,, 20 January 2009 (2009-01-20), XP030081726 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112566559A (en) * 2018-07-11 2021-03-26 皇家飞利浦有限公司 Ultrasound imaging system with pixel extrapolation image enhancement

Also Published As

Publication number Publication date
FR3036016B1 (en) 2018-10-12

Similar Documents

Publication Publication Date Title
EP0547696B1 (en) System for the transmission and/or storage of signals corresponding to textured images
US8983175B2 (en) Video processing method and device for depth extraction
JP6837056B2 (en) Methods and equipment for encoding and decoding light field-based images and corresponding computer program products
FR2932911A1 (en) METHOD AND DEVICE FOR FILLING THE OCCULTATION ZONES OF A DEPTH CARD OR DISPARITIES ESTIMATED FROM AT LEAST TWO IMAGES.
EP1473944A2 (en) Digital video watermarking method with adaptive selection of the watermarking area, watermarking detection method, device, corresponding computer readable storage medium and computer program product.
FR2974966A1 (en) METHOD FOR ENCODING AND DECODING INTEGRAL IMAGES, DEVICE FOR ENCODING AND DECODING INTEGRAL IMAGES, AND CORRESPONDING COMPUTER PROGRAMS
FR2920632A1 (en) METHOD AND DEVICE FOR DECODING VIDEO SEQUENCES WITH ERROR MASKING
FR2933565A1 (en) METHOD AND DEVICE FOR ENCODING AN IMAGE SEQUENCE USING TEMPORAL PREDICTION, SIGNAL, DATA MEDIUM, DECODING METHOD AND DEVICE, AND CORRESPONDING COMPUTER PROGRAM PRODUCT
Jantet Layered depth images for multi-view coding
EP2347590A1 (en) Image prediction with forward motion compensation
FR2963190A1 (en) METHOD AND DEVICE FOR ENCODING AN IMAGE SEQUENCE
EP3198876B1 (en) Generation and encoding of residual integral images
FR2813485A1 (en) METHOD FOR CONSTRUCTING AT LEAST ONE INTERPRETED IMAGE BETWEEN TWO IMAGES OF AN ANIMATED SEQUENCE, METHODS OF ENCODING AND DECODING, SIGNAL AND CORRESPONDING DATA CARRIER
FR3036016A1 (en) PREDICTIVE CODING / DECODING OF IMAGES HAVING ARTIFACT USING EXTRAPOLATION
EP0021948A1 (en) Apparatus for following and recurringly estimating the local state of image contours and application to adaptive prediction for differential encoding of television signals
EP3861751A1 (en) Coding and decoding of an omnidirectional video
FR2934453A1 (en) ERROR MASKING METHOD AND DEVICE
EP3649786A1 (en) Method for encoding and decoding images, encoding and decoding device, and corresponding computer programs
EP2561679A1 (en) Method for processing a piece of movement information and encoding methods
CA2376684C (en) Optimal video decoder based on mpeg-type standards
EP2761876A1 (en) Method and device for filtering a disparity map
WO2010086562A1 (en) Method and device for encoding images using separate encoding modes, decoding method and device, and corresponding computer programs
WO2021136895A1 (en) Iterative synthesis of views from data of a multi-view video
WO2023247208A1 (en) Method for segmenting a plurality of data, and corresponding coding method, decoding method, devices, systems and computer program
EP3991401A1 (en) Method and device for processing multi-view video data

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20161111

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10