EP2761876A1 - Method and device for filtering a disparity map - Google Patents

Method and device for filtering a disparity map

Info

Publication number
EP2761876A1
EP2761876A1 EP12775782.1A EP12775782A EP2761876A1 EP 2761876 A1 EP2761876 A1 EP 2761876A1 EP 12775782 A EP12775782 A EP 12775782A EP 2761876 A1 EP2761876 A1 EP 2761876A1
Authority
EP
European Patent Office
Prior art keywords
disparity
pixels
value
values
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP12775782.1A
Other languages
German (de)
French (fr)
Inventor
Cedric Thebault
Philippe Robert
Sylvain Thiebaud
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
InterDigital CE Patent Holdings SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of EP2761876A1 publication Critical patent/EP2761876A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Definitions

  • the present invention relates to a stereoscopic image and more particularly to a method and a device for filtering the disparity map associated with such an image.
  • 3D view synthesis or 3D view interpolation is to create a 3D rendering other than that represented by the source stereoscopic image.
  • the 3D rendering then adjusts to the chosen application or the user.
  • the views needed to address multi-view screens are mostly recreated from a single stereoscopic image.
  • this synthesis of view is based on the source stereoscopic image and on a map of disparity.
  • the disparity map is generally associated with a right or left source image in the case of a stereoscopic image and provides for each pixel a datum representing the distance (in number of pixels) between the position of this image element in the right image and in the left image.
  • This view synthesis can also be based on a depth map because it is possible to return to a depth value from the disparity value, or vice versa, by introducing certain data, such as the size of the screen or the distance between the observer and the screen using an algorithm known to those skilled in the art.
  • this disparity map is projected at the level of the view you want to generate. After this projection, we therefore have a modified disparity map corresponding to the desired view, each pixel of this disparity map modified indicates a disparity value which will then be used to adapt the information corresponding to the right or left image to regenerate.
  • the disparity vector of each pixel to be interpolated must point to the same points of objects in the right and left images.
  • Document US2010 / 0215251 describes a method and a device for processing a depth map.
  • the method consists in obtaining a depth map based on a compressed depth map including the depth information of a captured scene.
  • the scene has an object.
  • Occlusion information including information occluded by the object in the depth map is provided. At least a portion of the occlusion information is then used to reduce the distortions of the artifacts in the depth map.
  • This document therefore relates to an information processing method for the correction of a depth map related to an area obscured by an object.
  • our invention aims to overcome a different problem which concerns so-called transition pixels located on the edges of objects. If, for example, a scene has two flat objects located at fixed and distinct depths, the disparity map associated with the elements of the right view or the left view should contain only two values, the value of the disparity of the first object. and that distinct from the disparity of the second object since there are only two possibilities in the scene with two different disparities.
  • the disparity map containing only two disparity values it is in this case easy to project the disparity map on an intermediate view between the left view and the right view and thus to interpolate one of the two images.
  • transitions results from a mixture between the disparity value of the pixel of the first object and that of the second object.
  • This problem of erroneous or outlier disparity value is present in the disparity maps obtained by a disparity map estimator and in disparity maps of the CGI contents.
  • a possible solution to the above-mentioned problem would be to use unfiltered disparity maps (that is, crenellated at the contours of the objects). Unfortunately if it is possible to consider this kind of map for CGI content, disparity estimators will most often naturally generate intermediate values between different objects.
  • the present invention provides a method for overcoming the disadvantages mentioned.
  • the invention consists of a filtering method of a disparity map associated with one of the views of a stereoscopic image comprising at least one object partially covering an area obscured by this object.
  • the method comprises the steps of determining at least one transition zone around the object, identifying the pixels of this transition zone whose disparity value is considered as erroneous compared with the disparity values of the neighboring pixels.
  • This method therefore allows intelligent filtering that only filters out doubtful disparity values and thus preserves the majority of the disparity map.
  • the step of identifying pixels having an erroneous disparity value consists in identifying as erroneous any pixel whose disparity value is not between the disparity values of the neighboring pixels (x n- i, x n + i) ⁇
  • the step of identifying pixels having an erroneous disparity value consists in identifying as erroneous any pixel whose disparity value is different from the disparity values of the neighboring pixels (x n- i, x n + i) of a determined threshold value.
  • the step of correcting the erroneous disparity values of the pixels consists in replacing the disparity value of the pixels identified by a value calculated as a function of the disparities of the neighboring pixels.
  • the step of correcting the erroneous pixel disparity values consists in eliminating the disparity value of the identified pixels.
  • the step of correcting the disparity values of the pixels consists in determining which disparity value of the neighboring pixels ( ⁇ ⁇ - ⁇ , ⁇ ⁇ + ⁇ ), the disparity value of the identified pixel is the closest, then to replace the pixel disparity value identified by a replacement value corresponding to the value of one of the neighboring pixels (x i n, x n + i), the disparity value is closest.
  • the method comprises the additional step, after the
  • the invention also consists in a device for generating three-dimensional image display signals comprising at least one object partially covering a zone obscured by this object comprising a device for transmitting a first flow of data corresponding to one of the right or left images to be transmitted, and a second data stream corresponding to the disparity map associated with one of the right or left images to be transmitted and a device for receiving data streams for displaying three-dimensional images.
  • It comprises a device for filtering the disparity map comprising means for determining at least one transition zone around the object, means for identifying the pixels (x n ) of this transition zone whose value of disparity (d (x n )) is considered erroneous by comparison with disparity values of neighboring pixels (x n- i, x n + i)
  • FIG. 1 represents a system for delivering 3D content and containing a device for filtering the elements of a disparity card according to the invention, either at the level of the signal generation device or at the level of the receiver.
  • FIG. 2 represents a block diagram explaining a filtering method according to the invention.
  • Figure 3 shows the disparity values of a disparity map of a system without a filtering device.
  • FIG. 4 represents the disparity values of a disparity card of a system with filtering device according to the invention.
  • the system as represented by FIG. 1 is a device for generating display signals for at least one three-dimensional image (3D). It comprises in the transmission device a generation means 2 of two data streams representing the pixels, or picture elements (in English "picture elements" or "pixels") of the images. left and right respectively, a means 3 for generating a data stream corresponding to the difference information of the pixels of the right or left image represented by a disparity map for each image, a selection means 4 of one of the streams of data of the right or left image to be transmitted, a transmission means 5 of one of the data streams corresponding to the selected right or left image and the data flow corresponding to the disparity map.
  • a generation means 2 of two data streams representing the pixels, or picture elements (in English "picture elements" or "pixels" of the images. left and right respectively, a means 3 for generating a data stream corresponding to the difference information of the pixels of the right or left image represented by a disparity map for each image, a selection means 4 of one of the streams of data of the
  • a filtering device 6 disparity values of the various elements of the disparity map for the detection of erroneous values and the replacement of these values by other disparity values depending on the disparities of neighboring elements of the disparity map associated with the means of generating the data of the disparity map.
  • a data receiving device receives the two data streams corresponding to one of the right or left images and the disparity map respectively and provides an interface 7 with the 3D image display signals to a screen or display device 8
  • the filtering device 6 of the disparity card is situated at the level of the signal receiver device and not at the level of the transmission device.
  • the method according to the invention consists in filtering the disparity map 6 so as to determine, eliminate or replace the "dubious" disparity values.
  • the term "dubious" disparity value is defined as the pixel disparity values of the transition zones that do not correspond to one of the disparity values of the neighboring pixels.
  • This method allows intelligent filtering that only filters out questionable disparity values and thus preserves the majority of the disparity map.
  • the disparity map represents sampled information. We must therefore solve the sampling problems. This is why the method according to the invention consists in filtering the disparity map to improve the contours of objects that suffer from this lack of sampling. This filtering method must first correctly identify the erroneous disparity values, and secondly correct these values.
  • the erroneous disparity values are intermediate values between actual disparity values in that these disparity values correspond to depths where an object is located. But the disparity values can be locally increasing or decreasing in the presence of a surface not parallel to the plane of the screen. The definition of the detection algorithm must take into account these different cases.
  • the method proposed here is associated with a study of pixels belonging to a horizontal line along the x-axis, but it would be possible to use vertical information as well.
  • the disparity values d (x n ) of pixels x n are determined as erroneous if these values differ from the disparity values d (x n- i) and d (x n + i) of the two neighboring pixels horizontally direct x n- i and x n + i of a value greater than the difference
  • Another criteria can be used to define what will be considered as erroneous disparity value.
  • One method consists in comparing the disparity value of a pixel with respect to a determined threshold value as a function of the disparities of the neighboring pixels. Threshold values can thus be added. For example, it is possible to determine as erroneous pixels whose disparity values (expressed in pixels) different from more than 2 pixels with its two neighbors.
  • the determination of the erroneous disparity values is therefore done by comparing these values d (x n ) with the disparity values d (x n- 2), d (x n- i), d ( x n + i) or d (x n- i), d (Xn + i), d (x n + 2) of four other neighboring pixels x n- 2 x n -i n + ix n + 2 ⁇
  • the first step 100 corresponds to identifying the pixels N pixels having erroneous disparity values by comparison with the disparity values of the neighboring pixels N-1 and N + 1:
  • Steps 101 and 102 then make it possible to determine whether the disparity d (x n ) of the pixel x n lies between those d (x n- i) and d (x n + 1) of the pixels x n- i and x n + i and, in step 101 and step 102, comparing the disparities of pixels x n- i and x n + i : d (x n- i) ⁇ d (Xn) ⁇ d (x n + i) or (x n- i)> d (Xn)> d (x n + i)
  • Step 103 corresponds to the case where the value of the disparity is not between those of the neighboring pixels. A correction of this value is necessary. This value can be replaced by the nearest disparity value or deleted.
  • steps 104 and 105 the disparity gap between the pixels x n and x n- i is compared with that between x n and x n + i. These steps correspond to a comparison study determining if the disparity value of x n is closer to that of x n + i or x n- i. In the case of a pixel located on the border between two objects, this amounts to determining which object this pixel is closest to:
  • Step 106 makes it possible to take into account a variable disparity (increasing or
  • This step therefore makes it possible to determine a replacement disparity value of (x n ) corresponding to the maximum value of the sum between the disparity d (x n- i) of the pixel x n- i and the difference between the disparities d (x n- 2) and d (x n- i) pixesl x n- 2 and x n- i.
  • the disparity of replacement values (x n) are determined taking into account a variable disparity for objects corresponding to the adjacent pixels n x 2 and x n i or x n + i and x n + 2- Maximum values are determined if d (x n ) is closer to the larger value of the two disparity values. And minimal values are determined if d (x n ) is closer to the smaller value of the two disparity values.
  • step 1 if the erroneous disparity value of the pixel is not greater than this maximum value determined in step 106, the erroneous disparity value of the pixel x n is replaced by the disparity value of the pixel.
  • the erroneous disparity value of the pixel x n is replaced by the minimum or maximum value determined during the preceding step or by the disparity value of the next pixel x n + 1 or preceding x n i.
  • the process described by this mimic can be refined by taking into account a large change of disparity or particular cases.
  • the last steps 1 10 - 1 16 therefore preferably assign a new value to the disparity value according to the preceding criteria. It is alternatively possible to replace this step with a deletion of the disparity value.
  • the filtering method proposed by the invention is symmetrical and therefore treats the right and left edges of the objects in the same way, although the problems related to these edges are different.
  • the examples concern the interpolation of the right edge of objects in the foreground from the disparity map associated with the left view or the interpolation of the left edge of the objects in the foreground from the map of disparity associated with the right view because artifact problems are the most important.
  • the method provides processing on the right edge of the objects in the foreground for the interpolation from the disparity map associated with the left view. Similarly and according to another variant of the invention, the method provides processing on the left edge of the objects in the foreground for the interpolation from the disparity map associated with the right view.
  • This dissociation taking place in the first step (d (xn-1) ⁇ d (xn) ⁇ d (xn + 1) or d (xn-1)> d (xn)> d (xn + 1)), It would suffice to retain only one of these conditions to pre-filter only one side.
  • FIG. 3 represents the disparity values of a disparity map of an image comprising two elements of disparities different from a system without a filtering device. These two values are represented by a light gray and a dark gray
  • FIG. 4 represents the disparity values of a disparity card of a system with filtering device according to the invention.
  • the erroneous disparity values have been corrected and replaced by one of the two existing values according to the method according to the invention.
  • the disparity map has only two values.

Abstract

The invention relates to a method of filtering a map of disparity associated with one of the views of a stereoscopic image comprising the steps of identifying the pixels (xn) with which is associated an erroneous disparity value (d(xn)) by comparison with the disparity values of the neighbouring pixels (xn-1,xn+1) and of correcting the disparity values of the identified pixels.

Description

Méthode et dispositif de filtrage d'une carte de disparité  Method and device for filtering a disparity map
La présente invention concerne une image stéréoscopique et plus particulièrement une méthode et un dispositif de filtrage de la carte de disparité associée à une telle image . The present invention relates to a stereoscopic image and more particularly to a method and a device for filtering the disparity map associated with such an image.
La synthèse de vue 3D ou l'interpolation de vue 3D consiste à créer un rendu3D autre que celui représenté par l'image stéréoscopique source. Le rendu 3D s'ajuste alors à l'application choisie ou à l'utilisateur. Les vues nécessaires pour adresser les écrans multi-vues sont pour la plupart recrées à partir d'une seule image stéréoscopique. 3D view synthesis or 3D view interpolation is to create a 3D rendering other than that represented by the source stereoscopic image. The 3D rendering then adjusts to the chosen application or the user. The views needed to address multi-view screens are mostly recreated from a single stereoscopic image.
En effet cette synthèse de vue s'appuie sur l'image stéréoscopique source et sur une carte de disparité. La carte de disparité est généralement associée à une image source droite ou gauche dans le cas d'une image stéréoscopique et fournit pour chaque élément d'image une donnée représentant la distance (en nombre de pixels) entre la position de cet élément d'image dans l'image droite et dans l'image gauche. Indeed, this synthesis of view is based on the source stereoscopic image and on a map of disparity. The disparity map is generally associated with a right or left source image in the case of a stereoscopic image and provides for each pixel a datum representing the distance (in number of pixels) between the position of this image element in the right image and in the left image.
Cette synthèse de vue peut s'appuyer également sur une carte de profondeur car il est possible de revenir à une valeur de profondeur à partir de la valeur de disparité, ou inversement, en introduisant certaines données, telles la taille de l'écran ou la distance entre l'observateur et l'écran à l'aide d'algorithme connu de l'homme de métier. This view synthesis can also be based on a depth map because it is possible to return to a depth value from the disparity value, or vice versa, by introducing certain data, such as the size of the screen or the distance between the observer and the screen using an algorithm known to those skilled in the art.
Pour créer une nouvelle vue par interpolation à partir d'une image source droite ou gauche et de la carte de disparité associée, cette carte de disparité est projetée au niveau de la vue que l'on veut générer. Après cette projection, on dispose donc d'une carte de disparité modifiée correspondant à la vue souhaitée, chaque pixel de cette carte de disparité modifiée indique une valeur de disparité qui va être ensuite utilisée pour adapter les informations correspondant à l'image droite ou gauche à régénérer. To create a new interpolated view from a right or left source image and the associated disparity map, this disparity map is projected at the level of the view you want to generate. After this projection, we therefore have a modified disparity map corresponding to the desired view, each pixel of this disparity map modified indicates a disparity value which will then be used to adapt the information corresponding to the right or left image to regenerate.
Le vecteur de disparité de chaque pixel à interpoler doit pointer sur les mêmes points d'objets dans les images droite et gauche. The disparity vector of each pixel to be interpolated must point to the same points of objects in the right and left images.
Cependant, une gestion des zones d'occultation est nécessaire car il existe des pixels dans l'image à interpoler qui supportent des points d'objets visibles dans une image et absents dans l'autre. En effet ces objets qui sont dans le champ d'une première vue, sont soit en dehors du champ d'une scène d'une seconde vue, soit occultés par un objet d'avant-plan. Ces pixels particuliers doivent être interpolés uniquement à partir de l'image qui contient le point correspondant. Il est donc nécessaire d'identifier ces pixels particuliers et de leur attribuer une disparité. However, management of the obscuration zones is necessary because there are pixels in the image to interpolate that support points of visible objects in one image and absent in the other. Indeed these objects that are in the field of a first sight, are either outside the field of a scene from a second view, or obscured by a foreground object. These particular pixels must be interpolated only from the image that contains the corresponding point. It is therefore necessary to identify these particular pixels and to assign them a disparity.
Le document US2010/0215251 décrit une méthode et un dispositif de traitement d'une carte de profondeur. La méthode consiste à obtenir une carte de profondeur basée sur une carte de profondeur comprimée comprenant l'information de profondeur d'une scène capturée. La scène comporte un objet. Une information d'occlusion comportant l'information occlue par l'objet dans la carte de profondeur est fournie. Au moins une partie de l'information de d'occlusion est ensuite utilisée afin de réduire les distorsions des objets façonnés dans la carte de profondeur. Document US2010 / 0215251 describes a method and a device for processing a depth map. The method consists in obtaining a depth map based on a compressed depth map including the depth information of a captured scene. The scene has an object. Occlusion information including information occluded by the object in the depth map is provided. At least a portion of the occlusion information is then used to reduce the distortions of the artifacts in the depth map.
Ce document se rapporte donc à une méthode de traitement d'informations pour la correction d'une carte de profondeur en rapport avec une zone occultée par un objet. This document therefore relates to an information processing method for the correction of a depth map related to an area obscured by an object.
Notre invention a pour but de pallier à un problème différent qui concerne les pixels dits de transition situés sur les bords d'objets. En effet si par exemple, une scène comporte deux objets plats situés à des profondeurs fixes et distinctes la carte de disparité associée aux éléments de la vue droite ou de la vue gauche ne devrait contenir que deux valeurs, la valeur de la disparité du premier objet et celle distincte de la disparité du second objet étant donné qu'il n'y a dans la scène que deux possibilités avec deux disparités différentes. Our invention aims to overcome a different problem which concerns so-called transition pixels located on the edges of objects. If, for example, a scene has two flat objects located at fixed and distinct depths, the disparity map associated with the elements of the right view or the left view should contain only two values, the value of the disparity of the first object. and that distinct from the disparity of the second object since there are only two possibilities in the scene with two different disparities.
La carte de disparité ne contenant que deux valeurs de disparité, il est dans ce cas aisé de projeter cette carte de disparité sur une vue intermédiaire entre la vue de gauche et la vue de droite et ainsi d'interpoler l'une des deux images. The disparity map containing only two disparity values, it is in this case easy to project the disparity map on an intermediate view between the left view and the right view and thus to interpolate one of the two images.
Or il n'en est rien car dans les zones, dites de transition, correspondant aux zones limitrophes des deux objets, la valeur de disparité associée aux pixels, dits de transitions, résulte d'un mélange entre la valeur de disparité du pixel du premier objet et celle du second objet. Il est malheureusement impossible de définir correctement une valeur de disparité pour de tels pixels. But this is not the case because in the so-called transition zones, corresponding to the zones bordering the two objects, the disparity value associated with the pixels, referred to as transitions, results from a mixture between the disparity value of the pixel of the first object and that of the second object. Unfortunately, it is impossible to correctly define a disparity value for such pixels.
On va donc se retrouver avec une valeur de disparité intermédiaire entre les valeurs de disparité d'un objet et de l'autre objet. Malheureusement cette valeur de disparité n'est pas correcte car elle ne pointe pas sur des pixels similaires dans les deux images. We will therefore end up with an intermediate disparity value between the disparity values of one object and the other object. Unfortunately this disparity value is not correct because it does not point to similar pixels in both images.
Lors de la projection de la carte de disparité, de telles valeurs vont se retrouver d'une part discordantes, et d'autre part ne pas pointer sur les mêmes objets dans les deux images ce qui peut entraîner des artefacts visibles sur les vues interpolées. During the projection of the disparity map, such values will be found on the one hand discordant, and on the other hand do not point to the same objects in the two images which can cause visible artifacts on the interpolated views.
Ce problème de valeur de disparité erronée ou aberrante est présent dans les cartes de disparité obtenues par un estimateur de carte de disparité et dans les cartes de disparité des contenus CGI. This problem of erroneous or outlier disparity value is present in the disparity maps obtained by a disparity map estimator and in disparity maps of the CGI contents.
Une solution possible au problème sus-cité serait d'utiliser des cartes de disparité non filtrées (c'est-à-dire crénelées au niveau des contours des objets). Malheureusement s'il est possible d'envisager ce genre de carte pour du contenu CGI, les estimateurs de disparité vont le plus souvent générer naturellement des valeurs intermédiaires entre les différents objets. La présente invention propose une méthode permettant de pallier aux inconvénients cités. A possible solution to the above-mentioned problem would be to use unfiltered disparity maps (that is, crenellated at the contours of the objects). Unfortunately if it is possible to consider this kind of map for CGI content, disparity estimators will most often naturally generate intermediate values between different objects. The present invention provides a method for overcoming the disadvantages mentioned.
L'invention consiste en une méthode de filtrage d'une carte de disparité associé à une des vues d'une image stéréoscopique comprenant au moins un objet recouvrant partiellement une zone occultée par cet objet . La méthode comprend les étapes de détermination d'au moins une zone de transition autour de l'objet, d'identification des pixels de cette zone de transition dont la valeur de disparité est considérée comme erronée par comparaison avec les valeurs de disparité des pixels avoisinants The invention consists of a filtering method of a disparity map associated with one of the views of a stereoscopic image comprising at least one object partially covering an area obscured by this object. The method comprises the steps of determining at least one transition zone around the object, identifying the pixels of this transition zone whose disparity value is considered as erroneous compared with the disparity values of the neighboring pixels.
correspondant soit à l'objet soit à la zone occultée et la correction des valeurs de disparité des pixels identifiés par attribution d'une nouvelle valeur de disparité corresponding to the object or to the obscured zone and the correction of the disparity values of the pixels identified by allocation of a new disparity value
dépendante soit de l'objet soit de la zone occultée en fonction de critères relatifs à l'appartenance du pixel à l'objet ou à la zone occultée. Cette méthode permet donc un filtrage intelligent qui ne filtre que les valeurs de disparité douteuses et préserve donc la majorité de la carte de disparité. dependent on the object or the obscured area according to criteria relating to the membership of the pixel to the object or the hidden area. This method therefore allows intelligent filtering that only filters out doubtful disparity values and thus preserves the majority of the disparity map.
Préférentiellement, l'étape d'identification des pixels présentant une valeur de disparité erronée consiste à identifier comme erroné tout pixel dont la valeur de disparité n'est pas comprise entre les valeurs de disparités des pixels avoisinants (xn-i , xn+i ) ■ Preferably, the step of identifying pixels having an erroneous disparity value consists in identifying as erroneous any pixel whose disparity value is not between the disparity values of the neighboring pixels (x n- i, x n + i) ■
Selon une variante de l'invention, l'étape d'identification des pixels présentant une valeur de disparité erronée consiste à identifier comme erroné tout pixel dont la valeur de disparité est différente des valeurs de disparité des pixels avoisinants (xn-i , xn+i ) d'une valeur seuil déterminée. According to a variant of the invention, the step of identifying pixels having an erroneous disparity value consists in identifying as erroneous any pixel whose disparity value is different from the disparity values of the neighboring pixels (x n- i, x n + i) of a determined threshold value.
Préférentiellement l'étape de correction des valeurs erronées de disparité des pixels consiste à remplacer la valeur de disparité des pixels identifiés par une valeur calculée en fonction des disparités des pixels avoisinants. Preferably, the step of correcting the erroneous disparity values of the pixels consists in replacing the disparity value of the pixels identified by a value calculated as a function of the disparities of the neighboring pixels.
Selon une variante de l'invention, l'étape de corriger les valeurs erronées de disparité des pixels consiste à supprimer la valeur de disparité des pixels identifiés. According to a variant of the invention, the step of correcting the erroneous pixel disparity values consists in eliminating the disparity value of the identified pixels.
Préférentiellement, l'étape de correction des valeurs de disparité des pixels consiste à déterminer de quelle valeur de disparité des pixels avoisinants (χη-ι ,χη+ι ) , la valeur de disparité du pixel identifié est la plus proche, puis à remplacer la valeur de disparité du pixel identifié par une valeur de remplacement correspondant à la valeur de l'un des pixels avoisinants (xn-i , xn+i ) dont la valeur de disparité est la plus proche. Preferably, the step of correcting the disparity values of the pixels consists in determining which disparity value of the neighboring pixels (χ η- ι, χ η + ι), the disparity value of the identified pixel is the closest, then to replace the pixel disparity value identified by a replacement value corresponding to the value of one of the neighboring pixels (x i n, x n + i), the disparity value is closest.
Préférentiellement, la méthode comprend l'étape supplémentaire, après la Preferably, the method comprises the additional step, after the
détermination du pixel de plus grande proximité parmi les deux pixels avoisinants (xn- ι ,χη+ι ) , de déterminer l'écart de valeurs de disparité entre celle du pixel avoisinant et celle du pixel avoisinant suivant (xn-2, Xn+2) et de déterminer en fonction de cet écart la valeur de remplacement. determining the pixel of greatest proximity among the two neighboring pixels (x n- ι, χ η + ι), to determine the disparity value difference between that of the neighboring pixel and that of the next neighboring pixel (x n-2 , Xn + 2 ) and to determine the replacement value as a function of this difference.
L'invention consiste également en un dispositif de génération de signaux d'affichage d'images tridimensionnelles comprenant au moins un objet recouvrant partiellement une zone occultée par cet objet comportant un dispositif d'émission d'un premier flux de données correspondant à l'une des images droite ou gauche à transmettre, et d'un deuxième flux de données correspondant à la carte de disparité associée à l'une des images droite ou gauche à transmettre et un dispositif de réception des flux de données pour l'affichage des images tridimensionnelles. Il comprend un dispositif de filtrage de la carte de disparité comprenant des moyens de détermination d'au moins une zone de transition autour de l'objet , des moyens d'identification des pixels (xn) de cette zone de transition dont la valeur de disparité (d(xn)) est considérée comme erronée par comparaison avec les valeurs de disparité des pixels avoisinants (xn-i, xn+i) The invention also consists in a device for generating three-dimensional image display signals comprising at least one object partially covering a zone obscured by this object comprising a device for transmitting a first flow of data corresponding to one of the right or left images to be transmitted, and a second data stream corresponding to the disparity map associated with one of the right or left images to be transmitted and a device for receiving data streams for displaying three-dimensional images. It comprises a device for filtering the disparity map comprising means for determining at least one transition zone around the object, means for identifying the pixels (x n ) of this transition zone whose value of disparity (d (x n )) is considered erroneous by comparison with disparity values of neighboring pixels (x n- i, x n + i)
correspondant soit à l'objet soit à la zone occultée et des moyens de correction des valeurs erronées de disparité des pixels identifiés.  corresponding to the object or to the hidden area and means for correcting erroneous disparity values of the identified pixels.
Les caractéristiques et avantages de l'invention mentionnée ci-dessus, ainsi que d'autres, apparaîtront plus clairement à la lecture de la description suivante, faite en relation avec les dessins joints, dans lesquels The features and advantages of the invention mentioned above, as well as others, will appear more clearly on reading the following description, taken in conjunction with the accompanying drawings, in which:
La figure 1 représente un système pour délivrer du contenu 3D et contenant un dispositif de filtrage des éléments d'une carte de disparité selon l'invention soit au niveau du dispositif de génération de signaux, soit au niveau du récepteur. FIG. 1 represents a system for delivering 3D content and containing a device for filtering the elements of a disparity card according to the invention, either at the level of the signal generation device or at the level of the receiver.
La figure 2 représente un synoptique explicatif d'une méthode de filtrage selon l'invention. FIG. 2 represents a block diagram explaining a filtering method according to the invention.
La figure 3 représente les valeurs de disparité d'une carte de disparité d'un système sans dispositif de filtrage. Figure 3 shows the disparity values of a disparity map of a system without a filtering device.
La figure 4 représente les valeurs de disparité d'une carte de disparité d'un système avec dispositif de filtrage selon l'invention. FIG. 4 represents the disparity values of a disparity card of a system with filtering device according to the invention.
Le système tel que représenté par la figure 1 est un dispositif de génération de signaux d'affichage d'au moins une image tridimensionnelle (3D). Il comporte dans le dispositif d'émission un moyen de génération 2 de deux flux de données représentant les pixels, ou éléments d'images ( en anglais « picture éléments » ou « pixels ») des images droites et gauches respectivement, un moyen de génération 3 d'un flux de données correspondant aux informations de disparités des pixels de l'image droite ou gauche représentées par une carte de disparité pour chaque image, un moyen de sélection 4 d'un des flux de données de l'image droite ou gauche à transmettre, un moyen de transmission 5 de l'un des flux de données correspondant à l'image droite ou gauche sélectionnée et du flux de données correspondant à la carte de disparité. Il comporte également et selon l'invention un dispositif de filtrage 6 des valeurs de disparité des différents éléments de la carte de disparité permettant la détection des valeurs erronées et le remplacement de ces valeurs par d'autres valeurs de disparité dépendant des disparités des éléments avoisinants de la carte de disparité associé au moyen de génération des données de la carte de disparité . The system as represented by FIG. 1 is a device for generating display signals for at least one three-dimensional image (3D). It comprises in the transmission device a generation means 2 of two data streams representing the pixels, or picture elements (in English "picture elements" or "pixels") of the images. left and right respectively, a means 3 for generating a data stream corresponding to the difference information of the pixels of the right or left image represented by a disparity map for each image, a selection means 4 of one of the streams of data of the right or left image to be transmitted, a transmission means 5 of one of the data streams corresponding to the selected right or left image and the data flow corresponding to the disparity map. It also comprises and according to the invention a filtering device 6 disparity values of the various elements of the disparity map for the detection of erroneous values and the replacement of these values by other disparity values depending on the disparities of neighboring elements of the disparity map associated with the means of generating the data of the disparity map.
Un dispositif récepteur des données reçoit les deux flux de données correspondant à une des images droite ou gauche et à la carte de disparité respectivement et fournit par un interface 7 les signaux d'affichage d'images 3D à un écran ou dispositif d'affichage 8. Selon une variante de l'invention le dispositif de filtrage 6 de la carte de disparité se situe au niveau du dispositif récepteur de signaux et non pas au niveau du dispositif d'émission. A data receiving device receives the two data streams corresponding to one of the right or left images and the disparity map respectively and provides an interface 7 with the 3D image display signals to a screen or display device 8 According to a variant of the invention, the filtering device 6 of the disparity card is situated at the level of the signal receiver device and not at the level of the transmission device.
La méthode selon l'invention consiste à filtrer la carte de disparité 6 de manière à déterminer, éliminer ou remplacer, les valeurs de disparité « douteuses ». On entend par valeur de disparité « douteuse » les valeurs de disparité de pixels des zones de transition qui ne correspondent pas à l'une des valeurs de disparité des pixels voisins. The method according to the invention consists in filtering the disparity map 6 so as to determine, eliminate or replace the "dubious" disparity values. The term "dubious" disparity value is defined as the pixel disparity values of the transition zones that do not correspond to one of the disparity values of the neighboring pixels.
Cette méthode permet un filtrage intelligent qui ne filtre que les valeurs de disparité douteuses et préserve donc la majorité de la carte de disparité. This method allows intelligent filtering that only filters out questionable disparity values and thus preserves the majority of the disparity map.
La carte de disparité représente une information échantillonnée. Il faut donc résoudre les problèmes d'échantillonnage. C'est pourquoi la méthode selon l'invention consiste à filtrer la carte de disparité pour améliorer les contours des objets qui souffrent de ce défaut d'échantillonnage. Cette méthode de filtrage doit d'une part identifier correctement les valeurs de disparité erronées, et d'autre part corriger ces valeurs. The disparity map represents sampled information. We must therefore solve the sampling problems. This is why the method according to the invention consists in filtering the disparity map to improve the contours of objects that suffer from this lack of sampling. This filtering method must first correctly identify the erroneous disparity values, and secondly correct these values.
Les valeurs de disparité erronées sont des valeurs intermédiaires entre des valeurs de disparité réelles dans la mesure où ces valeurs de disparité correspondent à des profondeurs où un objet se situe. Mais les valeurs de disparité peuvent être localement croissantes ou décroissantes en présence d'une surface non parallèle au plan de l'écran. La définition de l'algorithme de détection doit tenir compte de ces différents cas. The erroneous disparity values are intermediate values between actual disparity values in that these disparity values correspond to depths where an object is located. But the disparity values can be locally increasing or decreasing in the presence of a surface not parallel to the plane of the screen. The definition of the detection algorithm must take into account these different cases.
Il est aussi préférable d'avoir une solution dont les résultats sont continus pour éviter des artéfacts dus à des pixels voisins et similaires et comportant des corrections différentes, ou à un bord d'objet corrigé différemment d'une trame à l'autre. Pour cette raison il est donc conseillé de remplacer les valeurs de disparité plutôt que de les supprimer. Cependant il est toutefois envisageable de supprimer ces valeurs si des artéfacts doivent être supprimés. It is also preferable to have a solution whose results are continuous to avoid artefacts due to neighboring and similar pixels and having different corrections, or to an object edge corrected differently from one frame to another. For this reason it is therefore advisable to replace disparity values rather than delete them. However, it is possible to delete these values if artifacts are to be deleted.
La méthode proposée ici est associée à une étude des pixels appartenant à une ligne horizontale selon l'axe des x, mais il serait possible d'utiliser des informations verticales également. The method proposed here is associated with a study of pixels belonging to a horizontal line along the x-axis, but it would be possible to use vertical information as well.
Les valeurs de disparité d(xn) de pixels xn sont déterminées comme erronées si ces valeurs diffèrent des valeurs de disparité d(xn-i) et d(xn+i) des deux pixels voisins direct horizontalement xn-i et xn+i d'une valeur supérieure à la différence |d(xn+2)-d(xn+i)| entre cette dernière valeur d(xn+i) et celle d(xn+2) de son autre pixel voisin horizontalement (xn+2) ou d'une valeur supérieure à la différence |d(xn-2)-d(xn-i)| entre cette dernière valeur d(xn-i) et celle d(xn-2) de son autre pixel voisin horizontalement (xn-2). The disparity values d (x n ) of pixels x n are determined as erroneous if these values differ from the disparity values d (x n- i) and d (x n + i) of the two neighboring pixels horizontally direct x n- i and x n + i of a value greater than the difference | d (x n + 2) -d (x n + i) | between this last value d (x n + i) and that d (x n + 2 ) of its other neighboring pixel horizontally (x n + 2) or of a value greater than the difference | d (x n- 2) -d (x n- i) | between this last value d (x n- i) and that d (x n- 2) of its other neighboring pixel horizontally (x n- 2).
Selon une variante de l'invention, d'autres critères peuvent être utilisé pour définir ce qui sera considéré comme valeur de disparité erronée. Une méthode consiste en une comparaison de la valeur de disparité d'un pixel par rapport à une valeur seuil déterminée en fonction des disparités des pixels voisins. Des valeurs de seuil peuvent ainsi être ajoutées. Par exemple, il est possible de déterminer comme erronés les pixels dont les valeurs de disparité (exprimées en pixels) différent de plus 2 pixels avec ses deux voisines. According to a variant of the invention, other criteria can be used to define what will be considered as erroneous disparity value. One method consists in comparing the disparity value of a pixel with respect to a determined threshold value as a function of the disparities of the neighboring pixels. Threshold values can thus be added. For example, it is possible to determine as erroneous pixels whose disparity values (expressed in pixels) different from more than 2 pixels with its two neighbors.
Dans le cas où ces valeurs erronées devraient être supprimées, il est préférable d'utiliser un critère moins strict de façon à en supprimer le moins possible. In the case where these erroneous values should be removed, it is preferable to use a less strict criterion in order to remove as little as possible.
Dans une méthode selon l'invention, la détermination des valeurs de disparité erronées se fait donc en comparant ces valeurs d(xn) avec les valeurs de disparité d(xn-2),d(xn- i),d(xn+i ) ou d(xn-i),d(Xn+i),d(xn+2)de quatre autres pixels voisins xn-2 xn-i n+i xn+2 ■ In a method according to the invention, the determination of the erroneous disparity values is therefore done by comparing these values d (x n ) with the disparity values d (x n- 2), d (x n- i), d ( x n + i) or d (x n- i), d (Xn + i), d (x n + 2) of four other neighboring pixels x n- 2 x n -i n + ix n + 2 ■
Un synoptique de détection et correction de pixels ayant des valeurs de disparité erronées est représenté en figure 2. A mimic of detection and correction of pixels having erroneous disparity values is represented in FIG.
La première étape 100 correspond à identifier les pixels les pixels N ayant des valeurs de disparité erronées par comparaison avec les valeurs de disparité des pixels avoisinants N-1 et N+1 : The first step 100 corresponds to identifying the pixels N pixels having erroneous disparity values by comparison with the disparity values of the neighboring pixels N-1 and N + 1:
Les étapes 101 et 102 permettent ensuite de déterminer si la disparité d(xn) du pixel xn est comprise entre celles d(xn-i ) et d(xn+ 1 ) des pixels xn-i et xn+i et, à l'étape 101 et à l'étape 102, de comparer les disparités des pixels xn-i et xn+i : d(xn-i)<d(Xn)<d(xn+i ) ou d(xn-i)>d(Xn)>d(xn+i ) Steps 101 and 102 then make it possible to determine whether the disparity d (x n ) of the pixel x n lies between those d (x n- i) and d (x n + 1) of the pixels x n- i and x n + i and, in step 101 and step 102, comparing the disparities of pixels x n- i and x n + i : d (x n- i) <d (Xn) <d (x n + i) or (x n- i)> d (Xn)> d (x n + i)
L'étape 103 correspond au cas où la valeur de la disparité n'est pas comprise entre celles des pixels avoisinants. Une correction de cette valeur est nécessaire. Cette valeur peut être remplacée par la valeur de disparité la plus proche ou être supprimée. Step 103 corresponds to the case where the value of the disparity is not between those of the neighboring pixels. A correction of this value is necessary. This value can be replaced by the nearest disparity value or deleted.
Puis aux étapes 104 et 105, l'écart de disparité entre les pixels xn et xn-iest comparé avec celui entre xn et xn+i . Ces étapes correspondent à une étude de rapprochement déterminant si la valeur de disparité de xn est plus proche de celle de xn+i ou de xn-i . Dans le cas d'un pixel situé à la frontière entre deux objets, ceci revient à déterminer de quel objet ce pixel est le plus proche : Then in steps 104 and 105, the disparity gap between the pixels x n and x n- i is compared with that between x n and x n + i. These steps correspond to a comparison study determining if the disparity value of x n is closer to that of x n + i or x n- i. In the case of a pixel located on the border between two objects, this amounts to determining which object this pixel is closest to:
|d(xn-i)-d(xn)| < |d(xn+i)-d(xn)|, | d (x n- i) -d (xn) | <| d (x n + i) -d (x n ) |,
L'étape 106 permet de tenir compte d'une disparité variable (croissante ou Step 106 makes it possible to take into account a variable disparity (increasing or
décroissante) pour l'objet correspondant aux pixels xn-i et xn.2. Cette étape permet donc de déterminer une valeur de disparité de remplacement d'(xn) correspondant à la valeur maximale de la somme entre la disparité d(xn-i ) du pixel xn-i et de l'écart entre les disparités d(xn-2) et d(xn-i ) des pixesl xn-2 et xn-i . decreasing) for the object corresponding to the pixels x n- i and x n . 2 . This step therefore makes it possible to determine a replacement disparity value of (x n ) corresponding to the maximum value of the sum between the disparity d (x n- i) of the pixel x n- i and the difference between the disparities d (x n- 2) and d (x n- i) pixesl x n- 2 and x n- i.
Similairement au cours des étapes 107, 108 et 109, les valeurs de remplacement de disparité d'(xn) sont déterminées en tenant compte d'une disparité variable pour les objets correspondant aux pixels voisins xn-2 et xn-i ou xn+i et xn+2- Des valeurs maximales sont déterminées si d(xn) est plus proche de la valeur la plus grande des deux valeurs de disparité. Et des valeurs minimales sont déterminées si d(xn) est plus proche de la valeur la plus petite des deux valeurs de disparité. Similarly in steps 107, 108 and 109, the disparity of replacement values (x n) are determined taking into account a variable disparity for objects corresponding to the adjacent pixels n x 2 and x n i or x n + i and x n + 2- Maximum values are determined if d (x n ) is closer to the larger value of the two disparity values. And minimal values are determined if d (x n ) is closer to the smaller value of the two disparity values.
Au cours de l'étape 1 10, si la valeur erronée de disparité du pixel est supérieure à cette valeur maximale déterminée à l'étape 106, la valeur erronée de disparité du pixel xn est remplacée par cette valeur maximale déterminée : d'(xn)= max value . During step 1 10, if the erroneous disparity value of the pixel is greater than this maximum value determined in step 106, the erroneous disparity value of the pixel x n is replaced by this determined maximum value: x n ) = max value.
Au cours de cette étape 1 10, si la valeur erronée de disparité du pixel n'est pas supérieure à cette valeur maximale déterminée à l'étape 106, la valeur erronée de disparité du pixel xn est remplacée par la valeur de disparité du pixel xn-i : d'(xn)= d(xn-i ) During this step 1 10, if the erroneous disparity value of the pixel is not greater than this maximum value determined in step 106, the erroneous disparity value of the pixel x n is replaced by the disparity value of the pixel. x n-i: d '(x n) = d (n x i)
De même, au cours de l'étape 1 12,1a valeur erronée de disparité du pixel xn est remplacée par la valeur minimale déterminée au cours de l'étape précédente: « d'(xn)= min value » ou par la valeur de disparité du pixel suivant xn+i : « d'(xn)= d(xn+i ) ». Similarly, during step 1 12,1a erroneous disparity value of the pixel x n is replaced by the minimum value determined during the preceding step: "d (x n ) = min value" or by the disparity value of the next pixel x n + i: "d (x n ) = d (x n + i)".
Similairement, au cours des étapes 1 14 et 1 16, la valeur erronée de disparité du pixel xn est remplacée par la valeur minimale ou maximale déterminée au cours de l'étape précédente ou par la valeur de disparité du pixel suivant xn+i ou précédent xn-i . Selon une variante de l'invention, le processus décrit par ce synoptique peut être affiné en tenant compte de fort changement de disparité ou de cas particuliers. Similarly, during steps 1 14 and 1 16, the erroneous disparity value of the pixel x n is replaced by the minimum or maximum value determined during the preceding step or by the disparity value of the next pixel x n + 1 or preceding x n i. According to a variant of the invention, the process described by this mimic can be refined by taking into account a large change of disparity or particular cases.
Les dernières étapes 1 10 - 1 16 attribuent donc préférablement une nouvelle valeur à la valeur de disparité en fonction des critères précédents. Il est alternativement possible de remplacer cette étape par une suppression de la valeur de disparité. The last steps 1 10 - 1 16 therefore preferably assign a new value to the disparity value according to the preceding criteria. It is alternatively possible to replace this step with a deletion of the disparity value.
Dans tous les cas non traités, la valeur de disparité est considérée comme correcte et non remplacée. In all untreated cases, the disparity value is considered correct and not replaced.
La méthode de filtrage proposée par l'invention est symétrique et traite donc de la même manière les bords droit et gauche des objets bien que les problèmes liés à ces bords soient différents. The filtering method proposed by the invention is symmetrical and therefore treats the right and left edges of the objects in the same way, although the problems related to these edges are different.
En effet, les exemples concernent l'interpolation du bord droit des objets en avant-plan à partir de la carte de disparité associée à la vue de gauche ou l'interpolation du bord gauche des objets en avant-plan à partir de la carte de disparité associée à la vue de droite car les problèmes d'artefacts y sont les plus importants. Indeed, the examples concern the interpolation of the right edge of objects in the foreground from the disparity map associated with the left view or the interpolation of the left edge of the objects in the foreground from the map of disparity associated with the right view because artifact problems are the most important.
Les deux autres configurations, soit l'interpolation du bord gauche des objets en avant- plan à partir de la carte de disparité associée à la vue de gauche soit l'interpolation du bord droit des objets en avant-plan à partir de la carte de disparité associée à la vue de droite, posent des problèmes bien moindres dans la mesure où les projections des valeurs erronées se retrouvent le plus souvent occultées par l'objet en avant-plan. Cependant un pré-filtrage est intéressant dans la mesure où l'on peut dans certains cas récupérer une partie du bord de l'objet en avant-plan. The other two configurations, the interpolation of the left edge of the objects in the foreground from the disparity map associated with the left view, or the interpolation of the right edge of the objects in the foreground from the map of disparity associated with the right view, pose much less problems insofar as the projections of erroneous values are most often obscured by the object in the foreground. However pre-filtering is interesting in that we can in some cases recover part of the edge of the object in the foreground.
Selon une variante de l'invention, la méthode assure le traitement sur le bord droit des objets en avant-plan pour l'interpolation à partir de la carte de disparité associée à la vue de gauche. Similairement et selon une autre variante de l'invention, la méthode assure le traitement sur le bord gauche des objets en avant-plan pour l'interpolation à partir de la carte de disparité associée à la vue de droite. Cette dissociation ayant lieu lors de la première étape (d(xn-1 )<d(xn)<d(xn+1 ) ou d(xn- 1 )>d(xn)>d(xn+1 )), il suffirait de ne retenir qu'une seule de ces conditions pour ne faire le pré-filtrage que sur un seul côté. According to a variant of the invention, the method provides processing on the right edge of the objects in the foreground for the interpolation from the disparity map associated with the left view. Similarly and according to another variant of the invention, the method provides processing on the left edge of the objects in the foreground for the interpolation from the disparity map associated with the right view. This dissociation taking place in the first step (d (xn-1) <d (xn) <d (xn + 1) or d (xn-1)> d (xn)> d (xn + 1)), It would suffice to retain only one of these conditions to pre-filter only one side.
La figure 3 représente les valeurs de disparité d'une carte de disparité d'une image comportant deux éléments de disparités différentes d'un système sans dispositif de filtrage. Ces deux valeurs sont représentées par un gris clair et un gris foncé FIG. 3 represents the disparity values of a disparity map of an image comprising two elements of disparities different from a system without a filtering device. These two values are represented by a light gray and a dark gray
respectivement. Au niveau de la transition entre les deux éléments, il existe différentes valeurs de disparité représentées par des tons de gris intermédiaires entre le gris clair et le gris foncé respectively. At the transition between the two elements, there are different disparity values represented by gray shades intermediate between light gray and dark gray
La figure 4 représente les valeurs de disparité d'une carte de disparité d'un système avec dispositif de filtrage selon l'invention. Au niveau de la transition les valeurs de disparité erronées ont été rectifiées et remplacées par l'une des deux valeurs existantes conformément à la méthode selon l'invention. Après filtrage, la carte de disparité comporte uniquement deux valeurs. FIG. 4 represents the disparity values of a disparity card of a system with filtering device according to the invention. At the transition level, the erroneous disparity values have been corrected and replaced by one of the two existing values according to the method according to the invention. After filtering, the disparity map has only two values.

Claims

Revendications claims
1. Méthode de filtrage d'une carte de disparité associé à une des vues d'une image stéréoscopique comprenant au moins un objet recouvrant partiellement une zone occultée par cet objet et comprenant les étapes de : A method of filtering a disparity map associated with one of the views of a stereoscopic image comprising at least one object partially covering an area obscured by this object and comprising the steps of:
- détermination d'au moins une zone de transition autour de l'objet, determining at least one transition zone around the object,
- identification des pixels (xn) de cette zone de transition dont la valeur de disparité (d(xn)) est considérée comme erronée par comparaison avec les valeurs de disparité des pixels avoisinants (xn-i , xn+i ) identification of the pixels (x n ) of this transition zone whose disparity value (d (x n )) is considered to be erroneous by comparison with the disparity values of the neighboring pixels (x n- i, x n + i)
correspondant soit à l'objet soit à la zone occultée;  corresponding to either the object or the hidden area;
- correction des valeurs de disparité des pixels identifiés par attribution d'une nouvelle valeur de disparité dépendante soit de l'objet soit de la zone occultée en fonction de critères relatifs à l'appartenance du pixel à l'objet ou à la zone occultée. correction of the disparity values of the pixels identified by allocation of a new disparity value depending on the object or the obscured zone according to criteria relating to the membership of the pixel in the object or in the obscured zone.
2. Méthode selon la revendication 1 caractérisée en ce que l'étape d'identification des pixels dont la valeur de disparité est considérée comme erronée consiste à identifier comme erroné tout pixel dont la valeur de disparité n'est pas égale à l'une des valeurs de disparités des pixels avoisinants (xn-i,xn+i ). 2. Method according to claim 1 characterized in that the step of identifying the pixels whose disparity value is considered as erroneous consists in identifying as erroneous any pixel whose disparity value is not equal to one of the disparity values of the neighboring pixels (x n- i, x n + i).
3. Méthode selon la revendication 1 caractérisée en ce que l'étape d'identification des pixels dont la valeur de disparité est considérée comme erronée consiste à identifier comme erroné tout pixel dont la valeur de disparité est différente des valeurs de disparité des pixels avoisinants (xn-i,xn+i ) d'une valeur seuil déterminée. 3. Method according to claim 1 characterized in that the step of identifying the pixels whose disparity value is considered as erroneous consists in identifying as erroneous any pixel whose disparity value is different from the disparity values of the neighboring pixels ( x n- i, x n + i) of a determined threshold value.
4. Méthode selon la revendication 1 caractérisée en ce que l'étape de correction des valeurs erronées de disparité des pixels consiste à remplacer la valeur de disparité des pixels identifiés par une valeur calculée en fonction des disparités des pixels avoisinants. 4. Method according to claim 1 characterized in that the step of correcting the erroneous pixel disparity values consists in replacing the disparity value of the pixels identified by a value calculated as a function of the disparities of the neighboring pixels.
5. Méthode selon la revendication 1 caractérisée en ce que l'étape de correction des valeurs erronées de disparité des pixels consiste à supprimer la valeur de disparité des pixels identifiés. 5. Method according to claim 1 characterized in that the step of correcting the erroneous pixel disparity values consists in eliminating the disparity value of the identified pixels.
6. Méthode selon la revendication 4 caractérisée en ce que l'étape de correction des valeurs de disparité des pixels consiste à déterminer de quelle valeur de disparité des pixels avoisinants (xn-i,xn+i ), la valeur de disparité du pixel identifié est la plus proche et à remplacer la valeur de disparité du pixel identifié par une valeur de remplacement correspondant à la valeur de disparité de l'un des pixels avoisinants (xn-i,xn+i ) dont la valeur de disparité est la plus proche. 6. Method according to claim 4, characterized in that the step of correcting the disparity values of the pixels consists in determining which disparity value of the neighboring pixels (x n -i, x n + i), the disparity value of the identified pixel is nearest and to replace the disparity value of the pixel identified by a replacement value corresponding to the disparity value of one of the neighboring pixels (x n- i, x n + i) whose disparity value is the closest.
7. Méthode selon la revendication 6 caractérisée en ce que la méthode comprend l'étape supplémentaire, après la détermination du pixel de plus grande proximité parmi les deux pixels avoisinants (xn-i , xn+i ), de déterminer l'écart de valeurs de disparité entre celle du pixel avoisinant et celle du pixel avoisinant suivant (xn-2, xn+2) et de déterminer la valeur de remplacement en tenant compte de cet écart. 7. Method according to claim 6, characterized in that the method comprises the additional step, after determining the pixel of greatest proximity among the two neighboring pixels (x n- i, x n + i), to determine the difference values of disparity between that of the neighboring pixel and that of the next neighboring pixel (x n- 2, x n + 2) and to determine the replacement value taking into account this difference.
8. Dispositif de génération de signaux d'affichage d'images tridimensionnelles 8. Device for generating three-dimensional image display signals
comprenant au moins un objet recouvrant partiellement une zone occultée par cet objet comportant un dispositif d'émission d'un premier flux de données correspondant à l'une des images droite ou gauche à transmettre, et d'un deuxième flux de données correspondant à la carte de disparité associée à l'une des images droite ou gauche à transmettre et un dispositif de réception des flux de données pour l'affichage des images tridimensionnelles caractérisé en ce qu'il comprend un dispositif de filtrage de la carte de disparité comprenant  comprising at least one object partially covering an area obscured by this object comprising a device for transmitting a first data stream corresponding to one of the right or left images to be transmitted, and a second data stream corresponding to the disparity map associated with one of the right or left images to be transmitted and a device for receiving data streams for displaying three-dimensional images, characterized in that it comprises a filtering device of the disparity map comprising
- des moyens de détermination d'au moins une zone de transition autour de l'objet ; means for determining at least one transition zone around the object;
- des moyens d'identification des pixels (xn) de cette zone de transition dont la valeur de disparité (d(xn)) est considérée comme erronée par comparaison avec les valeurs de disparité des pixels avoisinants (xn-i , xn+i ) correspondant soit à l'objet soit à la zone occultée et ; - des moyens de correction des valeurs erronées de disparité des pixels identifiés. means for identifying the pixels (x n ) of this transition zone whose disparity value (d (x n )) is considered to be erroneous by comparison with the disparity values of the neighboring pixels (x n- i, x n + i) corresponding to either the object or the obscured area and; means for correcting the erroneous disparity values of the identified pixels.
9. Dispositif de génération de signaux selon la revendication 8 caractérisé en ce que le dispositif de filtrage associé à la carte de disparité se situe au niveau du dispositif d'émission. 9. Signal generating device according to claim 8 characterized in that the filtering device associated with the disparity map is located at the transmitting device.
10. Dispositif de génération de signaux selon la revendication 8 caractérisé en ce que le dispositif de filtrage associé à la carte de disparité se situe au niveau du dispositif de réception. 10. Signal generation device according to claim 8 characterized in that the filtering device associated with the disparity map is located at the receiving device.
EP12775782.1A 2011-09-29 2012-09-27 Method and device for filtering a disparity map Withdrawn EP2761876A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1158739 2011-09-29
PCT/FR2012/052195 WO2013045853A1 (en) 2011-09-29 2012-09-27 Method and device for filtering a disparity map

Publications (1)

Publication Number Publication Date
EP2761876A1 true EP2761876A1 (en) 2014-08-06

Family

ID=47071367

Family Applications (1)

Application Number Title Priority Date Filing Date
EP12775782.1A Withdrawn EP2761876A1 (en) 2011-09-29 2012-09-27 Method and device for filtering a disparity map

Country Status (7)

Country Link
US (1) US9299154B2 (en)
EP (1) EP2761876A1 (en)
JP (1) JP2014534665A (en)
KR (1) KR20140069266A (en)
CN (1) CN103828355B (en)
BR (1) BR112014007263A2 (en)
WO (1) WO2013045853A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818232B2 (en) * 2015-08-26 2017-11-14 Adobe Systems Incorporated Color-based depth smoothing of scanned 3D model to enhance geometry in 3D printing
JP6991700B2 (en) * 2016-04-28 2022-01-12 キヤノン株式会社 Information processing equipment, information processing method, program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010007285A1 (en) * 2008-06-24 2010-01-21 France Telecom Method and device for filling in the zones of occultation of a map of depth or of disparities estimated on the basis of at least two images
WO2010037512A1 (en) * 2008-10-02 2010-04-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Intermediate view synthesis and multi-view data signal extraction
US20110063420A1 (en) * 2009-09-11 2011-03-17 Tomonori Masuda Image processing apparatus

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3551467B2 (en) * 1994-04-13 2004-08-04 松下電器産業株式会社 Parallax calculating device, parallax calculating method, and image combining device
JP3769850B2 (en) * 1996-12-26 2006-04-26 松下電器産業株式会社 Intermediate viewpoint image generation method, parallax estimation method, and image transmission method
US7015926B2 (en) 2004-06-28 2006-03-21 Microsoft Corporation System and process for generating a two-layer, 3D representation of a scene
EP2163103B1 (en) 2007-06-26 2017-05-03 Koninklijke Philips N.V. Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal
JP5575650B2 (en) * 2007-10-11 2014-08-20 コーニンクレッカ フィリップス エヌ ヴェ Method and apparatus for processing a depth map
CA2704479C (en) 2007-11-09 2016-01-05 Thomson Licensing System and method for depth map extraction using region-based filtering
US8106924B2 (en) 2008-07-31 2012-01-31 Stmicroelectronics S.R.L. Method and system for video rendering, computer program product therefor
EP2338145B1 (en) 2008-09-25 2020-04-08 Koninklijke Philips N.V. Three dimensional image data processing
JP5329677B2 (en) * 2009-01-27 2013-10-30 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Depth and video coprocessing
KR101590763B1 (en) * 2009-06-10 2016-02-02 삼성전자주식회사 Apparatus and method for generating 3d image using area extension of depth map object
US8933925B2 (en) 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
WO2011097306A1 (en) 2010-02-04 2011-08-11 Sony Corporation 2d to 3d image conversion based on image content
US20110199469A1 (en) * 2010-02-15 2011-08-18 Gallagher Andrew C Detection and display of stereo images
US8428342B2 (en) * 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US20140035909A1 (en) * 2011-01-20 2014-02-06 University Of Iowa Research Foundation Systems and methods for generating a three-dimensional shape from stereo color images
US8837816B2 (en) * 2011-09-27 2014-09-16 Mediatek Inc. Method and apparatus for generating final depth information related map that is reconstructed from coarse depth information related map through guided interpolation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010007285A1 (en) * 2008-06-24 2010-01-21 France Telecom Method and device for filling in the zones of occultation of a map of depth or of disparities estimated on the basis of at least two images
WO2010037512A1 (en) * 2008-10-02 2010-04-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Intermediate view synthesis and multi-view data signal extraction
US20110063420A1 (en) * 2009-09-11 2011-03-17 Tomonori Masuda Image processing apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LAI-MAN PO ET AL: "A new multidirectional extrapolation hole-filling method for Depth-Image-Based Rendering", IMAGE PROCESSING (ICIP), 2011 18TH IEEE INTERNATIONAL CONFERENCE ON, IEEE, 11 September 2011 (2011-09-11), pages 2589 - 2592, XP032080200, ISBN: 978-1-4577-1304-0, DOI: 10.1109/ICIP.2011.6116194 *
See also references of WO2013045853A1 *

Also Published As

Publication number Publication date
WO2013045853A1 (en) 2013-04-04
US20140226899A1 (en) 2014-08-14
JP2014534665A (en) 2014-12-18
US9299154B2 (en) 2016-03-29
CN103828355B (en) 2017-05-31
KR20140069266A (en) 2014-06-09
BR112014007263A2 (en) 2017-03-28
CN103828355A (en) 2014-05-28

Similar Documents

Publication Publication Date Title
US10437065B2 (en) IPD correction and reprojection for accurate mixed reality object placement
EP2304686B1 (en) Method and device for filling in the zones of occultation of a map of depth or of disparities estimated on the basis of at least two images
US9041709B2 (en) Saliency based disparity mapping
Chamaret et al. Adaptive 3D rendering based on region-of-interest
WO2008155213A1 (en) Method and equipment for producing and displaying stereoscopic images with coloured filters
Zhou et al. Learning to dehaze with polarization
EP3114831B1 (en) Optimised video denoising for heterogeneous multisensor system
US20120068996A1 (en) Safe mode transition in 3d content rendering
FR2982448A1 (en) STEREOSCOPIC IMAGE PROCESSING METHOD COMPRISING AN INCRUSTABLE OBJECT AND CORRESPONDING DEVICE
FR3002104A1 (en) METHOD FOR GENERATING, TRANSMITTING AND RECEIVING STEREOSCOPIC IMAGES, AND RELATED DEVICES
EP2469868B1 (en) Method for correcting hyperstereoscopy and related helmet display system
FR2971603A1 (en) STEREOSCOPIC IMAGE PROCESSING METHOD COMPRISING A BLACK STRIP AND CORRESPONDING DEVICE
EP2761876A1 (en) Method and device for filtering a disparity map
EP2801075A1 (en) Image processing method for an on-board camera installed on a vehicle and corresponding processing device
FR2968108A1 (en) Method for processing video image to display stereoscopic image on target screen of e.g. TV, involves calculating target disparity information associated to part of image according to disparity budget and original disparity information
US9497436B2 (en) Virtual sport system using start sensor for accurate simulation of movement of a ball
US9183665B2 (en) Film grain for stereoscopic or multi-view images
EP3072110B1 (en) Method for estimating the movement of an object
EP2629533B1 (en) Film grain for stereoscopic or multi-view images
FR2984665A1 (en) PROCESS FOR REDUCING CROSSTALK IN STEREOSCOPIC IMAGES
FR3028703A1 (en) METHOD FOR STEREOSCOPIC RENDERING OF A 3D SCENE ON A SCREEN, DEVICE, SYSTEM AND COMPUTER PROGRAM THEREOF
WO2008142235A1 (en) Image processing method for autostereoscopic image synthesis
Yuan et al. Stereoscopic image-inpainting-based view synthesis algorithm for glasses-based and glasses-free 3D displays
EP2525578A1 (en) Method for adjusting the disparity of 3D content for an observer
FR2873213A1 (en) Stereoscopic signal obtaining method for domestic application, involves forming pairs of images from sequence of monoscopic images based on preset time slot that is function of image acquisition speed, to construct stereoscopic signal

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20140424

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20160909

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

RIC1 Information provided on ipc code assigned before grant

Ipc: H04N 13/128 20140806ALI20181106BHEP

Ipc: H04N 13/00 20060101AFI20181106BHEP

Ipc: H04N 13/122 20140806ALI20181106BHEP

Ipc: H04N 13/111 20140806ALI20181106BHEP

INTG Intention to grant announced

Effective date: 20181206

RIC1 Information provided on ipc code assigned before grant

Ipc: H04N 13/122 20180101ALI20181106BHEP

Ipc: H04N 13/111 20180101ALI20181106BHEP

Ipc: H04N 13/128 20180101ALI20181106BHEP

Ipc: H04N 13/00 20180101AFI20181106BHEP

RIC1 Information provided on ipc code assigned before grant

Ipc: H04N 13/111 20180101ALI20181106BHEP

Ipc: H04N 13/122 20180101ALI20181106BHEP

Ipc: H04N 13/00 20180101AFI20181106BHEP

Ipc: H04N 13/128 20180101ALI20181106BHEP

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: INTERDIGITAL CE PATENT HOLDINGS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20190417