EP2761876A1 - Méthode et dispositif de filtrage d'une carte de disparité - Google Patents

Méthode et dispositif de filtrage d'une carte de disparité

Info

Publication number
EP2761876A1
EP2761876A1 EP12775782.1A EP12775782A EP2761876A1 EP 2761876 A1 EP2761876 A1 EP 2761876A1 EP 12775782 A EP12775782 A EP 12775782A EP 2761876 A1 EP2761876 A1 EP 2761876A1
Authority
EP
European Patent Office
Prior art keywords
disparity
pixels
value
values
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP12775782.1A
Other languages
German (de)
English (en)
Inventor
Cedric Thebault
Philippe Robert
Sylvain Thiebaud
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
InterDigital CE Patent Holdings SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of EP2761876A1 publication Critical patent/EP2761876A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Definitions

  • the present invention relates to a stereoscopic image and more particularly to a method and a device for filtering the disparity map associated with such an image.
  • 3D view synthesis or 3D view interpolation is to create a 3D rendering other than that represented by the source stereoscopic image.
  • the 3D rendering then adjusts to the chosen application or the user.
  • the views needed to address multi-view screens are mostly recreated from a single stereoscopic image.
  • this synthesis of view is based on the source stereoscopic image and on a map of disparity.
  • the disparity map is generally associated with a right or left source image in the case of a stereoscopic image and provides for each pixel a datum representing the distance (in number of pixels) between the position of this image element in the right image and in the left image.
  • This view synthesis can also be based on a depth map because it is possible to return to a depth value from the disparity value, or vice versa, by introducing certain data, such as the size of the screen or the distance between the observer and the screen using an algorithm known to those skilled in the art.
  • this disparity map is projected at the level of the view you want to generate. After this projection, we therefore have a modified disparity map corresponding to the desired view, each pixel of this disparity map modified indicates a disparity value which will then be used to adapt the information corresponding to the right or left image to regenerate.
  • the disparity vector of each pixel to be interpolated must point to the same points of objects in the right and left images.
  • Document US2010 / 0215251 describes a method and a device for processing a depth map.
  • the method consists in obtaining a depth map based on a compressed depth map including the depth information of a captured scene.
  • the scene has an object.
  • Occlusion information including information occluded by the object in the depth map is provided. At least a portion of the occlusion information is then used to reduce the distortions of the artifacts in the depth map.
  • This document therefore relates to an information processing method for the correction of a depth map related to an area obscured by an object.
  • our invention aims to overcome a different problem which concerns so-called transition pixels located on the edges of objects. If, for example, a scene has two flat objects located at fixed and distinct depths, the disparity map associated with the elements of the right view or the left view should contain only two values, the value of the disparity of the first object. and that distinct from the disparity of the second object since there are only two possibilities in the scene with two different disparities.
  • the disparity map containing only two disparity values it is in this case easy to project the disparity map on an intermediate view between the left view and the right view and thus to interpolate one of the two images.
  • transitions results from a mixture between the disparity value of the pixel of the first object and that of the second object.
  • This problem of erroneous or outlier disparity value is present in the disparity maps obtained by a disparity map estimator and in disparity maps of the CGI contents.
  • a possible solution to the above-mentioned problem would be to use unfiltered disparity maps (that is, crenellated at the contours of the objects). Unfortunately if it is possible to consider this kind of map for CGI content, disparity estimators will most often naturally generate intermediate values between different objects.
  • the present invention provides a method for overcoming the disadvantages mentioned.
  • the invention consists of a filtering method of a disparity map associated with one of the views of a stereoscopic image comprising at least one object partially covering an area obscured by this object.
  • the method comprises the steps of determining at least one transition zone around the object, identifying the pixels of this transition zone whose disparity value is considered as erroneous compared with the disparity values of the neighboring pixels.
  • This method therefore allows intelligent filtering that only filters out doubtful disparity values and thus preserves the majority of the disparity map.
  • the step of identifying pixels having an erroneous disparity value consists in identifying as erroneous any pixel whose disparity value is not between the disparity values of the neighboring pixels (x n- i, x n + i) ⁇
  • the step of identifying pixels having an erroneous disparity value consists in identifying as erroneous any pixel whose disparity value is different from the disparity values of the neighboring pixels (x n- i, x n + i) of a determined threshold value.
  • the step of correcting the erroneous disparity values of the pixels consists in replacing the disparity value of the pixels identified by a value calculated as a function of the disparities of the neighboring pixels.
  • the step of correcting the erroneous pixel disparity values consists in eliminating the disparity value of the identified pixels.
  • the step of correcting the disparity values of the pixels consists in determining which disparity value of the neighboring pixels ( ⁇ ⁇ - ⁇ , ⁇ ⁇ + ⁇ ), the disparity value of the identified pixel is the closest, then to replace the pixel disparity value identified by a replacement value corresponding to the value of one of the neighboring pixels (x i n, x n + i), the disparity value is closest.
  • the method comprises the additional step, after the
  • the invention also consists in a device for generating three-dimensional image display signals comprising at least one object partially covering a zone obscured by this object comprising a device for transmitting a first flow of data corresponding to one of the right or left images to be transmitted, and a second data stream corresponding to the disparity map associated with one of the right or left images to be transmitted and a device for receiving data streams for displaying three-dimensional images.
  • It comprises a device for filtering the disparity map comprising means for determining at least one transition zone around the object, means for identifying the pixels (x n ) of this transition zone whose value of disparity (d (x n )) is considered erroneous by comparison with disparity values of neighboring pixels (x n- i, x n + i)
  • FIG. 1 represents a system for delivering 3D content and containing a device for filtering the elements of a disparity card according to the invention, either at the level of the signal generation device or at the level of the receiver.
  • FIG. 2 represents a block diagram explaining a filtering method according to the invention.
  • Figure 3 shows the disparity values of a disparity map of a system without a filtering device.
  • FIG. 4 represents the disparity values of a disparity card of a system with filtering device according to the invention.
  • the system as represented by FIG. 1 is a device for generating display signals for at least one three-dimensional image (3D). It comprises in the transmission device a generation means 2 of two data streams representing the pixels, or picture elements (in English "picture elements" or "pixels") of the images. left and right respectively, a means 3 for generating a data stream corresponding to the difference information of the pixels of the right or left image represented by a disparity map for each image, a selection means 4 of one of the streams of data of the right or left image to be transmitted, a transmission means 5 of one of the data streams corresponding to the selected right or left image and the data flow corresponding to the disparity map.
  • a generation means 2 of two data streams representing the pixels, or picture elements (in English "picture elements" or "pixels" of the images. left and right respectively, a means 3 for generating a data stream corresponding to the difference information of the pixels of the right or left image represented by a disparity map for each image, a selection means 4 of one of the streams of data of the
  • a filtering device 6 disparity values of the various elements of the disparity map for the detection of erroneous values and the replacement of these values by other disparity values depending on the disparities of neighboring elements of the disparity map associated with the means of generating the data of the disparity map.
  • a data receiving device receives the two data streams corresponding to one of the right or left images and the disparity map respectively and provides an interface 7 with the 3D image display signals to a screen or display device 8
  • the filtering device 6 of the disparity card is situated at the level of the signal receiver device and not at the level of the transmission device.
  • the method according to the invention consists in filtering the disparity map 6 so as to determine, eliminate or replace the "dubious" disparity values.
  • the term "dubious" disparity value is defined as the pixel disparity values of the transition zones that do not correspond to one of the disparity values of the neighboring pixels.
  • This method allows intelligent filtering that only filters out questionable disparity values and thus preserves the majority of the disparity map.
  • the disparity map represents sampled information. We must therefore solve the sampling problems. This is why the method according to the invention consists in filtering the disparity map to improve the contours of objects that suffer from this lack of sampling. This filtering method must first correctly identify the erroneous disparity values, and secondly correct these values.
  • the erroneous disparity values are intermediate values between actual disparity values in that these disparity values correspond to depths where an object is located. But the disparity values can be locally increasing or decreasing in the presence of a surface not parallel to the plane of the screen. The definition of the detection algorithm must take into account these different cases.
  • the method proposed here is associated with a study of pixels belonging to a horizontal line along the x-axis, but it would be possible to use vertical information as well.
  • the disparity values d (x n ) of pixels x n are determined as erroneous if these values differ from the disparity values d (x n- i) and d (x n + i) of the two neighboring pixels horizontally direct x n- i and x n + i of a value greater than the difference
  • Another criteria can be used to define what will be considered as erroneous disparity value.
  • One method consists in comparing the disparity value of a pixel with respect to a determined threshold value as a function of the disparities of the neighboring pixels. Threshold values can thus be added. For example, it is possible to determine as erroneous pixels whose disparity values (expressed in pixels) different from more than 2 pixels with its two neighbors.
  • the determination of the erroneous disparity values is therefore done by comparing these values d (x n ) with the disparity values d (x n- 2), d (x n- i), d ( x n + i) or d (x n- i), d (Xn + i), d (x n + 2) of four other neighboring pixels x n- 2 x n -i n + ix n + 2 ⁇
  • the first step 100 corresponds to identifying the pixels N pixels having erroneous disparity values by comparison with the disparity values of the neighboring pixels N-1 and N + 1:
  • Steps 101 and 102 then make it possible to determine whether the disparity d (x n ) of the pixel x n lies between those d (x n- i) and d (x n + 1) of the pixels x n- i and x n + i and, in step 101 and step 102, comparing the disparities of pixels x n- i and x n + i : d (x n- i) ⁇ d (Xn) ⁇ d (x n + i) or (x n- i)> d (Xn)> d (x n + i)
  • Step 103 corresponds to the case where the value of the disparity is not between those of the neighboring pixels. A correction of this value is necessary. This value can be replaced by the nearest disparity value or deleted.
  • steps 104 and 105 the disparity gap between the pixels x n and x n- i is compared with that between x n and x n + i. These steps correspond to a comparison study determining if the disparity value of x n is closer to that of x n + i or x n- i. In the case of a pixel located on the border between two objects, this amounts to determining which object this pixel is closest to:
  • Step 106 makes it possible to take into account a variable disparity (increasing or
  • This step therefore makes it possible to determine a replacement disparity value of (x n ) corresponding to the maximum value of the sum between the disparity d (x n- i) of the pixel x n- i and the difference between the disparities d (x n- 2) and d (x n- i) pixesl x n- 2 and x n- i.
  • the disparity of replacement values (x n) are determined taking into account a variable disparity for objects corresponding to the adjacent pixels n x 2 and x n i or x n + i and x n + 2- Maximum values are determined if d (x n ) is closer to the larger value of the two disparity values. And minimal values are determined if d (x n ) is closer to the smaller value of the two disparity values.
  • step 1 if the erroneous disparity value of the pixel is not greater than this maximum value determined in step 106, the erroneous disparity value of the pixel x n is replaced by the disparity value of the pixel.
  • the erroneous disparity value of the pixel x n is replaced by the minimum or maximum value determined during the preceding step or by the disparity value of the next pixel x n + 1 or preceding x n i.
  • the process described by this mimic can be refined by taking into account a large change of disparity or particular cases.
  • the last steps 1 10 - 1 16 therefore preferably assign a new value to the disparity value according to the preceding criteria. It is alternatively possible to replace this step with a deletion of the disparity value.
  • the filtering method proposed by the invention is symmetrical and therefore treats the right and left edges of the objects in the same way, although the problems related to these edges are different.
  • the examples concern the interpolation of the right edge of objects in the foreground from the disparity map associated with the left view or the interpolation of the left edge of the objects in the foreground from the map of disparity associated with the right view because artifact problems are the most important.
  • the method provides processing on the right edge of the objects in the foreground for the interpolation from the disparity map associated with the left view. Similarly and according to another variant of the invention, the method provides processing on the left edge of the objects in the foreground for the interpolation from the disparity map associated with the right view.
  • This dissociation taking place in the first step (d (xn-1) ⁇ d (xn) ⁇ d (xn + 1) or d (xn-1)> d (xn)> d (xn + 1)), It would suffice to retain only one of these conditions to pre-filter only one side.
  • FIG. 3 represents the disparity values of a disparity map of an image comprising two elements of disparities different from a system without a filtering device. These two values are represented by a light gray and a dark gray
  • FIG. 4 represents the disparity values of a disparity card of a system with filtering device according to the invention.
  • the erroneous disparity values have been corrected and replaced by one of the two existing values according to the method according to the invention.
  • the disparity map has only two values.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

L'invention concerne une méthode de filtrage d'une carte de disparité associé à une des vues d'une image stéréoscopique comprenant les étapes d'identification des pixels (xn) auxquels est associée une valeur de disparité erronée (d(xn)) par comparaison avec les valeurs de disparité des pixels avoisinants (xn-1,xn+1) et de correction des valeurs de disparité des pixels identifiés.

Description

Méthode et dispositif de filtrage d'une carte de disparité
La présente invention concerne une image stéréoscopique et plus particulièrement une méthode et un dispositif de filtrage de la carte de disparité associée à une telle image .
La synthèse de vue 3D ou l'interpolation de vue 3D consiste à créer un rendu3D autre que celui représenté par l'image stéréoscopique source. Le rendu 3D s'ajuste alors à l'application choisie ou à l'utilisateur. Les vues nécessaires pour adresser les écrans multi-vues sont pour la plupart recrées à partir d'une seule image stéréoscopique.
En effet cette synthèse de vue s'appuie sur l'image stéréoscopique source et sur une carte de disparité. La carte de disparité est généralement associée à une image source droite ou gauche dans le cas d'une image stéréoscopique et fournit pour chaque élément d'image une donnée représentant la distance (en nombre de pixels) entre la position de cet élément d'image dans l'image droite et dans l'image gauche.
Cette synthèse de vue peut s'appuyer également sur une carte de profondeur car il est possible de revenir à une valeur de profondeur à partir de la valeur de disparité, ou inversement, en introduisant certaines données, telles la taille de l'écran ou la distance entre l'observateur et l'écran à l'aide d'algorithme connu de l'homme de métier.
Pour créer une nouvelle vue par interpolation à partir d'une image source droite ou gauche et de la carte de disparité associée, cette carte de disparité est projetée au niveau de la vue que l'on veut générer. Après cette projection, on dispose donc d'une carte de disparité modifiée correspondant à la vue souhaitée, chaque pixel de cette carte de disparité modifiée indique une valeur de disparité qui va être ensuite utilisée pour adapter les informations correspondant à l'image droite ou gauche à régénérer.
Le vecteur de disparité de chaque pixel à interpoler doit pointer sur les mêmes points d'objets dans les images droite et gauche.
Cependant, une gestion des zones d'occultation est nécessaire car il existe des pixels dans l'image à interpoler qui supportent des points d'objets visibles dans une image et absents dans l'autre. En effet ces objets qui sont dans le champ d'une première vue, sont soit en dehors du champ d'une scène d'une seconde vue, soit occultés par un objet d'avant-plan. Ces pixels particuliers doivent être interpolés uniquement à partir de l'image qui contient le point correspondant. Il est donc nécessaire d'identifier ces pixels particuliers et de leur attribuer une disparité.
Le document US2010/0215251 décrit une méthode et un dispositif de traitement d'une carte de profondeur. La méthode consiste à obtenir une carte de profondeur basée sur une carte de profondeur comprimée comprenant l'information de profondeur d'une scène capturée. La scène comporte un objet. Une information d'occlusion comportant l'information occlue par l'objet dans la carte de profondeur est fournie. Au moins une partie de l'information de d'occlusion est ensuite utilisée afin de réduire les distorsions des objets façonnés dans la carte de profondeur.
Ce document se rapporte donc à une méthode de traitement d'informations pour la correction d'une carte de profondeur en rapport avec une zone occultée par un objet.
Notre invention a pour but de pallier à un problème différent qui concerne les pixels dits de transition situés sur les bords d'objets. En effet si par exemple, une scène comporte deux objets plats situés à des profondeurs fixes et distinctes la carte de disparité associée aux éléments de la vue droite ou de la vue gauche ne devrait contenir que deux valeurs, la valeur de la disparité du premier objet et celle distincte de la disparité du second objet étant donné qu'il n'y a dans la scène que deux possibilités avec deux disparités différentes.
La carte de disparité ne contenant que deux valeurs de disparité, il est dans ce cas aisé de projeter cette carte de disparité sur une vue intermédiaire entre la vue de gauche et la vue de droite et ainsi d'interpoler l'une des deux images.
Or il n'en est rien car dans les zones, dites de transition, correspondant aux zones limitrophes des deux objets, la valeur de disparité associée aux pixels, dits de transitions, résulte d'un mélange entre la valeur de disparité du pixel du premier objet et celle du second objet. Il est malheureusement impossible de définir correctement une valeur de disparité pour de tels pixels.
On va donc se retrouver avec une valeur de disparité intermédiaire entre les valeurs de disparité d'un objet et de l'autre objet. Malheureusement cette valeur de disparité n'est pas correcte car elle ne pointe pas sur des pixels similaires dans les deux images.
Lors de la projection de la carte de disparité, de telles valeurs vont se retrouver d'une part discordantes, et d'autre part ne pas pointer sur les mêmes objets dans les deux images ce qui peut entraîner des artefacts visibles sur les vues interpolées.
Ce problème de valeur de disparité erronée ou aberrante est présent dans les cartes de disparité obtenues par un estimateur de carte de disparité et dans les cartes de disparité des contenus CGI.
Une solution possible au problème sus-cité serait d'utiliser des cartes de disparité non filtrées (c'est-à-dire crénelées au niveau des contours des objets). Malheureusement s'il est possible d'envisager ce genre de carte pour du contenu CGI, les estimateurs de disparité vont le plus souvent générer naturellement des valeurs intermédiaires entre les différents objets. La présente invention propose une méthode permettant de pallier aux inconvénients cités.
L'invention consiste en une méthode de filtrage d'une carte de disparité associé à une des vues d'une image stéréoscopique comprenant au moins un objet recouvrant partiellement une zone occultée par cet objet . La méthode comprend les étapes de détermination d'au moins une zone de transition autour de l'objet, d'identification des pixels de cette zone de transition dont la valeur de disparité est considérée comme erronée par comparaison avec les valeurs de disparité des pixels avoisinants
correspondant soit à l'objet soit à la zone occultée et la correction des valeurs de disparité des pixels identifiés par attribution d'une nouvelle valeur de disparité
dépendante soit de l'objet soit de la zone occultée en fonction de critères relatifs à l'appartenance du pixel à l'objet ou à la zone occultée. Cette méthode permet donc un filtrage intelligent qui ne filtre que les valeurs de disparité douteuses et préserve donc la majorité de la carte de disparité.
Préférentiellement, l'étape d'identification des pixels présentant une valeur de disparité erronée consiste à identifier comme erroné tout pixel dont la valeur de disparité n'est pas comprise entre les valeurs de disparités des pixels avoisinants (xn-i , xn+i ) ■
Selon une variante de l'invention, l'étape d'identification des pixels présentant une valeur de disparité erronée consiste à identifier comme erroné tout pixel dont la valeur de disparité est différente des valeurs de disparité des pixels avoisinants (xn-i , xn+i ) d'une valeur seuil déterminée.
Préférentiellement l'étape de correction des valeurs erronées de disparité des pixels consiste à remplacer la valeur de disparité des pixels identifiés par une valeur calculée en fonction des disparités des pixels avoisinants.
Selon une variante de l'invention, l'étape de corriger les valeurs erronées de disparité des pixels consiste à supprimer la valeur de disparité des pixels identifiés.
Préférentiellement, l'étape de correction des valeurs de disparité des pixels consiste à déterminer de quelle valeur de disparité des pixels avoisinants (χη-ι ,χη+ι ) , la valeur de disparité du pixel identifié est la plus proche, puis à remplacer la valeur de disparité du pixel identifié par une valeur de remplacement correspondant à la valeur de l'un des pixels avoisinants (xn-i , xn+i ) dont la valeur de disparité est la plus proche.
Préférentiellement, la méthode comprend l'étape supplémentaire, après la
détermination du pixel de plus grande proximité parmi les deux pixels avoisinants (xn- ι ,χη+ι ) , de déterminer l'écart de valeurs de disparité entre celle du pixel avoisinant et celle du pixel avoisinant suivant (xn-2, Xn+2) et de déterminer en fonction de cet écart la valeur de remplacement.
L'invention consiste également en un dispositif de génération de signaux d'affichage d'images tridimensionnelles comprenant au moins un objet recouvrant partiellement une zone occultée par cet objet comportant un dispositif d'émission d'un premier flux de données correspondant à l'une des images droite ou gauche à transmettre, et d'un deuxième flux de données correspondant à la carte de disparité associée à l'une des images droite ou gauche à transmettre et un dispositif de réception des flux de données pour l'affichage des images tridimensionnelles. Il comprend un dispositif de filtrage de la carte de disparité comprenant des moyens de détermination d'au moins une zone de transition autour de l'objet , des moyens d'identification des pixels (xn) de cette zone de transition dont la valeur de disparité (d(xn)) est considérée comme erronée par comparaison avec les valeurs de disparité des pixels avoisinants (xn-i, xn+i)
correspondant soit à l'objet soit à la zone occultée et des moyens de correction des valeurs erronées de disparité des pixels identifiés.
Les caractéristiques et avantages de l'invention mentionnée ci-dessus, ainsi que d'autres, apparaîtront plus clairement à la lecture de la description suivante, faite en relation avec les dessins joints, dans lesquels
La figure 1 représente un système pour délivrer du contenu 3D et contenant un dispositif de filtrage des éléments d'une carte de disparité selon l'invention soit au niveau du dispositif de génération de signaux, soit au niveau du récepteur.
La figure 2 représente un synoptique explicatif d'une méthode de filtrage selon l'invention.
La figure 3 représente les valeurs de disparité d'une carte de disparité d'un système sans dispositif de filtrage.
La figure 4 représente les valeurs de disparité d'une carte de disparité d'un système avec dispositif de filtrage selon l'invention.
Le système tel que représenté par la figure 1 est un dispositif de génération de signaux d'affichage d'au moins une image tridimensionnelle (3D). Il comporte dans le dispositif d'émission un moyen de génération 2 de deux flux de données représentant les pixels, ou éléments d'images ( en anglais « picture éléments » ou « pixels ») des images droites et gauches respectivement, un moyen de génération 3 d'un flux de données correspondant aux informations de disparités des pixels de l'image droite ou gauche représentées par une carte de disparité pour chaque image, un moyen de sélection 4 d'un des flux de données de l'image droite ou gauche à transmettre, un moyen de transmission 5 de l'un des flux de données correspondant à l'image droite ou gauche sélectionnée et du flux de données correspondant à la carte de disparité. Il comporte également et selon l'invention un dispositif de filtrage 6 des valeurs de disparité des différents éléments de la carte de disparité permettant la détection des valeurs erronées et le remplacement de ces valeurs par d'autres valeurs de disparité dépendant des disparités des éléments avoisinants de la carte de disparité associé au moyen de génération des données de la carte de disparité .
Un dispositif récepteur des données reçoit les deux flux de données correspondant à une des images droite ou gauche et à la carte de disparité respectivement et fournit par un interface 7 les signaux d'affichage d'images 3D à un écran ou dispositif d'affichage 8. Selon une variante de l'invention le dispositif de filtrage 6 de la carte de disparité se situe au niveau du dispositif récepteur de signaux et non pas au niveau du dispositif d'émission.
La méthode selon l'invention consiste à filtrer la carte de disparité 6 de manière à déterminer, éliminer ou remplacer, les valeurs de disparité « douteuses ». On entend par valeur de disparité « douteuse » les valeurs de disparité de pixels des zones de transition qui ne correspondent pas à l'une des valeurs de disparité des pixels voisins.
Cette méthode permet un filtrage intelligent qui ne filtre que les valeurs de disparité douteuses et préserve donc la majorité de la carte de disparité.
La carte de disparité représente une information échantillonnée. Il faut donc résoudre les problèmes d'échantillonnage. C'est pourquoi la méthode selon l'invention consiste à filtrer la carte de disparité pour améliorer les contours des objets qui souffrent de ce défaut d'échantillonnage. Cette méthode de filtrage doit d'une part identifier correctement les valeurs de disparité erronées, et d'autre part corriger ces valeurs.
Les valeurs de disparité erronées sont des valeurs intermédiaires entre des valeurs de disparité réelles dans la mesure où ces valeurs de disparité correspondent à des profondeurs où un objet se situe. Mais les valeurs de disparité peuvent être localement croissantes ou décroissantes en présence d'une surface non parallèle au plan de l'écran. La définition de l'algorithme de détection doit tenir compte de ces différents cas.
Il est aussi préférable d'avoir une solution dont les résultats sont continus pour éviter des artéfacts dus à des pixels voisins et similaires et comportant des corrections différentes, ou à un bord d'objet corrigé différemment d'une trame à l'autre. Pour cette raison il est donc conseillé de remplacer les valeurs de disparité plutôt que de les supprimer. Cependant il est toutefois envisageable de supprimer ces valeurs si des artéfacts doivent être supprimés.
La méthode proposée ici est associée à une étude des pixels appartenant à une ligne horizontale selon l'axe des x, mais il serait possible d'utiliser des informations verticales également.
Les valeurs de disparité d(xn) de pixels xn sont déterminées comme erronées si ces valeurs diffèrent des valeurs de disparité d(xn-i) et d(xn+i) des deux pixels voisins direct horizontalement xn-i et xn+i d'une valeur supérieure à la différence |d(xn+2)-d(xn+i)| entre cette dernière valeur d(xn+i) et celle d(xn+2) de son autre pixel voisin horizontalement (xn+2) ou d'une valeur supérieure à la différence |d(xn-2)-d(xn-i)| entre cette dernière valeur d(xn-i) et celle d(xn-2) de son autre pixel voisin horizontalement (xn-2).
Selon une variante de l'invention, d'autres critères peuvent être utilisé pour définir ce qui sera considéré comme valeur de disparité erronée. Une méthode consiste en une comparaison de la valeur de disparité d'un pixel par rapport à une valeur seuil déterminée en fonction des disparités des pixels voisins. Des valeurs de seuil peuvent ainsi être ajoutées. Par exemple, il est possible de déterminer comme erronés les pixels dont les valeurs de disparité (exprimées en pixels) différent de plus 2 pixels avec ses deux voisines.
Dans le cas où ces valeurs erronées devraient être supprimées, il est préférable d'utiliser un critère moins strict de façon à en supprimer le moins possible.
Dans une méthode selon l'invention, la détermination des valeurs de disparité erronées se fait donc en comparant ces valeurs d(xn) avec les valeurs de disparité d(xn-2),d(xn- i),d(xn+i ) ou d(xn-i),d(Xn+i),d(xn+2)de quatre autres pixels voisins xn-2 xn-i n+i xn+2 ■
Un synoptique de détection et correction de pixels ayant des valeurs de disparité erronées est représenté en figure 2.
La première étape 100 correspond à identifier les pixels les pixels N ayant des valeurs de disparité erronées par comparaison avec les valeurs de disparité des pixels avoisinants N-1 et N+1 :
Les étapes 101 et 102 permettent ensuite de déterminer si la disparité d(xn) du pixel xn est comprise entre celles d(xn-i ) et d(xn+ 1 ) des pixels xn-i et xn+i et, à l'étape 101 et à l'étape 102, de comparer les disparités des pixels xn-i et xn+i : d(xn-i)<d(Xn)<d(xn+i ) ou d(xn-i)>d(Xn)>d(xn+i )
L'étape 103 correspond au cas où la valeur de la disparité n'est pas comprise entre celles des pixels avoisinants. Une correction de cette valeur est nécessaire. Cette valeur peut être remplacée par la valeur de disparité la plus proche ou être supprimée.
Puis aux étapes 104 et 105, l'écart de disparité entre les pixels xn et xn-iest comparé avec celui entre xn et xn+i . Ces étapes correspondent à une étude de rapprochement déterminant si la valeur de disparité de xn est plus proche de celle de xn+i ou de xn-i . Dans le cas d'un pixel situé à la frontière entre deux objets, ceci revient à déterminer de quel objet ce pixel est le plus proche :
|d(xn-i)-d(xn)| < |d(xn+i)-d(xn)|,
L'étape 106 permet de tenir compte d'une disparité variable (croissante ou
décroissante) pour l'objet correspondant aux pixels xn-i et xn.2. Cette étape permet donc de déterminer une valeur de disparité de remplacement d'(xn) correspondant à la valeur maximale de la somme entre la disparité d(xn-i ) du pixel xn-i et de l'écart entre les disparités d(xn-2) et d(xn-i ) des pixesl xn-2 et xn-i .
Similairement au cours des étapes 107, 108 et 109, les valeurs de remplacement de disparité d'(xn) sont déterminées en tenant compte d'une disparité variable pour les objets correspondant aux pixels voisins xn-2 et xn-i ou xn+i et xn+2- Des valeurs maximales sont déterminées si d(xn) est plus proche de la valeur la plus grande des deux valeurs de disparité. Et des valeurs minimales sont déterminées si d(xn) est plus proche de la valeur la plus petite des deux valeurs de disparité.
Au cours de l'étape 1 10, si la valeur erronée de disparité du pixel est supérieure à cette valeur maximale déterminée à l'étape 106, la valeur erronée de disparité du pixel xn est remplacée par cette valeur maximale déterminée : d'(xn)= max value .
Au cours de cette étape 1 10, si la valeur erronée de disparité du pixel n'est pas supérieure à cette valeur maximale déterminée à l'étape 106, la valeur erronée de disparité du pixel xn est remplacée par la valeur de disparité du pixel xn-i : d'(xn)= d(xn-i )
De même, au cours de l'étape 1 12,1a valeur erronée de disparité du pixel xn est remplacée par la valeur minimale déterminée au cours de l'étape précédente: « d'(xn)= min value » ou par la valeur de disparité du pixel suivant xn+i : « d'(xn)= d(xn+i ) ».
Similairement, au cours des étapes 1 14 et 1 16, la valeur erronée de disparité du pixel xn est remplacée par la valeur minimale ou maximale déterminée au cours de l'étape précédente ou par la valeur de disparité du pixel suivant xn+i ou précédent xn-i . Selon une variante de l'invention, le processus décrit par ce synoptique peut être affiné en tenant compte de fort changement de disparité ou de cas particuliers.
Les dernières étapes 1 10 - 1 16 attribuent donc préférablement une nouvelle valeur à la valeur de disparité en fonction des critères précédents. Il est alternativement possible de remplacer cette étape par une suppression de la valeur de disparité.
Dans tous les cas non traités, la valeur de disparité est considérée comme correcte et non remplacée.
La méthode de filtrage proposée par l'invention est symétrique et traite donc de la même manière les bords droit et gauche des objets bien que les problèmes liés à ces bords soient différents.
En effet, les exemples concernent l'interpolation du bord droit des objets en avant-plan à partir de la carte de disparité associée à la vue de gauche ou l'interpolation du bord gauche des objets en avant-plan à partir de la carte de disparité associée à la vue de droite car les problèmes d'artefacts y sont les plus importants.
Les deux autres configurations, soit l'interpolation du bord gauche des objets en avant- plan à partir de la carte de disparité associée à la vue de gauche soit l'interpolation du bord droit des objets en avant-plan à partir de la carte de disparité associée à la vue de droite, posent des problèmes bien moindres dans la mesure où les projections des valeurs erronées se retrouvent le plus souvent occultées par l'objet en avant-plan. Cependant un pré-filtrage est intéressant dans la mesure où l'on peut dans certains cas récupérer une partie du bord de l'objet en avant-plan.
Selon une variante de l'invention, la méthode assure le traitement sur le bord droit des objets en avant-plan pour l'interpolation à partir de la carte de disparité associée à la vue de gauche. Similairement et selon une autre variante de l'invention, la méthode assure le traitement sur le bord gauche des objets en avant-plan pour l'interpolation à partir de la carte de disparité associée à la vue de droite. Cette dissociation ayant lieu lors de la première étape (d(xn-1 )<d(xn)<d(xn+1 ) ou d(xn- 1 )>d(xn)>d(xn+1 )), il suffirait de ne retenir qu'une seule de ces conditions pour ne faire le pré-filtrage que sur un seul côté.
La figure 3 représente les valeurs de disparité d'une carte de disparité d'une image comportant deux éléments de disparités différentes d'un système sans dispositif de filtrage. Ces deux valeurs sont représentées par un gris clair et un gris foncé
respectivement. Au niveau de la transition entre les deux éléments, il existe différentes valeurs de disparité représentées par des tons de gris intermédiaires entre le gris clair et le gris foncé
La figure 4 représente les valeurs de disparité d'une carte de disparité d'un système avec dispositif de filtrage selon l'invention. Au niveau de la transition les valeurs de disparité erronées ont été rectifiées et remplacées par l'une des deux valeurs existantes conformément à la méthode selon l'invention. Après filtrage, la carte de disparité comporte uniquement deux valeurs.

Claims

Revendications
1. Méthode de filtrage d'une carte de disparité associé à une des vues d'une image stéréoscopique comprenant au moins un objet recouvrant partiellement une zone occultée par cet objet et comprenant les étapes de :
- détermination d'au moins une zone de transition autour de l'objet,
- identification des pixels (xn) de cette zone de transition dont la valeur de disparité (d(xn)) est considérée comme erronée par comparaison avec les valeurs de disparité des pixels avoisinants (xn-i , xn+i )
correspondant soit à l'objet soit à la zone occultée;
- correction des valeurs de disparité des pixels identifiés par attribution d'une nouvelle valeur de disparité dépendante soit de l'objet soit de la zone occultée en fonction de critères relatifs à l'appartenance du pixel à l'objet ou à la zone occultée.
2. Méthode selon la revendication 1 caractérisée en ce que l'étape d'identification des pixels dont la valeur de disparité est considérée comme erronée consiste à identifier comme erroné tout pixel dont la valeur de disparité n'est pas égale à l'une des valeurs de disparités des pixels avoisinants (xn-i,xn+i ).
3. Méthode selon la revendication 1 caractérisée en ce que l'étape d'identification des pixels dont la valeur de disparité est considérée comme erronée consiste à identifier comme erroné tout pixel dont la valeur de disparité est différente des valeurs de disparité des pixels avoisinants (xn-i,xn+i ) d'une valeur seuil déterminée.
4. Méthode selon la revendication 1 caractérisée en ce que l'étape de correction des valeurs erronées de disparité des pixels consiste à remplacer la valeur de disparité des pixels identifiés par une valeur calculée en fonction des disparités des pixels avoisinants.
5. Méthode selon la revendication 1 caractérisée en ce que l'étape de correction des valeurs erronées de disparité des pixels consiste à supprimer la valeur de disparité des pixels identifiés.
6. Méthode selon la revendication 4 caractérisée en ce que l'étape de correction des valeurs de disparité des pixels consiste à déterminer de quelle valeur de disparité des pixels avoisinants (xn-i,xn+i ), la valeur de disparité du pixel identifié est la plus proche et à remplacer la valeur de disparité du pixel identifié par une valeur de remplacement correspondant à la valeur de disparité de l'un des pixels avoisinants (xn-i,xn+i ) dont la valeur de disparité est la plus proche.
7. Méthode selon la revendication 6 caractérisée en ce que la méthode comprend l'étape supplémentaire, après la détermination du pixel de plus grande proximité parmi les deux pixels avoisinants (xn-i , xn+i ), de déterminer l'écart de valeurs de disparité entre celle du pixel avoisinant et celle du pixel avoisinant suivant (xn-2, xn+2) et de déterminer la valeur de remplacement en tenant compte de cet écart.
8. Dispositif de génération de signaux d'affichage d'images tridimensionnelles
comprenant au moins un objet recouvrant partiellement une zone occultée par cet objet comportant un dispositif d'émission d'un premier flux de données correspondant à l'une des images droite ou gauche à transmettre, et d'un deuxième flux de données correspondant à la carte de disparité associée à l'une des images droite ou gauche à transmettre et un dispositif de réception des flux de données pour l'affichage des images tridimensionnelles caractérisé en ce qu'il comprend un dispositif de filtrage de la carte de disparité comprenant
- des moyens de détermination d'au moins une zone de transition autour de l'objet ;
- des moyens d'identification des pixels (xn) de cette zone de transition dont la valeur de disparité (d(xn)) est considérée comme erronée par comparaison avec les valeurs de disparité des pixels avoisinants (xn-i , xn+i ) correspondant soit à l'objet soit à la zone occultée et ; - des moyens de correction des valeurs erronées de disparité des pixels identifiés.
9. Dispositif de génération de signaux selon la revendication 8 caractérisé en ce que le dispositif de filtrage associé à la carte de disparité se situe au niveau du dispositif d'émission.
10. Dispositif de génération de signaux selon la revendication 8 caractérisé en ce que le dispositif de filtrage associé à la carte de disparité se situe au niveau du dispositif de réception.
EP12775782.1A 2011-09-29 2012-09-27 Méthode et dispositif de filtrage d'une carte de disparité Withdrawn EP2761876A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1158739 2011-09-29
PCT/FR2012/052195 WO2013045853A1 (fr) 2011-09-29 2012-09-27 Méthode et dispositif de filtrage d'une carte de disparité

Publications (1)

Publication Number Publication Date
EP2761876A1 true EP2761876A1 (fr) 2014-08-06

Family

ID=47071367

Family Applications (1)

Application Number Title Priority Date Filing Date
EP12775782.1A Withdrawn EP2761876A1 (fr) 2011-09-29 2012-09-27 Méthode et dispositif de filtrage d'une carte de disparité

Country Status (7)

Country Link
US (1) US9299154B2 (fr)
EP (1) EP2761876A1 (fr)
JP (1) JP2014534665A (fr)
KR (1) KR20140069266A (fr)
CN (1) CN103828355B (fr)
BR (1) BR112014007263A2 (fr)
WO (1) WO2013045853A1 (fr)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818232B2 (en) * 2015-08-26 2017-11-14 Adobe Systems Incorporated Color-based depth smoothing of scanned 3D model to enhance geometry in 3D printing
JP6991700B2 (ja) * 2016-04-28 2022-01-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010007285A1 (fr) * 2008-06-24 2010-01-21 France Telecom Procede et dispositif de remplissage des zones d'occultation d'une carte de profondeur ou de disparites estimee a partir d'au moins deux images
WO2010037512A1 (fr) * 2008-10-02 2010-04-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Synthèse de vue intermédiaire et extraction de signal de données multivue
US20110063420A1 (en) * 2009-09-11 2011-03-17 Tomonori Masuda Image processing apparatus

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3551467B2 (ja) * 1994-04-13 2004-08-04 松下電器産業株式会社 視差演算装置、視差演算方法及び画像合成装置
JP3769850B2 (ja) * 1996-12-26 2006-04-26 松下電器産業株式会社 中間視点画像生成方法および視差推定方法および画像伝送方法
US7015926B2 (en) 2004-06-28 2006-03-21 Microsoft Corporation System and process for generating a two-layer, 3D representation of a scene
WO2009001255A1 (fr) 2007-06-26 2008-12-31 Koninklijke Philips Electronics N.V. Procédé et système pour coder un signal vidéo 3d, signal vidéo 3d incorporé, procédé et système pour décoder un signal vidéo 3d
WO2009047681A1 (fr) * 2007-10-11 2009-04-16 Koninklijke Philips Electronics N.V. Procédé et dispositif pour traiter une carte de profondeur
WO2009061305A1 (fr) 2007-11-09 2009-05-14 Thomson Licensing Système et procédé d'extraction de carte de profondeur à l'aide d'un filtrage par région
US8106924B2 (en) 2008-07-31 2012-01-31 Stmicroelectronics S.R.L. Method and system for video rendering, computer program product therefor
KR20110059790A (ko) 2008-09-25 2011-06-03 코닌클리케 필립스 일렉트로닉스 엔.브이. 3차원 이미지 데이터 처리
EP2382791B1 (fr) * 2009-01-27 2014-12-17 Telefonaktiebolaget L M Ericsson (PUBL) Traitement conjoint de profondeur et vidéo
KR101590763B1 (ko) * 2009-06-10 2016-02-02 삼성전자주식회사 Depth map 오브젝트의 영역 확장을 이용한 3d 영상 생성 장치 및 방법
US8933925B2 (en) 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
WO2011097306A1 (fr) * 2010-02-04 2011-08-11 Sony Corporation Conversion d'image 2d en image 3d basée sur un contenu d'image
US20110199469A1 (en) * 2010-02-15 2011-08-18 Gallagher Andrew C Detection and display of stereo images
US8428342B2 (en) * 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
WO2012100225A1 (fr) * 2011-01-20 2012-07-26 University Of Iowa Research Foundation Systèmes et procédés de génération de forme tridimensionnelle à partir d'images en couleur stéréoscopiques
US8837816B2 (en) * 2011-09-27 2014-09-16 Mediatek Inc. Method and apparatus for generating final depth information related map that is reconstructed from coarse depth information related map through guided interpolation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010007285A1 (fr) * 2008-06-24 2010-01-21 France Telecom Procede et dispositif de remplissage des zones d'occultation d'une carte de profondeur ou de disparites estimee a partir d'au moins deux images
WO2010037512A1 (fr) * 2008-10-02 2010-04-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Synthèse de vue intermédiaire et extraction de signal de données multivue
US20110063420A1 (en) * 2009-09-11 2011-03-17 Tomonori Masuda Image processing apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LAI-MAN PO ET AL: "A new multidirectional extrapolation hole-filling method for Depth-Image-Based Rendering", IMAGE PROCESSING (ICIP), 2011 18TH IEEE INTERNATIONAL CONFERENCE ON, IEEE, 11 September 2011 (2011-09-11), pages 2589 - 2592, XP032080200, ISBN: 978-1-4577-1304-0, DOI: 10.1109/ICIP.2011.6116194 *
See also references of WO2013045853A1 *

Also Published As

Publication number Publication date
JP2014534665A (ja) 2014-12-18
CN103828355B (zh) 2017-05-31
WO2013045853A1 (fr) 2013-04-04
US20140226899A1 (en) 2014-08-14
US9299154B2 (en) 2016-03-29
KR20140069266A (ko) 2014-06-09
CN103828355A (zh) 2014-05-28
BR112014007263A2 (pt) 2017-03-28

Similar Documents

Publication Publication Date Title
US10437065B2 (en) IPD correction and reprojection for accurate mixed reality object placement
EP2304686B1 (fr) Procede et dispositif de remplissage des zones d&#39;occultation d&#39;une carte de profondeur ou de disparites estimee a partir d&#39;au moins deux images
US9041709B2 (en) Saliency based disparity mapping
Chamaret et al. Adaptive 3D rendering based on region-of-interest
WO2008155213A1 (fr) Procede et equipements de production et de visualisation d&#39;images stereoscopiques avec filtres colores
Zhou et al. Learning to dehaze with polarization
AU2011200146A1 (en) Method and apparatus for processing video games
EP3114831B1 (fr) Débruitage vidéo optimisé pour système multicapteur hétérogène
FR2982448A1 (fr) Procede de traitement d&#39;image stereoscopique comprenant un objet incruste et dispositif correspondant
FR3002104A1 (fr) Procede pour generer, transmettre et recevoir des images stereoscopiques, et dispositifs connexes
EP2469868B1 (fr) Procédé de correction de l&#39;hyperstéréoscopie et système de visualisation de casque associé
FR2971603A1 (fr) Procede de traitement d’image stereoscopique comprenant une bande noire et dispositif correspondant
EP2761876A1 (fr) Méthode et dispositif de filtrage d&#39;une carte de disparité
EP2801075A1 (fr) Procede de traitement d&#39;image d&#39;une camera embarquee sur un vehicule et dispositif de traitement correspondant
FR2968108A1 (fr) Procede de reduction de la taille d’une image stereoscopique
US9497436B2 (en) Virtual sport system using start sensor for accurate simulation of movement of a ball
EP3072110B1 (fr) Procédé d&#39;estimation du mouvement d&#39;un objet
US20130201186A1 (en) Film grain for stereoscopic or multi-view images
EP2629533B1 (fr) Grain de film pour images stéréoscopiques ou à vues multiples
FR2984665A1 (fr) Procede de reduction du crosstalk dans les images stereoscopiques.
FR3028703A1 (fr) Procede de rendu stereoscopique d&#39;une scene 3d sur un ecran, dispositif, systeme et programme d&#39;ordinateur associes
WO2008142235A1 (fr) Procede de traitement d&#39;image pour la synthese d&#39;image autostereoscopique
Yuan et al. Stereoscopic image-inpainting-based view synthesis algorithm for glasses-based and glasses-free 3D displays
EP2525578A1 (fr) Méthode d&#39;ajustement de disparité d&#39;un contenu 3D pour un observateur
FR2873213A1 (fr) Procede et dispositif d&#39;obtention d&#39;un signal stereoscopique

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20140424

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20160909

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

RIC1 Information provided on ipc code assigned before grant

Ipc: H04N 13/128 20140806ALI20181106BHEP

Ipc: H04N 13/00 20060101AFI20181106BHEP

Ipc: H04N 13/122 20140806ALI20181106BHEP

Ipc: H04N 13/111 20140806ALI20181106BHEP

INTG Intention to grant announced

Effective date: 20181206

RIC1 Information provided on ipc code assigned before grant

Ipc: H04N 13/122 20180101ALI20181106BHEP

Ipc: H04N 13/111 20180101ALI20181106BHEP

Ipc: H04N 13/128 20180101ALI20181106BHEP

Ipc: H04N 13/00 20180101AFI20181106BHEP

RIC1 Information provided on ipc code assigned before grant

Ipc: H04N 13/111 20180101ALI20181106BHEP

Ipc: H04N 13/122 20180101ALI20181106BHEP

Ipc: H04N 13/00 20180101AFI20181106BHEP

Ipc: H04N 13/128 20180101ALI20181106BHEP

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: INTERDIGITAL CE PATENT HOLDINGS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20190417