FR2888346A1 - Procede et dispositif d'obtention d'une sequence d'images stereoscopiques a partir d'une sequence d'images monoscopiques - Google Patents

Procede et dispositif d'obtention d'une sequence d'images stereoscopiques a partir d'une sequence d'images monoscopiques Download PDF

Info

Publication number
FR2888346A1
FR2888346A1 FR0507209A FR0507209A FR2888346A1 FR 2888346 A1 FR2888346 A1 FR 2888346A1 FR 0507209 A FR0507209 A FR 0507209A FR 0507209 A FR0507209 A FR 0507209A FR 2888346 A1 FR2888346 A1 FR 2888346A1
Authority
FR
France
Prior art keywords
image
images
sequence
monoscopic
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0507209A
Other languages
English (en)
Other versions
FR2888346B1 (fr
Inventor
Christophe Gisquet
Felix Henry
Maryline Clare
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Research Center France SAS
Original Assignee
Canon Research Center France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Research Center France SAS filed Critical Canon Research Center France SAS
Priority to FR0507209A priority Critical patent/FR2888346B1/fr
Publication of FR2888346A1 publication Critical patent/FR2888346A1/fr
Application granted granted Critical
Publication of FR2888346B1 publication Critical patent/FR2888346B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Le procédé d'obtention d'une séquence d'images stéréoscopiques à partir d'une séquence d'images monoscopiques, comprend les étapes de :- sélection d'une vue de référence correspondant à une image de la paire d'images monoscopiques ;- détermination d'une référence spatiale identique et constante pour toutes les images de référence de la séquence monoscopique ;et pour chaque paire de la séquence monoscopique apte à constituer une image stéréoscopique:1) mémoriser l'image de référence correspondant à la vue de référence dans un emplacement choisi selon ladite référence spatiale ;2) calculer les paramètres d'une transformation mettant en correspondance une partie spatiale commune de l'image de référence et de l'autre image de la paire ;3) obtenir une image appariée en appliquant la transformation calculée à l'autre image de la paire ;4) mémoriser l'image appariée ainsi obtenue dans un emplacement choisi selon ladite référence spatiale.

Description

La présente invention concerne l'obtention d'une séquence d'images
stéréoscopiques à partir d'une séquence d'images monoscopiques.
Elle trouve une application dans le traitement de l'image numérique et la détection de similitude entre deux images. La similarité se définit ici comme étant une équivalence à quelques transformations près: changement de luminance, translation, rotation, etc. La recherche de similitude ente deux images numériques est un problème relativement ancien, et plus particulièrement dans les domaines suivants: - en codage vidéo, l'estimation de mouvement nécessite la mise en 15 correspondance de deux images; - en gestion de base de données image, l'information de similarité est nécessaire pour savoir si une image utilisée correspond à une version transformée d'une image qui nécessite un règlement de droits; - en vision stéréoscopique, deux vues d'une même scène doivent être visualisées simultanément pour générer un effet tridimensionnel. Cette mise en correspondance nécessite une étape de recherche de similarités entre les deux images; - en traitement vidéo, la présence d'accrocs, poussières et autres sur de vieilles vidéos a amener le développement de techniques type in- painting , remplaçant la zone manquante par un contenu synthétisé à partir du voisinage (dans l'espace et le temps).
On connaît déjà des techniques qui sont utilisées communément dans chacune des quatre familles d'applications mentionnées ci-avant.
Le document Displacement Measurement and Its Application in Interframe Image coding de J.R. Jain et al. (IEEE transactions on communications, Vol. COM-29, n 12, Décembre 1981) est un des premiers articles publiés sur les block matching algorithms (algorithme de mise en correspondance de blocs). Il décrit le découpage en blocs des images et les façons d'estimer des similarités entre eux: si la différence (erreur absolue par exemple) entre deux blocs est inférieure à un certain seuil sur la fenêtre de recherche donnée, c'est que les deux blocs se correspondent et le déplacement entre les deux blocs constitue un estimateur du mouvement local. Cette technique est simple et efficace pour les recherches de mouvements de translation, mais ne fonctionne pas en cas de rotation, qui constituent une part du problème de calibration.
L'article Local Gray value Invariants for Image Retrieval (Schmid et al., IEEE transactions on pattern analysis and machine intelligence, vol. 19, nos, mai 1997) vise à vérifier si une image appartient à un ensemble donné d'images. Pour cela, la méthode consiste à définir des points d'intérêt dans l'image source qu'on essaie de retrouver dans les images cibles. A chaque point d'intérêt sont associées des valeurs telles que la luminance en ce point, les dérivées locales, et la comparaison des vecteurs constitués de ces valeurs permet de décider si oui ou non les images se correspondent.
La publication Disparity Analysis of Images de S.T. Barnard et al (IEEE transactions on pattern analysis and machine intelligence, Vol. PAMI-2, n 4, juillet 1980) présente une technique classique de mise en correspondance d'images stéréoscopiques. Un ensemble de blocs candidats est défini dans chacune des deux images, puis on recherche à mettre en correspondance chaque bloc candidat de la première image avec un bloc candidat de la deuxième. Un bloc est déclaré candidat s'il a des caractéristiques remarquables (comme une activité importante au lieu d'une relative homogénéité peu significative).
L'article Image filling-in in a decomposition space de M. Bertalmio et al (présenté à la conférence ICIP 2003) divise l'image en deux images, une de structures (bords, contours, ...) et l'autre de textures. La reconstruction des zones manquantes est réalisée pour chaque composante de chaque image: - l'image de structures est réalisée par propagation des zones environnant la zone à recréer selon leurs directions structurelles (par exemple les lignes ayant une même valeur de gris), -une texture est synthétisée pour la zone manquante, par exemple un processus itératif traitant chaque nouveau pixel comme le résultat de l'échantillonnage des pixels environnants vus comme un champ de Markov aléatoire.
Les deux images sont finalement rassemblées de manière adaptive afin de respecter le caractère structural ou textural de chaque pixel recréé.
Ces techniques connues permettent de réaliser certaines étapes de calibration stéréoscopique d'une paire d'images. Toutefois, de telles techniques connues ne permettent pas d'obtenir une séquence de paires d'images stéréoscopiques, lesquelles paires d'images étant tirées d'une seule et unique séquence d'images monoscopiques.
On connaît également dans l'état de l'art des méthodes pour obtenir des séquences d'images stéréoscopiques à partir de séquences d'images monoscopiques. Dans la demande de brevet, déposée le 10 juin 2005 sous le numéro FR05.05944, au nom de la Demanderesse, et non encore publiée à la date de dépôt de la présente demande, est proposée une méthode pour sélectionner des paires d'images d'une séquence monoscopique pour obtenir une séquence stéréoscopique, la séquence monoscopique initiale étant acquise par un utilisateur avec un appareil de capture classique (appareil photo numérique ou caméscope par exemple). La méthode suppose un positionnement particulier de l'appareil d'acquisition, avec un mouvement régulier et substantiellement tangentiel au plan de l'objectif. Divers petits mouvements parasites lors de la prise de vues peuvent induire des artéfacts visuels sur le résultat stéréoscopique.
Afin de pallier les éventuelles imperfections de la prise de vue, il est proposé dans cette méthode d'appliquer une étape de calibration entre les images d'une paire destinée à former une séquence stéréoscopique.
Cependant, une telle calibration peut apporter des artefacts visuels supplémentaires, notamment un effet de discontinuité spatiale dû à l'absence d'information sur certaines images après calibration. En effet, une part du calibrage consiste à translater l'image. De fait, cette translation introduit des zones non définies. En outre, le calibrage pour chaque paire peut aboutir à des décisions différentes; le résultat du calibrage peut se traduire alors par des transformations de sens opposé, en particulier pour la translation. Le résultat visuel est que la vidéo constituée des paires calibrées possède un mouvement erratique, pouvant se traduire par des saccades dans le mouvement.
La présente invention apporte justement une solution à ce problème.
Elle vise ainsi à conserver la continuité tant spatiale (réduction des artéfacts visuels dus à l'absence d'information sur une partie de chaque paire) que temporelle (minimisation des problèmes de saccade dûs à la compensation de mouvement) de la séquence stéréoscopique obtenue.
Elle porte sur un procédé d'obtention d'une séquence d'images stéréoscopiques à partir d'une séquence d'images monoscopiques, chaque image stéréoscopique de la séquence stéréoscopique étant composée d'une paire d'images obtenues à partir de la séquence monoscopique.
Selon une définition générale de l'invention, le procédé comprend les étapes suivantes: - sélection d'une vue de référence correspondant à une image de la 15 paire d'images monoscopiques; - détermination d'une référence spatiale identique et constante pour toutes les images de référence de la séquence monoscopique; et - pour chaque paire de la séquence monoscopique apte à constituer une image stéréoscopique il est prévu les étapes suivantes: 1) mémoriser l'image de référence correspondant à la vue de référence dans un emplacement choisi selon ladite référence spatiale; 2) calculer les paramètres d'une transformation mettant en correspondance une partie spatiale commune de l'image de référence et de l'autre image de la paire; 3) obtenir une image appariée en appliquant la transformation calculée à l'autre image de la paire; et 4) mémoriser l'image appariée ainsi obtenue dans un emplacement choisi selon ladite référence spatiale.
Ainsi, le procédé permet, grâce à la sélection d'une vue de référence et à la détermination d'une référence spatiale constante, de conserver la fluidité au moins temporelle de la prise de vue initiale de la séquence monoscopique.
Selon une réalisation, le procédé comporte après l'étape de calcul, l'étape suivante: - traiter l'image de référence mémorisée selon un premier mode de traitement choisi tenant compte de ladite partie spatiale commune et de ladite référence spatiale.
Selon une autre réalisation, le procédé comporte en outre l'étape suivante: - traiter l'image appariée mémorisée selon un second mode de traitement tenant compte de ladite référence spatiale.
En pratique, le premier mode de traitement comporte le masquage des parties complémentaires par rapport à la partie spatiale commune, ce qui permet d'éviter d'introduire des artéfacts visuels en utilisant des parties inutiles pour la stéréoscopie dans la composition d'une image stéréoscopique.
Par exemple, le masquage comprend la synthèse des parties manquantes par compensation de mouvement par rapport à d'autres images de la séquence monoscopique, une analyse des structures et/ou une synthèse de textures.
De son côté, le second mode de traitement comporte l'élimination des parties complémentaires par rapport à la partie spatiale commune et/ou la synthèse des parties manquantes par compensation de mouvement, une analyse des structures et/ou une synthèse de textures.
En pratique, la transformation comporte une translation. En effet, pour former une image stéréoscopique à partir d'une paire d'images monoscopiques, il est nécessaire que les deux images de la paire soient translatées l'une par rapport à l'autre pour que la distance spatiale entre elles corresponde sensiblement à la distance entre les deux yeux. Cette translation reflète une approximation du mouvement de l'appareil d'acquisition de la séquence monoscopique, qui peut être soit un mouvement translationnel, soit une rotation centripète ou une rotation centrifuge par rapport à une scène filmée.
En outre, la transformation appartient au groupe formé par une rotation, un changement colorimétrique, une correction de perspective. Ces transformations correspondent à des mouvements de l'utilisateur lors de la capture de la séquence monoscopique et aux changements d'éclairage éventuels survenus lors de cette capture.
Par exemple, la référence spatiale est prédéfinie comme étant un des coins de l'image de référence. Ainsi, l'image de référence est ancrée dans la vue de référence de manière aisée, sans nécessiter de calcul supplémentaire.
Selon un autre exemple, la référence spatiale est prédéfinie comme étant le centre de l'image de référence. Ceci est bien adapté aux cas où le dispositif de capture tourne autour d'un sujet: lorsque le sujet n'est pas centré, c'est avant tout que la caméra n'était pas parfaitement orientée. Selon une réalisation, la vue de référence est définie par l'utilisateur.
La présente invention a également pour objet un dispositif d'obtention d'une séquence d'images stéréoscopiques à partir d'une séquence d'images monoscopiques, chaque image stéréoscopique de la séquence stéréoscopique étant composée d'une paire d'images obtenues à partir de la séquence monoscopique.
Selon un autre aspect de l'invention, le dispositif comprend: - des moyens de sélection d'une vue de référence correspondant à une image de la paire d'images monoscopiques; - des moyens de détermination d'une référence spatiale identique et constante pour toutes les images de référence de la séquence 20 monoscopique; - des moyens de mémorisation, aptes pour chaque paire de la séquence monoscopique apte à constituer une image stéréoscopique, à mémoriser l'image de référence correspondant à la vue de référence dans un emplacement choisi selon ladite référence spatiale; des moyens de calcul pour calculer les paramètres d'une transformation mettant en correspondance une partie spatiale commune de l'image de référence et de l'autre image de la paire; - des moyens d'obtention pour obtenir une image appariée en appliquant la transformation calculée à l'autre image de la paire; et - les moyens de mémorisation étant aptes à mémoriser l'image appariée ainsi obtenue dans un emplacement choisi selon ladite référence spatiale.
La présente invention a également pour objet un support d'informations lisible par un système informatique, éventuellement amovible, totalement ou partiellement, notamment CD-ROM ou support magnétique, tel un disque dur ou une disquette, ou support transmissible, tel un signal électrique ou optique, caractérisé en ce qu'il comporte des instructions d'un programme d'ordinateur permettant la mise en oeuvre du procédé d'obtention mentionné ci-avant, lorsque ce programme est chargé et exécuté par un système informatique.
La présente invention a enfin pour objet un programme d'ordinateur stocké sur un support d'informations, ledit programme comportant des instructions permettant la mise en oeuvre du procédé d'obtention mentionné ci-avant, lorsque ce programme est chargé et exécuté par un système informatique.
D'autres caractéristiques et avantages de l'invention apparaîtront à la lumière de la description détaillée ci-après et des dessins dans lesquels: - les figures 1A à 1F représentent une calibration non guidée d'une séquence de paires d'images monoscopiques selon l'art antérieur; - les figures 2A et 2B représentent respectivement une image numérique avec une translation l'une par rapport à l'autre selon l'art antérieur; - la figure 3 représente schématiquement un organigramme illustrant les étapes du procédé selon l'invention; - les figures 4A et 4B représentent un exemple d'images calibrées selon le procédé selon l'invention; - les figures 5A et 5B représentent l'exemple des figures 4A et 4B avec perspective et rotation hors du plan de l'image; et - la figure 6 décrit l'architecture d'un dispositif apte à mettre en oeuvre le procédé selon l'invention.
Généralement, les problèmes rencontrés en calibration d'images concernent la continuité spatiale (zones indéfinies dans les images recalibrées), et la fluidité de l'animation résultante.
Une visualisation de ces problèmes est visible sur les figures 1A à IF, où les zones hachurées ZH présentes les zones indéfinies. On peut observer que, pour chaque paire d'images (fig. 1A, fig. ID; fig. 1B, fig. 1E; fig. 1C, fig. 1 F), le calibrage a permis de mettre en correspondance les vues de gauche (figures 1A à 1 C) et de droite (figures 1 D à IF), et que certaines zones des images, représentées en hachuré sur les figures, ne font pas partie du support spatial commun mis en évidence par le calibrage et peuvent gêner l'expérience visuelle stéréoscopique. Cependant, si l'on regarde la séquence monoscopique composée des images d'une même vue, l'objet n'est plus cadré correctement, et la vidéo semble tressauter.
Le terme vue désigne ici la portion d'une interface où sont affichées les images correspondant à un seul et unique oeil. Dans le cas de l'inscription sur un médium quelconque (sauvegarde dans un fichier par exemple), il s'agit de l'équivalent pour une mémoire tampon dont le contenu va être enregistré ou transmis au médium.
Afin de calibrer les images, il faut choisir une image cible et une image à transformer. Par souci de simplicité, les images cibles , appelées ci- après de référence , sont choisies pour appartenir à la même vue. Ainsi, on appelle vue de référence cette vue: par exemple, les images affichées sur la vue de gauche servent toutes de référence, et les images de droite sont toutes transformées; la vue de gauche est alors la vue de référence. Dans cet exemple-ci la vue de droite est ainsi appelée l'autre vue .
La continuité spatiale est ici le fait qu'une image dans une vue ne contient pas de données gênant la vision stéréoscopique; ainsi, si une image ne peut recouvrir la surface de la vue de référence, les parties manquantes à l'affichage sont perturbantes.
De son côté, la continuité temporelle est ici le fait qu'une séquence de paires issues du calibrage stéréoscopique ne contienne pas plus de mouvements erratiques. En effet, un calibrage non supervisé peut entraîner un positionnement quelconque des images dans les vues de références. Or, pour une même vue, l'ensemble des images y appartenant doit conserver sa fluidité originelle. Si la séquence des images d'une même vue contient des discontinuités (à-coups, ...), on parle alors de discontinuité temporelle.
Comme on le verra par la suite, on définit une référence spatiale. Ceci peut être vu comme le centre d'un référentiel utilisé pour afficher les images dans les vues. Deux exemples classiques sont un coin quelconque (mais choisi une fois pour toutes) de la vue de référence, ou bien le centre de cette vue.
Finalement, on emploie les descriptifs suivants de mouvement: translation pour un mouvement dans une direction et un sens a 5 peu près constant; - rotation centripète lorsque le mouvement est un mouvement au moins vaguement circulaire de centre approximatif le(s) sujet(s) de la séquence; et - rotation centrifuge lorsque la caméra est le centre de ce 10 mouvement circulaire.
On dispose de deux images numériques IMD et IMG telles que représentées en référence aux figures 2A et 2B. L'image IMD est l'image de droite et l'image IMG est l'image de gauche.
En référence à la figure 3, on a décrit l'organigramme des étapes illustrant le procédé selon l'invention. L'invention ne se limite pas à une réalisation graphique mais concerne aussi le transfert sur un médium du résultat de la calibration.
L'étape El0 permet de sélectionner la vue de référence: l'autre vue est celle qui va être adaptée et calibrée pour correspondre à cette vue de référence. Cette sélection peut-être une option dans une interface hommemachine, un réglage par défaut... Une représentation classique de ces deux vues est la vue de gauche et la vue de droite, avec par exemple la vue de gauche prise comme la vue de référence.
Un exemple de réalisation peut être appliqué aux figures 4A et 4B: l'utilisateur, en cliquant sur l'une IMG des deux images, désigne la vue qui sert de référence. En sélectionnant la vue de gauche IMG, les images affichées dans la vue de droite IMD vont alors être traitées selon le processus décrit par la suite.
On fait à nouveau référence à la figure 3.
L'étape E20 est une étape d'initialisation, typiquement en traitant la première paire d'images, mais le traitement peut être aléatoire, en particulier s'il répond à une interaction d'un utilisateur de manière non linéaire: la première paire à traiter peut être la 20ème de l'ensemble de paires, et la suivante la 60ème.
Un autre mode de réalisation peut utiliser d'autres images de la séquence d'images monoscopiques, afin par exemple d'extraire des propriétés générales de la séquence (type de mouvement tel que rotation centripète ou translation, évolution de ce mouvement au cours du temps, ...) et utilisées ultérieurement.
L'étape E30 utilise la dite paire d'images monoscopiques pour calculer la transformation amenant de l'une à l'autre image, ou du moins une souspartie spatiale, dite partie spatiale commune, des deux images. Celle-ci contient dans le mode de réalisation préféré : une translation (déterminée par estimation de mouvement) ; une rotation de centre quelconque dans le plan de l'image; - les changements colorimétriques; une correction de perspective; On note ici que la transformation comporte nécessairement une translation afin de permettre la visualisation en stéréo des images de la paire. La transformation peut également comporter une rotation, une correction de perspective et des changements colorimétriques, dues aux conditions de prise de vue de la séquence monoscopique (mouvement de l'utilisateur de l'appareil photo numérique, changement d'éclairage par exemple).
La détection de rotation en dehors du plan des images peut apporter des corrections au niveau de la perspective: en effet, la projection de la scène sur le plan de l'image change et des objets auparavant à distance égale ne le sont plus. Les images des figures 5A et 5B illustrent ce genre de transformation. Ceci est utile par exemple dans le cas où l'appareil de prise d'images tourne autour d'un sujet mais ne le maintient pas parfaitement au centre des champs de vision. La détermination de la transformation globale ainsi composée sert par la suite pour déterminer différentes transformations à apporter aux deux images.
Dans le cas de la compensation de mouvement, la technique la plus simple est de poser le système d'équations entre un point de coordonnées (x,y) dans l'image de référence et son point transformé de coordonnées (x',y') dans l'autre image. On note alors (Tx, Ty) le vecteur de translation global et (Cx, Cy, e) les paramètres de la rotation, (Cx, Cy) étant les coordonnées du centre de rotation d'angle e dans l'image de référence. On peut alors poser le système d'équations: (x' Cx)=(x Cx)cose (y Cy)sine+Tx 5 '(y ' Cy) (x Cx)sinB+(y Cy)cose+Ty Il faut alors faire subir aux points de l'autre image la transformation inverse de celle qui vient d'être déterminée, ce qui revient à inverser la matrice associée à ce système. Plus simplement: (x Cx)=(x' Cx)cose+(y Cy)sine Tx (y Cy)= (x' Cx)sine+ (y Cy)cose Ty En sus de ce calcul de coordonnées, d'autres opérations, issues de la théorie de l'échantillonnage peuvent être utilisées pour calculer le pixel transformé. La méthode la plus simple est une interpolation bilinéaire: les valeurs x', y', Cx, Cy, Tx et Ty sont à priori entières, mais le résultat exact pour x' et y' ne l'est pas. En fonction de la distance aux pixels avoisinants c'est-à- dire, en notant E(x) la partie entière de x, les points de coordonnées (E(x'),E(y')), (E(x')+1,E(y')), (E(x'),E(y')+1) et (E(x')+1,E(y')+1) -, on calcule la contribution de ces pixels au pixel final.
Quant aux corrections colorimétriques, de nombreuses techniques existent. Un exemple est la technique de matching d'histogrammes: la détermination des histogrammes des deux images dans un espace de couleurs YUV (la différence majeure dans ce cas étant souvent l'exposition et donc les changements de luminosité) permet de déterminer une table de correspondance entre valeurs de pixel et donc de réaliser ces corrections qui font partie de la transformation inverse.
L'étape E40 est la première étape de traitement de l'image de la vue de référence: les données sont copiées dans une mémoire tampon (utilisée pour l'affichage ou pour l'écriture sur un médium quelconque) avec une référence spatiale fixe pour toutes les images de la séquence. Le mode de réalisation préféré utilise ainsi le coin haut gauche pour ancrer l'image dans la vue de référence.
Si, comme décrit dans l'étape E20, on dispose de données supplémentaires globales sur la séquence, d'autres options sont disponibles: compensation des mouvements erratiques (accélération du mouvement, en dehors du mouvement global de la séquence ou typiquement 5 des tremblements lors de la capture de la séquence d'images) ; - centrage des images dans chaque vue dans le cas où le mouvement de l'appareil d'acquisition lors de la prise de vues est une rotation centripète.
Typiquement, pour un mouvement de translation, cela revient à compenser les accélérations présents dans ce mouvement, c'est-à-dire rendre constants les vecteurs de déplacement entre deux images successives quelconques de la séquence. On peut par exemple calculer une valeur moyenne locale (sur 6 vecteurs, nécessitant 7 images) de ce mouvement moyen et interpoler le mouvement (moyennage du mouvement réel par le mouvement moyen). Pour une translation: - si (Dx, Dy) est le vecteur réel - si (Tx,Ty) le vecteur moyen Cela revient à faire une translation ((DxTx)/2, (Dy-Ty)/2).
Un processus équivalent visant à lisser le mouvement peut aussi 20 être envisagé dans le cas de rotations centrifuges ou centripètes.
L'étape E50, s'intéresse principalement au post-traitement, ayant pour but principal l'amélioration visuelle, par exemple pour remplir les zones de la mémoire tampon qui ne sont pas recouvertes par l'image de référence. En effet, grâce au calcul de la transformation effectué à l'étape E30, le support spatial commun entre les deux images de la paire a pu être déterminé. Les parties complémentaires par rapport à la partie spatiale commune déterminée à l'étape E30 sont des parties inutiles ou gênantes pour la vision stéréoscopique. Il est donc utile des les enlever de la zone de référence (réduction au support commun), ou de les remplacer par des données moins perturbantes. C'est ainsi qu'on obtient des zones non couvertes par l'image de référence.
Dans le mode de mise en oeuvre préféré, on effectue un masquage des zones non couvertes par l'image de référence par une des deux techniques suivantes: la synthèse de pixels par in-painting - la compensation de mouvement Pour la première technique, on peut par exemple utiliser la méthode décrite dans l'article de M. Bertalmio cité ci-dessus, qui combine une analyse des structures et une synthèse des textures, afin de réaliser un remplissage des zones manquantes respectant à la fois les structures et contours de l'image et ses textures.
Dans le cas de la deuxième technique, une agrégation des images temporellement proches de l'image de référence peut être utilisée afin d'estimer par compensation de mouvement ces zones: connaissant le mouvement d'une image à l'autre, les zones manquantes d'une image peuvent être présentes dans une autre; les données de cette dernière peuvent alors être utilisées pour déterminer le contenu de la zone manquante.
Un mode de réalisation de l'invention couple ces deux méthodes selon des critères de vraisemblance (distance temporelle et probabilité dans le modèle de Markov).
L'étape E60 correspond à l'étape E40 pour la deuxième vue, mais nécessite un traitement plus important: d'une part, la transformation globale inverse dont les paramètres ont été trouvés (étape E30). D'autre part, il faut tenir compte de la référence spatiale choisie (étape E40) en plus de la dite transformation. Ainsi, si la position pour la vue de référence est le bord haut gauche, le même référentiel sera pris pour l'autre vue, et l'image dans l'autre vue sera ainsi transformée relativement à ce point. Ceci est bien adapté à un mouvement de type translation, où l'observateur perçoit un mouvement général de la scène, qui doit être conservé, avec des mouvements parasites (verticaux, ou dus à une accélération) autour du déplacement moyen. Dans le cas d'une rotation centripète, le référentiel sera le centre de la vue, car il est souhaitable que le sujet (centre de la rotation) soit constamment centré.
L'étape E70 est la même que l'étape E50, appliquée à l'autre vue: 30 les zones non couvertes par l'autre image sont synthétisées par les mêmes méthodes.
Les vues ainsi générées sont alors utilisées durant l'étape E80: -pour une interface graphique (figures 4A et 4B), il s'agit de la mise à jour de l'affichage (les systèmes graphiques alternant des mémoires tampon où le travail va être fait et des mémoires tampons affichées a l'écran) ; - pour une sauvegarde, il s'agit de l'encodage (brut ou compressé) de la mémoire tampon vers un médium quelconque (fichier, ...). Le test de l'étape E90 correspond au cadre de l'étape E10: dans le cas
d'un accès linéaire, on vérifie si d'autres paires sont encore à traiter. Si oui, le processus continue vers l'étape E110, où une autre paire est sélectionnée (la suivante dans le cas d'un accès linéaire). Sinon, le processus s'achève avec l'étape E100.
Un dispositif mettant en oeuvre le logiciel de l'invention est présenté en figure 6.
Ce dispositif peut être par exemple un micro-ordinateur 1000 connecté à différents périphériques, par exemple, une caméra numérique 1001 (ou un scanner, ou tout moyen d'acquisition ou de stockage d'image) reliée à une carte graphique et fournissant des informations à traiter selon l'invention.
Le dispositif 1000 comporte une interface de communication 1002 reliée à un réseau 1003 apte à transmettre des informations numériques. Le dispositif 1000 comporte également un moyen de stockage 1004 tel que par exemple un disque dur. Il comporte aussi un lecteur de disquette 1005. La disquette 1006 comme le disque 1004 peuvent contenir des données d'implantation logicielle de l'invention ainsi que le code de l'invention qui, une fois lu par le dispositif 1000, sera stocké dans le disque dur 1004. Selon une variante, le programme permettant au dispositif de mettre en oeuvre l'invention, peut être stocké en mémoire morte 1010 (appelée ROM sur le dessin). Il en est de même pour les méthodes de codage. En seconde variante, le programme pourra être reçu pour être stocké de façon identique à celle décrite précédemment par l'intermédiaire du réseau de communication 1003.
Ce même dispositif possède un écran 1007 permettant de visualiser les informations à traiter ou de servir d'interface avec l'utilisateur qui pourra paramétrer certains modes de traitement, à l'aide du clavier 1008 ou de tout autre moyen (souris par exemple).
L'unité centrale 1009 (appelée CPU sur le dessin) va exécuter les instructions relatives à la mise en oeuvre de l'invention, instructions stockées dans la mémoire morte 1010 ou dans les autres éléments de stockage. Lors de la mise sous tension, les programmes et méthodes de traitement stockés dans une des mémoires non volatile, par exemple la ROM 1010, sont transférés dans la mémoire vive RAM 1011 qui contiendra alors le code exécutable de l'invention ainsi que les variables nécessaires à la mise en oeuvre de l'invention. En variante, les méthodes de traitement pourront être stockées dans différents endroits. En effet, il est possible d'améliorer l'invention en ajoutant de nouvelles méthodes transmises soit par le réseau de communication 1003 ou par l'intermédiaire de disquette 1006. Bien entendu, les disquettes peuvent être remplacées par tout support d'information tel que CD-ROM ou carte mémoire.
Le bus de communication 1012 permet la communication entre les différents sous éléments du micro-ordinateur 1000 ou liés à lui. La représentation du bus 1012 n'est pas limitative et notamment l'unité centrale 1009 est susceptible de communiquer des instructions à tout sous élément de 1000 directement ou par l'intermédiaire d'un autre sous élément du microordinateur 1000.
Dans un mode de mise en oeuvre préféré de l'invention, l'appareil de mise en oeuvre est un appareil d'acquisition de prise de vue, comme par exemple un appareil photo numérique, qui comporte une interface utilisateur et un capteur CCD pour la prise de vue, mais pas de clavier ou lecteur de disquette.
Le dispositif décrit ici est susceptible de contenir tout ou partie du 25 traitement décrit dans l'invention.

Claims (17)

REVENDICATIONS
1. Procédé d'obtention d'une séquence d'images stéréoscopiques à partir d'une séquence d'images monoscopiques, chaque image stéréoscopique de la séquence stéréoscopique étant composée d'une paire d'images obtenues à partir de la séquence monoscopique, dans lequel il est prévu les étapes de: - sélection d'une vue de référence correspondant à une image de la paire d'images monoscopiques; - détermination d'une référence spatiale identique et constante pour toutes les images de référence de la séquence monoscopique; et pour chaque paire de la séquence monoscopique apte à constituer une image stéréoscopique: 1) mémoriser l'image de référence correspondant à la vue de référence dans un emplacement choisi selon ladite référence spatiale; 2) calculer les paramètres d'une transformation mettant en correspondance une partie spatiale commune de l'image de référence et de l'autre image de la paire; 3) obtenir une image appariée en appliquant la transformation calculée à l'autre image de la paire; 4) mémoriser l'image appariée ainsi obtenue dans un emplacement choisi selon ladite référence spatiale.
2. Procédé selon la revendication 1, caractérisé en ce qu'il comporte après l'étape de calcul, l'étape suivante: - traiter l'image de référence mémorisée selon un premier mode de traitement choisi tenant compte de ladite partie spatiale commune et de ladite référence spatiale.
3. Procédé selon l'une des revendications 1 ou 2, caractérisé en ce qu'il comporte en outre l'étape suivante: - traiter l'image appariée mémorisée selon un second mode de traitement tenant compte de ladite référence spatiale.
4. Procédé selon la revendication 2, dans lequel le premier mode de 5 traitement comporte le masquage des parties complémentaires par rapport à la partie spatiale commune.
5. Procédé selon la revendication 4 caractérisé en ce que le masquage comprend la synthèse des parties complémentaires par rapport à la partie spatiale commune par compensation de mouvement par rapport à d'autres images de la séquence monoscopique, une analyse des structures et/ou une synthèse des textures.
6. Procédé selon la revendication 3, dans lequel le second mode de traitement comporte l'élimination des parties complémentaires par rapport à la partie spatiale commune et/ou la synthèse des parties manquantes par compensation de mouvement, une analyse des structures et/ou une synthèse des textures.
7. Procédé selon la revendication 1, dans lequel la transformation comporte une translation.
8. Procédé selon la revendication 7, dans lequel la transformation appartient au groupe formé par une rotation, un changement colorimétrique, 25 une correction de perspective.
9. Procédé selon la revendication 1, dans lequel la référence spatiale est prédéfinie comme étant un des coins de l'image de référence.
10. Procédé selon la revendication 1, dans lequel la référence spatiale est prédéfinie comme étant le centre de l'image de référence.
11. Procédé selon la revendication 1, dans lequel la vue de référence est définie par l'utilisateur.
12. Dispositif d'obtention d'une séquence d'images stéréoscopiques à partir d'une séquence d'images monoscopiques, chaque image stéréoscopique de la séquence stéréoscopique étant composée d'une paire d'images obtenues à partir de la séquence monoscopique, caractérisé en ce que le dispositif comprend: - des moyens de sélection d'une vue de référence correspondant à 10 une image de la paire d'images monoscopiques; - des moyens de détermination d'une référence spatiale identique et constante pour toutes les images de référence de la séquence monoscopique; - des moyens de mémorisation, aptes pour chaque paire de la 15 séquence monoscopique apte à constituer une image stéréoscopique, à mémoriser l'image de référence correspondant à la vue de référence dans un emplacement choisi selon ladite référence spatiale; - des moyens de calcul pour calculer les paramètres d'une transformation mettant en correspondance une partie spatiale commune de 20 l'image de référence et de l'autre image de la paire; - des moyens d'obtention pour obtenir une image appariée en appliquant la transformation calculée à l'autre image de la paire; et les moyens de mémorisation étant aptes à mémoriser l'image appariée ainsi obtenue dans un emplacement choisi selon ladite référence spatiale.
13. Dispositif selon la revendication 12, caractérisé en ce qu'il comporte des moyens aptes à traiter l'image de référence mémorisée selon un premier mode de traitement choisi tenant compte de ladite partie spatiale commune et de ladite référence spatiale.
14. Dispositif selon la revendication 12 ou 13, caractérisé en ce qu'il comporte des moyens aptes à traiter l'image appariée mémorisée selon un second mode de traitement choisi tenant compte de ladite référence spatiale.
15. Dispositif selon l'une des revendications 12 à 14, caractérisé en ce qu'il comporte des moyens aptes à masquer des parties d'image et des moyens aptes à réaliser la synthèse de parties d'images par compensation de mouvement, par analyse des structures et/ou par synthèse de textures.
16. Support d'informations lisible par un système informatique, éventuellement amovible, totalement ou partiellement, notamment CD-ROM ou support magnétique, tel un disque dur ou une disquette, ou support transmissible, tel un signal électrique ou optique, caractérisé en ce qu'il comporte des instructions d'un programme d'ordinateur permettant la mise en oeuvre d'un procédé selon l'une quelconque des revendications 1 à 11, lorsque ce programme est chargé et exécuté par un système informatique.
17. Programme d'ordinateur stocké sur un support d'informations, ledit programme comportant des instructions permettant la mise en oeuvre d'un procédé selon l'une quelconque des revendications 1 à 11, lorsque ce programme est chargé et exécuté par un système informatique.
FR0507209A 2005-07-06 2005-07-06 Procede et dispositif d'obtention d'une sequence d'images stereoscopiques a partir d'une sequence d'images monoscopiques Active FR2888346B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR0507209A FR2888346B1 (fr) 2005-07-06 2005-07-06 Procede et dispositif d'obtention d'une sequence d'images stereoscopiques a partir d'une sequence d'images monoscopiques

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0507209A FR2888346B1 (fr) 2005-07-06 2005-07-06 Procede et dispositif d'obtention d'une sequence d'images stereoscopiques a partir d'une sequence d'images monoscopiques

Publications (2)

Publication Number Publication Date
FR2888346A1 true FR2888346A1 (fr) 2007-01-12
FR2888346B1 FR2888346B1 (fr) 2008-08-08

Family

ID=36097141

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0507209A Active FR2888346B1 (fr) 2005-07-06 2005-07-06 Procede et dispositif d'obtention d'une sequence d'images stereoscopiques a partir d'une sequence d'images monoscopiques

Country Status (1)

Country Link
FR (1) FR2888346B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2946438A1 (fr) * 2009-06-08 2010-12-10 Erwan Devigon Systeme et procede de generation d'image stereoscopique a decalage des lointains parametrable dans un systeme et procede a n appareils de prise de vue (n>1)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003105491A1 (fr) * 2002-06-10 2003-12-18 Rafael - Armament Development Authority Ltd. Procede permettant de produire des images stereoscopiques a partir d'images monoscopiques
WO2004049736A1 (fr) * 2002-11-21 2004-06-10 Vision Iii Imaging, Inc. Alignement critique d'images parallaxes pour affichage autostereoscopique
US20040151401A1 (en) * 2000-12-01 2004-08-05 Sawhney Harpreet S. Techniques and systems for developing high-resolution imagery

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040151401A1 (en) * 2000-12-01 2004-08-05 Sawhney Harpreet S. Techniques and systems for developing high-resolution imagery
WO2003105491A1 (fr) * 2002-06-10 2003-12-18 Rafael - Armament Development Authority Ltd. Procede permettant de produire des images stereoscopiques a partir d'images monoscopiques
WO2004049736A1 (fr) * 2002-11-21 2004-06-10 Vision Iii Imaging, Inc. Alignement critique d'images parallaxes pour affichage autostereoscopique

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2946438A1 (fr) * 2009-06-08 2010-12-10 Erwan Devigon Systeme et procede de generation d'image stereoscopique a decalage des lointains parametrable dans un systeme et procede a n appareils de prise de vue (n>1)
WO2010142904A1 (fr) * 2009-06-08 2010-12-16 Erwan Devigon Système et procédé de génération d'image stéréoscopique a décalage des lointains paramétrable dans un système et procédé a n appareils de prise de vue (n>1).

Also Published As

Publication number Publication date
FR2888346B1 (fr) 2008-08-08

Similar Documents

Publication Publication Date Title
Tursun et al. The state of the art in HDR deghosting: A survey and evaluation
EP2304686B1 (fr) Procede et dispositif de remplissage des zones d'occultation d'une carte de profondeur ou de disparites estimee a partir d'au moins deux images
Nguyen et al. Raw image reconstruction using a self-contained srgb–jpeg image with small memory overhead
Gryaditskaya et al. Motion aware exposure bracketing for HDR video
EP2692140A2 (fr) Extraction en profondeur en temps réel basée sur une correspondance stéréo
FR3027144A1 (fr) Procede et dispositif de determination de mouvement entre des images video successives
Jantet Layered depth images for multi-view coding
Kellnhofer et al. Optimizing disparity for motion in depth
EP0722251A1 (fr) Procédé d'interpolation d'images
FR2873214A1 (fr) Procede et dispositif d'obtention d'un signal stereoscopique
FR2933520A1 (fr) Procede et dispositif de restauration d'une sequence video
FR2888346A1 (fr) Procede et dispositif d'obtention d'une sequence d'images stereoscopiques a partir d'une sequence d'images monoscopiques
Dogra et al. 1. Detectors & Imaging Exploring image inpainting for seamless restitution June 27, 2023 Image inpainting—an image processing approach—has advanced significantly, with applications in industries such as computer vision, robotics, medical imaging, and more.
JP6521278B2 (ja) 効率的なパッチベースのビデオノイズ除去方法
EP3158749A1 (fr) Procédé de codage et de décodage d'images, dispositif de codage et de décodage d'images et programmes d'ordinateur correspondants
WO2019081587A1 (fr) Procede de restauration d'images
JP2015005200A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体
Yu et al. Racking focus and tracking focus on live video streams: a stereo solution
WO2023247208A1 (fr) Procede de segmentation d'une pluralite de donnees, procede de codage, procede de decodage, dispositifs, systemes et programme d'ordinateur correspondants
WO2013045853A1 (fr) Méthode et dispositif de filtrage d'une carte de disparité
FR2945698A1 (fr) Procede et dispositif de codage d'une sequence video
FR3054347A1 (fr) Procede et dispositif d'aide a la navigation d'un vehicule
FR3096538A1 (fr) Procédé et dispositif de traitement de données de vidéo multi-vues
WO2015075085A1 (fr) Procédé d'estimation du mouvement d'un objet
WO2021136895A1 (fr) Synthese iterative de vues a partir de donnees d'une video multi-vues

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20070330

D3 Ip right revived
PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13