FR3009471A1 - Procede de traitement d'une sequence d'images, programme d'ordinateur et dispositif de traitement correspondants - Google Patents

Procede de traitement d'une sequence d'images, programme d'ordinateur et dispositif de traitement correspondants Download PDF

Info

Publication number
FR3009471A1
FR3009471A1 FR1363327A FR1363327A FR3009471A1 FR 3009471 A1 FR3009471 A1 FR 3009471A1 FR 1363327 A FR1363327 A FR 1363327A FR 1363327 A FR1363327 A FR 1363327A FR 3009471 A1 FR3009471 A1 FR 3009471A1
Authority
FR
France
Prior art keywords
image
pixel
current
current image
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1363327A
Other languages
English (en)
Inventor
Pendu Mikael Le
Philippe Robert
Matthieu Fradet
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to FR1363327A priority Critical patent/FR3009471A1/fr
Publication of FR3009471A1 publication Critical patent/FR3009471A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

L'invention concerne un procédé de traitement d'une séquence d'images comprenant au moins deux images correspondant à une image de référence et une image courante, Selon l'invention, le procédé comprend les étapes suivantes : - détermination (21) d'une zone de ladite image de référence, dite zone de référence connue, - estimation (22) d'un vecteur mouvement additionnel (224), - projection (23) de chaque vecteur mouvement additionnel, pour chaque pixel de l'image de référence, une position d'arrivée dans l'image courante, l'ensemble des positions d'arrivée obtenues formant une zone courante occultée (211), au moins une caractéristique additionnelle de chaque pixel de ladite zone courante occultée étant à déterminer, - détermination (24) d'un vecteur mouvement additionnel (231) pour chaque pixel de ladite zone courante occultée par inversion d'un champ de mouvement formé par lesdits vecteurs de mouvement additionnels (224).

Description

Procédé de traitement d'une séquence d'images, programme d'ordinateur et dispositif de traitement correspondants. 1. Domaine de l'invention Le domaine de l'invention est celui du traitement de l'image, et notamment d'un flux vidéo constitué d'une série d'images successives. Plus précisément, l'invention concerne la construction d'une région d'une image, lorsque cette région est par exemple cachée par un objet/personnage de l'image ou lorsque cette région est découverte par utilisation d'un point de vue différent du point de vue ayant servi à la capture. L'invention trouve notamment des applications dans les systèmes de traitement d'image proposant une suppression d'objet d'une image d'une séquence d'images et/ou une conversion de séquences d'images monoculaires bidimensionnelles 2D vers des séquences d'images stéréoscopiques tridimensionnelles 3D. 2. Art antérieur On connaît déjà des techniques de construction de région d'images. Elles mettent généralement en oeuvre : des méthodes de remplissage temporel, c'est-à-dire en référence à une ou des régions de référence appartenant à une ou plusieurs images de la séquence différentes de l'image courante; et/ou des méthodes de remplissage spatial, en s'appuyant sur les pixels voisins de l'image courante. Le principe du remplissage temporel (en anglais « temporal filling ») est de tirer profit du mouvement de différents objets de la séquence vidéo. Cette technique utilise une compensation de mouvement. Grâce au mouvement, il est probable qu'une région cachée dans une première image soit visible dans une autre image (passée ou future) de la séquence vidéo. L'estimation de mouvement et le recalage d'images permettent donc de récupérer les informations manquantes relatives à la région cachée par un objet/personnage à un instant t de la séquence d'images. Selon les techniques existantes, il est souvent considéré que la position du dispositif de capture d'images est fixe. Dans ce cas particulier, il est donc aisé de propager l'information de l'arrière-plan immobile d'une image à l'autre sans compensation de mouvement. En d'autres termes, lorsqu'un objet du premier plan se déplace d'une image à l'autre, il suffit de combler la zone de l'arrière-plan immobile découverte par le mouvement de l'objet du premier plan, en allant chercher l'information relative à cette zone de l'arrière-plan dans une image de la séquence où cette zone est visible et non recouverte par l'objet du premier plan.
Lorsque le dispositif de capture d'image se déplace, il devient crucial de prendre en compte le mouvement de l'arrière-plan. Deux exemples d'images Ref et t prises par un tel dispositif sont notamment représentés par la figure 1. En particulier, au regard de l'axe des temps, la montagne 12 s'est déplacée de la droite vers la gauche dans l'image, tandis que la balle 11 (représentée par un cercle) s'est déplacée de la gauche vers la droite. Dans ce cas plus complexe, plusieurs techniques ont été proposées pour construire la zone de l'image courante t qui serait découverte par suppression de la balle, une partie 13 de cette zone étant par ailleurs visible dans l'image Ref. Par exemple, Y. Jin (« Background modeling from a free-moving camera by a multilayer homography a/gorithm », In Proc. IEEE International Conference on Image Processing 2008) propose une méthode paramétrique basée sur l'estimation de plusieurs homographies en faisant l'hypothèse que l'arrière-plan est constitué d'un ensemble de différents objets 3D planaires rigides. Cependant, cette hypothèse devient caduque lorsque le mouvement de l'arrière-plan est si complexe que la représentation de l'arrière-plan sous la forme d'objets 3D planaires rigides n'est plus applicable. Y. Matsushita (« Full-frame Video Stabilization », In Proc. IEEE international Conference on Computer Vision and Pattern Recognition 2005) propose de déduire l'information de mouvement d'un pixel d'une zone découverte (du fait du déplacement d'un objet) de l'image courante, à partir des vecteurs mouvement connus des pixels voisins de l'image courante vers l'image de référence et en calculant une mesure de similarité de couleur entre les pixels correspondants dans l'image de référence. T. Shiratori (« Video Completion by Motion Field transfer», In Proc. IEEE international Conference on Computer Vision and Pattern Recognition 2006) propose quant à lui de combler des zones découvertes du fait du déplacement d'un objet, par traitement de petits fragments spatio-temporels de vidéo appelés « patches ». En particulier, cette technique détecte un patch source dont le mouvement local est connu pour tous les pixels et présentant une forte similarité au sens du mouvement avec la partie connue du patch cible à construire de sorte à appliquer aux pixels du patch cible dont les vecteurs mouvement sont inconnus les vecteurs mouvement du patch source détecté.
L'inconvénient de ces deux dernières techniques est qu'elles requièrent une segmentation de chaque image de la séquence d'images afin d'identifier les zones occultées à construire. En outre, ces deux techniques sont uniquement basées sur la propagation de « proche en proche » de l'information de mouvement du pixel/patch spatialement voisin de la zone découverte ce qui devient problématique lorsque cette zone découverte est relativement grande cachant complètement un motif distinct du motif dans lequel le pixel/patch de similarité optimal est sélectionné. Par exemple, au regard de la figure 1, l'utilisation des deux techniques précédentes ne permet pas une construction précise du « V » (détermination de la profondeur du « V ») de la montagne dans l'image t. Il existe donc un besoin pour une nouvelle technique de traitement d'images qui soit performante et simple à mettre en oeuvre pour optimiser la construction de zones découvertes par suppression d'objet d'une image et/ou une conversion de séquences d'images monoculaires bidimensionnelles 2D vers des séquences d'images stéréoscopiques tridimensionnelles 3D. 3. Exposé de l'invention L'invention propose une solution nouvelle qui ne présente pas les inconvénients de l'art antérieur, sous la forme d'un procédé de traitement d'une séquence d'images, la séquence d'images comprenant au moins deux images correspondant à une image de référence et une image courante, l'ensemble des caractéristiques de chaque pixel de l'image de référence étant connu, un premier champ de mouvement entre ladite image de référence et ladite image courante comprenant un ensemble de vecteurs mouvement MVref.->t, et un deuxième champ de mouvement entre l'image courante et l'image de référence comprenant un ensemble de vecteurs mouvement MVt->re f étant connus, Selon l'invention, un tel procédé comprend au moins les étapes suivantes : détermination d'au moins une zone de l'image de référence, dite zone de référence connue, re f estimation d'un vecteur mouvement additionnel MVadd->t entre l'image de référence et l'image courante, pour chaque pixel de ladite zone de référence connue, ref ->t projection de chaque vecteur mouvement additionnel MVadd entre l'image de référence et l'image courante délivrant, pour chaque pixel de la zone de référence connue, une position d'arrivée dans l'image courante, l'ensemble des positions d'arrivée obtenues dans l'image courante formant une zone de l'image courante, dite zone courante occultée, au moins une caractéristique additionnelle de chaque pixel de la zone courante occultée étant à déterminer, détermination d'un vecteur mouvement additionnel MVadd t->re f pour chaque pixel de la zone courante occultée, entre l'image courante et l'image de référence, par inversion d'un champ de mouvement additionnel formé par les vecteurs de mouvement -> , additionnels MVaddref t estimés pour chaque pixel de la zone de référence connue. L'invention propose ainsi une nouvelle solution pour traiter une séquence d'images lorsque l'on souhaite notamment déterminer, de manière optimisée, un vecteur mouvement additionnel MVadd t->ref entre l'image courante et l'image de référence d'un pixel d'une zone occultée associée à une image courante, ce pixel étant par ailleurs associé à un pixel d'une zone de référence connue de l'image de référence dont l'ensemble des caractéristiques est connu. Une telle zone occultée ou à construire associée à l'image courante est par exemple : cachée, du fait qu'elle est située en arrière-plan, par un objet et/ou un personnage de l'image, et/ou découverte, du fait qu'elle apparait lors de l'extrapolation d'une nouvelle image correspondant à un point de vue différent du point de vue utilisé pour la capture de l'image d'origine correspondante, dans ce cas cette région découverte correspond, par exemple, à une bande à gauche, droite, au-dessus ou encore au-dessous de l'image courante, mais également à une région découverte du fait qu'elle apparaissait cachée par un objet de l'image courante capturée par le point de vue source. Une telle zone cachée et/ou découverte est par la suite appelée « zone courante occultée», ou encore « zone à construire ». Au regard de la figure 1, précédemment décrite au regard de l'art antérieur, la zone courante occultée correspond à la zone de l'arrière-plan située derrière la balle 11 du premier plan. En d'autres termes, selon l'invention, pour au moins un pixel de la zone courante occultée, on obtient deux vecteurs de mouvement entre l'image courante et l'image de référence à savoir un vecteur connu délivré par un estimateur classique MVt->ref et un nouveau vecteur additionnel MVatd->dref délivré par le procédé de la présente invention. Une fois le vecteur mouvement additionnel MVatd-dref pour chaque pixel de la zone courante occultée obtenu, l'invention met en oeuvre optionnellement et avantageusement une étape de détermination d'au moins une caractéristique additionnelle pour chaque pixel de la zone courante occultée, par propagation d'au moins une caractéristique connue d'un ou plusieurs pixels de la zone de référence au moyen du vecteur de mouvement additionnel MVat d-drefde ce pixel de la zone courante occultée. Par « propagation d'au moins une caractéristique connue d'un ou plusieurs pixels de ladite zone de référence » on entend l'opération qui consiste à partir d'un pixel de la zone courante occultée, propager le vecteur de mouvement additionnel MVt->ref pour aller chercher add une caractéristique estimée à partir des caractéristiques connues des pixels de l'image de t->r ef référence situés à proximité du point d'arrivée du vecteur MVadd dans l'image de référence, par exemple une couleur et l'attribuer au pixel de départ de l'image courante pour lequel la caractéristique couleur n'était pas connue.
Au regard de la figure 1, le vert de la montagne de l'image de référence est propagé dans l'image courante pour remplir la couleur d'un pixel situé dans la zone 11 derrière la balle. En d'autres termes, l'invention permet de propager, avec un mouvement adapté, une information de couleur ou de disparité d'une image de référence vers une zone occultée d'une image courante. Ainsi, une information absente d'une image courante peut être construite à partir d'une image de référence. Une telle propagation d'information est tout à fait pertinente lorsque, par exemple, une suppression des éléments de premiers plans d'une séquence d'images est visée. Pour cette application particulière, on dispose par exemple d'un masque de premier plan de l'image de référence ou de chaque image de la séquence vidéo, et la partie de l'arrière-plan occultée par le premier plan dans chaque image est construite par propagation de caractéristiques obtenues à partir de l'image de référence. Ainsi, l'invention vise à connaître les caractéristiques (couleur, disparité) d'un « point tridimensionnel », en d'autres termes défini par des coordonnées tridimensionnelles par exemple (x, y, z), de la scène situé derrière un objet du premier plan du point de vue de l'image courante, alors même que des valeurs caractéristiques du pixel correspondant à ce point tridimensionnel sont connues dans l'image courante, mais relatives à l'objet du premier plan, par exemple la balle 11 dans la figure 1, et non à la zone de l'arrière-plan que l'on cherche à construire, par exemple la montagne 12.
Ainsi, par « point tridimensionnel » de la scène, on entend un point d'un plan/objet de la scène qui peut être à la fois visible et caché dans deux images distinctes de la séquence d'images. Il est donc possible que plusieurs points tridimensionnels de la scène capturée dans l'image courante appartenant par exemple à plusieurs plans distincts superposés soient projetés sur un même pixel de l'image courante.
L'invention vise donc à tirer profit du fait qu'un point tridimensionnel invisible dans l'image courante, et pour lequel on cherche à déterminer au moins une caractéristique du pixel correspondant dans l'image courante, est visible (en d'autres termes : connu) dans une autre image de la séquence d'images appelée image de référence. En outre, une même image de référence peut servir pour déterminer des vecteurs de mouvement additionnels à ajouter à plusieurs champs de mouvement relatifs à différentes images (courantes) de la séquence d'images capturées respectivement à des temps t-1, t et t+1 par exemple. Plus précisément, selon la présente invention, une zone de référence connue est tout d'abord déterminée dans l'image de référence. Une telle zone de référence est par exemple déterminée par analyse d'une information reçue d'un dispositif externe, définie manuellement par un utilisateur ou encore déterminée par analyse d'au moins un des premier et deuxième champs de mouvement entre ladite image de référence et ladite image courante ou entre ladite image courante et ladite image de référence respectivement. Les points tridimensionnels de la scène correspondant aux pixels de la zone de référence connue de l'image de référence sont « visibles » dans l'image de référence et « cachés » ou encore « recouverts » dans l'image courante. Une fois que la zone de référence connue de l'image de référence est déterminée, un vecteur mouvement additionnel MVref->t est estimé entre l'image de référence et l'image add courante pour chaque pixel de la zone de référence connue. C'est ce vecteur qui permet de relier les deux positions d'un même point tridimensionnel dans l'image de référence et l'image courante, c'est-à-dire relier le pixel de la zone de référence connue correspondant à la projection de ce point tridimensionnel visible dans l'image de référence et le point tridimensionnel de la zone courante occultée correspondant à la projection de ce même point tridimensionnel occulté dans l'image courante. Une telle estimation est nécessaire car le vecteur MVref->t délivré par un estimateur classique pour le pixel de la zone de référence connue n'est pas adapté pour définir le mouvement de la zone occultée, associant le pixel d'un objet par exemple de l'arrière-plan visible de l'image de référence avec un pixel visible du premier plan de l'image courante. Par exemple, au regard de la figure 1 décrite en relation avec l'art antérieur, le vecteur MVref->t délivré par un estimateur classique associe le pixel situé au plus bas de la vallée en « V » entre les deux montagnes de l'arrière-plan de l'image de référence avec un point tridimensionnel de la balle du premier plan de l'image courante, ce qui manque de fiabilité. Une telle estimation permet donc d'ajouter de nouveaux vecteurs mouvement au le champ de mouvement comprenant l'ensemble des vecteurs MVref->t estimés classiquement entre une image de référence et une image courante, ces vecteurs MVref->t associant uniquement les pixels « visibles » des deux images de référence et courante. En d'autres termes, les vecteurs mouvement additionnels MVref->t sont ajoutés au champ de mouvement obtenu add classiquement, pour déterminer le mouvement d'un point tridimensionnel visible dans l'image de référence et occulté dans l'image courante. Un pixel de la zone de référence connue est donc associé à deux vecteurs mouvement, l'un correspondant au vecteur mouvement MVref->t classiquement estimé mais non fiable, et l'autre correspondant au vecteur mouvement additionnel MVref->t représentatif du mouvement add entre le pixel de la zone de référence connue et le point tridimensionnel de la zone courante occultée.
Une fois cet ajout au champ de mouvement de l'image de référence vers l'image t->re f . . courante effectué, on procède à la détermination des vecteurs de mouvement MVadd a ajouter réciproquement au champ de mouvement inverse de l'image courante vers l'image de référence comprenant l'ensemble des vecteurs mouvement MVt->ref Pour ce faire, les vecteurs mouvement additionnels MVt->ref«de chaque point tridimensionnel de la zone courante occultée add sont déterminés par projection et inversion des vecteurs mouvement additionnels MVre f ->t add - t->r e f En d'autres termes, les vecteurs mouvements additionnels MVadd sont ajoutés au champ de mouvement obtenu classiquement, pour déterminer le mouvement des points tridimensionnels occultés dans l'image courante mais visibles dans l'image de référence.
La technique selon l'invention est donc apte à modifier les champs de mouvement entre une image de référence et une image courante et inversement, afin de prendre en compte le mouvement de l'arrière-plan pour des applications de suppression d'objets et/ou de conversion de séquences d'images monoculaires 2D vers des séquences d'images stéréoscopiques 3D. Selon un mode de réalisation de l'invention, l'étape de détermination de la zone de référence connue met en oeuvre une étape de construction d'une image d'occultation identifiant la zone de référence connue dans l'image de référence. Une telle image d'occultation permet de visualiser directement les contours de la zone, dite zone de référence connue, qui est occultée dans l'image courante mais visible dans l'image de référence. Plusieurs modes de construction de cette image d'occultation sont possibles et seront détaillés dans la suite de la description. Selon un aspect particulier de l'invention, l'étape de construction met en oeuvre les étapes suivantes : association d'un état initial « occulté_dans_courante » à tous les pixels de l'image de référence, projection d'un desdits vecteurs mouvement MVt->ref. entre l'image courante et l'image de référence délivrant, pour chaque pixel de départ de l'image courante, une position intermédiaire dans l'image de référence, projection d'un desdits vecteurs mouvement MVref«->t entre l'image de référence et l'image courante délivrant, pour chaque position intermédiaire dans l'image de référence, une position d'arrivée dans l'image courante, détermination de la distance entre un pixel de départ de l'image courante et une position d'arrivée dans l'image courante, association d'un état « visible_dans_courante » au pixel le plus proche de la position intermédiaire de l'image de référence lorsque la distance est inférieure à une valeur seuil prédéterminée, l'ensemble des pixels de l'image de référence présentant un état « occulté_dans_courante » formant ladite au moins une zone de référence connue correspondant à la zone occultée associée à l'image courante, obtention de l'image d'occultation présentant, dans l'image de référence, les contours de la zone de référence connue. Cette étape de construction détermine donc des points d'incohérence entre le champ de mouvement de l'image de référence vers l'image courante, obtenu à partir d'un estimateur classique, et le champ de mouvement de l'image courante vers l'image de référence, également obtenu à partir d'un estimateur classique. De telles incohérences sont dues au mouvement des objets au cours du temps dans la séquence d'images. Par exemple, les objets de l'arrière-plan se déplacent avec une vitesse différente de la vitesse de déplacement des objets du premier-plan, si bien que de la même manière qu'illustré par la figure 1, la balle 11 du premier plan cache le « V » de la montagne dans l'image courante t et non dans l'image de référence Ref. Ainsi, ces incohérences reflètent directement le fait que certains points tridimensionnels de la séquence d'images sont visibles dans une image et cachés ou disparus dans une autre. Cette détection permet donc d'identifier la zone de référence connue d'une image de référence qui est cachée par la suite dans des images de la séquence d'images.
Une image d'occultation est associée à un couple « image de référence - image courante » donné, en d'autres termes hormis le cas où aucun mouvement ne permet de différencier une image capturée à un instant t de celle capturée à un instant t+1, l'image d'occultation associée au couple « image de référence - image courante t » est différente de l'image d'occultation associée au couple « image de référence - image courante t+1 ».
Selon un premier mode de réalisation particulier de l'invention, l'étape d'estimation d'un vecteur additionnel MVa t dd pour chaque pixel de la zone de référence connue est mise en oeuvre en tenant compte d'un critère de similarité de couleur et/ou de texture entre des pixels de la zone de référence connue et des pixels de l'image de référence spatialement localisés en dehors de la zone de référence connue.
Ainsi, selon ce premier mode de réalisation la modification du champ de mouvement tire profit de la similarité de couleur et/ou texture entre les pixels de la zone de référence connue et les pixels voisins de cette zone dans l'image de référence. Par exemple, au regard de la figure 1, tous les pixels de la montagne dans l'image de référence sont caractérisés par la même couleur, ainsi si la zone de référence connue comprend certains pixels de la couleur de la montagne, le -> vecteur mouvement MVaddref t de ces pixels est proche du vecteur mouvement MVref«->t des pixels de la montagne qui n'appartiennent pas à la zone de référence connue de l'image de référence. Un tel vecteur mouvement MVref«->t associe un « pixel montagne » de l'image de référence situé en dehors de la zone de référence connue à un « pixel montagne » d'arrivée de ref->t l'image courante. En d'autres termes, le vecteur MVadd d'un pixel considéré de la zone de référence connue est estimé à partir d'un vecteur mouvement MVref«->t associé à un point tridimensionnel, visible à la fois dans l'image de référence et l'image courante, et de même couleur dans l'image de référence que le pixel considéré de la zone de référence connue. Selon un deuxième mode de réalisation particulier de l'invention, le procédé comprend en outre une étape préalable d'obtention d'une carte de segmentation en plans et/ou objets distincts de l'image de référence. Il est à noter que selon ce deuxième mode de réalisation, seule la segmentation de l'image de référence est nécessaire et non celle de l'image courante, ce qui représente un réel avantage au regard des techniques de l'art antérieur qui requièrent une segmentation de chaque image de la séquence d'images afin que le pixel/patch de similarité optimale utilisé pour déduire le vecteur mouvement à appliquer au pixel/patch à construire appartienne bien au même objet/plan que le pixel/patch à construire. Selon une première variante de ce mode de réalisation, l'étape d'estimation d'un vecteur ref->t mouvement additionnel MVadd pour chaque pixel de la zone de référence connue prend en compte un critère de similarité de plan et/ou d'objet entre des pixels de la zone de référence connue et des pixels de l'image de référence spatialement localisés en dehors de la zone de référence connue. Selon un aspect particulier du premier ou du deuxième mode de réalisation de l'invention, ref t l'estimation du vecteur mouvement additionnel MVadd basée sur un critère de similarité de couleur et/ou texture et/ou sur un critère de similarité de plan et/ou d'objet met en oeuvre un filtrage multilatéral comprenant au moins une itération, l'itération comprenant : une première phase de balayage de l'image de référence, selon un premier ordre de balayage prédéterminé, comprenant, pour chaque pixel considéré de la zone de référence connue, une étape de détermination d'une première valeur de vecteur mouvement ref->t additionnel MVadd lapremière valeur du vecteur mouvement additionnel MVref->t correspondant à une add moyenne pondérée des vecteurs mouvement MVref.->t des pixels, voisins du pixel considéré de la zone de référence connue, spatialement localisés en dehors de la zone de référence connue et/ou précédemment estimés, la moyenne pondérée étant obtenue par affectation d'un poids à chaque vecteur mouvement MVref.->t d'un pixel voisin, la valeur du poids étant proportionnelle à la similarité de couleur et/ou texture et/ou de plan et/ou d'objet entre le pixel considéré de la zone de référence connue et le pixel voisin précédemment estimé et à la proximité spatiale entre ledit pixel considéré et ledit pixel voisin, une deuxième phase de balayage de l'image de référence selon un deuxième ordre de balayage prédéterminé, les premier et deuxième ordres de balayage étant distincts, pour chaque pixel considéré de la zone de référence connue, une étape de détermination ref->t d'une deuxième valeur de vecteur mouvement additionnel MVadd ref->t la deuxième valeur du vecteur mouvement additionnel MVadd correspondant à une moyenne pondérée des vecteurs mouvement MVref.->t des pixels, voisins du pixel considéré de la zone de référence connue, spatialement localisés en dehors de la zone de référence connue et/ou précédemment estimés, la moyenne pondérée étant obtenue par affectation d'un poids à chaque vecteur mouvement MVref.->t d'un pixel voisin, la valeur du poids étant proportionnelle à la similarité de couleur et/ou texture et/ou de plan et/ou d'objet entre le pixel considéré de ladite zone de référence connue et le pixel voisin précédemment estimé et à la proximité spatiale entre ledit pixel considéré et ledit pixel voisin, lorsque la somme des poids affectés pour la détermination de la deuxième valeur est inférieure à la somme des poids affectés pour la détermination de la première valeur, la valeur du vecteur mouvement additionnel MVref->t est égale à la première valeur, et lorsque la somme des poids add affectés pour la détermination de la deuxième valeur est supérieure à la somme des poids affectés pour la détermination de la première valeur, la valeur du vecteur mouvement additionnel muref->t vadd est égale à la deuxième valeur.
Un tel filtrage multilatéral permet de fiabiliser la valeur du vecteur mouvement re additionnel MVadft obtenu, cette valeur étant vérifiée par la mise en oeuvre d'au moins deux phases de balayage successives par itération selon des ordres de balayages distincts. Par exemple, un premier ordre correspond à un balayage de gauche à droite, et de haut en bas et à l'inverse un deuxième ordre correspond à un balayage de droite à gauche et de bas en haut.
Plusieurs itérations sont nécessaires lorsque la zone de référence connue est grande et comprend des pixels qui ne sont entourés par aucun pixel spatialement localisés en dehors de la zone de référence connue, nécessitant de ce fait d'être traités après estimation des vecteurs ref->t mouvements additionnels MVadd des pixels les précédant selon l'ordre de balayage utilisé. ref->t L'estimation du vecteur mouvement additionnel MVadd utilisant un filtrage multilatéral peut donc être mise en oeuvre, selon le premier mode de réalisation, sans recourir à l'obtention d'une carte de segmentation de l'image de référence, lorsque l'estimation tient compte uniquement d'un critère de similarité de couleur et/ou texture. Selon le deuxième mode de réalisation, il est également possible de tenir compte uniquement du critère de similarité de plan et/ou d'objet, la prise en compte de ce critère pour effectuer le filtrage multilatéral requérant au préalable l'obtention d'une carte de segmentation en plans et/ou objets distincts de l'image de référence. Avantageusement, un filtrage multilatéral peut également prendre en compte à la fois un critère de similarité de couleur et/ou texture et un critère de similarité de plan et/ou objet pour améliorer la détermination du vecteur mouvement additionnel MVre f->t MVadd pixel de la zone de référence connue. Une telle combinaison permet donc d'accroitre la précision de détermination de ce vecteur, notamment lorsque l'image de référence est complexe, ainsi une similarité de couleur et/ou texture et/ou de plan et/ou d'objet permet une définition précise et fiable du vecteur mouvement additionnel, permettant de modifier le champ de mouvement entre deux images. Selon une autre variante du deuxième mode de réalisation basé sur l'obtention préalable d'une carte de segmentation de l'image de référence, l'estimation du vecteur mouvement re f ->t additionnel MVadd met en oeuvre une étape de détermination de modèles rigides et comprend les étapes suivantes : définition de blocs de pixels comprenant à la fois des pixels de la zone de référence connue et des pixels de l'image de référence spatialement localisés en dehors de la zone de référence connue, pour chaque bloc, détermination d'un modèle rigide entre l'image de référence et l'image courante à partir des pixels du bloc spatialement localisés en dehors de la zone de référence connue, délivrant par extrapolation, pour chaque pixel de la zone de référence re f ->t connue du bloc, un vecteur mouvement additionnel MVadd , re f une fois que le vecteur mouvement additionnel MVadd->t de chaque pixel de la zone de référence connue du bloc est obtenu, lesdits pixels de la zone de référence connue du bloc n'appartiennent plus à ladite zone de référence connue, les étapes de définition de blocs de pixels et de détermination d'un modèle rigide étant réitérées jusqu'à ce qu'un vecteur mouvement additionnel MVarde t ait été obtenu pour chaque pixel de la zone de référence connue de l'image de référence. Selon cette deuxième variante, l'utilisation de modèles rigides associé localement à des blocs de pixels centrés sur le contour de la zone de référence connue, permet par exemple d'éviter d'éventuelles déformations de la zone à construire au regard du précédent mode de réalisation où l'estimation est basée sur une similarité de couleur et/ou texture et/ou une similarité de plan et/ou d'objet. Selon un exemple, le modèle rigide est paramétrique, par exemple un modèle d'homographie entre l'image de référence et l'image courante.
Selon un aspect particulier de cette deuxième variante, l'étape de définition de blocs de pixels délivre au moins deux blocs de pixels de tailles distinctes, la taille et la localisation du centre d'un bloc étant déterminées en mettant en oeuvre les étapes suivantes : balayage de l'image de référence selon un sens prédéterminé, détection d'un pixel de la zone de référence connue, appelé pixel détecté, le pixel détecté étant directement voisin d'un pixel de l'image de référence spatialement localisé en dehors de la zone de référence connue, définition d'un bloc, de taille prédéterminée, et centré sur le pixel détecté, augmentation de la taille du bloc jusqu'à ce qu'il contienne au minimum 50% de pixels spatialement localisés en dehors de la zone de référence connue.
Cet aspect particulier présente l'avantage d'être robuste garantissant que le modèle rigide d'un bloc soit calculé à partir d'un nombre suffisant de pixels spatialement localisés en dehors de la zone de référence connue. Le modèle rigide est alors basé sur un nombre suffisant de pixels connus localisés en dehors de la zone de référence connue pour lesquels les vecteurs mvref->t, établissant une correspondance entre deux points tridimensionnels visibles à la fois dans l'image de référence et dans l'image courante, sont utilisés pour déterminer les vecteurs -> mouvements additionnels MVaddref t de chaque pixel de la zone de référence connue. Selon un autre aspect particulier de cette deuxième variante l'étape de définition de blocs de pixels délivre des blocs de pixels de taille identique, dite taille fixe, et la localisation d'un bloc est déterminée en mettant en oeuvre les étapes suivantes, pour chaque bloc : balayage de l'image de référence selon un sens prédéterminé, détection d'un pixel de la zone de référence connue, appelé pixel détecté, le pixel détecté étant directement voisin d'un pixel de l'image de référence spatialement localisé en dehors de la zone de référence connue, définition du bloc de taille fixe, et centré sur le pixel détecté, reprise du balayage de l'image de référence selon un sens prédéterminé, les pixels de la zone de référence connue du bloc n'appartenant plus à la zone de référence connue pour la localisation du bloc suivant. En outre, selon cet aspect particulier, une fois que l'ensemble de l'image de référence est balayée, un ensemble de blocs étant défini, le procédé comprend en outre : une étape de détermination d'un bloc dudit ensemble de blocs, dit bloc prioritaire, le bloc prioritaire contenant le maximum de pixels spatialement localisés en dehors de la zone de référence connue, l'étape de détermination d'un modèle rigide entre l'image de référence et l'image courante étant mise en oeuvre dans le bloc prioritaire, Puis, une fois que le vecteur mouvement additionnel MVref->t de chaque pixel de la zone add de référence connue du bloc prioritaire est obtenu, les pixels de la zone de référence connue du bloc prioritaire n'appartiennent plus à la zone de référence connue et, les étapes de définition de blocs de pixels de taille identique, de détermination de bloc prioritaire et de détermination d'un re modèle rigide sont réitérées jusqu'à ce qu'un vecteur mouvement additionnel MVadft d ait été obtenu pour chaque pixel de la zone de référence connue de l'image de référence. En d'autres termes, selon cet aspect particulier, on remplit le champ de mouvement de l'image de référence vers l'image courante selon un ordre de priorité de blocs à traiter. Une fois ce bloc prioritaire rempli, la taille du contour de la zone de référence connue est réduite, un -> vecteur mouvement additionnel MVaddref t de chaque pixel de la zone de référence connue du bloc ayant été obtenu. Selon un mode de réalisation complémentaires des modes de réalisation spatiaux décrits ref->t précédemment, l'étape d'estimation d'un vecteur mouvement additionnel MVadd de chaque pixel de la zone de référence connue prend en compte la trajectoire de mouvement d'au moins un point tridimensionnel visible dans l'image de référence et dans tout ou partie de la séquence d'images, la trajectoire de mouvement correspondant à l'évolution de la localisation du point tridimensionnel au cours du temps dans la séquence d'images. En d'autres termes, une trajectoire correspond à la concaténation de vecteurs mouvement reliant dans le temps un point tridimensionnel d'une image à l'autre de la séquence d'image. Au regard de la figure 1, il est par exemple possible d'établir la trajectoire d'un sommet de la montagne ou du centre de la balle sur plusieurs images. Une telle trajectoire peut être extrapolée ou interpolée au moyen de fonctions mathématiques par exemple de fonctions splines ou des fonctions polynomiales. De telles trajectoires temporelles peuvent être combinées aux premier et deuxième modes de réalisation spatiaux précédemment décrits. Avantageusement, la carte de segmentation en plans et/ou objets distincts de l'image de référence délivre une information représentative d'un ordre de profondeur dans l'image de chaque plan et/ou objet distinct. En particulier, la prise en compte d'objets intermédiaires ente le premier et l'arrière-plan permet d'améliorer le remplissage des champs de mouvement entre une image de référence et une image courante, notamment lorsque deux images sont temporellement éloignées et ne permettent pas de distinguer des plans ou objets intermédiaires qui apparaissent dans d'autres images localisées temporellement entre l'image de référence et l'image courante. Une telle carte de segmentation de l'image de référence, tenant compte de plans et/ou d'objets intermédiaires, permet le traitement d'images présentant une forte complexité où différents plans et/ou objets se chevauchent, ou encore la gestion de données représentatives de bruit. La prise en compte de plans et/objets intermédiaires de la séquence d'image peut également être facilitée en utilisant la mise en oeuvre de trajectoires temporelles tel que décrit précédemment. Une telle carte de segmentation de l'image de référence peut, selon un aspect de l'invention, fournir une information de profondeur permettant de préciser le remplissage du champ de mouvement en cas de recouvrement d'objets. Selon un autre aspect particulier de l'invention, ladite étape de détermination d'un vecteur mouvement additionnel MVt->refpour chaque pixel de ladite zone courante occultée, add met en oeuvre les étapes suivantes : lorsque les coordonnées de la position d'arrivée dans l'image courante correspondent exactement aux coordonnées d'un pixel de l'image courante, dit pixel courant considéré, détermination d'un vecteur mouvement candidat MVcand t->ref par inversion dudit vecteur re f->t mouvement additionnel MVadd correspondant et association d'un couple, formé dudit vecteur candidat MVcand et d'une valeur V égale à zéro, audit pixel considéré, lorsque les coordonnées de la position d'arrivée dans l'image courante ne correspondent pas aux coordonnées exactes d'un pixel de l'image courante : o détermination d'au moins quatre pixels de l'image courante dont les coordonnées sont les plus proches desdites coordonnées de la position d'arrivée, dits pixels voisins, et o détermination d'un vecteur de mouvement candidat MVcand t->ref par inversion dudit vecteur de mouvement additionnel MVref->t , association, à chacun desdits pixels voisins, d'un add t->re couple formé dudit vecteur candidat MVcand f et d'une valeur V égale à la distance entre ladite position d'arrivée et chacun desdits pixels voisins, et pour chaque pixel de l'image courante, dit pixel courant considéré, associé à au moins un vecteur de mouvement candidat MVt->ref et au moins une valeur V : cand obtention dudit vecteur de mouvement additionnel MVt->refcorrespondant au vecteur add mouvement candidat MVcand parmi tous les candidats associés audit pixel courant considéré dont la valeur V est la plus petite, ou obtention dudit vecteur mouvement additionnel MVadd ->ref résultant d'une combinaison linéaire des différents vecteurs mouvement candidats MVt->ref associés audit pixel courant cand considéré, ladite combinaison linéaire mettant en oeuvre une pondération prédéterminée et/ou une pondération déterminée en fonction de ladite valeur V couplée à chaque vecteur mouvement candidat MVt->ref cand - En effet, les valeurs des coordonnées de la position d'arrivée dans l'image courante, résultant de la projection du vecteur mouvement additionnel MVreadf->t d'un pixel d'origine de la zone de référence connue de l'image de référence, ne sont pas toujours des valeurs entières. L'invention prévoit donc un mode de sélection pour sélectionner le meilleur vecteur additionnel uref->t 10 i" "vadd lorsqu'un choix parmi plusieurs points d'arrivée voisins dans l'image courante doit être effectué. Dans encore un autre mode de réalisation, l'invention concerne un programme d'ordinateur comportant des instructions pour la mise en oeuvre d'un procédé selon l'une des revendications précédentes lorsque ce programme est exécuté par un processeur. 15 Le procédé selon l'invention peut donc être mis en oeuvre de diverses manières, notamment sous forme câblée ou sous forme logicielle. Dans un autre mode de réalisation, l'invention concerne un dispositif de traitement d'une séquence d'images, la séquence d'images comprenant au moins deux images correspondant à une image de référence et une image courante, l'ensemble des caractéristiques de chaque pixel 20 de l'image de référence étant connu, et un premier champ de mouvement entre l'image de référence et l'image courante comprenant un ensemble de vecteurs mouvement MVref«->t, et un deuxième champ de mouvement entre l'image courante et l'image de référence comprenant un ensemble de vecteurs mouvement MVt->ref étant connus. Selon l'invention, un tel dispositif comprend au moins : 25 un module de détermination d'au moins une zone de l'image de référence, dite zone de référence connue, re un estimateur d'un vecteur mouvement additionnel MVadft (224) entre l'image de référence et l'image courante, pour chaque pixel de la zone de référence connue, re f->t un module de projection de chaque vecteur mouvement additionnel MVadd entre 30 l'image de référence et l'image courante délivrant, pour chaque pixel de la zone de référence connue, une position d'arrivée dans l'image courante, l'ensemble des positions d'arrivées obtenue dans l'image courante formant une zone de l'image courante, dite zone courante occultée, au moins une caractéristique additionnelle de chaque pixel de la zone courante occultée étant à déterminer,5 t->r ef un module de détermination d'un vecteur mouvement additionnel MVadd pour chaque pixel de la zone courante occultée, entre l'image courante et l'image de référence, par inversion d'un champ de mouvement additionnel formé par les vecteurs de mouvement -> , additionnels MVaddref t estimés pour chaque pixel de la zone de référence connue.
Un tel dispositif de traitement d'une séquence d'images est notamment adapté pour mettre en oeuvre le procédé de traitement d'une séquence d'images décrit précédemment. En particulier, une fois le vecteur mouvement additionnel MVt->ref pour chaque pixel de add la zone courante occultée obtenu, le dispositif de traitement selon l'invention peut comprendre également de manière optionnelle, un module de détermination d'au moins une caractéristique additionnelle pour chaque pixel de la zone courante occultée, par propagation d'au moins une caractéristique connue d'un ou plusieurs pixels de ladite zone de référence au moyen du vecteur de mouvement additionnel MVt->ref« de cepixel de la zone courante occultée. add Ce dispositif de traitement d'une séquence d'images pourra bien sûr comporter les différentes caractéristiques relatives au procédé de traitement d'une séquence d'images décrit précédemment, qui peuvent être combinées ou prises isolément. Ainsi, les caractéristiques et avantages de ce dispositif sont les mêmes que ceux du procédé de traitement d'une séquence d'images. Par conséquent, ils ne sont pas détaillés plus amplement. Les différentes caractéristiques de la présente invention peuvent être mises en oeuvre sous la forme de système, dispositifs, procédés, ou supports lisibles par ordinateur. En conséquence, les différentes caractéristiques de la présente invention peuvent prendre la forme d'une réalisation entièrement matérielle (« hardware »), entièrement logicielle (« software »), ou combinant des aspects logiciels et matériels. Par ailleurs, certaines caractéristiques de la présente invention peuvent prendre la forme d'un support de stockage lisible par ordinateur. Toute combinaison d'un ou plusieurs supports de stockage lisibles par ordinateur peut être utilisée. 4. Liste des figures D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation particulier, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : la figure 1 déjà décrite en relation avec l'art antérieur, illustre deux images successives d'une séquence d'images, les figures 2A et 2B présentent respectivement les principales étapes mises en oeuvre par un procédé de traitement d'une séquence d'images selon un mode de réalisation de l'invention, et le résultat de ces étapes sur la séquence d'images ; les figures 3A et 3C présentent respectivement différents modes de réalisation pour la construction d'une image d'occultation; la figure 4 présente un mode de réalisation de l'étape d'estimation selon l'invention; la figure 5 présente un autre mode de réalisation de l'étape d'estimation selon l'invention, la figure 6 présente des résultats obtenus selon deux modes de réalisation distincts de l'étape d'estimation selon l'invention; les figures 7A à 7C illustrent la notion de trajectoire au sein d'une séquence d'images et un exemple d'utilisation ; la figure 8 illustre une segmentation de l'image de référence en plans et/ou objets distincts et la prise en compte d'une trajectoire pour déterminer le mouvement de l'objet intermédiaire dans la séquence d'images ; la figure 9 illustre le traitement indépendant de chaque objet de la séquence d'image en fonction de sa localisation en profondeur dans l'image de référence, cette localisation étant délivrée par obtention d'une carte de segmentation de l'image de référence comprenant au moins trois plans et/ou objets distincts ordonnés en profondeur; les figures 10A et 10B illustrent une application de l'invention à la conversion de séquences d'images monoculaires 2D vers des séquences d'images stéréoscopiques 3D ; les figures 11A et 11B illustrent les résultats obtenus dans le cas de la conversion de séquences d'images monoculaires 2D vers des séquences d'images stéréoscopiques 3D; la figure 12 illustre la structure simplifiée d'un dispositif de traitement d'une séquence d'images selon un mode de réalisation particulier de l'invention. 5. Description d'un mode de réalisation de l'invention 5.1 Principe général Le principe général de l'invention repose sur la détermination et l'ajout de nouveaux vecteurs de mouvement aux champs de mouvement entre une image de référence et une image courante ou entre une image courante et une image de référence respectivement, pour permettre ensuite avantageusement la propagation d'une caractéristique visible dans une image et occultée dans une autre image de la séquence d'images. Plus précisément, la technique selon l'invention propose de modifier le champ de mouvement entre deux images afin de pouvoir construire le mouvement d'une zone, occultée dans une image courante, mais visible dans une image de référence.
En effet, le champ de mouvement entre deux images délivré par un estimateur classique comprend uniquement l'information de mouvement relatif à des objets visibles dans ces deux images. La présente invention vise donc à répondre au problème correspondant à la détermination du mouvement de points tridimensionnels visibles dans l'image de référence et occultés dans d'autres images de la séquence d'images, en propageant l'information relative à l'image de référence dans l'image courante. Pour ce faire, l'invention met en oeuvre pour chaque point tridimensionnel visible dans l'image de référence et occulté dans l'image courante, la détermination d'un vecteur mouvement, dont le point d'origine appartient à l'image courante, et pointant sur l'image de référence. Une application directe de cette technique est la suppression d'objets dans une séquence vidéo où le premier-plan et l'arrière-plan se déplacent. Plus précisément, les vecteurs mouvements additionnels MVad->dr efdéterminés selon l'invention, ayant pour origine un point correspondant à un pixel du premier-plan de l'image courante et pointant sur un pixel de l'arrière- plan de l'image de référence, sont utilisés pour remplacer la couleur de premier-plan du pixel de l'image courante par la couleur de l'arrière-plan correspondant de l'image de référence. Il y a donc selon cet exemple, illustré par la figure 11A propagation de la couleur de l'arrière-plan de l'image de référence (ciel et montagne respectivement pour chaque pixel de la zone occultée 14 par la balle (11) dans l'image courante t) pour construire l'arrière-plan de l'image courante après suppression de l'objet (11) du premier plan de celle-ci, grâce à un vecteur mouvement additionnel mut vadd ->ref tel que celui représenté par la flèche noire 15 entre l'image courante t et l'image de référence Ref pour obtenir une image courante à l'arrière-plan « rempli » t_bc, en d'autres termes la caractéristique couleur de la montagne de l'arrière-plan de l'image de référence a été obtenue au moyen du vecteur MV add->ref pour remplir la zone courante occultée de l'image courante. D'autres informations que la couleur peuvent être propagées à partir d'une image de référence en utilisant les mêmes vecteurs mouvements additionnels MVad->dr ef Par exemple, dans le cas de la conversion de séquences d'images monoculaires 2D vers des séquences d'images stéréoscopiques 3D illustré par la figure 11B, il est nécessaire de traiter une image d'origine, par exemple une image gauche, en décalant horizontalement chaque pixel d'une certaine valeur appelée disparité, la disparité étant proportionnellement inverse à la profondeur du pixel. Une telle étape de déformation correspond à l'extrapolation d'une nouvelle image correspondant à un point de vue différent du point de vue utilisé pour la capture de l'image d'origine correspondante, dans ce cas cette région découverte correspond, par exemple, à une bande à gauche, droite, au-dessus ou encore au-dessous de l'image courante, mais également à une région découverte (16) du fait qu'elle apparaissait cachée par un objet de l'image courante capturée par le point de vue source.
De telles bandes ou régions découvertes doivent donc être remplies selon l'invention par l'arrière-plan correspondant visible dans la séquence d'images comprenant au moins les images Ref et t, afin de délivrer, au moyen d'une image courante à l'arrière-plan « rempli » t bc, une image droite exploitable telle que celle représentée par la figure 11B. Par la suite, on rappelle que, par « point tridimensionnel » de la scène, on entend un point d'un plan/objet de la scène qui peut être à la fois visible et caché dans deux images distinctes de la séquence d'images. Il est donc possible que plusieurs points tridimensionnels de la scène capturée dans l'image courante appartenant par exemple à plusieurs plans distincts superposés soient projetés sur un même pixel de l'image courante. 5.2 Description d'un mode de réalisation particulier du procédé de traitement d'une image courante d'une séquence d'images selon l'invention On présente désormais, en relation avec les figures 2A et 2B les principales étapes mises en oeuvre par le procédé de traitement d'une image courante d'une séquence d'images selon l'invention. Plus précisément, la figure 2A représente les principales étapes mises en oeuvre par un procédé de traitement d'une séquence d'images selon un mode de réalisation de l'invention, et le résultat de ces étapes sur la séquence d'images est illustré par la figure 2B au regard de la figure 1 précédemment décrite en relation avec l'art antérieur. De manière générale, le procédé selon l'invention comprend les étapes suivantes : détermination (21) d'au moins une zone de l'image de référence, dite zone de référence connue, ref t estimation (22) d'un vecteur mouvement additionnel MVadd (224) entre l'image de référence et l'image courante, pour chaque pixel de la zone de référence connue, projection (23) de chaque vecteur mouvement additionnel MVref->t entre l'image de add référence et l'image courante délivrant, pour chaque pixel de la zone de référence connue, une position d'arrivée dans l'image courante, l'ensemble des positions d'arrivée obtenues dans l'image courante formant une zone de l'image courante, dite zone courante occultée (211), au moins une caractéristique additionnelle de chaque pixel de la zone courante occultée étant à déterminer, détermination (24) d'un vecteur mouvement additionnel MVad->dref (231) pour chaque pixel de la zone courante occultée, entre l'image courante et l'image de référence, par inversion d'un champ de mouvement additionnel formé par les vecteurs de mouvement re f ->t additionnels MVadd (224) estimés pour chaque pixel de la zone de référence connue.
Une fois le vecteur mouvement additionnel MVt->re f pour chaque pixel de la zone add courante occultée obtenu, l'invention met en oeuvre optionnellement et avantageusement une étape de détermination (25) d'au moins une caractéristique additionnelle pour chaque pixel de la zone courante occultée, par propagation d'au moins une caractéristique connue d'un ou plusieurs i td->dre f de pxels de ladite zone de référence au moyen du vecteur de mouvement additionnel MVa ce pixel de la zone courante occultée,permettant notamment d'obtenir l'image courante à l'arrière-plan « rempli » t bc telle que celle représentée par la figure 11B ou le remplissage (63, 64) de la zone d'arrière-plan illustré par la figure 6.Chacune de ces étapes est décrite en détail ci-après. A) Détermination d'au moins une zone de l'image de référence La première étape du procédé selon l'invention consiste à déterminer une zone de l'image de référence, dite zone de référence connue, et correspondant à une zone à construire associée à l'image courante t. Au regard de la figure 1 précédemment décrite en relation avec l'art antérieur, on cherche notamment à construire la zone de l'arrière-plan située derrière la balle du premier-plan. Cette zone (211) est identifiée en pointillé sur la figure 2B et est par la suite appelée zone courante occultée. Il peut être constaté que cette zone courante occultée correspond à la zone de référence connue l'arrière-plan (13) visible dans l'image de référence Ref telle que représentée sur la figure 1. Selon un aspect particulier de l'invention, une telle détermination de la zone de référence connue met en oeuvre une étape de construction d'une image d'occultation (210) identifiant la zone de référence connue. Cette image d'occultation (210), telle que représentée sur la figure 2B, permet de représenter les contours (et la surface) de la zone de référence connue dont l'information va être propagée dans l'image courante pour en combler la zone courante occultée de l'arrière-plan. En d'autres termes, l'information de la zone de référence connue représentée dans l'image d'occultation va permettre selon l'exemple des figures 1 et 2B de reconstruire le « V » de la montagne de l'arrière-plan de la séquence d'images. Les figures 3A à 3C présentent respectivement différents modes de réalisation pour la construction d'une image d'occultation.
Un premier procédé de construction est présenté en relation avec la figure 3A, et consiste à: parcourir les vecteurs de mouvement MVt->ref. de chaque pixel de l'image de courante vers l'image de référence, ces vecteurs étant délivrés par un estimateur classique estimant uniquement de manière fiable l'information de mouvement relative à des objets visibles dans les deux images de référence Ref et courante t, et identifier pour chacun le point tridimensionnel correspondant dans l'image de référence et marquer le pixel le plus proche comme étant « visible » ou « connu », les pixels de l'image de référence qui, à la fin de l'opération, ne sont pas marqués du fait qu'ils ne correspondent à aucune position d'arrivée des vecteurs de mouvement MVt->ref précédemment parcourus, sont donc occultés dans l'image courante. Cependant, les inventeurs ont constaté que ce procédé de construction ne permet pas une détection complètement fiable des occultations du fait que les vecteurs de mouvement MVt->ref délivrés par des estimateurs classiques manquent de précision.
Ainsi, pour pallier ces inconvénients, un deuxième procédé de construction est présenté en relation avec la figure 3B, et consiste à vérifier la cohérence entre les vecteurs mouvements mvt->ref (entre l'image courante et l'image de référence) et les vecteurs MVre f ->t (entre l'image de référence et l'image courante) (entre l'image courante et l'image de référence) en : associant un état initial « occulté_dans_courante » à tous les pixels de l'image de référence, projetant (310) un des vecteurs mouvement MVt->ref entre l'image courante et l'image de référence délivrant, pour chaque pixel de départ de l'image courante, une position intermédiaire dans l'image de référence, projection (311) d'un des vecteurs mouvement MVre f ->t entre l'image de référence et l'image courante délivrant, pour chaque position intermédiaire dans l'image de référence, une position d'arrivée dans l'image courante, détermination (312) de la distance entre un pixel de départ de l'image courante et une position d'arrivée dans l'image courante, association d'un état « visible_dans_courante » au pixel le plus proche de la position intermédiaire de l'image de référence lorsque la distance est inférieure à une valeur seuil prédéterminée, l'ensemble des pixels de l'image de référence présentant un état « occulté_dans_courante » formant la au moins une zone de référence connue correspondant à ladite zone occultée associée à ladite image courante, obtention de ladite image d'occultation (210) présentant, dans ladite image de référence, les contours de ladite zone de référence connue. En d'autres termes, cette méthode consiste à parcourir dans les deux sens (de l'image courante vers l'image de référence puis inversement) les vecteurs mouvement délivrés par un estimateur classique en partant de l'image courante, ce qui permet de calculer la distance entre la position du pixel de départ et la position d'arrivée dans l'image courante. Dans le cas où le vecteur mouvement MVt->ref et le vecteur inverse MVref->t sont parfaitement cohérents, cette distance notée d est nulle. Au contraire, lorsque cette distance est supérieure à une distance seuil prédéterminée, les vecteurs MVt->ref et MVref't ne sont pas cohérents ce qui permet de détecter que le point tridimensionnel de départ dans l'image de référence n'est pas visible dans l'image courante. Selon cette technique de construction, il est possible que la valeur du vecteur mouvement MVt->ref ne soit pas entière. Le point intermédiaire qu'il pointe ne correspond donc pas toujours à un pixel exactement, mais se situe par exemple entre quatre pixels de l'image de référence. Le vecteur MVref->t de retour correspondant est calculé par interpolation bilinéaire des vecteurs mouvement MVref->t associés à ces quatre pixels de l'image courante. Un troisième procédé de construction est présenté en relation avec la figure 3C, et consiste à utiliser la différence de couleur entre le pixel de départ dans l'image courante t et l'extrémité du vecteur MVt->ref dans l'image de référence.
De la même manière que dans la technique de construction représentée par la figure 3B, une valeur seuil de différence de couleur (notée Acouleur) est fixée et si la différence de couleur est supérieure à cette valeur, le vecteur mouvement MVt->ref ne peut être considéré comme fiable pour projeter de l'information dans l'image courante. Ainsi, au regard de la figure 3C, le pixel 31 de l'image courante t est bleu (hachuré verticalement) et l'extrémité correspondante (32) du vecteur MVt->ref dans l'image de référence est également de couleur bleue (hachurée verticalement). Ainsi, le point intermédiaire correspondant à l'extrémité (32) du vecteur MVt->ref est visible dans les deux images de référence Ref et courante t. Au contraire, le pixel 33 de l'image courante t est orange (hachuré horizontalement) alors que l'extrémité correspondante (34) du vecteur MVt->ref dans l'image référence est de couleur violette (texture en croix). Ainsi, le point intermédiaire correspondant à l'extrémité (34) du vecteur MVt->ref est visible dans l'image de référence et occulté dans l'image courante t. re f B) Estimation et projection d'un vecteur mouvement additionnel MVadd->t Une fois l'étape de détermination d'au moins une zone de l'image de référence (21) effectuée, le procédé de traitement selon l'invention met en oeuvre l'estimation (22) d'un vecteur re f mouvement additionnel MVadd->t (224) entre ladite image de référence et l'image courante, de chaque pixel de la zone de référence connue (223). Comme indiqué précédemment le vecteur mouvement MVref ->t délivré par un estimateur classique dans la zone de référence connue ne peut être considéré comme fiable pour construire une zone occultée correspondante de l'image courante. En effet, l'estimateur classique délivre uniquement de manière fiable l'information de mouvement relative à des objets visibles dans les deux images de référence Ref et courante t, les vecteurs MVre f ->t délivrés par l'estimateur classique et associés à la zone de référence connue ne peuvent donc être utilisés efficacement pour construire l'arrière-plan de l'image courante occulté par la balle car ils ne sont pas représentatifs du mouvement de l'arrière-plan. Il est donc nécessaire d'estimer de nouveaux vecteurs mouvements, appelés vecteur re f->t mouvements additionnels MVadd pour les pixels de la zone de référence connue qui sont visibles dans l'image de référence et occultés dans l'image courante.
Au regard de la figure 2B, le procédé selon l'invention permet donc de déterminer que le mouvement (224) dans la zone de référence connu correspond au déplacement (221) de droite à gauche de l'arrière-plan et non au déplacement de gauche à droite (222) de la balle. Plusieurs modes de réalisation de cette étape d'estimation peuvent être mis en oeuvre selon l'invention et sont représentés respectivement par les figures 4, 5, 7A à 7C et 8.
Un premier mode de réalisation, représenté en relation avec la figure 4, consiste à baser re f->t l'estimation (22) d'un vecteur mouvement additionnel MVadd uniquement sur une similarité de couleur et/ou texture (41) entre des pixels de la zone de référence connue et des pixels de l'image de référence spatialement localisés en dehors de cette zone de référence connue. Ce premier mode de réalisation permet donc de s'affranchir du besoin préalable d'obtenir une carte de segmentation de l'image de référence en plans et/ou objets distincts. En d'autres termes, si un pixel de la zone de référence connue (223) à la même couleur qu'un pixel voisin situé dans l'image de référence mais à l'extérieur de la zone de référence connue, le mouvement du pixel de la zone de référence connue considéré est proche, voire identique du mouvement du pixel voisin considéré.
Une telle estimation basée sur un critère de similarité de couleur et/ou texture entre des pixels de la zone de référence connue et des pixels de l'image de référence spatialement localisés en dehors de la zone de référence connue (223) met en oeuvre un filtrage multilatéral (43) comprenant au moins une itération, l'itération comprenant : une première phase (431) de balayage de l'image de référence, selon un premier ordre de balayage, par exemple de gauche à droite et de haut en bas, comprenant, pour chaque pixel considéré de la zone de référence connue, une étape de détermination d'une première valeur de vecteur mouvement additionnel MVardedf«->t , re f->t la première valeur du vecteur mouvement additionnel MVadd correspondant à une moyenne pondérée des vecteurs mouvement MVref.->t des pixels, voisins du pixel considéré de la zone de référence connue, spatialement localisés en dehors de la zone de référence connue et/ou précédemment estimés, la moyenne pondérée étant obtenue par affectation d'un poids à chaque vecteur mouvement MVref«->t d'un pixel voisin, la valeur du poids étant proportionnelle à la similarité de couleur et/ou texture et/ou de plan et/ou d'objet entre le pixel considéré de la zone de référence connue et le pixel voisin précédemment estimé et à la proximité spatiale entre le pixel considéré et le pixel voisin, une deuxième phase (432) de balayage de l'image de référence selon un deuxième ordre de balayage prédéterminé, les premier et deuxième ordres de balayage étant distincts, pour chaque pixel considéré de la zone de référence connue, une étape de détermination re f->t d'une deuxième valeur de vecteur mouvement additionnel MVadd f-> la deuxième valeur du vecteur mouvement additionnel MVadre d t correspondant à une moyenne pondérée des vecteurs mouvement MVref.->t des pixels, voisins du pixel considéré de la zone de référence connue, spatialement localisés en dehors de la zone de référence connue et/ou précédemment estimés, la moyenne pondérée étant obtenue par affectation d'un poids à chaque vecteur mouvement MVref«->t d'un pixel voisin, la valeur du poids étant proportionnelle à la similarité de couleur et/ou texture et/ou de plan et/ou d'objet entre le pixel considéré de la zone de référence connue et le pixel voisin précédemment estimé et à la proximité spatiale entre le pixel considéré et le pixel voisin, lorsque la somme des poids affectés pour la détermination de la deuxième valeur est inférieure à la somme des poids affectés pour la détermination de la première valeur, la valeur du vecteur mouvement additionnel MVref->t est égale à la première valeur, et add lorsque la somme des poids affectés pour la détermination de la deuxième valeur est supérieure à la somme des poids affectés pour la détermination de la première valeur, la valeur du vecteur mouvement additionnel MVref->t est égale à la deuxième valeur. add En d'autres termes, pour un pixel i de la zone de référence connue, la valeur du vecteur mouvement additionnel MVardedf«->t (i) est telle que : x, w * mvref->t (i) v MVarcej->t '1 il jellWij où D. est l'ensemble des pixels de l'image de référence spatialement localisés en dehors de la zone de référence connue (223) et situés dans une fenêtre de taille fixée autour du pixel i de la zone de référence connue. Les poids wil étant définis ci-après dans le cas d'une application de l'invention à la suppression d'objet : Ill wii = exp ( -21112 3^C(i,i)2 2 as ou dans le cas d'une application de l'invention à la conversion de séquences d'images monoculaires bidimensionnelles 2D vers des séquences d'images stéréoscopiques tridimensionnelles 3D, en tenant compte de la disparité disp (la disparité étant inversement proportionnelle à la profondeur) : -1112 LC(i,j)2 (disp(i) - disp(j))2 wij = exp ( 2 20-2 d avec o-s,o-c,o-d des constantes pour déterminer respectivement l'influence de la distance spatiale, la différence de couleur et la différence de disparité dans la pondération, la différence de couleur AC(i,j) étant calculée à partir des composantes rouge r, verte g et bleue b de l'image : Iri-rjI+Igi-gJI+Ibi-buI AC(i,j) = 3 Ainsi, les vecteurs mouvement des pixels rouges de la balle 11 de la figure 1A n'ont par exemple qu'une influence très faible sur l'estimation du vecteur mouvement additionnel mure f->t vadd de pixels verts de la montagne 12 situés dans la zone de référence connue 13. re f->t , Une fois le vecteur mouvement additionnel MVadd déterminé pour un pixel de la zone de référence connue obtenu, le pixel n'appartient plus à zone de référence connue ce qui aboutit à une réduction de la zone de référence connue au fur et à mesure des itérations du filtrage f -> multilatéral. Le vecteur mouvement additionnel MVadre d t du pixel considéré servant à la re f détermination du vecteur mouvement additionnel MVadd->t du pixel suivant traité à l'itération suivante. Il est à noter que lorsque la zone de référence connue est grande, plusieurs itérations de re f ->t filtrage sont nécessaires pour déterminer le vecteur mouvement additionnel MVadd des pixels de la zone de référence connue qui n'ont, à l'initialisation, aucun pixel voisin direct spatialement localisé en dehors de la zone de référence connue.
Selon un deuxième mode de réalisation, une étape préalable d'obtention (400) d'une carte de segmentation S en plans et/ou objets distincts de l'image de référence est mise en oeuvre. Une telle carte S de segmentation en plans et/ou objets distincts de l'image de référence permet de bien dissocier la zone de référence connue correspondant généralement à l'arrière- plan de l'objet occultant qui lui correspond généralement au premier plan. A partir de cette carte S de segmentation en plans et/ou objets distincts de l'image de re ft référence, l'estimation d'un vecteur mouvement additionnel MVadd est selon une première variante basée uniquement sur une similarité de plan et/ou objet (42) et met en oeuvre un filtrage multilatéral similaire à celui décrit précédemment en se basant sur un critère de similarité de plans et/ou d'objets à la place du critère de similarité de couleur et/ou texture, ou avantageusement en se basant sur le critère de similarité de couleur et/ou texture et le critère de similarité de plans et/ou d'objets. Selon une deuxième variante de ce deuxième mode de réalisation mettant en oeuvre une étape préalable d'obtention (400) d'une carte de segmentation S en plans et/ou objets distincts re f->t de l'image de référence, l'estimation d'un vecteur mouvement additionnel MVadd met en oeuvre une étape de détermination de modèles rigides Mp dans des blocs de pixels contenant à la fois des pixels de la zone de référence connue et des pixels situés en dehors de cette zone dans l'image de référence, entre l'image de référence et l'image courante telle qu'illustrée sur la figure 5. Une telle détermination d'un modèle rigide au sein d'un bloc revient à considérer localement la zone du seul bloc comme un plan rigide se déplaçant entre les deux images. La carte de segmentation S est nécessaire pour empêcher que des pixels situés au premier plan dans un bloc de l'image de référence ne soient utilisés pour la détermination du modèle rigide de ce bloc. De tels modèles rigides correspondent notamment à des modèles paramétriques, par exemple des homographies. Plus précisément, des blocs B de pixels sont centrés sur un pixel PD à la frontière entre la zone de référence connue (13) et le reste fl de l'image de référence.
Deux exemples de détermination de modèle rigides peuvent être mis en oeuvre, ces deux exemples comprennent les étapes générales suivantes : définition (51) de blocs B de pixels comprenant à la fois des pixels de la zone de référence connue et des pixels de l'image de référence spatialement localisés en dehors de la zone de référence connue, pour chaque bloc, détermination (52) d'un modèle rigide Mp entre l'image de référence et l'image courante à partir desdits pixels dudit bloc spatialement localisés en dehors de la zone de référence connue, délivrant par extrapolation, pour chaque pixel de la zone de re f->t référence connue dudit bloc, un vecteur mouvement additionnel MVadd re f->t une fois que le vecteur mouvement additionnel MVadd de chaque pixel de la zone de référence connue du bloc est obtenu, les pixels de la zone de référence connue du bloc n'appartiennent plus (53) à la zone de référence connue, les étapes de définition de blocs de pixels et de détermination d'un modèle rigide étant réitérées jusqu'à ce qu'un vecteur mouvement additionnel MVarde di« ->t ait été obtenu pour chaque pixel de la zone de référence connue de l'image de référence. En d'autres termes, après traitement de chaque bloc, la zone de référence connue est re f ->t réduite, car les pixels de ce bloc pour lesquels le vecteur mouvement additionnel MVadd a ete estimé appartiennent alors à la zone 11, on obtient (53) donc une nouvelle zone de référence connue Z_Ref_C, et l'on réitère (KO) les étapes de définition de blocs de pixels et de détermination d'un modèle rigide jusqu'à (54) ce que la nouvelle zone de référence connue Z_Ref_C, soit vide (OK). Les deux exemples illustrés par la figure 5 diffèrent par la définition des blocs et leur traitement. Selon un premier exemple, l'étape de définition de blocs de pixels (51) délivre au moins deux blocs de pixels de tailles distinctes, la taille et la localisation du centre d'un bloc étant déterminées en mettant en oeuvre les étapes suivantes : balayage (510) de l'image de référence selon un sens prédéterminé, détection (511) d'un pixel de la zone de référence connue, appelé pixel détecté, le pixel détecté étant directement voisin d'un pixel de l'image de référence spatialement localisé en dehors de la zone de référence connue, définition (512) d'un bloc B, de taille prédéterminée, et centré sur le pixel détecté, augmentation (513) de la taille du bloc jusqu'à ce qu'il contienne au minimum 50% de pixels spatialement localisés en dehors de la zone de référence connue. Ainsi, selon cet exemple, on définit autant qu'il est possible des blocs B, de taille prédéterminée, centrés sur un pixel à la frontière de la zone de référence connue et on augmente ces blocs jusqu'à ce que chacun contienne au moins 50% de pixels spatialement localisés en dehors de la zone de référence connue, il est donc possible que ces blocs après augmentation de leur tailles se chevauchent. L'avantage de cet exemple est de permettre un traitement rapide de la zone de référence connue, un modèle rigide étant déterminé simultanément pour chacun de ces blocs, ce qui permet d'obtenir rapidement, par extrapolation à partir de ce modèle rigide, le f-> vecteur mouvement additionnel MVadre d t de chaque pixel de la zone de référence connue de chaque blocs traités simultanément. Selon un deuxième exemple, l'étape de définition de blocs de pixels (51) délivre des blocs de pixels de taille identique, dite taille fixe, et la localisation d'un bloc est déterminée en mettant en oeuvre les étapes suivantes, pour chaque bloc : balayage (510) de l'image de référence selon un sens prédéterminé, détection (511) d'un pixel de la zone de référence connue, appelé pixel détecté, le pixel détecté étant directement voisin d'un pixel de l'image de référence spatialement localisé en dehors de la zone de référence connue, définition (514) du bloc Bi de taille fixe, et centré sur le pixel détecté, reprise (515) du balayage de l'image de référence selon un sens prédéterminé, les pixels de la zone de référence connue dudit bloc n'appartenant plus à la zone de référence connue pour la localisation du bloc Bi suivant, Une fois que l'ensemble de l'image de référence est balayée (515), un ensemble de blocs est en conséquence défini, et une étape de détermination (516) d'un bloc dudit ensemble de blocs Bi, dit bloc prioritaire (bloc prio), le bloc prioritaire contenant le maximum de pixels spatialement localisés en dehors de la zone de référence connue, l'étape de détermination d'un modèle rigide entre l'image de référence et l'image courante étant mise en oeuvre dans le bloc reft prioritaire. Une fois que le vecteur mouvement additionnel MVadd de chaque pixel de la zone de référence connue dudit bloc prioritaire est obtenu, les pixels de ladite zone de référence connue du bloc prioritaire n'appartiennent plus à la zone de référence connue et, les étapes de définition de blocs de pixels de taille identique, de détermination de bloc prioritaire et de détermination d'un modèle rigide sont réitérées jusqu'à ce qu'un vecteur mouvement additionnel muref-> t vadd de chaque pixel de la zone de référence connue de l'image de référence ait été obtenu. Ainsi, selon cet exemple, les blocs les plus fiables sont calculés en premier et influencent le remplissage des blocs suivants, ce qui augmente l'efficacité de construction de la technique selon l'invention. Selon ces deux exemples, il est à noter que lorsqu'un pixel de la zone de référence connue ref->t appartient à deux blocs distincts, le vecteur mouvement additionnel MVadd qui lui est associé ref->t correspond à la moyenne des vecteurs mouvement additionnels MVadd obtenus après traitement de chacun des blocs auxquels il appartient. La figure 6 illustre le remplissage (63, 64) de la zone d'arrière-plan d'une image courante (62) construite selon l'invention à partir d'une image de référence (61) en mettant en oeuvre une estimation (63) basée sur un filtrage multilatéral, ou une estimation (64) basée sur une détermination de modèles rigides localisés dans des blocs de pixels comprenant à la fois des pixels de la zone de référence connue et des pixels de l'image de référence spatialement localisés en dehors de la zone de référence connue, ces blocs étant traités par ordre de priorité tel que décrit précédemment.
Ces résultats sont très proches. Cependant, le deuxième exemple définissant un ordre de priorité des blocs permet d'obtenir une meilleure cohérence des résultats au regard des incohérences (630) sous forme de petites « taches noires » qui apparaissent après mise en oeuvre de l'estimation basée sur la mise en oeuvre d'un filtrage multilatéral.
Selon un mode de réalisation complémentaire des modes de réalisation spatiaux décrits précédemment, illustrés par les figures 7A à 7C, l'étape d'estimation (22) d'un vecteur re f ->t mouvement additionnel MVadd pour chaque pixel de la zone de référence connue prend également en compte la trajectoire de mouvement (71, 72) représentée en pointillé sur la figure 7B, d'au moins un point tridimensionnel visible dans l'image de référence et dans tout ou partie de la séquence d'images représentée par la figure 7A. Cette trajectoire de mouvement correspond à un ensemble de vecteurs mouvement (721, 722, 723, 724, 725) liant un pixel de l'image de référence au point tridimensionnel correspondant dans chaque image de la séquence d'images. Du fait de zones d'occultation entrainant la méconnaissance de certains vecteurs mouvement, une trajectoire peut être « suspendue » dans une image à un instant donné, et reprendre dans la suite temporelle des images de la séquence. De tels vecteurs mouvement méconnus peuvent être retrouvés grâce aux propriétés de cohérence temporelle des trajectoires. En d'autres termes, lorsque l'arrière-plan d'une image de référence est également visible dans d'autres images de la séquence d'images, il est possible de déterminer sa trajectoire par extrapolation ou interpolation (par exemple aux moyens de fonctions spline ou de méthode d'interpolation polynomiale) afin de déterminer la position de l'arrière-plan dans les images qui ne contiennent pas cette information. Cette technique temporelle de construction de zones occultées d'une image courante, basée sur l'utilisation de la trajectoire d'un point tridimensionnel de la séquence d'images dans le temps est avantageusement utilisée de manière complémentaire au regard des modes de réalisation spatiaux précédemment décrits. Ainsi, l'utilisation complémentaire de la trajectoire peut par exemple permettre de déterminer le mouvement de l'arrière-plan située dans la zone (77) correspondant à la partie de balle (11) visible à la fois dans l'image de référence et l'image courante illustrées par la figure 1.
L'utilisation complémentaire de trajectoires s'avère également particulièrement efficace lorsque un objet localisé à une profondeur intermédiaire dans l'image, en d'autres termes entre un premier et un arrière-plan, est visible dans l'image de référence et occulté par un objet (80) du premier-plan dans l'image courante tel qu'illustré par la figure 8. La détermination d'un tel objet intermédiaire est notamment mise en oeuvre au moyen d'une carte de segmentation de l'image de référence en plans et/ou objets apte à représenter au moins trois profondeurs d'image distinctes. Les modes de réalisation spatiaux précédemment décrits vont permettre de propager le mouvement de l'arrière-plan de l'image de référence vers l'image courante, ce mouvement étant représenté par les flèches noires de la figure 8. Cependant, ces modes de réalisations spatiaux ne prennent pas en compte le déplacement simultané de l'objet intermédiaire 83 dont le mouvement peut être différent du mouvement de l'arrière-plan. Ainsi, au regard de la figure 1, si l'on considère le cas (non représenté) où un carré figure à une profondeur intermédiaire entre la balle et la montagne de sorte qu'il est visible et localisé devant la première montagne de gauche sur l'image de référence, l'utilisation d'un mode de réalisation spatial décrit précédemment reproduira dans l'image courante t, le carré au même endroit devant la première montagne, alors que celui-ci s'est déplacé selon une vitesse prédéterminée de sorte à être occulté par la balle dans l'image courante mais devant la deuxième montagne et non la première montagne.
L'utilisation des trajectoires temporelles peut permettre la détermination de ce mouvement de l'objet intermédiaire 83, par extrapolation du mouvement (représenté par des flèches en pointillés 81 et 82) de cet objet intermédiaire 83 dans une image intermédiaire t-1 localisée temporellement entre l'image de référence Ref et l'image courante t, à un instant t-1 par exemple.
Il est à noter que les trajectoires temporelles ne peuvent à elles seules permettre le remplissage complet du champ de mouvement relatif à l'ensemble de la zone de référence connue. En effet, comme illustré par la figure 8, seule une partie B2 de l'objet intermédiaire est visible dans l'image intermédiaire t-1 localisée temporellement entre l'image de référence Ref et l'image courante t. Ainsi, seule la trajectoire de la partie B2 de l'objet peut délivrer par extrapolation (ou interpolation) le mouvement de cette partie entre l'image de référence et l'image courante, le mouvement de la partie B1 de l'objet intermédiaire 83 ne peut être obtenu à partir de la trajectoire temporelle. L'utilisation d'une trajectoire temporelle est donc complémentaire de la mise en oeuvre des modes de réalisation spatiaux décrits précédemment. ref-> Une fois le vecteur mouvement additionnel MVadd t obtenu pour chaque pixel de la zone de référence connue, l'invention met en oeuvre une projection (23) de chaque vecteur ref->t mouvement additionnel MVadd entre l'image de référence et l'image courante délivrant, pour chaque pixel de la zone de référence connue, une position d'arrivée dans l'image courante, l'ensemble des positions d'arrivée obtenues dans l'image courante formant une zone de l'image courante, dite zone courante occultée, au moins une caractéristique additionnelle pour chaque pixel de la zone courante occultée étant à déterminer C) Détermination d'un vecteur mouvement additionnel MVad->dre ft re f Une fois que l'estimation d'un vecteur mouvement additionnel MVadd->t (224) entre l'image de référence et l'image courante, pour chaque pixel de la zone de référence connue a été t->re f effectuée, l'étape de détermination (24) d'un vecteur mouvement additionnel MVadd (231) pour chaque point tridimensionnel de la zone courante occultée, entre l'image courante et re f l'image de référence, par inversion du vecteur mouvement additionnel MVadd->t (224) correspondant est mise en oeuvre. t->r e f Cette étape de détermination (24) d'un vecteur mouvement additionnel MVadd (231), comprend les étapes suivantes : lorsque les coordonnées de la position d'arrivée dans l'image courante correspondent exactement aux coordonnées d'un pixel de l'image courante, dit pixel courant considéré, t->re détermination d'un vecteur mouvement candidat MVcand f par inversion dudit vecteur ref t mouvement additionnel MVadd correspondant et association d'un couple, formé dudit vecteur candidat MI/cta->ardef. et d'une valeur V égale à zéro, audit pixel considéré, lorsque les coordonnées de la position d'arrivée dans l'image courante ne correspondent pas aux coordonnées exactes d'un pixel de l'image courante : o détermination d'au moins quatre pixels de l'image courante dont les coordonnées sont les plus proches desdites coordonnées de la position d'arrivée, dits pixels voisins, et o détermination d'un vecteur de mouvement candidat MV,aadf. par inversion dudit vecteur re f de mouvement additionnel MVadd->t , association, à chacun desdits pixels voisins, d'un t->re couple formé dudit vecteur candidat MVcand fet d'une valeur V égale à la distance entre ladite position d'arrivée et chacun desdits pixels voisins, et pour chaque pixel de l'image courante, dit pixel courant considéré, associé à au moins un vecteur de mouvement candidat MVt->re f et au moins une valeur V : cand obtention dudit vecteur de mouvement additionnel MVt->re f correspondant au vecteur add mouvement candidat MVt->re f parmi tous les candidats associés audit pixel courant cand considéré dont la valeur V est la plus petite, ou obtention dudit vecteur mouvement additionnel MVadd ->re f résultant d'une combinaison linéaire des différents vecteurs mouvement candidats MVtc->anrdef associés audit pixel courant considéré, ladite combinaison linéaire mettant en oeuvre une pondération prédéterminée et/ou une pondération déterminée en fonction de ladite valeur V couplée à chaque vecteur mouvement candidat MVt->ref cand - En effet, il est possible que la valeur du vecteur mouvement MVadd ->ref ne soit pas toujours entière.
D) Autres variantes de réalisation Il est à noter que les exemples décrits précédemment et mettant en oeuvre l'obtention d'une carte de segmentation S de l'image de référence exploitent l'information selon laquelle la scène est constituée de plusieurs objets bien différents, mais n'utilisent pas d'information supplémentaire quant à l'ordre relatif de profondeur de ces différents objets. Pourtant lorsqu'une scène est constituée d'une pluralité de plans et/ou objets ayant chacun leur profondeur et leur mouvement, ces plans et/ou objets se recouvrent les uns les autres, et il est nécessaire de prendre en compte l'ordre de ces recouvrements successifs pour bien construire les zones occultées de l'image. Par exemple, une telle hypothèse est inadaptée lorsque la carte d'occultation représente une zone de référence connue localisée sur une zone associée à un plan intermédiaire, au regard de la figure 1, cette situation correspondrait au cas où la zone de référence connue (13) serait superposée sur la balle (11) dans l'image de référence. Une telle carte d'occultation est par exemple obtenue lorsqu'il y a une « auto-occultation » (par exemple un tissu au premier plan dont le mouvement non rigide crée des plis, ou alors un objet articulé) du premier plan dans l'image courante ce qui entraîne que des points intermédiaires issus de la projection des vecteurs mouvements MVt->ref. seront associés à un état « occulté_dans_courante ». Ainsi, comme abordé au regard de la figure 8 représentant une scène composée de trois plans différents (avant-plan, intermédiaire et arrière-plan), il est nécessaire d'obtenir une carte de segmentation représentative de la profondeur relative de chaque plan et/ou objet dans l'image de référence pour éviter une construction erronée de la zone courante occultée lorsque l'image représente une scène comprenant une pluralité de plans et/ou objets de profondeur distinctes animés par des mouvements distincts dans la séquence d'images. Une telle carte de segmentation est par exemple obtenue par mise en oeuvre d'une technique de segmentation semi-automatique requérant une assistance manuelle d'un utilisateur, et permet de résoudre des conflits de projection de vecteurs mouvement MVref«->t l'information de profondeur relative, permettant en d'autre termes de déterminer dans quel ordre de profondeur les différents plans et/ou objets sont disposés dans la scène capturée dans la séquence d'images considérée, du plan et/ou objet considéré étant prise en compte. Une telle carte de segmentation aboutit à une représentation « multi-plans » et/ou « multi-objets » de la scène à un instant t, chaque plan et/ou objet faisant l'objet d'un traitement indépendant comme illustré par la figure 9. Un autre mode de réalisation selon l'invention met en oeuvre l'obtention et l'utilisation d'une carte contenant une information précise de la profondeur pour chaque pixel de l'image de référence (par exemple une carte de disparité ou bien une carte de profondeur). Plus précisément, selon ce mode de réalisation particulier, pour un pixel de l'image courante, la détermination du vecteur mouvement additionnel MVadd ->ref met en oeuvre la sélection du vecteur mouvement candidat MVt->ref obtenupar projection et inversion du vecteur cand re mouvement additionel MVadft d associé au pixel de l'image de référence présentant la profondeur la plus faible dans l'image de référence (i. e. la disparité la plus importante). Cette information de profondeur définie initialement en tout pixel de l'image de référence peut également être propagée selon l'invention à l'image courante lors de la construction par remplissage de la zone courante occultée et au moyen des vecteurs de mouvement MVadd ->ref afin d'être utilisée ultérieurement.
Selon cette variante, il est donc possible de prendre en compte une pluralité de superpositions d'objets pour identifier ce qui devient visible dans une image courante lorsque par exemple le premier plan est supprimé. Il est à noter que si des « trous » persistent après le remplissage selon l'invention, il est possible de combler ces « trous » persistant par un remplissage spatial classique (en anglais « spatial inpainting »).
E) Application à la conversion de séquences d'images monoculaires bidimensionnelles 2D vers des séquences d'images stéréoscopiques tridimensionnelles 3D Cette application est illustrée par les figures 10A à 10B, où l'on considère que la séquence d'images d'origine utilisées pour la conversion de séquences d'images monoculaires bidimensionnelles 2D vers des séquences d'images stéréoscopiques tridimensionnelles 3D, correspond à un point de vue situé à gauche, et que l'on dispose d'une carte de disparité pour toutes les images de cette séquence d'image correspondant à une prise de vue située à gauche. La conversion de séquences d'images monoculaires bidimensionnelles 2D vers des séquences d'images stéréoscopiques tridimensionnelles 3D, consiste notamment à extrapoler les vues de droite à partir des vues de gauche dont on dispose.
En particulier, la figure 10A représente : l'image de référence vue de gauche (190) comprenant deux objets visibles un large (1901), et un plus fin (1902), l'image courante vue de gauche (191) dans laquelle l'objet fin (1902) est occulté, l'image courante vue de droite (192) extrapolée à partir de l'image courante vue de gauche (191), dans laquelle une partie de l'objet fin (1902) de l'image de référence capturée par le point de vue gauche est construite selon l'invention en marge de l'objet large 1901, et l'image courante vue de droite (193) extrapolée à partir de l'image courante vue de gauche (191) dans laquelle, sans mise en oeuvre de la présente invention, l'information associée à l'objet fin n'est pas disponible si bien qu'une bande (1903) « vide » est restituée. La figure 10B représente en profondeur, en d'autres termes en fonction des plans de l'image (objet du premier-plan 1901, objet du plan intermédiaire 1902 et arrière-plan 1904), les vues de face de l'image courante vue de gauche (191), et de l'image courante vue de droite (192) obtenue selon l'invention, de la figure 10A. Ainsi, selon l'invention les données visibles dans l'image de référence de gauche et occultées dans l'image courante de gauche peuvent être utilisées pour remplir les zones découvertes par changement de point de vue dans l'image courante de droite extrapolée à partir de l'image courante de gauche. On obtient donc une image courante (vue) de droite (192) de meilleure qualité que l'image courante (vue) de droite (193) qui serait obtenue par extrapolation sans mise en oeuvre de l'invention. Une telle approche de propagation de l'information selon l'invention peut être répétée plusieurs fois pour différentes images identifiées comme « référence » de la séquence d'images afin de construire toute zone occultée qui pourrait être identifiée dans la séquence d'images. Cette approche peut notamment être utilisée pour remplacer la zone (77), illustrée dans la figure 7C, correspondant à la partie de balle (11) visible à la fois dans l'image de référence et l'image courante illustrées par la figure 1, ou pour vérifier la fiabilité de construction d'un même point tridimensionnel de la zone occultée d'une image courante en utilisant deux images de référence distinctes. 5.3 Description du dispositif de traitement d'une image courante d'une séquence d'images selon l'invention Comme illustré en figure 12, un tel dispositif de traitement d'une image courante d'une séquence d'images comprend une mémoire 121 comprenant une mémoire tampon, une unité de traitement 122, équipée par exemple d'un microprocesseur ,uP et pilotée par le programme d'ordinateur 123, mettant en oeuvre le procédé de traitement d'une image courante d'une séquence d'images selon l'invention. A l'initialisation, les instructions de code du programme d'ordinateur 123 sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur de l'unité de traitement 122. L'unité de traitement 122 reçoit en entrée une séquence d'images Seq comprenant au moins deux images correspondant à une image de référence et une image courante. Le microprocesseur de l'unité de traitement 122 met en oeuvre les étapes du procédé de traitement d'une séquence d'images décrit précédemment, selon les instructions du programme d'ordinateur 123. Pour cela, le dispositif de transmission comprend en outre : un module de détermination 124 d'au moins une zone de ladite image de référence, dite zone de référence connue, un estimateur 125 d'un vecteur mouvement additionnel MVref->t entre ladite add image de référence et ladite image courante, pour chaque pixel de ladite zone de référence ref->t connue, un module de projection 126 de chaque vecteur mouvement additionnel MVadd entre ladite image de référence et ladite image courante délivrant, pour chaque pixel de l'image de référence, une position d'arrivée dans l'image courante, l'ensemble des positions d'arrivées obtenue dans l'image courante formant une zone de l'image courante, dite zone courante occultée, au moins une caractéristique additionnelle de chaque pixel de ladite zone courante occultée étant à déterminer, un module de détermination 127 d'un vecteur mouvement additionnel MVt->ref pour chaque pixel de ladite zone courante occultée, entre ladite image add courante et ladite image de référence, par inversion d'un champ de mouvement additionnel re , formé par lesdits vecteurs de mouvement additionnels MVadft d estimés pour chaque pixel de ladite zone de référence connue. De manière optionnelle, le dispositif de traitement selon l'invention peut comprendre également, un module de détermination (125) d'au moins une caractéristique additionnelle pour chaque pixel de la zone courante occultée, par propagation d'au moins une caractéristique connue d'un ou plusieurs pixels de ladite zone de référence au moyen du vecteur de mouvement additionnel MVatd->drefde ce pixel de la zone courante occultée. Ces modules sont pilotés par le microprocesseur de l'unité de traitement 122.

Claims (15)

  1. REVENDICATIONS1. Procédé de traitement d'une séquence d'images, ladite séquence d'images comprenant au moins deux images correspondant à une image de référence et une image courante, l'ensemble des caractéristiques de chaque pixel de l'image de référence étant connu, un premier champ de mouvement entre ladite image de référence et ladite image courante comprenant un ensemble de vecteurs mouvement MIP-ef.->t, et un deuxième champ de mouvement entre ladite image courante et ladite image de référence comprenant un ensemble de vecteurs mouvement MVt->ref , étant connus caractérisé en ce que ledit procédé comprend au moins les étapes suivantes : détermination (21) d'au moins une zone de ladite image de référence, dite zone de référence connue, re f->t estimation (22) d'un vecteur mouvement additionnel MVadd (224) entre ladite image de référence et ladite image courante, pour chaque pixel de ladite zone de référence connue, projection (23) de chaque vecteur mouvement additionnel MVref->t entre ladite image de add référence et ladite image courante délivrant, pour chaque pixel de ladite zone de référence connue, une position d'arrivée dans l'image courante, l'ensemble des positions d'arrivée obtenues dans l'image courante formant une zone de l'image courante, dite zone courante occultée (211), au moins une caractéristique additionnelle de chaque pixel de ladite zone courante occultée étant à déterminer, détermination (24) d'un vecteur mouvement additionnel MVad->dref (231) pour chaque pixel de ladite zone courante occultée, entre ladite image courante et ladite image de référence, par inversion d'un champ de mouvement additionnel formé par lesdits re f ->t vecteurs de mouvement additionnels MVadd (224) estimés pour chaque pixel de ladite zone de référence connue.
  2. 2. Procédé de traitement d'une image courante d'une séquence d'images selon la revendication 1, caractérisé en ce que ladite étape de détermination (21) de ladite zone de référence connue met en oeuvre une étape de construction d'une image d'occultation (210) identifiant ladite zone de référence connue dans ladite image de référence.
  3. 3. Procédé de traitement d'une image courante d'une séquence d'images selon la revendication 2, caractérisé en ce que ladite étape de construction met en oeuvre les étapes suivantes :association d'un état initial « occulté_dans_courante » à tous les pixels de ladite image de référence, projection (310) d'un desdits vecteurs mouvement MVt'f entre ladite image courante et ladite image de référence délivrant, pour chaque pixel de départ de l'image courante, une position intermédiaire dans l'image de référence, projection (311) d'un desdits vecteurs mouvement MVref.->t entre ladite image de référence et ladite image courante délivrant, pour chaque position intermédiaire dans l'image de référence, une position d'arrivée dans l'image courante, détermination (312) de la distance entre un pixel de départ de l'image courante et une position d'arrivée dans l'image courante, association d'un état « visible_dans_courante » au pixel le plus proche de la position intermédiaire de l'image de référence lorsque ladite distance est inférieure à une valeur seuil prédéterminée, l'ensemble des pixels de l'image de référence présentant un état « occulté_dans_courante » formant ladite au moins une zone de référence connue correspondant à ladite zone occultée associée à ladite image courante, obtention de ladite image d'occultation (210) présentant, dans ladite image de référence, les contours de ladite zone de référence connue.
  4. 4. Procédé de traitement d'une image courante d'une séquence d'images selon l'une quelconque des revendications précédentes, caractérisé en ce que ladite étape d'estimation (22) ref->t d'un vecteur additionnel MVadd pour chaque pixel de ladite zone de référence connue prend en compte (41) un critère de similarité de couleur et/ou texture entre des pixels de ladite zone de référence connue et des pixels de l'image de référence spatialement localisés en dehors de ladite zone de référence connue.
  5. 5. Procédé de traitement d'une image courante d'une séquence d'images selon l'une des revendications 1 à 3, caractérisé en ce que ledit procédé comprend en outre une étape préalable d'obtention (400) d'une carte de segmentation en plans et/ou objets distincts de ladite image de référence.
  6. 6. Procédé de traitement d'une image courante d'une séquence d'images selon la revendication 5, caractérisé en ce que ladite étape d'estimation (22) d'un vecteur mouvement ref->t additionnel MVadd pour chaque pixel de ladite zone de référence connue prend en compte (42) un critère de similarité de plan et/ou d'objet entre des pixels de ladite zone de référence connue et des pixels de l'image de référence spatialement localisés en dehors de ladite zone de référence connue.
  7. 7. Procédé de traitement d'une image courante d'une séquence d'images selon l'une des revendications 4 et 6, caractérisé en ce que ladite estimation du vecteur mouvement additionnel muref->t vadd basée sur un critère de similarité de couleur et/ou texture, et/ou sur un critère de similarité de plan et/ou d'objet met en oeuvre un filtrage multilatéral (43) comprenant au moins une itération, ladite itération comprenant : une première phase (431) de balayage de l'image de référence, selon un premier ordre de balayage prédéterminé, comprenant, pour chaque pixel considéré de ladite zone de référence connue, une étape de détermination d'une première valeur de vecteur ref->t mouvement additionnel MVadd ref->t ladite première valeur dudit vecteur mouvement additionnel MVadd correspondant à une moyenne pondérée des vecteurs mouvement MVref->t des pixels, voisins dudit pixel considéré de ladite zone de référence connue, spatialement localisés en dehors de ladite zone de référence connue et/ou précédemment estimés, ladite moyenne pondérée étant obtenue par affectation d'un poids à chaque vecteur mouvement MVref«->t d'un pixel voisin, la valeur dudit poids étant proportionnelle à la similarité de couleur et/ou texture et/ou de plan et/ou d'objet entre ledit pixel considéré de ladite zone de référence connue et ledit pixel voisin précédemment estimé et à la proximité spatiale entre ledit pixel considéré et ledit pixel voisin, une deuxième phase (432) de balayage de l'image de référence selon un deuxième ordre de balayage prédéterminé, lesdits premier et deuxième ordres de balayage étant distincts, pour chaque pixel considéré de ladite zone de référence connue, une étape de ref ->t détermination d'une deuxième valeur de vecteur mouvement additionnel MVadd -> ladite deuxième valeur dudit vecteur mouvement additionnel MVaddref t correspondant à une moyenne pondérée des vecteurs mouvement MVref«->t des pixels, voisins dudit pixel considéré de ladite zone de référence connue, spatialement localisés en dehors de ladite zone de référence connue et/ou précédemment estimés, ladite moyenne pondérée étant obtenue par affectation d'un poids à chaque vecteur mouvement MVref«->t d'un pixel voisin, la valeur dudit poids étant proportionnelle à la similarité de couleur et/ou texture et/ou de plan et/ou d'objet entre ledit pixel considéré de ladite zone de référence connue et ledit pixel voisin précédemment estimé et à la proximité spatiale entre ledit pixel considéré et ledit pixel voisin, lorsque la somme des poids affectés pour la détermination de la deuxième valeur est inférieure à la somme des poids affectés pour la détermination de la première valeur, la valeur dudit vecteurmouvement additionnel MVref->t est égale à la première valeur, et add lorsque la somme des poids affectés pour la détermination de la deuxième valeur est supérieure à la somme des poids affectés pour la détermination de la première valeur, la valeur dudit vecteur mouvement additionnel MVref->t est égale à la deuxième valeur. add
  8. 8. Procédé de traitement d'une image courante d'une séquence d'images selon la revendication 5, caractérisé en ce que ladite estimation du vecteur mouvement additionnel muref->t 1"vadd met en oeuvre une étape de détermination de modèles rigides et comprend les étapes suivantes : définition (51) de blocs de pixels comprenant à la fois des pixels de ladite zone de référence connue et des pixels de l'image de référence spatialement localisés en dehors de ladite zone de référence connue, pour chaque bloc, détermination (52) d'un modèle rigide entre ladite image de référence et ladite image courante à partir desdits pixels dudit bloc spatialement localisés en dehors de ladite zone de référence connue, délivrant par extrapolation, pour chaque pixel de ref->t ladite zone de référence connue dudit bloc, un vecteur mouvement additionnel MVadd , ref->t une fois que le vecteur mouvement additionnel MVadd de chaque pixel de ladite zone de référence connue dudit bloc est obtenu, lesdits pixels de ladite zone de référence connue dudit bloc n'appartiennent plus (53) à ladite zone de référence connue, lesdites étapes de définition de blocs de pixels et de détermination d'un modèle rigide étant ref->t réitérées jusqu'à ce qu'un vecteur mouvement additionnel MVadd ait été obtenu pour chaque pixel de ladite zone de référence connue de ladite image de référence.
  9. 9. Procédé de traitement d'une image courante d'une séquence d'images selon la revendication 8, caractérisé en ce que ladite étape de définition de blocs de pixels délivre au moins deux blocs de pixels de tailles distinctes, la taille et la localisation du centre d'un bloc étant déterminée en mettant en oeuvre les étapes suivantes : balayage (510) de l'image de référence selon un sens prédéterminé, détection (511) d'un pixel de ladite zone de référence connue, appelé pixel détecté, ledit pixel détecté étant directement voisin d'un pixel de l'image de référence spatialement localisé en dehors de ladite zone de référence connue, définition (512) d'un bloc, de taille prédéterminée, et centré sur ledit pixel détecté, augmentation (513) de la taille dudit bloc jusqu'à ce qu'il contienne au minimum 50% de pixels spatialement localisés en dehors de ladite zone de référence connue.
  10. 10. Procédé de traitement d'une image courante d'une séquence d'images selon la revendication 8, caractérisé en ce que ladite étape de définition de blocs de pixels délivre desblocs de pixels de taille identique, dite taille fixe, et en ce que la localisation d'un bloc est déterminée en mettant en oeuvre les étapes suivantes, pour chaque bloc : balayage (510) de l'image de référence selon un sens prédéterminé, détection (511) d'un pixel de ladite zone de référence connue, appelé pixel détecté, ledit pixel détecté étant directement voisin d'un pixel de l'image de référence spatialement localisé en dehors de ladite zone de référence connue, définition (514) dudit bloc de taille fixe, et centré sur ledit pixel détecté, reprise (515) dudit balayage de l'image de référence selon un sens prédéterminé, les pixels de ladite zone de référence connue dudit bloc n'appartenant plus à ladite zone de référence connue pour la localisation du bloc suivant, et caractérisé en ce que une fois que l'ensemble de l'image de référence est balayée, un ensemble de blocs étant défini, ledit procédé comprend en outre : une étape de détermination (516) d'un bloc dudit ensemble de blocs, dit bloc prioritaire, ledit bloc prioritaire contenant le maximum de pixels spatialement localisés en dehors de ladite zone de référence connue, ladite étape de détermination (52) d'un modèle rigide entre ladite image de référence et ladite image courante étant mise en oeuvre dans ledit bloc prioritaire, re et caractérisé en ce que une fois que le vecteur mouvement additionnel MVadft d de chaque pixel de ladite zone de référence connue dudit bloc prioritaire est obtenu, lesdits pixels de ladite zone de référence connue dudit bloc prioritaire n'appartiennent plus à ladite zone de référence connue et, en ce que lesdites étapes de définition de blocs de pixels de taille identique, de détermination de bloc prioritaire et de détermination d'un modèle rigide sont réitérées jusqu'à ce qu'un vecteur re f->t ' mouvement additionnel MVadd ait été obtenu pour chaque pixel de ladite zone de référence connue de ladite image de référence.
  11. 11. Procédé de traitement d'une image courante d'une séquence d'images selon l'une quelconque des revendications 4 à 10, caractérisé en ce que ladite étape d'estimation (22) d'un ref-> vecteur mouvement additionnel MVadd t de chaque pixel de ladite zone de référence connue prend en compte la trajectoire (71,72) de mouvement d'au moins un point tridimensionnel visible dans ladite image de référence et dans tout ou partie de ladite séquence d'images, ladite 30 trajectoire de mouvement correspondant à l'évolution de la localisation dudit point tridimensionnel au cours du temps dans ladite séquence d'images.
  12. 12. Procédé de traitement d'une image courante d'une séquence d'images selon la revendication 5 et l'une quelconque des revendications 7 à 11, caractérisé en ce que ladite carte de segmentation en plans et/ou objets distincts de ladite image de référence délivre uneinformation représentative d'un ordre de profondeur dans l'image de chaque plan et/ou objet distinct.
  13. 13. Procédé de traitement d'une image courante d'une séquence d'images selon l'une quelconque des revendications précédentes, caractérisé en ce que ladite étape de détermination d'un vecteur mouvement additionnel MVadd t->ref pour chaque pixel de ladite zone courante occultée, met en oeuvre les étapes suivantes : lorsque les coordonnées de la position d'arrivée dans l'image courante correspondent exactement aux coordonnées d'un pixel de l'image courante, dit pixel courant considéré, détermination d'un vecteur mouvement candidat MVcand t->re f par inversion dudit vecteur re f t mouvement additionnel MVadd correspondant et association d'un couple, formé dudit vecteur candidat MVcta->nrdef. et d'une valeur V égale à zéro, audit pixel considéré, lorsque les coordonnées de la position d'arrivée dans l'image courante ne correspondent pas aux coordonnées exactes d'un pixel de l'image courante : o détermination d'au moins quatre pixels de l'image courante dont les coordonnées sont les plus proches desdites coordonnées de la position d'arrivée, dits pixels voisins, et o détermination d'un vecteur de mouvement candidat MVcandf. par inversion dudit vecteur ref ->t de mouvement additionnel MVadd , association, à chacun desdits pixels voisins, d'un t->re couple formé dudit vecteur candidat MVcand f et d'une valeur V égale à la distance entre ladite position d'arrivée et chacun desdits pixels voisins, et pour chaque pixel de l'image courante, dit pixel courant considéré, associé à au moins un vecteur de mouvement candidat MVt->re f et au moins une valeur V : cand obtention dudit vecteur de mouvement additionnel MVt->re fcorrespondant au vecteur add mouvement candidat MVt->re f parmi tous les candidats associés audit pixel courant cand considéré dont la valeur V est la plus petite, ou obtention dudit vecteur mouvement additionnel MVadd t->re f résultant d'une combinaison linéaire des différents vecteurs mouvement candidats MVt->re f associés audit pixel courant cand considéré, ladite combinaison linéaire mettant en oeuvre une pondération prédéterminée et/ou une pondération déterminée en fonction de ladite valeur V couplée à chaque vecteur mouvement candidat MVt->re f cand -
  14. 14. Programme d'ordinateur comportant des instructions pour la mise en oeuvre d'un procédé selon l'une des revendications précédentes lorsque ce programme est exécuté par un processeur.
  15. 15. Dispositif de traitement d'une séquence d'images, ladite séquence d'images comprenant au moins deux images correspondant à une image de référence et une image courante, l'ensemble des caractéristiques de chaque pixel de l'image de référence étant connu, un premier champ de mouvement entre ladite image de référence et ladite image courante comprenant un ensemble de vecteurs mouvement MIP-ef.->t, et un deuxième champ de mouvement entre ladite image courante et ladite image de référence comprenant un ensemble de vecteurs mouvement MVt->ref , étant connus caractérisé en ce que ledit dispositif comprend au moins : un module de détermination (124) d'au moins une zone de ladite image de référence, dite zone de référence connue, re f->t un estimateur (125) d'un vecteur mouvement additionnel MVadd (224) entre ladite image de référence et ladite image courante, pour chaque pixel de ladite zone de référence connue, un module de projection (126) de chaque vecteur mouvement additionnel MVref->t entre add ladite image de référence et ladite image courante délivrant, pour chaque pixel de l'image de référence, une position d'arrivée dans l'image courante, l'ensemble des positions d'arrivées obtenue dans l'image courante formant une zone de l'image courante, dite zone courante occultée (211), au moins une caractéristique additionnelle de chaque pixel de ladite zone courante occultée étant à déterminer, un module de détermination (127) d'un vecteur mouvement additionnel MVad->dref (231) pour chaque pixel de ladite zone courante occultée, entre ladite image courante et ladite image de référence, par inversion d'un champ de mouvement additionnel formé par re f->t lesdits vecteurs de mouvement additionnels MVadd (224) estimés pour chaque pixel de ladite zone de référence connue.25
FR1363327A 2013-12-20 2013-12-20 Procede de traitement d'une sequence d'images, programme d'ordinateur et dispositif de traitement correspondants Pending FR3009471A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1363327A FR3009471A1 (fr) 2013-12-20 2013-12-20 Procede de traitement d'une sequence d'images, programme d'ordinateur et dispositif de traitement correspondants

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1363327A FR3009471A1 (fr) 2013-12-20 2013-12-20 Procede de traitement d'une sequence d'images, programme d'ordinateur et dispositif de traitement correspondants

Publications (1)

Publication Number Publication Date
FR3009471A1 true FR3009471A1 (fr) 2015-02-06

Family

ID=50829001

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1363327A Pending FR3009471A1 (fr) 2013-12-20 2013-12-20 Procede de traitement d'une sequence d'images, programme d'ordinateur et dispositif de traitement correspondants

Country Status (1)

Country Link
FR (1) FR3009471A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784840A (zh) * 2020-05-08 2020-10-16 广西壮族自治区自然资源遥感院 基于矢量数据自动分割lod层级三维数据单体化方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090147851A1 (en) * 2004-11-22 2009-06-11 Koninklijke Philips Electronics, N.V. Motion vector field projection dealing with covering and uncovering
US20110129015A1 (en) * 2007-09-04 2011-06-02 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
US20110211111A1 (en) * 2010-03-01 2011-09-01 Kabushiki Kaisha Toshiba Interpolation frame generating apparatus and method
EP2602997A1 (fr) * 2011-12-07 2013-06-12 Thomson Licensing Procédé et appareil pour le traitement d'occlusions dans l'estimation du mouvement

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090147851A1 (en) * 2004-11-22 2009-06-11 Koninklijke Philips Electronics, N.V. Motion vector field projection dealing with covering and uncovering
US20110129015A1 (en) * 2007-09-04 2011-06-02 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
US20110211111A1 (en) * 2010-03-01 2011-09-01 Kabushiki Kaisha Toshiba Interpolation frame generating apparatus and method
EP2602997A1 (fr) * 2011-12-07 2013-06-12 Thomson Licensing Procédé et appareil pour le traitement d'occlusions dans l'estimation du mouvement

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784840A (zh) * 2020-05-08 2020-10-16 广西壮族自治区自然资源遥感院 基于矢量数据自动分割lod层级三维数据单体化方法及系统
CN111784840B (zh) * 2020-05-08 2024-04-19 广西壮族自治区自然资源遥感院 基于矢量数据自动分割lod层级三维数据单体化方法及系统

Similar Documents

Publication Publication Date Title
Yoon et al. Novel view synthesis of dynamic scenes with globally coherent depths from a monocular camera
Penner et al. Soft 3d reconstruction for view synthesis
Yao et al. Recurrent mvsnet for high-resolution multi-view stereo depth inference
JP7300438B2 (ja) Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
Su et al. Deep video deblurring for hand-held cameras
JP7173772B2 (ja) 深度値推定を用いた映像処理方法及び装置
EP2491532B1 (fr) Procede, programme d'ordinateur et dispositif de suivi hybride de representations d'objets, en temps reel, dans une sequence d'images
US9237330B2 (en) Forming a stereoscopic video
EP2715662B1 (fr) Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu
EP2549434B1 (fr) Procédé de modélisation de bâtiments à partir d'une image géoréférencée
WO2013074561A1 (fr) Modification du point de vue d'une image numérique
KR100953076B1 (ko) 객체 또는 배경 분리를 이용한 다시점 정합 방법 및 장치
KR20110078175A (ko) 영상 데이터 생성 방법 및 장치
Saurer et al. Sparse to dense 3d reconstruction from rolling shutter images
EP3072109A1 (fr) Procede d'estimation de la vitesse de deplacement d'une camera
O'Byrne et al. A stereo‐matching technique for recovering 3D information from underwater inspection imagery
Pan et al. Depth map completion by jointly exploiting blurry color images and sparse depth maps
Niklaus et al. Learned dual-view reflection removal
Satapathy et al. Robust depth map inpainting using superpixels and non-local Gauss–Markov random field prior
Bevilacqua et al. Joint inpainting of depth and reflectance with visibility estimation
EP2856424B1 (fr) Procede de mesures tridimensionnelles par stereo-correlation utilisant une representation parametrique de l'objet mesure
FR3009471A1 (fr) Procede de traitement d'une sequence d'images, programme d'ordinateur et dispositif de traitement correspondants
US20170140549A1 (en) Method of perceiving 3d structure from a pair of images
EP3069319B1 (fr) Système et un procédé de caractérisation d'objets d'intérêt présents dans une scène
Thonat et al. Thin structures in image based rendering