FR2998399A1 - Method for editing video sequence in plane, involves determining series of transformations i.e. homography, for each current image of video sequence, and performing step for temporal filtering of series of transformations - Google Patents

Method for editing video sequence in plane, involves determining series of transformations i.e. homography, for each current image of video sequence, and performing step for temporal filtering of series of transformations Download PDF

Info

Publication number
FR2998399A1
FR2998399A1 FR1354738A FR1354738A FR2998399A1 FR 2998399 A1 FR2998399 A1 FR 2998399A1 FR 1354738 A FR1354738 A FR 1354738A FR 1354738 A FR1354738 A FR 1354738A FR 2998399 A1 FR2998399 A1 FR 2998399A1
Authority
FR
France
Prior art keywords
plane
image
transformations
series
transformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1354738A
Other languages
French (fr)
Inventor
Matthieu Fradet
Pierre-Henri Conze
Joan Llach
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to FR1354738A priority Critical patent/FR2998399A1/en
Publication of FR2998399A1 publication Critical patent/FR2998399A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

The method involves determining a series of transformations (10) i.e. projective transformation or homography, for each current image of a video sequence, where the transformations include a parameter that is representative of movement of a plane between a reference image and the current image. A step for temporal filtering of the series of transformations is carried out (11). Information representative of quality of the transformation, and information that is representative of quality of filtered transformation are provided.

Description

9 9 83 9 9 1 PROCEDE D'EDITION D'UN PLAN DANS UNE SEQUENCE VIDEO 1. Domaine de l'invention.FIELD OF THE EDITION OF A PLANE IN A VIDEO SEQUENCE 1. Field of the invention

L'invention se rapporte au domaine de l'édition vidéo. Plus précisément à un procédé d'édition d'un plan dans une séquence vidéo et à un dispositif mettant en oeuvre ce procédé. 2. Etat de l'art.The invention relates to the field of video editing. More specifically to a method of editing a clip in a video sequence and to a device implementing this method. 2. State of the art

Selon l'état de la technique, il est connu, dans le domaine de l'édition vidéo, des fonctions de suivi d'une surface plane (en anglais « planar tracking ») entre une image d'une séquence vidéo et un ensemble d'images successives de la séquence vidéo. Ces fonctions de suivi d'une surface plane sont par exemple utilisées pour insérer un logo sur cette surface plane dans une séquence vidéo, pour modifier la texture ou la couleur de cette surface plane. Selon une première méthode de suivi d'une surface plane, une simple information représentative de la localisation d'une région d'intérêt comprenant le plan, par exemple une boite englobante, dans les images successives est suffisante pour certaines applications comme la détection et le suivi d'un objet. En revanche, cette première méthode n'est pas suffisamment précise pour des applications de montage vidéo plus avancées telles que précédemment décrites (telles que l'insertion de logo). Selon une deuxième méthode de suivi planaire, une transformation projective est estimée entre l'image sur laquelle le plan est déterminé, dite image de référence et chacune des images successives de la séquence vidéo. Une transformation projective, également appelée homographie, permet de modéliser le mouvement du projeté d'un plan de l'espace 3D dans le plan image (par exemple la rotation d'un plan). Dans "SURF: Speeded Up Robust Features" (Computer Vision and Image Understanding (CVIU), Vol. 110, No. 3, pp. 346--359, 2008), Herbert Bay, Andreas Ess, Tinne Tuytelaars et Luc Van Gool décrivent une méthode permettant d'extraire, de décrire et de mettre en correspondance des points d'intérêt dans des images. A partir de paires de points mis en correspondance entre l'image de référence et chacune des autres images, les transformations projectives sont estimées, par exemple en utilisant la méthode robuste RANSAC décrite par Martin A. Fischler et Robert C. 2 9983 99 2 Bolles, « Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography » (Comm. Of the ACM, vol. 24, juin 1981, p. 381-395). Au moins 4 paires de points appartenant au plan sont nécessaires pour calculer une homographie. Ainsi, 5 dans une application de modification de texture, un opérateur indique la texture planaire à insérer, la localisation d'un plan dans l'image de référence sur lequel insérer la texture et la méthode de suivi planaire fournit les modèles de mouvement du plan, c'est-à-dire la série d'homographies, reliant chaque image à l'image de référence. Ces homographies sont ensuite 10 utilisées pour insérer automatiquement la texture dans toute la séquence à partir de l'information pour la première image. Plus précisément, pour insérer un logo sur une surface plane, on applique la transformation projective estimée à chaque pixel de l'image courante. Si le point correspondant dans l'image de référence appartient à la surface sur laquelle le logo a été ajouté, 15 les valeurs du pixel de l'image courante sont recalculées par une méthode d'interpolation (par exemple bilinéaire) des valeurs du logo ajouté dans l'image de référence. Toutefois, un inconvénient de cette méthode d'insertion est que la texture (ou le logo) insérée est perceptible lors de la représentation de la séquence vidéo. Ainsi, on peut observer un effet de 20 flottement (en anglais « pumping effect » ou « flickering ») de celle-ci au- dessus de la surface sur laquelle elle a été insérée. L'invention a pour but de proposer une méthode de suivi planaire permettant de lisser la série de transformations projectives et ainsi supprimer 25 cet effet de flottement lors de l'édition vidéo. 3. Résumé de l'invention. L'invention a pour but de pallier à au moins un de ces inconvénients de l'art antérieur. 30 L'invention concerne un procédé, mis en oeuvre dans un système informatique, d'édition d'un plan dans une séquence vidéo comprenant une étape de détermination d'une série de transformations pour chaque image courante de la séquence vidéo, une transformation comprenant au moins un 35 paramètre représentatif du mouvement du plan entre une image de référence et l'image courante. Le procédé est remarquable en ce qu'il comprend une étape de filtrage temporel de la série de transformations.According to the state of the art, it is known, in the field of video editing, tracking functions of a flat surface (in English "planar tracking") between an image of a video sequence and a set of successive images of the video sequence. These functions of tracking a flat surface are for example used to insert a logo on this flat surface in a video sequence, to change the texture or the color of this flat surface. According to a first method of tracking a planar surface, a simple piece of information representative of the location of a region of interest comprising the plane, for example an all-encompassing box, in the successive images is sufficient for certain applications such as detection and detection. followed by an object. On the other hand, this first method is not sufficiently accurate for more advanced video editing applications as previously described (such as logo insertion). According to a second planar tracking method, a projective transformation is estimated between the image on which the plane is determined, said reference image and each successive image of the video sequence. A projective transformation, also called homography, allows to model the movement of the projected plane of the 3D space in the image plane (for example the rotation of a plane). In "SURF: Speeded Up Robust Features", Herbert Bay, Ess Andreas, Tinne Tuytelaars and Luc Van Gool describe a method for extracting, describing and mapping points of interest in images. From pairs of points mapped between the reference image and each of the other images, the projective transformations are estimated, for example using the robust RANSAC method described by Martin A. Fischler and Robert C. 2 9983 99 2 Bolles "Random Sample Consensus: A Paradigm for Modeling with Applications to Image Analysis and Automated Cartography" (Comm of the ACM, Vol 24, June 1981, 381-395). At least 4 pairs of points belonging to the plane are needed to calculate a homography. Thus, in a texture modification application, an operator indicates the planar texture to be inserted, the location of a plane in the reference image on which to insert the texture, and the planar tracking method provides the motion patterns of the plane. , that is the series of homographies, connecting each image to the reference image. These homographies are then used to automatically insert the texture throughout the sequence from the information for the first image. More precisely, to insert a logo on a flat surface, the estimated projective transformation is applied to each pixel of the current image. If the corresponding point in the reference image belongs to the surface on which the logo has been added, the pixel values of the current image are recalculated by an interpolation method (eg bilinear) of the values of the added logo. in the reference image. However, a disadvantage of this insertion method is that the texture (or logo) inserted is noticeable during the representation of the video sequence. Thus, a "pumping effect" or "flickering" effect can be observed above the surface on which it has been inserted. It is an object of the invention to provide a planar tracking method for smoothing the series of projective transformations and thereby suppressing this floating effect during video editing. 3. Summary of the invention. The invention aims to overcome at least one of these disadvantages of the prior art. The invention relates to a method, implemented in a computer system, of editing a plane in a video sequence comprising a step of determining a series of transformations for each current image of the video sequence, a transformation comprising at least one parameter representative of the movement of the plane between a reference image and the current image. The method is remarkable in that it comprises a step of temporal filtering of the series of transformations.

Selon une caractéristique particulière, l'étape de filtrage temporel comprend la détermination d'au moins un paramètre représentatif du mouvement du plan entre l'image de référence et l'image courante de la séquence vidéo à partir d'une somme pondérée des au moins un paramètre représentatif du mouvement du plan entre l'image de référence et une image appartenant à un ensemble déterminé d'images d'une fenêtre temporelle autour de l'image courante. Avantageusement, la série de transformations filtrée est fonction, pour chaque image courante, d'une information représentative de la qualité de la transformation et fonction d'une information représentative de la qualité de la transformation filtrée. Selon une autre caractéristique particulière, l'étape de filtrage temporel comprend une étape de filtrage temporel d'une trajectoire représentative du mouvement d'au moins un point appartenant au plan entre l'image de référence et les images courantes successives et une étape de détermination du au moins un paramètre représentatif du mouvement du plan entre l'image de référence et l'image courante de la séquence vidéo à partir du au moins un point appartenant au plan dans l'image de référence et d'au moins un point correspondant dans l'image de courante où la position du point correspondant dans l'image courante résulte de la trajectoire filtrée. Avantageusement, l'étape de filtrage de la série de transformation comprend : - une étape de détermination du au moins un point appartenant au plan dans l'image de référence de la séquence vidéo ; une étape de détermination d'une trajectoire représentative du mouvement du au moins un point appartenant au plan entre l'image de référence et les images courantes successives ; une étape de filtrage temporel de la trajectoire représentative du mouvement du au moins un point appartenant au plan entre l'image de référence et les images courantes successives. Avantageusement, une trajectoire associée à un point de l'image de référence comprend un ensemble de vecteurs de mouvement du point entre l'image de référence et les images courantes. La trajectoire filtrée représentative du mouvement du au moins un point appartenant au plan d'une image de référence est un ensemble de vecteurs de mouvement correspondant chacun à une somme pondérée de vecteurs de mouvement voisins spatiaux et temporels de la trajectoire. Avantageusement, la trajectoire filtrée représentative du mouvement du au moins un point appartenant au plan d'une image de référence vers l'image courante est fonction d'une information représentative de la qualité de la transformation au voisinage du au moins un point. Selon une autre caractéristique particulière, l'étape de filtrage temporel de la série de transformations est répétée pour une série de transformations filtrées. Selon une autre caractéristique particulière, la transformation est une transformation projective, appelée homographie, la transformation comprenant 9 paramètres représentatifs du mouvement du projeté d'un plan de l'espace tridimensionnel dans le plan image. Selon une autre caractéristique particulière, le procédé comprend en outre une étape d'interpolation ou d'extrapolation d'une transformation entre l'image de référence et une image courante absente de la série de 20 transformations. Selon une autre caractéristique particulière, le procédé comprend en outre une étape de modification de la texture des points appartenant au plan. 25 Selon un autre aspect, l'invention concerne un dispositif mettant en oeuvre le procédé selon l'une des variantes précédemment décrites ; un produit de programme d'ordinateur mettant en oeuvre le procédé selon l'une des variantes précédemment décrites ; et un support lisible par un ordinateur 30 ayant des instructions exécutables par ordinateur mettant en oeuvre le procédé selon l'une des variantes précédemment décrites. 4. Liste des figures. L'invention sera mieux comprise, et d'autres particularités et 35 avantages apparaîtront à la lecture de la description qui va suivre, la description faisant référence aux dessins annexés parmi lesquels : - la figure 1 illustre un procédé d'édition d'un plan selon un mode de mise en oeuvre non limitatif de l'invention ; - la figure 2 illustre un procédé d'édition d'un plan selon un autre exemple de mise en oeuvre non limitatif particulièrement avantageux de l'invention ; - la figure 3 illustre schématiquement un dispositif mettant en oeuvre le procédé selon un mode de mise en oeuvre non limitatif de l'invention. 5. Description détaillée de modes de réalisation de l'invention. La figure 1 illustre un procédé d'édition d'un plan selon un mode de mise en oeuvre non limitatif de l'invention. Au cours d'une première étape 10 de détermination d'une série de transformations, une transformation, par exemple une transformation projective, est déterminée entre une image de référence et une image courante de la séquence vidéo. La transformation comprend au moins un paramètre représentatif du mouvement du plan d'une image de référence vers une image courante. Selon un exemple particulier, la transformation est une transformation projective plane ou homographie. Une homographie H est une transformation linéaire appliquée à un vecteur x comprenant 3 composantes {xh ; ; 1}. Cette transformation linéaire est représentée par une matrice de dimension 3 x 3. Selon cet exemple, la transformation comprend 9 paramètres. Dans la suite de la description, les termes paramètres et coefficients de la matrice d'homographie seront indifféremment utilisés. Pour déterminer cette série de transformations d'un plan, un ensemble de points x0 appartenant au plan dans une première image indicée 0 ou image de référence est sélectionné. Considérons une séquence d'images (Ii) i=O...N définies pour des instants représentés par les indices de 0 à N. Dans la suite de la description, les termes images et trames seront indifféremment utilisés. Un point, noté xi, d'une image de la séquence à l'instant i correspondant à xo est obtenu par une méthode de mise en correspondance ou de suivi (en anglais « tracking ») par exemple décrite dans "SURF: Speeded Up Robust Features" (Computer Vision and Image Understanding (CVIU), Vol. 110, No. 3, pp. 346--359, 2008) par Herbert Bay, Andreas Ess, Tinne Tuytelaars et Luc Van Gool. Au moins 4 paires de points appartenant au plan sont nécessaires pour calculer une homographie. A partir de paires de points mis en correspondance entre l'image de référence et chacune des autres images, les transformations projectives sont estimées, par exemple en utilisant la méthode robuste RANSAC décrite par Martin A. Fischler et Robert C. Bolles, « Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography » (Comm. Of the ACM, vol. 24, juin 1981, p. 381-395).According to one particular characteristic, the temporal filtering step comprises determining at least one parameter representative of the movement of the plane between the reference image and the current image of the video sequence from a weighted sum of at least a parameter representative of the movement of the plane between the reference image and an image belonging to a determined set of images of a temporal window around the current image. Advantageously, the series of filtered transformations is a function, for each current image, of an information representative of the quality of the transformation and a function of information representative of the quality of the filtered transformation. According to another particular characteristic, the time filtering step comprises a time filtering step of a trajectory representative of the movement of at least one point belonging to the plane between the reference image and the successive current images and a determination step at least one parameter representative of the movement of the plane between the reference image and the current image of the video sequence from the at least one point belonging to the plane in the reference image and at least one corresponding point in the current image where the position of the corresponding point in the current image results from the filtered trajectory. Advantageously, the filtering step of the transformation series comprises: a step of determining the at least one point belonging to the plane in the reference image of the video sequence; a step of determining a trajectory representative of the movement of the at least one point belonging to the plane between the reference image and the successive current images; a step of temporal filtering of the trajectory representative of the movement of the at least one point belonging to the plane between the reference image and the successive current images. Advantageously, a trajectory associated with a point of the reference image comprises a set of motion vectors of the point between the reference image and the current images. The filtered trajectory representative of the movement of the at least one point belonging to the plane of a reference image is a set of motion vectors each corresponding to a weighted sum of neighboring spatial and temporal motion vectors of the trajectory. Advantageously, the filtered trajectory representative of the movement of the at least one point belonging to the plane of a reference image towards the current image is a function of information representative of the quality of the transformation in the vicinity of the at least one point. According to another particular characteristic, the time filtering step of the series of transformations is repeated for a series of filtered transformations. According to another particular characteristic, the transformation is a projective transformation, called homography, the transformation comprising 9 parameters representative of the motion of the projected plane of the three-dimensional space in the image plane. According to another particular characteristic, the method further comprises a step of interpolation or extrapolation of a transformation between the reference image and a current image that is absent from the series of transformations. According to another particular characteristic, the method further comprises a step of modifying the texture of the points belonging to the plane. According to another aspect, the invention relates to a device implementing the method according to one of the previously described variants; a computer program product implementing the method according to one of the previously described variants; and a computer readable medium having computer executable instructions implementing the method according to one of the previously described variants. 4. List of figures. The invention will be better understood, and other features and advantages will appear on reading the description which follows, the description referring to the appended drawings in which: FIG. 1 illustrates a method of editing a plan according to a non-limiting embodiment of the invention; FIG. 2 illustrates a method of editing a plane according to another example of non-limiting implementation that is particularly advantageous of the invention; - Figure 3 schematically illustrates a device implementing the method according to a non-limiting embodiment of the invention. 5. Detailed description of embodiments of the invention. FIG. 1 illustrates a method of editing a plan according to a non-limiting embodiment of the invention. During a first step 10 of determining a series of transformations, a transformation, for example a projective transformation, is determined between a reference image and a current image of the video sequence. The transformation comprises at least one parameter representative of the movement of the plane from a reference image to a current image. According to a particular example, the transformation is a plane projective transformation or homography. A homography H is a linear transformation applied to a vector x comprising 3 components {xh; ; 1}. This linear transformation is represented by a 3 x 3 matrix. According to this example, the transformation comprises 9 parameters. In the remainder of the description, the terms parameters and coefficients of the homography matrix will be used indifferently. To determine this series of transformations of a plane, a set of points x0 belonging to the plane in a first indexed image 0 or reference image is selected. Consider an image sequence (Ii) i = O ... N defined for instants represented by the indices from 0 to N. In the remainder of the description, the terms images and frames will be indifferently used. A point, denoted xi, of an image of the sequence at time i corresponding to xo is obtained by a matching or tracking method, for example described in "SURF: Speeded Up Robust". Features (Computer Vision and Image Understanding (CVIU), Vol 110, No. 3, pp. 346--359, 2008) by Herbert Bay, Andreas Ess, Tinne Tuytelaars and Luc Van Gool. At least 4 pairs of points belonging to the plane are needed to calculate a homography. From pairs of points mapped between the reference image and each of the other images, the projective transformations are estimated, for example using the robust RANSAC method described by Martin A. Fischler and Robert C. Bolles, "Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography "(Comm of the ACM, Vol 24, June 1981, 381-395).

La matrice représentant la transformation projective entre les images 0 et i, i > 1 est notée Hie,. Ainsi le point d'une image i correspondant à un point dans l'image 0 est représenté par l'équation suivante : xi = Hioxo Le vecteur de mouvement dxi associé au point xi entre les images 0 et i est représenté par dxi = xi - xo = (Hio - 1)xo, où I représente la matrice identité 3x3. Selon une caractéristique particulièrement avantageuse, la méthode comprend une deuxième étape 11 de filtrage temporel au cours de laquelle la série de transformation est lissée. Avantageusement, l'effet de flottement d'un logo inséré automatiquement à partir d'une image de référence à l'aide de cette méthode d'édition vidéo est supprimé. Selon un premier mode de réalisation, le filtrage temporel est directement appliqué aux coefficients de l'homographie Hio. Le filtrage temporel de la série d'homographie (Hio)i=,...N est alors représenté par la série d'homographie (Hiol)i=1...N obtenue par la formule suivante : Ei - Hio' = Ei wi + 1, où: - Hio' correspond à l'homographie Hio filtrée, - j est un indice d'image, cet indice variant dans une fenêtre temporelle centrée sur l'indice i, - - est un coefficient de normalisation adapté à normaliser les déplacements sur l'intervalle temporel [0, ]] par rapport aux déplacements sur l'intervalle temporel [0, i], %mi est un coefficient de pondération adapté à quantifier l'influence des paramètres de l'homographie Hio.The matrix representing the projective transformation between the images 0 and i, i> 1 is denoted Hie ,. Thus the point of an image i corresponding to a point in the image 0 is represented by the following equation: xi = Hioxo The motion vector dxi associated with the point xi between the images 0 and i is represented by dxi = xi - xo = (Hio - 1) xo, where I represents the identity matrix 3x3. According to a particularly advantageous characteristic, the method comprises a second time filtering step 11 during which the series of transformation is smoothed. Advantageously, the floating effect of a logo inserted automatically from a reference image using this video editing method is deleted. According to a first embodiment, the temporal filtering is directly applied to the coefficients of the homography Hio. The temporal filtering of the homography series (Hio) i =, ... N is then represented by the homography series (Hiol) i = 1 ... N obtained by the following formula: Ei - Hio '= Ei wi + 1, where: - Hio 'corresponds to the filtered Hio homography, - j is an image index, this index varying in a time window centered on the index i, - - is a normalization coefficient adapted to normalize the displacements on the time interval [0,]] with respect to the displacements on the time interval [0, i],% mi is a weighting coefficient adapted to quantify the influence of the parameters of the homography Hio.

L'homme de l'art remarquera que le filtrage est appliqué aux vecteurs de déplacement dxi = (Hio -1)xo et non aux positions des points xi du plan, ce qui explique la présence de la matrice identité dans la formule notée "+1". Selon une variante, les coefficients de pondération sont définis par exemple en fonction de la distance absolue entre les instants i et j, w = exp(-Ii -il). Selon une autre variante, les coefficients de pondération sont définis en fonction d'une mesure de qualité, calculée à l'avance, de Hio selon des méthodes connues de calcul de coût, par exemple somme des différences au carré (en anglais « sum of squared differences » SSD) définie par : = exp(-ssd(Hio)) avec EXoew ij(HjoX0H0 001 2 SSd(11j0) = où (0 correspond à la région de l'image /0 sur laquelle doit être inséré le logo et où Icol correspond au cardinal de (.0.Those skilled in the art will notice that the filtering is applied to the displacement vectors dxi = (Hio -1) xo and not to the positions of the points xi of the plane, which explains the presence of the identity matrix in the formula noted "+ 1 ". According to one variant, the weighting coefficients are defined for example as a function of the absolute distance between the instants i and j, w = exp (-Ii -il). According to another variant, the weighting coefficients are defined according to a quality measure, calculated in advance, of Hio according to known methods of cost calculation, for example sum of the squared differences (in English "sum of squared differences "SSD) defined by: = exp (-ssd (Hio)) with EXoew ij (HjoX0H0 001 2 SSd (11j0) = where (0 corresponds to the region of the image / 0 on which the logo is to be inserted and where Icol corresponds to the cardinal of (.0.

Selon d'autres variantes de mesure de qualité, la somme des différences absolues (en anglais « sum of absolute differences » SAD) ou l'erreur quadratique moyenne (en anglais « root mean square error » RMSE) sont compatibles avec l'invention.According to other quality measurement variants, the sum of the absolute differences (SAD) or the root mean square error (RMSE) are compatible with the invention.

Selon une autre variante, le coefficient de pondération est nul, i.e. wi = 0, lorsque l'homographie Hio n'est pas définie. Cette caractéristique est particulièrement avantageuse en cas d'occultation d'au moins une partie du plan ou si l'on atteint une borne de la séquence vidéo c'est-à-dire si j < 1 ou si j > N.According to another variant, the weighting coefficient is zero, i.e. wi = 0, when the homography Hio is not defined. This characteristic is particularly advantageous in the case of obscuration of at least part of the plane or if a terminal of the video sequence is reached, that is to say if j <1 or if N.

Selon une autre caractéristique particulière, la méthode comprend une troisième étape de validation du filtrage temporel au cours de laquelle une mesure de qualité est calculée pour chaque transformation Hio avant filtrage et pour chaque transformation filtrée H'io ; et au cours de laquelle la transformation validée H"i0 correspond à la transformation H'io ou Hio pour laquelle la mesure de la qualité est meilleure. Mais l'invention n'est pas limitée à la modélisation du mouvement d'un plan par les homographies, il existe également des modèles affines représentés sous forme d'une matrice à 6 coefficients calculés à partir d'au moins 3 paires de points permettant de représenter les mouvements rigides dans le plan image tels qu'une translation, un changement d'échelle ou une rotation. Il en va de même pour les modèles affines simplifiés à 4 paramètres. Enfin si le modèle représente simplement un mouvement de translation du plan dans l'espace image, alors il est représenté sous forme d'un vecteur c'est-à-dire d'un unique coefficient calculé à partir d'un unique point du plan. Cette dernière modélisation est avantageuse si le mouvement du plan est contraint, c'est-à-dire si les degrés de liberté du plan dans l'espace tridimensionnel sont réduits. Cette contrainte sur le mouvement du plan est par exemple introduite dans la méthode d'édition de plan par un opérateur.According to another particular characteristic, the method comprises a third step of validation of the temporal filtering during which a measurement of quality is calculated for each transformation Hio before filtering and for each filtered transformation H'io; and during which the validated transformation H "i0 corresponds to the transformation H'io or Hio for which the measurement of the quality is better, but the invention is not limited to the modeling of the movement of a plane by the homographies, there are also affine models represented in the form of a matrix with 6 coefficients calculated from at least 3 pairs of points making it possible to represent the rigid movements in the image plane such as a translation, a change of scale This is also the case for simplified affine models with 4 parameters Finally, if the model simply represents a translational motion of the plane in the image space, then it is represented in the form of a vector that is that is to say, a single coefficient calculated from a single point of the plane.The latter model is advantageous if the motion of the plane is constrained, that is to say if the degrees of freedom of the plane in space trid This constraint on the movement of the plane is for example introduced in the plane editing method by an operator.

Dans ce premier exemple de mise en oeuvre, même si les coefficients de pondération du filtrage sont définis en fonction d'une mesure de qualité des transformations, ce filtrage est défini globalement pour l'ensemble du plan suivi.In this first implementation example, even if the filtering weighting coefficients are defined as a function of a quality measure of the transformations, this filtering is defined globally for the whole of the tracked plan.

La figure 2 illustre un procédé d'édition d'un plan selon un autre exemple de mise en oeuvre non limitatif particulièrement avantageux de l'invention. Dans cet exemple de réalisation, le filtrage prend avantageusement en compte à la fois des critères locaux et globaux. En outre, le filtrage n'est pas appliqué directement aux coefficients des transformations mais aux trajectoires respectives de points appartenant à tout le plan et servant à la détermination des transformations filtrées. Avantageusement, le filtrage est temporel c'est-à-dire que le traitement est appliqué indépendamment à des trajectoires de points éparses. Mais l'invention ne se limite pas au filtrage temporel, selon une variante un filtrage spatial peut être appliqué localement à ces trajectoires éparses. L'ensemble des étapes de ce deuxième exemple de réalisation va maintenant être décrite. Au cours d'une première étape 20 de détermination d'une série de transformations d'un plan, un ensemble de points x0 appartenant au plan dans une première image indicée 0 ou image de référence est sélectionné. Comme précédemment, la séquence d'images (Ii) i=0...N est définie pour des instants représentés par les indices de 0 à N. Un point d'une image de la séquence à l'instant i correspondant à x0, noté xi, est obtenu par une méthode de mise en correspondance ou de suivi (en anglais « tracking ») par exemple décrite dans "SURF: Speeded Up Robust Features" (Computer Vision and Image Understanding (CVIU), Vol. 110, No. 3, pp. 346--359, 2008) par Herbert Bay, Andreas Ess, Tinne Tuytelaars et Luc Van Gool. La matrice représentant la transformation projective entre les images 0 et i, i > 1 est notée Ha) est déterminée à partir de ces points, par exemple en utilisant la méthode robuste RANSAC décrite par Martin A. Fischler et Robert C. Bolles, « Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography » (Comm. Of the ACM, vol. 24, juin 1981, p. 381-395). Selon une variante avantageuse le nombre de point est 4 et les points ne sont pas alignés. Au cours d'une deuxième étape 21, une trajectoire est déterminée pour un ensemble de p points tP = (34, ...,x) entre l'image de référence et l'image i en utilisant les transformations (Hio)i=1...N. Le point d'une image i correspondant à un point dans l'image 0 est représenté par l'équation suivante x = Hiog. Selon une variante, les p points sont ceux utilisés dans l'étape 20 pour déterminer l'homographie. Selon une autre variante, les p points sont sélectionnés parmi les points du plan, par exemple les 4 sommets d'un quadrilatère définissant le contour du plan dans l'image de référence. Une trajectoire représente le mouvement d'un point xP entre une image de référence et les images courantes successives. Une trajectoire comprend un ensemble de vecteurs de mouvement dxi = xi - xo associés au point xP entre sa position x/o) dans une image de référence 0 et ses positions xr dans chacune des images courantes successives i. Au cours d'une troisième étape 22, les trajectoires tP sont filtrées. Une méthode de filtrage de trajectoires est par exemple décrite dans la demande internationale de brevet PCT/EP13/054165 déposée le ler Mars 2013 par le même demandeur. Cette méthode introduit une pondération dans le filtrage dépendant de la similarité entre les trajectoires calculées à partir des champs de mouvement disponibles entre deux images de la séquence vidéo. Selon une variante particulièrement avantageuse, chaque vecteur de mouvement de la trajectoire filtrée est obtenu en calculant une somme pondérée de vecteurs de mouvement voisins de cette trajectoire. Avantageusement, on considèrera les vecteurs de mouvement voisins temporellement, c'est-à-dire des vecteurs appartenant à la trajectoire du point de l'image de référence. Dans une variante, les vecteurs de mouvement des points voisins spatialement autour des points épars xP peuvent également être pris en compte dans le filtrage. Selon une variante, chaque vecteur de mouvement d'une trajectoire filtrée représentative du mouvement d'un point du plan d'une image de référence vers l'image courante est fonction d'une information représentative de la qualité locale du déplacement correspondant à la transformation initiale (avant filtrage) au voisinage du point. Les trajectoires sont filtrées donc temporellement sur i de façon indépendante tout en vérifiant que chaque nouvelle position xr accroit la mesure de qualité locale du déplacement autour de xr . Dans le cas contraire, la position initiale non-filtrée xïi' est conservée pour le calcul de la transformation filtrée. On peut représenter le filtrage d'une trajectoire de point par la formule suivante : X. = où j est un indice d'image, cet indice variant dans une fenêtre temporelle A de rayon r> 0 centrée sur l'indice i soit A = [max(1, i - r), min(i + r, N)] ; - est un coefficient de normalisation adapté à normaliser les déplacements entre les images sur l'intervalle temporel [0, j],par rapport aux déplacements sur l'intervalle temporel [0, i], wP est un coefficient de pondération local adapté à quantifier l'influence des paramètres de l'homographie H() pour la p-ième trajectoire.FIG. 2 illustrates a method of editing a plane according to another example of non-limiting implementation that is particularly advantageous for the invention. In this exemplary embodiment, the filtering advantageously takes into account both local and global criteria. In addition, the filtering is not applied directly to the coefficients of the transformations but to the respective trajectories of points belonging to the whole plane and used to determine the filtered transformations. Advantageously, the filtering is temporal, that is to say that the treatment is applied independently to scattered point trajectories. But the invention is not limited to time filtering, alternatively spatial filtering can be applied locally to these scattered trajectories. All the steps of this second exemplary embodiment will now be described. During a first step 20 of determining a series of transformations of a plane, a set of points x0 belonging to the plane in a first indexed image 0 or reference image is selected. As before, the image sequence (Ii) i = 0 ... N is defined for instants represented by the indices of 0 to N. A point of an image of the sequence at time i corresponding to x0, noted xi, is obtained by a matching or tracking method, for example described in "SURF: Speeded Up Robust Features", Vol 110, No. 3, pp. 346--359, 2008) by Herbert Bay, Andreas Ess, Tinne Tuytelaars and Luc Van Gool. The matrix representing the projective transformation between the images 0 and i, i> 1 is denoted Ha) is determined from these points, for example using the robust RANSAC method described by Martin A. Fischler and Robert C. Bolles, "Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography. "(Comm of the ACM, Vol 24, June 1981, 381-395). According to an advantageous variant, the number of points is 4 and the points are not aligned. During a second step 21, a trajectory is determined for a set of p points tP = (34, ..., x) between the reference image and the image i by using the transformations (Hio) i = 1 ... N. The point of an image i corresponding to a point in image 0 is represented by the following equation x = Hiog. According to one variant, the points are those used in step 20 to determine the homography. According to another variant, the p points are selected from the points of the plane, for example the four vertices of a quadrilateral defining the outline of the plane in the reference image. A trajectory represents the movement of a point xP between a reference image and the successive current images. A trajectory comprises a set of motion vectors dxi = xi - xo associated with the point xP between its position x / o) in a reference image 0 and its positions xr in each of the successive current images i. During a third step 22, the trajectories tP are filtered. A method of filtering trajectories is described, for example, in the international patent application PCT / EP13 / 054165 filed on March 1, 2013 by the same applicant. This method introduces a weighting in the filtering depending on the similarity between the trajectories calculated from the available motion fields between two images of the video sequence. According to a particularly advantageous variant, each motion vector of the filtered trajectory is obtained by calculating a weighted sum of neighboring motion vectors of this trajectory. Advantageously, the neighboring motion vectors will be considered temporally, that is to say vectors belonging to the trajectory of the point of the reference image. In a variant, the motion vectors of the neighboring points spatially around the scattered points xP can also be taken into account in the filtering. According to one variant, each motion vector of a filtered trajectory representative of the movement of a point of the plane of a reference image towards the current image is a function of information representative of the local quality of the displacement corresponding to the transformation. initial (before filtering) in the vicinity of the point. The trajectories are thus filtered temporally on i independently while checking that each new position xr increases the local quality measurement of the displacement around xr. In the opposite case, the unfiltered initial position xii 'is retained for the calculation of the filtered transformation. We can represent the filtering of a point trajectory by the following formula: X. = where j is an index of image, this index varying in a temporal window A of radius r> 0 centered on the index i is A = [max (1, i - r), min (i + r, N)]; - is a normalization coefficient adapted to normalize the displacements between the images on the time interval [0, j], with respect to the displacements on the time interval [0, i], wP is a local weighting coefficient adapted to quantify the influence of homography parameters H () for the p-th trajectory.

Ce coefficient de pondération est fonction d'une estimation de la qualité locale du déplacement correspondant à la transformation Hp, localement autour des points x/o) et x11. Selon une variante, l'information représentative /(Hi0,34) de cette mesure de qualité (également appelée coût) est calculée à partir de la moyenne de la SAD (somme des différences absolues) sur un voisinage spatial de dimension 3x3 noté 19(x/c))) autour de xP - 0 1(110' XP) = IyE,9(xPEcEtr,g,b} 1-8(37)-/(Hjoy) . 1 0 119(XDI Dans cette équation 1.19(x/0))1 représente le cardinal dei9(x) de façon à prendre en compte les bornes de l'image et du plan. Typiquement le cardinal dei9(x) est égal à 9 (9 pixels sur un voisinage spatial de dimension 3x3) mais il peut être inférieur si le point est situé sur un bord de l'image. Le coefficient de pondération wiPest alors défini en fonction de cette information représentative de la mesure de qualité par l'équation suivante: w.P = e Y où y est une constante positive de normalisation du coefficient de pondération. Selon, une variante avantageuse, si l'homographie Hjo n'est pas définie, le coefficient de pondération wf est nul. Selon d'autres variantes de mesure de qualité locale, une méthode de corrélation croisée normalisée (en anglais « normalized cross correlation » NCC) est compatible avec l'invention. Selon une autre caractéristique particulière, la méthode comprend une étape de validation du résultat du filtrage, soit le point xrrésultant de la trajectoire filtrée, soit le point x résultant de la trajectoire initiale est sélectionné suivant une mesure de qualité locale du déplacement estimé. A partir de la nouvelle position filtrée ', une nouvelle mesure de la qualité locale du déplacement m(dx',x) est calculée à partir du vecteur de mouvement = - : m (dX1 , = IyEi9(xP)E cEfr ,b11 I ô (Y) - ic(y+ dx1Î' 1)1 1i9 (xIC)I On représente par l'équation suivante la sélection de x1' ou de x' selon la mesure de qualité locale du déplacement: pfx'si ni (de X10) < (I 1(10,x) + a Xi = xl? sinon où a est une constant positive adaptée à favoriser la sélection de la position filtrée par rapport à la position initiale non-filtrée. Au cours d'une quatrième étape 23 de détermination de la série de transformations filtrées, une nouvelle homographie est estimée Hio' pour chaque image i en fonction des p points (34)0. dans l'image de p=..P référence et de leurs correspondants dans les images courantes (e:") p=0...P' Selon une autre caractéristique particulière, la méthode comprend une étape de validation du filtrage temporel au cours de laquelle une mesure globale de qualité est calculée pour la série de transformations avant filtrage Hic) et pour la série de transformations filtrées H'io. La série de transformations H"jo validée correspond à la série de transformations H'io ou Hiopour laquelle la mesure de la qualité est meilleure. Une mesure de qualité globale est, par exemple, calculée de la façon suivante pour une transformation entre i et 0 sur tout le plan n: 9 (FI 0) = yeS2 cE[r ,g ,b) lay)--Iï.(Hioy) ln I et g(Hio') = EyEn Ece[r,g,b) i(c)(Y)- - ic (Hio IçI Les variantes de mesure de qualité décrites avec le premier exemple de réalisation, sont également compatibles avec celui-ci.This weighting coefficient is based on an estimation of the local quality of the displacement corresponding to the transformation Hp, locally around the points x / o) and x11. According to a variant, the representative information / (Hi0, 34) of this quality measure (also called cost) is calculated from the average of the SAD (sum of the absolute differences) on a spatial neighborhood of dimension 3x3 denoted 19 ( x / c))) around xP - 0 1 (110 'XP) = IyE, 9 (xPEcEtr, g, b) 1-8 (37) - / (Hjoy) 1 0 119 (XDI In this equation 1.19 ( x / 0)) 1 represents the cardinal dei9 (x) so as to take into account the bounds of the image and the plane Typically the cardinal dei9 (x) is equal to 9 (9 pixels on a spatial neighborhood of dimension 3x3 ) but it can be smaller if the point is located on an edge of the image.The weighting coefficient wiP is then defined according to this information representative of the quality measure by the following equation: wP = e Y where y is a positive constant for normalizing the weighting coefficient According to an advantageous variant, if the homography Hjo is not defined, the weighting coefficient wf is naked According to other local quality measurement variants, a normalized cross correlation (NCC) method is compatible with the invention. According to another particular characteristic, the method comprises a step of validating the result of the filtering, ie the x -resultant point of the filtered trajectory, or the resulting x-point of the initial trajectory is selected according to a measurement of local quality of the estimated displacement. From the new filtered position, a new measure of the local quality of the displacement m (dx ', x) is calculated from the motion vector = -: m (dX1, = IyEi9 (xP) E cEfr, b11 I (Y) - ic (y + dx1i '1) 1 1i9 (xIC) I The following equation represents the selection of x1' or x 'according to the measure of local quality of displacement: pfx'si ni (of X10 ) <(I 1 (10, x) + a Xi = xl? Else where a is a positive constant adapted to favor the selection of the filtered position with respect to the unfiltered initial position. During a fourth step 23 of determining the series of filtered transformations, a new homography is estimated Hio 'for each image i as a function of the points p (34) 0. in the image of p = .. P reference and their correspondents in the current images ( e: ") p = 0 ... P 'According to another particular characteristic, the method comprises a step of validation of the temporal filtering during which a global measurement quality is calculated for the series of transformations before filtering Hic) and for the series of filtered transformations H'io. The series of validated H "jo transformations corresponds to the series of transformations H'io or Hiopour for which the measurement of the quality is better.A global quality measurement is, for example, calculated as follows for a transformation between i and 0. on the whole plane n: 9 (FI 0) = yeS2 cE [r, g, b) lay) - Ii (Hioy) ln I and g (Hio ') = EyEn Ece [r, g, b) i ( The quality measurement variants described with the first exemplary embodiment are also compatible therewith.

Et la série de transformations retenues est représentée par H ' rio' if g(Hio') < g(Hio) + io = Hi() sinon où /61 est une constant positive adaptée à favoriser la sélection de la transformation filtrée par rapport à la transformation d'entrée non-filtrée.And the series of retained transformations is represented by H 'rio' if g (Hio ') <g (Hio) + io = Hi () otherwise where / 61 is a positive constant adapted to favor the selection of the filtered transformation with respect to the unfiltered input transformation.

Selon une autre caractéristique avantageuse, l'étape de filtrage temporel de la série de transformations est répétée pour une série de transformations filtrées. Ainsi, les étapes de détermination de la trajectoire 21, de filtrage 22 et de détermination 23 de la série de transformations filtrées sont itérées à partir de la série de transformations de la première itération. Selon une variante, l'étape de filtrage est répétée jusqu'à ce qu'un critère d'arrêt soit atteint, par exemple un nombre maximal d'itérations, un seuil minimal d'amélioration de la qualité globale des transformations estimées entre deux itérations consécutives, ou encore une distance moyenne minimale entre les transformations estimées entre deux itérations consécutives. En particulier, l'amélioration de la qualité globale des transformations entre deux itérations consécutives peut être calculée à partir du rapport suivant : Ei=1..Ng(Hi0) g(Hi0") Et, la distance entre deux transformations Hi() et Ha)" définies entre les images aux instants 0 et i pour une région (.0 de l'image à l'instant 0 peut être définie comme suit : Hio,,x112 cl(Hio, H0) ) = 16)1 Selon une autre caractéristique avantageuse, le procédé comprend une étape de modification de la texture des points appartenant au plan. Par exemple, on insère un logo sur un plan dans l'image de référence. Puis pour chaque image courante successive, on applique l'homographie H, inverse de l'homographie filtrée H, à chaque pixel de l'image courante. Si le point correspondant dans l'image de référence appartient à la zone sur laquelle le logo a été ajouté, les valeurs du pixel de l'image courante sont recalculées par une méthode d'interpolation, par exemple bilinéaire, des valeurs du logo ajouté dans l'image de référence. Ainsi, l'effet de flottement du logo est réduit car la série d'homographie est lissée temporellement, chacune des homographies dépendant des homographies voisines. Enfin, si des homographies sont absentes de la série de transformations, par exemple parce que des points servant à les calculer sont occultés dans une image de la séquence, le procédé décrit permet avantageusement d'interpoler une transformation entre l'image de référence et une image courante à partir des transformations pour les images voisines de l'image courante. Si des homographies sont absentes de la série de transformations, par exemple parce qu'elles sont associées à des images hors des bornes de la séquence vidéo, le procédé décrit permet avantageusement d'extrapoler d'une transformation entre l'image de référence et une image courante à partir des transformations pour des images de la séquence.According to another advantageous characteristic, the time filtering step of the series of transformations is repeated for a series of filtered transformations. Thus, the steps of determining the trajectory 21, of filtering 22 and of determining 23 of the series of filtered transformations are iterated from the series of transformations of the first iteration. According to one variant, the filtering step is repeated until a stop criterion is reached, for example a maximum number of iterations, a minimum threshold for improving the overall quality of the transformations estimated between two iterations. consecutive, or a minimum average distance between the estimated transformations between two consecutive iterations. In particular, the improvement of the overall quality of the transformations between two consecutive iterations can be calculated from the following ratio: Ei = 1..Ng (Hi0) g (Hi0 ") And, the distance between two transformations Hi () and Ha) "defined between the images at times 0 and i for a region (.0 of the image at time 0 can be defined as follows: ## EQU1 ## Another advantageous characteristic, the method comprises a step of modifying the texture of the points belonging to the plane. For example, we insert a logo on a plane in the reference image. Then for each successive current image, the homography H, inverse of the filtered homography H, is applied to each pixel of the current image. If the corresponding point in the reference image belongs to the area on which the logo has been added, the pixel values of the current image are recalculated by an interpolation method, for example bilinear, values of the logo added in the reference image. Thus, the floating effect of the logo is reduced because the homography series is smoothed temporally, each homography depending on neighboring homographies. Finally, if homographies are absent from the series of transformations, for example because points used to calculate them are obscured in an image of the sequence, the method described advantageously makes it possible to interpolate a transformation between the reference image and a current image from the transformations for the neighboring images of the current image. If homographies are absent from the series of transformations, for example because they are associated with images outside the boundaries of the video sequence, the method described advantageously makes it possible to extrapolate a transformation between the reference image and a current image from the transformations for images of the sequence.

La figure 3 illustre schématiquement un exemple de réalisation matérielle d'un dispositif adapté à mettre en oeuvre l'un des procédés d'édition d'un plan dans une séquence vidéo précédemment décrit. Le dispositif 3 correspond par exemple à un ordinateur personnel, un ordinateur portable, une tablette, un téléphone mobile ou à toute unité de traitement d'image. Le dispositif 3 comprend les éléments suivants, reliés entre eux par un bus 34 d'adresses et de données qui transporte également un signal d'horloge : - un microprocesseur 31 (ou CPU (de l'anglais « Central Processing Unit » ou en français « Unité centrale de traitement ») ; - une mémoire non volatile de type ROM (de l'anglais « Read Only Memory ») 32 ; - une mémoire vive ou RAM (de l'anglais « Random Access Memory ») 33 ; - une interface MMI (ou interface homme/machine de l'anglais « Man Machine Interface ») 35 c'est-à-dire une application spécifique adaptée à l'affichage d'informations pour un utilisateur et/ou l'entrée de données ou de paramètres (par exemple souris, clavier, écran tactile, webcam).FIG. 3 schematically illustrates an example of a hardware embodiment of a device adapted to implement one of the methods for editing a plane in a video sequence previously described. The device 3 corresponds for example to a personal computer, a laptop, a tablet, a mobile phone or any image processing unit. The device 3 comprises the following elements, interconnected by a bus 34 of addresses and data which also carries a clock signal: a microprocessor 31 (or CPU (Central Processing Unit); "Central processing unit"); - a non-volatile memory of the ROM type (of the "Read Only Memory") 32; - a random access memory or RAM (of the "Random Access Memory") 33; MMI interface (or human machine interface of the English "Man Machine Interface") 35 that is to say a specific application adapted to the display of information for a user and / or the entry of data or information. settings (eg mouse, keyboard, touch screen, webcam).

On observe que le mot « registre » utilisé dans la description des mémoires 32 et 33 désigne dans chacune des mémoires mentionnées, aussi bien une zone de mémoire de faible capacité (quelques données binaires comme la position d'un point) qu'une zone mémoire de grande capacité (permettant de stocker un programme entier ou tout ou partie des données représentatives de la séquence vidéos). La mémoire ROM 22 comprend notamment un programme « prog » 320. Les algorithmes mettant en oeuvre les étapes du procédé propre à l'invention et décrits ci-après sont stockés dans la mémoire ROM 32. Le microprocesseur 31 charge et exécute les instructions de ces algorithmes. La mémoire vive 33 comprend notamment : - dans un registre 330, le programme de fonctionnement du microprocesseur 31; - des données codées 331 représentative d'une séquence vidéo; - des trajectoires pour des répartitions éparses de points 332 ; et - des paramètres 235 de la série d'homographies. L'interface MMI est notamment adaptée pour afficher la séquence vidéo avant et après édition d'un plan. En outre, les interfaces d'entrée sont adaptées à la sélection, par un utilisateur, des points du plan à suivre à travers la séquence vidéo via une interface graphique affichée. Dans une variante, les points du plan sont sélectionnés automatiquement. D'autres structures du dispositif 3 que celle décrite en regard de la figure 3 sont compatibles avec l'invention. En particulier, selon des variantes, les dispositifs compatibles avec l'invention sont mis en oeuvre selon une réalisation purement matérielle ("hardware" en anglais), par exemple sous forme d'un composant dédié (par exemple dans un ASIC ou FPGA ou VLSI) (respectivement « Application Specific Integrated Circuit » en anglais, signifiant « Circuit Intégré à vocation d'une application spécifique », « Field- Programmable Gate Array » en anglais, signifiant « Réseau de Portes Programmable In-Situ », « Very Large Scale Integration » en anglais, signifiant « Intégration à très grande échelle ») ou de plusieurs composants électroniques intégrés dans un appareil ou encore sous forme d'un mélange d'éléments matériels et d'éléments logiciels (« software » en anglais).It will be observed that the word "register" used in the description of the memories 32 and 33 designates in each of the memories mentioned, as well a memory area of small capacity (some binary data such as the position of a point) that a memory zone large capacity (for storing an entire program or all or part of the data representative of the video sequence). The ROM 22 includes in particular a program "prog" 320. The algorithms implementing the steps of the method specific to the invention and described below are stored in the ROM 32. The microprocessor 31 loads and executes the instructions of these algorithms. The random access memory 33 comprises in particular: in a register 330, the operating program of the microprocessor 31; - encoded data 331 representative of a video sequence; trajectories for scattered distributions of points 332; and - parameters 235 of the series of homographies. The MMI interface is particularly adapted to display the video sequence before and after editing a plan. In addition, the input interfaces are adapted to the selection by a user of the points of the plan to be followed through the video sequence via a displayed graphical interface. In a variant, the points of the plane are automatically selected. Other structures of the device 3 than that described with reference to FIG. 3 are compatible with the invention. In particular, according to variants, the devices compatible with the invention are implemented in a purely hardware embodiment ("hardware" in English), for example in the form of a dedicated component (for example in an ASIC or FPGA or VLSI ) (respectively "Application Specific Integrated Circuit" in English, meaning "Integrated Circuit for a specific application", "Field Programmable Gate Array" in English, meaning "In-Situ Programmable Gate Network", "Very Large Scale" Integration "in English, meaning" very large-scale integration ") or several electronic components integrated in a device or in the form of a mixture of hardware and software elements (" software "in English).

Bien entendu, l'invention ne se limite pas aux modes de réalisation décrits précédemment.Of course, the invention is not limited to the embodiments described above.

En particulier, l'invention n'est pas limitée à la méthode de filtrage des trajectoires décrite, ni au modèle de mouvement paramétrique utilisé dans les modes de réalisations décrits.In particular, the invention is not limited to the described method of filtering trajectories, nor to the parametric movement model used in the described embodiments.

Claims (12)

REVENDICATIONS1. Procédé d'édition d'un plan dans une séquence vidéo comprenant une étape (10, 20) de détermination d'une série de transformations pour chaque image courante de ladite séquence vidéo, une transformation comprenant au moins un paramètre représentatif du mouvement dudit plan entre une image de référence et ladite image courante, ledit procédé étant caractérisé en ce qu'il comprend une étape (11, 21, 22, 23) de filtrage temporel de ladite série de transformations.REVENDICATIONS1. A method of editing a clip in a video sequence comprising a step (10, 20) of determining a series of transformations for each current frame of said video clip, a transformation comprising at least one parameter representative of the motion of said clip between a reference image and said current image, said method being characterized in that it comprises a time filtering step (11, 21, 22, 23) of said series of transformations. 2. Procédé selon la revendication 1 dans lequel ladite étape (11) de filtrage temporel comprend la détermination dudit au moins un paramètre représentatif du mouvement dudit plan entre l'image de référence et l'image courante de ladite séquence vidéo à partir d'une somme pondérée desdits au moins un paramètre représentatif du mouvement dudit plan entre l'image de référence et une image appartenant à un ensemble déterminé d'images d'une fenêtre temporelle autour de l'image courante.2. The method according to claim 1, wherein said step (11) of temporal filtering comprises the determination of said at least one parameter representative of the movement of said plane between the reference image and the current image of said video sequence from a a weighted sum of said at least one parameter representative of the movement of said plane between the reference image and an image belonging to a determined set of images of a temporal window around the current image. 3. Procédé selon la revendication 2 dans lequel la série de transformations filtrée est fonction, pour chaque image courante, d'une information représentative de la qualité de la transformation et fonction d'une information représentative de la qualité de la transformation filtrée.3. Method according to claim 2 wherein the series of filtered transformations is a function, for each current image, information representative of the quality of the transformation and function of information representative of the quality of the filtered transformation. 4. Procédé selon la revendication 1 dans lequel ladite étape (21, 22, 23) de filtrage temporel comprend une étape de filtrage (22) temporel d'une trajectoire représentative du mouvement d'au moins un point appartenant audit plan entre ladite image de référence et lesdites images courantes successives et une étape (23) de détermination dudit au moins un paramètre représentatif du mouvement dudit plan entre l'image de référence et l'image courante de ladite séquence vidéo à partir dudit au moins un point appartenant audit plan dans ladite image de référence et d'au moins un point correspondant dans ladite image de courante où la position du point correspondant dans l'image courante résulte de ladite trajectoire filtrée.4. The method of claim 1 wherein said step (21, 22, 23) of temporal filtering comprises a step of filtering (22) temporally a trajectory representative of the movement of at least one point belonging to said plane between said image of reference and said successive current images and a step (23) for determining said at least one parameter representative of the movement of said plane between the reference image and the current image of said video sequence from said at least one point belonging to said plane in said reference image and at least one corresponding point in said current image where the position of the corresponding point in the current image results from said filtered path. 5. Procédé selon la revendication 4 dans lequel l'étape de filtrage temporel de la série de transformation comprend :une étape (21) de détermination d'une trajectoire représentative du mouvement d'au moins un point appartenant audit plan entre ladite image de référence et lesdites images courantes successives ; une étape (22) de filtrage temporel de la trajectoire représentative du mouvement dudit au moins un point appartenant audit plan entre ladite image de référence et lesdites images courantes successives.5. The method according to claim 4, wherein the step of temporal filtering of the transformation series comprises: a step (21) of determining a trajectory representative of the movement of at least one point belonging to said plane between said reference image and said successive current images; a step (22) of temporal filtering of the trajectory representative of the movement of said at least one point belonging to said plane between said reference image and said successive current images. 6. Procédé selon l'une des revendications 4 à 5 dans lequel une trajectoire associée à un point de l'image de référence comprend un ensemble de vecteurs de mouvement dudit point entre l'image de référence et lesdites images courantes et dans lequel la trajectoire filtrée représentative du mouvement dudit au moins un point appartenant audit plan d'une image de référence est un ensemble de vecteurs de mouvement correspondant chacun à une somme pondérée de vecteurs de mouvement voisins spatiaux et temporels de ladite trajectoire.6. Method according to one of claims 4 to 5 wherein a trajectory associated with a point of the reference image comprises a set of motion vectors of said point between the reference image and said current images and in which the trajectory filtered filter representative of the movement of said at least one point belonging to said plane of a reference image is a set of motion vectors each corresponding to a weighted sum of neighboring spatial and temporal motion vectors of said trajectory. 7. Procédé selon l'une des revendications 4 à 6 dans lequel la trajectoire filtrée représentative du mouvement dudit au moins un point appartenant audit plan d'une image de référence vers ladite image courante est fonction d'une information représentative de la qualité de la transformation au voisinage dudit au moins un point.7. Method according to one of claims 4 to 6 wherein the filtered path representative of the movement of said at least one point belonging to said plane of a reference image to said current image is a function of information representative of the quality of the transformation in the vicinity of said at least one point. 8. Procédé selon l'une des revendications 1 à 7 dans lequel l'étape (11, 21, 22, 23) de filtrage temporel de la série de transformations est répétée pour une série de transformations filtrées.8. Method according to one of claims 1 to 7 wherein the step (11, 21, 22, 23) of temporal filtering of the series of transformations is repeated for a series of filtered transformations. 9. Procédé selon l'une des revendications 1 à 8 dans lequel ladite transformation est une transformation projective, appelée homographie, ladite transformation comprenant 9 paramètres représentatifs du mouvement du projeté d'un plan de l'espace tridimensionnel dans le plan image.9. Method according to one of claims 1 to 8 wherein said transformation is a projective transformation, called homography, said transformation comprising 9 parameters representative of the motion of the projected plane of the three-dimensional space in the image plane. 10. Procédé selon l'une des revendications 1 à 9 comprenant en outre une étape d'interpolation ou d'extrapolation d'une transformation entre l'image de référence et une image courante absente de la série de 35 transformations.10. Method according to one of claims 1 to 9 further comprising a step of interpolation or extrapolation of a transformation between the reference image and a current image absent from the series of transformations. 11. Procédé selon l'une des revendications 1 à 10 comprenant en outre une étape de modification de la texture des points appartenant audit plan.11. Method according to one of claims 1 to 10 further comprising a step of modifying the texture of the points belonging to said plane. 12. Dispositif (3) mettant en oeuvre le procédé selon l'une des revendications 1 à 11.12. Device (3) implementing the method according to one of claims 1 to 11.
FR1354738A 2013-05-27 2013-05-27 Method for editing video sequence in plane, involves determining series of transformations i.e. homography, for each current image of video sequence, and performing step for temporal filtering of series of transformations Pending FR2998399A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1354738A FR2998399A1 (en) 2013-05-27 2013-05-27 Method for editing video sequence in plane, involves determining series of transformations i.e. homography, for each current image of video sequence, and performing step for temporal filtering of series of transformations

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1354738A FR2998399A1 (en) 2013-05-27 2013-05-27 Method for editing video sequence in plane, involves determining series of transformations i.e. homography, for each current image of video sequence, and performing step for temporal filtering of series of transformations

Publications (1)

Publication Number Publication Date
FR2998399A1 true FR2998399A1 (en) 2014-05-23

Family

ID=49237284

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1354738A Pending FR2998399A1 (en) 2013-05-27 2013-05-27 Method for editing video sequence in plane, involves determining series of transformations i.e. homography, for each current image of video sequence, and performing step for temporal filtering of series of transformations

Country Status (1)

Country Link
FR (1) FR2998399A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1117251A1 (en) * 1999-12-29 2001-07-18 Eastman Kodak Company Automated stabilization method for digital image sequences
US20120180084A1 (en) * 2011-01-12 2012-07-12 Futurewei Technologies, Inc. Method and Apparatus for Video Insertion

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1117251A1 (en) * 1999-12-29 2001-07-18 Eastman Kodak Company Automated stabilization method for digital image sequences
US20120180084A1 (en) * 2011-01-12 2012-07-12 Futurewei Technologies, Inc. Method and Apparatus for Video Insertion

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TOMAS CRIVELLI ET AL: "Multi-step flow fusion: towards accurate and dense correspondences in long video shots", PROCEEDINGS OF THE BRITISH MACHINE VISION CONFERENCE, 3 September 2012 (2012-09-03), pages 107.1 - 107.12, XP055059129, ISBN: 978-1-90-172546-9, DOI: 10.5244/C.26.107 *
YASUYUKI MATSUSHITA ET AL: "Full-Frame Video Stabilization with Motion Inpainting", TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE, PISCATAWAY, USA, vol. 28, no. 7, 1 July 2006 (2006-07-01), pages 1150 - 1163, XP001523476, ISSN: 0162-8828, DOI: 10.1109/TPAMI.2006.141 *

Similar Documents

Publication Publication Date Title
US9911200B2 (en) Determining diffuse image component values for use in rendering an image
US10984556B2 (en) Method and apparatus for calibrating relative parameters of collector, device and storage medium
US10453204B2 (en) Image alignment for burst mode images
Wan et al. CoRRN: Cooperative reflection removal network
Oliveira et al. Parametric blur estimation for blind restoration of natural images: Linear motion and out-of-focus
Whyte et al. Non-uniform deblurring for shaken images
US8428390B2 (en) Generating sharp images, panoramas, and videos from motion-blurred videos
JP5095637B2 (en) Method and apparatus for diffusion-based illumination normalization
US9959600B2 (en) Motion image compensation method and device, display device
US11348248B1 (en) Automatic image cropping systems and methods
CN107749987B (en) Digital video image stabilization method based on block motion estimation
US20150356769A1 (en) Relightable texture for use in rendering an image
US20140267351A1 (en) Monochromatic edge geometry reconstruction through achromatic guidance
KR102516495B1 (en) Methods and apparatus for improved 3-d data reconstruction from stereo-temporal image sequences
WO2012135220A2 (en) Real-time depth extraction using stereo correspondence
US9736366B1 (en) Tile-based digital image correspondence
US10504235B2 (en) Method for generating three dimensional images
CN111062922A (en) Method and system for judging copied image and electronic equipment
FR2998399A1 (en) Method for editing video sequence in plane, involves determining series of transformations i.e. homography, for each current image of video sequence, and performing step for temporal filtering of series of transformations
US10255674B2 (en) Surface reflectance reduction in images using non-specular portion replacement
JP2022068316A (en) Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of object
Gsaxner et al. DeepDR: Deep Structure-Aware RGB-D Inpainting for Diminished Reality
US9077963B2 (en) Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data
Salokhiddinov et al. Depth from focus for 3D reconstruction by iteratively building uniformly focused image set
Köppel et al. On the usage of the 2D-AR-model in texture completion scenarios with causal boundary conditions: A tutorial