WO2002017645A1 - Procede de calcul d'au moins une image interpolee entre deux images d'une sequence video - Google Patents

Procede de calcul d'au moins une image interpolee entre deux images d'une sequence video Download PDF

Info

Publication number
WO2002017645A1
WO2002017645A1 PCT/FR2001/002570 FR0102570W WO0217645A1 WO 2002017645 A1 WO2002017645 A1 WO 2002017645A1 FR 0102570 W FR0102570 W FR 0102570W WO 0217645 A1 WO0217645 A1 WO 0217645A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
mesh
previous
occlusion
following
Prior art date
Application number
PCT/FR2001/002570
Other languages
English (en)
Inventor
Nathalie Laurent-Chatenet
Alexandre Buisson
Original Assignee
France Telecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom filed Critical France Telecom
Priority to JP2002522207A priority Critical patent/JP4922536B2/ja
Priority to US10/362,046 priority patent/US7342963B2/en
Priority to EP01963072A priority patent/EP1312221A1/fr
Publication of WO2002017645A1 publication Critical patent/WO2002017645A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions

Definitions

  • the field of the invention is that of coding and / or decoding of 5 animated sequences of images. More specifically, the invention relates to the construction of one or more image (s) interpolated between two given images of an animated sequence.
  • the invention finds applications in all fields of imaging and image processing. There may be mentioned, by way of examples, and in a non-restrictive manner: video coding and / or decoding, in particular with a view to improving the performance of a coder / decoder of the MPEG4 or H263 + type for example, or of any other video coder / decoder; medical imagery; 15 - tracking moving objects; standards conversion, such as PAL / NTSC conversion for example.
  • the invention applies in particular, but not exclusively, to the temporal interpolation of frames and / or to bidirectional coding of video sequences, with a view in particular to overcoming the problems of bandwidth saturation and of adaptability to data terminals. varied natures.
  • the movement between two images of a sequence is defined as a two-dimensional vector characterizing the difference in positions between a point of an image and the homologous point of the other image, under the assumption that these points correspond at the same physical point in each of the two images.
  • the allocation of a displacement vector to each point of the image, or pixel, therefore defines a dense field of movement on the image, also called optical flow.
  • mapping methods There are two types of motion field estimation methods used for frame frequency interpolation: - enumerative methods, also called mapping methods; differential methods.
  • the enumerative methods are based on a division of the domain of an image into regions of finite size, by regular or adapted partitioning.
  • a motion model which can be, for example, affine, translational, polynomial, etc. and one proceeds by successive iterations, by applying a set of distinct values, included in a predetermined interval, to the parameters of this model.
  • the differential methods consist, for their part, of estimating a dense field of motion, by assigning a motion vector to each pixel of the image considered. They implement, on the one hand, calculation methods differential, and secondly, optimization techniques, based for example on gradient descents. Among these methods, we can notably cite methods based on the optical flow equation, pel-recursive methods (in English, "Physical Picture Element", physical image element), parametric methods or robust estimators for example .
  • the pel-recursive methods proceed by prediction-correction of the motion vectors associated with each of the chosen pixels of an image, according to a predetermined direction of travel.
  • the prediction can be based on the value of the motion vector of the previous pixel, or on a linear combination of the motion vectors of the neighboring pixels of the pixel considered.
  • the correction is then based on a minimization of the DFD (Displacement Frame Difference, in French "Difference between images") by a gradient descent method.
  • DFD Display Frame Difference, in French "Difference between images
  • a disadvantage of this technique of the prior art is that the algorithm implemented by CAFFORIO and ROCCA suffers from a strong interaction between the recursive directions and the direction of the displacement to be estimated.
  • Jack NIEWEGLOWSKI proposed a method based on the use of a geometric transformation, combined with a technique called “block matching” (in French, compression by repetition of zones) improved ("Motion Compensated Video Interpolation Using Digital Image arping", (in French “Motion compensated video interpolation using digital image distortion”), IEEE ICASSP'94).
  • a disadvantage of this technique of the prior art is that it is not suitable for the estimation of regions of strong movement.
  • Such hierarchical motion estimation algorithms like the motion estimation methods of the prior art described above, run up against the problem of detecting the occlusion zones (compaction, occultation zones, or discovery of the mesh) within the images of the video sequence considered. Indeed, when different planes and objects overlap in a scene, occlusion zones appear, generating lines of discontinuity within the mesh associated with the image.
  • the most common technique used to manage the appearance and / or disappearance of occlusion zones within an image is the use of Ray.
  • One such technique consists in associating, with each of the constituent pixels of the image, a label relating to the motion vector associated with this pixel.
  • a pixel receiving at least two motion vectors carries the label "occlusion”, which means that it covers at least two pixels present in the previous image of the sequence.
  • a pixel receiving a single motion vector carries the label "normal”, thus indicating that it is present in the previous image and in the current image.
  • a pixel receiving no motion vector bears the label "hole”, so as to indicate that it belongs to an image discovery area.
  • this technique of the prior art only uses this tag information to perform an a posteriori correction of the interpolated images, but does not take them into account during the motion estimation making it possible to construct such images.
  • the invention particularly aims to overcome these drawbacks of the prior art.
  • an objective of the invention is to provide a technique for constructing an image interpolated between a previous image and a following image of an animated sequence, making it possible to improve the impression of fluidity when viewing the sequence.
  • Another objective of the invention is to implement a technique for constructing an interpolated image which is simple and inexpensive to implement.
  • Another object of the invention is to provide a technique for constructing a robust interpolated image adapted to regions of strong movement.
  • the invention also aims to implement a technique for constructing an interpolated image within a video sequence making it possible to manage the appearance and / or disappearance of objects which correspond to occlusion zones ( reversal zones, discovery zones, settlement zones) within a mesh associated with the images of the sequence.
  • occlusion zones reversal zones, discovery zones, settlement zones
  • Yet another objective of the invention is to provide a technique for constructing an interpolated image, allowing a user having a terminal with reduced storage capacity to view a fluid video sequence.
  • Another object of the invention is to implement a technique for constructing an interpolated image, allowing a user to view a fluid video sequence, despite saturation of the bandwidth of the network by which it is transmitted.
  • the invention also aims to provide a technique for constructing an interpolated image which can be integrated into any video coder / decoder in order to improve its performance, in particular in terms of visual fluidity.
  • such a method takes account of information relating to the presence of at least one occlusion zone in said previous image and / or in said following image, called occlusion information.
  • the invention is based on a completely new and inventive approach to the interpolation of images within an animated sequence.
  • the invention is based in particular on the management of the occlusion zones (that is to say the reversal or uncovering zones) appearing within a mesh associated with an image of the sequence.
  • the invention therefore makes it possible to significantly improve the visual fluidity of an animated sequence, by implementing a generation of intermediate images inserted between two given images of the sequence, and by blurring the artefacts and the lines of discontinuity introduced by the existence of one or more occlusion zone (s) within such images.
  • an image of said sequence is associated with a mesh.
  • meshes are more and more frequently the support for representing objects, especially in a virtual reality scene. They thus represent the major part of the quantity of information describing such a scene.
  • a mesh is defined by a set of vertices and faces (or a set of vertices, edges and orientations) defining a topology.
  • Such a mesh can for example be a flat mesh, or any other type of mesh making it possible to implement a motion estimation from the image with which it is associated.
  • said mesh is a hierarchical mesh having at least two levels of mesh nested within a pyramid of mesh.
  • the use of a nested hierarchical mesh 11 makes it possible to obtain a robust coding, and reduces the cost of transmission and / or storage of the information.
  • the values of the nodes 12, 13 belonging to the highest level of the mesh pyramid are quantified, with a view to their transmission, for example to an encoder, and / or their storage on a data medium 15.
  • the lower levels of the mesh pyramid (corresponding to a finer mesh of the image) only the differential values of the son nodes 14, in view of their transmission and / or storage, as illustrated in FIG. 1.
  • said occlusion information is determined by the implementation of a step of estimation of forward and backward movement between said preceding and following images.
  • a forward motion estimation step consists in determining a set of motion vectors associated with the vertices of a mesh representative of a first image at an instant t ,, and making it possible to construct the mesh associated with a second image at a later time X ⁇ . Such a step therefore makes it possible in particular to detect the at least partial disappearance of an object between the images at times t, and t ⁇ .
  • the implementation of a rear estimation step makes it possible to determine the motion vectors to be applied to the vertices of the mesh associated with the image of the instant tj to obtain the image at the previous instant t, , and also makes it possible to detect a possible appearance of objects between the images at times t x and tj.
  • such a method implements the following steps: for each occlusion zone, an exclusion step, in said previous image (respectively in said following image), of a region of said mesh including at least one mesh corresponding to said area occlusion, called encompassing region, so as to obtain an approximate previous image (respectively an approximate following image); a front (respectively rear) estimation step, so as to determine motion vectors making it possible to obtain an approximate next image (respectively preceding) from said approximate preceding image (respectively following), called forward motion vectors (respectively back) ; a step of constructing an intermediate image from said approximate previous (respectively following) image and said front (respectively rear) motion vectors.
  • an occlusion zone can vitiate the calculation of the motion estimate between two given images of the sequence.
  • An approximate image is therefore constructed, obtained by excluding from a given image at least one region of the mesh corresponding to at least one occlusion zone.
  • the method then consists in carrying out a new estimate of the movement between the instants t t and ,, after having excluded the faulty areas (that is to say the areas containing at least one mesh reversal), in order to minimize the prediction error between the two images corresponding to the times t, and ⁇ considered.
  • This new estimation implemented from the approximate image, makes it possible to determine the optimal motion vectors for the continuous zone of the image (that is to say admitting a bijection between t, and t j ) and thus to avoid that the values of the motion vectors obtained during the motion estimation are disturbed by the existence of zones of discontinuities.
  • said encompassing region is a k-disc of said occlusion zone where k ⁇ l.
  • the 1-disk of an occlusion zone is the occlusion zone itself; for all k> l, the k- disk of an occlusion zone corresponds to a region which contains the occlusion zone and whose border is located at a maximum distance of k-1 edges from the limit of the zone d occlusion considered.
  • said construction step consists in applying said front (respectively rear) motion vectors, weighted by a scalar less than 1, to said approximate preceding (respectively following) image.
  • the forward and / or backward motion estimation step makes it possible to determine the set of motion vectors making it possible to move from the previous image to the next image.
  • such a method comprises a step of reconstructing a mesh associated with said intermediate image, consisting, for each occlusion zone, of implementing a step of determining colorimetric and / or photometric information associated with a part of said mesh corresponding to said encompassing region, so as to obtain said interpolated image.
  • An interpolated image is thus reconstructed from the intermediate image obtained previously, by determining luminance and / or chrominance information associated with the encompassing region.
  • Such a determination step can be implemented according to the approach proposed in patent document FR-98 12525 having for title "coding process of still or moving images with reduction and adaptation of the bit rate".
  • the object of this patent document is a method of coding a digital image, aiming to produce a bit stream representative of this image, the length of the bit train being a function of the desired representation.
  • This method comprises the following steps: defining, on a domain of the image to be coded, a hierarchical mesh comprising a plurality of nested meshes whose mesh vertices can be pixels of said image; perform optimizations of luminance, chrominance, and positions on each mesh level; determine, for each mesh of said hierarchical mesh, a luminance difference between the image to be coded and an interpolated image obtained from the vertices of the nested mesh to which the mesh considered belongs, and - introduce the values (advantageously coded in differential compared to the preceding hierarchical level) of positions, luminance and chrominance of the vertices of the meshes whose luminance difference is greater than a threshold difference.
  • a quaternary tree structure associated with the hierarchical mesh, is constructed to manipulate the values (colors and positions) of the vertices of the meshes.
  • the tree presents a number of nodes equal to the number of triangles in the level of corresponding triangular mesh. Each node of the tree relates to a single triangle of the hierarchical mesh.
  • a luminance difference between the image to be coded and the interpolated image is calculated for each triangle from the vertices of the nested mesh to which the mesh in question belongs. This difference is then compared to a threshold difference for each triangle. The value of the threshold deviation depends on the quality of representation desired.
  • the part of the tree relating to the triangles whose luminance difference is greater than the threshold difference is then introduced into the binary train, which therefore makes it possible to transmit the data relating to the image as a function of the local quality of these different triangular partitions.
  • said determining step implements on the one hand a finite element coding model, and on the other hand an alternative coding model.
  • a finite element coding model for example as described in the French patent document FR 98 12525
  • the efficiency of hierarchical coding is low.
  • hierarchical coding is well suited for relatively smooth images, but not for images with highly textured parts.
  • Such a method of coding an image to be coded comprises the following steps: definition of a hierarchical mesh having at least two levels of nested mesh formed of meshes defined by vertices (which may be pixels of said image to be coded) ; determination, for each of said meshes, of error information between said image to be coded and an interpolated image obtained from the vertices of the meshes belonging to the mesh level of the mesh considered; stopping the refinement of the meshes having error information lower than a first predetermined threshold; implementation of a specific coding for the meshes presenting an error information higher than a second predetermined threshold; - Continuation of the refinement of the meshes having error information greater than said first predetermined threshold and less than said second predetermined threshold.
  • the hierarchical coding is the main coding, or coding basic, but it is not used systematically: for the image portions which require it (here, for the portions of the surrounding region which require it), another more effective coding is used.
  • the decision to use this specific coding is made by comparison with a threshold. More precisely, at each node considered in the tree representative of the hierarchical mesh, three possibilities are offered: stop the refinement, or the division, of the meshes (the quality reached for the portion of image or of the corresponding encompassing region being sufficient) , go to the next hierarchical level, keeping the same hierarchical coding, or use another coding (in particular a coding better suited to very textured portions).
  • such a method comprises a step of reconstructing a mesh associated with said intermediate image, consisting, for each occlusion zone, in inserting into said mesh part of a mesh associated with said next image or said previous image corresponding to said encompassing region, so as to obtain said interpolated image.
  • the content of the occlusion zones is replaced by the corresponding zones of the previous or next image.
  • the interpolated image thus obtained is then made up of a part obtained by interpolation, and corresponding to the displacement of the mesh associated with the previous image (respectively following), and occlusion zones containing information of the next or previous image. .
  • such a method further comprises, for each occlusion zone, a step of estimating local movement between said interpolated image and a corresponding exact image, consisting in optimizing the position of at least one node of part of said mesh corresponding to said encompassing region in said interpolated image, so as to generate an improved first interpolated image.
  • such a method further comprises a step of calculating an error image, so as to evaluate an error between said first improved interpolated image and said corresponding exact image.
  • a step of calculating an error image so as to evaluate an error between said first improved interpolated image and said corresponding exact image.
  • said error being greater than a predetermined threshold for at least one region of said error image
  • such a method implements a step of determining colorimetric and / or photometric information associated with each of said regions, so as to generate a second improved interpolated image.
  • said determination step implements, on the one hand, a finite element coding model, and on the other hand, an alternative coding model.
  • said determining step is implemented on the basis of said error image or of said corresponding exact image, according to a predetermined cost criterion.
  • step of determining colorimetric and / or photometric information the cost of such a device is evaluated. step from the error image on the one hand, and from the exact image corresponding to the interpolated image on the other hand. We therefore favor the least expensive solution.
  • said mesh is larger than said image it represents.
  • the invention also relates to a coding method and a method for decoding an animated sequence, of the type implementing a step of interpolating at least one image interpolated between a previous image and a following image.
  • said interpolation step takes account of information relating to the presence of at least one occlusion zone in said previous image and / or in said following image, called occlusion information.
  • the invention also relates to a terminal for viewing an animated sequence of images of the type comprising means for interpolating at least one image interpolated between a previous image and a following image, said interpolation means taking account of the presence of at least one occlusion zone in said previous image and / or in said following image.
  • the invention also relates to a video signal and a data medium comprising information making it possible to reconstruct at least one image interpolated between a previous image and a following image of an animated sequence of images, said information taking account of the presence of at least one occlusion zone in said previous image and / or in said following image.
  • FIG. 1 presents an example of implementation of a nested triangular hierarchical mesh
  • FIG. 2 presents a block diagram of all the steps implemented according to the invention for constructing an image interpolated between a previous image and a following image of an animated sequence
  • Figure 3 illustrates in more detail the steps 11, 14 and 15, presented in Figure 2
  • FIG. 4 illustrates an example of application of the invention to the temporal interpolation of frames.
  • the general principle of the invention is based on the management of occlusion zones during the construction of interpolated images within an animated sequence, with a view to bidirectional coding and / or temporal interpolation of frames at decoding.
  • FIG. 2 An embodiment of the construction of an image interpolated between a previous image and a following image of an animated sequence, in the form of a block diagram presenting all the steps to implement according to the invention.
  • a forward motion estimate is made from image I, so as to determine the motion vectors to be applied to the vertices of the mesh (for example a hierarchical mesh as illustrated in FIG. 1) associated with I x to obtain the image I 2 .
  • a step 21 can of course also consist in carrying out an estimate of backward movement from I 2 , but, for the sake of simplicity of reading, we will only endeavor to describe an example of embodiment implementing a estimation step before during the step referenced 21.
  • Such a step referenced 21 makes it possible to detect the presence of possible occlusion zones, corresponding here to the at least partial disappearance of one or more objects in the image I,. It also makes it possible to determine the movement d to be applied to the mesh associated with I, to obtain I 2 .
  • the desired interpolated image I ′ is therefore obtained, during a step referenced 23. If, during the step referenced 21, it detects the presence of at least an occlusion zone, I 1 is excluded ; during a step referenced 24, the encompassing region or regions corresponding to the occlusion zone (s) detected, so as to avoid an error in the motion estimation which would be introduced by the presence of this or these zones d 'occlusion.
  • I j approximate, corresponding to image I, from which at least one occlusion zone has been excluded.
  • Steps 21, 24 and 25 are now described in more detail in relation to FIG. 3.
  • step referenced 21 of forward motion estimation from the image I 15 the presence of a turning area 31 is detected.
  • the turning area is therefore excluded 31 to the image I l5 so as to obtain an image L, approximated.
  • a displacement of is applied to the mesh associated with I, approximate, so as to obtain, during a step referenced 27, an intermediate image Ii nte ⁇ néd i a i re -
  • Such a displacement of is obtained by weighting the optimal displacement d, determined during the step referenced 25, by a scalar between 0 and 1, according to a technique similar to that implemented during the step referenced 22.
  • a step referenced 291 is then implemented, consisting in inserting into Ii nterméd i area the area or areas of I 2 or I x corresponding to the or to the encompassing regions excluded from I, during the step referenced 24.
  • the content of the occlusion zones is thus replaced by the corresponding zones of the instant t ⁇ or of the instant t ,.
  • a first embodiment consists, during a step referenced 281, to determine color information and / or associated with the photometric or regions I Intermed i a i re corresponding to or encompassing regions excluded from I, during the step referenced 24.
  • the entire mesh associated with Ij nterméd i a i re> is thus reconstructed so as to obtain an interpolated image I ′ during a step referenced 282.
  • Such a step 281 can for example be implemented according to the technique described in patent document FR-98 12525 having for title "coding process for still or moving images with reduction and adaptation of the bit rate".
  • a second embodiment consists, during a step referenced 291, for inclusion in Ii ntermea ry the zone of I 2 or I, corresponding to or encompassing regions excluded from I x during the step referenced 24.
  • the content of the occlusion zones is thus replaced by the corresponding zones of time t ⁇ or time t ,.
  • the image I ' is obtained by inserting the content of the image I 2 during the implementation of a prior estimate, and by inserting the content of the image ⁇ during the implementation of an estimate of backward movement, in order to allow an overall recovery of the interpolated image V.
  • an image F consisting, on the one hand, of an interpolated part corresponding to the displacement of the mesh associated with I x , and on the other hand of the zone or zones , corresponding to the occlusion zone (s), and containing information of the image I 2 or of the image I ,.
  • an estimation of motion 293 is then made between I' and the corresponding exact interpolated image.
  • the image I is then inserted between the images I, and I 2 of the animated sequence, during a step referenced 298. In the Otherwise, if the error is greater than a predetermined threshold for at least certain parts of the error image, a step 296 of determining colorimetric and / or photometric information associated with the zone (s) is implemented. the image on which the error is significant.
  • step 296 can, for example, be implemented according to the technique described in patent document FR-98 12525 having for title "coding process of still or moving images with reduction and adaptation of the bit rate".
  • the information required by the coder then corresponds to the motion vectors d * , corresponding to the motion estimation between I 'and the corresponding exact image, and the chrominance and luminance information associated with the local correction d 'error, if necessary.
  • interpolated image I ', I' j improved or I ' 2 improved obtained at the end of one of the steps referenced 23, 282, 294 or 297 can then be interposed between two successive images of an animated sequence, thus as illustrated in figure 4.
  • the decoder constructs an interpolated image 43, possibly from information transmitted by the coder, which he inserts between two images referenced 41 and 42, in order to increase the visual fluidity of the sequence 40.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Abstract

Procédé de construction d'au moins une image interpolée entre deux images d'une séquence animée, procédés de codage et de décodage, signal et support de données correspondant. L'invention concerne un procédé de construction d'au moins une image interpolée entre une image précédente et une image suivante d'une séquence animée. Selon l'invention, un tel procédé tient compte d'informations relatives à la présence d'au moins une zone d'occlusion dans ladite image précédente et/ou dans ladite image suivante, dites informations d'occlusion.

Description

PROCEDE DE CALCUL D ' AU MOINS UNE IMAGE INTERPOLEE ENTRE DEUX IMAGES D ' UNE SEQUE NCE VIDEO
Le domaine de l'invention est celui du codage et/ou du décodage de 5 séquences animées d'images. Plus précisément, l'invention concerne la construction d'une ou plusieurs image(s) interpolée(s) entre deux images données d'une séquence animée.
L'invention trouve des applications dans tous les domaines de l'imagerie et du traitement de l'image. On peut citer, à titre d'exemples, et de manière non 10 restrictive : le codage et/ou le décodage vidéo, notamment en vue d'améliorer les performances d'un codeur/décodeur du type MPEG4 ou H263+ par exemple, ou de tout autre codeur/décodeur vidéo ; l'imagerie médicale ; 15 - le suivi d'objets en mouvement ; la conversion de standards, telle que la conversion PAL/NTSC par exemple.
L'invention s'applique notamment, mais non exclusivement, à l'interpolation temporelle de trames et/ou au codage bidirectionnel de séquences 20 vidéo, en vue de pallier notamment les problèmes de saturation de bande passante et d'adaptabilité à des terminaux de natures variées.
En effet, un des objectifs principaux des opérateurs du domaine de la vidéo est désormais de permettre à un utilisateur de visualiser des séquences animées de qualité satisfaisante, et notamment dans lesquelles les images successives 25 s'enchaînent de manière fluide. Or, le problème de la fluidité des séquences vidéo est fortement dépendant de celui de la saturation des réseaux de transmission et de la capacité (notamment de stockage) des terminaux de visualisation dont dispose l'utilisateur.
Afin de satisfaire les requêtes des utilisateurs, et de pallier les problèmes 30 de saturation de bande passante, il est donc nécessaire de produire des flux vidéos couvrant une large gamme de débits. Cependant, les séquences vidéo transmises à bas ou à moyen débit apparaissent généralement saccadées au moment de leur visualisation.
On a donc envisagé de mettre en œuvre une interpolation de fréquence trame lors du décodage des trains binaires transmis, et/ou un stockage d'informations supplémentaires lors du codage en mode bidirectionnel, afin de générer des séquences vidéo plus fluides, en fonction du terminal de visualisation, du réseau de transmission et/ou d'une requête d'un utilisateur.
Différentes techniques d'interpolation de fréquence, reposant sur l'estimation d'un champ de mouvement, ont été envisagées, mais aucune à ce jour ne présente de performances satisfaisantes.
On rappelle que le mouvement entre deux images d'une séquence se définit comme un vecteur à deux dimensions caractérisant la différence de positions entre un point d'une image et le point homologue de l'autre image, sous l'hypothèse que ces points correspondent au même point physique dans chacune des deux images. L'attribution d'un vecteur déplacement à chaque point de l'image, ou pixel, définit donc un champ dense de mouvement sur l'image, encore appelé flot optique.
Les méthodes d'estimation de champ de mouvement utilisées pour l'interpolation de fréquence trame sont de deux types : - les méthodes énumératives, dites encore de mise en correspondance ; les méthodes différentielles.
Les méthodes énumératives reposent sur un découpage du domaine d'une image en régions de taille finie, par partitionnement régulier ou adapté. On définit ensuite un modèle de mouvement, qui peut être, par exemple, affine, translationnel, polynomial, etc. et on procède par itérations successives, en appliquant un ensemble de valeurs distinctes, comprises dans un intervalle prédéterminé, aux paramètres de ce modèle.
Les méthodes différentielles consistent, quant à elles, à estimer un champ dense de mouvement, en attribuant un vecteur de mouvement à chaque pixel de l'image considérée. Elles mettent en œuvre, d'une part, des méthodes de calcul différentiel, et d'autre part, des techniques d'optimisation, reposant par exemple sur les descentes de gradient. Parmi ces méthodes, on peut notamment citer les méthodes fondées sur l'équation du flot optique, les méthodes pel-récursives (en anglais, "Physical Picture Elément", élément d'image physique), les méthodes paramétriques ou les estimateurs robustes par exemple.
De nombreux travaux ont été entrepris pour améliorer les techniques d'interpolation d'images existantes. Parmi ceux-ci, on peut citer la méthode proposée par Ciro CAFFORIO et Fabio ROCCA ("Motion Compensation Image Interpolation", "Interpolation d'image par compensation de mouvement", IEEE Transactions on communications, Vol. 38, 2, Feb. 90), consistant à utiliser un estimateur pel-récursif pour la compensation de mouvement.
On rappelle que les méthodes pel-récursives procèdent par prédiction- correction des vecteurs de mouvement associés à chacun des pixels choisis d'une image, selon un sens de parcours prédéterminé. La prédiction peut reposer sur la valeur du vecteur de mouvement du pixel précédent, ou sur une combinaison linéaire des vecteurs de mouvement des pixels voisins du pixel considéré. La correction est ensuite fondée sur une minimisation de la DFD (Displacement Frame Différence, en français "Différence inter images") par une méthode de descente du gradient. Un inconvénient de cette technique de l'art antérieur est que l'algorithme mis en œuvre par CAFFORIO et ROCCA souffre d'une forte interaction entre les directions récursives et la direction du déplacement à estimer.
Pour pallier cet effet, on a envisagé d'utiliser 4 directions récursives distinctes. On a ainsi obtenu une minimisation des effets perturbateurs, mais cette technique reste cependant insuffisamment performante.
Jack NIEWEGLOWSKI a proposé une méthode reposant sur l'utilisation d'une transformation géométrique, combinée à une technique dite de "block matching" (en français, compression par répétition de zones) améliorée ("Motion Compensated Video Interpolation Using Digital Image arping", (en français "Interpolation vidéo à compensation de mouvement mettant en œuvre une déformation d'image numérique"), IEEE ICASSP'94).
Une telle méthode permet de prendre en compte les changements d'échelle mais présente l'inconvénient d'être peu robuste, en raison d'une décorrélation de la transformation géométrique et de la compression par répétition de zones.
Q. WANG et L.J. CLARK ont ensuite envisagé de mettre en œuvre un algorithme paramétrique, reposant sur la modélisation du mouvement d'une région quelconque d'une image par un modèle défini a priori ("Motion Estimation and Compensation for Image Séquence Coding", en français "Estimation et compensation de mouvement pour le codage de séquences d'images", Signal Processing : Image Communication, Vol.4, No. 2, April 92, pp. 161-174).
Un inconvénient de cette technique de l'art antérieur est qu'elle n'est pas adaptée à l'estimation des régions de fort mouvement.
Pour pallier les différents problèmes rencontrés par ces techniques d'estimation de mouvement, on a également proposé de mettre en œuvre des algorithmes d'estimation de mouvement hiérarchiques, tels que ceux décrits par L. Bόrocsky et P. Csillag ("Multiresolution Motion Field Estimation for Wavelet Video Coding and Frame Interpolation", en français "Estimation de champ de mouvement multiresolution pour le codage d'ondelettes vidéo et l'interpolation de trames", Final Workshop, Vigo, Spain, Oct. 94, pp. 163-166).
De tels algorithmes d'estimation de mouvement hiérarchique, comme les méthodes d'estimation de mouvement de l'art antérieur décrites ci-dessus, se heurtent au problème de la détection des zones d'occlusion (zones de tassement, d'occultation, ou de découvrement du maillage) au sein des images de la séquence vidéo considérée. En effet, lorsque différents plans et objets se recouvrent dans une scène, des zones d'occlusion apparaissent, générant des lignes de discontinuité au sein du maillage associé à l'image.
La technique la plus couramment utilisée pour gérer l'apparition et ou la disparition de zones d'occlusion au sein d'une image est l'utilisation du lancer de rayon. Une telle technique consiste à associer, à chacun des pixels constitutifs de l'image, une étiquette relative au vecteur de mouvement associé à ce pixel.
Ainsi, un pixel recevant au moins deux vecteurs de mouvement porte l'étiquette "occlusion", ce qui signifie qu'il couvre au moins deux pixels présents dans l'image précédente de la séquence. Un pixel recevant un unique vecteur de mouvement porte l'étiquette "normal", indiquant ainsi qu'il est présent dans l'image précédente et dans l'image courante. Enfin, un pixel ne recevant aucun vecteur de mouvement porte l'étiquette "trou", de manière à indiquer qu'il appartient à une zone de découvrement de l'image. Une telle technique est notamment décrite dans "Interframe Interpolation of Cinematic Séquences" (en français "Interpolation inter-trames de séquences animées"), par J. Ribas-Corbera et J. Sklansky, Journal of Visual Communication and Image Représentation, Vol. 4, No. 4, Dec. 93, pp. 392-406 et dans "Motion
Compensating Interpolation for Improved Slow Motion" (en français "Interpolation compensatrice de mouvement pour un mouvement lent amélioré") par B. Chupeau et P. Salmon, Thomson-CSF/Laboratoires électroniques de
Rennes, France.
Toutefois, cette technique de l'art antérieur n'exploite ces informations d'étiquette que pour effectuer une correction a posteriori des images interpolées, mais ne les prend pas en compte lors de l'estimation de mouvement permettant de construire de telles images.
L'invention a notamment pour objectif de pallier ces inconvénients de l'art antérieur.
Plus précisément, un objectif de l'invention est de fournir une technique de construction d'une image interpolée entre une image précédente et une image suivante d'une séquence animée, permettant d'améliorer l'impression de fluidité lors de la visualisation de la séquence.
Un autre objectif de l'invention est de mettre en œuvre une technique de construction d'une image interpolée qui soit simple et peu coûteuse à mettre en œuvre. L'invention a encore pour objectif de fournir une technique de construction d'une image interpolée robuste et adaptée aux régions de fort mouvement.
L'invention a également pour objectif de mettre en œuvre une technique de construction d'une image interpolée au sein d'une séquence vidéo permettant de gérer l'apparition et/ou la disparition d'objets qui correspondent à des zones d'occlusion (zones de retournement, zones de découvrement, zones de tassement) au sein d'un maillage associé aux images de la séquence.
Encore un autre objectif de l'invention est de fournir une technique de construction d'une image interpolée, permettant à un utilisateur disposant d'un terminal de capacité de stockage réduite de visualiser une séquence vidéo fluide.
L'invention a encore pour objectif de mettre en œuvre une technique de construction d'une image interpolée, permettant à un utilisateur de visualiser une séquence vidéo fluide, malgré une saturation de la bande passante du réseau par lequel elle est transmise.
L'invention a également pour objectif de fournir une technique de construction d'une image interpolée pouvant être intégrée à tout codeur/décodeur vidéo afin d'en améliorer les performances, notamment en termes de fluidité visuelle. Ces objectifs, ainsi que d'autres qui apparaîtront par la suite, sont atteints à l'aide d'un procédé de construction d'au moins une image interpolée entre une image précédente et une image suivante d'une séquence animée.
Selon l'invention, un tel procédé tient compte d'informations relatives à la présence d'au moins une zone d'occlusion dans ladite image précédente et/ou dans ladite image suivante, dites informations d'occlusion.
Ainsi, l'invention repose sur une approche tout à fait nouvelle et inventive de l'interpolation d'images au sein d'une séquence animée. En effet, l'invention repose notamment sur la gestion des zones d'occlusion (c'est-à-dire des zones de retournement ou de découvrement) apparaissant au sein d'un maillage associé à une image de la séquence. L'invention permet donc d'améliorer sensiblement la fluidité visuelle d'une séquence animée, en mettant en œuvre une génération d'images intermédiaires intercalées entre deux images données de la séquence, et en estompant les artefacts et les lignes de discontinuité introduits par l'existence d'une ou plusieurs zone(s) d'occlusion au sein de telles images.
Avantageusement, une image de ladite séquence est associée à un maillage.
En effet, les maillages constituent de plus en plus fréquemment le support de représentation des objets, notamment dans une scène de réalité virtuelle. Ils représentent ainsi la majeure partie de la quantité d'informations décrivant une telle scène. Classiquement, un maillage est défini par un ensemble de sommets et de faces (ou un ensemble de sommets, d'arêtes et d'orientations) définissant une topologie.
Un tel maillage peut par exemple être un maillage à plat, ou tout autre type de maillage permettant de mettre en œuvre une estimation de mouvement à partir de l'image à laquelle il est associé.
Selon une caractéristique avantageuse de l'invention, ledit maillage est un maillage hiérarchique présentant au moins deux niveaux de maillage emboîtés au sein d'une pyramide de maillage. Ainsi, en référence à l'exemple de la figure 1, l'utilisation d'un maillage hiérarchique emboîté 11 permet d'obtenir un codage robuste, et réduit le coût de transmission et/ou de stockage de l'information. En effet, il existe une forte corrélation entre les informations portées par un nœud père et celles portées par ses nœuds fils au sein du maillage. De ce fait, on quantifie les valeurs des nœuds 12, 13 appartenant au niveau le plus haut de la pyramide de maillage (correspondant à un maillage grossier de l'image), en vue de leur transmission, par exemple vers un codeur, et/ou de leur stockage sur un support de données 15. En revanche, pour les niveaux inférieurs de la pyramide de maillage (correspondant à un maillage plus fin de l'image), on ne quantifie que les valeurs différentielles des nœuds fils 14, en vu de leur transmission et/ou de leur stockage, ainsi qu'illustré en figure 1.
Selon une technique avantageuse, lesdites informations d'occlusion sont déterminées par la mise en œuvre d'une étape d'estimation de mouvement avant et ou arrière entre lesdites images précédente et suivante.
La mise en œuvre d'une étape d'estimation de mouvement avant consiste à déterminer un ensemble de vecteurs de mouvement associés aux sommets d'un maillage représentatif d'une première image à un instant t,, et permettant de construire le maillage associé à une deuxième image à un instant ultérieur X^. Une telle étape permet donc notamment de déceler la disparition au moins partielle d'un objet entre les images aux instants t, et t^.
De même, la mise en œuvre d'une étape d'estimation arrière permet de déterminer les vecteurs de mouvement à appliquer aux sommets du maillage associé à l'image de l'instant tj pour obtenir l'image à l'instant précédent t,, et permet également de déceler une éventuelle apparition d'objets entre les images aux instants tx et tj.
On peut donc envisager de mettre en œuvre une étape d'estimation avant, de manière à déceler une éventuelle disparition d'objets, ou une étape d'estimation arrière, de manière à déceler une éventuelle apparition d'objets. La mise en œuvre conjointe d'une étape d'estimation avant et d'une étape d'estimation arrière permet donc de détecter la présence de toute zone d'occlusion, correspondant à un retournement ou à un découvrement de mailles, associé à une disparition ou à une apparition d'objet.
Préférentiellement, en présence d'au moins une zone d'occlusion dans ladite image précédente (respectivement dans ladite image suivante), un tel procédé met en œuvre les étapes suivantes : pour chaque zone d'occlusion, une étape d'exclusion, dans ladite image précédente (respectivement dans ladite image suivante), d'une région dudit maillage englobant au moins une maille correspondant à ladite zone d'occlusion, dite région englobante, de manière à obtenir une image précédente approchée (respectivement une image suivante approchée) ; une étape d'estimation avant (respectivement arrière), de manière à déterminer des vecteurs de mouvement permettant d'obtenir une image suivante (respectivement précédente) approchée à partir de ladite image précédente (respectivement suivante) approchée, appelés vecteurs de mouvement avant (respectivement arrière) ; une étape de construction d'une image intermédiaire à partir de ladite image précédente (respectivement suivante) approchée et desdits vecteurs de mouvement avant (respectivement arrière).
En effet, la présence d'une zone d'occlusion peut entacher d'erreur le calcul de l'estimation de mouvement entre deux images données de la séquence. On construit donc une image approchée, obtenue en excluant d'une image donnée au moins une région du maillage correspondant à au moins une zone d'occlusion. Le procédé consiste alors à réaliser une nouvelle estimation du mouvement entre les instants tt et ,, après avoir exclu les zones en défaut (c'est-à-dire les zones contenant au moins un retournement de maille), afin de minimiser l'erreur de prédiction entre les deux images correspondant aux instants t, et ^ considérés.
Cette nouvelle estimation, mise en œuvre à partir de l'image approchée, permet de déterminer les vecteurs de mouvement optimaux pour la zone continue de l'image (c'est-à-dire admettant une bijection entre t,et tj) et d'éviter ainsi que les valeurs des vecteurs de mouvement obtenus au cours de l'estimation de mouvement ne soient perturbées par l'existence de zones de discontinuités.
Selon une caractéristique avantageuse de l'invention, ladite région englobante est un k-disque de ladite zone d'occlusion où k≥l.
On rappelle la définition d'un k-disque de la zone d'occlusion : le 1 -disque d'une zone d'occlusion est la zone d'occlusion elle-même ; pour tout k>l, le k- disque d'une zone d'occlusion correspond à une région qui contient la zone d'occlusion et dont la frontière se situe à une distance maximale de k-1 arêtes de la limite de la zone d'occlusion considérée. De façon préférentielle, ladite étape de construction consiste à appliquer lesdits vecteurs de mouvement avant (respectivement arrière), pondérés par un scalaire inférieur à 1, à ladite image précédente (respectivement suivante) approchée. En effet, l'étape d'estimation de mouvement avant et/ou arrière permet de déterminer l'ensemble des vecteurs de mouvement permettant de passer de l'image précédente à l'image suivante. Selon la position temporelle de l'image intermédiaire que l'on souhaite construire entre les images précédente et suivante, on pondère ces vecteurs avec un scalaire compris entre 0 et 1. Selon une première variante avantageuse de l'invention, un tel procédé comprend une étape de reconstruction d'un maillage associé à ladite image intermédiaire, consistant, pour chaque zone d'occlusion, à mettre en œuvre une étape de détermination d'informations colorimétriques et/ou photométriques associées à une partie dudit maillage correspondant à ladite région englobante, de manière à obtenir ladite image interpolée.
On reconstruit ainsi une image interpolée à partir de l'image intermédiaire obtenue précédemment, en déterminant des informations de luminance et/ou de chrominance associées à la région englobante.
Une telle étape de détermination peut être mise en œuvre selon l'approche proposée dans le document de brevet FR-98 12525 ayant pour titre « procédé de codage d'images fixes ou animées avec réduction et adaptation du débit ».
Ce document de brevet a pour objet un procédé de codage d'une image numérique, visant à produire un train binaire représentatif de cette image, la longueur du train binaire étant fonction de la représentation voulue. Ce procédé comprend les étapes suivantes : définir, sur un domaine de l'image à coder, un maillage hiérarchique comportant une pluralité de maillages emboîtés dont les sommets de mailles peuvent être des pixels de ladite image ; réaliser les optimisations de luminance, chrominance, et positions sur chaque niveau de maillage ; déterminer, pour chaque maille dudit maillage hiérarchique, un écart de luminance entre l'image à coder et une image interpolée obtenue à partir des sommets du maillage emboîté auquel appartient la maille considérée, et - introduire dans le train binaire les valeurs (avantageusement codées en différentiel par rapport au niveau hiérarchique précédent) de positions, de luminance et de chrominance des sommets des mailles dont l'écart de luminance est supérieur à un écart seuil.
Selon cette technique, on construit au terme de l'étape de maillage, une structure en arbre quaternaire, associée au maillage hiérarchique, pour manipuler les valeurs (couleurs et positions) des sommets des mailles. L'arbre présente un nombre de nœuds égal au nombre de triangles dans le niveau de maillage triangulaire correspondant. Chaque nœud de l'arbre se rapporte à un unique triangle du maillage hiérarchique. Une fois cet arbre construit, on sélectionne les données de l'arbre à introduire dans le train binaire représentatif de l'image qui sera transmise et/ou stockée. Cette sélection dépend de la qualité voulue.
Pour réaliser cette sélection, on calcule, pour chaque triangle, un écart de luminance entre l'image à coder et l'image interpolée à partir des sommets du maillage emboîté auquel appartient la maille considérée. Cet écart est ensuite comparé à un écart seuil pour chaque triangle. La valeur de l'écart seuil est fonction de la qualité de représentation voulue.
On introduit ensuite dans le train binaire la partie de l'arbre se rapportant aux triangles dont l'écart de luminance est supérieur à l'écart seuil, qui permet donc de transmettre les données relatives à l'image en fonction de la qualité locale de ces différentes partitions triangulaires.
Avantageusement, ladite étape de détermination met en œuvre d'une part un modèle de codage par éléments finis, et d'autre part un modèle de codage alternatif. En effet, lorsqu'on met en œuvre un codage hiérarchique, par exemple tel que décrit dans le document de brevet français FR 98 12525, et lorsqu'une portion de l'image est très texturée, il est alors nécessaire de prévoir un nombre de niveaux de maillage important pour obtenir des informations photométriques et/ou colorimétriques de qualité suffisante. Dans ce cas, le rendement du codage hiérarchique est faible. En d'autres termes, le codage hiérarchique est bien adapté aux images relativement lisses, mais non aux images présentant des parties fortement texturées.
On a donc envisagé une nouvelle approche, décrite par exemple dans le document de brevet français FR 99 06815 intitulé "Procédé de codage hiérarchique et mise en œuvre sélective d'un codage à base de transformation réversible, et procédé de décodage correspondant". Un tel procédé de codage d'une image à coder, comprend les étapes suivantes : définition d'un maillage hiérarchique présentant au moins deux niveaux de maillage emboîtés formés de mailles définies par des sommets (qui peuvent être des pixels de ladite image à coder) ; détermination, pour chacune desdites mailles, d'une information d'erreur entre ladite image à coder et une image interpolée obtenue à partir des sommets des mailles appartenant au niveau de maillage de la maille considérée ; arrêt du raffinement des mailles présentant une information d'erreur inférieure à un premier seuil prédéterminé ; mise en œuvre d'un codage spécifique pour les mailles présentant une information d'erreur supérieure à un second seuil prédéterminé ; - continuation du raffinement des mailles présentant une information d'erreur supérieure audit premier seuil prédéterminé et inférieure audit second seuil prédéterminé.
Ainsi, selon ce procédé, qui s'avère particulièrement avantageux dans le cadre de l'invention, on utilise sélectivement deux modes de codage distincts. Le codage hiérarchique, ou à maillages emboîtés, est le codage principal, ou codage de base, mais il n'est pas utilisé systématiquement : pour les portions d'image qui le nécessite (ici, pour les portions de la région englobante qui le nécessitent), un autre codage plus efficace est utilisé.
La décision d'utiliser ce codage spécifique est prise par comparaison à un seuil. Plus précisément, à chaque nœud considéré de l'arbre représentatif du maillage hiérarchique, trois possibilités sont offertes : arrêter le raffinement, ou la division, des mailles (la qualité atteinte pour la portion d'image ou de la région englobante correspondante étant suffisante), passer au niveau hiérarchique suivant, en conservant le même codage hiérarchique, ou utiliser un autre codage (en particulier un codage mieux adapté aux portions très texturées).
On notera qu'il est envisageable d'utiliser plusieurs types différents de codages spécifiques (ou un même codage avec des paramètres différents), pour adapter plus précisément encore le choix du codage aux caractéristiques de la portion d'image ou de la portion de région englobante. Selon une deuxième variante avantageuse de l'invention, un tel procédé comprend une étape de reconstruction d'un maillage associé à ladite image intermédiaire, consistant, pour chaque zone d'occlusion, à insérer dans ledit maillage une partie d'un maillage associé à ladite image suivante ou à ladite image précédente correspondant à ladite région englobante, de manière à obtenir ladite image interpolée.
On remplace donc, dans l'image intermédiaire, le contenu des zones d'occlusion par les zones correspondantes de l'image précédente ou suivante. L'image interpolée ainsi obtenue est alors constituée d'une partie obtenue par interpolation, et correspondant au déplacement du maillage associé à l'image précédente (respectivement suivante), et des zones d'occlusion contenant des informations de l'image suivante ou précédente.
Selon une caractéristique avantageuse, un tel procédé comprend en outre, pour chaque zone d'occlusion, une étape d'estimation de mouvement locale entre ladite image interpolée et une image exacte correspondante, consistant à optimiser la position d'au moins un nœud d'une partie dudit maillage correspondant à ladite région englobante dans ladite image interpolée, de manière à générer une première image interpolée améliorée.
Au niveau du codage, un tel mouvement n'est pris en compte et codé que si l'estimation de mouvement détermine l'absence de zones de discontinuité, et notamment l'absence de retournements de mailles, entre l'image interpolée et l'image exacte correspondante.
Avantageusement, un tel procédé comprend en outre une étape de calcul d'une image d'erreur, de manière à évaluer une erreur entre ladite première image interpolée améliorée et ladite image exacte correspondante. Ainsi, l'estimation de mouvement entre l'image interpolée et l'image exacte correspondante ayant déterminé la présence de zones d'occlusion, on met en œuvre un calcul d'erreur.
Selon une technique avantageuse, ladite erreur étant supérieure à un seuil prédéterminé pour au moins une région de ladite image d'erreur, un tel procédé met en œuvre une étape de détermination d'informations colorimétriques et/ou photométriques associées à chacune desdites régions, de manière à générer une deuxième image interpolée améliorée.
Avantageusement, ladite étape de détermination met en œuvre, d'une part, un modèle de codage par éléments finis, et d'autre part, un modèle de codage alternatif.
Comme décrit précédemment, une telle étape de détermination peut être mise en œuvre selon la technique exposée dans le document de brevet français FR
99 06815 intitulé "Procédé de codage hiérarchique et mise en œuvre sélective d'un codage à base de transformation réversible, et procédé de décodage correspondant".
Selon une caractéristique avantageuse de l'invention, ladite étape de détermination est mise en œuvre à partir de ladite image d'erreur ou de ladite image exacte correspondante, en fonction d'un critère de coût prédéterminé.
En effet, préalablement à la mise en œuvre de l'étape de détermination des informations colorimétriques et/ou photométriques, on évalue le coût d'une telle étape à partir de l'image d'erreur d'une part, et à partir de l'image exacte correspondant à l'image interpolée d'autre part. On privilégie alors la solution la moins coûteuse.
Préférentiellement, ledit maillage est de taille supérieure à ladite image qu'il représente.
Une telle technique est par exemple décrite dans le document de brevet français n° FR 00 09273 du 13 juillet 2000, intitulé "Estimateur de mouvement pour le codage et le décodage de séquences d'images", au nom des mêmes déposants que la présente demande. Selon la technique exposée dans cette demande de brevet, l'utilisation d'un maillage de taille supérieure à l'image à laquelle il est associé permet la mise en œuvre d'une technique d'estimation et de compensation de mouvement pour le codage et le décodage de séquences d'images, permettant la gestion des découvrements et des tassements de mailles lors du déplacement d'objets. L'utilisation d'un maillage de taille supérieure à la taille de l'image permet, selon la présente invention, d'améliorer l'interpolation temporelle de trames au moment du décodage.
L'invention concerne encore un procédé de codage et un procédé de décodage d'une séquence animée, du type mettant en œuvre une étape d'interpolation d'au moins une image interpolée entre une image précédente et une image suivante.
Selon de tels procédés de codage et de décodage, ladite étape d'interpolation tient compte d'informations relatives à la présence d'au moins une zone d'occlusion dans ladite image précédente et/ou dans ladite image suivante, dites informations d'occlusion.
L'invention concerne également un terminal de visualisation d'une séquence animée d'images du type comprenant des moyens d'interpolation d'au moins une image interpolée entre une image précédente et une image suivante, lesdits moyens d'interpolation tenant compte de la présence d'au moins une zone d'occlusion dans ladite image précédente et/ou dans ladite image suivante. L'invention concerne encore un signal vidéo et un support de données comprenant des informations permettant de reconstruire au moins une image interpolée entre une image précédente et une image suivante d'une séquence animée d'images, lesdites informations tenant compte de la présence d'au moins une zone d'occlusion dans ladite image précédente et/ou dans ladite image suivante.
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation préférentiel, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : la figure 1, décrite ci-dessus, présente un exemple de mise en œuvre d'un maillage hiérarchique triangulaire emboîté ; la figure 2 présente un synoptique de l'ensemble des étapes mises en œuvre selon l'invention pour construire une image interpolée entre une image précédente et une image suivante d'une séquence animée ; la figure 3 illustre plus en détails les étapes 11, 14 et 15, présentées en figure 2 ; la figure 4 illustre un exemple d'application de l'invention à l'interpolation temporelle de trames. Le principe général de l'invention repose sur la gestion des zones d'occlusion lors de la construction d'images interpolées au sein d'une séquence animée, en vue d'un codage bidirectionnel et/ou d'une interpolation temporelle de trames au décodage.
On présente, en relation avec la figure 2, un mode de réalisation de la construction d'une image interpolée entre une image précédente et une image suivante d'une séquence animée, sous la forme d'un synoptique présentant l'ensemble des étapes à mettre en œuvre, selon l'invention.
On considère deux images d'une séquence animée, appelées respectivement I, et I2, à deux instants t, et t^ successifs. On cherche à construire une image interpolée l' entre I, et I2, à un instant t' intermédiaire entre t, et t^. Au cours d'une étape référencée 21, on réalise une estimation de mouvement avant à partir de l'image I , de manière à déterminer les vecteurs de mouvement à appliquer aux sommets du maillage (par exemple un maillage hiérarchique tel qu'illustré en figure 1) associé à Ix pour obtenir l'image I2. Une telle étape 21 peut bien sûr également consister à réaliser une estimation de mouvement arrière à partir de I2, mais, par souci de simplicité de lecture, on ne s'attachera à décrire qu'un exemple de mode de réalisation mettant en œuvre une étape d'estimation avant au cours de l'étape référencée 21.
Une telle étape référencée 21 permet de détecter la présence d'éventuelles zones d'occlusion, correspondant ici à la disparition au moins partielle d'un ou plusieurs objets dans l'image I,. Elle permet également de déterminer le mouvement d à appliquer au maillage associé à I, pour obtenir I2.
En l'absence de zones d'occlusion, on applique au maillage associé à I,, au cours d'une étape référencée 22, un déplacement d', défini de la manière suivante :
Figure imgf000019_0001
On pondère ainsi le déplacement d, à appliquer au maillage associé à lx pour obtenir I2, par un scalaire compris entre 0 et 1, et dont la valeur dépend de la position de l'image I' par rapport aux images I, et I2. Ainsi, si l'on souhaite obtenir une image interpolée proche de l'image I,, on pondère le déplacement d par un scalaire proche de 0. Si, en revanche, on souhaite obtenir une image inteφolée temporellement proche de I2, on pondère le déplacement d par un scalaire proche de l.
A l'issue de l'étape référencée 22, on obtient donc l'image interpolée I' souhaitée, au cours d'une étape référencée 23. Si, au cours de l'étape référencée 21, on détecte la présence d'au moins une zone d'occlusion, on exclut de I1; au cours d'une étape référencée 24, la ou les régions englobantes correspondant à la ou les zones d'occlusion détectées, de manière à éviter une erreur de l'estimation de mouvement qui serait introduite par la présence de cette ou de ces zones d'occlusion. On obtient ainsi une image Ij approchée, correspondant à l'image I, de laquelle a été exclue au moins une zone d'occlusion.
On met alors en œuvre une estimation de mouvement avant à partir de Ij approchée au cours d'une étape référencée 25, afin de déterminer les vecteurs de mouvement optimaux pour la zone continue de l'image (c'est-à-dire admettant une bijection entre ttet tj).
Les étapes 21, 24 et 25 sont désormais décrites plus en détails en relation avec la figure 3.
Au cours de l'étape référencée 21 d'estimation de mouvement avant à partir de l'image Il5 on détecte la présence d'une zone de retournement 31. Au cours de l'étape référencée 24, on exclut donc la zone de retournement 31 de l'image Il5 de manière à obtenir une image L, approchée. On réalise alors une estimation de mouvement avant 25 à partir de Ix approchée, de manière à obtenir les vecteurs de mouvement optimaux à appliquer aux sommets du maillage associé à I, approchée pour obtenir I2.
Au cours d'une étape référencée 26, on applique un déplacement d' au maillage associé à I, approchée, de manière à obtenir au cours d'une étape référencée 27 une image intermédiaire Iinteπnédiaire- Un tel déplacement d' est obtenu par pondération du déplacement optimal d, déterminé au cours de l'étape référencée 25, par un scalaire compris entre 0 et 1, selon une technique similaire à celle mise en œuvre au cours de l'étape référencée 22.
Dans le cas où l'invention s'applique à l'interpolation de fréquence trame, on met alors en œuvre une étape référencée 291, consistant à insérer dans Iintermédiaire la ou les zones de I2 ou de Ix correspondant à la ou aux régions englobantes exclues de I, au cours de l'étape référencée 24. On remplace ainsi le contenu des zones d'occlusion par les zones correspondantes de l'instant t^ ou de l'instant t,.
On obtient ainsi, au cours d'une étape référencée 292, une image I' constituée, d'une part, d'une partie interpolée correspondant au déplacement d' du maillage associé à , et d'autre part de la ou des zones, correspondant à la ou aux zones d'occlusion, et contenant des informations de l'image I2 ou de l'image I,. Dans le cas où l'invention s'applique au codage bidirectionnel, on peut envisager deux variantes au mode de réalisation permettant, à partir de Iintermédiaire d'obtenir l'image interpolée I'.
Une première variante de réalisation consiste, au cours d'une étape référencée 281, à déterminer des informations colorimétriques et/ou photométriques associées à la ou aux régions de Iintermédiaire correspondant à la ou aux régions englobantes exclues de I, au cours de l'étape référencée 24. On reconstruit ainsi l'intégralité du maillage associé à Ijntermédiaire> de façon à obtenir une image interpolée I' au cours d'une étape référencée 282. Une telle étape 281 peut par exemple être mise en œuvre selon la technique décrite dans le document de brevet FR-98 12525 ayant pour titre « procédé de codage d'images fixes ou animées avec réduction et adaptation du débit ».
Une deuxième variante de réalisation consiste, au cours d'une étape référencée 291, à insérer dans Iintermédiaire la ou les zones de I2 ou de I, correspondant à la ou aux régions englobantes exclues de Ix au cours de l'étape référencée 24. On remplace ainsi le contenu des zones d'occlusion par les zones correspondantes de l'instant t^ ou de l'instant t,.
De manière générale, l'image I' est obtenue par insertion du contenu de l'image I2 lors de la mise en œuvre d'une estimation avant, et par insertion du contenu de l'image ï lors de la mise en œuvre d'une estimation de mouvement arrière, afin de permettre un recouvrement global de l'image interpolée V. Cependant, dans certains cas, on peut préférer construire l'image l' par insertion du contenu de l'image I2 (respectivement L lors de la mise en œuvre d'une estimation arrière (respectivement avant), par exemple pour obtenir une image l' de meilleure qualité et/ou conférer à la séquence vidéo une plus grande fluidité visuelle.
On obtient ainsi, au cours d'une étape référencée 292, une image F constituée, d'une part, d'une partie interpolée correspondant au déplacement d' du maillage associé à Ix, et d'autre part de la ou des zones, correspondant à la ou aux zones d'occlusion, et contenant des informations de l'image I2 ou de l'image I,. Afin d'obtenir une meilleure approximation de l'image I', on réalise alors une estimation de mouvement 293 entre I' et l'image interpolée exacte correspondante.
On obtient ainsi, au cours d'une étape référencée 294, une première image interpolée améliorée I,'. Lors d'une étape référencée 295, on calcule alors une image d'erreur entre I,' améliorée et l'image interpolée exacte correspondante.
Si l'erreur est faible (par exemple inférieure à un seuil d'erreur prédéterminé), l'image I est alors intercalée entre les images I, et I2 de la séquence animée, au cours d'une étape référencée 298. Dans le cas contraire, si l'erreur est supérieure à un seuil prédéterminé pour au moins certaines parties de l'image d'erreur, on met en œuvre une étape 296 de détermination d'informations colorimétriques et/ou photométriques associées à la ou aux zones de l'image sur lesquelles l'erreur est importante.
A nouveau, une telle étape 296 peut, par exemple, être mise en œuvre selon la technique décrite dans le document de brevet FR-98 12525 ayant pour titre « procédé de codage d'images fixes ou animées avec réduction et adaptation du débit ».
On obtient alors, lors de l'étape référencée 297, une deuxième image interpolée améliorée I2' à intercaler entre les images lx et I2 de la séquence d'images.
Au niveau du codage, les informations nécessaires au codeur correspondent alors aux vecteurs de mouvement d*, correspondant à l'estimation de mouvement entre I' et l'image exacte correspondante, et les informations de chrominance et de luminance associées à la correction locale d'erreur, si nécessaires.
L'image interpolée I', I'j améliorée ou I'2 améliorée obtenue à l'issue de l'une des étapes référencées 23, 282, 294 ou 297 peut ensuite être intercalée entre deux images successives d'une séquence animée, ainsi qu'illustré en figure 4.
Ainsi, au décodage de la séquence 40 par exemple, le décodeur construit une image interpolée 43, éventuellement à partir d'informations transmises par le codeur, qu'il insère entre deux images référencées 41 et 42, afin d'accroître la fluidité visuelle de la séquence 40.

Claims

REVENDICATIONS
1. Procédé de construction d'au moins une image interpolée entre une image précédente et une image suivante d'une séquence animée, caractérisé en ce qu'il comprend au moins une étape d'estimation de mouvement tenant compte d'informations relatives à la présence d'au moins une zone d'occlusion dans ladite image précédente et/ou dans ladite image suivante, dites informations d'occlusion.
2. Procédé de construction selon la revendication 1, caractérisé en ce qu'une image de ladite séquence est associée à un maillage.
3. Procédé de construction selon la revendication 2, caractérisé en ce que ledit maillage est un maillage hiérarchique présentant au moins deux niveaux de maillage emboîtés au sein d'une pyramide de maillage.
4. Procédé de construction selon l'une quelconque des revendications 1 à 3, caractérisé en ce que lesdites informations d'occlusion sont déterminées par la mise en œuvre de ladite étape d'estimation de mouvement, ladite étape d'estimation de mouvement étant une étape d'estimation de mouvement avant et/ou arrière entre lesdites images précédente et suivante.
5. Procédé de construction selon l'une quelconque des revendications 1 à 4, caractérisé en ce qu'en présence d'au moins une zone d'occlusion dans ladite image précédente (respectivement dans ladite image suivante), il met en œuvre les étapes suivantes : pour chaque zone d'occlusion, une étape d'exclusion, dans ladite image précédente (respectivement dans ladite image suivante), d'une région dudit maillage englobant au moins une maille correspondant à ladite zone d'occlusion, dite région englobante, de manière à obtenir une image précédente approchée (respectivement une image suivante approchée) ; une étape d'estimation avant (respectivement arrière), de manière à déterminer des vecteurs de mouvement permettant d'obtenir une image suivante
(respectivement précédente) approchée à partir de ladite image précédente (respectivement suivante) approchée, appelés vecteurs de mouvement avant
(respectivement arrière) ; une étape de construction d'une image intermédiaire à partir de ladite image précédente (respectivement suivante) approchée et desdits vecteurs de mouvement avant (respectivement arrière).
6. Procédé de construction selon la revendication 5, caractérisé en ce que ladite région englobante est un k-disque de ladite zone d'occlusion où k≥l.
7. Procédé de construction selon l'une quelconque des revendications 5 et 6, caractérisé en ce que ladite étape de construction consiste à appliquer lesdits vecteurs de mouvement avant (respectivement arrière), pondérés par un scalaire inférieur à 1, à ladite image précédente (respectivement suivante) approchée.
8. Procédé de construction selon l'une quelconque des revendications 5 à 7, caractérisé en ce qu'il comprend une étape de reconstruction d'un maillage associé à ladite image intermédiaire, consistant, pour chaque zone d'occlusion, à mettre en œuvre une étape de détermination d'informations colorimétriques et/ou photométriques associées à une partie dudit maillage correspondant à ladite région englobante, de manière à obtenir ladite image interpolée.
9. Procédé de construction selon la revendication 8, caractérisé en ce que ladite étape de détermination met en œuvre d'une part un modèle de codage par éléments finis, et d'autre part un modèle de codage alternatif.
10. Procédé de construction selon l'une quelconque des revendications 5 à 7, caractérisé en ce qu'il comprend une étape de reconstruction d'un maillage associé à ladite image intermédiaire, consistant, pour chaque zone d'occlusion, à insérer dans ledit maillage une partie d'un maillage associé à ladite image suivante ou à ladite image précédente correspondant à ladite région englobante, de manière à obtenir ladite image interpolée.
11. Procédé de construction selon la revendication 10, caractérisé en ce qu'il comprend en outre, pour chaque zone d'occlusion, une étape d'estimation de mouvement locale entre ladite image interpolée et une image exacte correspondante, consistant à optimiser la position d'au moins un nœud d'une partie dudit maillage correspondant à ladite région englobante dans ladite image inteφolée, de manière à générer une première image interpolée améliorée.
12. Procédé de construction selon la revendication 11, caractérisé en ce qu'il comprend en outre une étape de calcul d'une image d'erreur, de manière à évaluer une erreur entre ladite première image inteφolée améliorée et ladite image exacte correspondante.
13. Procédé de construction selon la revendication 12, caractérisé en ce que, ladite erreur étant supérieure à un seuil prédéterminé pour au moins une région de ladite image d'erreur, il met en œuvre une étape de détermination d'informations colorimétriques et/ou photométriques associées à chacune desdites régions, de manière à générer une deuxième image inteφolée améliorée.
14. Procédé de construction selon la revendication 13, caractérisé en ce que ladite étape de détermination met en œuvre, d'une part, un modèle de codage par éléments finis, et d'autre part, un modèle de codage alternatif.
15. Procédé de construction selon l'une quelconque des revendications 13 et 14, caractérisé en ce que ladite étape de détermination est mise en œuvre à partir de ladite image d'erreur ou de ladite image exacte correspondante, en fonction d'un critère de coût prédéterminé.
16. Procédé de construction selon l'une quelconque des revendications 2 à 15, caractérisé en ce que ledit maillage est de taille supérieure à ladite image qu'il représente.
17. Procédé de codage d'une séquence animée, du type mettant en œuvre une étape d'interpolation d'au moins une image interpolée entre une image précédente et une image suivante, caractérisé en ce que ladite étape d'interpolation comprend une sous-étape d'estimation de mouvement tenant compte d'informations relatives à la présence d'au moins une zone d'occlusion dans ladite image précédente et/ou dans ladite image suivante, dites informations d'occlusion.
18. Procédé de décodage d'une séquence animée, du type mettant en œuvre une étape d'interpolation d'au moins une image interpolée entre une image précédente et une image suivante, caractérisé en ce que ladite étape d'interpolation comprend une sous-étape d'estimation de mouvement tenant compte d'informations relatives à la présence d'au moins une zone d'occlusion dans ladite image précédente et/ou dans ladite image suivante, dites informations d'occlusion.
19. Terminal de visualisation d'une séquence animée d'images du type comprenant des moyens d'inteφolation d'au moins une image inteφolée entre une image précédente et une image suivante, caractérisé en ce que lesdits moyens d'interpolation comprennent des moyens d'estimation de mouvement tenant compte de la présence d'au moins une zone d'occlusion dans ladite image précédente et/ou dans ladite image suivante.
20. Signal vidéo comprenant des informations permettant de reconstruire au moins une image interpolée entre une image précédente et une image suivante d'une séquence animée d'images, caractérisé en ce que lesdites informations tiennent compte de la présence d'au moins une zone d'occlusion dans ladite image précédente et/ou dans ladite image suivante.
21. Maillage comprenant des informations permettant de reconstruire au moins une image interpolée entre une image précédente et une image suivante d'une séquence animée d'images enregistré sur un support utilisable dans un ordinateur, caractérisé en ce que lesdites informations tiennent compte de la présence d'au moins une zone d'occlusion dans ladite image précédente et/ou dans ladite image suivante.
PCT/FR2001/002570 2000-08-24 2001-08-07 Procede de calcul d'au moins une image interpolee entre deux images d'une sequence video WO2002017645A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002522207A JP4922536B2 (ja) 2000-08-24 2001-08-07 ビデオ・シーケンスの2つのイメージの間に補間される少なくとも一つのイメージを計算するための方法
US10/362,046 US7342963B2 (en) 2000-08-24 2001-08-07 Method for calculating an image interpolated between two images of a video sequence
EP01963072A EP1312221A1 (fr) 2000-08-24 2001-08-07 Procede de calcul d'au moins une image interpolee entre deux images d'une sequence video

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0010917A FR2813485B1 (fr) 2000-08-24 2000-08-24 Procede de construction d'au moins une image interpolee entre deux images d'une sequence animee, procedes de codage et de decodage, signal et support de donnees correspondant
FR00/10917 2000-08-24

Publications (1)

Publication Number Publication Date
WO2002017645A1 true WO2002017645A1 (fr) 2002-02-28

Family

ID=8853719

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2001/002570 WO2002017645A1 (fr) 2000-08-24 2001-08-07 Procede de calcul d'au moins une image interpolee entre deux images d'une sequence video

Country Status (5)

Country Link
US (1) US7342963B2 (fr)
EP (1) EP1312221A1 (fr)
JP (1) JP4922536B2 (fr)
FR (1) FR2813485B1 (fr)
WO (1) WO2002017645A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10776688B2 (en) 2017-11-06 2020-09-15 Nvidia Corporation Multi-frame video interpolation using optical flow

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2811791B1 (fr) * 2000-07-13 2002-11-22 France Telecom Estimateur de mouvement pour le codage et le decodage de sequences d'images
FR2820255A1 (fr) * 2001-01-26 2002-08-02 France Telecom Procedes de codage et de decodage d'images, dispositifs, systemes, signaux et applications correspondants
KR20040068970A (ko) * 2001-12-20 2004-08-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 디지털 이미지 처리 시스템들에서 움직임 벡터들의 조정
US7095786B1 (en) * 2003-01-11 2006-08-22 Neo Magic Corp. Object tracking using adaptive block-size matching along object boundary and frame-skipping when object motion is low
US8264544B1 (en) * 2006-11-03 2012-09-11 Keystream Corporation Automated content insertion into video scene
US20090174812A1 (en) * 2007-07-06 2009-07-09 Texas Instruments Incorporated Motion-compressed temporal interpolation
US8405770B2 (en) 2009-03-12 2013-03-26 Intellectual Ventures Fund 83 Llc Display of video with motion
US8724022B2 (en) * 2009-11-09 2014-05-13 Intel Corporation Frame rate conversion using motion estimation and compensation
EP2384001A1 (fr) * 2010-04-29 2011-11-02 Alcatel Lucent Fourniture d'applications vidéo codées dans un environnement de réseau
JP5661359B2 (ja) 2010-07-16 2015-01-28 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
KR101908388B1 (ko) 2012-07-19 2018-10-17 삼성전자 주식회사 폐색 영역 복원 장치, 폐색 영역을 복원하는 비디오 디코딩 장치 및 폐색 영역 복원 방법
US11665365B2 (en) * 2018-09-14 2023-05-30 Google Llc Motion prediction coding with coframe motion vectors
CN113067959B (zh) * 2021-03-16 2022-05-03 合肥合芯微电子科技有限公司 影像插补方法、装置和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4383272A (en) * 1981-04-13 1983-05-10 Bell Telephone Laboratories, Incorporated Video signal interpolation using motion estimation
GB2279531A (en) * 1993-06-24 1995-01-04 Sony Uk Ltd Motion compensated image interpolation
EP0753970A2 (fr) * 1995-07-14 1997-01-15 Sharp Kabushiki Kaisha Appareil de codage et décodage vidéo hiérarchique
EP0883300A2 (fr) * 1997-06-05 1998-12-09 General Instrument Corporation Codage temporel et spatial à échelle variable de plaines d'objet de vidéo

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69033797T2 (de) * 1989-10-14 2002-04-18 Sony Corp Verfahren und Anordnung zum Kodieren/Dekodieren eines Videosignales
JP3200196B2 (ja) * 1992-10-15 2001-08-20 株式会社リコー 動きベクトル検出方法
US6252974B1 (en) * 1995-03-22 2001-06-26 Idt International Digital Technologies Deutschland Gmbh Method and apparatus for depth modelling and providing depth information of moving objects
JPH09214899A (ja) * 1996-01-31 1997-08-15 Nippon Hoso Kyokai <Nhk> 画像予測処理方法および装置
US6037988A (en) * 1996-03-22 2000-03-14 Microsoft Corp Method for generating sprites for object-based coding sytems using masks and rounding average
AU4424899A (en) * 1998-06-08 1999-12-30 Microsoft Corporation Compression of time-dependent geometry
FR2784211B1 (fr) * 1998-10-02 2000-12-15 France Telecom Procede de codage d'images fixes ou animees avec reduction et adaptation du debit

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4383272A (en) * 1981-04-13 1983-05-10 Bell Telephone Laboratories, Incorporated Video signal interpolation using motion estimation
GB2279531A (en) * 1993-06-24 1995-01-04 Sony Uk Ltd Motion compensated image interpolation
EP0753970A2 (fr) * 1995-07-14 1997-01-15 Sharp Kabushiki Kaisha Appareil de codage et décodage vidéo hiérarchique
EP0883300A2 (fr) * 1997-06-05 1998-12-09 General Instrument Corporation Codage temporel et spatial à échelle variable de plaines d'objet de vidéo

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHU C ET AL: "Hybrid object-based/block-based coding in video compression at very low bit-rate", SIGNAL PROCESSING. IMAGE COMMUNICATION,ELSEVIER SCIENCE PUBLISHERS, AMSTERDAM,NL, vol. 10, no. 1-3, 1 July 1997 (1997-07-01), pages 159 - 171, XP004082706, ISSN: 0923-5965 *
DUDON M ET AL: "Triangular active mesh for motion estimation", SIGNAL PROCESSING. IMAGE COMMUNICATION,NL,ELSEVIER SCIENCE PUBLISHERS, AMSTERDAM, vol. 10, no. 1-3, 1 July 1997 (1997-07-01), pages 21 - 41, XP004082700, ISSN: 0923-5965 *
LECHAT P ET AL: "SCALABLE IMAGE CODING WITH FINE GRANULARITY BASED ON HIERARCHICAL MESH", PROCEEDINGS OF THE SPIE, January 1999 (1999-01-01), XP000862993 *
See also references of EP1312221A1 *
TZOVARAS D ET AL: "Coding for the storage and communication of visualisations of 3D medical data", SIGNAL PROCESSING. IMAGE COMMUNICATION,NL,ELSEVIER SCIENCE PUBLISHERS, AMSTERDAM, vol. 13, no. 1, 1 July 1998 (1998-07-01), pages 65 - 87, XP004123810, ISSN: 0923-5965 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10776688B2 (en) 2017-11-06 2020-09-15 Nvidia Corporation Multi-frame video interpolation using optical flow

Also Published As

Publication number Publication date
US7342963B2 (en) 2008-03-11
JP2004507943A (ja) 2004-03-11
FR2813485B1 (fr) 2003-12-26
FR2813485A1 (fr) 2002-03-01
US20040037471A1 (en) 2004-02-26
JP4922536B2 (ja) 2012-04-25
EP1312221A1 (fr) 2003-05-21

Similar Documents

Publication Publication Date Title
EP1604529B1 (fr) PROCEDES ET DISPOSITIFS DE CODAGE ET DE DECODAGE D&amp;rsquo;UNE SEQUENCE D&amp;rsquo;IMAGES PAR DECOMPOSITION MOUVEMENT/TEXTURE ET CODAGE PAR ONDELETTES
EP1299859A1 (fr) Estimateur de mouvement pour le codage et le decodage de sequences d&#39;images
EP0675652B1 (fr) Procédé et circuit d&#39;estimation de mouvement entre images à deux trames entrelacées, et dispositif de codage de signaux numériques comprenant un tel circuit
WO2002017645A1 (fr) Procede de calcul d&#39;au moins une image interpolee entre deux images d&#39;une sequence video
Jeong et al. Motion-compensated frame interpolation based on multihypothesis motion estimation and texture optimization
US20120147263A1 (en) Method and apparatus for motion-compensated interpolation (mci) with conservative motion model
FR2648254A2 (fr) Procede et dispositif d&#39;estimation de mouvement dans une sequence d&#39;images animees
EP1354482A1 (fr) Procede de codage et de decodage d&#39;images, dispositifs, et applications correspondants
EP0568694B1 (fr) Procede d&#39;estimation et de codage hierarchise du mouvement de sequences d&#39;images
EP0347325B1 (fr) Procédé et installation de diffusion de programmes de télévision haute définition compatible
EP1413140B1 (fr) Procede d&#39;estimation de mouvement entre deux images avec gestion des retournements de mailles et procede de codage correspondant
EP1790169A1 (fr) Procede d&#39;estimation de mouvement a l&#39;aide de maillages deformables
EP1591962B1 (fr) Procédé et dispositif de génération de vecteurs candidats pour les systèmes d&#39;interpolation d&#39;images par estimation et compensation de mouvement
FR2891686A1 (fr) Procede et dispositif de detection de transitions dans une sequence video, procede et dispositif de codage, produits programme d&#39;ordinateur et moyens de stockage correspondants.
EP0722251B1 (fr) Procédé d&#39;interpolation d&#39;images
FR2825855A1 (fr) Procedes et dispositifs de codage et de decodage d&#39;images mettant en oeuvre des maillages emboites, programme, signal et application correspondantes
FR2742901A1 (fr) Procede de correction d&#39;estimation de mouvement dans des images a structures periodiques
EP2374278B1 (fr) Codage video base sur la compensation de mouvement global
EP1574068B1 (fr) Procede de codage d&#39;une image par ondelettes et procede de decodage correspondant
EP1241894A1 (fr) Procédé de codage d&#39;images numériques basé sur la dissimulation d&#39;erreurs
WO2005071972A1 (fr) Procede de codage d&#39;une sequence d&#39;images
EP1110409B1 (fr) Procede d&#39;estimation du mouvement entre deux images
EP0771115A1 (fr) Procédé et dispositif d&#39;estimation de mouvement de régions entre images et système de codage d&#39;images segmentées pour leur mise en oeuvre
FR2820256A1 (fr) Procedes de codage et de decodage d&#39;images, dispositifs, systemes signaux et applications correspondantes
FR3124301A1 (fr) Procédé de construction d’une image de profondeur d’une vidéo multi-vues, procédé de décodage d’un flux de données représentatif d’une vidéo multi-vues, procédé de codage, dispositifs, système, équipement terminal, signal et programmes d’ordinateur correspondants.

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
REEP Request for entry into the european phase

Ref document number: 2001963072

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2001963072

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2002522207

Country of ref document: JP

WWP Wipo information: published in national office

Ref document number: 2001963072

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10362046

Country of ref document: US