WO2012072664A1 - Methode de determination des mouvements d'un objet a partir d'un flux d'images - Google Patents

Methode de determination des mouvements d'un objet a partir d'un flux d'images Download PDF

Info

Publication number
WO2012072664A1
WO2012072664A1 PCT/EP2011/071348 EP2011071348W WO2012072664A1 WO 2012072664 A1 WO2012072664 A1 WO 2012072664A1 EP 2011071348 W EP2011071348 W EP 2011071348W WO 2012072664 A1 WO2012072664 A1 WO 2012072664A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing
stream
images
auxiliary
Prior art date
Application number
PCT/EP2011/071348
Other languages
English (en)
Inventor
José Alonso YBANEZ ZEPEDA
Original Assignee
Ayotle
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ayotle filed Critical Ayotle
Priority to US13/991,368 priority Critical patent/US9092874B2/en
Priority to EP11802866.1A priority patent/EP2646981A1/fr
Publication of WO2012072664A1 publication Critical patent/WO2012072664A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Definitions

  • the present invention relates to the field of image processing. More specifically, the invention relates to the determination of the movements of an object in a stream of images.
  • the determination of the movements of an object in a stream of images, and more particularly of an object animated as a face, has particular applications in the animation of avatars for the production of, for example, video games and cinematographic films. .
  • One of the main technical stakes in such applications is obtaining a level of realism sufficient not to cause, for example, the discomfort of the spectators or the users during the transposition of real face movements into face movements of virtual characters. .
  • the present invention aims to provide a method for determining the movements of an object, and more particularly a face in a stream of images without using markers and able to work in real time.
  • the invention proposes a method for determining the movements of an object and more particularly of a face contained in a stream of images.
  • the method includes a step of recording an image of the image stream in a buffer memory and a step of processing the image by a processing unit.
  • the processing includes determining a change in the position and / or deformation of the object with respect to an image preceding the image in the image stream.
  • the image processing step is performed simultaneously with a step of recording an image succeeding said image in the image stream.
  • the proposed method notably allows an improvement of the performances and in particular of the speed of treatment by the paralleling of the operations registration and processing.
  • the method also makes it possible to take full advantage of the multi-core processors' capabilities and thus to obtain the animation of virtual objects or characters in real time.
  • the method further comprises a step of transmitting to a control unit information relating to the recording of the image in the buffer memory, a step of transmission by the control unit of a processing start instruction to the processing unit and a step of transmitting to the control unit information relating to the end of the processing of the image by the processing unit.
  • the processing is performed after the processing unit receives the processing instruction.
  • the processing instruction is transmitted after the control unit has received the information relating to the end of the processing of the image preceding said image in the stream and the information relating to the recording of said image.
  • the auxiliary processing may include, for example, contrast equalization and / or correction of image aberrations to compensate for imperfections due for example to image acquisition in non-uniform illumination. It can also include the detection of characteristic points, the conversion of color images into grayscale, the binarization of the image, filtering, etc.
  • the auxiliary processing start instruction includes a reactivation instruction if the auxiliary processing unit is in sleep mode.
  • the image stream is from a video camera or a data storage unit.
  • the method further comprises constructing a result image based on changing the position and / or deformation of the determined object in said image and displaying the image. the result image.
  • the invention proposes a computer program product adapted to implement the method previously described.
  • the system comprises a computer with a memory and a central processing unit, said central unit comprising a plurality of calculation units for implementing the method.
  • Figure 1 illustrates a system for implementing the invention in one embodiment.
  • FIG. 2 represents a block diagram of the steps implemented according to an alternative embodiment of the method according to the invention.
  • Figure 1 generally illustrates a system for implementing the invention according to one embodiment.
  • the system comprises a computer 1, a video camera 2, a first computer data storage unit 3 (for example an external hard disk drive or a USB key), a display unit 4 and a second display unit. storage of computer data 5 (for example a hard disk burner).
  • the computer 1 generally comprises a central computer data processing unit, a hard disk and a memory card (not shown).
  • a stream of raw images from the video camera 2 and / or the first computer data storage device 3 is processed by the central processing unit and a result image stream, obtained on the basis of the processing of the data stream.
  • raw images can be displayed on the display unit 4 and / or stored on the second storage unit 5.
  • the raw image stream can also come from a stream retrieved from a server by a computer network, Internet network or local network. It is the same with the flow of images results.
  • the images of the flow of raw images contain a face whose movements are sought to be determined in a three - dimensional space.
  • FIG. 2 illustrates, according to an exemplary embodiment, a block diagram of the processing of the flow of raw images by the central computer data processing unit.
  • the central processing unit is a multi-core processor comprising a set of calculation units engraved on the same chip to which a number of functions have been assigned (UL, UC, UTA, UT).
  • each calculation unit can be etched on an independent electronic card.
  • a control unit 11 allows the synchronization of the other calculation units.
  • the control unit 11 coordinates the operation of a reading unit 12, a processing unit 13 for the main processing of the images and an auxiliary processing unit 14.
  • the reading unit 12 proceeds to read and record the raw images acquired by the video camera 2 on an input buffer memory 22.
  • the raw image stream coming from the camera 2 forms a video sequence of successive images.
  • the reading unit 12 informs the control unit 11 of the recording of each new image by the transmission of information I A i to the control unit 11. This allows the control unit 11 to control the reactivation of the treatment unit
  • the auxiliary processing unit 14 can go into a standby mode by default. to allow other programs to access the computing capabilities of the central processing unit.
  • the auxiliary processing unit 14 processes the flow of raw images in parallel with the recording of the raw images in the input buffer memory 22.
  • the control unit 11 controls the auxiliary processing unit 14 by the transmission of the raw images.
  • the instruction I A2 is transmitted after the reception by the control unit 11 of the information I A i relating to the recording of the raw image.
  • the auxiliary processing unit 14 informs the control unit 11 of the end of the auxiliary processing of the raw image by sending information I A3 relating to the end of the auxiliary processing.
  • the processing of the raw images is successive and the processing of an image is performed after the control unit 11 has received the information relating to the end of the auxiliary processing of the raw image directly preceding said raw image in the stream.
  • auxiliary processing unit may be to improve the quality of the raw images before main processing by the processing unit 13.
  • the auxiliary processing unit 14 can equalize the contrast of the raw images and / or eliminate aberrations due to the camera.
  • the auxiliary processing may also include the calculation of the histogram of an image, the detection of characteristic points, the conversion of color images into grayscale, binarization, a filtering step or any other conventional step in image processing.
  • the auxiliary treatment can be used to sequence the processing steps so that each processing step is not longer than the recording step.
  • the sequence of images of the output image stream of the auxiliary processing unit 14 (also called image flow in the request) thus corresponds to the sequence of images of the raw image stream.
  • the auxiliary processing unit 14 records the image of the image stream thus processed on a buffer memory 24 and transmits information Ii relating to the recording to the control unit 11 which will be able to send the instruction I2 for starting treatment at the main processing unit 13 as soon as the processing unit 13 becomes available.
  • the main processing 13 includes determining a change in the position and / or deformation of an object with respect to an image directly preceding said image in the image stream. This may be for example the determination of the position and / or the modification of the expression of a face.
  • a three-dimensional geometric model (also called mask in the present application) may be superimposed on a reference image containing the object, for example a face, which one seeks to follow the movements and a learning step is implemented.
  • the learning step consists of developing a correspondence matrix that associates disturbances of the position and / or the expression of the mask with variations of texture between the portion of the reference image located under the mask in the mask. superimposed state on the face and the portion of the reference image located under the mask in the disturbed state.
  • the overlay on the reference image can be performed manually by a user.
  • the superimposition on the face can include a parameterization which makes it possible to adapt the three-dimensional mask to the morphology of the face of which one try to follow the movements.
  • the three-dimensional polygonal mask can provide in particular that the vertical position of the eyebrows, the nose, the mouth, the distance between the eyes are set for the face that one seeks to follow.
  • the treatment is subsequently performed by recurrence, from an image on which the mask is superimposed on the face and by estimating the modification of position and / or expression with respect to the previous image on the basis of the matrix. correspondence.
  • the processing unit 13 processes an image stored in the buffer memory on receipt of processing start information I2 from the control unit 12. After the processing, the processing unit 13 informs the control unit 12 by the transmission of information I3 relating to the end of the treatment.
  • the processing unit 13 processes the stream of images in parallel with the recording of the raw images and the auxiliary processing.
  • the processing unit 13 can also construct and display on the display unit 4 a result image comprising for example a superposition of the processed image and the mask whose position and expression is modified according to the position and the expression determined by the treatment.
  • the result image may also be stored on the second computer data storage unit 5.
  • FIGS. 3A to 3C illustrate time diagrams of the recording steps E1, auxiliary processing E2 and processing E3 for consecutive images of the raw image stream, according to three examples.
  • Step E1 (symbolized by a grid fill) comprises the acquisition of raw images by the camera 2 and the recording of the raw images on the input buffer memory 22.
  • the step E2 (symbolized by a hatched fill) includes the auxiliary processing of the raw images and the recording on the buffer memory 24.
  • the step E3 (symbolized by a full fill) includes the main processing of the images.
  • the steps E1-E3 are implemented in parallel, that is to say synchronously.
  • the main processing E1 of an image is consecutive to the auxiliary processing E2 of the corresponding raw image and is implemented after the image preceding said image has been processed.
  • the auxiliary processing of a raw image is consecutive to the recording of said raw image on the input buffer.
  • the auxiliary processing step E2 is shorter than the recording step E1 but the main processing step E3 is longer than the recording step E1.
  • the parallel processing makes it possible to end 12 units of time earlier than a sequential processing the processing of the third image, this configuration is less favorable than that of the examples 3A and 3B and one could divide the main processing into a second auxiliary treatment and a new main treatment, such that each processing step is shorter than the recording step.
  • FIGS. 4A and 4B illustrate two images of the image flow containing a face 6 and FIGS. 4B and 4D illustrate two result images respectively constructed on the basis of the determination of the position and the expression of the face 6 in the images. 4A-B.
  • a mask 7 is superimposed on the face 6.
  • the mask 7 reproduces the expression of the face 6.
  • the mask 7 can be the three-dimensional mask used to determine the modification of the position and the expression of the face 6 according to the method described above.
  • determining the position and expression of the face of a real character can animate a mask of a virtual character.
  • Such a mask can be obtained by a deformation of the three-dimensional mask used to determine the modification of the position and expression of the face of the real character.
  • a result image can be constructed by displaying the virtual character mask in the position and expression determined for the actual character. In real time, we obtain a realistic animation of the virtual character.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Selon un aspect, l'invention concerne un système pour la détermination des mouvements d'un objet à partir d'un flux d'images dudit objet. Le système comprend notamment un ordinateur avec une mémoire et une unité centrale de traitement, ladite unité centrale de traitement comprenant: - une unité de lecture (12) pour l'enregistrement de chaque image du flux d'images dans une mémoire tampon d'entrée (22); - une unité de traitement (13) permettant pour chaque image la détermination d'une modification de la position et/ou de la déformation dudit par rapport à l'image précédant directement ladite image dans le flux; - les unités de lecture et de traitement étant synchronisées de telle sorte que le traitement de chacune desdites images du flux d'images soit effectué simultanément à la lecture d'une image succédant ladite image dans le flux d'images et son enregistrement dans la mémoire tampon d'entrée (22).

Description

METHODE DE DETERMINATION DES MOUVEMENTS D'UN OBJET A PARTIR D'UN FLUX D'IMAGES
DOMAINE DE L'INVENTION
La présente invention concerne le domaine du traitement des images. Plus précisément, l'invention se rapporte à la détermination des mouvements d'un objet dans un flux d'images.
ETAT DE L'ART
La détermination des mouvements d'un objet dans un flux d'images, et plus particulièrement d'un objet animé comme un visage, a notamment des applications dans l'animation d'avatars pour la réalisation par exemple de jeux vidéo et de films cinématographiques.
Un des enjeux techniques principaux dans de telles applications est l'obtention d'un niveau de réalisme suffisant pour ne pas provoquer par exemple 1' inconfort des spectateurs ou des utilisateurs lors de la transposition des mouvements de visages réels en mouvements de visages de personnages virtuels.
Les méthodes actuelles sont basées sur des techniques d'animations manuelles qui consistent à réaliser la transposition par des dessinateurs professionnels. On connaît aussi des dispositifs de capture de mouvements qui utilisent un traitement d'images vidéo mais qui nécessitent de placer précisément des marqueurs par exemple sur le visage de la personne dont on cherche à déterminer les mouvements. De tels dispositifs sont mis dans le commerce par exemple par la marque Vicon®. L'opération de placement des marqueurs sur le visage est une opération longue et critique pour la suite du traitement et on cherche à s'affranchir de cette opération. Récemment, une méthode de suivi des mouvements de visage sans marqueurs a été proposée dans « Face tracking using canonical correction analysis. In International Conférence on Computer Vision Theory and Applications , pages 396-402, Barcelone, Espagne, Mars 2007». Cependant, la méthode publiée ne permet pas d'obtenir une vitesse de traitement satisfaisante pour une utilisation professionnelle.
La présente invention vise à fournir une méthode de détermination des mouvements d'un objet, et plus particulièrement d'un visage dans un flux d'images sans utiliser de marqueurs et apte à travailler en temps réel.
RESUME DE L'INVEN ION
A cet effet, l'invention propose selon un premier aspect une méthode de détermination des mouvements d'un objet et plus particulièrement d'un visage contenu dans un flux d'images. La méthode comprend une étape d'enregistrement d'une image du flux d'images dans une mémoire tampon et une étape de traitement de l'image par une unité de traitement. Le traitement comprend la détermination d'une modification de la position et/ou de la déformation de l'objet par rapport à une image précédant l'image dans le flux d'images. L'étape de traitement de l'image est effectuée simultanément à une étape d'enregistrement d'une image succédant ladite image dans le flux d'images.
La méthode proposée permet notamment une amélioration des performances et notamment de la rapidité de traitement par la mise en parallèle des opérations d'enregistrement et de traitement. La méthode permet également de profiter pleinement des capacités des processeurs multi-c urs et ainsi d'obtenir l'animation d'objets ou de personnages virtuels en temps réel.
Dans un mode de réalisation, la méthode comprend en outre une étape de transmission à une unité de contrôle d'une information relative à l'enregistrement de l'image dans la mémoire tampon, une étape de transmission par l'unité de contrôle d'une instruction de début de traitement à l'unité de traitement et une étape de transmission à l'unité de contrôle d'une information relative à la fin du traitement de l'image par l'unité de traitement. Le traitement est mis en œuvre après la réception par l'unité de traitement de l'instruction de traitement. L'instruction de traitement est transmise après que l'unité de contrôle a reçu l'information relative à la fin du traitement de l'image précédant ladite image dans le flux et l'information relative à l'enregistrement de ladite image.
Ceci permet une meilleure synchronisation du traitement au moyen de l'unité de contrôle. La transmission d' informations relative à la fin du traitement à l'unité de contrôle permet notamment d'éviter de transmettre des instructions à l'unité de traitement alors que cette dernière ne peut réagir car elle est occupée à effectuer le traitement d'une image. Ainsi, la supervision de l'unité de traitement par une unité de contrôle permet une amélioration des performances. De plus, la méthode permet l'ajout potentiel d'une ou plusieurs unités de traitements auxiliaires sans modifier le fonctionnement de l'unité de traitement. L'exécution modulaire facilite l'extensibilité. L'unité de contrôle fonctionne comme une interface et une unité auxiliaire apte à collaborer avec l'unité de contrôle peut être ajoutée sans modification des interactions entre les autres éléments.
Dans un mode de réalisation, la méthode comprend en outre une étape de traitement auxiliaire préalable au traitement (principal) de l'image.
Ceci permet d'améliorer la qualité des images et de faciliter le traitement ultérieur des images en sortie du traitement auxiliaire.
Dans un mode de réalisation, la méthode comprend une étape d'enregistrement d'une image du flux d'images dans une mémoire tampon d'entrée par une unité de lecture et une étape de traitement auxiliaire de l'image par l'unité de traitement auxiliaire. L'étape de traitement auxiliaire de l'image est effectuée simultanément à l'étape d'enregistrement d'une image succédant ladite image dans le flux d'images.
Ceci permet notamment une amélioration des performances par la mise en parallèle des opérations d'enregistrement et de traitement auxiliaire.
Dans un mode de réalisation, la méthode comprend en outre une étape de transmission par l'unité de lecture à l'unité de contrôle d'une information relative à l'enregistrement de l'image dans la mémoire tampon d'entrée et une étape de transmission par l'unité de contrôle d'une instruction de début de traitement auxiliaire à l'unité de traitement auxiliaire. Le traitement auxiliaire est mis en œuvre après la réception par l'unité de traitement auxiliaire de l'instruction de début de traitement auxiliaire, ladite instruction étant transmise après que l'unité de contrôle a reçu l'information relative à l'enregistrement de ladite image . Ceci permet une meilleure synchronisation par l'unité de contrôle. Ceci soumet en outre le fonctionnement de l'unité de traitement auxiliaire au seul contrôle de l'unité de contrôle et permet de développer l'unité de traitement auxiliaire indépendamment de l'unité de traitement. Ceci permet également d'éviter de transmettre des instructions à l'unité de traitement auxiliaire alors que cette dernière ne peut réagir car elle est occupée à effectuer un traitement auxiliaire. Ainsi, la gestion des performances est améliorée.
Dans un mode de réalisation, la méthode comprend en outre une étape de transmission à l'unité de contrôle d'une information relative à la fin du traitement auxiliaire de l'image par l'unité de traitement auxiliaire. L'étape de transmission de l'instruction est mise en œuvre après que l'unité de contrôle a reçu l'information relative à la fin du traitement auxiliaire de l'image précédant ladite image dans le flux.
Ceci permet de procéder au traitement d'une image selon le résultat du traitement auxiliaire d'une image précédant ladite image dans le flux.
Le traitement auxiliaire peut comprendre par exemple une égalisation du contraste et/ou une correction d' aberrations des images pour compenser des imperfections dues par exemple à une acquisition des images dans un éclairage non uniforme. Il peut comprendre également la détection de points caractéristiques, la conversion d'images couleur en niveaux de gris, la binarisation de l'image, un filtrage, etc.
Lorsqu'une pluralité de mémoires tampons d'entrée sont à disposition pour l'enregistrement des images, la méthode peur comprendre en outre une étape d'allocation de la mémoire tampon d'entrée par l'unité de contrôle. L'instruction de début de traitement auxiliaire comprend une information relative à la mémoire tampon allouée.
Ceci permet de mettre en œuvre le traitement à partir de plusieurs sources vidéo.
Dans un mode de réalisation, l'instruction de début de traitement comprend une instruction de réactivation si l'unité de traitement est en veille.
Dans un mode de réalisation, l'instruction de début de traitement auxiliaire comprend une instruction de réactivation si l'unité de traitement auxiliaire est en veille.
Ceci permet de stimuler l'unité de traitement et/ou l'unité de traitement auxiliaire afin qu'elle soit disponible pour traiter une image. La mise en veille de l'unité de traitement et/ou l'unité de traitement auxiliaire peut être due à une différence de vitesse entre l'enregistrement des images dans la mémoire tampon et le traitement des images. Par exemple, si les images proviennent d'une caméra haute définition, l'enregistrement des images peut être une étape plus longue que le traitement et/ou le traitement auxiliaire et l'unité de traitement correspondante peut se mettre en veille entre le traitement de deux images successives.
Dans un mode de réalisation, le flux d' images provient d'une caméra vidéo ou d'une unité de stockage de données .
Dans un mode de réalisation la méthode comprend en outre la construction d'une image résultat sur la base de la modification de la position et/ou de la déformation de l'objet déterminée dans ladite image et l'affichage de l'image résultat.
Dans le cas de la détermination des mouvements d'un visage, ceci permet par exemple d'utiliser la détermination de la modification de position et/ou d'expression du visage dans le flux d'images pour construire des images comprenant des personnages virtuels reproduisant les mouvements du visage. La détermination des mouvements du visage peut permettre également d' animer un masque dont la morphologie est adaptée au visage et qui se superpose sur le visage dans l'image. Ceci permet par exemple de produire une image comprenant un masque qui reproduit les mouvements du visage contenu dans le flux d'images. Par exemple, l'image résultat peut aussi superposer un tel masque et le dit visage.
L'invention propose selon un deuxième aspect un produit programme d' ordinateur adapté pour mettre en œuvre la méthode précédemment décrite.
L' invention propose selon un troisième aspect un système pour la mise en œuvre de la méthode selon le premier aspect.
Selon une variante, le système comprend un ordinateur avec une mémoire et une unité centrale de traitement, ladite unité centrale comprenant une pluralité d'unités de calculs pour la mise en œuvre de la méthode.
Par exemple l'unité centrale est un processeur multi-cœur .
BREVE DESCRIPTION DES FIGURES
D' autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description qui suit, illustrée par les figures sur lesquelles : La figure 1 illustre un système pour la mise en œuvre de l'invention dans un mode de réalisation.
La figure 2 représente un synoptique des étapes mises en œuvre selon une variante de réalisation de la méthode selon l'invention.
Les figures 3A à 3C représentent des diagrammes temporels illustrant la synchronisation d'étapes de la méthode selon différents modes de réalisation.
Les figures 4A-4D illustrent deux images d'un visage et deux images résultats construites sur la base de la position et de l'expression du visage déterminées dans lesdites images du visage.
DESCRIPTION DETAILLEE
La figure 1 illustre généralement un système pour la mise en œuvre de l'invention selon un mode de réalisation. Le système comprend selon cet exemple un ordinateur 1, une caméra vidéo 2, une première unité de stockage de données informatiques 3 (par exemple un lecteur de disque dur externe ou une clé USB) , une unité d'affichage 4 et une deuxième unité de stockage de données informatiques 5 (par exemple un graveur de disque dur) . L'ordinateur 1 comprend généralement une unité centrale de traitement de données informatiques, un disque dur et une carte mémoire (non représentés) .
Un flux d' images brutes provenant de la caméra vidéo 2 et/ou du premier dispositif de stockage de données informatiques 3 est traité par l'unité centrale de traitement et un flux d'images résultats, obtenu sur la base du traitement du flux d'images brutes, peut être affichée sur l'unité d'affichage 4 et/ou stocké sur la deuxième unité de stockage 5. Le flux d'images brutes peut également provenir d'un flux récupéré sur un serveur par un réseau informatique, réseau Internet ou réseau local. Il en est de même du flux d'images résultats. Les images du flux d' images brutes contiennent un visage dont on cherche à déterminer les mouvements dans un espace tridimensionnel .
La figure 2 illustre selon un exemple de réalisation un synoptique du traitement du flux d' images brutes par l'unité centrale de traitement de données informatiques. Avantageusement, l'unité centrale de traitement est un processeur multi-c ur comprenant un ensemble d'unités de calcul gravées sur la même puce auxquelles on a assigné un certain nombre de fonctions (UL, UC, UTA, UT) . Selon une variante, chaque unité de calcul peut être gravée sur une carte électronique indépendante .
Parmi les unités de calcul, une unité de contrôle 11 permet la synchronisation des autres unités de calcul. Dans l'exemple de la figure 2, l'unité de contrôle 11 coordonne le fonctionnement d'une unité de lecture 12, d'une unité de traitement 13 pour le traitement principal des images et d'une unité de traitement auxiliaire 14.
Dans l'exemple de la figure 2, l'unité de lecture 12 procède à la lecture et à l'enregistrement des images brutes acquises par la caméra vidéo 2 sur une mémoire tampon d'entrée 22. Le flux d'images brutes issu de la caméra 2 forme une séquence vidéo d' images successives. L'unité de lecture 12 informe l'unité de contrôle 11 de l'enregistrement de chaque nouvelle image par la transmission d'une information IAi à l'unité de contrôle 11. Ceci permet notamment à l'unité de contrôle 11 de contrôler la réactivation de l'unité de traitement auxiliaire 14. En effet, lorsque l'enregistrement des images est plus long que le traitement des images, par exemple quand les images proviennent de caméras haute définition, l'unité de traitement auxiliaire 14 peut se mettre par défaut dans un mode de veille afin de permettre à d'autres programmes d'accéder aux capacités de calcul de l'unité centrale de traitement.
L'unité de traitement auxiliaire 14 traite le flux d'images brutes en parallèle de l'enregistrement des images brutes dans la mémoire tampon d'entrée 22. L'unité de contrôle 11 commande l'unité de traitement auxiliaire 14 par la transmission d'une instruction IA2 de début de traitement auxiliaire. L'instruction IA2 est transmise après la réception par l'unité de contrôle 11 de l'information IAi relative à l'enregistrement de l'image brute. L'unité de traitement auxiliaire 14 informe l'unité de contrôle 11 de la fin du traitement auxiliaire de l'image brute par l'envoi d'une information IA3 relative à la fin du traitement auxiliaire. Le traitement des images brutes est successif et le traitement d'une image est effectué après que l'unité de contrôle 11 a reçu l'information relative à la fin du traitement auxiliaire de l'image brute précédant directement ladite image brute dans le flux.
Un des buts de l'unité de traitement auxiliaire peut être d'améliorer la qualité des images brutes avant traitement principal par l'unité de traitement 13. Par exemple, l'unité de traitement auxiliaire 14 peut égaliser le contraste des images brutes et/ou éliminer des aberrations dues à la caméra. Le traitement auxiliaire peut également comprendre la calcul de l'histogramme d'une image, la détection de points caractéristiques, la conversion d'images couleur en niveaux de gris, la binarisation, une étape de filtrage ou tout autre étape classique en traitement d'images. Alternativement, le traitement auxiliaire peut permettre de séquencer les étapes de traitement pour que chaque étape de traitement ne soit pas plus longue que l'étape d' enregistrement .
La séquence des images du flux d' images en sortie de l'unité de traitement auxiliaire 14 (aussi appelé flux d'images dans la demande) correspond ainsi à la séquence des images du flux d'images brutes. Après le traitement, l'unité de traitement auxiliaire 14 enregistre l'image du flux d'images ainsi traitée sur une mémoire tampon 24 et transmet une information Ii relative à l'enregistrement à l'unité de contrôle 11 qui va pouvoir envoyer l'instruction I2 de début de traitement à l'unité de traitement principale 13 dès que l'unité de traitement 13 sera disponible.
Selon une variante, il n'y a pas de traitement auxiliaire et le traitement principal est réalisé directement sur le flux d'images brutes, chaque image étant préalablement lue et enregistrée par l'unité de lecture sur la mémoire tampon d'entrée 22. Dans ce cas, l'unité de contrôle assure la synchronisation de l'unité de lecture 12 et de l'unité de traitement 13. Alternativement, les unités de lecture et de traitement se synchronisent réciproquement sans qu'une unité de contrôle ne soit nécessaire.
Selon une autre variante, il peut y avoir plusieurs unités de traitement auxiliaire, permettant de pré-traiter les images avant le traitement principal. Cela peut permettre par exemple de limiter le temps de traitement de chaque image par chaque unité de traitement à une durée inférieure ou égale au temps de lecture et d'enregistrement d'une image issue du flux d'images brutes et d'assurer ainsi un fonctionnement en temps réel. Dans ce cas, l'unité de contrôle synchronise l'unité de lecture et l'ensemble des unités de traitement auxiliaires et principal pour assurer en parallèle l'enregistrement des images à partir du flux d'images brutes, les traitements auxiliaires et le traitement principal .
Le traitement principal 13 comprend la détermination d'une modification de la position et/ou de la déformation d'un objet par rapport à une image précédant directement ladite image dans le flux d'images. Il peut s'agir par exemple de la détermination de la position et/ou de la modification de l'expression d'un visage.
Dans une phase préalable à la mise en œuvre de la méthode, un modèle géométrique tridimensionnel (aussi appelé masque dans la présente demande) peut-être superposé sur une image de référence contenant l'objet, par exemple un visage, dont on cherche à suivre les mouvements et une étape d'apprentissage est mise en œuvre. L'étape d'apprentissage consiste à élaborer une matrice de correspondances qui associe des perturbations de la position et/ou de l'expression du masque avec des variations de texture entre la portion de l'image de référence située sous le masque dans l'état superposé au visage et la portion de l'image de référence située sous le masque dans l'état perturbé.
Par exemple, la superposition sur l'image de référence peut être effectuée manuellement par un utilisateur. La superposition sur le visage peut comprendre un paramétrage qui permet d' adapter le masque tridimensionnel à la morphologie du visage dont on cherche à suivre les mouvements. Par exemple, le masque polygonal tridimensionnel peut prévoir notamment que la position verticale des sourcils, du nez, de la bouche, la distance entre les yeux soient paramétrés pour le visage qu'on cherche à suivre.
Le traitement est effectué par la suite par récurrence, à partir d'une image sur laquelle le masque est superposé au visage et en estimant la modification de position et/ou d'expression par rapport à l'image précédente sur la base de la matrice de correspondances.
Plus de détails sur des méthodes de traitements pouvant être mises en œuvre sont par exemple donnés dans « Linear tracking of pose and facial features. In 10th IAPR Conférence on Machine Vision Applications , Tokyo, Japon, Mai 2007 ».
L'unité de traitement 13 traite une image enregistrée dans la mémoire tampon à réception d'une information I2 de début de traitement provenant de l'unité de contrôle 12. Après le traitement, l'unité de traitement 13 informe l'unité de contrôle 12 par la transmission d'une information I3 relative à la fin du traitement. L'unité de traitement 13 traite le flux d'images en parallèle de l'enregistrement des images brutes et du traitement auxiliaire.
L'unité de traitement 13 peut également construire et afficher sur l'unité d'affichage 4 une image résultat comprenant par exemple une superposition de l'image traitée et du masque dont la position et l'expression est modifiée selon la position et l'expression déterminée par le traitement. Dans un mode de réalisation, l'image résultat peut également être stockée sur la deuxième unité de stockage de données informatiques 5. Les figures 3A à 3C illustrent des diagrammes temporels des étapes d'enregistrement El, de traitement auxiliaire E2 et de traitement E3 pour des images consécutives du flux d'images brutes, selon trois exemples. L'étape El (symbolisée par un remplissage quadrillé) comprend l'acquisition d'images brutes par la caméra 2 et l'enregistrement des images brutes sur la mémoire tampon d'entrée 22. L'étape E2 (symbolisée par un remplissage hachuré) comprend le traitement auxiliaire des images brutes et l'enregistrement sur la mémoire tampon 24. L'étape E3 (symbolisée par un remplissage plein) comprend le traitement principal des images. Les étapes E1-E3 sont mises en œuvre en parallèle, c'est-à- dire de façon synchrone. Le traitement principal El d'une image est consécutif au traitement auxiliaire E2 de l'image brute correspondante et est mis en œuvre après que l'image précédant ladite image a été traitée. Le traitement auxiliaire d'une image brute est consécutif à l'enregistrement de ladite image brute sur la mémoire tampon d'entrée.
Dans l'exemple de la figure 3A, le temps de traitement cumulé des étapes de traitement E2 et E3 n'est pas plus grand que l'étape d'enregistrement El. En conséquence, le traitement d'une image est fait pendant l'enregistrement de l'image lui succédant directement dans le flux. En comparaison avec un traitement séquentiel classique des étapes E1-E3, dans lequel l'enregistrement d'une image n'est faite qu'après que le traitement de l'image la précédant soit finie, le traitement en parallèle des étapes E1-E3 dans l'exemple de la figure 3A permet de terminer six unités de temps plus tôt le traitement de la troisième image.
Dans l'exemple de la figure 3B, le temps cumulé de traitement des étapes de traitement E2 et E3 est plus long que l'étape d'enregistrement El mais le temps de chacune des étapes E2 et E3 est plus court ou égal. En conséquence, on observe un débordement, le traitement principal E3 d'une image se faisant pendant la fin de l'enregistrement de l'image lui succédant directement dans le flux et le début de l'enregistrement de l'image après celle la succédant directement. Cependant, le traitement continue à se faire en temps réel, et en comparaison avec un traitement séquentiel, le traitement en parallèle dans l'exemple de la figure 3B permet de terminer 13 unités de temps plus tôt le traitement de la troisième image.
Dans l'exemple de la figure 3C, l'étape de traitement auxiliaire E2 est plus courte que l'étape d'enregistrement El mais l'étape de traitement principal E3 est plus longue que l'étape d'enregistrement El. Dans ce cas, on observe un décalage dans le traitement des images par rapport à l'enregistrement, et en conséquence, l'accumulation d'un retard. Bien que même dans cet exemple, le traitement en parallèle permet de terminer 12 unités de temps plus tôt qu'un traitement séquentiel le traitement de la troisième image, cette configuration est moins favorable que celle des exemples 3A et 3B et l'on pourrait diviser le traitement principal en un second traitement auxiliaire et un nouveau traitement principal, de telle sorte que chaque étape de traitement soit plus courte que l'étape d'enregistrement.
Les figures 4A et 4B illustrent deux images du flux d'images contenant un visage 6 et les figures 4B et 4D illustrent deux images résultats respectivement construites sur la base de la détermination de la position et de l'expression du visage 6 dans les images 4A-B . Sur les images 4C et 4D, un masque 7 est superposé sur le visage 6. Le masque 7 reproduit l'expression du visage 6. Le masque 7 peut être le masque tridimensionnel utilisé pour déterminer la modification de la position et de l'expression du visage 6 d'après la méthode décrite précédemment. Dans un autre mode de réalisation, la détermination de la position et de l'expression du visage d'un personnage réel permet d'animer un masque d'un personnage virtuel. Un tel masque peut être obtenu par une déformation du masque tridimensionnel utilisé pour déterminer la modification de la position et de l'expression du visage du personnage réel. Dans un tel mode de réalisation, une image résultat peut être construite en affichant le masque du personnage virtuel dans la position et l'expression déterminée pour le personnage réel. On obtient ainsi en temps réel une animation réaliste du personnage virtuel.
Bien que décrite à travers un certain nombre d'exemples de réalisation, la méthode et le système selon l'invention comprennent différentes variantes, modifications et perfectionnements qui apparaîtront de façon évidente à l'homme de l'art, étant entendu que ces différentes variantes, modifications et perfectionnements font partie de la portée de l'invention telle que définie par les revendications qui suivent.

Claims

REVENDICATIONS
Méthode mise en œuvre par ordinateur de détermination des mouvements d'un objet à partir d'un flux d'images dudit objet, comprenant pour chaque image du flux d' images :
l'enregistrement (El) de ladite image dans une mémoire tampon d'entrée (22),
le traitement (E3) de ladite image par une unité de traitement (13), le traitement comprenant la détermination d'une modification de la position et/ou d'une déformation dudit objet par rapport à une image précédant directement ladite image dans le flux,
la méthode comprenant en outre :
la synchronisation des étapes d'enregistrement et de traitement de telle sorte que le traitement d'une image soit effectué simultanément à l'enregistrement d'une image succédant ladite image dans le flux d' images .
Méthode selon la revendication 1, dans laquelle la synchronisation comprend :
La transmission à une unité de contrôle d'informations relatives à l'enregistrement d'une image dans la mémoire tampon d'entrée et à la fin de traitement d'une image; La transmission par ladite unité de contrôle d' instructions relatives au début de traitement, une instruction de début de traitement (I2) étant transmise pour démarrer le traitement d'une image après réception de l'information (IAI) relative à l'enregistrement de ladite image et réception de l'information (I3) relative à la fin de traitement de l'image précédant directement ladite image dans le flux d' images .
Méthode selon la revendication 2, dans laquelle l'instruction (I2) de début de traitement comprend une instruction de réactivation si l'unité de traitement (13) est en veille.
Méthode selon l'une au moins des revendications précédentes, comprenant en outre une étape de traitement auxiliaire (E2) par une unité de traitement auxiliaire (14), préalable à l'étape de traitement, ladite étape de traitement auxiliaire comprenant pour chaque image du flux d' images :
La lecture de ladite image dans la mémoire tampon d'entrée (22),
Le pré-traitement de ladite image,
L'enregistrement dans une mémoire tampon auxiliaire (24) de ladite image pré-traitée en vue de son traitement (E3);
la méthode comprenant en outre :
la synchronisation (11) par une unité de contrôle des étapes d'enregistrement dans la mémoire tampon d'entrée (22) et de traitement auxiliaire (E2) de telle sorte que le traitement auxiliaire d'une image soit effectué simultanément à l'enregistrement d'une image succédant ladite image dans le flux d'images.
Méthode selon la revendication 4, dans laquelle la synchronisation comprend en outre:
La transmission à ladite unité de contrôle d' informations relatives à la fin de traitement auxiliaire d'une image;
La transmission par ladite unité de contrôle d' instructions relatives au début de traitement auxiliaire, une instruction de début de traitement auxiliaire ( IA2 ) étant transmise pour démarrer le traitement auxiliaire d'une image après réception de l'information ( IAI ) relative à l'enregistrement de ladite image dans la mémoire tampon d' entrée et réception de l'information ( IA3 ) relative à la fin de traitement auxiliaire de l'image précédant directement ladite image dans le flux d' images .
Méthode selon la revendication 5, dans laquelle l'instruction (IA2 ) de début de traitement comprend une instruction de réactivation si l'unité de traitement auxiliaire (14) est en veille.
Méthode selon l'une au moins des revendications 4 à 6, comprenant au moins une seconde étape de traitement auxiliaire par une seconde unité de traitement auxiliaire, ladite seconde étape de traitement auxiliaire comprenant pour chaque image du flux d' images :
la lecture de ladite image dans la mémoire tampon auxiliaire,
le pré-traitement de ladite image, l'enregistrement dans une seconde mémoire tampon auxiliaire de ladite image pré- traitée en vue de son traitement (E3);
la méthode comprenant en outre :
la synchronisation par l'unité de contrôle (11) de l'étape de second traitement auxiliaire de telle sorte que le second traitement auxiliaire d'une image soit effectué simultanément à l'enregistrement dans la mémoire tampon d'entrée d'une image succédant ladite image dans le flux d' images .
8. Méthode selon l'une au moins des revendications précédentes, comprenant en outre la construction d'une image résultat sur la base de la modification de la position et/ou de la déformation de l'objet déterminée dans ladite image et l'affichage de l'image résultat.
9. Méthode selon l'une au moins des revendications précédentes, dans laquelle le flux d'images provient d'une caméra vidéo ou d'une unité de stockage de données.
10. Méthode selon l'une au moins des revendications précédentes, dans laquelle les images comprennent des images d'un visage et le traitement comprend la détermination d'une modification de la position et/ou de l'expression dudit visage.
11. Produit programme d'ordinateur adapté pour mettre en œuvre la méthode selon l'une au moins des revendications précédentes, lorsque le programme est exécuté sur un ordinateur.
12. Système pour la détermination des mouvements d'un objet à partir d'un flux d'images dudit objet comprenant un ordinateur avec une mémoire et une unité centrale de traitement, ladite unité centrale de traitement comprenant:
une unité de lecture (12) pour l'enregistrement de chaque image du flux d' images dans une mémoire tampon d' entrée (22) ;
une unité de traitement (13) permettant pour chaque image la détermination d'une modification de la position et/ou de l'expression du visage par rapport à l'image précédant directement ladite image dans le flux ;
les unités de lecture et de traitement étant synchronisées de telle sorte que le traitement de chacune desdites images du flux d'images soit effectué simultanément à la lecture d'une image succédant ladite image dans le flux d' images et son enregistrement dans la mémoire tampon d' entrée ( 22 ) .
13. Système selon la revendication 12, dans lequel la pluralité d'unités de calcul comprend en outre au moins une unité de contrôle (11) pour assurer la synchronisation desdites unités de lecture et de traitement.
14. Système selon la revendication 13, dans lequel la pluralité d'unités de calcul comprend en outre au moins une unité de traitement auxiliaire (14) permettant pour chaque image du flux d'images : - la lecture de ladite image dans la mémoire tampon d'entrée (22),
Le pré-traitement de ladite image, L'enregistrement dans une mémoire tampon auxiliaire (24) de ladite image pré-traitée en vue de son traitement (E3) .
15. Système selon l'une au moins des revendications 13 ou 14, dans lequel l'unité centrale de traitement est un processeur multi-cœur, chaque unité de calcul étant une unité de calcul dudit processeur.
16. Système selon la revendication 15, comprenant en outre une caméra vidéo (2) ou une unité de stockage de données (3) pour former le flux d' images .
PCT/EP2011/071348 2010-12-03 2011-11-30 Methode de determination des mouvements d'un objet a partir d'un flux d'images WO2012072664A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/991,368 US9092874B2 (en) 2010-12-03 2011-11-30 Method for determining the movements of an object from a stream of images
EP11802866.1A EP2646981A1 (fr) 2010-12-03 2011-11-30 Methode de determination des mouvements d'un objet a partir d'un flux d'images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1060074A FR2968436B1 (fr) 2010-12-03 2010-12-03 Methode de determination des mouvements d'un objet a partir d'un flux d'images
FR1060074 2010-12-03

Publications (1)

Publication Number Publication Date
WO2012072664A1 true WO2012072664A1 (fr) 2012-06-07

Family

ID=44244347

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/071348 WO2012072664A1 (fr) 2010-12-03 2011-11-30 Methode de determination des mouvements d'un objet a partir d'un flux d'images

Country Status (4)

Country Link
US (1) US9092874B2 (fr)
EP (1) EP2646981A1 (fr)
FR (1) FR2968436B1 (fr)
WO (1) WO2012072664A1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088095A (ja) * 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
US20150306330A1 (en) * 2014-04-29 2015-10-29 MaskSelect, Inc. Mask Selection System
US10062216B2 (en) * 2016-09-13 2018-08-28 Aleksey Konoplev Applying facial masks to faces in live video

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997049061A1 (fr) * 1996-06-17 1997-12-24 Sarnoff Corporation Appareil et procede pour detecter un mouvement au sein d'une sequence d'images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8274935B2 (en) * 2008-02-11 2012-09-25 Amdocs Software Systems Limited Mobile communication device notifier
JP4603603B2 (ja) * 2008-07-24 2010-12-22 株式会社日立国際電気 録画転送装置
US8698888B2 (en) * 2009-10-30 2014-04-15 Medical Motion, Llc Systems and methods for comprehensive human movement analysis

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997049061A1 (fr) * 1996-06-17 1997-12-24 Sarnoff Corporation Appareil et procede pour detecter un mouvement au sein d'une sequence d'images

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Face tracking using canonical correction analysis", INTERNATIONAL CONFERENCE ON COMPUTER VISION THEORY AND APPLICATIONS, March 2007 (2007-03-01), pages 396 - 402
"Linear tracking of pose and facial features", 10TH IAPR CONFERENCE ON MACHINE VISION APPLICATIONS, May 2007 (2007-05-01)
See also references of EP2646981A1 *
YAMAOKA K ET AL: "Image segmentation and pattern matching based FPGA/ASIC implementation architecture of real-time object tracking", DESIGN AUTOMATION, 2006. ASIA AND SOUTH PACIFIC CONFERENCE ON JAN. 24, 2006, PISCATAWAY, NJ, USA,IEEE, 24 January 2006 (2006-01-24), pages 176 - 181, XP010899510, ISBN: 978-0-7803-9451-3, DOI: 10.1109/ASPDAC.2006.1594678 *

Also Published As

Publication number Publication date
US9092874B2 (en) 2015-07-28
EP2646981A1 (fr) 2013-10-09
FR2968436B1 (fr) 2013-01-18
FR2968436A1 (fr) 2012-06-08
US20130315554A1 (en) 2013-11-28

Similar Documents

Publication Publication Date Title
CN105791692B (zh) 一种信息处理方法、终端及存储介质
CN108780389B (zh) 用于计算设备的图像检索
US20130101164A1 (en) Method of real-time cropping of a real entity recorded in a video sequence
EP2450852A1 (fr) Procédé et dispositif de simulation virtuelle d' une image
US9838616B2 (en) Image processing method and electronic apparatus
CN109035288B (zh) 一种图像处理方法及装置、设备和存储介质
US20030222888A1 (en) Animated photographs
CN109584358A (zh) 一种三维人脸重建方法及装置、设备和存储介质
JP2011526013A (ja) 画像処理
CN112348937A (zh) 人脸图像处理方法及电子设备
US20220044478A1 (en) Photo-video based spatial-temporal volumetric capture system for dynamic 4d human face and body digitization
WO2022142177A1 (fr) Procédé et appareil de génération d'image hdr, dispositif électronique et support de stockage lisible
CN111638784A (zh) 人脸表情互动方法、互动装置以及计算机存储介质
EP4162448A1 (fr) Procédé et dispositif de reconstruction tridimensionnelle d'un visage avec partie dentée à partir d'une seule image
CN115661912B (zh) 图像处理方法、模型训练方法、电子设备及可读存储介质
CN112785488A (zh) 一种图像处理方法、装置、存储介质及终端
EP2646981A1 (fr) Methode de determination des mouvements d'un objet a partir d'un flux d'images
US20090297029A1 (en) Digital Image Enhancement
AU2018271418B2 (en) Creating selective virtual long-exposure images
CN108259767B (zh) 图像处理方法、装置、存储介质及电子设备
US20080088712A1 (en) Slimming Effect For Digital Photographs
CN113676692A (zh) 视频会议中视频的处理方法、装置、电子设备及存储介质
CN114581316A (zh) 图像重建方法、电子设备、存储介质及程序产品
US10573052B2 (en) Creating cinemagraphs with virtual long-exposure images
FR2920938A1 (fr) Procede et dispositif de simulation virtuelle d'une image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11802866

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2011802866

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011802866

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13991368

Country of ref document: US