EP2076886A1 - Method and device for the virtual simulation of a sequence of video images - Google Patents

Method and device for the virtual simulation of a sequence of video images

Info

Publication number
EP2076886A1
EP2076886A1 EP07858653A EP07858653A EP2076886A1 EP 2076886 A1 EP2076886 A1 EP 2076886A1 EP 07858653 A EP07858653 A EP 07858653A EP 07858653 A EP07858653 A EP 07858653A EP 2076886 A1 EP2076886 A1 EP 2076886A1
Authority
EP
European Patent Office
Prior art keywords
face
image
sequence
digital
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP07858653A
Other languages
German (de)
French (fr)
Inventor
Jean-Marc Robin
Christophe Blanc
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to EP11007429A priority Critical patent/EP2450852A1/en
Publication of EP2076886A1 publication Critical patent/EP2076886A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to a method and a device for automatically simulating and processing in real time one or more aesthetic images of a real objective, for example a face and / or a head of a moving character in a scene, by detecting and monitoring its characteristic features.
  • the features of the face participate in the act of communication between human beings. Nevertheless, it should be noted that the visualization of the characteristic features of the face is a support for communication only if these features are extracted with sufficient precision. In the opposite case, the information resulting from an analysis that is too brief constitutes more an inconvenience than an aid, particularly for high-level industrial applications for the aesthetic embellishment of a face / head, for example.
  • an online user on the Internet from their own PC or Mac can use with a delay of more than 24 hours, and after posting on the Internet their color portrait photograph in JPEG format and under a number of constraints.
  • an ASP web server platform (“Application Service Provider") which provides users of a third-party Web site with contour contouring functions, color detection hair, carnation and eyes, which are obtained according to statistical and manual methods performed by the intervention of human technical teams.
  • the photograph can also be retouched using different layer techniques.
  • each element can be placed on a different layer, the final result being obtained by the superposition of all the layers, which allows to obtain the final retouched photograph for its exploitation.
  • the retouched photograph can then be exploited locally in a dedicated Microsoft® X Active Type application.
  • This technology and the set of tools developed by Microsoft® make it possible to program components that can make the content of a Web page interact with applications executable on the computer of the Internet user type PC, in particular under a computer system. Windows® operation. Another equivalent technique is to use the Java® application.
  • WO 01/75796 discloses a system for virtually transforming a still image, such as a photo of a face.
  • the present invention aims to provide a method and an image processing device do not reproduce the disadvantages of the prior art.
  • the present invention is intended in particular to provide such a method and device for processing video image sequences, in particular for moving subjects.
  • the present invention also aims to provide such a method and device, which is simple, reliable and inexpensive to make and use.
  • the present invention therefore relates to a method and a high-performance digital device, allowing in a video stream composed of a succession of images, for example from 25 to 30 images per second, component the illusion of movement, to obtain by computer and in real time, an automatic and precise extraction of the contours of all the characteristic features of the face, the hair, the color of the eyes, the complexion and the hair and taking into account certain occlusions.
  • the set leads to an aesthetic and individualized virtual simulation of an initial objective, for example a face / head of a character moving in a scene, in a video stream by a robust and real-time or delayed processing or " play-back Marin This simulation can comprise an encoding then a transformation by a new reading of the sequence.
  • the subject of the present invention is therefore an automatic method for virtual simulation of an individualized video image sequence for each user, which can be produced from a real video image sequence of a moving face / head, comprising, for example, an acquisition and initialization phase: the detection and analysis of the shapes and / or contours and / or dynamic components of an image of the face / head of the actual video sequence, the extraction of characteristic points of the face head, such as the corners of the eyes and mouth, using predefined parametric models; during a phase of evolution: the definition of specific parametric models from said extracted characteristic points, serving as initial points of initiation, the deformation of said specific models to adapt to the contours of the features present on the analyzed face, the detection and analysis of cutaneous structure of one or more regions of the face / head; and during a follow-up and transformation phase: the modification of the characteristic features of the other images of the video sequence, the modification of the colors of the cutaneous structure, said modifications being performed according to criteria provided for in at least one database and / or according to decision criteria of at least one expert
  • the detection and analysis step for determining region / contour and temporal spatial information, is performed by maximizing the luminance gradient and / or chrominance fluxes.
  • said modifications are obtained by translations of the neighborhoods of the characteristic points of the preceding image in the following image, affine models, including a deformation matrix, which can be used when the neighborhood of the characteristic points can also undergo a deformation.
  • the tracking phase uses an algorithm to follow characteristic points from one image to another.
  • said algorithm uses only the neighborhood of characteristic points.
  • the characteristic points are recaled using a simplified version of the active contours, and / or by deforming the curves of a model obtained in the previous image.
  • the method comprises a step of modeling the closed and / or open mouth by means of a plurality of characteristic points connected by a plurality of cubic curves.
  • the present invention also relates to a device for implementing the method described above, comprising a computer system, a light source, an electronic message management system, at least one database, local or remote on the networks digital, such as the Internet, and / or at least one expert system of order 0+ or 1, for obtaining and transforming a sequence of digital real images into a virtual image sequence, preferably at the speed of 25 frames per second, said virtual image sequence being transformed according to decision criteria of at least one expert system of order 0+ or 1.
  • said computer system is based on a microprocessor type CPU ("Central Processing Unit”) mono, dual, quad cores and higher, or conventional multicore processors, types pentium, athlon or higher or type SPU ("Streaming Processor Unit”) , equipped with a main core and up to eight specific cores, arranged in a cabin, a console, a self-service device, a pocket or mobile device, a digital television, a local server, or deported over digital networks, such as the Internet, at least one digital video camera, at least one screen, at least one printer and / or a connection to digital networks, such as the Internet, in wherein the computer system providing the image processing comprises a computer having a hard disk, preferably of a capacity of at least 500K bytes, and / or a digital storage memory, one or more media, such as CD-ROM, DVD, Multimedia Card®, Memory Stick®, MicroDrive®, XD Card®, SmartMedia®, SD Card®, Compact Flash® Type 1 and 2, USB stick, modem or wired or radio
  • a printer After displaying the virtual image sequence on a screen, a printer proceeds locally, or remotely, printing, preferably color, of at least one photograph selected from all or part of the sequence of virtual images.
  • the image processing module to carry out the steps of acquisition, detection, transformation and monitoring, is integrated in one or more processors specialized in the processing of signals of the DSP ("Digital Signal Processor” or "DSP") type. digital signal processor).
  • DSP Digital Signal Processor
  • DSP digital signal processor
  • the present invention therefore relates to a method and a device for simulating, by automatic processing and in all the environmental conditions and poses of the moving subject, an image or a sequence of aesthetic images in a video stream, starting from a or several images of a real objective, for example a face / head of a moving character in a scene, where one extracts from the image and / or from the sequence of real images, captured preferably by a Color digital video camera, at the real-time rate, the contours of the dynamic components of the face / head of the moving character, to produce relevant parameters to synchronize the tools of virtual aesthetic transformations, for example in the regions of the eyes, eyebrows , mouth and neighborhoods, in multi-criteria function provided in at least one local and / or remote database on digital networks, such as the Internet, and / or according to decision criteria previously defined in the knowledge base of at least one expert system of order 0+ or 1.
  • the computer system implemented may be installed in a cabin or console or a self-service device or a pocket or mobile device or a digital television or a local server or remote on digital networks, including the Internet, or any form of possible devices to come.
  • the computer may include a computer or a microprocessor for processing type CPU ("Central Processing Unit” or CPU), mono, dual, quad cores and higher or multi core processors classic types pentium, athlon or higher , or SPU type ("Streaming Processor Unit"), equipped with a main core and up to eight or more specific cores, with a hard disk of at least 500K bytes and / or a digital storage memory, one or more media of the CD-ROM, DVD, Multimedia Card®, Memory Stick®, MicroDrive®, XD Card®, SmartMedia®, SD Card®, Compact Flash® types 1 and 2, USB key or other, all types of modems or modules for wired or wireless connections to digital networks, such as the Internet, one or more connection modules for the local environment such as Bluetooth®, infrared, wifi®, wimax® and forthcoming , a color camera fixed video or type CCD and superior digital television, a discrete light source or not, all types of screens, preferably colors, current and future, all types of printers monochrome or current
  • CPU
  • the vision system defined above can be composed of a discreet daylight or white light-emitting diode, a mono CCD or higher camera, a graphics card, a flat and touch-sensitive color screen. a receipt-type printer or A4 and A3 paper color or higher.
  • the assembly can then be fully integrated in a lightweight "panel PC" ultra light whose size is given by the dimensions of all types of flat screen, preferably color.
  • the processing is local and all technical updates or content such as maintenance can be done via a wired connection or radio frequency to digital networks including the Internet.
  • the system operates by the visual servoing of the device via its camera, automatically leaning on the face of the user by the use of a module for detecting and tracking a face / head of a character. From a position that we say balance, when a simulation is desired by a user, the system will stop when it has detected its purpose, for example the image of a face / head.
  • the vision system can automatically adjust the camera's illumination and zoom in order to have an image size and a facial image code on the screen of almost constant optimal quality.
  • control system of the process functions can be a terminal, such as an alphanumeric keyboard, a mouse or any other means.
  • the camera depending on the terminal, can be connected by all connections or all types of digital networks to an editing system, preferably with the outputs on color screen and / or paper assembled in a single device next to the user.
  • the processing and calculation part can be managed by one or more local servers, or deported on digital networks, including the Internet, and equipped with at least one microprocessor, for example 32 or 64 bit CPU ("Central Processing Unit") type. mono, dual, quad-core and higher or multi-core processors classic types pentium, athlon, or type SPU ("Streaming Process Unit") or a main core and eight specific cores type cell, and all types of electronic or magnetic memories.
  • CPU Central Processing Unit
  • the capture of the color images is advantageously obtained in real time by means of all types of digital video cameras, preferably color, such as a digital color video camera mono or CCD, or a device to load coupling and superior, a complementary color CMOS (metal-oxide semiconductor) video camera, or similar, for example, a webcam, in order to provide, in real time, a valuable aesthetic simulation by high quality detection, components geometric and dynamic facial features and appropriate image processing.
  • CMOS metal-oxide semiconductor
  • the processing can be done locally or on a remote server and according to the speed of calculation, in real time or assimilated as such, or in playback mode.
  • the whole treatment can be done without too many lighting constraints and poses for each character present in the image, considering an uncertain background fixed or mobile, and a number of occlusions.
  • the experiments demonstrate that the method implemented according to the present invention remains robust and sufficiently precise during the phase of extraction and evolution of the contours of the permanent features of the face / head namely namely: the eyes, eyebrows, lips, hair and other morphological elements, according to the work of aesthetic transformation sought, etc.
  • the method advantageously comprises three synchronized phases: 1.
  • An acquisition and initialization phase the shapes and contours of the face / head are analyzed and detected in a digitized video image corresponding to the first image of the image. 'a sequence. Dots characteristics and areas of interest of the face / head are extracted, corners of eyes and mouth for example, and serve as initial anchors for each of the predefined adapted parametric models.
  • each model is deformed in order to coincide with the contours of the features present on the analyzed face. This deformation is done by maximizing a luminance gradient flux and / or chrominance along the contours defined by each curve of the model.
  • the definition of models makes it possible to naturally introduce a regularization constraint on the contours sought. Nevertheless, the chosen models remain flexible enough to allow a realistic extraction of the contours of the eyes, the eyebrows and the mouth.
  • a phase of monitoring and transformation Tracking makes segmentation more robust and faster in subsequent frames of the video clip.
  • the transformation leads to the modification of the fine characteristic areas of the face / head followed in the video sequence according to multiple criteria provided for in the database and / or as the case may be according to decision criteria of an expert system of order 0 + or 1.
  • a rendering phase offering on a screen and / or paper and / or via a server on all digital networks, the results of the transformation phase for the entire video sequence.
  • the video processing system will coordinate several successive operations.
  • the detected face / head corresponds to an area of interest in the image.
  • the method makes it possible to overcome illumination variations by using a filter adapted to the behavior of the retina, for the region of interest.
  • the system then proceeds, for the region of interest thus filtered, to the extraction of the characteristic features of the face, preferably using suitable parametric models, namely the irises, eyes, eyebrows, lips, the contour of the face and the helmet of the hair.
  • the initial positioning of each model on the image to be processed takes place after the automatic extraction of characteristic points on the face.
  • a maximum luminance gradient point tracking process can be used to detect the corner of the eyes.
  • Two Bézier curves one of which is curved towards its end to naturally follow the drawing of the lower contours of the eye, models chosen for the upper and lower contours of the eye, can be initialized by the two corners of the eyes. and the lowest point of the circle detected for the iris for the lower contour, and by the two corners of the eyes and the center of the circle detected for the iris for the upper contour.
  • the proposed model for the modeling of the lips is advantageously at least composed of five independent curves, each of them naturally describing part of the outer lip contour and at least two curves for the inner contours.
  • the characteristic points of the mouth in order to initialize the model can be analyzed by using a discriminant information combining luminance and chrominance as well as the convergence of an active contour type that makes it possible to overcome the parameters of the parameters of the contour. as well as its high dependence on the initial position.
  • the modeling of the contour of the face advantageously uses eight characteristic points situated on this contour. These eight points initialize an outline modeled by deformable ellipse quarters, according to the position of the face in a temporal dimension.
  • the hair helmet can be segmented from the detection of the contour of the face by associating the filtering of the background of the image with the use of active contours. Characteristic points located on the contour of the hair are thus detected. Between each of these points, the model used can be a cubic polynomial curve.
  • each desired contour is a set of points of maximum luminance gradient.
  • the selected curves will preferably be those that maximize the normalized luminance gradient flux across the contour.
  • the tracking step allows the segmentation in the following images of the video sequence.
  • the results obtained in previous images provide additional information that can make segmentation more robust and faster.
  • the precise tracking procedure uses an algorithm that makes it possible to follow characteristic points from one image to another. This differential method, using only the neighborhood of points, brings a significant time saving compared to a direct extraction technique.
  • the characteristic points can be recalculated by using a simplified version of the active contours, and / or by deforming the curves of a model obtained in the previous image.
  • the transformation step may lead to the modification of the fine characteristic areas of the face / head followed in the video sequence according to multiple criteria provided in the database (s) and / or as the case may be according to decision criteria of at least one expert system of order 0+ or 1.
  • the present invention may offer the user different looks, palettes, present in the database for viewing on his face.
  • the system can search, from anthropometric ratios calculated by an expert system of order 0+ or 1, the characteristic zones, for example the cheekbones, to transform .
  • the expert system can define makeup procedures that are dependent on the shape of the face, round or elongate or square or triangular or oval, and certain features, eyes apart or eyes close together or eyes equal, nose size, etc. These rules can be communicated to the transformation module for a realistic and dependent simulation of each face to transform.
  • the method also carries out during this phase a classification of faces such man, woman, child, teenager in particular.
  • the rendering phase offers on a screen and / or on paper and / or via a server on all digital networks, the results of the transformation phase for the entire video sequence and / or for part of this sequence
  • FIG. 1 is a block diagram of a virtual image simulation system according to an advantageous embodiment of the present invention
  • FIG. 2 is a block diagram illustrating the phase of extraction of the faces / heads of characters and the characteristic zones according to an advantageous embodiment of the present invention
  • FIG. 3 represents the block diagram of the retinal filtering
  • FIG. 4 is a drawing of one of the parametric models adapted to the tracking of moving lips
  • FIG. 5 represents the result of the automatic extraction of the characteristic areas of the face from a video sequence presenting a single character with the head moving in front of the camera lens along the axes of orientations X, Y and Z symbolized in this same figure, namely the contour of the face, the iris, the eyes, the mouth, the eyebrows, and the headgear of the hair;
  • FIG. 1 represents an example of a detection system and real-time automatic tracking of the characteristic features of a real objective, such as a face / head of a character moving in a scene, with the possibility of virtual simulation of images and comprising an image acquisition and initialization module 1, a tracking and transformation module 2 and a reproduction module 3. Each module will be described in detail below.
  • the image acquisition and initialization module 1 is implemented from all types of digital color video cameras, such as a color digital video camera CCD mono or charge coupled device and superior, a video camera complementary color CMOS (metal-oxide-semiconductor), or the like.
  • CMOS metal-oxide-semiconductor
  • the sequence of images taken by the acquisition module is analyzed in order to detect the zones and characteristic points of the face / head.
  • This analysis is implemented in the form of a microprocessor of the 32 or 64-bit CPU type, SPU, or a main core and eight specific cores type cell, mono, double, quad cores and higher or multi core processors classic types pentium, athlon , a personal computer or a digital signal processor.
  • the zones and characteristic points of the face / head of the moving character in a scene thus extracted and coupled to the flow of images are sent to the tracking and transformation module which according to the multiple criteria provided in one or more database (s) of data or, depending on the case, according to decision criteria of one or more expert system (s) 21, refers to the rendering module 3 its results: a video sequence with, for example, the masked face.
  • the rendering module offers, according to the present invention, the results on any type of screen (cathodic, LCD, plasma or the like) and / or on any paper format and / or via a server on all digital networks, for example the Internet.
  • Figure 2 shows a block diagram illustrating the extraction phase of the face / head of the character and characteristic areas according to the present invention.
  • the software for processing the video sequence clocked at the acquisition speed of the digital video sensor will coordinate several successive operations according to the invention.
  • the software for processing the video sequence clocked at the acquisition speed of the digital video sensor will coordinate several successive operations according to the invention.
  • he proceeds to locate the face / head of the character in a scene.
  • the typical chrominance information associated with the skin is considered.
  • a pretreatment phase 12 of this region of interest makes it possible to overcome illumination variations by using adapted filtering inspired by the behavior of the retina.
  • This filtering makes it possible, by performing a succession of filterings and adaptive compressions, to perform a local smoothing of the variations of illumination.
  • I 1n be the initial image and Ii the result of its filtering
  • the image X 0 makes it possible to define the compression function C by the relation:
  • Figure 3 gives the block diagram of the retinal filtering, the output of this filtering is noted I out .
  • the luminance variations will be greatly reduced.
  • the automatic extraction of the contours of the permanent features of the face namely the contour of the face, whose homogeneity is taken into account, the irises, the eyes, the eyebrows, the lips, the hair helmet, follows in a second time .
  • a specific parametric model (cubic polynomial curves, Bezier curves, circle, etc.) capable of accounting for all possible deformations is defined.
  • the iris we search for the semicircle that maximizes the normalized luminance gradient flux in each right and left quarter of the rectangle encompassing the face since the contour of the iris is the border between a dark zone, the iris, and a clear area, the white of the eye.
  • the method of maximizing the standardized gradient flow has the advantage of being very fast, without parameter adjustment, and it leads unambiguously to the selection of the right semicircle since the standardized gradient flow always has a very marked peak corresponding to the correct position for the desired semi-circle.
  • Characteristic points of the face are extracted (corners of the eyes and mouth for example) and serve as initial anchors 13 for each of the other models.
  • Bezier curves one of which is curved towards its end, models chosen for the upper and lower contours of the eye, are initialized by the two corners of the eyes, detected by a process of tracking points of maximum luminance gradient, and the lowest point of the circle detected for the iris for the lower contour and the two corners of the eyes and the center of the circle detected for the iris for the upper contour.
  • the two inner and outer corners of each eyebrow are advantageously extracted.
  • the search area of these points is reduced to the area of the image above the detected iris.
  • the abscissae of the inner and outer corners we search the abscissa of the points for which there is a change of sign or cancellation of the derivative of the horizontal projection of the valley image along the lines.
  • the two inner and outer corners and the center of its two corners serve as initial control points for the Bezier curve associated with each eyebrow. Since this method is subject to noise, the points thus detected are readjusted during the deformation phase of the model associated with the eyebrows.
  • the proposed model for lip modeling can be composed of five independent cubic curves, each of which describes a part of outside lip contour.
  • Figure 4 shows a drawing of this model for a closed mouth. Unlike most models proposed in the literature, this original model is sufficiently deformable to faithfully represent the specificities of very different lips. Between Q2 and Q4, Cupid's bow is described by a broken line while the other portions of the outline are described by cubic polynomial curves. In addition, it requires having a zero derivative at point Q2, Q4 and Q6. For example, the cubic between Qi and Q 2 must have a null derivative in Q 2 .
  • Extraction of the characteristic points Q 1 , Q 2 , Q 3 , Q 4 , Q 5 , Q 6 from the mouth in order to initialize the model is done by using a discriminant information combining luminance and chrominance as well as the convergence of an active contour type that makes it possible to dispense with the settings of the parameters of the active contour as well as its high dependence on the initial position. The same goes for the internal labial contours where two curves allow to perfectly marry the inner contours.
  • Detecting the inner contour is more difficult when the mouth is open, because of non-linear variations in appearance inside the mouth. Indeed, during a conversation, the area between the lips can take different configuration: teeth, oral cavity, gums and tongue.
  • the parametric model for the inner contour when the mouth is open, can be composed of four cubic.
  • "Cupid's bow inside” is less pronounced than for a closed mouth; thus two cubic is enough to precisely extract the upper inner contour of the lips.
  • the model With four cubic, the model is flexible and overcomes the problem of the segmentation of the inner contour for asymmetrical mouths.
  • jumping snakes Two active contours called jumping snakes can be used to adjust the model; one for the upper contour and one for the lower contour.
  • the convergence of a jumping snake is a succession of phases of growth and jumping.
  • the "snake” is initialized from a germ, then it grows adding points to the left and right of the germ. Each new point is found by maximizing a gradient flow through the segment formed by the current point to be added and the previous point. Finally, the seed jumps to a new position closer to the desired outline. The growth and jump processes are repeated until the jump amplitude is below a certain threshold.
  • the initialization of the two "snakes” begins with the search for two points on the upper and lower contours, and belonging to the vertical passing through Q 3 in Figure 4.
  • the difficulty of the task lies in the fact that there can have different areas between the lips, which may have characteristics (color, texture or luminance) similar or completely different than those of the lips, when the mouth is open.
  • the final inner contour can be given by four cubic.
  • the two cubes for the upper contour can be calculated by the least squares method.
  • the two cubic of the lower contour can also be calculated by the least squares method.
  • the modeling of the contour of the face preferably uses eight characteristic points situated on this contour a priori since a face can present very long hair which completely cover the forehead and possibly the eyebrows and the eyes: two points at the level of the eyes, two points at the level of the eyebrows, two points at the mouth, a point at the chin and a point at the forehead, which are extracted from a thresholding in the V plane of the HSV representation of the image. These eight points initialize an outline modeled by quarter ellipses.
  • the helmet of the hair can be segmented from the detection of the contour of the face by associating the filtering of the bottom of the image with the use of active contours. Characteristic points located on the contour of the hair are thus detected. Between each of these points, the model used can be a cubic polynomial curve. It is possible that the automatic extraction of one or more points fails, in this case the point or points can be very easily replaced manually to correctly replace the model or models and approach their evolution phase.
  • each model is deformed to coincide with the contours of the features present on the analyzed face. This deformation is done by maximizing a luminance gradient flux and / or chrominance, along the contours defined by each curve of the model.
  • FIG. 5 represents the result of the automatic extraction of the characteristic zones of the face, namely the contour of the face, the irises, the eyes, the mouth, the eyebrows, and the helmet of the hair, which respectively form anthropometric modules of the face, according to an aspect of the present invention.
  • the software tracks the face / head and facial features in the video sequence.
  • the results obtained in the previous images provide additional information that can make the segmentation more robust and faster.
  • the precise tracking procedure uses an algorithm that makes it possible to follow characteristic points from one image to another.
  • This differential method using only the neighborhood of points, brings a significant time saving compared to a direct extraction technique.
  • This method is based on the apparent motion stress equation derived from a Taylor development of the equation below:
  • the method advantageously uses a registration of the characteristic points by using a simplified version of the active contours and / or by deforming the curves of the model obtained in the image. previous. Finally, the final contours are extracted. For this, the shape of the characteristic zones in the previous image as well as the characteristic points are used to calculate the optimal curves constituting the different models.
  • the tools for recognizing and monitoring the anthropometric areas of the face in the image communicate all the data they have extracted during the transformation phase.
  • the module will then determine the treatments to be performed. These will be determined by the theme or themes that the user will have chosen. For example, if it is a make-up operation, the characteristic areas of the face, defined according to the extraction results and according to the function chosen by the user (look / palette), are automatically modified in the sequence of consecutive images according to harmonic and personalized choices. For example, for a round face, the process blurs the sides of the face in a darker tone.
  • the user can also choose zone by zone (lips, eyes, cheekbones, face, etc.) the color he wishes to apply. These colors will be in harmony with the characteristics of the face.
  • the expert system determines a range of available colors, correlated with those of a range available in its database or databases, according to the data from the initialization phase and evolution.
  • the tool will be able to make a coloring proposal in harmony with the face for example, but also offer a selection of colors, from a range, in perfect harmony with the face.
  • the colors complemented by their original textures are analyzed, calculated and defined in their particular context (lipsticks or glosses or powders in particular).
  • the tools will then apply depending on the texture of the area (lip, cheek, hair, etc.) the color corresponding to the makeup, but also in a transparent manner the effect of the cosmetic product, that is to say that it will reproduce its real appearance, for example its brilliance, its powdered or glittery appearance (glittery lipstick in figure 6, especially its matte appearance)
  • This operation takes into account the context of the sequence of consecutive images in each of their respective areas (lighting, brightness, shadows, reflections, etc.), which will allow the help of algorithmic tools to calculate their textures, to define them in their real aspect, as they would be reproduced in reality .
  • the quality and realistic properties of the consecutive image sequence are substantially improved.
  • some features of the face are improved. For example, face wrinkles, crow's feet wrinkles, dark circles, lion wrinkles, nasolabial folds, bitter creases, perioral wrinkles, freckles, acne and rosacea are strongly blurred.
  • aesthetic treatments such as face whitening, tanning, teeth whitening, eyelid lifting, thickening of the lips, the light rectification of the oval of the face, the rectification of the shape of the chin and / or the nose, the raising and raising of the cheekbones are simulated automatically for a face appearing in a video sequence.
  • the invention also makes it possible to recognize visemes that describe the different configurations, or different pronounced phonemes, of a talking mouth. It thus makes it possible to determine the personality and the character of a person, examined from the morphological observation of his / her face / head, such as, for example, the presence of the folds of bitterness, the size and the spacing of the eyes, the size and shape of the nose, the lobe of the ears, the database corresponding to the observation of the faces being then supplemented by the techniques implemented by the morpho psychologists, the psychiatrists, the profilers and the anatomists in the domain considered.
  • RGB or red, green, blue completed indications drawings, thresholds and coordinates constituting the realization of a "Look" or the natural visualization of a lipstick in a palette for example can be made and recorded in the form of a simple file consisting of a low-weight alphanumeric string broadcast on all digital media or download from a server on digital networks such as the Internet.
  • This file can be used for the artistic update of the database or the expert system in a flexible and fast way or be used immediately by the user from a simple download from a web page for example.
  • the database associated with the expert system is enriched with specific rules relating to the application of the invention, for example cosmetics and / or dermatology, plastic surgery and / or aesthetic medicine, ophthalmology, hairdressers and / or hairdressers, facial biometrics, etc.
  • the treatment is independent of the content which allows a use of the process on an industrial scale and a very strong propagation of its use with a strong increase in yield.
  • Figure 6 shows the before / after result of a makeup simulation (look), accessories (color lenses, piercing), and hair coloring for an image extracted from a video sequence acquired by a color video camera.
  • the rendering module translates, according to the present invention, the display of the sequence of transformed images on any type of color screen and / or then by printing one or more images simulated on n ' any paper format and / or via a server on any digital network.
  • the restitution phase results in an aesthetic proposition characterized by the transformation of the initial video sequence into a a new virtual video sequence on which the desired aesthetic modifications appear in perfect harmony.
  • a makeup complete with accessories and a hair color and the references and sales prices of the corresponding products in one or more brands.
  • a static image chosen by the user from the video sequence can then be edited locally, on a color printer of needles type, inkjet, solid inkjet, laser, or thermal sublimation, in A4 format or any other format available technically.
  • the content of its information formulates a beauty prescription, taking the initial image and the transformed image, technical and scientific advice, professional tips, facial features (shape, color, etc.), product photography, personal color palette in harmony with the transformed facial features, a color garment board compared to our colors etc.
  • the results can be similarly edited on high definition delocalized printers from an Internet server which will send them to the user's postal address.
  • the new image and / or the new video sequence completed or not information can be sent by the email function and using the command "Insert attachment" to one or more correspondents with an email address type email.
  • the same is true with a mobile phone device having an MMS mode, email or future.
  • this system can receive a large number of applications by completing the expert system (s) and / or the local database (s) or remote (s) by scientific data. and specific techniques.
  • the invention can find an application for image processing in two or three dimensions.
  • a 3D application we can build a 3D modeling of the face, to precisely apply 3D makeup.
  • the 3D reconstruction of the face, from a static image of the face or a flow of images of faces, is made using conventional algorithms and procedures, such as the analysis of shadows, texture , movement, the use of generic 3D models of the face or the use of a stereo scopic system.

Abstract

The invention relates to a method for the virtual simulation of a sequence of video images from a sequence of video images of a moving face/head, comprising : an acquisition and initialisation phase of a face/head image of the real video sequence; an evolution phase for determining specific parametric models from characteristic points extracted from said image and used as initial priming points, and for deforming said specific models for adaptation to the outlines of the features of the analysed face, and also for detecting and analysing the cutaneous structure of one or more regions of the face/head; and a tracking and transformation phase for modifying the characteristic features of other images in the video sequence and the colours of the cutaneous structure, said modifications being carried out according to predetermined criteria stored in at least one database and/or according to decision criteria of at least one expert system of a 0+ or 1 order.

Description

Procédé et dispositif de simulation virtuelle d'une séquence d'images vidéo Method and device for virtual simulation of a sequence of video images
La présente invention concerne un procédé et un dispositif permettant de simuler et de traiter automatiquement et en temps réel une ou plusieurs images esthétiques d'un objectif réel, par exemple un visage et/ou une tête d'un personnage en mouvement dans une scène, par la détection et le suivi de ses traits caractéristiques.The present invention relates to a method and a device for automatically simulating and processing in real time one or more aesthetic images of a real objective, for example a face and / or a head of a moving character in a scene, by detecting and monitoring its characteristic features.
Les traits du visage participent à l'acte de communication entre les êtres humains. Néanmoins, il faut remarquer que la visualisation des traits caractéristiques du visage n'est un support à la communication que si ces traits sont extraits avec une précision suffisante. Dans le cas contraire, l'information issue d'une analyse trop sommaire constitue plus une gêne qu'une aide notamment pour des applications industrielles de hauts niveaux pour l'embellissement esthétique d'un visage/tête, par exemple.The features of the face participate in the act of communication between human beings. Nevertheless, it should be noted that the visualization of the characteristic features of the face is a support for communication only if these features are extracted with sufficient precision. In the opposite case, the information resulting from an analysis that is too brief constitutes more an inconvenience than an aid, particularly for high-level industrial applications for the aesthetic embellishment of a face / head, for example.
On sait qu'il existe dans l'industrie de la beauté, un certain nombre d'équipements pour réaliser virtuellement une esthétique de soi, par exemple la pose numérique d'un maquillage, d'une coloration capillaire, d'une coiffure sous forme de postiche, et dont le procédé mis en œuvre demeure une version supervisée et par conséquent non automatisée et qui fait appel à des outils infographiques pour la pose des points au plus près des contours. Une courbe de Bézier ou courbes polynomiales paramétriques relie ces points entres eux. Une palette permet à la suite de poser manuellement les transformations recherchées dont le pilotage s'effectue manuellement par un opérateur et/ou l'utilisateur lui- même.We know that there are in the beauty industry, a number of equipment to achieve virtually a self-aesthetic, for example the digital pose of a makeup, a hair coloring, a hairstyle in form of the hairpiece, and whose method implemented remains a supervised and therefore non-automated version and which uses infographic tools for placing the points as close as possible to the contours. A Bézier curve or parametric polynomial curves connects these points among them. A palette allows you to manually apply the desired transformations manually controlled by an operator and / or the user himself.
Pour un processus à plus grande échelle, un utilisateur en ligne sur Internet depuis son propre PC ou Mac peut utiliser avec un différé de plus 24 heures, et après postage sur Internet de sa photographie portrait couleur au format JPEG et sous un certain nombre de contraintes, les services d'une plateforme serveur Web en ASP (« Application Service Provider » ou fournisseur de service d'application) qui assure pour les utilisateurs d'un site Web tierce, les fonctions de détourage des contours, la détection de la couleur des cheveux, de la carnation et des yeux, qui sont obtenus selon des méthodes statistiques et manuelles réalisées par l'intervention d'équipes techniques humaines.For a larger-scale process, an online user on the Internet from their own PC or Mac can use with a delay of more than 24 hours, and after posting on the Internet their color portrait photograph in JPEG format and under a number of constraints. , the services of an ASP web server platform ("Application Service Provider") which provides users of a third-party Web site with contour contouring functions, color detection hair, carnation and eyes, which are obtained according to statistical and manual methods performed by the intervention of human technical teams.
La photographie peut aussi être retouchée selon différentes techniques de calques. Ainsi, chaque élément peut être placé sur un calque différent, le résultat final étant obtenu par la superposition de tous les calques, ce qui permet d'obtenir la photographie retouchée définitive pour son exploitation. On peut de cette manière décomposer le travail, ce qui rend plus simple la tâche à réaliser pour l'utilisateur. La photographie retouchée peut ensuite être exploitée localement dans une application dédiée, de type active X Microsoft®. Cette technologie et l'ensemble d'outils développés par Microsoft® permettent de programmer des composantes qui peuvent faire interagir le contenu d'une page Web avec des applications exécutables sur l'ordinateur de l'internaute de type PC, notamment sous système d'exploitation Windows®. Une autre technique équivalente consiste à utiliser l'application Java®.The photograph can also be retouched using different layer techniques. Thus, each element can be placed on a different layer, the final result being obtained by the superposition of all the layers, which allows to obtain the final retouched photograph for its exploitation. In this way, the work can be broken down, which makes the task easier for the user. The retouched photograph can then be exploited locally in a dedicated Microsoft® X Active Type application. This technology and the set of tools developed by Microsoft® make it possible to program components that can make the content of a Web page interact with applications executable on the computer of the Internet user type PC, in particular under a computer system. Windows® operation. Another equivalent technique is to use the Java® application.
On appelle ces applications « Virtual Makeover » (ou refaçonnage virtuel) pour une utilisation locale sur PC ou MAC et « Virtual Makeover On Une » (ou refaçonnage virtuel en ligne) pour l'Internet. L'avantage de ce type de systèmes est de rendre possible l'obtention d'images esthétiques sans manipulation explicite de logiciels d'infographie professionnels, tels Adobe Photoshop® ou Paintshop Pro®, ni autres types de logiciels de retouche, de traitement et de dessin assistés par ordinateur. Ils sont principalement utilisés pour le traitement de photographies numériques, mais servent également à la création d'images ex nihilo.These applications are called "Virtual Makeover" for local use on PC or MAC and "Virtual Makeover On One" for the Internet. The advantage of this type of system is to make it possible to obtain aesthetic images without explicit manipulation of professional computer graphics software, such as Adobe Photoshop® or Paintshop Pro®, or other types of software for editing, processing and editing. computer-assisted drawing. They are mainly used for the processing of digital photographs, but are also used to create images from scratch.
Plus récemment, il a été développé des équipements qui utilisent des techniques de traitement d'images automatisés qui permettent, à partir d'images numérisées, de produire d'autres images numériques ou d'en extraire de l'information, ce qui permet d'améliorer l'utilisation localement. En revanche, la qualité du codage liée à la segmentation des traits caractéristiques du visage nécessite des paramètres de prise de vue standardisés de type cabine dans le but d'améliorer la robustesse du traitement à partir d'une image statique couleur aux formats JPEG (« Joint Photographie Experts Group ») et BMP (« Bitmap »). La simulation demeure supervisée et s'effectue séquentiellement avec un traitement qui varie de 5 à 10 minutes pour obtenir une image esthétique en 2 dimensions et jusqu'à 60 minutes environ pour une image en 3 dimensions, par exemple la simulation d'un maquillage.More recently, equipment has been developed that uses automated image processing techniques that allow digitized images to be used to produce or extract information from other digital images. improve the use locally. On the other hand, the quality of coding related to the segmentation of facial features requires standardized cabin-type shooting parameters in order to improve the robustness of processing from a static color image to JPEG formats (" Joint Photography Experts Group ") and BMP (" Bitmap "). The Simulation remains supervised and is performed sequentially with a treatment that varies from 5 to 10 minutes to obtain an aesthetic image in 2 dimensions and up to about 60 minutes for a 3-dimensional image, for example the simulation of a make-up.
Le document WO 01/75796 décrit un système permettant de transformer virtuellement une image fixe, telle qu'une photo d'un visage.WO 01/75796 discloses a system for virtually transforming a still image, such as a photo of a face.
Toutefois, tous ces procédés et dispositifs énumérés ci-dessus demeurent peu pratiques par manque d'instantanéité et en raison d'une précision trop aléatoire, du fait de leurs faibles robustesses par rapport aux diverses contraintes de poses du sujet et aux diverses conditions environnementales du monde physique et/ou artificiel. De plus, les techniques ne sont pas actuellement en mesure de proposer des méthodes robustes et de bonne qualité en analyse et transformation de visage en temps réel, a fortiori s'il s'agit d'un visage/tête d'un personnage en mouvement dans une scène a priori quelconque.However, all these methods and devices listed above remain impractical for lack of instantaneousness and because of a too uncertain accuracy, because of their weak robustness with respect to the various poses constraints of the subject and the various environmental conditions of the subject. physical and / or artificial world. In addition, the techniques are not currently able to offer robust and good quality methods in analysis and face transformation in real time, especially if it is a face / head of a character in motion in a scene a priori any.
La robustesse vis-à-vis de la grande diversité des individus et des conditions d'acquisition, notamment les différentes présentations dans la pose d'un personnage, les matériels, les conditions d'éclairages incertains, les différents fonds fixes ou mobiles, etc. en sont le point crucial et représentent un certain nombre de verrous technologiques et scientifiques pour envisager une industrialisation à grande échelle de tels procédés sous formes de dispositifs professionnels ou domestiques.The robustness vis-à-vis the great diversity of individuals and conditions of acquisition, including different presentations in the pose of a character, equipment, uncertain lighting conditions, different fixed or mobile funds, etc. . are the crucial point and represent a number of technological and scientific obstacles to consider a large-scale industrialization of such processes in the form of professional or domestic devices.
La présente invention a pour but de fournir un procédé et un dispositif de traitement d'images ne reproduisant pas les inconvénients de l'art antérieur.The present invention aims to provide a method and an image processing device do not reproduce the disadvantages of the prior art.
La présente invention a notamment pour but de fournir un tel procédé et dispositif pour traiter des séquences d'images vidéo, en particulier pour des sujets en mouvement.The present invention is intended in particular to provide such a method and device for processing video image sequences, in particular for moving subjects.
La présente invention a aussi pour but de fournir un tel procédé et dispositif, qui soit simple, fiable et peu coûteux à réaliser et à utiliser.The present invention also aims to provide such a method and device, which is simple, reliable and inexpensive to make and use.
La présente invention concerne donc un procédé et un dispositif numérique à haut rendement, permettant dans un flux vidéo composé d'une succession d'images, par exemple de 25 à 30 images par seconde, composant l'illusion du mouvement, d'obtenir par voie informatique et en temps réel, une extraction automatique et précise des contours de l'ensemble des traits caractéristiques du visage, de la chevelure, la couleur des yeux, de la carnation et des cheveux et la prise en compte de certaines occlusions. L'ensemble conduit à réaliser une simulation virtuelle esthétique et individualisée d'un objectif initial, par exemple un visage/tête d'un personnage en mouvement dans une scène, dans un flux vidéo par un traitement robuste et temps réel ou bien différé ou « play-back ». Cette simulation peut comprendre un codage puis une transformation par une nouvelle lecture de la séquence.The present invention therefore relates to a method and a high-performance digital device, allowing in a video stream composed of a succession of images, for example from 25 to 30 images per second, component the illusion of movement, to obtain by computer and in real time, an automatic and precise extraction of the contours of all the characteristic features of the face, the hair, the color of the eyes, the complexion and the hair and taking into account certain occlusions. The set leads to an aesthetic and individualized virtual simulation of an initial objective, for example a face / head of a character moving in a scene, in a video stream by a robust and real-time or delayed processing or " play-back ». This simulation can comprise an encoding then a transformation by a new reading of the sequence.
La présente invention a donc pour objet un procédé automatique de simulation virtuelle d'une séquence d'images vidéo individualisée pour chaque utilisateur, réalisable à partir d'une séquence d'images vidéo réelle d'un visage/tête en mouvement, comprenant lors d'une phase d'acquisition et d'initialisation : la détection et l'analyse des formes et/ou contours et/ou composantes dynamiques d'une image du visage/tête de la séquence vidéo réelle, l'extraction de points caractéristiques du visage/tête, tels que les coins des yeux et de la bouche, au moyen de modèles paramétriques prédéfinis ; lors d'une phase d'évolution : la définition de modèles paramétriques spécifiques à partir desdits points caractéristiques extraits, servant de points d'amorçage initiaux, la déformation desdits modèles spécifiques pour s'adapter aux contours des traits présents sur le visage analysé, la détection et l'analyse de la structure cutanée d'une ou plusieurs régions du visage/tête ; et lors d'une phase de suivi et de transformation : la modification des traits caractéristiques des autres images de la séquence vidéo, la modification des couleurs de la structure cutanée, lesdites modifications étant réalisées en fonction de critères prévus dans au moins une base de données et/ou en fonction de critères de décision d'au moins un système expert d'ordre 0+ ou 1.The subject of the present invention is therefore an automatic method for virtual simulation of an individualized video image sequence for each user, which can be produced from a real video image sequence of a moving face / head, comprising, for example, an acquisition and initialization phase: the detection and analysis of the shapes and / or contours and / or dynamic components of an image of the face / head of the actual video sequence, the extraction of characteristic points of the face head, such as the corners of the eyes and mouth, using predefined parametric models; during a phase of evolution: the definition of specific parametric models from said extracted characteristic points, serving as initial points of initiation, the deformation of said specific models to adapt to the contours of the features present on the analyzed face, the detection and analysis of cutaneous structure of one or more regions of the face / head; and during a follow-up and transformation phase: the modification of the characteristic features of the other images of the video sequence, the modification of the colors of the cutaneous structure, said modifications being performed according to criteria provided for in at least one database and / or according to decision criteria of at least one expert system of order 0+ or 1.
Avantageusement, l'étape de détection et d'analyse, pour la détermination d'informations spatiales région/ contour et temporelles, est réalisée par la maximisation des flux de gradient de luminance et/ou de chrominance. Avantageusement, lesdites modifications sont obtenues par translations des voisinages des points caractéristiques de l'image précédente dans l'image suivante, des modèles affines, incluant une matrice de déformation, pouvant être utilisés lorsque le voisinage des points caractéristiques peut également subir une déformation.Advantageously, the detection and analysis step, for determining region / contour and temporal spatial information, is performed by maximizing the luminance gradient and / or chrominance fluxes. Advantageously, said modifications are obtained by translations of the neighborhoods of the characteristic points of the preceding image in the following image, affine models, including a deformation matrix, which can be used when the neighborhood of the characteristic points can also undergo a deformation.
Avantageusement, la phase de suivi utilise un algorithme pour suivre des points caractéristiques d'une image à l'autre.Advantageously, the tracking phase uses an algorithm to follow characteristic points from one image to another.
Avantageusement, ledit algorithme n'utilise que le voisinage de points caractéristiques.Advantageously, said algorithm uses only the neighborhood of characteristic points.
Avantageusement, pour éviter l'accumulation d'erreurs de suivi, les points caractéristiques sont recalés en utilisant une version simplifiée des contours actifs, et/ou en déformant les courbes d'un modèle obtenu à l'image précédente.Advantageously, to avoid the accumulation of tracking errors, the characteristic points are recaled using a simplified version of the active contours, and / or by deforming the curves of a model obtained in the previous image.
Avantageusement, le procédé comprend une étape de modélisation de la bouche fermée et/ou ouverte au moyen d'une pluralité de points caractéristiques reliés par une pluralité de courbes cubiques.Advantageously, the method comprises a step of modeling the closed and / or open mouth by means of a plurality of characteristic points connected by a plurality of cubic curves.
La présente invention a aussi pour objet un dispositif pour mettre en oeuvre le procédé décrit ci-dessus, comprenant un système informatique, une source lumineuse, un système de gestion de messages électroniques, au moins une base de données, locale ou déportée sur les réseaux numériques, tel qu'Internet, et/ou au moins un système expert d'ordre 0+ ou 1, permettant d'obtenir et de transformer une séquence d'images réelles numériques en séquence d'images virtuelle, de préférence à la vitesse de 25 images par seconde, ladite séquence d'images virtuelle étant transformée suivant des critères de décision d'au moins un système expert d'ordre 0+ ou 1.The present invention also relates to a device for implementing the method described above, comprising a computer system, a light source, an electronic message management system, at least one database, local or remote on the networks digital, such as the Internet, and / or at least one expert system of order 0+ or 1, for obtaining and transforming a sequence of digital real images into a virtual image sequence, preferably at the speed of 25 frames per second, said virtual image sequence being transformed according to decision criteria of at least one expert system of order 0+ or 1.
Avantageusement, ledit système informatique est basé sur un microprocesseur type CPU (« Central Processing Unit ») mono, double, quadri cœurs et supérieurs, ou processeurs multi cœurs classiques, types pentium, athlon ou supérieurs ou type SPU (« Streaming Processor Unit »), équipé d'un cœur principal et jusqu'à huit cœurs spécifiques, disposé dans une cabine, une console, un appareil libre service, un dispositif de poche ou mobile, une télévision numérique, un serveur local, ou déporté sur les réseaux numériques, tel qu'Internet, au moins une caméra vidéo numérique, au moins un écran, au moins une imprimante et/ou une connexion aux réseaux numériques, tel qu'Internet, dans lequel le système informatique assurant le traitement de l'image comprend un ordinateur doté d'un disque dur, de préférence d'une capacité égale au moins à 500K Octets, et/ou d'une mémoire numérique de stockage, un ou plusieurs supports, notamment de type Cédérom, DVD, Multimedia Card®, Memory Stick®, MicroDrive®, XD Card®, SmartMedia®, SD Card®, Compact Flash® types 1 et 2, clé USB, d'un modem ou d'un module de connexion filaire ou radio fréquences aux réseaux numériques, tel qu'Internet, et d'un ou plusieurs modules de connexions pour réseaux locaux de type ethernet, Bluetooth®, infrarouge, wifi®, wimax® et similaire.Advantageously, said computer system is based on a microprocessor type CPU ("Central Processing Unit") mono, dual, quad cores and higher, or conventional multicore processors, types pentium, athlon or higher or type SPU ("Streaming Processor Unit") , equipped with a main core and up to eight specific cores, arranged in a cabin, a console, a self-service device, a pocket or mobile device, a digital television, a local server, or deported over digital networks, such as the Internet, at least one digital video camera, at least one screen, at least one printer and / or a connection to digital networks, such as the Internet, in wherein the computer system providing the image processing comprises a computer having a hard disk, preferably of a capacity of at least 500K bytes, and / or a digital storage memory, one or more media, such as CD-ROM, DVD, Multimedia Card®, Memory Stick®, MicroDrive®, XD Card®, SmartMedia®, SD Card®, Compact Flash® Type 1 and 2, USB stick, modem or wired or radio frequency connection to digital networks, such as the Internet, and one or more Ethernet LAN, or Bluetooth®, infrared, wifi®, wimax® and similar local area connection modules.
Avantageusement, après l'affichage de la séquence d'images virtuelle sur un écran, une imprimante procède localement, ou en déporté, à l'impression, de préférence couleur, d'au moins une photographie choisie parmi toute ou partie de la séquence d'images virtuelle.Advantageously, after displaying the virtual image sequence on a screen, a printer proceeds locally, or remotely, printing, preferably color, of at least one photograph selected from all or part of the sequence of virtual images.
Avantageusement, le module de traitement d'images, pour réaliser les étapes d'acquisition, de détection, de transformation et de suivi, est intégré dans un ou plusieurs processeurs spécialisés dans le traitement des signaux du type DSP (« Digital Signal Processor » ou processeur de signal numérique).Advantageously, the image processing module, to carry out the steps of acquisition, detection, transformation and monitoring, is integrated in one or more processors specialized in the processing of signals of the DSP ("Digital Signal Processor" or "DSP") type. digital signal processor).
La présente invention concerne donc un procédé et un dispositif permettant de simuler par un traitement automatique et dans toutes les conditions environnementales et de poses du sujet en mouvement, une image ou une suite d'images esthétiques dans un flux vidéo, à partir d'une ou plusieurs images d'un objectif réel, par exemple un visage/tête d'un personnage en mouvement dans une scène, où l'on extrait de l'image et/ou de la suite d'images réelles, capturées de préférence par une caméra vidéo numérique couleur, à la cadence temps réel, les contours des composantes dynamiques du visage/tête du personnage en mouvement, afin de produire des paramètres pertinents pour synchroniser les outils de transformations esthétiques virtuelles, par exemple dans les régions des yeux, des sourcils, de la bouche et des voisinages, en fonction de critères multiples prévus dans au moins une base de données locale et/ou déportée sur les réseaux numériques, tel qu'Internet, et/ou en fonction de critères de décision préalablement définis dans la base de connaissance d'au moins un système expert d'ordre 0+ ou 1.The present invention therefore relates to a method and a device for simulating, by automatic processing and in all the environmental conditions and poses of the moving subject, an image or a sequence of aesthetic images in a video stream, starting from a or several images of a real objective, for example a face / head of a moving character in a scene, where one extracts from the image and / or from the sequence of real images, captured preferably by a Color digital video camera, at the real-time rate, the contours of the dynamic components of the face / head of the moving character, to produce relevant parameters to synchronize the tools of virtual aesthetic transformations, for example in the regions of the eyes, eyebrows , mouth and neighborhoods, in multi-criteria function provided in at least one local and / or remote database on digital networks, such as the Internet, and / or according to decision criteria previously defined in the knowledge base of at least one expert system of order 0+ or 1.
Le système informatique mis en œuvre peut être installé dans une cabine ou une console ou un appareil libre service ou un dispositif de poche ou mobile ou une télévision numérique ou un serveur local ou déporté sur les réseaux numériques, dont Internet, ou toutes formes d'appareils possibles à venir.The computer system implemented may be installed in a cabin or console or a self-service device or a pocket or mobile device or a digital television or a local server or remote on digital networks, including the Internet, or any form of possible devices to come.
Dans sa première destination, il peut comporter un ordinateur ou un microprocesseur pour le traitement type CPU (« Central Processing Unit » ou unité centrale de traitement), mono, double, quadri cœurs et supérieurs ou processeurs multi cœur classiques types pentium, athlon ou supérieurs, ou type SPU (« Streaming Processor Unit » ou unité de traitement en continu), équipé d'un cœur principal et jusqu'à huit cœurs spécifiques ou plus, disposant d'un disque dur d'au moins 500K Octets et/ou d'une mémoire numérique de stockage, un ou plusieurs supports de type Cédérom, DVD, Multimedia Card®, Memory Stick®, MicroDrive®, XD Card®, SmartMedia®, SD Card®, Compact Flash® types 1 et 2, clé USB ou autres, tous types de modems ou de modules de connexions filaires ou radio fréquence aux réseaux numériques, tel qu'Internet, un ou plusieurs modules de connexions pour l'environnement local de type Bluetooth®, infrarouge, wifi®, wimax® et à venir, une caméra couleur vidéo fixe ou type télévision numérique mono CCD et supérieur, une source lumineuse discrète ou non, tous types d'écrans, de préférence couleurs, actuels et à venir, tous types d'imprimantes monochrome ou couleurs actuels et à venir, une ou plusieurs bases de données locales ou déportées sur les réseaux numériques dont Internet et selon les cas un système expert d'ordre 0+ ou 1.In its first destination, it may include a computer or a microprocessor for processing type CPU ("Central Processing Unit" or CPU), mono, dual, quad cores and higher or multi core processors classic types pentium, athlon or higher , or SPU type ("Streaming Processor Unit"), equipped with a main core and up to eight or more specific cores, with a hard disk of at least 500K bytes and / or a digital storage memory, one or more media of the CD-ROM, DVD, Multimedia Card®, Memory Stick®, MicroDrive®, XD Card®, SmartMedia®, SD Card®, Compact Flash® types 1 and 2, USB key or other, all types of modems or modules for wired or wireless connections to digital networks, such as the Internet, one or more connection modules for the local environment such as Bluetooth®, infrared, wifi®, wimax® and forthcoming , a color camera fixed video or type CCD and superior digital television, a discrete light source or not, all types of screens, preferably colors, current and future, all types of printers monochrome or current and future colors, one or more bases local or remote data on digital networks, including the Internet and, depending on the case, an expert system of order 0+ or 1.
Dans une seconde destination, si l'on souhaite installer un tel système de simulation dans les linéaires des magasins de produits cosmétiques, dans un institut ou cabinet spécialisé, de manière à être le moins encombrant possible voire cinétique, il pourrait être souhaitable qu'en fonction de la taille du client et pour son confort, le simulateur se déplace par lui-même à la hauteur du visage du ou de la cliente. C'est-à-dire qu'il ne tient pas de place au sol.In a second destination, if one wishes to install such a simulation system in the shelves of cosmetics stores, in a specialized institute or cabinet, so as to be the least cumbersome or even kinetic, it may be desirable that depending on the size of the client and for its comfort, the simulator moves by itself to the height of the face of the client. That is to say, it does not take up space on the ground.
En ce cas, le système de vision définit supra peut être composé d'un éclairage discret lumière du jour ou diode lumineuses blanches, d'une caméra mono CCD ou supérieur, d'une carte graphique, d'un écran couleur plat et tactile et d'une imprimante de type ticket ou couleur papier A4 et A3 voire supérieur. L'ensemble peut alors être totalement intégré dans un « Panel PC » ultra compact léger dont l'encombrement est donné par les dimensions de tous types d'écran plat, de préférence couleur. Le traitement est local et l'ensemble des mises à jour techniques ou des contenus comme la maintenance peut s'effectuer via une connexion filaire ou radio fréquence aux réseaux numériques dont Internet.In this case, the vision system defined above can be composed of a discreet daylight or white light-emitting diode, a mono CCD or higher camera, a graphics card, a flat and touch-sensitive color screen. a receipt-type printer or A4 and A3 paper color or higher. The assembly can then be fully integrated in a lightweight "panel PC" ultra light whose size is given by the dimensions of all types of flat screen, preferably color. The processing is local and all technical updates or content such as maintenance can be done via a wired connection or radio frequency to digital networks including the Internet.
Le système fonctionne par l'asservissement visuel du dispositif via sa caméra, en se calant automatiquement sur le visage de l'utilisateur par l'utilisation d'un module de détection et de suivi d'un visage/tête d'un personnage. A partir d'une position que l'on dira d'équilibre, quand une simulation sera souhaitée par un utilisateur, le système s'immobilisera lorsqu'il aura détecté son objectif, par exemple l'image d'un visage/tête. Selon les conditions environnementales, le système de vision peut régler de façon automatique l'éclairage et le zoom de la caméra afin d'avoir une taille d'image et un code image du visage sur l'écran de qualité optimale quasi constante.The system operates by the visual servoing of the device via its camera, automatically leaning on the face of the user by the use of a module for detecting and tracking a face / head of a character. From a position that we say balance, when a simulation is desired by a user, the system will stop when it has detected its purpose, for example the image of a face / head. Depending on the environmental conditions, the vision system can automatically adjust the camera's illumination and zoom in order to have an image size and a facial image code on the screen of almost constant optimal quality.
Dans une troisième destination, le système de pilotage des fonctions du procédé peut être un terminal, tel un clavier alphanumérique, une souris ou tous autres moyens. La caméra, selon le terminal, peut être reliée par toutes connections ou tous types de réseaux numériques à un système d'édition, avec de préférence les sorties sur écran couleur et/ou papier assemblées en un seul dispositif à côté de l'utilisateur. La partie traitement et calcul peut être gérée par un ou plusieurs serveurs locaux, ou déportés sur les réseaux numériques, dont Internet, et équipé d'au moins un microprocesseur, par exemple de type CPU (« Central Processing Unit ») 32 ou 64 bits mono, double, quadri cœurs et supérieurs ou processeurs multi cœur classiques types pentium, athlon, ou de type SPU (« Streaming Process Unit ») ou un cœur principal et huit cœurs spécifiques type cell, et tous types de mémoires électroniques ou magnétiques.In a third destination, the control system of the process functions can be a terminal, such as an alphanumeric keyboard, a mouse or any other means. The camera, depending on the terminal, can be connected by all connections or all types of digital networks to an editing system, preferably with the outputs on color screen and / or paper assembled in a single device next to the user. The processing and calculation part can be managed by one or more local servers, or deported on digital networks, including the Internet, and equipped with at least one microprocessor, for example 32 or 64 bit CPU ("Central Processing Unit") type. mono, dual, quad-core and higher or multi-core processors classic types pentium, athlon, or type SPU ("Streaming Process Unit") or a main core and eight specific cores type cell, and all types of electronic or magnetic memories.
Quelque soit le dispositif mis en œuvre, la capture des images en couleur est avantageusement obtenue en temps réel au moyen de tous types de caméras vidéo numériques, de préférence couleurs, tel qu'une caméra vidéo numérique couleur mono ou CCD, ou un dispositif à couplage de charge et supérieure, une caméra vidéo numérique couleur CMOS (métal-oxyde-semi-conducteur) complémentaire, ou analogue par exemple une Webcam, afin de fournir, en temps réel, une simulation esthétique précieuse par détection en haute qualité, des composantes géométriques et dynamiques du visage et par un traitement d'images approprié. Pour être suffisamment convivial, le traitement peut s'effectuer localement ou sur serveur déporté et selon la vitesse de calcul, en temps réel ou assimilé comme tel, ou en mode relecture.Whatever the device implemented, the capture of the color images is advantageously obtained in real time by means of all types of digital video cameras, preferably color, such as a digital color video camera mono or CCD, or a device to load coupling and superior, a complementary color CMOS (metal-oxide semiconductor) video camera, or similar, for example, a webcam, in order to provide, in real time, a valuable aesthetic simulation by high quality detection, components geometric and dynamic facial features and appropriate image processing. To be sufficiently user-friendly, the processing can be done locally or on a remote server and according to the speed of calculation, in real time or assimilated as such, or in playback mode.
L'ensemble du traitement peut être réalisé sans trop de contraintes d'éclairage ni de poses pour chaque personnage présent dans l'image, considérant un fond incertain fixe ou mobile, et un certain nombre d'occlusions.The whole treatment can be done without too many lighting constraints and poses for each character present in the image, considering an uncertain background fixed or mobile, and a number of occlusions.
Ainsi, dans diverses conditions environnementales du monde physique et/ou artificiel, les expérimentations démontrent que le procédé mis en œuvre selon la présente invention demeure robuste et suffisamment précis lors de la phase d'extraction et d'évolution des contours des traits permanents du visage/tête à savoir notamment : les yeux, les sourcils, les lèvres, la chevelure et les autres éléments morphologiques, selon le travail de transformation esthétique recherché, etc.Thus, in various environmental conditions of the physical and / or artificial world, the experiments demonstrate that the method implemented according to the present invention remains robust and sufficiently precise during the phase of extraction and evolution of the contours of the permanent features of the face / head namely namely: the eyes, eyebrows, lips, hair and other morphological elements, according to the work of aesthetic transformation sought, etc.
Pour chacun des traits considérés, une bouche souriante ou parlante par exemple, divers modèles paramétriques spécifiques capables de rendre compte de toutes les déformations possibles peuvent être prédéfinis et mis en œuvre en fonction des critères de décision de la base du système expert.For each of the features considered, for example a smiling or talking mouth, various specific parametric models capable of accounting for all the possible deformations can be predefined and implemented according to the decision criteria of the expert system base.
Le procédé comprend avantageusement trois phases synchronisées : 1. Une phase d'acquisition et d'initialisation : on procède à l'analyse et à la détection des formes et des contours du visage /tête dans une image vidéo numérisée correspondant à la première image d'une séquence. Les points caractéristiques et régions d'intérêts du visage/tête sont extraits, coins des yeux et de la bouche par exemple, et servent de points d'ancrage initiaux pour chacun des modèles paramétriques adaptés prédéfinis. Dans la phase d'évolution, chaque modèle est déformé afin de coïncider au mieux avec les contours des traits présents sur le visage analysé. Cette déformation se fait par maximisation d'un flux de gradient de luminance et/ou de chrominance le long des contours définis par chaque courbe du modèle. La définition de modèles permet d'introduire naturellement une contrainte de régularisation sur les contours recherchés. Néanmoins, les modèles choisis restent suffisamment flexibles pour permettre une extraction réaliste des contours des yeux, des sourcils et de la bouche.The method advantageously comprises three synchronized phases: 1. An acquisition and initialization phase: the shapes and contours of the face / head are analyzed and detected in a digitized video image corresponding to the first image of the image. 'a sequence. Dots characteristics and areas of interest of the face / head are extracted, corners of eyes and mouth for example, and serve as initial anchors for each of the predefined adapted parametric models. In the evolution phase, each model is deformed in order to coincide with the contours of the features present on the analyzed face. This deformation is done by maximizing a luminance gradient flux and / or chrominance along the contours defined by each curve of the model. The definition of models makes it possible to naturally introduce a regularization constraint on the contours sought. Nevertheless, the chosen models remain flexible enough to allow a realistic extraction of the contours of the eyes, the eyebrows and the mouth.
2. Une phase de suivi et de transformation. Le suivi permet d'effectuer la segmentation de manière plus robuste et plus rapide dans les images suivantes de la séquence vidéo. La transformation conduit à la modification des zones caractéristiques fines du visage/tête suivi dans la séquence vidéo en fonction de critères multiples prévus en base de données et/ou selon le cas en fonction de critères de décision d'un système expert d'ordre 0+ ou 1.2. A phase of monitoring and transformation. Tracking makes segmentation more robust and faster in subsequent frames of the video clip. The transformation leads to the modification of the fine characteristic areas of the face / head followed in the video sequence according to multiple criteria provided for in the database and / or as the case may be according to decision criteria of an expert system of order 0 + or 1.
3. Une phase de restitution offrant sur un écran et/ou sur papier et/ou via un serveur sur tous réseaux numériques, les résultats de la phase de transformation pour toute la séquence vidéo.3. A rendering phase offering on a screen and / or paper and / or via a server on all digital networks, the results of the transformation phase for the entire video sequence.
Au cours de la première phase, le système de traitement de la séquence vidéo va coordonner plusieurs opérations successives.During the first phase, the video processing system will coordinate several successive operations.
Dans un premier temps, il procède sur la première image de la séquence à la localisation du visage/tête du personnage en mouvement dans une scène en considérant l'information de chrominance typique associée à la peau. Le visage/tête détecté correspond à une zone d'intérêt dans l'image.At first, he proceeds to the first image of the sequence at the location of the face / head of the moving character in a scene by considering the typical chrominance information associated with the skin. The detected face / head corresponds to an area of interest in the image.
Suite à cette extraction, le procédé permet de s'affranchir des variations d'illumination en utilisant un filtrage adapté du comportement de la rétine, pour la région d'intérêt.Following this extraction, the method makes it possible to overcome illumination variations by using a filter adapted to the behavior of the retina, for the region of interest.
Le système procède alors, pour la région d'intérêt ainsi filtrée, à l'extraction des traits caractéristiques du visage, de préférence à l'aide de modèles paramétriques adaptés, à savoir les iris, les yeux, les sourcils, les lèvres, le contour du visage et le casque des cheveux.The system then proceeds, for the region of interest thus filtered, to the extraction of the characteristic features of the face, preferably using suitable parametric models, namely the irises, eyes, eyebrows, lips, the contour of the face and the helmet of the hair.
Pour l'iris, on recherche le demi-cercle qui maximise le flux de gradient de luminance normalisée dans chaque quart droit et gauche du rectangle englobant le visage.For the iris, we search for the semicircle that maximizes the normalized luminance gradient flux in each right and left quarter of the rectangle encompassing the face.
Le positionnement initial de chaque modèle sur l'image à traiter a lieu après l'extraction automatique de points caractéristiques sur le visage.The initial positioning of each model on the image to be processed takes place after the automatic extraction of characteristic points on the face.
Un processus de suivi de points de gradient de luminance maximum peut être utilisé pour détecter le coin des yeux. Deux courbes de Bézier, dont une améliorée qui s'incurve vers son extrémité pour épouser naturellement le dessin du contours inférieur de l'œil, modèles choisis pour les contours supérieurs et inférieurs de l'œil, peuvent être initialisées par les deux coins des yeux et le point le plus bas du cercle détecté pour l'iris pour le contour inférieur, et par les deux coins des yeux et le centre du cercle détecté pour l'iris pour le contour supérieur.A maximum luminance gradient point tracking process can be used to detect the corner of the eyes. Two Bézier curves, one of which is curved towards its end to naturally follow the drawing of the lower contours of the eye, models chosen for the upper and lower contours of the eye, can be initialized by the two corners of the eyes. and the lowest point of the circle detected for the iris for the lower contour, and by the two corners of the eyes and the center of the circle detected for the iris for the upper contour.
Pour l'initialisation de la courbe de Bézier associée aux sourcils, on peut extraire les deux coins intérieur et extérieur de chaque sourcil.For the initialization of the Bezier curve associated with the eyebrows, one can extract the two inner and outer corners of each eyebrow.
Le modèle proposé pour la modélisation des lèvres est avantageusement au moins composé de cinq courbes indépendantes, chacune d'entre elles décrivant naturellement une partie du contour labial extérieur et au moins deux courbes pour les contours intérieurs. Les points caractéristiques de la bouche en vue d'initialiser le modèle peuvent être analysés en utilisant conjointement une information discriminante combinant la luminance et la chrominance ainsi que la convergence d'un type de contour actif permettant de s'affranchir des réglages des paramètres du contour ainsi que de sa haute dépendance à la position initiale.The proposed model for the modeling of the lips is advantageously at least composed of five independent curves, each of them naturally describing part of the outer lip contour and at least two curves for the inner contours. The characteristic points of the mouth in order to initialize the model can be analyzed by using a discriminant information combining luminance and chrominance as well as the convergence of an active contour type that makes it possible to overcome the parameters of the parameters of the contour. as well as its high dependence on the initial position.
La modélisation du contour du visage utilise avantageusement huit points caractéristiques situés sur ce contour. Ces huit points initialisent un contour modélisé par des quarts d'ellipse déformables, selon la position du visage dans une dimension temporelle.The modeling of the contour of the face advantageously uses eight characteristic points situated on this contour. These eight points initialize an outline modeled by deformable ellipse quarters, according to the position of the face in a temporal dimension.
Le casque des cheveux peut être segmenté à partir de la détection du contour du visage en associant le filtrage du fond de l'image à l'utilisation de contours actifs. Des points caractéristiques situés sur le contour des cheveux sont ainsi détectés. Entre chacun de ces points, le modèle utilisé peut être une courbe polynomiale cubique.The hair helmet can be segmented from the detection of the contour of the face by associating the filtering of the background of the image with the use of active contours. Characteristic points located on the contour of the hair are thus detected. Between each of these points, the model used can be a cubic polynomial curve.
Tous les modèles initiaux proposés peuvent ensuite être déformés pour que chaque contour recherché soit un ensemble de points de gradient de luminance maximum. Les courbes sélectionnées seront de préférence celles qui maximisent le flux de gradient de luminance normalisé à travers le contour.All proposed initial models can then be deformed so that each desired contour is a set of points of maximum luminance gradient. The selected curves will preferably be those that maximize the normalized luminance gradient flux across the contour.
Au cours de la deuxième phase, l'étape de suivi permet d'effectuer la segmentation dans les images suivantes de la séquence vidéo. Durant cette étape, les résultats obtenus dans les images précédentes fournissent des informations supplémentaires susceptibles de rendre la segmentation plus robuste et plus rapide. La procédure de suivi précis, selon un mode de réalisation avantageux de la présente invention, utilise un algorithme qui permet de suivre des points caractéristiques d'une image à l'autre. Cette méthode différentielle, n'utilisant que le voisinage de points, apporte un gain de temps significatif par rapport à une technique d'extraction directe. Pour éviter une accumulation d'erreurs de suivi, les points caractéristiques peuvent être recalés en utilisant une version simplifiée des contours actifs, et/ou en déformant les courbes d'un modèle obtenu à l'image précédente.During the second phase, the tracking step allows the segmentation in the following images of the video sequence. During this step, the results obtained in previous images provide additional information that can make segmentation more robust and faster. The precise tracking procedure, according to an advantageous embodiment of the present invention, uses an algorithm that makes it possible to follow characteristic points from one image to another. This differential method, using only the neighborhood of points, brings a significant time saving compared to a direct extraction technique. To avoid an accumulation of tracking errors, the characteristic points can be recalculated by using a simplified version of the active contours, and / or by deforming the curves of a model obtained in the previous image.
L'étape de transformation peut conduire à la modification des zones caractéristiques fines du visage/tête suivi dans la séquence vidéo en fonction de critères multiples prévus en base(s) de données et/ou selon le cas en fonction de critères de décision d'au moins un système expert d'ordre 0+ ou 1. La présente invention peut proposer à l'utilisateur différents looks, palettes, présents en base de données pour la visualisation sur son visage. Afin de proposer une simulation esthétique précise et réaliste dépendante du visage traité, le système peut rechercher, à partir de calcul de ratios anthropométriques effectués par un système expert d'ordre 0+ ou 1, les zones caractéristiques, par exemple les pommettes, à transformer. De plus, pour chaque visage, le système expert peut définir des procédures de maquillage qui sont dépendantes de la forme du visage, rond ou allongé ou carré ou triangulaire ou ovale, et de certaines caractéristiques, yeux écartés ou yeux rapprochés ou yeux égaux, taille du nez, etc. Ces règles peuvent être communiquées au module de transformation pour une simulation réaliste et dépendante de chaque visage à transformer. Le procédé réalise également au cours de cette phase une classification des visages telle homme, femme, enfant, adolescent notamment.The transformation step may lead to the modification of the fine characteristic areas of the face / head followed in the video sequence according to multiple criteria provided in the database (s) and / or as the case may be according to decision criteria of at least one expert system of order 0+ or 1. The present invention may offer the user different looks, palettes, present in the database for viewing on his face. In order to propose a precise and realistic aesthetic simulation dependent on the treated face, the system can search, from anthropometric ratios calculated by an expert system of order 0+ or 1, the characteristic zones, for example the cheekbones, to transform . In addition, for each face, the expert system can define makeup procedures that are dependent on the shape of the face, round or elongate or square or triangular or oval, and certain features, eyes apart or eyes close together or eyes equal, nose size, etc. These rules can be communicated to the transformation module for a realistic and dependent simulation of each face to transform. The method also carries out during this phase a classification of faces such man, woman, child, teenager in particular.
Finalement, la phase de restitution offre sur un écran et/ou sur papier et/ou via un serveur sur tous réseaux numériques, les résultats de la phase de transformation pour toute la séquence vidéo et/ou pour une partie de cette séquenceFinally, the rendering phase offers on a screen and / or on paper and / or via a server on all digital networks, the results of the transformation phase for the entire video sequence and / or for part of this sequence
D'autres caractéristiques et avantages de la présente invention apparaîtront au cours de la description détaillée suivante, faite en référence aux dessins joints, donnés à titre d'exemples non limitatifs, et sur lesquels :Other features and advantages of the present invention will appear in the course of the following detailed description, made with reference to the accompanying drawings, given by way of non-limiting examples, and in which:
- la figure 1 est un schéma sous forme de blocs d'un système de simulation virtuelle d'images selon un mode de réalisation avantageux de la présente invention ;FIG. 1 is a block diagram of a virtual image simulation system according to an advantageous embodiment of the present invention;
- la figure 2 est un schéma bloc illustrant la phase d'extraction des visages/têtes de personnages et des zones caractéristiques selon un mode de réalisation avantageux de la présente invention ;FIG. 2 is a block diagram illustrating the phase of extraction of the faces / heads of characters and the characteristic zones according to an advantageous embodiment of the present invention;
- la figure 3 représente le schéma bloc du filtrage rétinien ;FIG. 3 represents the block diagram of the retinal filtering;
- la figure 4 est un dessin d'un des modèles paramétriques adaptés au suivi des lèvres en mouvement ;FIG. 4 is a drawing of one of the parametric models adapted to the tracking of moving lips;
- la figure 5 représente le résultat de l'extraction automatique des zones caractéristiques du visage à partir d'une séquence vidéo présentant un seul personnage avec la tête en mouvement devant l'objectif de la caméra selon les axes d'orientations X, Y et Z symbolisés sur cette même figure, à savoir le contour du visage, l'iris, les yeux, la bouche les sourcils, et le casque des cheveux ;FIG. 5 represents the result of the automatic extraction of the characteristic areas of the face from a video sequence presenting a single character with the head moving in front of the camera lens along the axes of orientations X, Y and Z symbolized in this same figure, namely the contour of the face, the iris, the eyes, the mouth, the eyebrows, and the headgear of the hair;
La figure 6 représente le résultat d'une simulation esthétique tel un look, avant et après transformation. La figure 1 représente un exemple d'un système de détection et suivi automatique temps réel des traits caractéristiques d'un objectif réel, tel un visage/tête d'un personnage en mouvement dans une scène, avec possibilité de simulation virtuelle d'images et comprenant un module d'acquisition d'images et d'initialisation 1, un module de suivi et de transformation 2 et un module de restitution 3. Chaque module va être décrit en détail ci-après.Figure 6 represents the result of an aesthetic simulation such a look, before and after transformation. FIG. 1 represents an example of a detection system and real-time automatic tracking of the characteristic features of a real objective, such as a face / head of a character moving in a scene, with the possibility of virtual simulation of images and comprising an image acquisition and initialization module 1, a tracking and transformation module 2 and a reproduction module 3. Each module will be described in detail below.
Le module d'acquisition d'images et d'initialisation 1 est mis en œuvre à partir de tous types de caméras vidéo numériques couleurs, tel qu'une caméra vidéo numérique couleur mono CCD ou dispositif à couplage de charge et supérieure, une caméra vidéo numérique couleur CMOS (métal-oxyde-semiconducteur) complémentaire, ou analogue.The image acquisition and initialization module 1 is implemented from all types of digital color video cameras, such as a color digital video camera CCD mono or charge coupled device and superior, a video camera complementary color CMOS (metal-oxide-semiconductor), or the like.
La séquence d'images prises par le module d'acquisition est analysée afin de détecter les zones et points caractéristiques du visage/tête. Cette analyse est mise en œuvre sous forme d'un microprocesseur de type CPU 32 ou 64 bits, SPU, ou un cœur principal et huit cœurs spécifiques type cell, mono, double, quadri cœurs et supérieurs ou processeurs multi cœur classiques types pentium, athlon, d'un ordinateur personnel ou d'un processeur de traitement du signal numérique. Les zones et points caractéristiques du visage/tête du personnage en mouvement dans une scène ainsi extraits et couplés au flot d'images sont envoyés au module de suivi et de transformation qui selon les critères multiples prévus dans une ou plusieurs base(s) de données, ou selon le cas, en fonction de critères de décision d'un ou plusieurs système(s) expert 21, renvoie au module de restitution 3 ses résultats : une séquence vidéo avec, par exemple, le visage maquillé. Le module de restitution offre, selon la présente invention, les résultats sur n'importe quel type d'écran (cathodique, LCD, plasma ou analogue) et/ou sur n'importe quel format de papier et/ou via un serveur sur tous réseaux numériques, par exemple Internet.The sequence of images taken by the acquisition module is analyzed in order to detect the zones and characteristic points of the face / head. This analysis is implemented in the form of a microprocessor of the 32 or 64-bit CPU type, SPU, or a main core and eight specific cores type cell, mono, double, quad cores and higher or multi core processors classic types pentium, athlon , a personal computer or a digital signal processor. The zones and characteristic points of the face / head of the moving character in a scene thus extracted and coupled to the flow of images are sent to the tracking and transformation module which according to the multiple criteria provided in one or more database (s) of data or, depending on the case, according to decision criteria of one or more expert system (s) 21, refers to the rendering module 3 its results: a video sequence with, for example, the masked face. The rendering module offers, according to the present invention, the results on any type of screen (cathodic, LCD, plasma or the like) and / or on any paper format and / or via a server on all digital networks, for example the Internet.
La figure 2 représente un schéma sous forme de blocs illustrant la phase d'extraction du visage/tête du personnage et des zones caractéristiques selon la présente invention. Au niveau du module d'initialisation 1, le logiciel de traitement de la séquence vidéo cadencé à la vitesse d'acquisition du capteur numérique vidéo va coordonner plusieurs opérations successives selon l'invention. Dans un premier temps, il procède à la localisation 11 du visage/tête du personnage dans une scène. A cette fin, on considère l'information de chrominance typique associée à la peau. On délimite ainsi la région d'intérêt de l'image par un rectangle englobant. Une phase de prétraitement 12 de cette région d'intérêt permet de s'affranchir des variations d'illumination en utilisant un filtrage adapté inspiré du comportement de la rétine. Ce filtrage permet, par la réalisation d'une succession de filtrages et de compressions adaptatives, de réaliser un lissage local des variations d'éclairement. Soit G un filtre gaussien de taille 15x15 et d'écart type σ = 2. Soit I1n l'image initiale et Ii le résultat de son filtrage par G. A partir de l'image Ii , on définit l'image X0 par la relation :Figure 2 shows a block diagram illustrating the extraction phase of the face / head of the character and characteristic areas according to the present invention. At the level of the initialization module 1, the software for processing the video sequence clocked at the acquisition speed of the digital video sensor will coordinate several successive operations according to the invention. At first, he proceeds to locate the face / head of the character in a scene. For this purpose, the typical chrominance information associated with the skin is considered. This defines the region of interest of the image by a bounding rectangle. A pretreatment phase 12 of this region of interest makes it possible to overcome illumination variations by using adapted filtering inspired by the behavior of the retina. This filtering makes it possible, by performing a succession of filterings and adaptive compressions, to perform a local smoothing of the variations of illumination. Let G be a Gaussian filter of size 15x15 and standard deviation σ = 2. Let I 1n be the initial image and Ii the result of its filtering by G. From the image Ii, we define the image X 0 by the relationship :
0.1 + 410/, χϋ = - 105.5 + /,0.1 + 410 /, χ ϋ = - 105.5 + /,
L'image X0 permet de définir la fonction de compression C par la relation :The image X 0 makes it possible to define the compression function C by the relation:
(255 + X0)/(255 + X 0 ) /
C:/ →-C: / → -
X0 + IX 0 + I
La figure 3 donne le schéma bloc du filtrage rétinien, la sortie de ce filtrage est notée Iout. Par exemple, à l'issu du filtrage, sur un visage éclairé latéralement qui présente de ce fait une variation importante de luminance entre les parties gauche et droite du visage, les variations de luminance seront fortement atténuées.Figure 3 gives the block diagram of the retinal filtering, the output of this filtering is noted I out . For example, at the end of the filtering, on a laterally illuminated face which therefore has a significant variation in luminance between the left and right parts of the face, the luminance variations will be greatly reduced.
L'extraction automatique des contours des traits permanents du visage, à savoir le contour du visage, dont l'homogénéité est prise en compte, les iris, les yeux, les sourcils, les lèvres, le casque des cheveux, suit dans un deuxième temps. Pour chacun des traits considérés, un modèle paramétrique spécifique (courbes polynomiales cubiques, courbes de Bézier, cercle, etc.) capable de rendre compte de toutes les déformations possibles est défini. Pour l'iris, on recherche le demi-cercle qui maximise le flux de gradient de luminance normalisée dans chaque quart droit et gauche du rectangle englobant le visage puisque le contour de l'iris est la frontière entre une zone sombre, l'iris, et une zone claire, le blanc de l'œil. La méthode de maximisation du flux de gradient normalisé présente l'avantage d'être très rapide, sans réglage de paramètre et elle conduit sans ambiguïté à la sélection du bon demi-cercle puisque le flux de gradient normalisé présente toujours un pic très marqué correspondant à la position correcte pour le demi-cercle recherché.The automatic extraction of the contours of the permanent features of the face, namely the contour of the face, whose homogeneity is taken into account, the irises, the eyes, the eyebrows, the lips, the hair helmet, follows in a second time . For each of the traits considered, a specific parametric model (cubic polynomial curves, Bezier curves, circle, etc.) capable of accounting for all possible deformations is defined. For the iris, we search for the semicircle that maximizes the normalized luminance gradient flux in each right and left quarter of the rectangle encompassing the face since the contour of the iris is the border between a dark zone, the iris, and a clear area, the white of the eye. The method of maximizing the standardized gradient flow has the advantage of being very fast, without parameter adjustment, and it leads unambiguously to the selection of the right semicircle since the standardized gradient flow always has a very marked peak corresponding to the correct position for the desired semi-circle.
Des points caractéristiques du visage sont extraits (coins des yeux et de la bouche par exemple) et servent de points d'ancrage initiaux 13 pour chacun des autres modèles.Characteristic points of the face are extracted (corners of the eyes and mouth for example) and serve as initial anchors 13 for each of the other models.
Les courbes de Bézier, dont une incurvée vers son extrémité, modèles choisis pour les contours supérieurs et inférieurs de l'œil, sont initialisées par les deux coins des yeux, détectés par un processus de suivi de points de gradient de luminance maximum, et le point le plus bas du cercle détecté pour l'iris pour le contour inférieur et par les deux coins des yeux et le centre du cercle détecté pour l'iris pour le contour supérieur.Bezier curves, one of which is curved towards its end, models chosen for the upper and lower contours of the eye, are initialized by the two corners of the eyes, detected by a process of tracking points of maximum luminance gradient, and the lowest point of the circle detected for the iris for the lower contour and the two corners of the eyes and the center of the circle detected for the iris for the upper contour.
Pour l'initialisation des courbes de Bézier associées aux sourcils, on extrait avantageusement les deux coins intérieur et extérieur de chaque sourcil. Pour chaque sourcil, la zone de recherche de ces points est réduite à la zone de l'image située au-dessus de l'iris détecté. Pour le calcul des abscisses des coins intérieurs et extérieurs, on recherche les abscisses des points pour lesquels il y a un changement de signe ou annulation de la dérivée de la projection horizontale de l'image vallée suivant les lignes. Pour le calcul des ordonnées de ces points, on recherche l'abscisse du maximum de la projection verticale de l'image vallée suivant les colonnes. Les deux coins intérieur et extérieur et le centre de ses deux coins servent de points de contrôle initiaux pour la courbe de Bézier associée à chaque sourcil. Cette méthode étant sujette au bruit, les points ainsi détectés sont réajustés lors de la phase de déformation du modèle associé aux sourcils.For the initialization of the Bezier curves associated with the eyebrows, the two inner and outer corners of each eyebrow are advantageously extracted. For each eyebrow, the search area of these points is reduced to the area of the image above the detected iris. For the calculation of the abscissae of the inner and outer corners, we search the abscissa of the points for which there is a change of sign or cancellation of the derivative of the horizontal projection of the valley image along the lines. For the computation of the ordinates of these points, one searches the abscissa of the maximum of the vertical projection of the valley image following the columns. The two inner and outer corners and the center of its two corners serve as initial control points for the Bezier curve associated with each eyebrow. Since this method is subject to noise, the points thus detected are readjusted during the deformation phase of the model associated with the eyebrows.
Le modèle proposé pour la modélisation des lèvres peut être composé de cinq courbes cubiques indépendantes, chacune d'entre elles décrivant une partie du contour labial extérieur. La figure 4 représente un dessin de ce modèle pour une bouche fermée. Contrairement à la plupart des modèles proposés dans la littérature, ce modèle original est suffisamment déformable pour représenter fidèlement les spécificités des lèvres très différentes. Entre Q2 et Q4, l'arc de Cupidon est décrit par une ligne brisée tandis que les autres portions du contour sont décrites par des courbes polynomiales cubiques. De plus, on impose d'avoir une dérivée nulle au point Q2, Q4 et Q6. Par exemple la cubique entre Qi et Q2 doit avoir une dérivée nulle en Q2. L'extraction des points caractéristiques Q1, Q2, Q3, Q4, Q5, Q6 de la bouche en vue d'initialiser le modèle se fait en utilisant conjointement une information discriminante combinant la luminance et la chrominance ainsi que la convergence d'un type de contour actif permettant de s'affranchir des réglages des paramètres du contour actif ainsi que de sa haute dépendance à la position initiale. Il en va de même pour les contours labiaux intérieurs où deux courbes permettent d'épouser parfaitement les contours intérieurs.The proposed model for lip modeling can be composed of five independent cubic curves, each of which describes a part of outside lip contour. Figure 4 shows a drawing of this model for a closed mouth. Unlike most models proposed in the literature, this original model is sufficiently deformable to faithfully represent the specificities of very different lips. Between Q2 and Q4, Cupid's bow is described by a broken line while the other portions of the outline are described by cubic polynomial curves. In addition, it requires having a zero derivative at point Q2, Q4 and Q6. For example, the cubic between Qi and Q 2 must have a null derivative in Q 2 . Extraction of the characteristic points Q 1 , Q 2 , Q 3 , Q 4 , Q 5 , Q 6 from the mouth in order to initialize the model is done by using a discriminant information combining luminance and chrominance as well as the convergence of an active contour type that makes it possible to dispense with the settings of the parameters of the active contour as well as its high dependence on the initial position. The same goes for the internal labial contours where two curves allow to perfectly marry the inner contours.
La détection du contour intérieur est plus difficile lorsque la bouche est ouverte, à cause des variations non-linéaires d'apparence à l'intérieur de la bouche. En effet, lors d'une conversation, la zone située entre les lèvres peut prendre différentes configuration : dents, cavité orale, gencives et langue.Detecting the inner contour is more difficult when the mouth is open, because of non-linear variations in appearance inside the mouth. Indeed, during a conversation, the area between the lips can take different configuration: teeth, oral cavity, gums and tongue.
Le modèle paramétrique pour le contour intérieur, lorsque la bouche est ouverte, peut être composé de quatre cubiques. Pour une bouche ouverte, « l'arc de Cupidon intérieur » est moins prononcé que pour une bouche fermée ; ainsi deux cubiques suffisent pour précisément extraire le contour intérieur supérieur des lèvres. Avec quatre cubiques, le modèle est flexible et permet de surmonter le problème de la segmentation du contour intérieur pour des bouches asymétriques.The parametric model for the inner contour, when the mouth is open, can be composed of four cubic. For an open mouth, "Cupid's bow inside" is less pronounced than for a closed mouth; thus two cubic is enough to precisely extract the upper inner contour of the lips. With four cubic, the model is flexible and overcomes the problem of the segmentation of the inner contour for asymmetrical mouths.
Deux contours actifs appelés « jumping snakes » peuvent être utilisés pour ajuster le modèle ; un premier pour le contour supérieur et un second pour le contour inférieur.Two active contours called jumping snakes can be used to adjust the model; one for the upper contour and one for the lower contour.
La convergence d'un « jumping snake » est une succession de phases de croissance et de saut. Le « snake » est initialisé à partir d'un germe, puis il grandit en ajoutant des points à gauche et à droite du germe. Chaque nouveau point est trouvé en maximisant un flux de gradient à travers le segment formé par le point courant à ajouter et le point précédent. Finalement, le germe saute vers une nouvelle position plus proche du contour recherché. Les processus de croissance et de saut sont répétés jusqu'à ce que l'amplitude du saut soit inférieure à un certain seuil. L'initialisation des deux « snakes » commence par la recherche de deux points sur les contours supérieur et inférieur, et appartenant à la verticale passant par Q3 sur la figure 4. La difficulté de la tâche réside dans le fait qu'il peut y avoir différentes zones entre les lèvres, qui peuvent avoir des caractéristiques (couleur, texture ou luminance) similaires ou complètement différentes que celles des lèvres, quand la bouche est ouverte.The convergence of a jumping snake is a succession of phases of growth and jumping. The "snake" is initialized from a germ, then it grows adding points to the left and right of the germ. Each new point is found by maximizing a gradient flow through the segment formed by the current point to be added and the previous point. Finally, the seed jumps to a new position closer to the desired outline. The growth and jump processes are repeated until the jump amplitude is below a certain threshold. The initialization of the two "snakes" begins with the search for two points on the upper and lower contours, and belonging to the vertical passing through Q 3 in Figure 4. The difficulty of the task lies in the fact that there can have different areas between the lips, which may have characteristics (color, texture or luminance) similar or completely different than those of the lips, when the mouth is open.
A partir des points clefs détectés, le contour intérieur final peut être donné par quatre cubiques. Les deux cubiques pour le contour supérieur peuvent être calculées par la méthode des moindres carrés. De même, les deux cubiques du contour inférieur peuvent aussi être calculées par la méthode des moindres carrés.From the key points detected, the final inner contour can be given by four cubic. The two cubes for the upper contour can be calculated by the least squares method. Similarly, the two cubic of the lower contour can also be calculated by the least squares method.
La modélisation du contour du visage utilise de préférence huit points caractéristiques situés sur ce contour a priori puisqu'un visage peut présenter des cheveux très longs qui recouvrent totalement le front et éventuellement les sourcils et les yeux : deux points au niveau des yeux, deux points au niveau des sourcils, deux points au niveau de la bouche, un point au niveau du menton et un point au niveau du front, qui sont extraits à partir d'un seuillage dans le plan V de la représentation HSV de l'image. Ces huit points initialisent un contour modélisé par des quarts d'ellipse.The modeling of the contour of the face preferably uses eight characteristic points situated on this contour a priori since a face can present very long hair which completely cover the forehead and possibly the eyebrows and the eyes: two points at the level of the eyes, two points at the level of the eyebrows, two points at the mouth, a point at the chin and a point at the forehead, which are extracted from a thresholding in the V plane of the HSV representation of the image. These eight points initialize an outline modeled by quarter ellipses.
Le casque des cheveux peut être segmenté à partir de la détection du contour du visage en associant le filtrage du fond de l'image à l'utilisation de contours actifs. Des points caractéristiques situés sur le contour des cheveux sont ainsi détectés. Entre chacun de ces points, le modèle utilisé peut être une courbe polynomiale cubique. II se peut que l'extraction automatique d'un ou plusieurs points échoue, dans ce cas le ou les points peuvent être très facilement replacés manuellement pour replacer correctement le ou les modèles et aborder leur phase d'évolution.The helmet of the hair can be segmented from the detection of the contour of the face by associating the filtering of the bottom of the image with the use of active contours. Characteristic points located on the contour of the hair are thus detected. Between each of these points, the model used can be a cubic polynomial curve. It is possible that the automatic extraction of one or more points fails, in this case the point or points can be very easily replaced manually to correctly replace the model or models and approach their evolution phase.
Dans la phase d'évolution des modèles, chaque modèle est déformé 14 afin de coïncider au mieux avec les contours des traits présents sur le visage analysé. Cette déformation se fait par maximisation d'un flux de gradient de luminance et/ou de chrominance, le long des contours définis par chaque courbe du modèle.In the evolution phase of the models, each model is deformed to coincide with the contours of the features present on the analyzed face. This deformation is done by maximizing a luminance gradient flux and / or chrominance, along the contours defined by each curve of the model.
La définition de modèles permet d'introduire naturellement une contrainte de régularisation sur les contours recherchés. Néanmoins, les modèles choisis restent suffisamment flexibles pour permettre une extraction réaliste des contours des yeux, des sourcils et de la bouche. La figure 5 représente le résultat de l'extraction automatique des zones caractéristiques du visage à savoir le contour du visage, les iris, les yeux, la bouche, les sourcils, et le casque des cheveux qui forment respectivement des modules anthropométriques du visage, selon un aspect de la présente invention.The definition of models makes it possible to naturally introduce a regularization constraint on the contours sought. Nevertheless, the chosen models remain flexible enough to allow a realistic extraction of the contours of the eyes, the eyebrows and the mouth. FIG. 5 represents the result of the automatic extraction of the characteristic zones of the face, namely the contour of the face, the irises, the eyes, the mouth, the eyebrows, and the helmet of the hair, which respectively form anthropometric modules of the face, according to an aspect of the present invention.
Dans un troisième temps, le logiciel procède au suivi du visage/tête et des traits caractéristiques du visage dans la séquence vidéo. Lors du suivi, les résultats obtenus dans les images précédentes fournissent des informations supplémentaires susceptibles de rendre la segmentation plus robuste et plus rapide.Third, the software tracks the face / head and facial features in the video sequence. During the follow-up, the results obtained in the previous images provide additional information that can make the segmentation more robust and faster.
La procédure de suivi précis, selon un mode de réalisation avantageux de la présente invention, utilise un algorithme qui permet de suivre des points caractéristiques d'une image à l'autre. Cette méthode différentielle, n'utilisant que le voisinage de points, apporte un gain de temps significatif par rapport à une technique d'extraction directe. Ce procédé s'appui sur l'équation de contrainte du mouvement apparent issue d'un développement de Taylor de l'équation ci- dessous :The precise tracking procedure, according to an advantageous embodiment of the present invention, uses an algorithm that makes it possible to follow characteristic points from one image to another. This differential method, using only the neighborhood of points, brings a significant time saving compared to a direct extraction technique. This method is based on the apparent motion stress equation derived from a Taylor development of the equation below:
It(x-d(x)) = It+ι(x)I t (xd (x)) = I t + ι (x)
On suppose que le voisinage du point suivi dans l'image /, se retrouve dans l'image suivante It+ι par une translation. d(x) est le vecteur déplacement du pixel de coordonnée x ou x est un vecteur. Considérons un voisinage R de taille nxn dans l'image de référence prise au temps t. Le but est donc de retrouver dans l'image suivante la région la plus ressemblante à R. Si on note It{x) et It+ι{x) les valeurs de niveaux de gris dans ces deux images, le procédé minimise la fonction de coût égale à la somme des différences inter pixels au carré.We suppose that the neighborhood of the point followed in the image /, is found in the following image I t + ι by a translation. d (x) is the displacement vector of coordinate pixel x or x is a vector. Consider a neighborhood R of size nxn in the reference image taken at time t. The goal is therefore to find in the next image the region most resembling R. If we denote I t (x) and I t + ι (x) the values of gray levels in these two images, the method minimizes the cost function equal to the sum of the inter pixel differences squared.
De plus, pour éviter l'accumulation des erreurs de suivi, qui donnerait des résultats approximatifs, le procédé utilise avantageusement un recalage des points caractéristiques en utilisant une version simplifiée des contours actifs et/ou en déformant les courbes du modèle obtenu à l'image précédente. Finalement, les contours finaux sont extraits. Pour cela, la forme des zones caractéristiques dans l'image précédente ainsi que les points caractéristiques sont utilisés pour calculer les courbes optimales constituant les différents modèles.In addition, to avoid the accumulation of tracking errors, which would give approximate results, the method advantageously uses a registration of the characteristic points by using a simplified version of the active contours and / or by deforming the curves of the model obtained in the image. previous. Finally, the final contours are extracted. For this, the shape of the characteristic zones in the previous image as well as the characteristic points are used to calculate the optimal curves constituting the different models.
Au cours de la phase de transformation, les outils de reconnaissance et de suivi des zones anthropométriques du visage dans l'image communiquent toutes les données qu'ils ont extraites à la phase de transformation. En fonction de critères multiples prévus en base de données et/ou selon le cas en fonction de critères de décision d'un système expert d'ordre 0+ ou 1, le module va alors déterminer les traitements à effectuer. Ceux ci seront déterminés par le thème ou les thèmes que l'utilisateur aura choisis. Ainsi par exemple, s'il s'agit d'une opération de maquillage, les zones caractéristiques du visage, définies selon les résultats d'extraction et selon la fonction choisie par l'utilisateur (look/palette), sont modifiées automatiquement dans la séquence d'images consécutives en fonction de choix harmoniques et personnalisés. Par exemple, pour un visage rond, le procédé estompe les côtés du visage dans un ton plus foncé. Au contraire, pour un visage triangulaire, le procédé estompe les côtés du visage dans un ton plus clair. L'utilisateur peut choisir le look, présent dans une base de données, qu'il souhaite appliquer au visage apparaissant dans les images consécutives. Les looks sont des dessins particuliers définis au préalable avec l'homme du métier. Ces dessins et formes appropriés se caractérisent comme étant des gabarit virtuels préalablement définis qui vont être recalculés et réajustés aux zones du visage auxquelles ils s'opèrent, en fonction des informations issues du module d'extraction et de suivi, du contexte de l'image et des effets qu'ils doivent suggérer.During the transformation phase, the tools for recognizing and monitoring the anthropometric areas of the face in the image communicate all the data they have extracted during the transformation phase. Depending on the multiple criteria provided for in the database and / or according to the decision criteria of an expert system of order 0+ or 1, the module will then determine the treatments to be performed. These will be determined by the theme or themes that the user will have chosen. For example, if it is a make-up operation, the characteristic areas of the face, defined according to the extraction results and according to the function chosen by the user (look / palette), are automatically modified in the sequence of consecutive images according to harmonic and personalized choices. For example, for a round face, the process blurs the sides of the face in a darker tone. On the contrary, for a triangular face, the process blurs the sides of the face in a lighter tone. The user can choose the look, present in a database, which he wishes to apply to the face appearing in the consecutive images. The looks are particular drawings previously defined with the skilled person. These drawings and appropriate forms are characterized as being previously defined virtual templates that will be recalculated and readjusted to the areas of the face where they operate, depending on the information from the extraction and monitoring module, the context of the image and the effects they must suggest.
L'utilisateur peut également choisir zone par zone (lèvres, yeux, pommettes, visage, etc.) la couleur qu'il souhaite appliquer. Ces couleurs seront en harmonie avec les caractéristiques du visage. Ainsi, le système expert détermine une palette de couleurs disponibles, corrélées avec celles d'une gamme disponible dans sa ou ses bases de données, en fonction des données issues de la phase d'initialisation et d'évolution.The user can also choose zone by zone (lips, eyes, cheekbones, face, etc.) the color he wishes to apply. These colors will be in harmony with the characteristics of the face. Thus, the expert system determines a range of available colors, correlated with those of a range available in its database or databases, according to the data from the initialization phase and evolution.
Ainsi, lors de la phase de restitution, l'outil va pouvoir réaliser une proposition de coloriage en harmonie avec le visage par exemple, mais aussi proposer une sélection de couleurs, parmi une gamme, en parfaite harmonie avec le visage. Les couleurs complétées de leurs textures originales sont analysées, calculées et définies dans leur contexte particulier (les rouges à lèvres ou les gloss ou les poudres notamment).Thus, during the restitution phase, the tool will be able to make a coloring proposal in harmony with the face for example, but also offer a selection of colors, from a range, in perfect harmony with the face. The colors complemented by their original textures are analyzed, calculated and defined in their particular context (lipsticks or glosses or powders in particular).
Les outils vont alors appliquer en fonction de la texture de la zone (lèvre, joue, cheveux, etc.) la couleur correspondant au maquillage, mais aussi de façon transparente l'effet du produit cosmétique, c'est-à-dire que l'on va reproduire son aspect réel, par exemple sa brillance, son aspect poudré ou pailleté (rouge à lèvres pailleté sur la figure 6, son aspect mate notamment. Cette opération prend en compte le contexte de la séquence d'images consécutives dans chacune de leurs zones respectives (éclairages, luminosité, ombres, reflets, etc.), ce qui va permettre à l'aide d'outils algorithmiques de calculer leurs textures, de les définir dans leur aspect réel, telle qu'elles seraient reproduite dans la réalité.The tools will then apply depending on the texture of the area (lip, cheek, hair, etc.) the color corresponding to the makeup, but also in a transparent manner the effect of the cosmetic product, that is to say that it will reproduce its real appearance, for example its brilliance, its powdered or glittery appearance (glittery lipstick in figure 6, especially its matte appearance) This operation takes into account the context of the sequence of consecutive images in each of their respective areas (lighting, brightness, shadows, reflections, etc.), which will allow the help of algorithmic tools to calculate their textures, to define them in their real aspect, as they would be reproduced in reality .
Par ce procédé, on améliore sensiblement la qualité et les propriétés réalistes de la séquence d'images consécutives. De plus, certaines particularités du visage sont améliorées. Ainsi par exemple, les rides frontales, les rides pattes d'oie, les cernes, les rides du lion, les sillons nasogéniens, les plis d'amertume, les rides péribuccales, les tâches de rousseur, l'acné et la couperose sont fortement estompées.By this method, the quality and realistic properties of the consecutive image sequence are substantially improved. In addition, some features of the face are improved. For example, face wrinkles, crow's feet wrinkles, dark circles, lion wrinkles, nasolabial folds, bitter creases, perioral wrinkles, freckles, acne and rosacea are strongly blurred.
Également, des traitements esthétiques comme le blanchiment du visage, le bronzage, le blanchiment des dents, l'élévation des paupières, l'épaississement des lèvres, la rectification légère de l'ovale du visage, la rectification de la forme du menton et/ou du nez, le rehaussement et augmentation des pommettes sont simulés automatiquement pour un visage apparaissant dans une séquence vidéo.Also, aesthetic treatments such as face whitening, tanning, teeth whitening, eyelid lifting, thickening of the lips, the light rectification of the oval of the face, the rectification of the shape of the chin and / or the nose, the raising and raising of the cheekbones are simulated automatically for a face appearing in a video sequence.
On peut aussi améliorer l'esthétique du visage en relation avec une nouvelle coiffure, et/ou une coloration capillaire. Il est aussi possible d'ajuster la couleur, la matière, la forme et/ou les dimensions adéquates des montures de lunettes, des bijoux et/ou d'accessoires d'ornement avec le visage, ou d'ajuster des verres de contact de couleurs ou d'amusement en adéquation avec la teinte de l'iris. Il est aussi possible d'appliquer l'invention aux techniques de biométrie faciale, par exemple pour identifier avec un taux optimal de fiabilité un visage connu dont les informations caractéristiques sont chargées dans la base de données du système expert. On peut aussi réaliser des photos d'identité numériques à la norme du passeport biométrique.We can also improve the aesthetics of the face in relation to a new hairstyle, and / or hair coloring. It is also possible to adjust the appropriate color, material, shape and / or dimensions of eyeglass frames, jewelry and / or ornamental accessories with the face, or to adjust contact lenses of colors or fun in keeping with the hue of the iris. It is also possible to apply the invention to facial biometric techniques, for example to identify with an optimal reliability rate a known face whose characteristic information is loaded into the database of the expert system. Digital passport photos can also be made to the biometric passport standard.
L'invention permet aussi de reconnaître des visèmes qui décrivent les différentes configurations, ou différents phonèmes prononcés, d'une bouche parlante. Elle permet ainsi de déterminer la personnalité et le caractère d'une personne, examiné à partir de l'observation morphologique de son visage/tête, tel que, par exemple, la présence des plis d'amertume, la taille et l'écartement des yeux, la taille et la forme du nez, du lobe des oreilles, la base de données correspondant à l'observation des visages étant alors complétée par les techniques mises en œuvres par les morpho psychologues, les psychiatres, les profileurs et les anatomistes dans le domaine considéré.The invention also makes it possible to recognize visemes that describe the different configurations, or different pronounced phonemes, of a talking mouth. It thus makes it possible to determine the personality and the character of a person, examined from the morphological observation of his / her face / head, such as, for example, the presence of the folds of bitterness, the size and the spacing of the eyes, the size and shape of the nose, the lobe of the ears, the database corresponding to the observation of the faces being then supplemented by the techniques implemented by the morpho psychologists, the psychiatrists, the profilers and the anatomists in the domain considered.
Il est aussi envisageable d'appliquer l'invention à la photographie numérique réalisée notamment en cabine de photos d'identités et/ou d'amusement, sur des bornes automatiques de développement de photos numériques instantanées, sur systèmes infographiques de retouches et de développements d'images, permettant de grimer, d'améliorer ou de valoriser l'esthétique de l'image d'un utilisateur, la base de donnée étant alors complétée par une collection de règles esthétiques et de looks de grimages, utilisables simultanément ou non, concernant le maquillage, l'amusement, la coiffure, les techniques capillaires, la texture de la peau, et l'accessoirisation. L'ensemble des éléments RVB ou rouge, vert, bleu complétés des indications dessins, seuillages et coordonnées constituant la réalisation d'un « Look » ou la visualisation naturelle d'un rouge à lèvres dans une palette par exemple, peuvent être réalisés et enregistrés sous forme d'un simple fichier composé d'une chaîne alphanumérique de faible poids diffusable sur tous supports numériques ou télécharger depuis un serveur sur les Réseaux numériques tel Internet. Ce fichier peut servir à la mise à jour artistique de la base de données ou du système expert de façon souple et rapide ou être utilisé immédiatement par l'utilisateur à partir d'un simple téléchargement depuis une page Web par exemple.It is also conceivable to apply the invention to digital photography carried out in particular in the identity and / or amusement photo booth, on automatic terminals for the development of digital snapshots, on retouching and development computer graphics systems. images, allowing to make, improve or enhance the aesthetics of the image of a user, the database being then supplemented by a collection of aesthetic rules and looks of images, usable simultaneously or not, concerning make-up, fun, hairstyle, hair techniques, skin texture, and accessorization. All the elements RGB or red, green, blue completed indications drawings, thresholds and coordinates constituting the realization of a "Look" or the natural visualization of a lipstick in a palette for example, can be made and recorded in the form of a simple file consisting of a low-weight alphanumeric string broadcast on all digital media or download from a server on digital networks such as the Internet. This file can be used for the artistic update of the database or the expert system in a flexible and fast way or be used immediately by the user from a simple download from a web page for example.
De manière générale, la base de données associée au système expert est enrichie de règles spécifiques relatives à l'application de l'invention, par exemple la cosmétique et/ou dermatologie, la chirurgie plastique et/ou médecine esthétique, l'ophtalmologie, la techniques des visagistes et/ou des coiffeurs, la biométrie faciale, etc.In general, the database associated with the expert system is enriched with specific rules relating to the application of the invention, for example cosmetics and / or dermatology, plastic surgery and / or aesthetic medicine, ophthalmology, hairdressers and / or hairdressers, facial biometrics, etc.
Ainsi, le traitement est indépendant du contenu ce qui permet une utilisation du procédé à une échelle industrielle et une très forte propagation de son utilisation avec un fort accroissement du rendement.Thus, the treatment is independent of the content which allows a use of the process on an industrial scale and a very strong propagation of its use with a strong increase in yield.
D'une façon plus générale, les traits caractéristiques du visage dans la séquence vidéo sont modifiés en fonction de décisions de la base de données et/ou du système expert. La figure 6 représente le résultat avant/après d'une simulation de maquillage (look), d'accessoires (lentilles de couleur, piercing), et de coloration capillaire pour une image extraite d'une séquence vidéo acquise par une caméra vidéo couleur.More generally, the characteristic features of the face in the video sequence are modified according to decisions of the database and / or the expert system. Figure 6 shows the before / after result of a makeup simulation (look), accessories (color lenses, piercing), and hair coloring for an image extracted from a video sequence acquired by a color video camera.
Le module de restitution se traduit par, selon la présente invention, l'affichage de la séquence d'images transformées sur n'importe quel type d'écran couleur et/ou ensuite par une impression d'une ou plusieurs images simulées sur n'importe quel format de papier et/ou via un serveur sur tous réseaux numériques.The rendering module translates, according to the present invention, the display of the sequence of transformed images on any type of color screen and / or then by printing one or more images simulated on n ' any paper format and / or via a server on any digital network.
Pour la simulation, la phase de restitution se traduit par une proposition esthétique caractérisée par la transformation de la séquence vidéo initiale en une nouvelle séquence vidéo virtuelle sur laquelle apparaissent en parfaite concordance les modifications esthétiques souhaitées. Par exemple un maquillage, complété d'accessoires et d'une couleur capillaire et les références et prix de vente des produits correspondants dans une ou plusieurs marques.For the simulation, the restitution phase results in an aesthetic proposition characterized by the transformation of the initial video sequence into a a new virtual video sequence on which the desired aesthetic modifications appear in perfect harmony. For example a makeup, complete with accessories and a hair color and the references and sales prices of the corresponding products in one or more brands.
Une image statique choisie par l'utilisateur parmi la séquence vidéo, peut être ensuite édité localement, sur une imprimante couleur de type aiguilles, jet d'encre, jet d'encre solide, laser, ou à sublimation thermique, dans un format A4 ou tout autre format disponible techniquement.A static image chosen by the user from the video sequence, can then be edited locally, on a color printer of needles type, inkjet, solid inkjet, laser, or thermal sublimation, in A4 format or any other format available technically.
Le contenu de ses informations formule une ordonnance beauté, reprenant l'image initiale et l'image transformée, des conseils techniques et scientifiques, des astuces professionnelles, les caractéristiques du visage (forme, couleur, etc.), la photo des produits, la palette de couleurs personnelles en harmonie avec les caractéristiques du visage transformées, un conseil couleur vêtement par rapport à nos couleurs etc. Les résultats peuvent être de la même manière édités sur des imprimantes délocalisées haute définition d'un serveur Internet qui se chargera de les expédier à l'adresse postale de l'utilisateur.The content of its information formulates a beauty prescription, taking the initial image and the transformed image, technical and scientific advice, professional tips, facial features (shape, color, etc.), product photography, personal color palette in harmony with the transformed facial features, a color garment board compared to our colors etc. The results can be similarly edited on high definition delocalized printers from an Internet server which will send them to the user's postal address.
Ces mêmes résultats peuvent être traduits, de la même manière, sur ou dans différents supports pré imprimés ou non (CV, carte postale virtuelle, clip multimédia, vidéo, calendrier, bannière, affichette, album photo, etc.) disponibles à travers les applications du serveur. Ils peuvent être archivés dans tous les types de mémoires du terminal ou sur le serveur Internet pour une utilisation ultérieure.These same results can be translated, in the same way, on or in different pre-printed or non-printed media (CV, virtual postcard, multimedia clip, video, calendar, banner, poster, photo album, etc.) available through the applications. the server. They can be archived in all types of memories of the terminal or on the Internet server for later use.
La nouvelle image et/ou la nouvelle séquence vidéo complétée ou non des informations peut être expédiée par la fonction email et à l'aide de la commande « Insertion pièce jointe » à un ou plusieurs correspondants disposant d'une adresse électronique de type email. Il en va de même avec un appareil de téléphonie mobile disposant d'un mode MMS, email ou à venir.The new image and / or the new video sequence completed or not information can be sent by the email function and using the command "Insert attachment" to one or more correspondents with an email address type email. The same is true with a mobile phone device having an MMS mode, email or future.
On conçoit facilement que ce système peut recevoir de très nombreuses applications en complétant le ou les système(s) expert(s) et/ou la ou les base(s) de données locale(s) ou déportée(s) par des données scientifiques et techniques spécifiques. L'invention peut trouver une application pour le traitement d'images en deux ou trois dimensions. Dans une application 3D, on peut construire une modélisation 3D du visage, pour y appliquer précisément des maquillages 3D. La reconstruction 3D du visage, à partir d'une image statique du visage ou d'un flux d'images de visages, est réalisée à l'aide d'algorithmes et procédures conventionnelles, telles que l'analyse des ombres, de la texture, du mouvement, l'utilisation de modèles 3D génériques du visage ou encore par l'utilisation d'un système stéréo scopique.It is easy to imagine that this system can receive a large number of applications by completing the expert system (s) and / or the local database (s) or remote (s) by scientific data. and specific techniques. The invention can find an application for image processing in two or three dimensions. In a 3D application, we can build a 3D modeling of the face, to precisely apply 3D makeup. The 3D reconstruction of the face, from a static image of the face or a flow of images of faces, is made using conventional algorithms and procedures, such as the analysis of shadows, texture , movement, the use of generic 3D models of the face or the use of a stereo scopic system.
Bien que l'invention ait été décrite en référence à divers modes de réalisation avantageux, il est entendu qu'elle n'est pas limitée par cette description, et que l'homme du métier peut y apporter toutes modifications sans sortir du cadre de la présente invention défini par les revendications annexées. Although the invention has been described with reference to various advantageous embodiments, it is understood that it is not limited by this description, and that the person skilled in the art can make any modifications without departing from the scope of the present invention. present invention defined by the appended claims.

Claims

Revendications claims
1.- Procédé automatique de simulation virtuelle d'une séquence d'images vidéo individualisée pour chaque utilisateur, réalisable à partir d'une séquence d'images vidéo réelle d'un visage/tête en mouvement, caractérisé en ce qu'il comprend :1.- Automatic method for virtual simulation of an individualized video image sequence for each user, realizable from a sequence of real video images of a moving face / head, characterized in that it comprises:
- lors d'une phase d'acquisition et d'initialisation :during an acquisition and initialization phase:
- la détection et l'analyse des formes et/ou contours et/ou composantes dynamiques d'une image du visage/tête de la séquence vidéo réelle,the detection and analysis of the shapes and / or contours and / or dynamic components of an image of the face / head of the actual video sequence,
- l'extraction de points caractéristiques du visage/tête, tels que les coins des yeux et de la bouche, au moyen de modèles paramétriques prédéfinis,the extraction of characteristic points of the face / head, such as the corners of the eyes and the mouth, using predefined parametric models,
- lors d'une phase d'évolution :- during an evolution phase:
- la définition de modèles paramétriques spécifiques à partir desdits points caractéristiques extraits, servant de points d'amorçage initiaux,the definition of specific parametric models from said extracted characteristic points serving as initial initiation points,
- la déformation desdits modèles spécifiques pour s'adapter aux contours des traits présents sur le visage analysé,the deformation of said specific models to adapt to the contours of the features present on the analyzed face,
- la détection et l'analyse de la structure cutanée d'une ou plusieurs régions du visage/tête, etthe detection and analysis of the cutaneous structure of one or more regions of the face / head, and
- lors d'une phase de suivi et de transformation :- during a monitoring and transformation phase:
- la modification des traits caractéristiques des autres images de la séquence vidéo,the modification of the characteristic features of the other images of the video sequence,
- la modification des couleurs de la structure cutanée,- the modification of the colors of the cutaneous structure,
- lesdites modifications étant réalisées en fonction de critères prévus dans au moins une base de données et/ou en fonction de critères de décision d'au moins un système expert d'ordre 0+ ou 1.said modifications being performed according to criteria provided for in at least one database and / or according to decision criteria of at least one expert system of order 0+ or 1.
2.- Procédé selon la revendication 1, dans lequel l'étape de détection et d'analyse, pour la détermination d'informations spatiales région/contour et temporelles, est réalisée par la maximisation des flux de gradient de luminance et/ ou de chrominance.2. Method according to claim 1, wherein the step of detection and analysis, for the determination of spatial information region / contour and time, is achieved by maximizing luminance gradient flux and / or chrominance.
3.- Procédé selon la revendication 1 ou 2, dans lequel lesdites modifications sont obtenues par translations des voisinages des points caractéristiques de l'image précédente dans l'image suivante, des modèles affines, incluant une matrice de déformation, pouvant être utilisés lorsque le voisinage des points caractéristiques peut également subir une déformation.3. A method according to claim 1 or 2, wherein said modifications are obtained by translations of the neighborhoods of the characteristic points of the preceding image in the following image, affine models, including a deformation matrix, which can be used when the neighborhood of the characteristic points may also undergo deformation.
4.- Procédé selon l'une quelconque des revendications précédentes, dans lequel la phase de suivi utilise un algorithme pour suivre des points caractéristiques d'une image à l'autre.4. A method according to any one of the preceding claims, wherein the tracking phase uses an algorithm to follow characteristic points from one image to another.
5.- Procédé selon la revendication 4, dans lequel ledit algorithme n'utilise que le voisinage de points caractéristiques.The method of claim 4, wherein said algorithm uses only the vicinity of feature points.
6.- Procédé selon la revendication 4 ou 5, dans lequel, pour éviter l'accumulation d'erreurs de suivi, les points caractéristiques sont recalés en utilisant une version simplifiée des contours actifs, et/ou en déformant les courbes d'un modèle obtenu à l'image précédente.6. A method according to claim 4 or 5, wherein, to avoid the accumulation of tracking errors, the characteristic points are recaled using a simplified version of the active contours, and / or by deforming the curves of a model. obtained in the previous image.
7.- Procédé selon l'une quelconque des revendications précédentes, comprenant une étape de modélisation de la bouche fermée et/ou ouverte au moyen d'une pluralité de points caractéristiques reliés par une pluralité de courbes cubiques.7. A method according to any one of the preceding claims, comprising a step of modeling the closed and / or open mouth by means of a plurality of characteristic points connected by a plurality of cubic curves.
8.- Dispositif pour mettre en oeuvre le procédé selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend un système informatique, une source lumineuse, un système de gestion de messages électroniques, au moins une base de données, locale ou déportée sur les réseaux numériques, tel qu'Internet, et/ou au moins un système expert d'ordre 0+ ou 1, permettant d'obtenir et de transformer une séquence d'images réelles numériques en séquence d'images virtuelle, de préférence à la vitesse de 25 images par seconde, ladite séquence d'images virtuelle étant transformée suivant des critères de décision d'au moins un système expert d'ordre 0+ ou 1.8.- Device for implementing the method according to any one of the preceding claims, characterized in that it comprises a computer system, a light source, an electronic message management system, at least one database, local or deported on digital networks, such as the Internet, and / or at least one expert system of order 0+ or 1, for obtaining and transforming a sequence of digital real images into a virtual image sequence, preferably the speed of 25 frames per second, said virtual image sequence being transformed according to decision criteria of at least one expert system of order 0+ or 1.
9.- Dispositif selon la revendication 8, dans lequel ledit système informatique est basé sur un microprocesseur type CPU (« Central Processing Unit ») mono, double, quadri cœurs et supérieurs, ou processeurs multi cœurs classiques, types pentium, athlon ou supérieurs ou type SPU (« Streaming Processor Unit »), équipé d'un cœur principal et jusqu'à huit cœurs spécifiques, disposé dans une cabine, une console, un appareil libre service, un dispositif de poche ou mobile, une télévision numérique, un serveur local, ou déporté sur les réseaux numériques, tel qu'Internet, au moins une caméra vidéo numérique, au moins un écran, au moins une imprimante et/ou une connexion aux réseaux numériques, tel qu'Internet, dans lequel le système informatique assurant le traitement de l'image comprend un ordinateur doté d'un disque dur, de préférence d'une capacité égale au moins à 500K Octets, et/ou d'une mémoire numérique de stockage, un ou plusieurs supports, notamment de type Cédérom, DVD, Multimedia Card®, Memory Stick®, MicroDrive®, XD Card®, SmartMedia®, SD Card®, Compact Flash® types 1 et 2, clé USB, d'un modem ou d'un module de connexion filaire ou radio fréquences aux réseaux numériques, tel qu'Internet, et d'un ou plusieurs modules de connexions pour réseaux locaux de type ethernet, Bluetooth®, infrarouge, wifi®, wimax® et similaire.9. A device according to claim 8, wherein said computer system is based on a microprocessor type CPU ("Central Processing Unit") mono, dual, quad cores and higher, or conventional multicore processors, types pentium, athlon or higher or type SPU ("Streaming Processor Unit"), equipped with a main core and up to eight specific cores, arranged in a cabin, a console, a self-service device, a pocket or mobile device, a digital television, a server local, or deported over digital networks, such as the Internet, at least one digital video camera, at least one screen, at least one printer and / or a connection to digital networks, such as the Internet, in which the computer system providing the image processing comprises a computer having a hard disk, preferably of a capacity equal to at least 500K bytes, and / or a digital storage memory, one or more media, nota such as CD-ROM, DVD, Multimedia Card®, Memory Stick®, MicroDrive®, XD Card®, SmartMedia®, SD Card®, Compact Flash® Type 1 and 2, USB stick, modem or wired or radio frequency connection to digital networks, such as the Internet, and one or more Ethernet LAN, or Bluetooth®, infrared, wifi®, wimax® and similar local area connection modules.
10.- Dispositif selon la revendication 8 ou 9, dans lequel, après l'affichage de la séquence d'images virtuelle sur un écran, une imprimante procède localement, ou en déporté, à l'impression, de préférence couleur, d'au moins une photographie choisie parmi toute ou partie de la séquence d'images virtuelle.10.- Device according to claim 8 or 9, wherein, after the display of the virtual image sequence on a screen, a printer proceeds locally, or remote, printing, preferably color, at least one photograph selected from all or part of the virtual image sequence.
I L- Dispositif selon l'une quelconque des revendications 8 à 10, dans lequel le module de traitement d'images, pour réaliser les étapes d'acquisition, de détection, de transformation et de suivi, est intégré dans un ou plusieurs processeurs spécialisés dans le traitement des signaux du type DSP (« Digital Signal Processor » ou processeur de signal numérique). I L- Device according to any one of claims 8 to 10, wherein the image processing module, for performing the steps of acquisition, detection, transformation and monitoring, is integrated in one or more specialized processors in the processing of signals of the DSP type ("Digital Signal Processor" or "Digital Signal Processor").
EP07858653A 2006-10-24 2007-10-23 Method and device for the virtual simulation of a sequence of video images Withdrawn EP2076886A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP11007429A EP2450852A1 (en) 2006-10-24 2007-10-23 Method and device for virtual simulation of an image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0654483A FR2907569B1 (en) 2006-10-24 2006-10-24 METHOD AND DEVICE FOR VIRTUAL SIMULATION OF A VIDEO IMAGE SEQUENCE
PCT/FR2007/052234 WO2008050062A1 (en) 2006-10-24 2007-10-23 Method and device for the virtual simulation of a sequence of video images

Publications (1)

Publication Number Publication Date
EP2076886A1 true EP2076886A1 (en) 2009-07-08

Family

ID=37964796

Family Applications (2)

Application Number Title Priority Date Filing Date
EP11007429A Withdrawn EP2450852A1 (en) 2006-10-24 2007-10-23 Method and device for virtual simulation of an image
EP07858653A Withdrawn EP2076886A1 (en) 2006-10-24 2007-10-23 Method and device for the virtual simulation of a sequence of video images

Family Applications Before (1)

Application Number Title Priority Date Filing Date
EP11007429A Withdrawn EP2450852A1 (en) 2006-10-24 2007-10-23 Method and device for virtual simulation of an image

Country Status (8)

Country Link
US (1) US20100189357A1 (en)
EP (2) EP2450852A1 (en)
JP (1) JP2010507854A (en)
KR (1) KR20090098798A (en)
BR (1) BRPI0718306A2 (en)
CA (1) CA2667526A1 (en)
FR (1) FR2907569B1 (en)
WO (1) WO2008050062A1 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2568635C2 (en) * 2007-12-18 2015-11-20 Конинклейке Филипс Электроникс, Н.В. Feature-based recording of two-/three-dimensional images
JP5221436B2 (en) * 2009-04-02 2013-06-26 トヨタ自動車株式会社 Facial feature point detection apparatus and program
CA2769583A1 (en) 2009-08-04 2011-02-10 Vesalis Image-processing method for correcting a target image with respect to a reference image, and corresponding image-processing device
WO2011087451A1 (en) * 2010-01-12 2011-07-21 Nanyang Technological University Method, device, and computer readable medium for generating a digital picture
US10108852B2 (en) * 2010-06-07 2018-10-23 Affectiva, Inc. Facial analysis to detect asymmetric expressions
US9264585B2 (en) 2010-09-22 2016-02-16 Cisco Technology Inc. Enriched digital photographs
JP4893862B1 (en) * 2011-03-11 2012-03-07 オムロン株式会社 Image processing apparatus and image processing method
JP4893863B1 (en) * 2011-03-11 2012-03-07 オムロン株式会社 Image processing apparatus and image processing method
KR101624808B1 (en) 2011-08-09 2016-05-26 인텔 코포레이션 Parameterized 3d face generation
US9460462B1 (en) * 2012-05-22 2016-10-04 Image Metrics Limited Monetization using video-based simulation of cosmetic products
US9449412B1 (en) * 2012-05-22 2016-09-20 Image Metrics Limited Adaptive, calibrated simulation of cosmetic products on consumer devices
US20140168204A1 (en) * 2012-12-13 2014-06-19 Microsoft Corporation Model based video projection
US9390481B2 (en) 2013-05-05 2016-07-12 Google Inc. Enhancing content appearance
CN103632165B (en) 2013-11-28 2017-07-04 小米科技有限责任公司 A kind of method of image procossing, device and terminal device
US9704038B2 (en) * 2015-01-07 2017-07-11 Microsoft Technology Licensing, Llc Eye tracking
JP6497162B2 (en) * 2015-03-26 2019-04-10 オムロン株式会社 Image processing apparatus and image processing method
JP6266736B1 (en) 2016-12-07 2018-01-24 株式会社コロプラ Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
CN108280883B (en) * 2018-02-07 2021-05-04 北京市商汤科技开发有限公司 Method and device for generating special-effect-of-deformation program file package and method and device for generating special effect of deformation
CN111814520A (en) * 2019-04-12 2020-10-23 虹软科技股份有限公司 Skin type detection method, skin type grade classification method, and skin type detection device
KR102285084B1 (en) 2019-12-24 2021-08-03 주식회사 텔레칩스 System-on-chip for operating heterogeneous multiple cpu and method thereof
FR3130423B1 (en) * 2021-12-15 2024-01-12 Oreal COSMETIC DRAWING FILTERS IN AUGMENTED REALITY
WO2023056333A1 (en) * 2021-09-30 2023-04-06 L'oreal Augmented reality cosmetic design filters

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2728982A1 (en) * 1994-12-29 1996-07-05 Jean Marc Robin AUTOMATIC RECOGNITION OF FACE CHARACTERISTICS AND SIMULATION OF AN AESTHETIC IMAGE OF A REAL OBJECTIVE (FACE)
FR2783949B1 (en) * 1998-09-30 2001-06-08 Lucette Robin TELE-COMPUTER AND DIGITAL SYSTEM FOR TRANSFORMING AN IMAGE, ESPECIALLY THE IMAGE OF A HUMAN FACE
JP4226730B2 (en) * 1999-01-28 2009-02-18 株式会社東芝 Object region information generation method, object region information generation device, video information processing method, and information processing device
AU3662600A (en) 2000-03-30 2001-10-15 Lucette Robin Digital remote data processing system for transforming an image, in particular an image of the human face
CN1313979C (en) * 2002-05-03 2007-05-02 三星电子株式会社 Apparatus and method for generating 3-D cartoon
JP3993029B2 (en) * 2002-06-24 2007-10-17 デジタルファッション株式会社 Makeup simulation apparatus, makeup simulation method, makeup simulation program, and recording medium recording the program
US7612794B2 (en) * 2005-05-25 2009-11-03 Microsoft Corp. System and method for applying digital make-up in video conferencing

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CAPLIER A ET AL: "Accurate and Quasi-Automatic Lip Tracking", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 14, no. 5, 1 May 2004 (2004-05-01), pages 706 - 715, XP011112294, ISSN: 1051-8215, DOI: 10.1109/TCSVT.2004.826754 *
HAMMAL Z ET AL: "Parametric models for facial features segmentation", SIGNAL PROCESSING, ELSEVIER SCIENCE PUBLISHERS B.V. AMSTERDAM, NL, vol. 86, no. 2, 1 February 2006 (2006-02-01), pages 399 - 413, XP024997795, ISSN: 0165-1684, [retrieved on 20060201], DOI: 10.1016/J.SIGPRO.2005.06.006 *
NICOLAS EVENO: "Segmentation des lèvres par un modèle déformable analytique - PhD Thesis", 14 November 2003 (2003-11-14), GRENOBLE, FRANCE, pages 1 - 156, XP055064217, Retrieved from the Internet <URL:http://www-clips.imag.fr/geod/User/nicolas.eveno/Doc/PhD_EVENO.pdf> [retrieved on 20130527] *
See also references of WO2008050062A1 *
Z. HAMMAL ET AL: "Eyes and eyebrows parametric models for automatic segmentation", 6TH IEEE SOUTHWEST SYMPOSIUM ON IMAGE ANALYSIS AND INTERPRETATION, 2004., 1 January 2004 (2004-01-01), pages 138 - 141, XP055064258, ISBN: 978-0-78-038387-6, DOI: 10.1109/IAI.2004.1300961 *
ZAKIA HAMMAL: "Facial Features Segmentation, Analysis and Recognition of Facial Expressions using the Transferable Belief Model, PhD Thesis", 29 June 2006 (2006-06-29), pages 1 - 233, XP055064252, Retrieved from the Internet <URL:http://theses.eurasip.org/media/theses/documents/hammal-zakia-facial-features-segmentation-analysis-and-recognition-of-facial-expressions-by-the-transferable-belief-model.pdf> [retrieved on 20130527] *

Also Published As

Publication number Publication date
BRPI0718306A2 (en) 2013-11-12
FR2907569B1 (en) 2009-05-29
FR2907569A1 (en) 2008-04-25
JP2010507854A (en) 2010-03-11
US20100189357A1 (en) 2010-07-29
EP2450852A1 (en) 2012-05-09
KR20090098798A (en) 2009-09-17
WO2008050062A1 (en) 2008-05-02
CA2667526A1 (en) 2008-05-02

Similar Documents

Publication Publication Date Title
EP2076886A1 (en) Method and device for the virtual simulation of a sequence of video images
JP4449723B2 (en) Image processing apparatus, image processing method, and program
Rathgeb et al. Impact and detection of facial beautification in face recognition: An overview
US9959453B2 (en) Methods and systems for three-dimensional rendering of a virtual augmented replica of a product image merged with a model image of a human-body feature
CA2579903C (en) System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images
JP3984191B2 (en) Virtual makeup apparatus and method
WO2014081394A1 (en) Method, apparatus and system for virtual clothes modelling
Rosin et al. Benchmarking non-photorealistic rendering of portraits
FR2728982A1 (en) AUTOMATIC RECOGNITION OF FACE CHARACTERISTICS AND SIMULATION OF AN AESTHETIC IMAGE OF A REAL OBJECTIVE (FACE)
EP4162448A1 (en) Method and device for three-dimensional reconstruction of a face with toothed portion from a single image
FR2920938A1 (en) Image simulating method for beauty industry, involves deforming parametric models to adapt to contours of features on face, and detecting and analyzing cutaneous structure of areas of face by maximizing gradient flow of brightness
CN113361125B (en) Lip makeup simulation method and system based on double-color reflection model
WO2001075796A1 (en) Digital remote data processing system for transforming an image, in particular an image of the human face
FR2968436A1 (en) METHOD FOR DETERMINING THE MOVEMENTS OF AN OBJECT FROM A FLOW OF IMAGES
EP1643448A2 (en) Method for predicting the appearance of at least one portion of the body of an individual
Huang et al. A process for the semi-automated generation of life-sized, interactive 3D character models for holographic projection
Heravi Three-dimension facial de-ageing and ageing Modeling: extrinsic factors impact
Zhao 3D Human Face Reconstruction and 2D Appearance Synthesis
FR2783949A1 (en) Remote digital processing of an image, in particular an image of a human face
Guo From Seeing Better to Understanding Better: Deep Learning for Modern Computer Vision Applications
FR3114895A1 (en) Systems and methods for improved classification of facial attributes and their applications
FR3112633A1 (en) High-resolution controllable facial aging with spatially sensitive conditional GANs
FR2920560A1 (en) Three-dimensional synthetic actor i.e. avatar, constructing and immersing method, involves constructing psychic profile from characteristic points and features, and fabricating animated scene from head of profile and animation base
Mehdi Developing a Computer System for the Generation of Unique Wrinkle Maps for Human Faces. Generating 2D Wrinkle Maps using Various Image Processing Techniques and the Design of 3D Facial Ageing System using 3D Modelling Tools.
Trejo Guerrero Model-Based Eye Detection and Animation

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20090430

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC MT NL PL PT RO SE SI SK TR

17Q First examination report despatched

Effective date: 20090916

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20131016