WO2010037956A1 - Method and system for generating an interface for controlling the facial expressions of an avatar - Google Patents

Method and system for generating an interface for controlling the facial expressions of an avatar Download PDF

Info

Publication number
WO2010037956A1
WO2010037956A1 PCT/FR2009/051832 FR2009051832W WO2010037956A1 WO 2010037956 A1 WO2010037956 A1 WO 2010037956A1 FR 2009051832 W FR2009051832 W FR 2009051832W WO 2010037956 A1 WO2010037956 A1 WO 2010037956A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
avatar
real
appearance
expressions
Prior art date
Application number
PCT/FR2009/051832
Other languages
French (fr)
Inventor
Nicolas Stoiber
Gaspard Breton
Renaud Seguier
Original Assignee
France Telecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom filed Critical France Telecom
Publication of WO2010037956A1 publication Critical patent/WO2010037956A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Definitions

  • the present invention relates to the techniques of analysis and synthesis of facial expressions, including the synthesis of facial expressions for virtual characters.
  • the invention relates to a method and a system for generating an interface for controlling the facial expressions of an avatar.
  • An avatar or virtual character is here defined as a digital character resulting from a graphic production, for example a character representing a user in a virtual meeting software, or a game, involving the user, or a synthetic character communicating with the user.
  • Such a virtual character can be a character of computer-generated images or a human person resulting from real images then processed by image synthesis.
  • the virtual characters strongly focus the attention of the user, and must therefore demonstrate maximum credibility.
  • This credibility goes through the plastic quality of the character, but also and above all, by the naturalness of his movements and his attitudes.
  • the presence of natural and realistic facial expressions is of paramount importance, an expression that is inexpressive or even slightly incoherent, immediately leading to the loss of interest. the user, or even his dislike vis-à-vis the avatar. It is therefore essential to provide virtual characters with a realistic facial expression management system.
  • the present invention aims to improve the existing techniques relating to the synthesis of facial expressions for a virtual character, proposing, in particular, a system for generating a control interface for a synthetic face, allowing easy generation and fast realistic facial expressions for a virtual character, while being accessible for use by professional animators as amateurs.
  • the present invention relates to a method for generating an interface for controlling the facial expressions of an avatar. According to the invention, this method comprises the following steps:
  • this model comprising a set of vectors of appearance parameters forming a face appearance space real; extracting a subset of vectors of parameters from the real face appearance space, as a function of the influence of the parameter vectors on the constitution of the real face appearance space, and determining expressions, called characteristic expressions, corresponding to the extracted parameter vectors;
  • an avatar face deformation pattern from the images of the avatar database, which model comprises a set of appearance parameter vectors forming an avatar face appearance space;
  • Such a method for generating an interface for controlling the expressions of a virtual character has the advantage of not being based on a predefined emotion parameter space, on the contrary the starting parameter space that is to say, the real face appearance space, proceeds from the analysis of modes of deformation of the face of a real person, for example an actor.
  • This real face appearance space is then used, through the determination of real face feature expressions, to create an avatar image database that will then be the basis for expression modeling for the face. avatar.
  • the control interface initially designed from an image database of a real face (human), can then be applied to such an avatar face database, to provide realism up to 'then unknown in the continuous synthesis of facial expressions on an avatar face.
  • the aforementioned model of real face deformations consists of a set of appearance parameter vectors combining shape and texture information, these appearance parameter vectors constituting a vector space.
  • each parameter vector is associated with a single facial expression corresponding to a single image of the real face image database.
  • the model is much more realistic than most known models, thus capturing effects of skin movements accompanying changes in facial expression.
  • the movements of the wrinkles of the skin can thus be taken into account in the modeling.
  • this graphic interface for controlling the synthesis of any expressions on the avatar face is a graphical interface having the form of a disk in which:
  • a given type of facial expression is determined by a given radius of the graphic disk, and is selected as a function of the displacement of a marker on any one of the concentric circles centered on the center of the disk, and having as radius one radius between zero and the radius of the disk;
  • an intensity value relative to a type of expression considered is determined by the displacement of the marker on the radius of the disc corresponding to the type of expression considered.
  • Such a graphical control interface is easy and ergonomic for use, both for a professional animator and an amateur animator, and offers the ability to navigate continuously in the appearance space and thus generate any type of facial expressions according to the desired intensity of the expression.
  • the subject of the invention is an interface for controlling the facial expressions of an avatar face, obtained by implementing a method of generating a control interface as briefly defined above.
  • the step of generating a control graphical interface comprises: a step of identifying, from the scatterplot constituting the actual face appearance space, a predetermined number of dominant directions of the appearance space, said dominant directions being determined using an algorithm of convex hull detection; and a step of applying a mapping of each point of the real-face appearance space, carried by an identified dominant direction, to a point in the space constituting the control graphical interface.
  • the characteristic expressions used to design the avatar image database come from these dominant directions, so this is a kind of transfer of knowledge about the nature and organization of dominant directions from the human face to a synthetic face.
  • the use of the control interface to control the synthesis of expressions of a virtual face thus provides a very realistic expressivity.
  • the invention relates to the use of an interface for controlling the facial expressions of an avatar face obtained by an interface generation method according to the invention, for the synthesis of facial expressions on an avatar face.
  • the invention relates to the use of the aforementioned control interface, for the synthesis of facial expressions on a human face.
  • such a facial expression control interface generated by a method according to the invention can be applied to any synthetic character face from a reduced database of images (pseudo database ), but also to synthesize facial expressions directly on a scanned human face, in the latter case the control interface controls the navigation directly in the real face appearance space.
  • the invention also concerns a system for generating an interface for controlling the facial expressions of an avatar, this system comprising:
  • an avatar database means for creating an image database of an avatar face, called an avatar database, by applying the characteristic real expressions to an avatar face
  • the invention also relates to a computer program, comprising instructions adapted to the implementation of all or part of the steps of a method of generating a control interface as described above when it is executed on a computer.
  • a computer program comprising instructions adapted to the implementation of all or part of the steps of a method of generating a control interface as described above when it is executed on a computer.
  • FIG. 1 illustrates a global method for generating an interface for controlling the facial expressions of a virtual character, according to the invention
  • FIG. 2 illustrates the step of modeling the deformations of a real face according to one embodiment of the invention
  • 3 represents two different views of the distribution of the samples (parameter vectors) of the real face database in the real face appearance space, obtained according to the invention
  • FIG. 4 illustrates the characteristics of the real face appearance space, as well as the process of reducing the appearance space to a 2-dimensional space, according to an embodiment of the invention
  • FIG. 5 illustrates the step of generating a 2-dimensional control interface, according to an embodiment of the invention, from the real face appearance space
  • FIG. 6 illustrates the use of a 2-dimensional control interface according to one embodiment of the invention, for controlling the facial expressions of a virtual character
  • FIG. 7 illustrates the result of the synthesis of facial expressions obtained on both the avatar face and the real face, using a 2D control interface according to the invention.
  • FIG. 8 illustrates the emotional interpretation of the control space covered by the 2D control interface according to the invention.
  • Figure 1 illustrates a global method for generating an interface for controlling the facial expressions of a virtual character, according to the invention.
  • the method according to the invention comprises: An initial step E1 of modeling the deformations of a real face from the images of a database of images 10 obtained from a human face real.
  • the model of deformations obtained at the end of the modeling step comprises a set of vectors of parameters of appearance of dimension Na and which form, when graphically represented in a space with Na dimensions, a cloud of points, 11, called "appearance space" of real face (human).
  • this modeling step E1 of the deformations or expressions of a human face is implemented by a particular software module. This modeling step (E1) will be detailed below in connection with FIG. 2.
  • This control function is represented by the dashed arrow CM1 in FIG. 1.
  • the generation step E2 of the graphical interface 14 which will be detailed below in relation to FIGS. 3 to 5, includes a step of extraction of FIG. a subset of vectors of parameters of the real face appearance space, depending on the influence of the parameter vectors on the constitution of the real-face appearance space, and the determination of the expressions, so-called characteristic expressions, corresponding to the extracted parameter vectors.
  • the step E2 for generating an interface is implemented by a particular software module.
  • the modeling step E4 can be implemented either by the modeling module used for the aforementioned step E1, or by a separate software module.
  • a control function CM2 for the application of the control interface 14 to the navigation in the avatar face appearance space (13), in order to allow the control of the synthesis of any expressions on the avatar face.
  • Figure 2 illustrates the step (E1) of modeling the deformations of a real face according to one embodiment of the invention.
  • a database of images is created from sequences of images of the face of a real person, for example an actor, adopting facial expressions.
  • the goal is to obtain a database containing a large quantity of varied natural expressions, types (anger, joy, surprise, etc.) and intensity (extreme, subtle, stereotyped, etc.). It is important that captured expressions are not labeled.
  • the database 10 contains a high number of images, in practice of the order of 5000 images. In practice, the required image sequences are obtained by means of, for example, a video camera.
  • each expression recorded in the database, via an image is associated, on the one hand, with a geometrical shape (201), and on the other hand, with the set of pixels of variable intensity located inside the shape, this set of pixels representing "texture" information (202).
  • the shape and texture information associated with each of the images of the database 10 are the input data for the modeling (E1) of the deformations of the real face.
  • the modeling step is implemented using an Active Appearance Models (AAM) technique.
  • AAM Active Appearance Models
  • the modeling step E1 using the MAAs identifies the main modes of shape and texture variations of the face when displaying a facial expression.
  • a set of parameters is obtained that represent the contribution of the variation modes in form and texture in a combined manner.
  • each of the facial expressions can then be projected onto the AAM parameter space, to keep only the relevant information regarding facial movements and texture changes.
  • AAM parameter space called “appearance space”
  • each facial configuration from the database (10) is represented by a point of dimension Na (Na is typically of the order of 30).
  • each point of dimension Na belonging to the appearance space can be associated with a unique pair of shape and texture, and therefore synthesize the corresponding facial expression.
  • an essential property of the appearance space is that each point within the space covered by the facial expressions of the images of the database (10), corresponds to a valid facial expression. Navigating anywhere in the appearance space thus makes it possible to synthesize a continuum of natural facial expressions within limits defined by the examples of the real face image database (10).
  • a shape information (step 203), as well as a texture information (step 204).
  • the purpose of modeling is to extract a set of parameters that is adapted to the variation modes observed in the images of the database.
  • a technique known as Principal Component Analysis (PCA) is used, both for shape information (PCA 205) and for texture information (PCA 206).
  • PCA Principal Component Analysis
  • a shape is a collection of points of dimension N 8 (N 3 is 2 or 3)
  • a texture is usually a collection of pixel values, and both can be considered as vectors that can feed into a PCA process.
  • intermediate shape parameters B s are obtained.
  • all the textures are analyzed by PCA (206) and intermediate texture parameters B 1 are obtained.
  • the two PCA operations (205, 206) are intended to identify the main modes of variation observed in the database and to filter to keep the most significant.
  • the vector pairs B 3 and B t are then combined in a concatenation step 207 to obtain for each image a vector of combined parameters of shape and texture.
  • the combined parameter vector then undergoes another Principal Component Analysis (PCA) operation (208), whose role is to identify the correlations between shape and texture variations and take advantage of these correlations to reduce the size of the parameter set (dimensional reduction).
  • PCA Principal Component Analysis
  • step E1 The modeling operation of the AAM type (step E1) used in the context of the invention, which makes it possible to obtain an appearance space (from the set of vectors C of mixed parameters), offers the advantage can be reversed and thus allow the synthesis of a facial expression from any vector C.
  • Such appearance spaces have already been used successfully for the synthesis of facial expressions, but only for real faces.
  • the appearance spaces offer interesting possibilities concerning the navigation in these spaces and the animation of real or synthetic faces.
  • the dimension (Na) of the mixed shape-texture vectors (Q vectors) is too large (of the order of 30) to allow easy navigation in the appearance space, and consequently to create a graphical control interface to drive the synthesis of facial expressions from this high-dimensional space is a difficult problem.
  • Figure 3 shows two different views of the sample distribution (parameter vectors) of the actual face database in the real face appearance space, obtained according to the invention. For simplification of representation, only the first three dimensions are represented.
  • the first coordinates of the parameter vectors C are the most significant vis-à-vis the variance of the image database.
  • the two point clouds shown in FIG. 3 correspond to the points associated only with the first three coordinates (di, d ⁇ , d ⁇ ) of the parameter vectors.
  • the coloration of the points (shades of gray) is a function of the type (Ei) of emotion associated with each facial expression represented by an image of the real face image database (10). This staining was carried out so as to distinguish the basic expressions (groups Ei to Ee) defined according to P.
  • a given point cloud (right or left cloud, Fig. 3) has some dominant directions that can be identified as segments that connect points corresponding to neutral expressions (center) to points corresponding to extreme expressions. . Most expressions are distributed, either along these segments forming the dominant directions to thus constitute a given expression according to different levels of intensity, or between these dominant directions to constitute transitions of expressions between the dominant types of expressions. According to the invention, these dominant directions of the appearance space have been rearranged in a space of reduced size, but according to a comparable topology. In the embodiment chosen and exposed here, it is a space of reduced appearance of dimension 2.
  • Figure 4 illustrates the characteristics of the real face appearance space, as well as the process of reducing the appearance space to a 2-dimensional space, according to one embodiment of the invention.
  • the central part of the appearance space corresponds to the neutral expressions (see lowest image).
  • An extreme expression (top image) corresponds to a point on the outer boundary of the cloud on a dominant direction (top image), and the variable intensity expressions are focused on the dominant directions of the appearance space between neutral and extreme positions (middle image).
  • the three images presented in Figure 4 (upper part) correspond to an expression of type "anger" (type E 1 ) varying between a neutral expression (bottom image) and an extreme expression (top image).
  • vectors C vectors of parameters which are the most significant in terms of variance. It is therefore, according to the invention, to extract a subset of vectors of parameters of the appearance space of the real face, as a function of the influence of the parameter vectors on the constitution of the space appearance of the real face.
  • the most significant parameter vectors are those corresponding to the points on the convex hull (in English "convex eight") of the point cloud, so that, according to the invention, a subset of vectors of real face appearance space parameters, by selecting the parameter vectors corresponding to the points forming the convex hull in the real face appearance space.
  • the vectors are selected automatically by using a convex hull detection algorithm, for example that described in the document "The quickhull algorithm for convex hulls", by C. B. Barber et al. - ACM Transactions on Mathematical Software (TOMS), vol. 22, no. 4, pp. 469-483, 1996.
  • the result of the convex hull detection contains an important redundancy since the intersection between the convex envelope and the scatterplot contains several neighboring points, these neighboring points representing however only one dominant direction.
  • convex hull detection and Mean Shift algorithm filtering consumes a lot of processor resources for large dimensions.
  • these dimensions are ordered according to their percentage of participation in the overall variance of the database.
  • the first dimension of the appearance space has the highest variance, and the variance decreases when moving from a given dimension to the larger dimension. It is determined that above a certain dimensionality, the result of the convex hull detection corresponds to insignificant variations.
  • the objective here is to adapt all the dominant directions of the appearance space (11) to a 2-dimensional space, in particular a 2D disc (14).
  • the only information considered is the angle between the dominant directions in the appearance space, the dominant directions being viewed as unit length segments of a Na dimensionality hypersphere centered on the sample of neutral expression. Therefore, each of the dominant directions of the appearance space must correspond to a 2D direction on the disc and the distortion between the direction distributions must be minimized.
  • the 2D implementation of the directions must be such that the distribution of the angular distances in the 2D implementation must be similar to that existing in the appearance space.
  • the problem is then to search for a path in the hypersphere of the space of appearance that passes through each of the dominant directions only once and at the same time minimizes the angular distance accumulated during the course of the path, which can be defined as the cost of the path.
  • TSP traveling salesman problem
  • the problem of the commercial traveler is an NP-complete problem whose aim is to determine the shortest way to cross a set of cities whose distance between any pair of cities is known.
  • the directions are then positioned on the circle (perimeter of the disk) according to the sequence of directions obtained by the optimization algorithm of the TSP problem.
  • the angle values between the directions implemented on the circle are calculated proportionally to the angular distribution observed in the path through the directions in the Na-dimensional appearance space.
  • Figure 5 illustrates the step of generating a 2-dimensional control interface from the real face appearance space.
  • Figure 5 as in Figure 4, to simplify the representation, only the first 3 dimensions (di, d 2 , d 3 ) are drawn.
  • Figure 5 illustrates more precisely the transformation of the appearance space into a 2D disk.
  • Figure 5 represent two views of the dominant directions detected in the appearance space. The directions appear with distinct shades of gray to highlight the type of emotions worn by each direction.
  • FIG. 5 The central parts of Figure 5 (high and low) illustrate the paths obtained by the business traveler optimization algorithm to obtain the main direction sequence in which the directions are to be implemented on a 2D disk (right).
  • Figure 5 illustrates the implementation of dominant directions on the 2D disk.
  • a control interface which, in summary, first involves the identification, from the cloud of points constituting the real-face appearance space, of a predetermined number of dominant directions of space of appearance, using a convex hull detection algorithm. Next, a mapping of each point in the real-world appearance space, carried by a selected dominant direction, to a point in the space constituting the control graphical interface (2D) is applied.
  • the graphical control interface of the expression synthesis is a graphic interface having the form of a disk in which:
  • a given type of facial expression is determined by a given radius of the graphic disk, and is selected as a function of the displacement of a marker on any one of the concentric circles centered on the center of the disk, and having as radius one radius between zero and the radius of the disk;
  • an intensity value relative to a type of expression considered is determined by the displacement of the marker on the radius of the disc corresponding to the type of expression considered.
  • the graphical interface according to the invention can be represented on a computer screen, and the aforementioned marker, operated on the screen by means of a pointing device such as a mouse.
  • the 2D control interface according to the invention has been designed from the real face appearance space (11) itself based on the image samples of the real face database. (10).
  • the control interface (14) can be used to "navigate” in the reduced appearance space of the interface and determine a corresponding vector in the appearance space (11) at Na dimensions, in order to synthesize (arrow CM1 in Fig. 1) any expression applied to the real human face object of the images of the database 10.
  • the above-mentioned characteristic expressions are those which correspond to the parameter vectors forming the convex envelope of the real-appearance space.
  • a database (12) of images of an avatar face is created (E3) by applying the actual real expressions, mentioned above, to a face. avatar.
  • E3 a database of images of an avatar face
  • a human operator designs, using computer graphics tools, as many synthetic faces of a chosen avatar as there are characteristic expressions to apply.
  • a database of avatar faces is thus designed, here called pseudo database, because the number of images is limited, in practice of the order of 25 to 30 images.
  • model (E4) the deformations of the avatar face from the images of the avatar database.
  • the same modeling process of the AAM type is used as that implemented in the context of the modeling of the real face deformations (see description above in relation to FIG. 2).
  • We then obtain a model comprising a set of vectors of appearance parameters forming an avatar face appearance space (13).
  • Each point of the appearance space (13) of the avatar face thus corresponds to a vector of shape-texture mixed parameters corresponding to a characteristic expression obtained from the real face appearance space (11).
  • the appearance space (13) of the virtual face is smaller or equal in size (e.g., in the order of 15) to that of the actual face appearance space (11) (of order of 30), depending on the visual complexity of the avatar face. • Using the control interface (14) to navigate the avatar face appearance space
  • the directions Dominants implemented in the reduced space of the 2D graphical control interface can be mapped to both the actual face appearance space (1 1) (see above) and the appearance space (13) avatar face. It is therefore possible to apply the control interface (14) to the navigation in the avatar face's appearance space (13), in order to allow the control (arrow CM2,
  • Fig. 1 the synthesis of any expressions on the avatar face.
  • Figure 6 illustrates the use of a 2-dimensional control interface according to an embodiment of the invention for controlling the facial expressions of a virtual character.
  • a real face appearance space (left in the figure) is obtained, from which, thanks to the generation method of interface according to the invention, one can generate a control tool in the form of disk (in the center in the figure) to control the change of facial expressions of a virtual character (right in the figure).
  • a control tool in the form of disk in the center in the figure
  • Figure 7 illustrates the result of facial expression synthesis obtained on both the avatar face and the actual face, using a 2D control interface according to the invention.
  • three examples (EX1, EX2, EX3) of the synthesis results are shown.
  • the synthesis is controlled by the disk-shaped 2D interface, again designated by 2D control space, by selecting a point on the control space, as represented by the black dot shown on the disks, middle column, of each of the EX1-EX3 examples.
  • this selected point of the control space is for example chosen via a computer mouse.
  • the left column shows the result obtained with the real face and the right column the result obtained with the face of the avatar.
  • Example EX1 illustrates three synthesized expressions on both the human face and the avatar face: a neutral expression (dot in the middle of the disc) (at the top), an expression of maximum intensity (the point being located on the edge of the disc) between surprise and fear (in the middle), and an expression of maximum intensity expressing surprise (below).
  • Example EX2 also illustrates three synthesized expressions on both the human face and the avatar face, these expressions corresponding to disgust (top), anger (middle), and an intermediate expression between anger. and surprise (below).
  • Example EX3 illustrates three other expressions synthesized on both the human face and the avatar face: an indefinite expression of joy and sadness (above), an expression clearly of joy (in the middle) but not of maximum intensity (the point is inside the disc), and an expression of maximum intensity of joy mingled with surprise (bottom).
  • Figure 8 illustrates the emotional interpretation of the control space covered by the 2D control interface according to the invention.
  • the control space is partitioned into sectors of emotions corresponding to the categories of emotions defined by P. Ekman (see reference cited above in the description).
  • the type (or category) of expressions is determined by the angular position of a marker (a dot in Fig. 7) on the disc, while the radial position of the marker on the disc determines the intensity of expression.
  • the color of the disk varies angularly continuously as a function of the expression change (from green to red), and varies in luminous intensity from continuously, radially, that is to say from the center to the edge of the disc, correlated with the intensity of the corresponding expression.
  • This color scheme associated with the control interface disk significantly increases the ergonomics of use of such a control interface according to the invention.
  • the expression control interface of a real or synthetic face corresponds to a 2-dimensional space (in particular a disk).
  • the invention can also be implemented by means of a more sophisticated control interface, for example 3-dimensional, such as a sphere and achieve a "ball of facial expressions", allowing, while remaining intuitive of use, to synthesize more diverse facial expressions.
  • the invention is implemented in the form of software means, that is to say computer program modules performing the operations relating to the creation of a control interface of the computer. expressions of an avatar as described in the present description.
  • a computer such as a personal computer, or a workstation, in which such programs are installed according to the invention is therefore an image processing system equipped with software and / or hardware capable of implementing a method for generating a facial expression control interface, and / or a corresponding facial expression synthesis method, according to the invention.
  • a computer program according to the invention can be stored on an information carrier of various types.
  • an information carrier may be constituted by any entity or device capable of storing a program according to the invention.
  • the support in question may comprise a hardware storage means, such as a memory, for example a CD ROM or a memory of the ROM or RAM microelectronic circuit type, in particular incorporated in a USB key, or a means magnetic recording, for example a hard disk.
  • a hardware storage means such as a memory, for example a CD ROM or a memory of the ROM or RAM microelectronic circuit type, in particular incorporated in a USB key, or a means magnetic recording, for example a hard disk.
  • a computer program according to the invention can use any programming language and be in the form of source code, object code, or intermediate code between source code and object code (for example eg, a partially compiled form), or in any other form desirable for implementing a method according to the invention.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The invention relates to a method for generating an interface for controlling the facial expressions of an avatar, said method including the following steps: obtaining (E1) a model of the deformations of a real face using images from a database (10) of images of the real face, said model including a set of aspect parameter vectors defining a real face aspect space (11); extracting (E2) a subset of parameter vectors of the real face aspect space based on the influence of the parameter vectors on the constitution of the real face aspect space and determining so-called characteristic expressions corresponding to the extracted parameter vectors; generating (E2) a graphic control interface (14) for navigating the real face aspect space and for controlling (CM1) the synthesis of any expression on the real face; creating (E3) a database (12) of images of an avatar face, referred to as an avatar database, by applying said real characteristic expressions to an avatar face; obtaining (E4) a model of the deformations of the avatar face from the images of the avatar database, said model including a set of aspect parameter vectors defining an avatar face aspect space (13); applying said control interface (14) to the navigation of the avatar face aspect space (13) in order to control (CM2) the synthesis of any expression on the avatar face.

Description

PROCÈDE ET SYSTÈME DE GÉNÉRATION D'UNE INTERFACE DE CONTRÔLE DES EXPRESSIONS FACIALES D'UN AVATAR PROCESS AND SYSTEM FOR GENERATING AN INTERFACE FOR CONTROLLING FACIAL EXPRESSIONS OF AN AVATAR
DESCRIPTION La présente invention a trait aux techniques d'analyse et de synthèse d'expressions faciales, et notamment la synthèse d'expressions faciales pour personnages virtuels. En particulier, l'invention concerne un procédé et un système de génération d'une interface de contrôle des expressions faciales d'un avatar. On désigne ici par avatar ou personnage virtuel, un personnage numérique résultant d'une production graphique, par exemple un personnage représentant un utilisateur dans un logiciel de réunion virtuelle, ou de jeu, faisant participer l'utilisateur, ou bien un personnage synthétique communiquant avec l'utilisateur. Un tel personnage virtuel peut être un personnage d'images de synthèse ou bien une personne humaine issue d'images réelles traitées ensuite par synthèse d'images.DESCRIPTION The present invention relates to the techniques of analysis and synthesis of facial expressions, including the synthesis of facial expressions for virtual characters. In particular, the invention relates to a method and a system for generating an interface for controlling the facial expressions of an avatar. An avatar or virtual character is here defined as a digital character resulting from a graphic production, for example a character representing a user in a virtual meeting software, or a game, involving the user, or a synthetic character communicating with the user. Such a virtual character can be a character of computer-generated images or a human person resulting from real images then processed by image synthesis.
Dans le domaine de la production vidéo ludique, la création d'un univers virtuel s'accompagne quasi-systématiquement de son peuplement par des personnages (qu'ils soient pilotés humainement ou par une intelligence artificielle) appelés communément "avatars". Par ailleurs, la démocratisation à grande échelle de l'informatique, à la fois comme outil de travail et comme support ludique, a dynamisé les efforts de recherche sur les modes d'interaction entre hommes et machines. Les dernières avancées privilégient la communication multimodale naturelle en offrant la possibilité à l'utilisateur d'interagir en temps réel avec un avatar répondant à ses attentes.In the field of video game production, the creation of a virtual universe is almost always accompanied by its population by characters (whether humanly controlled or by an artificial intelligence) commonly called "avatars". In addition, the widespread democratization of computers, both as a work tool and as a fun medium, has boosted research efforts on the modes of interaction between men and machines. The latest advances favor natural multimodal communication by offering the user the possibility of interacting in real time with an avatar meeting his expectations.
Dans tous les cas, les personnages virtuels focalisent fortement l'attention de l'utilisateur, et doivent donc faire preuve d'un maximum de crédibilité. Cette crédibilité passe par la qualité plastique du personnage, mais aussi et surtout, par le naturel de ses mouvements et de ses attitudes. Outre les mouvements labiaux associés au dialogue, la présence d'expressions faciales naturelles et réalistes sont d'une importance primordiale, un visage inexpressif ou même légèrement incohérent entraînant immédiatement le désintérêt de l'utilisateur, voire son antipathie vis-à-vis de l'avatar. Il est donc capital de doter les personnages virtuels d'un système de gestion des expressions faciales réalistes.In any case, the virtual characters strongly focus the attention of the user, and must therefore demonstrate maximum credibility. This credibility goes through the plastic quality of the character, but also and above all, by the naturalness of his movements and his attitudes. In addition to the labial movements associated with dialogue, the presence of natural and realistic facial expressions is of paramount importance, an expression that is inexpressive or even slightly incoherent, immediately leading to the loss of interest. the user, or even his dislike vis-à-vis the avatar. It is therefore essential to provide virtual characters with a realistic facial expression management system.
Plusieurs procédés de création d'expressions faciales se sont imposés au fil des années. Les plus connus (systèmes paramétriques, pseudomusculaires ou musculaires) réduisent le contrôle d'une expression faciale à l'ajustement d'un jeu de paramètres. Les systèmes paramétriques et pseudomusculaires se basent pour cela sur la paramétrisation des variations sur les éléments du visage alors que les systèmes musculaires modélisent plus rigoureusement l'anatomie responsable de l'expressivité faciale. Ces systèmes offrent néanmoins la possibilité commune de contrôler finement les visages virtuels en agissant sur plusieurs paramètres. Cependant le nombre de paramètres à ajuster rend la tâche des animateurs longue et fastidieuse et, du fait de la nature peu intuitive de ces contrôles, la maîtrise d'un seul de ces systèmes nécessite généralement un long entraînement. De plus, la taille et la complexité du jeu de paramètres fourni se prête peu à leur utilisation dans des moteurs interactifs d'animation (pour des applications de dialogue avec un personnage virtuel par exemple) où l'animation faciale doit être générée à la volée et en adéquation avec le contexte. Enfin, ces systèmes ne proposent, pour la plupart, que le contrôle de la géométrie du visage (position des éléments remarquables tels que la bouche le nez, les yeux), mais pas la gestion d'effets liés à la texture de la peau (apparition de creux, bosses, rides). Ces effets, pourtant important pour la crédibilité visuelle du personnage, sont, le cas échéant, ajoutés à la main, augmentant ainsi la durée et la complexité de la tâche.Several processes for creating facial expressions have emerged over the years. The best known (parametric, pseudomuscular or muscular systems) reduce the control of a facial expression when adjusting a set of parameters. Parametric and pseudomuscular systems are based on the parameterization of the variations on the elements of the face whereas the muscular systems model more rigorously the anatomy responsible for the facial expressivity. These systems nonetheless offer the common possibility of finely controlling virtual faces by acting on several parameters. However, the number of parameters to be adjusted makes the task of the animators long and tedious and, because of the unintuitive nature of these controls, mastering only one of these systems generally requires a long training. In addition, the size and complexity of the parameter set provided is not suitable for use in interactive animation engines (for virtual character dialog applications, for example) where facial animation must be generated on the fly. and in adequacy with the context. Finally, these systems offer, for the most part, only the control of the geometry of the face (position of the remarkable elements such as the mouth, the nose, the eyes), but not the management of effects related to the texture of the skin ( appearance of hollows, bumps, wrinkles). These effects, however important for the visual credibility of the character, are, if necessary, added by hand, thus increasing the duration and the complexity of the task.
Plusieurs approches antérieures ont déjà abordé la création d'interfaces intuitives de contrôle d'un visage virtuel. Par exemple, dans le document intitulé : "Emotion Disc and Emotion Squares: tools to explore the facial expression space" de Z. Ruttkay et al. - Computer Graphics Forum, vol. 22, pp. 49-53, 2003, les auteurs établissent une interpolation bilinéaire entre des visages expressifs distribués sur un cercle s'inspirant du disque d'émotion de H. Schlosberg décrit par ce dernier, par exemple dans le document : "The description of facial expressions in terms of two dimensions" - Journal of Expérimental Psychology, vol. 44, no. 4, p. 344, 2001. Ces approches se basent sur des modèles théoriques décrivant les états émotionnels développés par des chercheurs en sciences humaines, comme décrit par exemple dans le document intitulé, "The Nature of Emotions" de R. Plutchik, publié dans American Scientist, vol. 89, pp. 344, 2001. Ces modèles théoriques ont l'avantage d'être simples et intuitifs et les méthodes concernées ont pour but d'établir un lien entre ces modèles théoriques et les paramètres "physiques" associés au contrôle effectif des expressions faciales. Les paramètres physiques sont donc ajustés "de force" aux modèles théoriques, ce qui peut s'avérer incohérent car les modèles émotionnels théoriques n'ont pas été conçus en se basant sur des critères physiques de mouvements faciaux. De plus, les mouvements faciaux se révèlent être très variables d'un individu à un autre, particularité que les modèles émotionnels ne prennent pas en compte.Several previous approaches have already addressed the creation of intuitive interfaces for controlling a virtual face. For example, in the document titled: "Emotion Disc and Emotion Squares: Tools to Explore the Facial Expression Space" by Z. Ruttkay et al. - Computer Graphics Forum, vol. 22, pp. 49-53, 2003, the authors establish a bilinear interpolation between expressive faces distributed on a circle inspired by the disc of emotion of H. Schlosberg described by the latter, for example in the document: "The This paper is based on theoretical models describing the emotional states developed by social scientists as described for example in the document entitled "The Nature of Emotions" by R. Plutchik, published in American Scientist, vol 89, pp. 344, 2001. These theoretical models have the advantage of being simple and intuitive and the The purpose of these methods is to establish a link between these theoretical models and the "physical" parameters associated with the effective control of facial expressions, so that the physical parameters are "forcibly" adjusted to the theoretical models, which may be inconsistent because Theoretical emotional models were not designed based on physical criteria of facial movements, and facial movements are highly variable in an individual. from one to another, peculiarity that emotional models do not take into account.
La présente invention a pour but d'améliorer les techniques existantes relatives à la synthèse d'expressions faciales pour un personnage virtuel, en proposant, en particulier, un système de génération d'une interface de contrôle pour un visage synthétique, permettant la génération aisée et rapide d'expressions faciales réalistes pour un personnage virtuel, tout en étant accessible d'usage pour des animateurs professionnels comme amateurs.The present invention aims to improve the existing techniques relating to the synthesis of facial expressions for a virtual character, proposing, in particular, a system for generating a control interface for a synthetic face, allowing easy generation and fast realistic facial expressions for a virtual character, while being accessible for use by professional animators as amateurs.
A cette fin, selon un premier aspect, la présente invention a pour objet un procédé de génération d'une interface de contrôle des expressions faciales d'un avatar. Conformément à l'invention, ce procédé comprend les étapes suivantes :To this end, according to a first aspect, the present invention relates to a method for generating an interface for controlling the facial expressions of an avatar. According to the invention, this method comprises the following steps:
- obtention d'un modèle de déformations d'un visage réel à partir des images d'une base de données d'images du visage réel, ce modèle comprenant un ensemble de vecteurs de paramètres d'apparence formant un espace d'apparence de visage réel; - extraction d'un sous-ensemble de vecteurs de paramètres de l'espace d'apparence du visage réel, en fonction de l'influence des vecteurs de paramètres sur la constitution de l'espace d'apparence du visage réel, et détermination des expressions, dites expressions caractéristiques, correspondant aux vecteurs de paramètres extraits;obtaining a model of deformations of a real face from the images of a database of images of the real face, this model comprising a set of vectors of appearance parameters forming a face appearance space real; extracting a subset of vectors of parameters from the real face appearance space, as a function of the influence of the parameter vectors on the constitution of the real face appearance space, and determining expressions, called characteristic expressions, corresponding to the extracted parameter vectors;
- génération d'une interface graphique de contrôle adaptée à la navigation dans l'espace d'apparence du visage réel, et permettant de contrôler la synthèse d'expressions quelconques sur le visage réel;- Generation of a graphical control interface adapted to navigation in the actual face appearance space, and to control the synthesis of any expressions on the real face;
- création d'une base de données d'images d'un visage d'avatar, dite base de données d'avatar, par application des expressions réelles caractéristiques à un visage d'avatar;creating an image database of an avatar face, called an avatar database, by applying the characteristic real expressions to an avatar face;
- obtention d'un modèle de déformations du visage d'avatar à partir des images de la base de données d'avatar, ce modèle comprenant un ensemble de vecteurs de paramètres d'apparence formant un espace d'apparence de visage d'avatar;obtaining an avatar face deformation pattern from the images of the avatar database, which model comprises a set of appearance parameter vectors forming an avatar face appearance space;
- application de l'interface de contrôle à la navigation dans l'espace d'apparence du visage d'avatar, afin de permettre le contrôle de la synthèse d'expressions quelconques sur le visage d'avatar.- application of the control interface to the navigation in the avatar face's appearance space, to allow the control of the synthesis of any expressions on the avatar's face.
Un tel procédé de génération d'une interface de contrôle des expressions d'un personnage virtuel, présente notamment l'avantage de ne pas reposer sur un espace de paramètres d'émotions prédéfini, au contraire l'espace de paramètres de départ, c'est-à-dire l'espace d'apparence de visage réel, procède de l'analyse de modes de déformation du visage d'une personne réelle, par exemple un acteur. Cet espace d'apparence de visage réel est ensuite utilisé, via la détermination d'expressions caractéristiques de visage réel, afin de créer une base de données d'image d'avatar qui sera ensuite à la base de la modélisation des expressions pour l'avatar. Ainsi l'interface de contrôle conçue au départ à partir d'une base de données d'images d'un visage réel (humain), peut être ensuite appliquée à une telle base de données de visage d'avatar, pour procurer un réalisme jusqu'alors inconnu dans la synthèse continue d'expressions faciales sur un visage d'avatar.Such a method for generating an interface for controlling the expressions of a virtual character has the advantage of not being based on a predefined emotion parameter space, on the contrary the starting parameter space that is to say, the real face appearance space, proceeds from the analysis of modes of deformation of the face of a real person, for example an actor. This real face appearance space is then used, through the determination of real face feature expressions, to create an avatar image database that will then be the basis for expression modeling for the face. avatar. Thus the control interface initially designed from an image database of a real face (human), can then be applied to such an avatar face database, to provide realism up to 'then unknown in the continuous synthesis of facial expressions on an avatar face.
Selon un mode de réalisation particulier, le modèle précité de déformations de visage réel, est constitué d'un ensemble de vecteurs de paramètres d'apparence combinant des informations de forme et de texture, ces vecteurs de paramètres d'apparence constituant un espace vectoriel d'apparence, dans lequel chaque vecteur de paramètres est associé à une expression faciale unique correspondant à une image unique de la base de données d'images du visage réel.According to a particular embodiment, the aforementioned model of real face deformations consists of a set of appearance parameter vectors combining shape and texture information, these appearance parameter vectors constituting a vector space. in which each parameter vector is associated with a single facial expression corresponding to a single image of the real face image database.
En choisissant d'utiliser un tel type de modélisation, décrivant une expression faciale non seulement en termes de forme géométrique, mais aussi en termes d'informations de texture, le modèle est beaucoup plus réaliste que la plupart des modèles connus, en capturant ainsi les effets des mouvements de la peau accompagnant les changements d'expression faciale. En particulier, les mouvements des rides de la peau peuvent être ainsi pris en compte dans la modélisation.By choosing to use such a type of modeling, describing a facial expression not only in terms of geometric shape, but also in terms of texture information, the model is much more realistic than most known models, thus capturing effects of skin movements accompanying changes in facial expression. In particular, the movements of the wrinkles of the skin can thus be taken into account in the modeling.
Selon un mode de réalisation particulier de l'invention, cette interface graphique de contrôle de la synthèse d'expressions quelconques sur le visage d'avatar, est une interface graphique ayant la forme d'un disque dans lequel :According to a particular embodiment of the invention, this graphic interface for controlling the synthesis of any expressions on the avatar face is a graphical interface having the form of a disk in which:
- un type considéré d'expression faciale est déterminé par un rayon donné du disque graphique, et est choisi en fonction du déplacement d'un marqueur sur un cercle quelconque parmi les cercles concentriques ayant pour centre le centre du disque, et ayant pour rayon un rayon compris entre zéro et le rayon du disque ; eta given type of facial expression is determined by a given radius of the graphic disk, and is selected as a function of the displacement of a marker on any one of the concentric circles centered on the center of the disk, and having as radius one radius between zero and the radius of the disk; and
- une valeur d'intensité relative à un type d'expression considéré est déterminée par le déplacement du marqueur sur le rayon du disque qui correspond au type d'expression considéré.an intensity value relative to a type of expression considered is determined by the displacement of the marker on the radius of the disc corresponding to the type of expression considered.
Une telle interface de contrôle graphique est aisée et ergonomique à l'usage, tant pour un animateur professionnel qu'un animateur amateur, et offre la possibilité de naviguer de façon continue dans l'espace d'apparence et de générer ainsi tout type d'expressions faciales selon l'intensité désirée de l'expression.Such a graphical control interface is easy and ergonomic for use, both for a professional animator and an amateur animator, and offers the ability to navigate continuously in the appearance space and thus generate any type of facial expressions according to the desired intensity of the expression.
Selon un deuxième aspect, l'invention a pour objet une interface de contrôle des expressions faciales d'un visage d'avatar, obtenue par la mise en oeuvre d'un procédé de génération d'une interface de contrôle tel que brièvement défini supra.According to a second aspect, the subject of the invention is an interface for controlling the facial expressions of an avatar face, obtained by implementing a method of generating a control interface as briefly defined above.
Selon un mode de réalisation particulier de l'invention, l'étape de génération d'une interface graphique de contrôle comprend : - une étape d'identification, à partir du nuage de points constituant l'espace d'apparence du visage réel, d'un nombre prédéterminé de directions dominantes de l'espace d'apparence, lesdites directions dominantes étant déterminées en utilisant un algorithme de détection d'enveloppe convexe ; et - une étape d'application d'une mise en correspondance de chaque point de l'espace d'apparence du visage réel, porté par une direction dominante identifiée, vers un point de l'espace constituant l'interface graphique de contrôle.According to a particular embodiment of the invention, the step of generating a control graphical interface comprises: a step of identifying, from the scatterplot constituting the actual face appearance space, a predetermined number of dominant directions of the appearance space, said dominant directions being determined using an algorithm of convex hull detection; and a step of applying a mapping of each point of the real-face appearance space, carried by an identified dominant direction, to a point in the space constituting the control graphical interface.
Les expressions caractéristiques utilisées pour concevoir la base de données d'images d'avatar, sont issues de ces directions dominantes, par conséquent, il s'agit là d'une sorte de transfert de la connaissance de la nature et de l'organisation des directions dominantes depuis le visage humain vers un visage synthétique. L'utilisation de l'interface de contrôle pour piloter la synthèse d'expressions d'un visage virtuel procure donc une expressivité très réaliste.The characteristic expressions used to design the avatar image database come from these dominant directions, so this is a kind of transfer of knowledge about the nature and organization of dominant directions from the human face to a synthetic face. The use of the control interface to control the synthesis of expressions of a virtual face thus provides a very realistic expressivity.
Selon un troisième aspect, l'invention concerne l'utilisation d'une interface de contrôle des expressions faciales d'un visage d'avatar obtenue par un procédé de génération d'interface selon l'invention, pour la synthèse d'expressions faciales sur un visage d'avatar. Selon un autre aspect, l'invention concerne l'utilisation de l'interface de contrôle précitée, pour la synthèse d'expressions faciales sur un visage humain.According to a third aspect, the invention relates to the use of an interface for controlling the facial expressions of an avatar face obtained by an interface generation method according to the invention, for the synthesis of facial expressions on an avatar face. According to another aspect, the invention relates to the use of the aforementioned control interface, for the synthesis of facial expressions on a human face.
En effet, une telle interface de contrôle d'expressions faciale générée par un procédé selon l'invention, peut être appliquée à n'importe quel visage de personnage synthétique à partir d'une base de données réduite d'images (pseudo base de données), mais également pour synthétiser des expressions faciales directement sur un visage humain numérisé, dans ce dernier cas l'interface de contrôle pilote la navigation directement dans l'espace d'apparence de visage réel.Indeed, such a facial expression control interface generated by a method according to the invention can be applied to any synthetic character face from a reduced database of images (pseudo database ), but also to synthesize facial expressions directly on a scanned human face, in the latter case the control interface controls the navigation directly in the real face appearance space.
L'invention concerne encore un système de génération d'une interface de contrôle des expressions faciales d'un avatar, ce système comprenant :The invention also concerns a system for generating an interface for controlling the facial expressions of an avatar, this system comprising:
- des moyens de modélisation des déformations d'un visage réel à partir des images d'une base de données d'images du visage réel, le modèle obtenu comprenant un ensemble de vecteurs de paramètres d'apparence formant un espace d'apparence de visage réel ;means for modeling the deformations of a real face from the images of a database of images of the real face, the model obtained comprising a set of appearance parameter vectors forming a real face appearance space;
- des moyens d'extraction d'un sous-ensemble de vecteurs de paramètres de l'espace d'apparence du visage réel, en fonction de l'influence des vecteurs de paramètres sur la constitution de l'espace d'apparence du visage réel, et détermination des expressions, dites expressions caractéristiques, correspondant aux vecteurs de paramètres extraits;means for extracting a subset of vectors of parameters of the real face appearance space, as a function of the influence of the parameter vectors on the constitution of the real face appearance space , and determining the expressions, called characteristic expressions, corresponding to the extracted parameter vectors;
- des moyens de création d'une base de données d'images d'un visage d'avatar, dite base de données d'avatar, par application des expressions réelles caractéristiques à un visage d'avatar;means for creating an image database of an avatar face, called an avatar database, by applying the characteristic real expressions to an avatar face;
- des moyens de modélisation des déformations du visage d'avatar à partir des images de la base de données d'avatar, le modèle obtenu comprenant un ensemble de vecteurs de paramètres d'apparence formant un espace d'apparence de visage d'avatar ; - des moyens de génération d'une interface de contrôle adaptée a la navigation dans l'espace d'apparence du visage réel, et destinée à piloter la synthèse d'expressions quelconques sur le visage réel, l'interface de contrôle étant applicable à la navigation dans l'espace d'apparence du visage d'avatar, afin de permettre le contrôle automatique de la synthèse d'expressions quelconques sur le visage d'avatar.means for modeling the deformations of the avatar face from the images of the avatar database, the model obtained comprising a set of vectors of appearance parameters forming an avatar face appearance space; means for generating a control interface suitable for navigation in the real-face appearance space, and for controlling the synthesis of any expressions on the real face, the control interface being applicable to the navigation in the avatar face's appearance space, to allow automatic control of the synthesis of any expressions on the avatar's face.
L'invention a aussi pour objet un programme d'ordinateur, comprenant des instructions adaptées à la mise en œuvre de tout ou partie des étapes d'un procédé de génération d'une interface de contrôle tel que décrit précédemment lorsqu'il est exécuté sur un ordinateur. Les avantages procurés par un tel programme d'ordinateur ou un tel système de génération d'une interface de contrôle des expressions faciales d'un avatar, sont identiques à ceux mentionnés plus haut en relation avec le procédé de génération d'une interface, selon l'invention.The invention also relates to a computer program, comprising instructions adapted to the implementation of all or part of the steps of a method of generating a control interface as described above when it is executed on a computer. The advantages provided by such a computer program or such a system for generating an interface for controlling the facial expressions of an avatar are identical to those mentioned above in relation to the method for generating an interface, according to the invention.
L'invention sera mieux comprise à la lecture de la description détaillée qui va suivre, donnée uniquement à titre d'exemple et faite en se référant aux dessins sur lesquels : - la Figure 1 illustre un procédé global de génération d'une interface de contrôle des expressions faciales d'un personnage virtuel, selon l'invention ;The invention will be better understood on reading the detailed description which follows, given solely by way of example and with reference to the drawings in which: FIG. 1 illustrates a global method for generating an interface for controlling the facial expressions of a virtual character, according to the invention;
- la Figure 2 illustre l'étape de modélisation des déformations d'un visage réel selon un mode de réalisation de l'invention ;FIG. 2 illustrates the step of modeling the deformations of a real face according to one embodiment of the invention;
- la Figure 3 représente deux vues différentes de la distribution des échantillons (vecteurs de paramètres) de la base de données de visage réel dans l'espace d'apparence de visage réel, obtenu selon l'invention ;3 represents two different views of the distribution of the samples (parameter vectors) of the real face database in the real face appearance space, obtained according to the invention;
- la Figure 4 illustre les caractéristiques de l'espace d'apparence de visage réel, ainsi que le processus de réduction de l'espace d'apparence à un espace à 2 dimensions, selon un mode de réalisation de l'invention ;FIG. 4 illustrates the characteristics of the real face appearance space, as well as the process of reducing the appearance space to a 2-dimensional space, according to an embodiment of the invention;
- La Figure 5 illustre l'étape de génération d'une interface de contrôle à 2 dimensions, selon un mode de réalisation de l'invention, à partir de l'espace d'apparence de visage réel ; - La Figure 6 illustre l'utilisation d'une interface de contrôle à 2 dimensions selon un mode de réalisation de l'invention, pour piloter les expressions faciales d'un personnage virtuel ;FIG. 5 illustrates the step of generating a 2-dimensional control interface, according to an embodiment of the invention, from the real face appearance space; FIG. 6 illustrates the use of a 2-dimensional control interface according to one embodiment of the invention, for controlling the facial expressions of a virtual character;
- La Figure 7 illustre le résultat de la synthèse d'expressions faciales obtenu à la fois sur le visage d'avatar et sur le visage réel, en utilisant une interface de contrôle 2D selon l'invention ; etFIG. 7 illustrates the result of the synthesis of facial expressions obtained on both the avatar face and the real face, using a 2D control interface according to the invention; and
- La Figure 8 illustre l'interprétation émotionnelle de l'espace de contrôle couvert par l'interface de contrôle 2D selon l'invention.FIG. 8 illustrates the emotional interpretation of the control space covered by the 2D control interface according to the invention.
La Figure 1 illustre un procédé global de génération d'une interface de contrôle des expressions faciales d'un personnage virtuel, selon l'invention.Figure 1 illustrates a global method for generating an interface for controlling the facial expressions of a virtual character, according to the invention.
Comme représenté à la Figure 1 , le procédé selon l'invention comprend : Une étape initiale E1 de modélisation des déformations d'un visage réel à partir des images d'une base de données d'images 10 obtenues à partir d'un visage humain réel. Le modèle de déformations obtenue à l'issue de l'étape de modélisation comprend un ensemble de vecteurs de paramètres d'apparence de dimension Na et qui forment, lorsqu'ils sont représentés graphiquement dans un espace à Na dimensions, un nuage de points, 11 , appelé "espace d'apparence" de visage réel (humain). En pratique, selon un choix de réalisation, cette étape de modélisation E1 des déformations ou expressions d'un visage humain, est mise en œuvre par un module logiciel particulier. Cette étape de modélisation (E1) sera détaillée plus bas en liaison avec la Figure 2.As represented in FIG. 1, the method according to the invention comprises: An initial step E1 of modeling the deformations of a real face from the images of a database of images 10 obtained from a human face real. The model of deformations obtained at the end of the modeling step comprises a set of vectors of parameters of appearance of dimension Na and which form, when graphically represented in a space with Na dimensions, a cloud of points, 11, called "appearance space" of real face (human). In practice, according to a choice of embodiment, this modeling step E1 of the deformations or expressions of a human face, is implemented by a particular software module. This modeling step (E1) will be detailed below in connection with FIG. 2.
- Une étape E2 de génération d'une interface graphique de contrôle 14 obtenue à partir de l'espace d'apparence de visage réel (11), cette interface étant apte à permettre le contrôle de la synthèse d'expressions quelconques sur le visage réel. Cette fonction de contrôle est représentée par la flèche en pointillés CM1 sur la Figure 1. L'étape E2 de génération de l'interface graphique 14 qui sera détaillée plus bas en relation avec les Figures 3 à 5, inclut une étape d'extraction d'un sous-ensemble de vecteurs de paramètres de l'espace d'apparence du visage réel, en fonction de l'influence des vecteurs de paramètres sur la constitution de l'espace d'apparence du visage réel, et la détermination des expressions, dites expressions caractéristiques, correspondantes aux vecteurs de paramètres extraits. En pratique, selon un choix de réalisation, l'étape E2 de génération d'une interface est mise en œuvre par un module logiciel particulier.A step E2 for generating a control graphical interface 14 obtained from the real face appearance space (11), this interface being able to allow the control of the synthesis of any expressions on the real face; . This control function is represented by the dashed arrow CM1 in FIG. 1. The generation step E2 of the graphical interface 14 which will be detailed below in relation to FIGS. 3 to 5, includes a step of extraction of FIG. a subset of vectors of parameters of the real face appearance space, depending on the influence of the parameter vectors on the constitution of the real-face appearance space, and the determination of the expressions, so-called characteristic expressions, corresponding to the extracted parameter vectors. In practice, according to an embodiment, the step E2 for generating an interface is implemented by a particular software module.
- Une étape E3 de création d'une base de données (12) d'images d'un visage d'avatar (ou personnage virtuel), dite base de données d'avatar, par application des expressions réelles caractéristiques obtenues lors de l'étape E2, à un visage d'avatar.A step E3 of creating a database (12) of images of an avatar face (or virtual character), called the avatar database, by applying the real characteristic expressions obtained during the step E2, to an avatar face.
- Une étape E4 de modélisation des déformations du visage d'avatar à partir des images de la base 12 de données d'avatar, ce modèle comprenant un ensemble de vecteurs de paramètres d'apparence formant un espace d'apparence de visage d'avatar 13. En pratique, l'étape E4 de modélisation peut être est mise en œuvre, soit par le module de modélisation utilisé pour l'étape E1 précitée, soit par un module logiciel distinct.An E4 step of modeling the deformations of the avatar face from the images of the avatar database 12, this model comprising a set of vectors of appearance parameters forming an avatar face appearance space 13. In practice, the modeling step E4 can be implemented either by the modeling module used for the aforementioned step E1, or by a separate software module.
- Une fonction de contrôle CM2 pour l'application de l'interface de contrôle 14 à la navigation dans l'espace d'apparence du visage d'avatar (13), afin de permettre le contrôle de la synthèse d'expressions quelconques sur le visage d'avatar. Modélisation des déformations du visage réelA control function CM2 for the application of the control interface 14 to the navigation in the avatar face appearance space (13), in order to allow the control of the synthesis of any expressions on the avatar face. Modeling of real facial deformities
La Figure 2 illustre l'étape (E1 ) de modélisation des déformations d'un visage réel selon un mode de réalisation de l'invention. Dans un premier temps, on constitue une base de données d'images à partir de séquences d'images du visage d'une personne réelle, par exemple un acteur, adoptant des expressions faciales. Le but est d'obtenir une base de données contenant une quantité importante d'expressions naturelles variées, en types (colère, joie, surprise, etc.) et en intensité (extrême, subtile, stéréotypée, etc.). Il est important que les expressions capturées ne soient pas étiquetées. La base de données 10 contient un nombre ni élevé d'images, en pratique de l'ordre de 5000 images. En pratique, on obtient les séquences d'images requises au moyen par exemple d'une caméra vidéo.Figure 2 illustrates the step (E1) of modeling the deformations of a real face according to one embodiment of the invention. Firstly, a database of images is created from sequences of images of the face of a real person, for example an actor, adopting facial expressions. The goal is to obtain a database containing a large quantity of varied natural expressions, types (anger, joy, surprise, etc.) and intensity (extreme, subtle, stereotyped, etc.). It is important that captured expressions are not labeled. The database 10 contains a high number of images, in practice of the order of 5000 images. In practice, the required image sequences are obtained by means of, for example, a video camera.
Les images de la base de données 10 sont ensuite annotées afin de repérer les éléments marquants du visage tels que les yeux, la bouche, le nez permettant ainsi d'extraire la "forme" du visage. Ce processus d'annotation est connu en soi, et se fait de manière automatique en utilisant un processus de repérage (tracking) automatique de la forme du visage. A l'issue de l'étape d'annotation des images, chaque expression enregistrée dans la base de données, via une image, est associée, d'une part, à une forme géométrique (201 ), et d'autre part, à l'ensemble des pixels d'intensité variable situés à l'intérieur de la forme, cet ensemble de pixels représentant une information de "texture" (202).The images of the database 10 are then annotated in order to identify the striking elements of the face such as the eyes, the mouth, the nose thus making it possible to extract the "shape" of the face. This annotation process is known per se, and is done automatically using an automatic tracking process (tracking) of the shape of the face. At the end of the annotation step of the images, each expression recorded in the database, via an image, is associated, on the one hand, with a geometrical shape (201), and on the other hand, with the set of pixels of variable intensity located inside the shape, this set of pixels representing "texture" information (202).
Les informations de forme et de texture associées à chacune des images de la base de données 10 sont les données d'entrée pour la modélisation (E1) des déformations du visage réel. Selon le mode de réalisation présenté ici, l'étape de modélisation est mise en œuvre en utilisant une technique de type Modèles Actifs d'Apparence (en anglais : "Active Appearance Models" - AAM). Pour obtenir plus d'informations sur les AAM, on pourra consulter le document suivant : "Active Appearance Models" de T.F. Cootes, G. Edwards, and CJ. Taylor, Lecture Notes in Computer Science, vol. 1407, p. 484, 1998. En résumé, l'étape E1 de modélisation utilisant les AAM identifie les principaux modes de variations de forme et de texture du visage lorsqu'il affiche une expression faciale. En sortie de l'étape de modélisation par AAM, on obtient un ensemble de paramètres qui représentent la contribution des modes de variation concernant la forme et la texture de manière combinée. Chacune des expressions faciales peut ensuite être projetée sur l'espace de paramètres AAM, pour garder seulement l'information pertinente concernant les mouvements faciaux et les changements de texture. Dans l'espace de paramètres AAM, appelé "espace d'apparence", chaque configuration faciale issue de la base de données (10) est représentée par un point de dimension Na (Na est typiquement de l'ordre de 30).The shape and texture information associated with each of the images of the database 10 are the input data for the modeling (E1) of the deformations of the real face. According to the embodiment presented here, the modeling step is implemented using an Active Appearance Models (AAM) technique. For more information on MAAs, see the following document: "Active Appearance Models" by TF Cootes, G. Edwards, and CJ. Taylor, Lecture Notes in Computer Science, Vol. 1407, p. 484, 1998. In summary, the modeling step E1 using the MAAs identifies the main modes of shape and texture variations of the face when displaying a facial expression. At the output of the AAM modeling step, a set of parameters is obtained that represent the contribution of the variation modes in form and texture in a combined manner. Each of the facial expressions can then be projected onto the AAM parameter space, to keep only the relevant information regarding facial movements and texture changes. In the AAM parameter space, called "appearance space", each facial configuration from the database (10) is represented by a point of dimension Na (Na is typically of the order of 30).
On notera ici que si l'on inverse l'application (mapping) de l'espace de forme et de texture vers l'espace d'apparence, on peut alors associer chaque point de dimension Na appartenant à l'espace d'apparence à un couple unique de forme et de texture, et par conséquent synthétiser l'expression faciale correspondante. Par ailleurs, une propriété essentielle de l'espace d'apparence est que chaque point à l'intérieur de l'espace couvert par les expressions faciales des images de la base de données (10), correspond à une expression faciale valide. Naviguer n'importe où dans l'espace d'apparence permet ainsi de synthétiser un continuum d'expressions faciales naturelles dans des limites définies par les exemples de la base de données (10) d'images de visage réel.It will be noted here that if the mapping of the shape and texture space to the appearance space is reversed, then each point of dimension Na belonging to the appearance space can be associated with a unique pair of shape and texture, and therefore synthesize the corresponding facial expression. In addition, an essential property of the appearance space is that each point within the space covered by the facial expressions of the images of the database (10), corresponds to a valid facial expression. Navigating anywhere in the appearance space thus makes it possible to synthesize a continuum of natural facial expressions within limits defined by the examples of the real face image database (10).
De manière plus détaillée, à la Figure 2, après l'étape d'annotation précitée on dispose pour chaque image de la base (10) d'une information de forme (étape 203), ainsi que d'une information de texture (étape 204). Le but de la modélisation est d'extraire un jeu de paramètres qui est adapté aux modes de variation observés dans les images de la base de données. Afin de détecter les modes de variation principaux, on utilise une technique connue sous le nom d'Analyse en Composantes Principales (en anglais, Principal Component Analysis - PCA), à la fois pour l'information de forme (PCA 205) que pour l'information de texture (PCA 206). Une forme est une collection de points de dimension N8 (N3 vaut 2 ou 3), et une texture est généralement une collection de valeurs de pixel, et les deux peuvent être considérés comme des vecteurs qui peuvent alimenter un processus PCA.In more detail, in FIG. 2, after the aforementioned annotation step, there is available for each image of the base (10) a shape information (step 203), as well as a texture information (step 204). The purpose of modeling is to extract a set of parameters that is adapted to the variation modes observed in the images of the database. In order to detect the main modes of variation, a technique known as Principal Component Analysis (PCA) is used, both for shape information (PCA 205) and for texture information (PCA 206). A shape is a collection of points of dimension N 8 (N 3 is 2 or 3), and a texture is usually a collection of pixel values, and both can be considered as vectors that can feed into a PCA process.
A l'issue de l'étape d'analyse PCA (205) des formes, on obtient des paramètres de forme intermédiaires Bs. De manière similaire, toutes les textures sont analysées par PCA (206) et on obtient des paramètres de texture intermédiaires B1. Les deux opérations PCA (205, 206) ont pour but d'identifier les principaux modes de variation observés dans la base de données et d'effectuer un filtrage pour garder les plus significatifs. Les couples de vecteurs B3 et Bt sont ensuite combinés lors d'une étape 207 de concaténation afin d'obtenir pour chaque image un vecteur de paramètres combinés de forme et de texture. Le vecteur de paramètres combinés subit ensuite une autre opération (208) d'analyse en composantes principales (PCA), dont le rôle est d'identifier les corrélations entre les variations de forme et de texture et de tirer avantage de ces corrélations afin de réduire la taille du jeu de paramètres (réduction dimensionnelle). A la sortie du bloc PCA 208, on obtient ainsi un ensemble (20) cohérent de vecteurs réduits, C, de paramètres mixtes (forme et texture).At the end of the PCA (205) form analysis step, intermediate shape parameters B s are obtained. Similarly, all the textures are analyzed by PCA (206) and intermediate texture parameters B 1 are obtained. The two PCA operations (205, 206) are intended to identify the main modes of variation observed in the database and to filter to keep the most significant. The vector pairs B 3 and B t are then combined in a concatenation step 207 to obtain for each image a vector of combined parameters of shape and texture. The combined parameter vector then undergoes another Principal Component Analysis (PCA) operation (208), whose role is to identify the correlations between shape and texture variations and take advantage of these correlations to reduce the size of the parameter set (dimensional reduction). At the output of the PCA block 208, a coherent set (20) of reduced vectors, C, of mixed parameters (shape and texture) is thus obtained.
L'opération de modélisation de type AAM (étape E1 ) utilisée dans le cadre de l'invention, qui permet d'obtenir un espace d'apparence (à partir de l'ensemble des vecteurs C de paramètres mixtes), offre l'avantage de pouvoir être inversée et de permettre ainsi la synthèse d'une expression faciale à partir d'une vecteur C quelconque. De tels espaces d'apparence ont déjà été utilisés avec succès pour la synthèse d'expressions faciales, cependant uniquement pour des visages réels. Concernant ce dernier point, on pourra se reporter par exemple au document : "Facial expression récognition and synthesis based on an appearance modet', de B. Abboud, F. Davoine et M. Dang - Signal Processing: Image Communication, vol. 19, no. 8, pp. 723-740, 2004.The modeling operation of the AAM type (step E1) used in the context of the invention, which makes it possible to obtain an appearance space (from the set of vectors C of mixed parameters), offers the advantage can be reversed and thus allow the synthesis of a facial expression from any vector C. Such appearance spaces have already been used successfully for the synthesis of facial expressions, but only for real faces. Regarding this last point, we can refer for example to the document: "Facial expression recognition and synthesis based on an appearance modet", of B. Abboud, F. Davoine and M. Dang - Signal Processing: Image Communication, vol. No. 8, pp. 723-740, 2004.
Génération d'une interface de contrôle à partir de l'espace d'apparence de visage réelGenerating a control interface from the real face appearance space
• Structure de l'espace d'apparence Comme mentionné précédemment, les espaces d'apparence offrent des possibilités intéressantes concernant la navigation dans ces espaces et l'animation de visages réels ou synthétiques. Cependant, la dimension (Na) des vecteurs mixtes forme-texture (vecteurs Q, est trop grande (de l'ordre de 30) pour permettre une navigation aisée dans l'espace d'apparence, et par conséquent créer une interface graphique de contrôle pour piloter la synthèse d'expressions faciales à partir de cet espace de dimension élevée, est un problème ardu.• Structure of the appearance space As mentioned before, the appearance spaces offer interesting possibilities concerning the navigation in these spaces and the animation of real or synthetic faces. However, the dimension (Na) of the mixed shape-texture vectors (Q vectors) is too large (of the order of 30) to allow easy navigation in the appearance space, and consequently to create a graphical control interface to drive the synthesis of facial expressions from this high-dimensional space is a difficult problem.
Afin de pouvoir créer de manière automatique une interface de contrôle, on cherche à simplifier la navigation dans l'espace d'apparence, en observant la manière dont sont distribués les échantillons (images) de la base de données d'images 10 dans leur représentation dans l'espace d'apparence.In order to be able to automatically create a control interface, it is sought to simplify the navigation in the appearance space, by observing the way in which the samples (images) of the image database 10 are distributed in their representation. in the appearance space.
La Figure 3 représente deux vues différentes de la distribution des échantillons (vecteurs de paramètres) de la base de données de visage réel dans l'espace d'apparence de visage réel, obtenu selon l'invention. Dans un but de simplification de représentation, seules les trois premières dimensions sont représentées.Figure 3 shows two different views of the sample distribution (parameter vectors) of the actual face database in the real face appearance space, obtained according to the invention. For simplification of representation, only the first three dimensions are represented.
Suite à la seconde opération PCA (208), on peut considérer que les premières coordonnées des vecteurs de paramètres C sont les plus significatives vis-à-vis de la variance de la base de données d'images. Ainsi, les deux nuages de points représentés à la Figure 3, correspondent aux points associés seulement aux trois premières coordonnées (di, d, dβ) des vecteurs de paramètres. La coloration des points (nuances de gris) est fonction du type (Ei) d'émotion associé à chaque expression faciale représentée par une image de la base de données d'images de visage réel (10). Cette coloration a été effectuée de manière à distinguer les expressions basiques (groupes Ei à Ee) définies selon P. Ekman et al., par exemple dans "Facial expressions of émotion: An old controversy and new findings" - Philosophical Transactions: Biological Sciences, vol. 335, no. 1273, pp. 63-69, 1992. Sur un nuage de points donné, on peut déterminer que les expressions faciales neutres (sans expression particulière) correspondent au centre du nuage alors que des visages très expressifs correspondent à des points situés aux limites extérieures du nuage. Les expressions intermédiaires sont quant à elles situées dans l'espace continu entre les expressions neutres et extrêmes. A ce sujet, on pourra consulter par exemple le document "Appearance manifold of facial expressions", de C. Shan, S. Gong, et P. W. McOwan - Computer Vision in Human-Computer Interaction, Berlin, printemps 2005, pp. 221 -230.Following the second PCA operation (208), it can be considered that the first coordinates of the parameter vectors C are the most significant vis-à-vis the variance of the image database. Thus, the two point clouds shown in FIG. 3 correspond to the points associated only with the first three coordinates (di, d Σ , dβ) of the parameter vectors. The coloration of the points (shades of gray) is a function of the type (Ei) of emotion associated with each facial expression represented by an image of the real face image database (10). This staining was carried out so as to distinguish the basic expressions (groups Ei to Ee) defined according to P. Ekman et al., For example in "Facial expressions of emotion: An old controversy and new findings" - Philosophical Transactions: Biological Sciences, flight. 335, no. 1273, pp. 63-69, 1992. On a given scatter plot, it can be determined that neutral facial expressions (with no particular expression) correspond to the center of the cloud, whereas very expressive faces correspond to points in the cloud. at the outer limits of the cloud. Intermediate expressions are located in the continuous space between neutral and extreme expressions. On this subject, for example, the document "Appearance Manifesto of Facial Expressions" by C. Shan, S. Gong, and PW McOwan - Computer Vision in Human Computer Interaction, Berlin, Spring 2005, pp. 221 -230.
On peut observer qu'un nuage de point donné (nuage de droite ou de gauche, Fig. 3) possède quelques directions dominantes qui peuvent être identifiées comme des segments qui relient les points correspondant aux expressions neutres (centre) aux points correspondant aux expressions extrêmes. La plupart des expressions sont distribuées, soit le long de ces segments formant les directions dominantes pour constituer ainsi une expression donnée selon différents niveaux d'intensité, soit entre ces directions dominantes pour constituer des transitions d'expressions entre les types dominants d'expressions. Selon l'invention, ces directions dominantes de l'espace d'apparence ont été réorganisées dans un espace de dimension réduite, mais selon une topologie comparable. Dans le mode de réalisation choisi et exposé ici, il s'agit d'un espace d'apparence réduit de dimension 2. De cette façon, il est alors possible de créer une interface graphique de contrôle adaptée en 2 dimensions (2D), par exemple ayant la forme d'un disque 2D. Le processus de réduction de l'espace d'apparence initial (de visage réel) à un espace de dimension 2 va être détaillé à présent en relation avec la Figure 4.It can be seen that a given point cloud (right or left cloud, Fig. 3) has some dominant directions that can be identified as segments that connect points corresponding to neutral expressions (center) to points corresponding to extreme expressions. . Most expressions are distributed, either along these segments forming the dominant directions to thus constitute a given expression according to different levels of intensity, or between these dominant directions to constitute transitions of expressions between the dominant types of expressions. According to the invention, these dominant directions of the appearance space have been rearranged in a space of reduced size, but according to a comparable topology. In the embodiment chosen and exposed here, it is a space of reduced appearance of dimension 2. In this way, it is then possible to create a graphical interface of control adapted in 2 dimensions (2D), by example in the form of a 2D disk. The process of reducing the initial appearance space (real face) to a dimension space 2 will now be detailed in relation to Figure 4.
La Figure 4 illustre les caractéristiques de l'espace d'apparence de visage réel, ainsi que le processus de réduction de l'espace d'apparence à un espace à 2 dimensions, selon un mode de réalisation de l'invention. Comme illustré à la Figure 4 - partie supérieure, la partie centrale de l'espace d'apparence correspond aux expressions neutres (voir image la plus basse). Une expression extrême (image du haut) correspond à un point situé à la frontière extérieure du nuage sur une direction dominante (image du haut), et les expressions d'intensité variable sont concentrées sur les directions dominantes de l'espace d'apparence entre les positions neutres et extrêmes (image du milieu). Ainsi, les trois images présentées sur la Figure 4 (partie haute) correspondent à une expression de type "colère" (type E1) variant entre une expression neutre (image du bas) et une expression extrême (image du haut).Figure 4 illustrates the characteristics of the real face appearance space, as well as the process of reducing the appearance space to a 2-dimensional space, according to one embodiment of the invention. As shown in Figure 4 - upper part, the central part of the appearance space corresponds to the neutral expressions (see lowest image). An extreme expression (top image) corresponds to a point on the outer boundary of the cloud on a dominant direction (top image), and the variable intensity expressions are focused on the dominant directions of the appearance space between neutral and extreme positions (middle image). Thus, the three images presented in Figure 4 (upper part) correspond to an expression of type "anger" (type E 1 ) varying between a neutral expression (bottom image) and an extreme expression (top image).
Pour transformer l'espace d'apparence initial (de visage réel) en un espace de dimension réduite (2D par exemple), il est d'abord nécessaire de déterminer les points, c'est-à-dire les vecteurs de paramètres (vecteurs C), de l'espace qui sont les plus significatifs en termes de variance, afin que ces vecteurs soient pris en compte dans l'espace réduit. Il s'agit donc, selon l'invention, d'extraire un sous-ensemble de vecteurs de paramètres de l'espace d'apparence du visage réel, en fonction de l'influence des vecteurs de paramètres sur la constitution de l'espace d'apparence du visage réel.To transform the space of initial appearance (of real face) into a space of reduced dimension (2D for example), it is first necessary to determine the points, that is to say the vectors of parameters (vectors C), which are the most significant in terms of variance, so that these vectors are taken into account in the reduced space. It is therefore, according to the invention, to extract a subset of vectors of parameters of the appearance space of the real face, as a function of the influence of the parameter vectors on the constitution of the space appearance of the real face.
On considère ici que les vecteurs de paramètres les plus significatifs sont ceux correspondants aux points situés sur l'enveloppe convexe (en anglais "convex huit') du nuage de points. Ainsi, conformément à l'invention, on extrait un sous-ensemble de vecteurs de paramètres de l'espace d'apparence de visage réel, en sélectionnant les vecteurs de paramètres correspondant aux points formant l'enveloppe convexe dans l'espace d'apparence de visage réel.It is considered here that the most significant parameter vectors are those corresponding to the points on the convex hull (in English "convex eight") of the point cloud, so that, according to the invention, a subset of vectors of real face appearance space parameters, by selecting the parameter vectors corresponding to the points forming the convex hull in the real face appearance space.
En pratique, les vecteurs sont sélectionnés de manière automatique en utilisant un algorithme de détection d'enveloppe convexe, par exemple celui décrit dans le document "The quickhull algorithm for convex hulls", de C.B. Barber et al. - ACM Transactions on Mathematical Software (TOMS), vol. 22, no. 4, pp. 469-483, 1996. Le résultat de la détection d'enveloppe convexe contient une redondance importante puisque l'intersection entre l'enveloppe convexe et le nuage de points contient plusieurs points voisins, ces points voisins représentant cependant une seule direction dominante. Afin de supprimer cette redondance, on applique un algorithme de filtrage connu sous le nom "Mean Shiff' (que l'on pourrait traduire en français par "décalage de moyenne") aux vecteurs sélectionnés de l'enveloppe convexe, afin de fusionner les points voisins en un seul représentant de l'enveloppe convexe.In practice, the vectors are selected automatically by using a convex hull detection algorithm, for example that described in the document "The quickhull algorithm for convex hulls", by C. B. Barber et al. - ACM Transactions on Mathematical Software (TOMS), vol. 22, no. 4, pp. 469-483, 1996. The result of the convex hull detection contains an important redundancy since the intersection between the convex envelope and the scatterplot contains several neighboring points, these neighboring points representing however only one dominant direction. In order to eliminate this redundancy, we apply a filtering algorithm known as the "Mean Shiff" (which could be translated into French as "average offset") to the selected vectors of the convex envelope, in order to merge the points neighbors in a single representative of the convex hull.
Habituellement, la détection d'enveloppe convexe et le filtrage par algorithme Mean Shift est très consommateur en ressources processeur pour les dimensions élevées. Cependant, dans le cadre de l'invention, puisque les dimensions de l'espace d'apparence sont déterminées par un traitement PCA (analyse en composantes principales), ces dimensions sont ordonnées selon leur pourcentage de participation à la variance globale de la base de données. En d'autres termes, la première dimension de l'espace d'apparence possède la variance la plus élevée, et la variance diminue lorsque l'on passe d'une dimension donnée à la dimension supérieure. On détermine qu'au dessus d'une certaine dimensionnalité, le résultat de la détection d'enveloppe convexe correspond à des variations insignifiantes. En pratique, il suffit de considérer seulement les 8 premières dimensions pour obtenir une détection d'enveloppe suffisamment stable ; en effet, les 8 premières dimensions représentent 75% de la variance de la base de données d'images (base 10).Usually, convex hull detection and Mean Shift algorithm filtering consumes a lot of processor resources for large dimensions. However, in the context of the invention, since the dimensions of the appearance space are determined by a PCA treatment (principal components analysis), these dimensions are ordered according to their percentage of participation in the overall variance of the database. In other words, the first dimension of the appearance space has the highest variance, and the variance decreases when moving from a given dimension to the larger dimension. It is determined that above a certain dimensionality, the result of the convex hull detection corresponds to insignificant variations. In practice, it suffices to consider only the first 8 dimensions to obtain a sufficiently stable envelope detection; in fact, the first 8 dimensions represent 75% of the variance of the image database (base 10).
A la Figure 4, partie en bas et à gauche, les expressions extrêmes détectées comme étant les points de l'enveloppe convexe, sont représentés par les gros points noirs en périphérie du nuage. La partie en bas et à droite de la Figure 4, met en évidence les directions dominantes (segments de droites noirs) qui s'étendent entre les points centraux d'expressions neutres vers quelques points sélectionnés en périphérie et correspondant à des expressions extrêmes.In Figure 4, bottom left corner, the extreme expressions detected as the points of the convex hull are represented by the large black dots on the periphery of the cloud. The lower right part of Figure 4 highlights the dominant directions (black line segments) that extend between the central points of neutral expressions to a few points selected at the periphery and corresponding to extreme expressions.
• Génération d'une interface de contrôle à 2 dimensions• Generation of a 2-dimensional control interface
L'objectif est ici d'adapter l'ensemble des directions dominantes de l'espace d'apparence (11 ) en un espace à 2 dimensions, en particulier, un disque 2D (14). A cette fin, la seule information considérée est l'angle existant entre les directions dominantes dans l'espace d'apparence, les directions dominantes étant vues comme des segments de longueur unitaire d'une hypersphère de dimensionnalité Na centrée sur l'échantillon d'expression neutre. Par conséquent, chacune des directions dominantes de l'espace d'apparence doit correspondre à une direction 2D sur le disque et la distorsion entre les distributions de directions doit être minimisée. Plus précisément, l'implémentation 2D des directions doit être telle que la distribution des distances angulaires dans l'implémentation 2D doit être similaire à celle existante dans l'espace d'apparence.The objective here is to adapt all the dominant directions of the appearance space (11) to a 2-dimensional space, in particular a 2D disc (14). For this purpose, the only information considered is the angle between the dominant directions in the appearance space, the dominant directions being viewed as unit length segments of a Na dimensionality hypersphere centered on the sample of neutral expression. Therefore, each of the dominant directions of the appearance space must correspond to a 2D direction on the disc and the distortion between the direction distributions must be minimized. Specifically, the 2D implementation of the directions must be such that the distribution of the angular distances in the 2D implementation must be similar to that existing in the appearance space.
Le problème consiste alors à rechercher un chemin dans l'hypersphère de l'espace d'apparence qui passe par chacune des directions dominantes seulement une fois et qui en même temps minimise la distance angulaire accumulée durant le parcours du chemin, que l'on peut définir comme le coût du chemin. On peut appliquer par analogie au problème précité, le problème bien connu du voyageur de commerce (en anglais : travelling salesman problem - TSP). Pour rappel, le problème du voyageur de commerce est un problème NP-complet dont le but est de déterminer le chemin le plus court pour traverser un ensemble de villes dont la distance entre une paire quelconque de villes est connue. Ainsi, en remplaçant les villes par les directions principales de dimension Na et la distance inter villes par la distance angulaire inter directions, on peut résoudre le problème du chemin optimal dans l'espace d'apparence en utilisant une méthode générique de résolution du problème du voyageur de commerce. Bien sûr, compte tenu du caractère NP du problème TSP, la tâche d'optimisation devient excessivement coûteuse en temps de calcul lorsque le nombre de directions détectées croît. Dans le cadre de l'invention, on utilise une méthode de résolution stochastique basée sur un processus dit de "recuit simulé" (simulated annealing en anglais), et les résultats montrent qu'avec un nombre raisonnable de directions, l'optimisation du problème TSP atteint toujours une solution relativement optimale dans un temps raisonnable (moins de 2 minutes pour 30 directions). Les directions sont alors positionnées sur le cercle (périmètre du disque) selon la séquence de directions obtenue par l'algorithme d'optimisation du problème TSP. De plus, les valeurs d'angles entre les directions implémentées sur le cercle sont calculées de manière proportionnelle à la distribution angulaire observée dans le chemin au travers des directions dans l'espace d'apparence à Na dimensions.The problem is then to search for a path in the hypersphere of the space of appearance that passes through each of the dominant directions only once and at the same time minimizes the angular distance accumulated during the course of the path, which can be defined as the cost of the path. By analogy to the problem mentioned above, the well-known problem of the traveling salesman problem (TSP) can be applied. As a reminder, the problem of the commercial traveler is an NP-complete problem whose aim is to determine the shortest way to cross a set of cities whose distance between any pair of cities is known. Thus, by replacing the cities by the principal directions of dimension Na and the distance between cities by the angular distance between directions, one can solve the problem of the optimal path in the space of appearance by using a generic method of solving the problem of the traveling salesman. Of course, given the NP character of the TSP problem, the optimization task becomes excessively expensive in computing time when the number of detected directions increases. In the context of the invention, a stochastic resolution method based on a so-called "simulated annealing" process is used, and the results show that with a reasonable number of directions, the optimization of the problem TSP always reaches a relatively optimal solution in a reasonable time (less than 2 minutes for 30 directions). The directions are then positioned on the circle (perimeter of the disk) according to the sequence of directions obtained by the optimization algorithm of the TSP problem. In addition, the angle values between the directions implemented on the circle are calculated proportionally to the angular distribution observed in the path through the directions in the Na-dimensional appearance space.
La Figure 5 illustre l'étape de génération d'une interface de contrôle à 2 dimensions, à partir de l'espace d'apparence de visage réel. A la Figure 5 comme à la Figure 4, pour simplifier la représentation, seules les 3 premières dimensions (di, d2, d3) sont dessinées. La Figure 5 illustre plus précisément la transformation de l'espace d'apparence en un disque 2D.Figure 5 illustrates the step of generating a 2-dimensional control interface from the real face appearance space. In Figure 5 as in Figure 4, to simplify the representation, only the first 3 dimensions (di, d 2 , d 3 ) are drawn. Figure 5 illustrates more precisely the transformation of the appearance space into a 2D disk.
Les parties gauches haute et basse de la Figure 5 représentent deux vues des directions dominantes détectées dans l'espace d'apparence. Les directions apparaissent avec des nuances de gris distinctes pour mettre en évidence le type d'émotions porté par chaque direction.The upper and lower left portions of Figure 5 represent two views of the dominant directions detected in the appearance space. The directions appear with distinct shades of gray to highlight the type of emotions worn by each direction.
Les parties centrales de la Figure 5 (haute et basse) illustrent les chemins obtenus par l'algorithme d'optimisation du voyageur de commerce pour obtenir la séquence de directions principales selon laquelle les directions doivent être implémentées sur un disque 2D (à droite). La partie droite de laThe central parts of Figure 5 (high and low) illustrate the paths obtained by the business traveler optimization algorithm to obtain the main direction sequence in which the directions are to be implemented on a 2D disk (right). The right part of the
Figure 5 illustre l'implémentation des directions dominantes sur le disque 2D.Figure 5 illustrates the implementation of dominant directions on the 2D disk.
Ci-dessus, on vient de décrire une distribution à 2 dimensions des directions dominantes de l'espace d'apparence à Na dimensions. Il faut ensuite définir un lien ou correspondance entre chaque point de l'espace d'apparence du visage réel, porté par une direction dominante sélectionnée, vers un point de l'espace 2D porté par la direction correspondante implémentée dans l'interface graphique de contrôle (disque 2D selon le mode de réalisation présenté).Above, a 2-dimensional distribution of the dominant directions of the Na-dimensional appearance space has been described. Next, we must define a link or correspondence between each point of the real face appearance space, carried by a selected dominant direction, to a point in the 2D space carried by the corresponding direction implemented in the control graphical interface. (2D disc according to the embodiment presented).
Aux fins de réaliser cette correspondance, divers procédés peuvent être utilisés, par exemple des méthodes de régression (linéaires, polynomiales, etc.). Cependant, dans le cadre de la présente invention, on utilise une autre approche basée sur la méthode d'approximation connue sous l'appellation anglaise "Thin-Plate Spline" (TPS) ("Spline à plaque mince", en français), cette méthode présente en effet l'avantage de constituer un compromis entre la précision de l'interpolation des échantillons connus à mettre en correspondance, et le lissage de la mise en correspondance. Or, le critère de lissage est important dans le cas présent, puisque l'espace d'apparence doit pouvoir faire l'objet d'une navigation continue pour réaliser l'animation d'un visage réel ou synthétique. Dans ce qui précède, on vient de décrire l'opération de génération (E2,In order to achieve this correspondence, various methods can be used, for example regression methods (linear, polynomial, etc.). However, in the context of the present invention, another approach based on the approximation method known as "Thin-Plate Spline" (TPS) is used. This method has the advantage of being a compromise between the precision of the interpolation of the known samples to be matched, and the smoothing of the mapping. Now, the criterion of smoothing is important in the present case, since the space of appearance must be able to be the object of a continuous navigation to realize the animation of a real or synthetic face. In the foregoing, we have just described the generation operation (E2,
Fig. 1) d'une interface de contrôle qui, en résumé, comporte d'abord l'identification, à partir du nuage de points constituant l'espace d'apparence du visage réel, d'un nombre prédéterminé de directions dominantes de l'espace d'apparence, en utilisant un algorithme de détection d'enveloppe convexe. Ensuite, on applique une mise en correspondance de chaque point de l'espace d'apparence du visage réel, porté par une direction dominante sélectionnée, vers un point de l'espace constituant l'interface graphique de contrôle (2D). Selon le mode de réalisation présenté ici, l'interface graphique de contrôle de la synthèse d'expressions est une interface graphique ayant la forme d'un disque dans lequel :Fig. 1) a control interface which, in summary, first involves the identification, from the cloud of points constituting the real-face appearance space, of a predetermined number of dominant directions of space of appearance, using a convex hull detection algorithm. Next, a mapping of each point in the real-world appearance space, carried by a selected dominant direction, to a point in the space constituting the control graphical interface (2D) is applied. According to the embodiment presented here, the graphical control interface of the expression synthesis is a graphic interface having the form of a disk in which:
- un type considéré d'expression faciale est déterminé par un rayon donné du disque graphique, et est choisi en fonction du déplacement d'un marqueur sur un cercle quelconque parmi les cercles concentriques ayant pour centre le centre du disque, et ayant pour rayon un rayon compris entre zéro et le rayon du disque ; eta given type of facial expression is determined by a given radius of the graphic disk, and is selected as a function of the displacement of a marker on any one of the concentric circles centered on the center of the disk, and having as radius one radius between zero and the radius of the disk; and
- une valeur d'intensité relative à un type d'expression considéré est déterminée par le déplacement du marqueur sur le rayon du disque qui correspond au type d'expression considéré.an intensity value relative to a type of expression considered is determined by the displacement of the marker on the radius of the disc corresponding to the type of expression considered.
En pratique, l'interface graphique selon l'invention peut être représentée sur un écran d'ordinateur, et le marqueur précité, actionné à l'écran au moyen d'un dispositif de pointage tel qu'une souris. L'interface de contrôle 2D, selon l'invention, a été conçue à partir de l'espace d'apparence de visage réel (11 ), lui-même établi à partir des échantillons d'images de la base de données de visage réel (10). Ainsi, l'interface de contrôle (14) peut être utilisée pour "naviguer" dans l'espace d'apparence réduit de l'interface et déterminer un vecteur correspondant dans l'espace d'apparence (11 ) à Na dimensions, afin de synthétiser (flèche CM1 sur la Fig. 1 ) une expression quelconque appliquée au visage humain réel objet des images de la base de données 10.In practice, the graphical interface according to the invention can be represented on a computer screen, and the aforementioned marker, operated on the screen by means of a pointing device such as a mouse. The 2D control interface according to the invention has been designed from the real face appearance space (11) itself based on the image samples of the real face database. (10). Thus, the control interface (14) can be used to "navigate" in the reduced appearance space of the interface and determine a corresponding vector in the appearance space (11) at Na dimensions, in order to synthesize (arrow CM1 in Fig. 1) any expression applied to the real human face object of the images of the database 10.
Utilisation de l'interface de contrôle des expressions du visage réel pour synthétiser des expressions faciales d'un visage d'avatarUsing the real face expression control interface to synthesize facial expressions of an avatar face
Conformément à l'invention, il a été déterminé que pour pouvoir appliquer l'interface de contrôle des expressions du visage réel, à la synthétise d'expressions d'un visage synthétique (visage d'un personnage virtuel ou avatar), il fallait utiliser une base de données d'images d'avatar conçues en appliquant les expressions caractéristiques de l'espace d'apparence réel. Ainsi, il s'agit d'extraire un sous-ensemble de vecteurs de paramètres de l'espace d'apparence du visage réel, en fonction de l'influence des vecteurs de paramètres sur la constitution de l'espace d'apparence du visage réel, et de déterminer les expressions correspondantes, dites expressions caractéristiques. Selon l'invention, les expressions caractéristiques précitées sont celles qui correspondent aux vecteurs de paramètres formant l'enveloppe convexe de l'espace d'apparence réel. Ces expressions caractéristiques ont déjà été déterminées lors de la génération de l'interface de contrôle (voir plus haut, description en référence à la Figure 4).According to the invention, it has been determined that in order to be able to apply the interface of control of the expressions of the real face, to the synthesis of expressions of a synthetic face (face of a virtual character or avatar), it was necessary to use a database of avatar images designed by applying the characteristic expressions of the real-life space. Thus, it is a question of extracting a subset of vectors of parameters of the real-face appearance space, according to the influence of the vectors of parameters on the constitution of the space of appearance of the real face, and to determine the corresponding expressions, called characteristic expressions. According to the invention, the above-mentioned characteristic expressions are those which correspond to the parameter vectors forming the convex envelope of the real-appearance space. These characteristic expressions have already been determined during the generation of the control interface (see above, description with reference to FIG. 4).
• Création de la base de données d'images d'avatar• Creating the avatar image database
Ainsi, selon l'invention, on créé (E3) une base de données (12) d'images d'un visage d'avatar, dite base de données d'avatar, par application des expressions réelles caractéristiques, précitées, à un visage d'avatar. En pratique, un opérateur humain conçoit, au moyen d'outils informatiques de dessin graphique, autant de visages synthétiques d'un avatar choisi qu'il y a d'expressions caractéristiques à appliquer. On conçoit ainsi une base de données de visages d'avatar, appelée ici pseudo base de données, car le nombre d'images y est limité, en pratique de l'ordre de 25 à 30 images.Thus, according to the invention, a database (12) of images of an avatar face, called the avatar database, is created (E3) by applying the actual real expressions, mentioned above, to a face. avatar. In practice, a human operator designs, using computer graphics tools, as many synthetic faces of a chosen avatar as there are characteristic expressions to apply. A database of avatar faces is thus designed, here called pseudo database, because the number of images is limited, in practice of the order of 25 to 30 images.
• Modélisation des déformations du visage d'avatar• Modeling deformations of the avatar face
Une fois la base de données d'images d'avatar (12) disponible, on modélise (E4) les déformations du visage d'avatar à partir des images de la base de données d'avatar. A cette fin, on utilise le même processus de modélisation de type AAM que celui mis en oeuvre dans le cadre de la modélisation des déformations du visage réel (voir plus haut description en relation avec la Figure 2). On obtient alors un modèle comprenant un ensemble de vecteurs de paramètres d'apparence formant un espace d'apparence de visage d'avatar (13). Chaque point de l'espace d'apparence (13) du visage d'avatar correspond ainsi à un vecteur de paramètres mixtes forme-texture correspondant à une expression caractéristique obtenue à partir de l'espace d'apparence de visage réel (11). En pratique, l'espace d'apparence (13) du visage virtuel est de dimension inférieure ou égale (par ex., de l'ordre de 15) à celle de l'espace d'apparence (11) de visage réel (de l'ordre de 30), en fonction de la complexité visuelle du visage d'avatar. • Utilisation de l'interface de contrôle (14) pour naviguer dans l'espace d'apparence de visage d'avatarOnce the avatar image database (12) is available, model (E4) the deformations of the avatar face from the images of the avatar database. For this purpose, the same modeling process of the AAM type is used as that implemented in the context of the modeling of the real face deformations (see description above in relation to FIG. 2). We then obtain a model comprising a set of vectors of appearance parameters forming an avatar face appearance space (13). Each point of the appearance space (13) of the avatar face thus corresponds to a vector of shape-texture mixed parameters corresponding to a characteristic expression obtained from the real face appearance space (11). In practice, the appearance space (13) of the virtual face is smaller or equal in size (e.g., in the order of 15) to that of the actual face appearance space (11) (of order of 30), depending on the visual complexity of the avatar face. • Using the control interface (14) to navigate the avatar face appearance space
Puisque les expressions faciales qui correspondent aux directions dominantes de la base de données d'images de visage réel ont été intégrées dans la base de données d'images d'avatar pour former l'espace d'apparence de visage d'avatar, les directions dominantes implémentées dans l'espace réduit de l'interface de contrôle graphique 2D peuvent être mises en correspondance aussi bien avec l'espace d'apparence de visage réel (1 1 ) (voir plus haut) qu'avec l'espace d'apparence (13) de visage d'avatar. On peut par conséquent appliquer l'interface de contrôle (14) à la navigation dans l'espace d'apparence du visage d'avatar (13), afin de permettre le contrôle (flèche CM2,Since the facial expressions that correspond to the dominant directions of the real face image database have been integrated into the avatar image database to form the avatar face appearance space, the directions Dominants implemented in the reduced space of the 2D graphical control interface can be mapped to both the actual face appearance space (1 1) (see above) and the appearance space (13) avatar face. It is therefore possible to apply the control interface (14) to the navigation in the avatar face's appearance space (13), in order to allow the control (arrow CM2,
Fig. 1 ) de la synthèse d'expressions quelconques sur le visage d'avatar.Fig. 1) the synthesis of any expressions on the avatar face.
La Figure 6 illustre l'utilisation d'une l'interface de contrôle à 2 dimensions selon un mode de réalisation de l'invention, pour piloter les expressions faciales d'un personnage virtuel. Comme représenté sur la figure 6, à partir de la base de données d'images de visage réel, on obtient un espace d'apparence de visage réel (à gauche sur la figure), à partir duquel, grâce au procédé de génération d'interface selon l'invention, on peut générer un outil de contrôle sous forme de disque (au centre sur la figure) permettant de piloter le changement d'expressions faciales d'une personnage virtuel (à droite sur la figure). Comme on peut le voir sur le disque au centre de la figure, un utilisateurFigure 6 illustrates the use of a 2-dimensional control interface according to an embodiment of the invention for controlling the facial expressions of a virtual character. As shown in FIG. 6, from the real face image database, a real face appearance space (left in the figure) is obtained, from which, thanks to the generation method of interface according to the invention, one can generate a control tool in the form of disk (in the center in the figure) to control the change of facial expressions of a virtual character (right in the figure). As can be seen on the disk in the center of the figure, a user
(non représenté) de l'interface a positionné un marqueur (carré) sur le secteur(not shown) of the interface positioned a marker (square) on the sector
"joie" du disque, à une distance proche de la périphérie du disque, ce qui correspond à une intensité de joie proche de l'intensité maximale."joy" of the disc, at a distance close to the periphery of the disc, which corresponds to an intensity of joy close to the maximum intensity.
La Figure 7 illustre le résultat de la synthèse d'expressions faciales obtenu à la fois sur le visage d'avatar et sur le visage réel, en utilisant une interface de contrôle 2D selon l'invention. Sur la Figure 7, on montre trois exemples (EX1 , EX2, EX3) de résultats de synthèse. Pour chaque exemple, la synthèse est pilotée par l'interface 2D en forme de disque, encore désignée par espace de contrôle 2D, en sélectionnant un point sur l'espace de contrôle, comme représenté par le point noir représenté sur les disques, colonne du milieu, de chacun des exemples EX1 -EX3. Comme dit précédemment, ce point sélectionné de l'espace de contrôle est par exemple choisi par l'intermédiaire d'une souris d'ordinateur. Pour chaque exemple, la colonne de gauche montre le résultat obtenu avec le visage réel et la colonne de droite le résultat obtenu avec le visage de l'avatar.Figure 7 illustrates the result of facial expression synthesis obtained on both the avatar face and the actual face, using a 2D control interface according to the invention. In Figure 7, three examples (EX1, EX2, EX3) of the synthesis results are shown. For each example, the synthesis is controlled by the disk-shaped 2D interface, again designated by 2D control space, by selecting a point on the control space, as represented by the black dot shown on the disks, middle column, of each of the EX1-EX3 examples. As said above, this selected point of the control space is for example chosen via a computer mouse. For each example, the left column shows the result obtained with the real face and the right column the result obtained with the face of the avatar.
L'exemple EX1 illustre trois expressions synthétisées à la fois sur le visage humain et le visage d'avatar : une expression neutre (point au milieu du disque) (en haut), une expression d'intensité maximale (le point étant situé sur le bord du disque) entre la surprise et la peur (au milieu), et une expression d'intensité maximale exprimant de la surprise (en bas).Example EX1 illustrates three synthesized expressions on both the human face and the avatar face: a neutral expression (dot in the middle of the disc) (at the top), an expression of maximum intensity (the point being located on the edge of the disc) between surprise and fear (in the middle), and an expression of maximum intensity expressing surprise (below).
L'exemple EX2 illustre également trois expressions synthétisées à la fois sur le visage humain et le visage d'avatar, ces expressions correspondant à du dégoût (en haut), à de la colère (au milieu), et à une expression intermédiaire entre colère et surprise (en bas).Example EX2 also illustrates three synthesized expressions on both the human face and the avatar face, these expressions corresponding to disgust (top), anger (middle), and an intermediate expression between anger. and surprise (below).
L'exemple EX3 illustre trois autres expressions synthétisées à la fois sur le visage humain et le visage d'avatar : une expression indéfinie entre joie et tristesse (en haut), une expression clairement de joie (au milieu) mais pas d'intensité maximale (le point est à l'intérieur du disque), et une expression d'intensité maximale de joie mêlée de surprise (en bas).Example EX3 illustrates three other expressions synthesized on both the human face and the avatar face: an indefinite expression of joy and sadness (above), an expression clearly of joy (in the middle) but not of maximum intensity (the point is inside the disc), and an expression of maximum intensity of joy mingled with surprise (bottom).
Comme on peut l'observer sur la Figure 7, les expressions obtenues par la fonction CM2 (cf. Fig. 1 ) de synthèse appliquée au visage d'avatar sont très proches de celles obtenues par la fonction CM1 (cf. Fig. 1 ) de synthèse appliquée au visage réel. On peut même observer que des rides sont présentes autour des yeux sur le visage de l'avatar, notamment dans l'exemple EX2 (visages du haut et du bas). Cela illustre bien le fait que, conformément à l'invention, la "connaissance" du comportement du visage humain a été transférée avec succès sur le visage synthétique. De plus, des expressions initialement présentes dans la base de données d'images du visage réel, de même que des expressions nouvelles (intermédiaires ou mixtes), peuvent être générées avec succès sur les deux visages. La Figure 8 illustre l'interprétation émotionnelle de l'espace de contrôle couvert par l'interface de contrôle 2D selon l'invention. Dans ce mode de réalisation, l'espace de contrôle est partitionné en secteurs d'émotions correspondant aux catégories d'émotions définies par P. Ekman (voir référence citée plus haut dans la description). Comme exprimé précédemment, le type (ou catégorie) d'expressions est déterminé par la position angulaire d'un marqueur (un point à la Fig. 7) sur le disque, tandis que la position radiale du marqueur sur le disque détermine l'intensité de l'expression.As can be seen in Figure 7, the expressions obtained by the function CM2 (see Fig. 1) of synthesis applied to the avatar face are very close to those obtained by the function CM1 (see Fig. 1). of synthesis applied to the real face. One can even observe that wrinkles are present around the eyes on the face of the avatar, in particular in the example EX2 (faces of the top and the bottom). This is a good illustration of the fact that, according to the invention, the "knowledge" of the behavior of the human face has been transferred successfully to the synthetic face. In addition, expressions initially present in the database of images of the real face, as well as new expressions (intermediate or mixed), can be generated successfully on both faces. Figure 8 illustrates the emotional interpretation of the control space covered by the 2D control interface according to the invention. In this embodiment, the control space is partitioned into sectors of emotions corresponding to the categories of emotions defined by P. Ekman (see reference cited above in the description). As previously expressed, the type (or category) of expressions is determined by the angular position of a marker (a dot in Fig. 7) on the disc, while the radial position of the marker on the disc determines the intensity of expression.
On peut également observer que dans l'exemple présenté d'interface de contrôle 2D sous forme de disque, la couleur du disque varie angulairement de manière continue en fonction du changement d'expression (du vert au rouge), et varie en intensité lumineuse de manière continue, radialement, c'est-à-dire du centre vers le bord du disque, en corrélation avec l'intensité de l'expression correspondante. Cet agencement de couleurs associé au disque d'interface de contrôle, augmente significativement l'ergonomie d'utilisation d'une telle interface de contrôle selon l'invention.It can also be observed that in the presented example of a disk-based 2D control interface, the color of the disk varies angularly continuously as a function of the expression change (from green to red), and varies in luminous intensity from continuously, radially, that is to say from the center to the edge of the disc, correlated with the intensity of the corresponding expression. This color scheme associated with the control interface disk, significantly increases the ergonomics of use of such a control interface according to the invention.
On notera ici que dans le cadre du mode de réalisation exposé, l'interface de contrôle des expressions d'un visage réel ou synthétique correspond à un espace à 2 dimensions (en particulier un disque). Cependant, l'invention peut également être mise en œuvre au moyen d'une interface de contrôle plus élaborée, par exemple à 3 dimensions, telle qu'une sphère et réaliser une "boule d'expressions faciales", permettant, tout en restant intuitive d'utilisation, de synthétiser des expressions faciales plus diversifiées. D'un point de vue implémentation matérielle, l'invention est mise en œuvre sous forme de moyens logiciels, c'est-à-dire des modules de programmes d'ordinateur réalisant les opérations relatives à la création d'une interface de contrôle des expressions d'un avatar comme décrit dans la présente description. Ainsi, on peut utiliser un module programme pour mettre en œuvre les opérations de modélisation (E1 , E4) et un module logiciel pour générer automatiquement l'interface de contrôle (14) à partir de l'ensemble des vecteurs de paramètres (vecteurs C) obtenus en sortie de l'opération de modélisation (E1 ) des déformations du visage réel.It will be noted here that in the context of the disclosed embodiment, the expression control interface of a real or synthetic face corresponds to a 2-dimensional space (in particular a disk). However, the invention can also be implemented by means of a more sophisticated control interface, for example 3-dimensional, such as a sphere and achieve a "ball of facial expressions", allowing, while remaining intuitive of use, to synthesize more diverse facial expressions. From a hardware implementation point of view, the invention is implemented in the form of software means, that is to say computer program modules performing the operations relating to the creation of a control interface of the computer. expressions of an avatar as described in the present description. Thus, it is possible to use a program module for implementing the modeling operations (E1, E4) and a software module for automatically generating the control interface (14) from the set of vectors of parameters (C vectors) obtained at the output of the modeling operation (E1) of the deformations of the real face.
En pratique, les modules de programmes précités sont mis en œuvre lorsqu'ils sont chargés et exécutés dans un ordinateur ou dispositif informatique. Ainsi, un ordinateur, tel qu'un ordinateur personnel, ou une station de travail, dans lequel sont installés de tels programmes selon l'invention constitue par conséquent un système de traitement d'images équipé de moyens logiciels et/ou matériels aptes à mettre en œuvre un procédé de génération d'une interface de contrôle d'expressions faciales, et/ou un procédé correspondant de synthèse d'expressions faciales, selon l'invention.In practice, the aforementioned program modules are implemented when they are loaded and executed in a computer or computer device. Thus, a computer, such as a personal computer, or a workstation, in which such programs are installed according to the invention is therefore an image processing system equipped with software and / or hardware capable of implementing a method for generating a facial expression control interface, and / or a corresponding facial expression synthesis method, according to the invention.
On notera aussi qu'un programme d'ordinateur selon l'invention, dont la finalité est la mise en œuvre de l'invention lorsqu'il est exécuté par un système informatique approprié, peut être stocké sur un support d'informations de types variés. En effet, un tel support d'informations peut être constitué par n'importe quelle entité ou dispositif capable de stocker un programme selon l'invention.It will also be noted that a computer program according to the invention, the purpose of which is the implementation of the invention when it is executed by an appropriate computer system, can be stored on an information carrier of various types. . Indeed, such an information carrier may be constituted by any entity or device capable of storing a program according to the invention.
Par exemple, le support en question peut comporter un moyen de stockage matériel, tel qu'une mémoire, par exemple un CD ROM ou une mémoire de type ROM ou RAM de circuit microélectronique, en particulier incorporée dans une clé USB, ou encore un moyen d'enregistrement magnétique, par exemple un disque dur.For example, the support in question may comprise a hardware storage means, such as a memory, for example a CD ROM or a memory of the ROM or RAM microelectronic circuit type, in particular incorporated in a USB key, or a means magnetic recording, for example a hard disk.
D'un point de vue conception, un programme d'ordinateur selon l'invention peut utiliser n'importe quel langage de programmation et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet (par ex., une forme partiellement compilée), ou dans n'importe quelle autre forme souhaitable pour implémenter un procédé selon l'invention. From a design point of view, a computer program according to the invention can use any programming language and be in the form of source code, object code, or intermediate code between source code and object code (for example eg, a partially compiled form), or in any other form desirable for implementing a method according to the invention.

Claims

REVENDICATIONS
1. Procédé de génération d'une interface de contrôle des expressions faciales d'un avatar, caractérisé en ce qu'il comprend les étapes suivantes :1. A method for generating an interface for controlling the facial expressions of an avatar, characterized in that it comprises the following steps:
- obtention (E1 ) d'un modèle de déformations d'un visage réel à partir des images d'une base de données (10) d'images du visage réel, ce modèle comprenant un ensemble de vecteurs de paramètres d'apparence formant un espace d'apparence de visage réel (11) ; - extraction (E2) d'un sous-ensemble de vecteurs de paramètres de l'espace d'apparence du visage réel, en fonction de l'influence des vecteurs de paramètres sur la constitution de l'espace d'apparence du visage réel, et détermination des expressions, dites expressions caractéristiques, correspondant aux vecteurs de paramètres extraits ; - génération (E2) d'une interface graphique de contrôle (14) adaptée à la navigation dans l'espace d'apparence du visage réel, et permettant de contrôler (CM1) la synthèse d'expressions quelconques sur le visage réel ;obtaining (E1) a model of deformations of a real face from the images of a database (10) of images of the real face, this model comprising a set of vectors of appearance parameters forming a real face appearance space (11); extracting (E2) a subset of vectors of parameters of the real face appearance space, as a function of the influence of the parameter vectors on the constitution of the real face appearance space, and determining expressions, called characteristic expressions, corresponding to the extracted parameter vectors; - generating (E2) a control graphical interface (14) adapted to navigation in the real-face appearance space, and for controlling (CM1) the synthesis of any expressions on the real face;
- création (E3) d'une base de données (12) d'images d'un visage d'avatar, dite base de données d'avatar, par application desdites expressions réelles caractéristiques à un visage d'avatar ;creating (E3) a database (12) of images of an avatar face, called avatar database, by applying said characteristic real expressions to an avatar face;
- obtention (E4) d'un modèle de déformations du visage d'avatar à partir des images de la base de données d'avatar, ce modèle comprenant un ensemble de vecteurs de paramètres d'apparence formant un espace d'apparence de visage d'avatar (13) ; - application de ladite interface de contrôle (14) à la navigation dans l'espace d'apparence du visage d'avatar (13), afin de permettre le contrôle (CM2) de la synthèse d'expressions quelconques sur le visage d'avatar.obtaining (E4) a model of avatar face deformations from the images of the avatar database, this model comprising a set of vectors of appearance parameters forming a face appearance space; avatar (13); - applying said control interface (14) to the navigation in the avatar face's appearance space (13), to allow control (CM2) of the synthesis of any expressions on the avatar's face .
2. Procédé selon la revendication 1 , dans lequel le modèle de déformations de visage réel, est constitué d'un ensemble de vecteurs de paramètres d'apparence combinant des informations de forme et de texture, lesdits vecteurs de paramètres d'apparence constituant un espace vectoriel d'apparence, dans lequel chaque vecteur de paramètres est associé à une expression faciale unique correspondant à une image unique de la base de données d'images du visage réel.The method of claim 1, wherein the real face deformation pattern is comprised of a set of appearance parameter vectors combining shape and texture information, said appearance parameter vectors constituting a space. vector in which each parameter vector is associated with a single facial expression corresponding to a single image of the real face image database.
3. Procédé selon la revendication 2, dans lequel les paramètres d'apparence du modèle de déformations de visage réel, sont obtenus en utilisant une technique de type Modèles Actifs d'Apparence.The method of claim 2, wherein the appearance parameters of the real face deformation pattern are obtained using an Active Assumption Templates technique.
4. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'étape d'extraction d'un sous-ensemble de vecteurs de paramètres de l'espace d'apparence de visage réel, inclut une étape de sélection de vecteurs de paramètres correspondant aux points formant l'enveloppe convexe dans l'espace d'apparence de visage réel.The method of any of the preceding claims, wherein the step of retrieving a subset of parameter vectors from the real face appearance space includes a step of selecting parameter vectors. corresponding to the points forming the convex hull in the real face appearance space.
5. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'étape de génération d'une interface graphique de contrôle comprend les étapes suivantes :The method of any one of the preceding claims, wherein the step of generating a control graphical interface comprises the steps of:
- identification, à partir du nuage de points constituant l'espace d'apparence du visage réel, d'un nombre prédéterminé de directions dominantes de l'espace d'apparence, lesdites directions dominantes étant déterminées en utilisant un algorithme de détection d'enveloppe convexe ;identifying, from the cloud of points constituting the actual face appearance space, a predetermined number of dominant directions of the appearance space, said dominant directions being determined using an envelope detection algorithm convex;
- application d'une mise en correspondance de chaque point de l'espace d'apparence du visage réel, porté par une direction dominante identifiée, vers un point de l'espace constituant l'interface graphique de contrôle.applying a mapping of each point of the real-face appearance space, carried by an identified dominant direction, to a point in the space constituting the control graphical interface.
6. Procédé selon l'une quelconque des revendications précédentes, dans lequel ladite interface graphique de contrôle de la synthèse d'expressions quelconques sur le visage d'avatar, est une interface graphique ayant la forme d'un disque dans lequel : - un type considéré d'expression faciale est déterminé par un rayon donné du disque graphique, et est choisi en fonction du déplacement d'un marqueur sur un cercle quelconque parmi les cercles concentriques ayant pour centre le centre du disque, et ayant pour rayon un rayon compris entre zéro et le rayon du disque ; et6. Method according to any one of the preceding claims, wherein said graphical interface for controlling the synthesis of any expressions on the avatar face, is a graphic interface having the form of a disk in which: a type considered facial expression is determined by a given ray of the graphic disk, and is chosen according to the displacement of a marker on any circle among the concentric circles having for centers the center of the disc, and having as radius a radius between zero and the radius of the disc; and
- une valeur d'intensité relative à un type d'expression considéré est déterminée par le déplacement du marqueur sur le rayon du disque qui correspond au type d'expression considéré.an intensity value relative to a type of expression considered is determined by the displacement of the marker on the radius of the disc corresponding to the type of expression considered.
7. Procédé selon l'une quelconque des revendications précédentes, dans lequel le modèle de déformations de visage d'avatar, est constitué d'un ensemble de vecteurs de paramètres d'apparence combinant des information de forme et de texture, lesdits vecteurs de paramètres d'apparence constituant un espace vectoriel d'apparence, dans lequel chaque vecteur de paramètres est associé à une expression faciale unique correspondant à une image unique de la base de données d'images du visage d'avatar.A method according to any one of the preceding claims, wherein the avatar face deformation pattern is comprised of a set of appearance parameter vectors combining shape and texture information, said parameter vectors. Appearance constituting an appearance vector space, wherein each parameter vector is associated with a single facial expression corresponding to a single image of the image database of the avatar face.
8. Procédé selon la revendication 7, dans lequel les paramètres d'apparence du modèle de déformations de visage d'avatar, sont obtenus en utilisant une technique de type Modèles Actifs d'Apparence.The method of claim 7, wherein the appearance parameters of the avatar face deformation pattern are obtained using an Active Assumption Template technique.
9. Interface de contrôle des expressions faciales d'un visage d'avatar, caractérisé en ce qu'elle est obtenue par la mise en œuvre d'un procédé de génération d'une interface de contrôle selon l'une quelconque des revendications 1 à 8.9. Facial control interface of an avatar face, characterized in that it is obtained by implementing a method of generating a control interface according to any one of claims 1 to 8.
10. Utilisation d'une interface de contrôle des expressions faciales d'un visage d'avatar obtenue par un procédé de génération d'interface, selon l'une quelconque des revendications 1 à 8, pour la synthèse d'expressions faciales sur un visage d'avatar.10. Use of a facial expression control interface of an avatar face obtained by an interface generation method, according to any one of claims 1 to 8, for the synthesis of facial expressions on a face avatar.
11. Utilisation d'une interface de contrôle des expressions faciales d'un visage d'avatar obtenue par un procédé de génération d'interface, selon l'une quelconque des revendications 1 à 8, pour la synthèse d'expressions faciales sur un visage humain. 11. Use of a facial expression control interface of an avatar face obtained by an interface generation method, according to any one of claims 1 to 8, for the synthesis of facial expressions on a face human.
12. Système de génération d'une interface de contrôle des expressions faciales d'un avatar, caractérisé en ce qu'il comprend :12. System for generating an interface for controlling the facial expressions of an avatar, characterized in that it comprises:
- des moyens de modélisation des déformations d'un visage réel à partir des images d'une base de données d'images du visage réel, le modèle obtenu comprenant un ensemble de vecteurs de paramètres d'apparence formant un espace d'apparence de visage réel ; des moyens d'extraction d'un sous-ensemble de vecteurs de paramètres de l'espace d'apparence du visage réel, en fonction de l'influence des vecteurs de paramètres sur la constitution de l'espace d'apparence du visage réel, et détermination des expressions, dites expressions caractéristiques, correspondant aux vecteurs de paramètres extraits ;means for modeling the deformations of a real face from the images of a database of images of the real face, the model obtained comprising a set of vectors of appearance parameters forming a face appearance space real; means for extracting a subset of vectors of parameters of the real face appearance space, as a function of the influence of the parameter vectors on the constitution of the real face appearance space, and determining expressions, called characteristic expressions, corresponding to the extracted parameter vectors;
- des moyens de création d'une base de données d'images d'un visage d'avatar, dite base de données d'avatar, par application desdites expressions réelles caractéristiques à un visage d'avatar ;means for creating an image database of an avatar face, called an avatar database, by applying said characteristic real expressions to an avatar face;
- des moyens de modélisation des déformations du visage d'avatar à partir des images de la base de données d'avatar, le modèle obtenu comprenant un ensemble de vecteurs de paramètres d'apparence formant un espace d'apparence de visage d'avatar ; - des moyens de génération d'une interface de contrôle adaptée à la navigation dans l'espace d'apparence du visage réel, et destinée à piloter la synthèse d'expressions quelconques sur le visage réel, ladite interface de contrôle étant applicable à la navigation dans l'espace d'apparence du visage d'avatar, afin de permettre le contrôle automatique de la synthèse d'expressions quelconques sur le visage d'avatar.means for modeling the deformations of the avatar face from the images of the avatar database, the model obtained comprising a set of vectors of appearance parameters forming an avatar face appearance space; means for generating a control interface suitable for navigation in the real-face appearance space, and for controlling the synthesis of any expressions on the real face, said control interface being applicable to the navigation in the appearance space of the avatar face, to allow automatic control of the synthesis of any expressions on the avatar face.
13. Système de génération d'une interface, selon la revendication 12, comprenant des moyens pour mettre en oeuvre un procédé de génération d'une interface de contrôle, selon l'une quelconque des revendications 2 à 8.Interface generating system according to claim 12, comprising means for implementing a method for generating a control interface according to any one of claims 2 to 8.
14. Programme d'ordinateur, comprenant des instructions adaptées à la mise en œuvre de tout ou partie des étapes d'un procédé de génération d'une interface de contrôle tel que revendiqué à l'une quelconque des revendications 1 à 8, lorsque le programme est exécuté sur un ordinateur. 14. Computer program, comprising instructions adapted to the implementation of all or part of the steps of a method of generating a control interface as claimed in any one of claims 1 to 8, when the program is run on a computer.
PCT/FR2009/051832 2008-10-02 2009-09-28 Method and system for generating an interface for controlling the facial expressions of an avatar WO2010037956A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0856690 2008-10-02
FR0856690 2008-10-02

Publications (1)

Publication Number Publication Date
WO2010037956A1 true WO2010037956A1 (en) 2010-04-08

Family

ID=40600256

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2009/051832 WO2010037956A1 (en) 2008-10-02 2009-09-28 Method and system for generating an interface for controlling the facial expressions of an avatar

Country Status (1)

Country Link
WO (1) WO2010037956A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014139118A1 (en) * 2013-03-14 2014-09-18 Intel Corporation Adaptive facial expression calibration
WO2015086998A1 (en) 2013-12-13 2015-06-18 Saint-Gobain Glass France Method and device for analyzing the surface of a substrate
US10044849B2 (en) 2013-03-15 2018-08-07 Intel Corporation Scalable avatar messaging
CN111444536A (en) * 2020-03-24 2020-07-24 上海红阵信息科技有限公司 Database design method and system suitable for mimicry environment

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ABBOUD B ET AL: "Facial expression recognition and synthesis based on an appearance model", SIGNAL PROCESSING. IMAGE COMMUNICATION, ELSEVIER SCIENCE PUBLISHERS, AMSTERDAM, NL, vol. 19, no. 8, 1 September 2004 (2004-09-01), pages 723 - 740, XP004584485, ISSN: 0923-5965 *
LEI XIONG ET AL: "Facial Expression Sequence Synthesis Based on Shape and Texture Fusion Model", IMAGE PROCESSING, 2007. ICIP 2007. IEEE INTERNATIONAL CONFERENCE ON, IEEE, PI, 1 September 2007 (2007-09-01), pages IV - 473, XP031158758, ISBN: 978-1-4244-1436-9 *
RUTTKAY Z ET AL: "Emotion Disc and Emotion Squares: tools to explore the facial expression space", COMPUTER GRAPHICS FORUM BLACKWELL PUBLISHERS FOR EUROGRAPHICS ASSOC UK, vol. 22, no. 1, March 2003 (2003-03-01), pages 49 - 53, XP002527488, ISSN: 0167-7055 *
SATTAR A ET AL: "MVAAM (multi-view active appearance model) optimized by multi-objective genetic algorithm", 8TH IEEE INTERNATIONAL CONFERENCE ON AUTOMATIC FACE & GESTURE RECOGNITION, FG '08, 17-19 SEPT. 2008, IEEE, PISCATAWAY, NJ, USA, 1 January 2008 (2008-01-01), pages 1 - 8, XP008105964, ISBN: 978-1-4244-2153-4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014139118A1 (en) * 2013-03-14 2014-09-18 Intel Corporation Adaptive facial expression calibration
US9886622B2 (en) 2013-03-14 2018-02-06 Intel Corporation Adaptive facial expression calibration
US10044849B2 (en) 2013-03-15 2018-08-07 Intel Corporation Scalable avatar messaging
WO2015086998A1 (en) 2013-12-13 2015-06-18 Saint-Gobain Glass France Method and device for analyzing the surface of a substrate
CN105008903A (en) * 2013-12-13 2015-10-28 法国圣戈班玻璃厂 Method and device for analyzing the surface of a substrate
CN111444536A (en) * 2020-03-24 2020-07-24 上海红阵信息科技有限公司 Database design method and system suitable for mimicry environment

Similar Documents

Publication Publication Date Title
US10586310B2 (en) Denoising Monte Carlo renderings using generative adversarial neural networks
Zhao et al. Automatic semantic style transfer using deep convolutional neural networks and soft masks
Huo et al. A survey on deep learning-based Monte Carlo denoising
Zhang et al. Accurate and fast image denoising via attention guided scaling
US11995703B2 (en) Image-to-image translation using unpaired data for supervised learning
Wen et al. Structure-aware motion deblurring using multi-adversarial optimized cyclegan
Liu et al. Structure-guided arbitrary style transfer for artistic image and video
WO2010037956A1 (en) Method and system for generating an interface for controlling the facial expressions of an avatar
Shen et al. Clipgen: A deep generative model for clipart vectorization and synthesis
CN115100334A (en) Image edge drawing and animation method, device and storage medium
Wu et al. Brush stroke synthesis with a generative adversarial network driven by physically based simulation
Reddy et al. Revolutionizing animation: unleashing the power of artificial intelligence for cutting-edge visual effects in films
Wang et al. CLAST: Contrastive learning for arbitrary style transfer
Doungmala et al. Investigation into the Application of Image Modeling Technology in the Field of Computer Graphics
Boges et al. Virtual reality framework for editing and exploring medial axis representations of nanometric scale neural structures
Costigan et al. Facial retargeting using neural networks
Brazil et al. Shape and tone depiction for implicit surfaces
WO2021116635A1 (en) Method and system for generating 3d digital models
Sun et al. Single‐view procedural braided hair modeling through braid unit identification
Bhaumik et al. Recognition techniques in Buddhist iconography and challenges
Qin et al. A state-of-art review on intelligent systems for drawing assisting
Zeng et al. 3D plants reconstruction based on point cloud
US20240127412A1 (en) Iteratively modifying inpainted digital images based on changes to panoptic segmentation maps
US20240127411A1 (en) Generating and providing a panoptic inpainting interface for generating and modifying inpainted digital images
US20240127452A1 (en) Learning parameters for neural networks using a semantic discriminator and an object-level discriminator

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09753149

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09753149

Country of ref document: EP

Kind code of ref document: A1