FR2843472A1 - 3D representation method, especially for representation of a human face, whereby a plurality of characteristic points is selected on a 3D-face representation and then matched with image points from corresponding images - Google Patents

3D representation method, especially for representation of a human face, whereby a plurality of characteristic points is selected on a 3D-face representation and then matched with image points from corresponding images Download PDF

Info

Publication number
FR2843472A1
FR2843472A1 FR0210135A FR0210135A FR2843472A1 FR 2843472 A1 FR2843472 A1 FR 2843472A1 FR 0210135 A FR0210135 A FR 0210135A FR 0210135 A FR0210135 A FR 0210135A FR 2843472 A1 FR2843472 A1 FR 2843472A1
Authority
FR
France
Prior art keywords
points
image
characteristic
projection
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0210135A
Other languages
French (fr)
Inventor
Olivier Chassagneux
Arnaud Castillo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ALMITI TECHNOLOGIES
Original Assignee
ALMITI TECHNOLOGIES
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ALMITI TECHNOLOGIES filed Critical ALMITI TECHNOLOGIES
Priority to FR0210135A priority Critical patent/FR2843472A1/en
Publication of FR2843472A1 publication Critical patent/FR2843472A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Method for 3D representation of a human face has the following steps: provision of a 3D face representation; selection of a plurality of characteristic points; identification of image points in two images corresponding to selected characteristic points; displacement of the characteristic points such that projections of first and second images match the displacement and suppression of each peak point that that is not a characteristic point. An Independent claim is made for a device for 3D representation of a human face.

Description

i La présente invention concerne un procédé et un dispositif pouri The present invention relates to a method and a device for

engendrer une représentation tridimensionnelle d'un objet appartenant à un genre d'objets prédéterminé, notamment les visages humains, à partir d'au moins deux images bidimensionnelles dudit objet. 5 Une telle représentation tridimensionnelle, par exemple d'un visage humain, peut être utilisée dans des applications de création d'environnements virtuels, pour les jeux vidéo, les télécommunications vidéo, comme la visioconférence, et les interfaces graphiques de commande. Le document WO 99/63490 A décrit un procédé pour engendrer une représentation tridimensionnelle d'un visage humain à partir d'au moins deux images bidimensionnelles dudit visage. Ce procédé connu comporte les étapes consistant à: mettre à disposition une représentation tridimensionnelle générique dudit 15 visage, ladite représentation générique comprenant une pluralité de sommets définissant un maillage dudit visage, mettre à disposition une première image bidimensionnelle dudit visage vu selon une première direction de projection et une deuxième image bidimensionnelle dudit visage vu selon une deuxième direction de 20 projection, déformer la représentation tridimensionnelle générique pour obtenir une  generate a three-dimensional representation of an object belonging to a kind of predetermined object, in particular human faces, from at least two two-dimensional images of said object. Such a three-dimensional representation, for example of a human face, can be used in applications for creating virtual environments, for video games, video telecommunications, such as videoconferencing, and graphical control interfaces. Document WO 99/63490 A describes a method for generating a three-dimensional representation of a human face from at least two two-dimensional images of said face. This known method comprises the steps of: providing a generic three-dimensional representation of said face, said generic representation comprising a plurality of vertices defining a mesh of said face, providing a first two-dimensional image of said face seen in a first direction of projection and a second two-dimensional image of said face seen in a second direction of projection, distorting the generic three-dimensional representation to obtain a

représentation tridimensionnelle spécifique du visage.  specific three-dimensional representation of the face.

Ce procédé connu comporte des inconvénients. En effet, la détermination de la géométrie tridimensionnelle du visage à représenter 25 est effectuée par corrélation des points des deux images, ce qui est extrêmement coteux en terme de calculs à effectuer. De plus, on ne peut corréler que les points apparaissant dans les deux images, ce qui rend chaque image utilisable uniquement dans la mesure de la portion de  This known method has drawbacks. Indeed, the three-dimensional geometry of the face to be represented is determined by correlating the points of the two images, which is extremely costly in terms of calculations to be made. In addition, we can only correlate the points appearing in the two images, which makes each image usable only in the measurement of the portion of

l'objet commune aux deux images.the object common to the two images.

Par ailleurs, ce procédé connu fait appel à une méthode de croissance de région. Une telle méthode n'est pas bien adaptée à la reconnaissance de la géométrie d'un visage humain car celui-ci est constitué d'éléments hétérogènes n'ayant pas les mêmes caractéristiques physiques et donc photométriques, c'est-à-dire par exemple les yeux, 35 sourcils, cheveux, lèvres et la peau. Les méthodes de croissance de  Furthermore, this known method uses a region growth method. Such a method is not well suited to recognizing the geometry of a human face because it is made up of heterogeneous elements not having the same physical and therefore photometric characteristics, that is to say by example eyes, eyebrows, hair, lips and skin. The growth methods of

région ne permettent pas de reconnaître toute l'image dans de tels cas.  region do not allow to recognize the whole picture in such cases.

Elles mènent généralement à la reconnaissance de zones trouées ou discontinues. De ce fait, ce procédé ne permet généralement pas de reconnaître un visage dans son intégralité, c'est-à-dire sans oublier  They generally lead to the recognition of gaps or discontinuous areas. Therefore, this process generally does not recognize a face in its entirety, that is to say without forgetting

certains de ses éléments constitutifs.  some of its constituent elements.

L'invention a pour but de fournir un procédé et un dispositif qui résolvent au moins certains des inconvénients susmentionnés, afin d'obtenir une meilleure ressemblance entre le visage à représenter et la représentation tridimensionnelle générée et d'obtenir cette ressemblance  The object of the invention is to provide a method and a device which solve at least some of the abovementioned drawbacks, in order to obtain a better resemblance between the face to be represented and the three-dimensional representation generated and to obtain this resemblance

avec une quantité de calcul aussi réduite que possible.  with as little computation as possible.

Pour cela, l'invention fournit un procédé du type susmentionné, caractérisé par le fait qu'il comporte les étapes consistant a: sélectionner une pluralité de points caractéristiques parmi les sommets de ladite représentation générique, identifier un premier ensemble composé de ceux desdits points caractéristiques qui sont visibles selon ladite première direction de projection, pour chaque point caractéristique appartenant audit premier ensemble, identifier un point analogue dans ladite première image, identifier un deuxième ensemble formé de ceux desdits points caractéristiques qui sont visibles selon ladite deuxième direction de projection, pour chaque point caractéristique appartenant audit deuxième ensemble, identifier un point analogue dans ladite deuxième image, ladite étape de déformation comprenant un déplacement desdits points caractéristiques de manière à: pour chaque point caractéristique appartenant audit premier ensemble, faire concider une projection selon la première direction dudit point caractéristique avec ledit point analogue, pour chaque point caractéristique appartenant audit deuxième ensemble, faire concider une projection selon la deuxième direction dudit point caractéristique avec ledit point analogue, ladite étape de déformation comprenant un déplacement de chaque sommet de ladite représentation générique qui n'est pas un point 35 caractéristique en fonction des déplacements des points caractéristiques  For this, the invention provides a method of the aforementioned type, characterized in that it comprises the steps consisting in: selecting a plurality of characteristic points from the vertices of said generic representation, identifying a first set composed of those of said characteristic points which are visible in said first direction of projection, for each characteristic point belonging to said first set, identify a similar point in said first image, identify a second set formed of those of said characteristic points which are visible in said second direction of projection, for each characteristic point belonging to said second set, identifying a similar point in said second image, said deformation step comprising a displacement of said characteristic points so as to: for each characteristic point belonging to said first set, have a pr ojection in the first direction of said characteristic point with said analogous point, for each characteristic point belonging to said second set, having a projection in the second direction of said characteristic point with said analogous point, said deformation step comprising a displacement of each vertex of said generic representation which is not a characteristic point as a function of the displacements of the characteristic points

qui sont voisins dudit sommet.which are neighbors of said summit.

En sélectionnant d'emblée certains points caractéristiques  By immediately selecting certain characteristic points

de la représentation générique, on se sert uniquement de ces points caractéristiques pour piloter et contrôler la déformation à effectuer. De ce fait, le nombre de paramètres de la déformation, et par conséquent le 5 cot du procédé en termes de calculs, peuvent être modulés en fonction du nombre de points caractéristiques utilisés.  of the generic representation, one uses only these characteristic points to pilot and control the deformation to be carried out. Therefore, the number of parameters of the deformation, and consequently the 5 cost of the process in terms of calculations, can be modulated according to the number of characteristic points used.

De plus, les points caractéristiques qui sont visibles sur les deux images de l'objet sont positionnés dans l'espace de manière à concider avec leurs points analogues dans les deux images, tandis que 10 tout point caractéristique qui n'apparaîtrait que sur une seule image sera positionné dans l'espace de manière à concider avec son point analogue dans cette image. On exploite ainsi toute l'information concernant les  In addition, the characteristic points which are visible on the two images of the object are positioned in space so as to coincide with their analogous points in the two images, while any characteristic point which would appear only on one image will be positioned in space so as to coincide with its analogous point in this image. We thus use all the information concerning the

points caractéristiques disponible dans les images.  characteristic points available in the images.

Le déplacement des sommets qui ne sont pas des points 15 caractéristiques en fonction des déplacements des points caractéristiques qui leur sont voisins permet de conserver l'aspect neutre des formes de la représentation générique qui ne sont pas sélectionnées comme point caractéristique, afin d'obtenir globalement un bon niveau de ressemblance entre la représentation engendrée et l'objet, même avec un 20 nombre de points caractéristiques relativement réduit, par exemple une à  The displacement of the vertices which are not characteristic points as a function of the displacements of the characteristic points which are adjacent to them makes it possible to preserve the neutral aspect of the forms of the generic representation which are not selected as characteristic point, in order to obtain overall a good level of resemblance between the generated representation and the object, even with a relatively small number of characteristic points, for example one to

quelques dizaines.a few dozen.

De préférence, le procédé selon l'invention comporte les étapes consistant à: définir un maillage réduit dudit objet, lesdits points caractéristiques 25 formant les sommets dudit maillage réduit, pour chacun des points caractéristiques, définir une zone d'influence comprenant l'ensemble des facettes dudit maillage réduit dont ledit point caractéristique est un sommet, tout sommet de ladite représentation générique qui n'est pas un point 30 caractéristique étant déplacé, dans ladite étape de déformation, à proportion des déplacements de tout point caractéristique à la zone  Preferably, the method according to the invention comprises the steps consisting in: defining a reduced mesh of said object, said characteristic points 25 forming the vertices of said reduced mesh, for each of the characteristic points, defining an area of influence comprising all of the facets of said reduced mesh of which said characteristic point is a vertex, any vertex of said generic representation which is not a characteristic point being displaced, in said deformation step, in proportion to the displacements of any characteristic point in the zone

d'influence duquel ledit sommet appartient.  of influence from which said summit belongs.

Avantageusement, l'appartenance d'un sommet à la zone d'influence d'un point caractéristique est déterminée, pour chacune des 35 directions de projection, par projection dudit sommet sur des facettes triangulaires dudit maillage réduit selon la direction de projection correspondante, ou par projection sur des cercles circonscrits auxdites facettes. De préférence, pour faire concider un point caractéristique  Advantageously, the membership of a vertex in the zone of influence of a characteristic point is determined, for each of the 35 directions of projection, by projection of said vertex on triangular facets of said reduced mesh according to the corresponding projection direction, or by projection on circles circumscribed to said facets. Preferably, to reconcile a characteristic point

avec un point analogue dans l'une des images, on déplace ledit point 5 caractéristique parallèlement à la direction de projection correspondant à l'autre image.  with a similar point in one of the images, said characteristic point 5 is displaced parallel to the projection direction corresponding to the other image.

Avantageusement, on identifie les points de ladite première image et/ou de ladite deuxième image qui sont analogues aux points caractéristiques du premier et/ou du deuxième ensemble par détection 10 des contours, c'est-à-dire par détection des points de l'image pour  Advantageously, the points of said first image and / or of said second image which are analogous to the characteristic points of the first and / or of the second set are identified by detection of the contours, that is to say by detection of the points of the image for

lesquels une propriété colorimétrique présente un gradient maximal.  which a color property has a maximum gradient.

De préférence, ladite propriété colorimétrique est choisie  Preferably, said color property is chosen

parmi un niveau de gris, un niveau de rouge, un niveau de bleu, un niveau de vert des pixels de l'image et une combinaison d'au moins 15 certains desdits niveaux.  from a gray level, a red level, a blue level, a green level of the image pixels and a combination of at least some of said levels.

Avantageusement, l'étape d'identification des points desdites images qui sont analogues aux points caractéristiques du premier et/ou du deuxième ensemble est effectuée de manière itérative en déplaçant des points d'approximation dans lesdites images à partir de 20 positions initiales déterminées en fonction de formes et proportions  Advantageously, the step of identifying the points of said images which are analogous to the characteristic points of the first and / or of the second set is carried out iteratively by moving approximation points in said images from 20 initial positions determined as a function of shapes and proportions

génériques connues dudit objet.known generics of said object.

Selon un mode de réalisation particulier de l'invention, lesdits points d'approximation forment au moins une ligne brisée qui se déforme au cours des déplacements desdits points d'approximation sous 25 des conditions de régularité géométrique prescrites, par exemple une  According to a particular embodiment of the invention, said approximation points form at least one broken line which deforms during the displacements of said approximation points under prescribed conditions of geometric regularity, for example a

distance minimale entre deux points successifs de ladite ligne brisée.  minimum distance between two successive points of said broken line.

Avantageusement, on déforme ladite ligne brisée en tendant à minimiser une énergie interne Eint de ladite ligne brisée définie par: Eint= ( Il Vi Vi-, |I + Il| Vi+l - 2Vi + Vi- II), o o et / désignent des paramètres réels prédéterminés, Vi désigne le vecteur position d'un point de ladite ligne brisée, Il. Il désigne une norme  Advantageously, said broken line is deformed by tending to minimize an internal energy Eint of said broken line defined by: Eint = (Il Vi Vi-, | I + Il | Vi + l - 2Vi + Vi- II), oo and / denote predetermined real parameters, Vi designates the vector position of a point of said broken line, Il. It designates a standard

et la somme est étendue à tous les points de ladite ligne brisée.  and the sum is extended to all the points of said broken line.

Avantageusement, le procédé selon l'invention comporte une étape consistant à mettre les deux images à une même échelle, 35 l'étape de déformation comportant une étape de déformation globale consistant à appliquer un facteur d'échelle à ladite représentation générique pour ajuster au moins une dimension de ladite représentation générique à une dimension correspondante de l'objet représenté dans les images.  Advantageously, the method according to the invention comprises a step consisting in putting the two images on the same scale, the deformation step comprising a global deformation step consisting in applying a scale factor to said generic representation in order to adjust at least one dimension of said generic representation to a corresponding dimension of the object represented in the images.

Selon un autre mode de réalisation particulier de 5 l'invention, ledit genre d'objet inclut des visages humains, lesdits points caractéristiques comprenant des points du contour des yeux, des points du contour de la bouche, des points du contour du nez et des points du contour du visage, lesdites images comprenant une projection plane en vue de face d'un visage et une projection plane en vue de profil dudit 10 visage.  According to another particular embodiment of the invention, said kind of object includes human faces, said characteristic points comprising points around the eyes, points around the mouth, points around the nose and points of the contour of the face, said images comprising a planar projection in front view of a face and a planar projection in profile view of said face.

De préférence dans ce cas, on déforme ladite représentation tridimensionnelle générique symétriquement par rapport à un plan  Preferably in this case, said generic three-dimensional representation is deformed symmetrically with respect to a plane

vertical médian dudit visage.vertical median of said face.

Avantageusement, le procédé selon l'invention comporte 15 une étape de texturation de ladite représentation tridimensionnelle spécifique de l'objet, consistant à dilater en un rectangle une partie de l'image en vue de face qui représente le visage et à associer par projection la texture de ladite partie d'image dilatée à l'ensemble des  Advantageously, the method according to the invention comprises a step of texturing said specific three-dimensional representation of the object, consisting in expanding in a rectangle a part of the image in front view which represents the face and in associating by projection the texture of said part of the image expanded to all of the

facettes de la représentation tridimensionnelle du visage.  facets of the three-dimensional representation of the face.

Selon encore un autre mode de réalisation, le procédé selon l'invention comporte une étape de texturation de ladite représentation tridimensionnelle spécifique de l'objet, consistant à associer au moins la texture d'une partie centrale de l'image en vue de face à une partie centrale de la représentation tridimensionnelle du visage et à associer au 25 moins la texture d'une partie centrale de l'image en vue de profil à au moins une partie latérale de la représentation tridimensionnelle du visage. Avantageusement dans ce cas, ladite étape de texturation comporte les opérations consistant à: déformer l'image en vue de face et l'image en vue de profil de manière à obtenir les images qui résulteraient si le visage présentait une surface extérieure cylindrique que l'on déroulait, superposer lesdites images déformées de manière à faire concider des points correspondants dans lesdites images, fusionner lesdites images superposées en une image fusionnée dans laquelle au moins certains pixels ont une couleur résultant d'une moyenne pondérée des couleurs des pixels desdites images qui se superposent,  According to yet another embodiment, the method according to the invention comprises a step of texturing said specific three-dimensional representation of the object, consisting in associating at least the texture of a central part of the image in front view with a central part of the three-dimensional representation of the face and associating at least the texture of a central part of the image in profile view with at least one lateral part of the three-dimensional representation of the face. Advantageously in this case, said texturing step comprises the operations consisting in: deforming the image in front view and the image in profile view so as to obtain the images which would result if the face had a cylindrical exterior surface which the one unwound, superimposing said deformed images so as to make corresponding points in said images merge, merging said superimposed images into a merged image in which at least some pixels have a color resulting from a weighted average of the colors of the pixels of said images which are overlap,

appliquer l'image fusionnée sur la représentation tridimensionnelle spécifique. Par exemple, les points correspondants servant à positionner 5 les images les unes par rapport aux autres sont choisis au niveau des oreilles.  apply the merged image to the specific three-dimensional representation. For example, the corresponding points used to position the images relative to one another are chosen at the level of the ears.

De préférence, ladite moyenne pondérée est calculée en pondérant chacun desdits pixels qui se superposent à l'aide d'un coefficient de pondération respectif, ledit coefficient étant d'autant plus 1o grand que la déformation subie par l'image à laquelle appartient ledit pixel lors de ladite opération de déformation est faible au niveau dudit pixel. Avantageusement, le procédé selon l'invention comporte  Preferably, said weighted average is calculated by weighting each of said pixels which are superimposed using a respective weighting coefficient, said coefficient being all the more large as the deformation undergone by the image to which said pixel belongs. during said deformation operation is low at the level of said pixel. Advantageously, the method according to the invention comprises

une étape de calibrage colorimétrique des deux images pour harmoniser 15 les textures des parties du visage apparaissant dans les deux images.  a step of colorimetric calibration of the two images to harmonize the textures of the parts of the face appearing in the two images.

L'invention fournit aussi un dispositif pour engendrer une représentation tridimensionnelle d'un objet appartenant à un genre d'objets prédéterminé à partir d'au moins deux images bidimensionnelles dudit objet, comportant: un moyen pour mettre à disposition une représentation tridimensionnelle générique dudit objet, ladite représentation générique comprenant une pluralité de sommets définissant un maillage dudit objet, un moyen pour mettre à disposition une première image bidimensionnelle dudit objet vu selon une première direction de 25 projection et un moyen pour mettre à disposition une deuxième image bidimensionnelle dudit objet vu selon une deuxième direction de projection, des moyens de déformation pour déformer ladite représentation tridimensionnelle générique afin d'obtenir ladite représentation 30 tridimensionnelle de l'objet, caractérisé par le fait qu'il comporte: un moyen pour sélectionner une pluralité de points caractéristiques parmi lesdits sommets, un moyen pour identifier un premier ensemble composé de ceux desdits points caractéristiques qui sont visibles selon ladite première direction de 35 projection, un moyen pour identifier un point analogue de chaque point caractéristique appartenant audit premier ensemble dans ladite première image, un moyen pour identifier un deuxième ensemble formé de ceux desdits points caractéristiques qui sont visibles selon ladite deuxième direction de projection, un moyen pour identifier un point analogue de chaque point caractéristique appartenant audit deuxième ensemble dans ladite deuxième image, lesdits moyens de déformation comportant un moyen de déplacement des 10 points caractéristiques pour déplacer lesdits points caractéristiques de manière à: pour chaque point caractéristique appartenant audit premier ensemble, faire concider une projection selon la première direction dudit point caractéristique par avec ledit point analogue, pour chaque point caractéristique appartenant audit deuxième ensemble, faire concider une projection selon la deuxième direction dudit point caractéristique par avec ledit point analogue, lesdits moyens de déformation comportant un moyen de déplacement des autres sommets pour déplacer chaque sommet de ladite représentation 20 générique qui n'est pas un point caractéristique en fonction des  The invention also provides a device for generating a three-dimensional representation of an object belonging to a kind of predetermined object from at least two two-dimensional images of said object, comprising: means for providing a generic three-dimensional representation of said object said generic representation comprising a plurality of vertices defining a mesh of said object, means for providing a first two-dimensional image of said object seen in a first direction of projection and means for providing a second two-dimensional image of said object seen in a second projection direction, deformation means for deforming said generic three-dimensional representation in order to obtain said three-dimensional representation of the object, characterized in that it comprises: means for selecting a plurality of characteristic points from among said s vertices, means for identifying a first set composed of those of said characteristic points which are visible in said first direction of projection, means for identifying an analogous point of each characteristic point belonging to said first set in said first image, means for identifying a second set formed from those of said characteristic points which are visible in said second direction of projection, means for identifying a similar point of each characteristic point belonging to said second set in said second image, said deformation means comprising means for moving the 10 characteristic points to move said characteristic points so as to: for each characteristic point belonging to said first set, have a projection in the first direction of said characteristic point reconcile by with said analogous point, for each characterized point tick belonging to said second set, making a projection in the second direction of said characteristic point coincide with with said analogous point, said deformation means comprising means for moving the other vertices to move each vertex of said generic representation which is not a characteristic point according to

déplacements des points caractéristiques qui sont voisins dudit sommet.  displacements of the characteristic points which are neighbors of said vertex.

Au sens de l'invention, la mise à disposition des images et de la représentation tridimensionnelle peut être effectuée de plusieurs manières. Au sens de l'invention, mettre à disposition une entité inclut 25 produire l'entité, ou recevoir l'entité depuis une source extérieure, par exemple depuis un support de données amovible comme un disque magnétique ou optique ou depuis un réseau de transport de données, ou stocker l'entité, par exemple dans un moyen de stockage comme une mémoire de masse ou une mémoire centrale d'ordinateur, ou encore 30 accéder à l'entité, par exemple par lecture dans un moyen de stockage ou  Within the meaning of the invention, the provision of the images and of the three-dimensional representation can be carried out in several ways. Within the meaning of the invention, making an entity available includes producing the entity, or receiving the entity from an external source, for example from a removable data medium such as a magnetic or optical disk or from a transport network. data, or store the entity, for example in a storage means such as a mass memory or a central computer memory, or else access the entity, for example by reading in a storage means or

sur un support de données.on a data carrier.

Le dispositif selon l'invention peut être réalisé en tant qu'appareil dont la conception matérielle est spécifique à cette fin, ou en tant qu'appareil de conception matérielle classique, par exemple un 35 microordinateur générique, programmé au moyen d'un programme  The device according to the invention can be produced as an apparatus whose hardware design is specific for this purpose, or as an apparatus of conventional hardware design, for example a generic microcomputer, programmed by means of a program.

d'ordinateur spécifique à cette fin, ou en tant que combinaison des deux.  specific computer for this purpose, or as a combination of the two.

Le dispositif selon l'invention peut aussi être réalisé en tant que programme d'ordinateur. Au sens de l'invention, un programme d'ordinateur comporte des codes d'instruction aptes à être lus ou stockés  The device according to the invention can also be produced as a computer program. Within the meaning of the invention, a computer program comprises instruction codes capable of being read or stored

sur un support et exécutables par un ordinateur ou un appareil similaire.  on a medium and executable by a computer or similar device.

L'invention sera mieux comprise, et d'autres buts, détails,  The invention will be better understood, and other aims, details,

caractéristiques et avantages de celle-ci apparaîtront plus clairement au cours de la description suivante de plusieurs modes de réalisation particuliers de l'invention, donnés uniquement à titre illustratif et non  characteristics and advantages thereof will appear more clearly during the following description of several particular embodiments of the invention, given solely by way of illustration and not

limitatif, en référence au dessin annexé. Sur ce dessin: - la figure 1 est une représentation schématique des principales étapes des procédés selon l'invention, - la figure 2 représente un masque utilisable pour calculer le gradient des propriétés des pixels d'une image, - la figure 3 représente schématiquement un contour actif utilisé pour identifier des points des images analogues aux points caractéristiques, - la figure 4 représente une image d'un visage en vue de face avec un contour actif au début et à la 20 fin d'une étape de détourage du procédé de la figure 1, la figure 5 représente des proportions des visages humains connues a priori, - la figure 6 représente l'image de la figure 4 avec 25 des contours actifs tels qu'à la fin d'une étape d'identification du procédé de la figure 1, - la figure 7 représente une représentation générique de visage utilisée dans le procédé de la figure 1, - la figure 8 représente schématiquement et 30 partiellement un maillage réduit de la représentation générique de la figure 7, - la figure 9 représente schématiquement la zone d'influence d'un point caractéristique de la représentation générique de la figure 7, 35 - les figures 10 et 11 représentent une facette du maillage réduit de la figure 8 avant et après un déplacement élémentaire d'un point caractéristique, - les figures 12A et 12B représentent une étape de dilatation d'une partie d'image pour une étape de texturation selon un premier mode de réalisation, - la figure 13 représente un résultat de l'étape des figures 12A et 12B, - la figure 14 représente une étape de texturation selon un deuxième mode de réalisation, 10 - la figure 15 représente schématiquement les zones d'influence des points caractéristiques de la représentation générique de la figure 7, selon une variante de réalisation de l'invention, - la figure 16 représente une image en vue de profil 15 telle que déformée au cours d'une étape de texturation selon un troisième mode de réalisation, - la figure 17 représente une image fusionnée obtenue dans l'étape de texturation selon le troisième mode de réalisation, 20 - la figure 18 représente une image  limiting, with reference to the accompanying drawing. In this drawing: - Figure 1 is a schematic representation of the main steps of the methods according to the invention, - Figure 2 shows a mask used to calculate the gradient of the properties of the pixels of an image, - Figure 3 shows schematically a active contour used to identify points of the images analogous to the characteristic points, FIG. 4 represents an image of a face in front view with an active contour at the start and at the end of a step of trimming the process of FIG. 1, FIG. 5 represents proportions of the human faces known a priori, - FIG. 6 represents the image of FIG. 4 with active contours such that at the end of a step of identifying the process of the Figure 1, - Figure 7 shows a generic representation of a face used in the process of Figure 1, - Figure 8 shows schematically and partially a reduced mesh of the representation generic of figure 7, - figure 9 schematically represents the zone of influence of a point characteristic of the generic representation of figure 7, 35 - figures 10 and 11 represent a facet of the reduced mesh of figure 8 before and after an elementary displacement of a characteristic point, - FIGS. 12A and 12B represent a stage of dilation of an image part for a stage of texturing according to a first embodiment, - FIG. 13 represents a result of the step of FIGS. 12A and 12B, - FIG. 14 represents a texturing step according to a second embodiment, 10 - FIG. 15 schematically represents the zones of influence of the characteristic points of the generic representation of FIG. 7, according to a variant embodiment of the invention, - Figure 16 shows a profile view image 15 as deformed during a texturing step according to a third mode of r realization, - Figure 17 represents a merged image obtained in the texturing step according to the third embodiment, - Figure 18 represents an image

tridimensionnelle texturée obtenue à l'issue de l'étape de texturation selon le troisième mode de réalisation.  textured three-dimensional obtained at the end of the texturing step according to the third embodiment.

En référence à la figure 1, on décrit maintenant un procédé 25 selon l'invention pour engendrer une image numérique tridimensionnelle  Referring to FIG. 1, a method 25 according to the invention will now be described for generating a three-dimensional digital image.

d'un visage.of a face.

A l'étape 5, on mémorise dans la mémoire d'un microordinateur une représentation générique de visage humain, encore appelée masque neutre. La figure 1 montre cette représentation 30 générique 1, sous la forme d'un maillage à facettes triangulaires comportant 256 sommets. Une telle représentation générique est connue d'après le document " Rapid Modeling of Animated Faces from Video ", rapport technique MSR-TR-2000-11 de Z. Liu et al., Microsoft Research  In step 5, a generic representation of the human face, also called a neutral mask, is stored in the memory of a microcomputer. FIG. 1 shows this generic representation 1, in the form of a triangular faceted mesh comprising 256 vertices. Such a generic representation is known from the document "Rapid Modeling of Animated Faces from Video", technical report MSR-TR-2000-11 by Z. Liu et al., Microsoft Research

Corp. (2000).Corp. (2000).

Sur la représentation générique, on sélectionne certains sommets en tant que points caractéristiques. Par exemple, on sélectionne en tant que points caractéristiques les sommets internes, externes, supérieurs et inférieurs des bords des yeux (4 sommets par oeil), le bout du nez et l'entrée des narines (3 sommets), les sommets de bord en largeur et en hauteur de la bouche (4 sommets), le sommet de pointe du 5 menton, le sommet de haut du front, et les deux sommets définissant la largeur maximale du masque, les oreilles pouvant être incluses dans le  On the generic representation, certain vertices are selected as characteristic points. For example, we select as characteristic points the internal, external, upper and lower vertices of the edges of the eyes (4 vertices per eye), the tip of the nose and the entrance of the nostrils (3 vertices), the vertices of edge in width and height of the mouth (4 vertices), the apex of the tip of the 5 chin, the apex of the top of the forehead, and the two vertices defining the maximum width of the mask, the ears can be included in the

masque neutre 1 ou en être exclues.  neutral mask 1 or be excluded from it.

A l'étape 10, on acquiert deux images numérisées d'un  In step 10, two digitized images of a

visage. Cette étape est réalisée par exemple au moyen d'un appareil 10 photo numérique.  face. This step is carried out for example by means of a digital camera.

Pour simplifier les opérations de traitement des images, on prend ces deux photos devant un fond blanc et la personne photographiée n'a ni lunettes, ni coiffure extravagante, ni autre accessoire pouvant gêner la reconnaissance du visage. Les deux photos sont une photo de 15 face et une photo de profil. Entre les deux prises de vue, le sujet effectue, comme unique mouvement, une rotation de la tête ou de l'ensemble du corps de 90 autour d'un axe vertical. De manière équivalente, le sujet peut rester immobile et l'appareil photo effectuer un déplacement de 90 sur un arc de cercle horizontal autour de la tête du sujet. On ne change 20 pas la focale de l'appareil photo entre les deux prises de vue. On obtient ainsi deux photos à la même échelle. On effectue un cadrage centré du  To simplify the image processing operations, these two photos are taken in front of a white background and the person photographed has no glasses, no extravagant hairstyle, or any other accessory that could hinder facial recognition. The two photos are a 15-sided photo and a profile photo. Between the two shots, the subject performs, as a single movement, a rotation of the head or of the whole body by 90 around a vertical axis. Equivalently, the subject can remain stationary and the camera can move 90 on a horizontal arc around the subject's head. The focal length of the camera is not changed between the two shots. We thus obtain two photos on the same scale. We carry out a centered framing of the

visage dans chacune des prises de vue.  face in each of the shots.

En variante, les deux photos peuvent aussi être prises  Alternatively, both photos can also be taken

simultanément par deux appareils photos identiques positionnés à 90 25 l'un de l'autre sur un arc de cercle horizontal centré sur la tête du sujet.  simultaneously by two identical cameras positioned 90 25 apart from each other on a horizontal arc centered on the subject's head.

Les deux photos numériques peuvent aussi être acquises au moyen d'un  The two digital photos can also be acquired using a

scanner à partir de diapositives ou de tirages sur papier photo.  scan from slides or photo paper prints.

Les deux photos numériques, exprimées dans un format approprié quelconque, sont transférées dans la mémoire du micro30 ordinateur par une liaison de transfert de données entre l'appareil photo  The two digital photos, expressed in any suitable format, are transferred to the memory of the microcomputer by a data transfer link between the camera.

numérique ou le scanner et le micro-ordinateur. Une telle image contient des données qui définissent un réseau bidimensionnel de pixels et des propriétés colorimétriques de chaque pixel sur trois canaux RGB. Les deux directions des images sont notées x et y par la suite. Les pixels des 35 images sont repérés par deux coordonnées correspondantes.  digital or scanner and microcomputer. Such an image contains data that defines a two-dimensional array of pixels and the color properties of each pixel on three RGB channels. The two directions of the images are denoted x and y thereafter. The pixels of the 35 images are identified by two corresponding coordinates.

Pour chacune des images, on réalise ensuite une étape 20 de  For each of the images, there is then carried out a step 20 of

détourage du visage. Il existe trois grandes parties dans les images: l'arrière-plan, le visage et les autres parties du corps, telles que cheveux et épaules. L'étape 20 a pour but de délimiter la partie des images 5 correspondant au visage lui-même. Cette étape est très importante pour engendrer la représentation tridimensionnelle spécifique car tant la géométrie du visage que sa texture dépendent du résultat de cette étape.  face clipping. There are three main parts in the images: the background, the face, and other parts of the body, such as hair and shoulders. The purpose of step 20 is to delimit the part of the images 5 corresponding to the face itself. This step is very important to generate the specific three-dimensional representation because both the geometry of the face and its texture depend on the result of this step.

Pour cela, à l'étape 20, on détecte, dans chaque image, le contour  For this, in step 20, the contour is detected in each image

extérieur du visage.outside of the face.

L'étape 20 est réalisée par une méthode de détection des contours par déformation itérative d'un contour actif. Une telle méthode est connue d'après l'article " Snakes: Active contour models " de Michael Kass et al. paru dans International Journal of Computer Vision,  Step 20 is carried out by a method of detecting contours by iterative deformation of an active contour. Such a method is known from the article "Snakes: Active contour models" by Michael Kass et al. published in International Journal of Computer Vision,

Vol. 1, pages 321-331 (1987).Flight. 1, pages 321-331 (1987).

Un contour actif est un ensemble de points d'approximation qui définissent une ligne brisée constituant une approximation du contour que l'on souhaite détecter. La figure 3 représente un contour  An active contour is a set of approximation points which define a broken line constituting an approximation of the contour that one wishes to detect. Figure 3 shows an outline

actif ayant quatre points d'approximation Vi_1,Vi, Vi+1, Vi+2.  active with four approximation points Vi_1, Vi, Vi + 1, Vi + 2.

Dans un premier temps, on positionne le contour actif à une 20 position initiale prédéterminée. La figure 4 représente un exemple de photo de visage en vue de face. La ligne 21a est le contour actif à sa position initiale. A cette position, le contour actif forme un polygone, par exemple un hexagone, positionné de manière à assurer que l'objet dont le contour doit être reconnu, c'est-à-dire le visage, se trouve à l'intérieur 25 du contour initial. De cette manière, l'arrière-plan étant blanc, on assure avec des meilleures chances que le contour actif va effectivement converger vers les bords du visage. Ce positionnement initial peut être réalisé manuellement par un opérateur, à l'aide de l'interface graphique du micro-ordinateur, ou automatiquement, par exemple en positionnant 30 le contour actif de manière centrée dans l'image et à faible distance des  Firstly, the active contour is positioned at a predetermined initial position. FIG. 4 represents an example of a face photo in front view. Line 21a is the active contour at its initial position. At this position, the active contour forms a polygon, for example a hexagon, positioned so as to ensure that the object whose contour must be recognized, i.e. the face, is inside the initial outline. In this way, the background being white, it is ensured with better chances that the active contour will effectively converge towards the edges of the face. This initial positioning can be carried out manually by an operator, using the microcomputer graphic interface, or automatically, for example by positioning the active contour centrally in the image and at a short distance from the

bords périphériques de l'image.peripheral edges of the image.

De préférence, on donne au contour actif une forme initiale adaptée à la forme connue a priori du visage, par exemple une forme  Preferably, the active contour is given an initial shape adapted to the a priori known shape of the face, for example a shape

sensiblement elliptique.substantially elliptical.

Dans un second temps, on déforme de manière itérative ce  Secondly, it deforms iteratively

contour actif en déplaçant les points d'approximation de pixel en pixel.  active contour by moving the approximation points from pixel to pixel.

Cette déformation est pilotée par une énergie totale Et du contour actif que l'on cherche à minimiser. L'énergie totale Et du contour actif est définie comme la somme d'une énergie potentielle Ep, d'une énergie  This deformation is controlled by a total energy And of the active contour which one seeks to minimize. The total energy Et of the active contour is defined as the sum of a potential energy Ep, of an energy

interne Eint et d'une énergie de contrainte Eo.  internal Eint and a constraint energy Eo.

L'énergie potentielle du contour actif est définie de manière à attirer les points d'approximation vers les zones de l'image o le gradient d'une intensité colorimétrique C est maximal, c'est-à-dire les zones de l'image qui représentent effectivement des contours. Pour une image en noir et blanc, on utilise comme intensité colorimétrique C le 10 niveau de gris des pixels de l'image. Pour une image en couleurs, on peut utiliser comme intensité colorimétrique C, par exemple, le niveau sur l'un des canaux rouge, vert et bleu, ou une combinaison de ces niveaux comme la luminance Y des pixels, définie pour le pixel (j, k) par: Y(j, k) = 0,299 R(j, k) + 0,587 V(j, k) + 0,114 B(j, k), o R(j, k) V(j, k) B(j, k) dénotent respectivement le niveau de rouge, de  The potential energy of the active contour is defined in such a way as to attract the points of approximation towards the areas of the image where the gradient of a colorimetric intensity C is maximum, that is to say the areas of the image. which actually represent contours. For a black and white image, the gray level of the pixels of the image is used as color intensity C. For a color image, we can use as color intensity C, for example, the level on one of the red, green and blue channels, or a combination of these levels as the luminance Y of the pixels, defined for the pixel (j , k) by: Y (j, k) = 0.299 R (j, k) + 0.587 V (j, k) + 0.114 B (j, k), o R (j, k) V (j, k) B (j, k) denote respectively the level of red, of

vert et de bleu du pixel (j, k).pixel green and blue (j, k).

L'énergie potentielle Ep du contour actif est la somme des énergies potentielles Epi des points d'approximations Vi appartenant au 20 contour actif:  The potential energy Ep of the active contour is the sum of the potential energies Epi of the approximation points Vi belonging to the active contour:

Ep=Ei Epi.Ep = Ei Epi.

Pour un point d'approximation Vi positionné sur le pixel (j, k), l'énergie potentielle Epi de ce point est: Epi(, k)= - |I Grad C(j, k) 11, o .11 désigne une norme vectorielle et Grad désigne le vecteur gradient. Le gradient de la fonction C peut être calculé par toute méthode connue. De préférence, on utilise la méthode de calcul approchée fondée  For an approximation point Vi positioned on the pixel (j, k), the potential energy Epi of this point is: Epi (, k) = - | I Grad C (j, k) 11, o .11 denotes a vector norm and Grad designates the gradient vector. The gradient of the function C can be calculated by any known method. Preferably, we use the approximate calculation method based

sur le masque de Sobel, qui est représenté à la figure 2.  on the Sobel mask, which is shown in Figure 2.

Dans cette méthode, pour calculer la composante 30 horizontale GradX du gradient au pixel (j, k), on place ce pixel dans la case au centre du masque, chaque case représentant un pixel voisin. Puis on effectue, pour chaque pixel recouvert par le masque, le produit de la valeur de la fonction C en ce pixel par le coefficient dans la case correspondante du masque. On effectue ensuite la somme de ces 35 produits. On obtient donc: Gradx C(j, k)=C(j-l, k-l1)+2C(j, k-l1)+C(j+l, k-l)-C(j-l,  In this method, to calculate the horizontal component GradX of the gradient at the pixel (j, k), this pixel is placed in the box in the center of the mask, each box representing a neighboring pixel. Then, for each pixel covered by the mask, the product of the value of the function C in this pixel is produced by the coefficient in the corresponding box of the mask. These 35 products are then added up. We thus obtain: Gradx C (j, k) = C (j-l, k-l1) + 2C (j, k-l1) + C (j + l, k-l) -C (j-l,

k+l)-2C(j, k+l)-C(j+l, k+l).k + l) -2C (j, k + l) -C (j + l, k + l).

Pour calculer la composante verticale Grady du gradient au pixel (i, j), on tourne le masque de 90 dans le sens direct et on effectue les mêmes calculs. On obtient ensuite: Grad C(j, k) Il ={[Gradx C(j, k)]2 + [Grady C(j, k)]2}/. On peut aussi utiliser comme intensité colorimétrique C, pour une image en couleurs, le niveau sur le canal rouge, vert ou bleu  To calculate the Grady vertical component of the pixel gradient (i, j), we turn the mask 90 in the forward direction and we perform the same calculations. We then obtain: Grad C (j, k) Il = {[Gradx C (j, k)] 2 + [Grady C (j, k)] 2} /. We can also use as color intensity C, for a color image, the level on the red, green or blue channel

niveau pour lequel le gradient présente un module maximum.  level for which the gradient has a maximum modulus.

L'énergie interne Eint du contour actif est une énergie propre dépendant uniquement de la forme du contour actif. Elle est définie par: Eint=Ei Einti et Eint i = (a V1 v I 1 -Vi Vj+ - 2Vi + Vi-1), o Vi désigne le vecteur position du point d'approximation Vi et la 15 somme est étendue à tous les points du contour actif, s'agissant d'un contour fermé, ou à tous les points sauf ceux des deux extrémités,  The internal energy Eint of the active contour is a clean energy depending only on the shape of the active contour. It is defined by: Eint = Ei Einti and Eint i = (a V1 v I 1 -Vi Vj + - 2Vi + Vi-1), where Vi denotes the position vector of the approximation point Vi and the sum is extended to all the points of the active contour, being a closed contour, or at all points except those of the two ends,

s'agissant d'un contour ouvert.being an open contour.

Les coefficients ot et / sont deux nombres réels positifs choisis en fonction de l'influence que l'on souhaite donner à chacune des 20 composantes de l'énergie interne, c'est-à-dire d'une part la norme de la dérivée première du vecteur position du point d'approximation Vi en fonction de l'abscisse curviligne et d'autre part la norme de la composante tangentielle de la dérivée seconde du vecteur position du point d'approximation Vi en fonction de l'abscisse curviligne. Plus le 25 coefficient oa est grand et plus le contour actif est souple, c'est-àdire apte à suivre des angles aigus. Plus le coefficient 3 est grand et plus le contour actif est régulier, c'est-à-dire apte à suivre une courbe moyenne  The coefficients ot and / are two positive real numbers chosen according to the influence that one wishes to give to each of the 20 components of internal energy, that is to say on the one hand the norm of the derivative first of the position vector of the approximation point Vi as a function of the curvilinear abscissa and on the other hand the norm of the tangential component of the second derivative of the position vector of the approximation point Vi as a function of the curvilinear abscissa. The larger the coefficient oa, the more flexible the active contour, ie able to follow acute angles. The larger the coefficient 3, the more regular the active contour, i.e. able to follow an average curve

sans faire de crochets vers des petites irrégularités de l'image.  without making brackets towards small irregularities in the image.

L'énergie de contrainte Ec est aussi une énergie dépendant 30 de lagéométrie du contour actif. Elle est choisie de manière à imposer des contraintes géométriques supplémentaires sur le contour actif. Par exemple, cette énergie est définie par: Ec = Li Eci(Vi - Vil), o Eci désigne, pour chaque point Vi du contour, une énergie potentielle d'interaction de type sphères dures, valant 0 35 lorsque le point précédent Vi-1 du contour est à une distance supérieure à une distance minimale prédéterminée et valant + oo lorsque le point précédent du contour est à une distance inférieure ou égale à ladite distance minimale prédéterminée. On assure ainsi que les points consécutifs du contour actif restent à une distance supérieure à ladite  The stress energy Ec is also an energy depending on the geometry of the active contour. It is chosen so as to impose additional geometric constraints on the active contour. For example, this energy is defined by: Ec = Li Eci (Vi - Vil), where Eci denotes, for each point Vi of the contour, a potential interaction energy of hard spheres type, worth 0 35 when the previous point Vi- 1 of the contour is at a distance greater than a predetermined minimum distance and being equal to + oo when the preceding point of the contour is at a distance less than or equal to said predetermined minimum distance. It is thus ensured that the consecutive points of the active contour remain at a distance greater than said

distance minimale prédéterminée les uns des autres.  predetermined minimum distance from each other.

Avant qu'on débute la déformation itérative du contour  Before we start the iterative deformation of the contour

actif, son énergie totale a une certaine valeur initiale Et = Ep + Eint + Ec.  active, its total energy has a certain initial value Et = Ep + Eint + Ec.

On déplace ensuite les points d'approximation de manière à minimiser la fonction énergie totale, les variables étant les coordonnées de chaque point d'approximation Vi appartenant au contour actif. Il existe de 10 nombreuses méthodes mathématiques, par exemple des méthodes variationnelle, aptes à résoudre ce problème d'optimisation d'une  We then move the approximation points so as to minimize the total energy function, the variables being the coordinates of each approximation point Vi belonging to the active contour. There are many mathematical methods, for example variational methods, capable of solving this problem of optimizing a

fonction à plusieurs variables.multivariate function.

De préférence, on utilise une méthode par programmation dynamique, particulièrement adaptée à la forme du présent problème. 15 Une telle méthode est connue d'après l'article " Using dynamic programming for solving variational problems in vision ", de Amini  Preferably, a dynamic programming method is used, which is particularly suited to the form of the present problem. 15 Such a method is known from the article "Using dynamic programming for solving variational problems in vision", by Amini

Amir, dans PAMI, 12(9), pages 855-867 (1990).  Amir, in PAMI, 12 (9), pages 855-867 (1990).

Du fait des définitions ci-dessus, l'énergie potentielle d'un point du contour ne dépend que de la position de ce point; son énergie 20 interne dépend des positions de ce point et des deux points voisins, et son énergie de contrainte ne dépend que de la position de ce point et de celle du point précédent. Si le contour actif comportant N points d'approximation est un contour ouvert, on regroupe les termes formant l'énergie totale Et du contour actif sous la forme: Et = El(V1, V2, V3) + E2(V2, V3, V4) +...+ EN-2(VN-2, VN1, VN), avec El= Epl +Eint 2+ Ec2, E2= Ep2 +Eint 3+ Ec3, etc. Si le contour actif comportant N points d'approximation est un contour fermé, il faut ajouter en outre les termes: EN-i(VN1, VN, Vl) + EN(VN, Vl, V2)  Because of the definitions above, the potential energy of a point of the contour depends only on the position of this point; its internal energy depends on the positions of this point and the two neighboring points, and its stress energy depends only on the position of this point and that of the previous point. If the active contour comprising N approximation points is an open contour, the terms forming the total energy Et of the active contour are grouped in the form: Et = El (V1, V2, V3) + E2 (V2, V3, V4 ) + ... + EN-2 (VN-2, VN1, VN), with El = Epl + Eint 2+ Ec2, E2 = Ep2 + Eint 3+ Ec3, etc. If the active contour with N approximation points is a closed contour, the following terms must be added: EN-i (VN1, VN, Vl) + EN (VN, Vl, V2)

avec E N-= EPN-1 +EintN+ EN et EpN= EN +Eint 1+ Ec.  with E N- = EPN-1 + EintN + EN and EpN = EN + Eint 1+ Ec.

Le principe de la méthode par programmation dynamique est de minimiser d'abord la fonction E1 par rapport à la variable V1, puis de minimiser par rapport à la variable V2 la fonction: S2 = minvI[EI(VI, V2, V3)] + E2(V2, V3, V4), qui ne dépend pas de la variable VI. On continue ainsi de suite en suivant  The principle of the dynamic programming method is to first minimize the function E1 with respect to the variable V1, then minimize with respect to the variable V2 the function: S2 = minvI [EI (VI, V2, V3)] + E2 (V2, V3, V4), which does not depend on the variable VI. We continue so on by following

l'ordre des points du contour.the order of the points of the contour.

En pratique, le contour actif étant à une position donnée,  In practice, the active contour being at a given position,

chaque point d'approximation concide avec un certain pixel de l'image.  each approximation point coincides with a certain pixel of the image.

On commence par évaluer l'énergie totale Et du contour actif pour tout triplet de positions (VI, V2, V3), lorsque chacun de ces points prend 5 successivement sa présente position et toutes les positions adjacentes au pixel o il se trouve, positions qui sont représentées par le cadre 22 à la figure 3 pour le point Vi+l. On retient celui de ces triplets (V1, V2, V3) qui minimise Et. On fixe alors le point VI. Puis on recommence l'opération précitée avec le triplet (V2, V3, V4), puis ainsi de suite 10 jusqu'au triplet (VN-2, VN-1, VN).  We start by evaluating the total energy And of the active contour for any triplet of positions (VI, V2, V3), when each of these points successively takes its present position and all the positions adjacent to the pixel where it is located, positions which are represented by the frame 22 in FIG. 3 for the point Vi + 1. We retain that of these triplets (V1, V2, V3) which minimizes Et. We then fix point VI. Then the above operation is repeated with the triplet (V2, V3, V4), and so on 10 until the triplet (VN-2, VN-1, VN).

Pour un contour ouvert, lorsque tous les points V1 à VN. ont ainsi été fixés, on itère le calcul en reprenant à partir du triplet de position (VI, V2, V3). Pour un contour fermé, on poursuit avec les triplets (VN-1, VN, V1) et (VN, Vl,V2), ce qui permet d'itérer le calcul 15 sur un nouveau tour. Des itérations sont effectuées ainsi jusqu'à ce qu'un  For an open contour, when all the points V1 to VN. have thus been fixed, the calculation is iterated by resuming from the position triplet (VI, V2, V3). For a closed contour, we continue with the triplets (VN-1, VN, V1) and (VN, Vl, V2), which makes it possible to iterate calculation 15 on a new lap. Iterations are done this way until a

nombre maximal d'itérations soit atteint ou qu'une condition de convergence soit remplie, par exemple l'absence de variation notable de l'énergie totale Et d'une itération à la suivante. Le contour actif est alors à sa position finale, représentée par la ligne 21b en trait mixte à la figure 20 4.  maximum number of iterations is reached or a condition of convergence is fulfilled, for example the absence of significant variation of the total energy And from one iteration to the next. The active contour is then in its final position, represented by line 21b in phantom in FIG. 20 4.

Parmi les points des contours actifs convergés, on a alors  Among the points of the converged active contours, we then have

détecté, sur chacune des images, la position de certains des points analogues aux points caractéristiques qui ont été sélectionnés sur le masque neutre. Ces points analogues sont repérés par leurs coordonnées 25 dans l'image.  detected, on each of the images, the position of some of the points analogous to the characteristic points which have been selected on the neutral mask. These analogous points are identified by their coordinates 25 in the image.

Pour l'étape de détourage du visage, le résultat est d'autant meilleur que le sujet n'a pas de barbe et a une couleur de peau différente de celle de ses cheveux. Dans le cas contraire, on risque de détecter une partie du contour de la barbe ou des cheveux au lieu du contour du 30 visage lui-même. Si besoin, on utilise un point caractéristique supplémentaire situé au sommet de la coiffure, dont le point analogue est plus facile à détecter que le point analogue du haut du front si le  For the facial trimming step, the result is all the better since the subject does not have a beard and has a different skin color from that of his hair. Otherwise, there is a risk of detecting a part of the contour of the beard or of the hair instead of the contour of the face itself. If necessary, an additional characteristic point is used located at the top of the hairstyle, the analog point of which is easier to detect than the analog point of the top of the forehead if the

contraste entre les cheveux et la peau est faible.  contrast between hair and skin is low.

Lorsque l'étape de détourage 20 a été effectuée pour les 35 deux images, on procède à une étape 30 de mise à l'échelle des deux images, pour le cas o les deux images n'auraient pas été prises dans les conditions prescrites. Par exemple, on applique une homothétie à l'une des images pour obtenir la même hauteur de contour du visage dans les  When the clipping step 20 has been carried out for the two images, a step 30 for scaling the two images is carried out, in case the two images have not been taken under the prescribed conditions. For example, we apply a homothety to one of the images to obtain the same height of the contour of the face in the

deux images.two images.

On procède ensuite à une étape 40 de détection des points 5 des images qui sont analogues aux points caractéristiques situés à l'intérieur du contour du visage sur l'une ou l'autre des images. Pour cela, on détecte sur l'image en vue de face le contour des yeux, le contour inférieur du nez et le contour de la bouche. On détecte également  A step 40 is then carried out of detecting the points 5 of the images which are analogous to the characteristic points situated inside the contour of the face on one or the other of the images. For this, the eye contour, the lower nose contour and the mouth contour are detected on the front view image. We also detect

le contour des yeux et de la bouche sur l'image en vue de profil.  the outline of the eyes and mouth on the image in profile view.

Pour l'étape 40, la méthode de calcul utilisée est une méthode de détection de contour analogue à celle de l'étape 20. La seule différence avec l'étape 20 réside dans le placement initial des contours actifs. Pour améliorer la précision de la détection des contours susmentionnés, on positionne initialement les contours actifs à l'aide des 15 connaissances a priori que l'on a des visages humains. Ces connaissances consistent en des proportions moyennes qui sont  For step 40, the calculation method used is a contour detection method analogous to that of step 20. The only difference with step 20 lies in the initial placement of the active contours. To improve the accuracy of the detection of the abovementioned contours, the active contours are initially positioned using the a priori knowledge that human faces are present. This knowledge consists of average proportions which are

représentées sur la figure 5 et des formes moyennes connues.  shown in Figure 5 and known average shapes.

On place ainsi le contour actif devant converger autour d'un oeil sous la forme d'un losange avec son point inférieur sensiblement sur 20 une ligne horizontale coupant le visage en deux parties égales et avec ses points d'extrémités longitudinales espacés d'environ 1/5 de la largeur du visage. Pour l'image en vue de face, le contour actif est représenté par la  The active contour must thus be placed before converging around an eye in the form of a rhombus with its lower point substantially on a horizontal line cutting the face into two equal parts and with its points of longitudinal ends spaced about 1 / 5 of the width of the face. For the image in front view, the active contour is represented by the

ligne 41 de la figure 6 après convergence.  line 41 of figure 6 after convergence.

On place le contour actif devant converger autour du nez 25 avec son point inférieur à environ 1/3 de la hauteur du visage en partant du bas, sur une ligne verticale médiane. Pour l'image en vue de face, ce contour actif est représenté par la ligne 42 de la figure 6 après convergence. On place le contour actif devant converger autour de la 30 bouche sous la forme d'un losange centré autour d'une ligne horizontale s'étendant à environ 2/9 de la hauteur du visage en partant du bas. Pour l'image en vue de face, ce contour actif est représenté par la ligne 43 de  The active outline is placed before converging around the nose 25 with its point less than about 1/3 of the height of the face starting from the bottom, on a vertical median line. For the front view image, this active contour is represented by line 42 of FIG. 6 after convergence. The active contour which is to converge around the mouth is placed in the form of a diamond centered around a horizontal line extending to about 2/9 of the height of the face starting from the bottom. For the image in front view, this active contour is represented by line 43 of

la figure 6 après convergence.Figure 6 after convergence.

A l'issue de l'étape 40, tous les points analogues aux points 35 caractéristiques sélectionnés à l'étape 5 sont identifiés dans les deux images. Tous les points analogues figurent parmi les points des contours  At the end of step 40, all the points analogous to the characteristic points selected in step 5 are identified in the two images. All the analogous points appear among the points of the contours

actifs convergés. Leurs coordonnées sont calculées et mémorisées.  converged assets. Their coordinates are calculated and stored.

On passe à une étape 50 de déformation du masque neutre  We go to a step 50 of deformation of the neutral mask

pour engendrer la représentation tridimensionnelle recherchée du visage 5 représenté sur les images. L'étape 50 comporte une étape de déformation globale suivie d'une étape de déformation locale.  to generate the desired three-dimensional representation of the face 5 represented in the images. Step 50 includes a global deformation step followed by a local deformation step.

Dans l'étape de déformation globale, une transformation homothétique est appliquée au masque neutre 1 pour mettre au moins une dimension extérieure de la représentation tridimensionnelle (hauteur 10 et/ou largeur du visage) en concordance avec la ou les dimension(s)  In the overall deformation step, a homothetic transformation is applied to the neutral mask 1 to bring at least one external dimension of the three-dimensional representation (height 10 and / or width of the face) into agreement with the dimension (s)

extérieure(s) correspondante(s) relevée(s) sur les images.  corresponding exterior (s) identified on the images.

Dans l'étape de déformation locale, pour chacune des images, on calcule l'image projetée de la représentation tridimensionnelle 1 selon la direction de la prise de vue de l'image 15 correspondante. On identifie les points caractéristiques qui sont visibles  In the local deformation step, for each of the images, the projected image of the three-dimensional representation 1 is calculated according to the direction of shooting of the corresponding image. We identify the characteristic points that are visible

dans chaque image projetée. Les points caractéristiques visibles dans la projection en vue de face constituent un premier ensemble, qui contient tous les points caractéristiques dans le présent exemple. Les points caractéristiques visibles dans la projection en vue de profil constituent un 20 second ensemble, qui contient tous les points caractéristiques d'un demivisage dans le présent exemple.  in each projected image. The characteristic points visible in the projection in front view constitute a first set, which contains all the characteristic points in the present example. The characteristic points visible in the projection in profile view constitute a second set, which contains all the characteristic points of a demivisage in the present example.

Dans une première opération de déformation locale, pour l'image projetée en vue de face de la représentation tridimensionnelle 1, on déplace chaque point caractéristique du premier ensemble jusqu'à le 25 faire concider, dans l'image projetée, avec le point analogue de l'image  In a first local deformation operation, for the image projected in front view of the three-dimensional representation 1, each characteristic point of the first set is moved until it coincides, in the projected image, with the analogous point of the image

en vue de face.in front view.

Dans une deuxième opération de déformation locale, pour l'image projetée en vue de profil de la représentation tridimensionnelle 1, on déplace chaque point caractéristique du deuxième ensemble 30 jusqu'à le faire concider, dans l'image projetée, avec le point analogue  In a second local deformation operation, for the image projected in view of the profile of the three-dimensional representation 1, each characteristic point of the second set 30 is displaced until it makes it coincide, in the projected image, with the analogous point

de l'image en vue de profil. Dans la deuxième opération, on effectue le déplacement des points caractéristiques du deuxième ensemble parallèlement à la direction de projection de l'image en vue de face, de manière à ne pas modifier la projection de ces points caractéristiques 35 selon la vue de face.  of the image in profile view. In the second operation, the characteristic points of the second set are moved parallel to the direction of projection of the image in front view, so as not to modify the projection of these characteristic points according to the front view.

Pour les points caractéristiques n'appartenant pas au deuxième ensemble, on effectue la deuxième opération de déformation de manière à conserver la symétrie de la représentation tridimensionnelle  For the characteristic points not belonging to the second set, the second deformation operation is carried out so as to preserve the symmetry of the three-dimensional representation

du visage par rapport à un plan vertical médian.  of the face with respect to a median vertical plane.

Dans une variante préférée, on effectue les deux opérations  In a preferred variant, the two operations are carried out

de déformation selon un mode symétrique, c'est-à-dire on met en concidence les points caractéristiques d'un seul demi-visage avec les points analogues correspondants dans les deux images, et qu'on déplace les autres points caractéristiques par symétrie par rapport à un plan 10 vertical médian.  deformation in a symmetrical mode, that is to say, the characteristic points of a single half-face are made to coincide with the corresponding analogous points in the two images, and the other characteristic points are displaced by symmetry by with respect to a median vertical plane.

A l'étape 50, on déplace aussi les sommets du masque  In step 50, we also move the vertices of the mask

neutre qui ne sont pas des points caractéristiques, en utilisant une méthode de déformation de forme libre connue d'après l'article " Free form deformation of solid geometric models " de T.W. Sederberg et al. 15 dans Proceedings of SIGGRAPH'86, Vol. 20, pages 151-160, éd.  neutral which are not characteristic points, using a free form deformation method known from the article "Free form deformation of solid geometric models" by T.W. Sederberg et al. 15 in Proceedings of SIGGRAPH'86, Vol. 20, pages 151-160, ed.

Computer Graphics (1986). Cette méthode revient à segmenter l'espace en régions tétraédriques délimitées par les points caractéristiques et à considérer que chaque point caractéristique agit sur des régions tétraédriques, lesquelles constituent sa zone d'influence, ainsi que sur 20 tous les sommets qui appartiennent à cette zone.  Computer Graphics (1986). This method amounts to segmenting the space into tetrahedral regions delimited by the characteristic points and to considering that each characteristic point acts on tetrahedral regions, which constitute its zone of influence, as well as on all the vertices which belong to this zone.

Pour cela, on définit un maillage réduit 52 du masque neutre. Ce maillage réduit est un maillage à facettes triangulaires qui ne contient que les points caractéristiques en tant que sommets. Il est représenté partiellement à la figure 8, sur laquelle les points pleins P sont 25 des points caractéristiques et les points vides S sont des sommets du masque neutre autres que les points caractéristiques. Le maillage réduit  For this, a reduced mesh 52 of the neutral mask is defined. This reduced mesh is a triangular faceted mesh which contains only the characteristic points as vertices. It is partially shown in FIG. 8, in which the solid points P are characteristic points and the empty points S are vertices of the neutral mask other than the characteristic points. The reduced mesh

52 sert à définir la zone d'influence de chaque point caractéristique.  52 is used to define the zone of influence of each characteristic point.

Pour chacune des directions de projection, on calcule les images projetées des sommets S sur les facettes du maillage réduit. Pour 30 chacune des directions de projection, chaque sommet S est ainsi considéré dans la zone d'influence de trois points caractéristiques formant les sommets de la facette du maillage réduit sur laquelle ledit sommet se projette. En d'autres termes, la zone d'influence de chaque point caractéristique P s'étend à toutes les facettes du maillage réduit 35 dont ledit point caractéristique P forme un sommet et inclut tous les sommets S de la représentation tridimensionnelle qui se projettent sur  For each of the directions of projection, the images projected from the vertices S are calculated on the facets of the reduced mesh. For each of the directions of projection, each vertex S is thus considered in the zone of influence of three characteristic points forming the vertices of the facet of the reduced mesh on which said vertex is projected. In other words, the zone of influence of each characteristic point P extends to all the facets of the reduced mesh 35 whose said characteristic point P forms a vertex and includes all the vertices S of the three-dimensional representation which project onto

lesdites facettes. La figure 9 représente une partie du maillage réduit avec, hachurée, la zone d'influence 51 d'un point caractéristique central.  said facets. FIG. 9 represents a part of the reduced mesh with, hatched, the zone of influence 51 of a central characteristic point.

Lors de l'étape de déformation locale, pour chaque  During the local deformation step, for each

déplacement d'un point caractéristique lors de la première opération, on 5 déplace tous les sommets S appartenant à la zone d'influence dudit point caractéristique selon la direction de projection de la vue de face. Les figures 10 et 1 1 illustrent la manière dont ces déplacements sont réalisés.  displacement of a characteristic point during the first operation, all the vertices S belonging to the zone of influence of said characteristic point are displaced according to the projection direction of the front view. Figures 10 and 1 1 illustrate how these movements are made.

La figure 10 représente, en projection selon la direction de la vue de face, une facette du maillage réduit dont les sommets sont A, B 10 et C. S désigne un sommet du masque neutre qui appartient à la zone d'influence des points A, B et C selon la direction de projection de la vue de face. Lorsqu'on déplace le point caractéristique A jusqu'à la position A", représentée à la figure 11, on déplace le sommet S de manière à conserver les proportions du maillage initial. La nouvelle position S' du 15 sommet S est ainsi calculée de manière à conserver les rapports de distances suivants: AC'/AB = A"C"/A"B et,  FIG. 10 represents, in projection in the direction of the front view, a facet of the reduced mesh whose vertices are A, B 10 and C. S denotes a vertex of the neutral mask which belongs to the zone of influence of the points A , B and C according to the projection direction of the front view. When the characteristic point A is moved to the position A ", represented in FIG. 11, the vertex S is displaced so as to preserve the proportions of the initial mesh. The new position S 'of the vertex S is thus calculated from so as to keep the following distance ratios: AC '/ AB = A "C" / A "B and,

AB'/AC = A"B"/A"C.AB '/ AC = A "B" / A "C.

De la même manière, lors de la deuxième opération de 20 déformation, on déplace chaque sommet S qui n'est pas un point caractéristique à proportion des déplacements des points caractéristiques dans la zone d'influence desquels ledit sommet S se trouve selon la  In the same way, during the second deformation operation, each vertex S which is not a characteristic point is displaced in proportion to the displacements of the characteristic points in the zone of influence of which said vertex S is located according to the

deuxième direction de projection.second projection direction.

Selon une autre variante de réalisation de l'étape 50, pour le 25 déplacement des sommets du masque neutre 1 autres que les points caractéristiques, on effectue d'abord un repérage de chaque sommet S qui n'est pas un point caractéristique en utilisant un système de coordonnées de Sibson, tel que décrit dans Sibson R., " A vector identity for the Dirichlet Tesselation ", Math. Proc. pp 151-155, Cambridge 30 Philos. soc. (1980). Pour cela, on considère le maillage réduit décrit cidessus, en association avec une segmentation de l'espace définie par les  According to another alternative embodiment of step 50, for the displacement of the vertices of the neutral mask 1 other than the characteristic points, a location of each vertex S which is not a characteristic point is first performed using a Sibson coordinate system, as described in Sibson R., "A vector identity for the Dirichlet Tesselation", Math. Proc. pp 151-155, Cambridge 30 Philos. soc. (1980). For this, we consider the reduced mesh described above, in association with a segmentation of the space defined by the

sphères circonscrites aux tétraèdres délimités par ce maillage réduit.  spheres circumscribed to the tetrahedrons delimited by this reduced mesh.

La zone d'influence de chaque point caractéristique est alors définie comme la réunion des sphères circonscrites auxquelles ledit point 35 appartient. Pour chaque sommet S autre que les points caractéristiques, on définit les points caractéristiques qui sont ses voisins naturels comme étant les points caractéristiques de toutes les sphères circonscrites dans lesquelles ledit sommet S se trouve. En pratique, on détermine l'appartenance d'un sommet S à la zone d'influence d'un point caractéristique par projection selon chacune de directions définies par les images. Sur la figure 15, on a représenté en projection dans un plan deux facettes triangulaires {P1, P2, P4} et {P3, P2, P4} du maillage réduit et leurs cercles circonscrits respectifs 53 et 54. Le sommet p est à l'intérieur des deux cercles 53 et 54, ce qui montre que les points Pl à P4 10 sont les voisins naturels du sommet p, du moins pour cette direction de projection. Pour chaque point voisin P1 à P4, une coordonnée de Sibson respective /& à gu4 est attribuée au sommet p conformément aux formules: p=]i (/i Pi), dgi(=[(X-_X)2+(y-y)2]I /]j[(X-Xj)2+(y-yj)2]-l, O x et y sont des coordonnées cartésiennes du sommet p dans le plan, xi et yi étant les  The zone of influence of each characteristic point is then defined as the meeting of the circumscribed spheres to which said point 35 belongs. For each vertex S other than the characteristic points, the characteristic points which are its natural neighbors are defined as being the characteristic points of all the circumscribed spheres in which said vertex S is located. In practice, the membership of a vertex S is determined in the zone of influence of a characteristic point by projection along each of the directions defined by the images. In FIG. 15, two triangular facets {P1, P2, P4} and {P3, P2, P4} of the reduced mesh and their respective circumscribed circles 53 and 54 have been shown in projection in a plane. inside the two circles 53 and 54, which shows that the points Pl to P4 10 are the natural neighbors of the vertex p, at least for this direction of projection. For each neighboring point P1 to P4, a respective Sibson coordinate / & to gu4 is assigned to the vertex p according to the formulas: p =] i (/ i Pi), dgi (= [(X-_X) 2+ (yy) 2] I /] j [(X-Xj) 2+ (y-yj) 2] -l, O x and y are Cartesian coordinates of the vertex p in the plane, xi and yi being the

coordonnées cartésiennes du point caractéristique Pi.  Cartesian coordinates of the characteristic point Pi.

Par la suite, les déplacement des sommets autres que les points caractéristiques sont effectués en maintenant constantes toutes 20 leurs coordonnées de Sibson. Ces cordonnées sont naturelles en ce que l'influence d'un point caractéristique sur un sommet est d'autant plus grande que ce sommet est proche de ce point caractéristique. Ce faisant, lorsqu'un voisin naturel Pi du sommet p est déplacé d'une quantité vectorielle APi, le sommet p est déplacé de /i APi.. De ce fait, la 25 position finale p' du sommet p, par rapport à sa position d'origine Po dans le masque neutre 1, est:  Thereafter, the displacements of the vertices other than the characteristic points are carried out by keeping constant all their coordinates of Sibson. These coordinates are natural in that the influence of a characteristic point on a vertex is all the greater the closer this vertex is to this characteristic point. In so doing, when a natural neighbor Pi of the vertex p is displaced by a vector quantity APi, the vertex p is displaced by / i APi. Therefore, the final position p 'of the vertex p, with respect to its original position Po in the neutral mask 1, is:

P'=pO+Ei=î à4 (/1i APi).P '= pO + Ei = 1 to 4 (/ 1i APi).

Cette formule est valable aussi bien pour la représentation tridimensionnelle que pour la représentation plane obtenue dans chaque 30 projection. En variante, on pourrait déterminer l'appartenance d'un sommet à une zone d'influence directement par un calcul tridimensionnel. A l'issue de l'étape 50, on obtient une représentation tridimensionnelle spécifique du visage qui comporte le même nombre de 35 facettes que le masque neutre 1 fourni à l'étape 5 et dont la géométrie  This formula is valid both for the three-dimensional representation and for the plane representation obtained in each projection. As a variant, the membership of a vertex in an area of influence could be determined directly by a three-dimensional calculation. At the end of step 50, a specific three-dimensional representation of the face is obtained which has the same number of 35 facets as the neutral mask 1 supplied in step 5 and whose geometry

tridimensionnelle a été mise en concordance avec les deux images.  three-dimensional has been reconciled with the two images.

L'invention n'est pas limitée à un choix particulier des  The invention is not limited to a particular choice of

points caractéristiques. Il est important de sélectionner comme points caractéristiques les sommets les plus pertinents pour décrire la géométrie d'un visage, c'est-à-dire ceux o l'inflexion de la surface du visage est la 5 plus prononcée. Le choix mentionné à l'étape 5 répond à cette exigence.  characteristic points. It is important to select as characteristic points the most relevant vertices to describe the geometry of a face, that is to say those where the inflection of the face surface is the most pronounced. The choice mentioned in step 5 meets this requirement.

Il est bien sr possible de choisir d'avantage de points caractéristiques, pour obtenir une meilleure ressemblance entre la représentation spécifique finale et le visage représenté sur les images. Inversement, selon les applications ultérieures de la représentation tridimensionnelle 10 spécifique obtenue, un plus petit nombre de points caractéristique peut être suffisant si l'on peut se contenter d'une représentation finale plus approximative. A l'étape 60, on applique une texture sur la représentation  It is of course possible to choose more characteristic points, to obtain a better resemblance between the specific final representation and the face represented on the images. Conversely, depending on the subsequent applications of the specific three-dimensional representation obtained, a smaller number of characteristic points may be sufficient if one can be satisfied with a more approximate final representation. In step 60, we apply a texture to the representation

tridimensionnelle spécifique obtenue. Trois modes de réalisation de cette 15 étape sont proposés.  specific three-dimensional obtained. Three embodiments of this step are proposed.

Dans le premier mode de réalisation de l'étape 60, on considère la partie de l'image en vue de face délimitée par le contour 21b. Cette partie d'image 61 est représentée schématiquement à la figure 12A. Elle représente le visage lui-même. On dilate virtuellement cette 20 partie d'image 61, comme indiqué par les flèches 62, jusqu'à obtenir une image carrée 63, représentée schématiquement à la figure 12B. La figure 13 représente un exemple de résultat de cette opération. On associe ensuite une texture aux facettes de la représentation tridimensionnelle  In the first embodiment of step 60, the part of the image in front view delimited by the contour 21b is considered. This image part 61 is shown diagrammatically in FIG. 12A. It represents the face itself. This image portion 61 is virtually expanded, as indicated by the arrows 62, until a square image 63, shown schematically in Figure 12B, is obtained. Figure 13 shows an example of the result of this operation. We then associate a texture with the facets of the three-dimensional representation

spécifique en projetant l'image 63 sur celle-ci.  specific by projecting image 63 onto it.

Dans le deuxième mode de réalisation de l'étape 60, on effectue une étape de calibrage colorimétrique des images, afin que les zones du visage apparaissant dans les deux images présentent une texture semblable (couleur, luminosité) dans les deux images. Puis, comme visible à la figure 14, on sépare l'image en vue de face 66 en trois parties 30 délimitées par deux lignes 64 passant par un coin de la bouche et un bord externe d'oeil. On associe par projection la partie centrale 65 de l'image en vue de face aux facettes correspondantes de la représentation tridimensionnelle spécifique. On sépare l'image en vue de profil de la même manière par une ligne passant par le coin de la bouche et le bord 35 externe d'oeil et on associe par projection la partie arrière de l'image en vue de profil aux facettes des deux côtés de la représentation  In the second embodiment of step 60, a colorimetric calibration step of the images is carried out, so that the areas of the face appearing in the two images have a similar texture (color, brightness) in the two images. Then, as visible in FIG. 14, the front view image 66 is separated into three parts 30 delimited by two lines 64 passing through a corner of the mouth and an external edge of the eye. The central part 65 of the image in front view is associated by projection with the corresponding facets of the specific three-dimensional representation. The image in profile view is separated in the same way by a line passing through the corner of the mouth and the outer edge of the eye and the rear part of the image in profile view is associated with the facets of the two sides of the representation

tridimensionnelle du visage, par symétrie.  three-dimensional face, by symmetry.

Selon une variante préférée, l'étape 60 est entièrement réalisée selon un mode symétrique par rapport à un plan vertical médian du visage. Dans le troisième mode de réalisation de l'étape 60, on  According to a preferred variant, step 60 is entirely carried out in a symmetrical fashion with respect to a median vertical plane of the face. In the third embodiment of step 60, we

procède en quatre sous-étapes consistant à déformer les deux images bidimensionnelles, superposer les images ainsi déformées, fusionner les images ainsi superposées et appliquer l'image résultant de la fusion sur 10 la représentation tridimensionnelle spécifique.  proceeds in four sub-steps consisting in deforming the two two-dimensional images, superimposing the images thus distorted, merging the images thus superimposed and applying the image resulting from the fusion onto the specific three-dimensional representation.

Pour la première sous-étape, on assimile approximativement le visage représenté sur les images bidimensionnelles à un cylindre, dont le diamètre 2R est connu d'après la largeur apparente du visage sur l'image correspondante. Puis on déforme l'image en vue de face et 15 l'image en vue de profil de manière à obtenir les images qui résulteraient  For the first sub-step, the face represented on the two-dimensional images is roughly assimilated to a cylinder, the diameter 2R of which is known from the apparent width of the face on the corresponding image. Then the image in front view and the image in side view are distorted so as to obtain the resulting images.

si on déroulait la surface extérieure cylindrique du visage. Cette opération revient à dilater latéralement les images d'un facteur 7r/2 4, 57.  if we rolled out the cylindrical outer surface of the face. This operation amounts to laterally expanding the images by a factor of 7r / 2 4.57.

Dans cette déformation, la dilatation latérale est amplifiée sur les bords latéraux de l'image et atténuée au milieu de l'image. En fait, la 20 coordonnée latérale x des pixels, mesurée par rapport au milieu de l'image, est modifiée d'après la transformation:  In this deformation, the lateral dilation is amplified on the lateral edges of the image and attenuated in the middle of the image. In fact, the lateral x coordinate of the pixels, measured relative to the middle of the image, is modified according to the transformation:

x'=R Arcsin(x/R), o x' est la cordonnée latérale dans l'image déformée.  x '= R Arcsin (x / R), where x' is the lateral coordinates in the distorted image.

La figure 16 représente une image en vue de profil ainsi déformée.  FIG. 16 represents a profile view image thus deformed.

Dans la deuxième sous-étape, l'image en vue de profil est 25 symétrisée pour former une vue selon l'autre profil, à moins d'utiliser réellement une troisième image représentant l'autre profil du visage. Puis les images représentant respectivement la face et les deux profils du visage sont partiellement superposées. Pour cela, on identifie le ou les point(s) de chaque image correspondant(s) au lobe inférieur de chaque 30 oreille. Par exemple, l'identification de ce point a été effectuée lors de l'étape 20 sur la vue de face et lors de l'étape 40 sur la vue de profil. On superpose les trois images en faisant concider les points de la vue de face correspondants respectivement aux deux oreilles avec les points  In the second substep, the profile view image is symmetrized to form a view according to the other profile, unless actually using a third image representing the other profile of the face. Then the images respectively representing the face and the two profiles of the face are partially superimposed. For this, the point or points of each image corresponding to the lower lobe of each ear are identified. For example, the identification of this point was carried out during step 20 on the front view and during step 40 on the profile view. The three images are superimposed by making the points of the front view corresponding respectively to the two ears coincide with the points

correspondants sur les deux vues de profil respectives.  corresponding on the two respective profile views.

Dans la troisième sous-étape, on attribue un coefficient de pondération local à chaque pixel de chacune des images superposées. Ce  In the third sub-step, a local weighting coefficient is assigned to each pixel of each of the superimposed images. This

coefficient de pondération est choisi égal à 0 lorsque le pixel présente la couleur de l'arrière-plan, c'est-à-dire qu'il ne représente pas un point du visage ou de la tête. Lorsque le pixel ne présente pas la couleur de l'arrière-plan, on lui attribue un coefficient de pondération d'autant plus 5 petit que le taux de déformation de l'image au niveau de ce pixel est élevé, ce taux de déformation étant défini par x'/x=(x'/R) /Sin(x'/R).  weighting coefficient is chosen equal to 0 when the pixel presents the color of the background, that is to say that it does not represent a point of the face or of the head. When the pixel does not have the background color, it is assigned a weighting coefficient which is all the smaller when the image distortion rate at this pixel is high, this distortion rate being defined by x '/ x = (x' / R) / Sin (x '/ R).

En d'autres termes, le coefficient de pondération d'un pixel est d'autant plus élevé que l'image a été peu déformée au niveau de ce pixel lors de la première sous-étape. Par exemple, le coefficient de 10 pondération du pixel est choisi proportionnel à Cos(x'/R) ou  In other words, the weighting coefficient of a pixel is all the higher when the image has been slightly deformed at the level of this pixel during the first substep. For example, the pixel weighting coefficient is chosen proportional to Cos (x '/ R) or

proportionnel à Sin(x'/R)/(x'/R).proportional to Sin (x '/ R) / (x' / R).

Puis on fusionne les images superposées en une nouvelle image représentant tout le visage sous la forme d'un planisphère, c'est-àdire représentant en fait toute la tête vue sur sensiblement 360 . Dans 15 l'image de fusion, chaque pixel présente une couleur qui est une moyenne des couleurs des pixels des images qui se superposent à cet endroit, ladite moyenne étant pondérée à l'aide des coefficients de pondération susmentionnés. La figure 17 représente un exemple d'image  Then the superimposed images are merged into a new image representing the whole face in the form of a planisphere, that is to say representing in fact the whole head seen on substantially 360. In the merge image, each pixel has a color which is an average of the colors of the pixels of the images which overlap at that location, said average being weighted using the aforementioned weighting coefficients. Figure 17 shows an example image

de fusion ainsi obtenue.thus obtained.

Enfin, dans la quatrième sous-étape, l'image de fusion est appliquée sur les facettes de la représentation tridimensionnelle spécifique, en se servant de l'extrémité du nez comme point de référence pour assurer le positionnement correct de l'image fusionnée par rapport à la représentation tridimensionnelle. Pour réaliser cette sous-étape, on 25 utilise une méthode de texturation classique, comme décrite par exemple dans Paul S. Heckbert, " Survey of texture mapping ", IEEE Computer Graphies and Applications, pp 56-57 (Novembre 1986). La figure 18  Finally, in the fourth sub-step, the fusion image is applied to the facets of the specific three-dimensional representation, using the tip of the nose as a reference point to ensure the correct positioning of the merged image with respect to to three-dimensional representation. To carry out this sub-step, a conventional texturing method is used, as described for example in Paul S. Heckbert, "Survey of texture mapping", IEEE Computer Graphies and Applications, pp 56-57 (November 1986). Figure 18

représente un exemple du résultat ainsi obtenu.  represents an example of the result thus obtained.

A l'issue de l'étape 60, on obtient une image 30 tridimensionnelle texturée du visage, qui peut être utilisée dans des applications diverses comme les jeux vidéo et les télécommunications vidéo. Dans le mode de réalisation préféré, le procédé décrit cidessus est mis en oeuvre par un micro-ordinateur muni d'une carte 35 graphique et programmé au moyen d'un programme d'ordinateur en un ou plusieurs modules, dont l'écriture relève des compétence de l'homme  At the end of step 60, a textured three-dimensional image of the face is obtained, which can be used in various applications such as video games and video telecommunications. In the preferred embodiment, the process described above is implemented by a microcomputer provided with a graphics card and programmed by means of a computer program in one or more modules, the writing of which is human skill

du métier.of career.

Les modes de réalisation de l'invention ayant été décrits dans le cadre particulier de la représentation tridimensionnelle d'un 5 visage humain, l'invention concerne cependant aussi la représentation tridimensionnelle de tout type d'objet pour lequel une représentation générique peut être fournie, par exemple des créations humaines, des  The embodiments of the invention having been described in the particular context of the three-dimensional representation of a human face, the invention however also relates to the three-dimensional representation of any type of object for which a generic representation can be provided, for example human creations,

animaux, des végétaux et autres objets.  animals, plants and other objects.

Bien que l'invention ait été décrite en liaison avec plusieurs 10 modes de réalisation particuliers, il est bien évident qu'elle n'y est nullement limitée et qu'elle comprend tous les équivalents techniques des moyens décrits ainsi que leurs combinaisons si celles-ci entrent dans le  Although the invention has been described in connection with several particular embodiments, it is obvious that it is in no way limited thereto and that it includes all the technical equivalents of the means described as well as their combinations if these these enter the

cadre de l'invention.part of the invention.

Claims (14)

REVENDICATIONS 1. Procédé pour engendrer une représentation tridimensionnelle d'un objet. appartenant à un genre d'objets prédéterminé, notamment les visages humains, à partir d'au moins deux 5 images bidimensionnelles dudit objet, comportant les étapes consistant à: mettre à disposition (5) une représentation tridimensionnelle générique (1) dudit objet, ladite représentation générique comprenant une pluralité de sommets définissant un maillage dudit objet, mettre à disposition (10) une première image bidimensionnelle dudit objet vu selon une première direction de projection et une deuxième image bidimensionnelle dudit objet vu selon une deuxième direction de projection, déformer ladite représentation tridimensionnelle générique pour obtenir 15 une représentation tridimensionnelle spécifique de l'objet, caractérisé par le fait qu'il comporte les étapes consistant à: sélectionner une pluralité de points caractéristiques (P) parmi lesdits sommets, identifier un premier ensemble composé de ceux desdits points 20 caractéristiques qui sont visibles selon ladite première direction de projection, pour chaque point caractéristique appartenant audit premier ensemble, identifier (20, 40) un point analogue (Vi) dans ladite première image, identifier un deuxième ensemble formé de ceux desdits points 25 caractéristiques qui sont visibles selon ladite deuxième direction de projection, pour chaque point caractéristique appartenant audit deuxième ensemble, identifier (20, 40) un point analogue (Vi) dans ladite deuxième image, ladite étape de déformation (50) comprenant un déplacement desdits 30 points caractéristiques de manière à: pour chaque point caractéristique (P) appartenant audit premier ensemble, faire concider une projection selon la première direction dudit point caractéristique avec ledit point analogue (Vi), pour chaque point caractéristique (P) appartenant audit deuxième 35 ensemble, faire concider une projection selon la deuxième direction dudit point caractéristique avec ledit point analogue (Vi), ladite étape de déformation (50) comprenant un déplacement de chaque sommet (S) de ladite représentation générique qui n'est pas un point caractéristique en fonction des déplacements des points caractéristiques  1. Method for generating a three-dimensional representation of an object. belonging to a kind of predetermined object, in particular human faces, from at least two two-dimensional images of said object, comprising the steps consisting in: making available (5) a generic three-dimensional representation (1) of said object, said generic representation comprising a plurality of vertices defining a mesh of said object, making available (10) a first two-dimensional image of said object seen in a first projection direction and a second two-dimensional image of said object seen in a second projection direction, deforming said representation generic three-dimensional to obtain a specific three-dimensional representation of the object, characterized in that it comprises the steps consisting in: selecting a plurality of characteristic points (P) from said vertices, identifying a first set composed of those of said points 20 characteristics which are screw ibles according to said first direction of projection, for each characteristic point belonging to said first set, identify (20, 40) an analogous point (Vi) in said first image, identify a second set formed of those of said characteristic points which are visible according to said second direction of projection, for each characteristic point belonging to said second set, identifying (20, 40) an analogous point (Vi) in said second image, said deformation step (50) comprising a displacement of said 30 characteristic points so as to: each characteristic point (P) belonging to said first set, reconciling a projection in the first direction of said characteristic point with said analogous point (Vi), for each characteristic point (P) belonging to said second set, reconciling a projection according to the second direction of said characteristic point with said analog point (Vi), said deformation step (50) comprising a displacement of each vertex (S) of said generic representation which is not a characteristic point as a function of the displacements of the characteristic points (A, B, C) qui sont voisins dudit sommet.  (A, B, C) which are neighbors of said vertex. 2. Procédé selon la revendication 1, caractérisé par le fait qu'il comporte les étapes consistant à: définir un maillage réduit (52) dudit objet, lesdits points caractéristiques (P) formant les sommets dudit maillage réduit, pour chacun des points caractéristiques, définir une zone d'influence 10 (51) comprenant l'ensemble des facettes dudit maillage réduit dont ledit point caractéristique est un sommet,  2. Method according to claim 1, characterized in that it comprises the steps consisting in: defining a reduced mesh (52) of said object, said characteristic points (P) forming the vertices of said reduced mesh, for each of the characteristic points, defining an area of influence 10 (51) comprising all of the facets of said reduced mesh whose said characteristic point is a vertex, tout sommet (S) de ladite représentation générique qui n'est pas un point caractéristique étant déplacé, dans ladite étape de déformation, à proportion des déplacements de tout point caractéristique à la zone 15 d'influence duquel ledit sommet appartient.  any vertex (S) of said generic representation which is not a characteristic point being displaced, in said deformation step, in proportion to the displacements of any characteristic point in the zone of influence to which said vertex belongs. 3. Procédé selon la revendication 2, caractérisé par le fait que l'appartenance d'un sommet (S) à la zone d'influence d'un point caractéristique (A) est déterminée, pour chacune des directions de projection, par projection dudit sommet sur des facettes triangulaires 20 dudit maillage réduit selon la direction de projection correspondante, ou  3. Method according to claim 2, characterized in that the belonging of a vertex (S) to the zone of influence of a characteristic point (A) is determined, for each of the directions of projection, by projection of said vertex on triangular facets 20 of said reduced mesh in the corresponding projection direction, or par projection sur des cercles circonscrits auxdites facettes.  by projection on circles circumscribed to said facets. 4. Procédé selon l'une des revendications 1 à 3,  4. Method according to one of claims 1 to 3, caractérisé par le fait qu'on identifie les points (Vi) de ladite première image et/ou de ladite deuxième image qui sont analogues aux points 25 caractéristiques du premier et/ou du deuxième ensemble par détection des points de l'image pour lesquels une propriété colorimétrique présente  characterized by the fact that the points (Vi) of said first image and / or of said second image are identified which are analogous to the characteristic points of the first and / or of the second set by detection of the points of the image for which a color property present un gradient maximal.a maximum gradient. 5. Procédé selon la revendication 4, caractérisé par le fait que ladite propriété colorimétrique est choisie parmi un niveau de 30 gris, un niveau de rouge, un niveau de bleu, un niveau de vert des pixels  5. Method according to claim 4, characterized in that the said colorimetric property is chosen from a gray level, a red level, a blue level, a pixel green level de l'image et une combinaison d'au moins certains desdits niveaux.  of the image and a combination of at least some of said levels. 6. Procédé selon l'une des revendications 1 à 5,  6. Method according to one of claims 1 to 5, caractérisé par le fait que l'étape d'identification des points desdites images qui sont analogues aux points caractéristiques du premier et/ou 35 du deuxième ensemble est effectuée de manière itérative en déplaçant des points d'approximation (Vi) dans lesdites images à partir de positions initiales (21a), déterminées en fonction de formes et proportions  characterized in that the step of identifying the points of said images which are analogous to the characteristic points of the first and / or 35 of the second set is carried out iteratively by moving approximation points (Vi) in said images from initial positions (21a), determined according to shapes and proportions génériques connues dudit objet.known generics of said object. 7. Procédé selon la revendication 6, caractérisé par le fait que lesdits points d'approximation forment au moins une ligne brisée 5 (21a, 21b, 41, 42, 43) qui se déforme au cours des déplacements desdits points d'approximation sous des conditions de régularité géométrique prescrites, par exemple une distance minimale entre deux points  7. Method according to claim 6, characterized in that the said approximation points form at least one broken line 5 (21a, 21b, 41, 42, 43) which deforms during the displacements of the said approximation points under prescribed geometric regularity conditions, for example a minimum distance between two points successifs de ladite ligne brisée.successive of said broken line. 8. Procédé selon la revendication 7, caractérisé par le 10 fait que l'on déforme ladite ligne brisée en tendant à minimiser une énerg e interne Eint de ladite ligne brisée définie par: Eint=,i (o Il Vi - Vi- l +i| Vi+ i -2Vi + V-,II), o a et / désignent des paramètres réels prédéterminés, Vi désigne le vecteur position d'un point de ladite ligne brisée, Il. I désigne une norme 15 vectorielle et la somme est étendue à tous les points de ladite ligne brisée.  8. Method according to claim 7, characterized in that one deforms said broken line by tending to minimize an internal energy Eint of said broken line defined by: Eint =, i (o Il Vi - Vi- l + i | Vi + i -2Vi + V-, II), oa and / denote predetermined real parameters, Vi denotes the vector position of a point of said broken line, Il. I denotes a vector norm and the sum is extended to all the points of said broken line. 9. Procédé selon l'une des revendications 1 à 8,  9. Method according to one of claims 1 to 8, caractérisé par le fait que ledit genre d'objet inclut des visages humains, lesdits points caractéristiques comprenant des points (41) du contour des 20 yeux, des points (43) du contour de la bouche, des points (42) du contour du nez et des points (2 lb) du contour du visage, lesdites images comprenant une projection plane en vue de face d'un visage et une  characterized by the fact that said kind of object includes human faces, said characteristic points comprising points (41) around the eyes, points (43) around the mouth, points (42) around the nose and points (2 lb) of the contour of the face, said images comprising a planar projection in front view of a face and a projection plane en vue de profil dudit visage.  flat projection in profile view of said face. 10. Procédé selon la revendication 9, caractérisé par le 25 fait qu'il comporte une étape (60) de texturation de ladite représentation tridimensionnelle spécifique de l'objet, consistant à dilater (62) une partie (61) de l'image en vue de face qui représente le visage et à associer par projection la texture de ladite partie d'image dilatée (63) à l'ensemble des facettes de la représentation tridimensionnelle du visage. 30  10. Method according to claim 9, characterized in that it comprises a step (60) of texturing said specific three-dimensional representation of the object, consisting in expanding (62) a part (61) of the image in front view which represents the face and to associate by projection the texture of said expanded image part (63) with all the facets of the three-dimensional representation of the face. 30 11. Procédé selon la revendication 9, caractérisé par le fait qu'il comporte une étape (60) de texturation de ladite représentation tridimensionnelle spécifique de l'objet, consistant à associer au moins la texture d'une partie centrale (65) de l'image en vue de face à une partie centrale de la représentation tridimensionnelle du visage et à associer au 35 moins la texture d'une partie centrale de l'image en vue de profil à au moins une partie latérale de la représentation tridimensionnelle du visage.11. Method according to claim 9, characterized in that it comprises a step (60) of texturing said specific three-dimensional representation of the object, consisting in associating at least the texture of a central part (65) of the image in front view with a central part of the three-dimensional representation of the face and associating at least the texture of a central part of the image in profile view with at least one lateral part of the three-dimensional representation of the face. 12. Procédé selon la revendication 11, caractérisé par le fait que ladite étape de texturation (60) comporte les opérations consistant à: déformer l'image en vue de face et l'image en vue de profil de manière à obtenir les images qui résulteraient si le visage présentait une surface extérieure cylindrique que l'on déroulait, superposer lesdites images déformées de manière à faire concider des 10 points correspondants dans lesdites images, fusionner lesdites images superposées en une image fusionnée dans laquelle au moins certains pixels ont une couleur résultant d'une moyenne pondérée des couleurs des pixels desdites images qui se superposent, appliquer l'image fusionnée sur la représentation tridimensionnelle spécifique.12. Method according to claim 11, characterized in that said texturing step (60) comprises the operations consisting in: deforming the image in front view and the image in profile view so as to obtain the images which would result if the face had a cylindrical outer surface which was unrolled, superimpose said distorted images so as to make the corresponding 10 points coincide in said images, merge said superimposed images into a merged image in which at least some pixels have a color resulting from 'a weighted average of the colors of the pixels of said overlapping images, applying the merged image to the specific three-dimensional representation. 13. Procédé selon la revendication 12, caractérisé par le fait que ladite moyenne pondérée est calculée en pondérant chacun desdits pixels qui se superposent à l'aide d'un coefficient de pondération 20 respectif, ledit coefficient étant d'autant plus grand que la déformation subie par l'image à laquelle appartient ledit pixel lors de ladite opération13. The method according to claim 12, characterized in that said weighted average is calculated by weighting each of said pixels which are superimposed using a respective weighting coefficient, said coefficient being all the greater as the deformation undergone by the image to which said pixel belongs during said operation de déformation est faible au niveau dudit pixel.  deformation is low at said pixel. 14. Dispositif pour engendrer une représentation tridimensionnelle d'un objet appartenant à un genre d'objets 25 prédéterminé à partir d'au moins deux images bidimensionnelles dudit objet, comportant: un moyen pour mettre à disposition (5) une représentation tridimensionnelle générique (1) dudit objet, ladite représentation générique comprenant une pluralité de sommets définissant un maillage 30 dudit objet, un moyen pour mettre à disposition (10) une première image bidimensionnelle dudit objet vu selon une première direction de projection et un moyen pour mettre à disposition une deuxième image bidimensionnelle dudit objet vu selon une deuxième direction de 35 projection, des moyens de déformation pour déformer (50) ladite représentation tridimensionnelle générique afin d'obtenir ladite représentation tridimensionnelle de l'objet, caractérisé par le fait qu'il comporte: un moyen pour sélectionner une pluralité de points caractéristiques (P) parmi lesdits sommets, un moyen pour identifier un premier ensemble composé de ceux desdits points caractéristiques qui sont visibles selon ladite première direction de projection, un moyen pour identifier (20, 40) un point analogue (Vi) de chaque point caractéristique appartenant audit premier ensemble dans ladite première 10 image, un moyen pour identifier un deuxième ensemble formé de ceux desdits points caractéristiques qui sont visibles selon ladite deuxième direction de projection, un moyen pour identifier (20, 40) un point analogue (Vi) de chaque point 15 caractéristique appartenant audit deuxième ensemble dans ladite deuxième image, lesdits moyens de déformation comportant un moyen de déplacement des points caractéristiques pour déplacer lesdits points caractéristiques de manière à: pour chaque point caractéristique (P) appartenant audit premier ensemble, faire concider une projection selon la première direction dudit point caractéristique avec ledit point analogue (Vy), pour chaque point caractéristique (P) appartenant audit deuxième ensemble, faire concider une projection selon la deuxième direction 25 dudit point caractéristique avec ledit point analogue (Vi),  14. Device for generating a three-dimensional representation of an object belonging to a kind of predetermined object from at least two two-dimensional images of said object, comprising: means for making available (5) a generic three-dimensional representation (1 ) of said object, said generic representation comprising a plurality of vertices defining a mesh 30 of said object, means for making available (10) a first two-dimensional image of said object seen in a first direction of projection and means for making available a second two-dimensional image of said object seen in a second direction of projection, deformation means for deforming (50) said generic three-dimensional representation in order to obtain said three-dimensional representation of the object, characterized in that it comprises: means for select a plurality of characteristic points (P) from the said s vertices, means for identifying a first set composed of those of said characteristic points which are visible in said first direction of projection, means for identifying (20, 40) an analogous point (Vi) of each characteristic point belonging to said first set in said first image, means for identifying a second set formed of those of said characteristic points which are visible in said second direction of projection, means for identifying (20, 40) an analogous point (Vi) of each characteristic point belonging to said second set in said second image, said deformation means comprising means for moving the characteristic points to move said characteristic points so as to: for each characteristic point (P) belonging to said first set, make a projection in the first direction of said point coincide characteristic with said analog point (V y), for each characteristic point (P) belonging to said second set, making a projection in the second direction 25 of said characteristic point reconcile with said analogous point (Vi), lesdits moyens de déformation comportant un moyen de déplacement des autres sommets pour déplacer chaque sommet (S) de ladite représentation générique qui n'est pas un point caractéristique en fonction des déplacements des points caractéristiques (A, B, C) qui sont 30 voisins dudit sommet.  said deformation means comprising means for moving the other vertices to move each vertex (S) of said generic representation which is not a characteristic point as a function of the displacements of the characteristic points (A, B, C) which are neighbors of said Mountain peak.
FR0210135A 2002-08-09 2002-08-09 3D representation method, especially for representation of a human face, whereby a plurality of characteristic points is selected on a 3D-face representation and then matched with image points from corresponding images Withdrawn FR2843472A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR0210135A FR2843472A1 (en) 2002-08-09 2002-08-09 3D representation method, especially for representation of a human face, whereby a plurality of characteristic points is selected on a 3D-face representation and then matched with image points from corresponding images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0210135A FR2843472A1 (en) 2002-08-09 2002-08-09 3D representation method, especially for representation of a human face, whereby a plurality of characteristic points is selected on a 3D-face representation and then matched with image points from corresponding images

Publications (1)

Publication Number Publication Date
FR2843472A1 true FR2843472A1 (en) 2004-02-13

Family

ID=30471035

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0210135A Withdrawn FR2843472A1 (en) 2002-08-09 2002-08-09 3D representation method, especially for representation of a human face, whereby a plurality of characteristic points is selected on a 3D-face representation and then matched with image points from corresponding images

Country Status (1)

Country Link
FR (1) FR2843472A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103984920A (en) * 2014-04-25 2014-08-13 同济大学 Three-dimensional face identification method based on sparse representation and multiple feature points

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999015945A2 (en) * 1997-09-23 1999-04-01 Enroute, Inc. Generating three-dimensional models of objects defined by two-dimensional image data
WO2001063560A1 (en) * 2000-02-22 2001-08-30 Digimask Limited 3d game avatar using physical characteristics
US20020106114A1 (en) * 2000-12-01 2002-08-08 Jie Yan System and method for face recognition using synthesized training images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999015945A2 (en) * 1997-09-23 1999-04-01 Enroute, Inc. Generating three-dimensional models of objects defined by two-dimensional image data
WO2001063560A1 (en) * 2000-02-22 2001-08-30 Digimask Limited 3d game avatar using physical characteristics
US20020106114A1 (en) * 2000-12-01 2002-08-08 Jie Yan System and method for face recognition using synthesized training images

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
REINDERS M J T ET AL: "Facial feature localization and adaptation of a generic face model for model-based coding", SIGNAL PROCESSING. IMAGE COMMUNICATION, ELSEVIER SCIENCE PUBLISHERS, AMSTERDAM, NL, vol. 7, no. 1, 1 March 1995 (1995-03-01), pages 57 - 74, XP004047121, ISSN: 0923-5965 *
SEDERBERG T W ET AL: "FREE-FORM DEFORMATION OF SOLID GEOMETRIC MODELS", COMPUTER GRAPHICS, NEW YORK, NY, US, vol. 20, no. 4, 18 August 1986 (1986-08-18), pages 151 - 160, XP008014019, ISSN: 0097-8930 *
TAKAAKI AKIMOTO ET AL: "3D FACIAL MODEL CREATION USING GENERIC MODEL AND FRONT AND SIDE VIEWS OF FACE", IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS, INSTITUTE OF ELECTRONICS INFORMATION AND COMM. ENG. TOKYO, JP, vol. E75 - D, no. 2, 1 March 1992 (1992-03-01), pages 191 - 197, XP000301166, ISSN: 0916-8532 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103984920A (en) * 2014-04-25 2014-08-13 同济大学 Three-dimensional face identification method based on sparse representation and multiple feature points
CN103984920B (en) * 2014-04-25 2017-04-12 同济大学 Three-dimensional face identification method based on sparse representation and multiple feature points

Similar Documents

Publication Publication Date Title
EP2526510B2 (en) Augmented reality method applied to the integration of a pair of spectacles into an image of a face
US11854070B2 (en) Generating virtual makeup products
EP3479344B1 (en) Method for concealing an object in an image or a video and associated augmented reality method
EP3213293B1 (en) Control of dentition
CN109697688A (en) A kind of method and apparatus for image procossing
US8675105B2 (en) Learning of image processing pipeline for digital imaging devices
US9317970B2 (en) Coupled reconstruction of hair and skin
EP1292921B1 (en) Refinement of a three-dimensional triangular mesh
EP1372109A2 (en) Method and system for enhancing portrait images
CA2667526A1 (en) Method and device for the virtual simulation of a sequence of video images
EP1453002A2 (en) Enhancing portrait images that are processed in a batch mode
US10217275B2 (en) Methods and systems of performing eye reconstruction using a parametric model
US10217265B2 (en) Methods and systems of generating a parametric eye model
FR3051951A1 (en) METHOD FOR PRODUCING A DEFORMABLE MODEL IN THREE DIMENSIONS OF AN ELEMENT, AND SYSTEM THEREOF
Aliaga et al. A virtual restoration stage for real-world objects
WO2021250091A1 (en) Method for automatic segmentation of a dental arch
EP4162448A1 (en) Method and device for three-dimensional reconstruction of a face with toothed portion from a single image
FR2843472A1 (en) 3D representation method, especially for representation of a human face, whereby a plurality of characteristic points is selected on a 3D-face representation and then matched with image points from corresponding images
EP3633625B1 (en) Method for texturing a 3d model
FR3066304A1 (en) METHOD OF COMPOSING AN IMAGE OF AN IMMERSION USER IN A VIRTUAL SCENE, DEVICE, TERMINAL EQUIPMENT, VIRTUAL REALITY SYSTEM AND COMPUTER PROGRAM
WO2021245290A1 (en) Generation of full-scale 3d models from 2d images produced by a single-eye imaging device
FR2920938A1 (en) Image simulating method for beauty industry, involves deforming parametric models to adapt to contours of features on face, and detecting and analyzing cutaneous structure of areas of face by maximizing gradient flow of brightness
EP4165591B1 (en) Correction of a halo in a digital image and device for implementing said correction
FR3129816A1 (en) LIP MODELING FROM 2D AND 3D IMAGES
Weyrich Acquisition of human faces using a measurement-based skin reflectance model

Legal Events

Date Code Title Description
ST Notification of lapse