FR2996996A1 - Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients - Google Patents
Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients Download PDFInfo
- Publication number
- FR2996996A1 FR2996996A1 FR1260089A FR1260089A FR2996996A1 FR 2996996 A1 FR2996996 A1 FR 2996996A1 FR 1260089 A FR1260089 A FR 1260089A FR 1260089 A FR1260089 A FR 1260089A FR 2996996 A1 FR2996996 A1 FR 2996996A1
- Authority
- FR
- France
- Prior art keywords
- face
- image
- cosmetic product
- blank
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D44/005—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D2044/007—Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
Abstract
Description
L'invention concerne le domaine de l'évaluation d'effets et de pratiques cosmétiques. Elle concerne plus particulièrement un dispositif et une méthode permettant d'évaluer les effets d'un produit cosmétique, 5 et de modéliser son effet sur un visage donné. Les effets cosmétiques sont liés à une interaction de la lumière et de la peau. Les traitements cosmétiques modifient l'apparence en intervenant sur cette interaction lumière-peau. La peau est un matériau biologique ayant des propriétés optiques 10 spécifiques Elle diffuse la lumière dans son épaisseur avant d'en réfléchir une partie en donnant à la peau sa couleur et sa transparence. Cette interaction lumière-peau est appelée translucidité de la peau. En cosmétique il y a deux aspects que l'oeil humain n'évalue 15 que de façon très subjective et que l'on ne sait pas quantifier objectivement, ce sont un « teint éclatant », et un « teint de porcelaine », ou encore évanescent. Les inventeurs se sont focalisés sur le second, de manière à pouvoir évaluer l'effet de produits cosmétiques sur la 20 translucidité de la peau. Les dispositifs connus utilisent un rayon laser (rayon focalisé) et procèdent par mesure par point : on regarde comment la lumière se diffuse autour de ce point, avec et sans maquillage. Cette solution n'est pas satisfaisante car on 25 procède par point et non sur une surface du visage, et parce que l'on travaille généralement dans des conditions contraignantes qui ne sont pas naturelles. La présente invention se propose de remédier à au moins une partie des inconvénients précités et propose une solution qui 30 permette une évaluation objective des modifications de translucidité de la peau. A cet effet, l'invention concerne un procédé d'évaluation des effets de l'application d'un produit cosmétique sur un visage, comprenant les étapes suivantes : a) acquisition d'une image 3D dudit visage éclairé par un dispositif de lumière structurée en lignes droites parallèles b) établissement d'un modèle 3D à partir de ladite image c) acquisition d'une image de texture dudit visage vierge, sans application de produit cosmétique, éclairé par un dispositif de lumière non structurée d) superposition de ladite image de texture et dudit modèle 3D e) évaluation quantitative des coefficients de diffusion et d'absorption du visage vierge et calcul du terme translucide du visage vierge, f) acquisition d'une image de texture dudit visage maquillé, ledit produit cosmétique lui étant appliqué, éclairé par un dispositif de lumière non structurée, g) superposition de ladite image de texture et dudit modèle 3D h) évaluation quantitative des coefficients de diffusion et d'absorption du visage maquillé et calcul du terme translucide du visage maquillé, Selon d'autres caractéristiques : les étapes c) et f) peuvent être effectuées en une seule acquisition d'image, ledit visage étant vierge sur une moitié de visage et maquillé, ledit produit cosmétique lui étant appliqué, sur l'autre moitié du visage et les étapes e) et h) sont effectuées en choisissant deux régions sensiblement symétriques du visage, l'une sur la moitié vierge, l'autre sur la moitié maquillée ; ainsi on peut réduire au minimum le nombre d'acquisitions d'images, les étapes c) et f) peuvent être effectuées en deux acquisitions d'image, ledit visage étant vierge sur l'une des image et maquillé, ledit produit cosmétique lui étant appliqué, sur l'autre image, les étapes e) et h) sont effectuées en choisissant deux régions positionnées au même endroit du visage, l'une sur l'image du visage vierge, l'autre sur l'image du visage maquillé ; ainsi on peut être plus précis du fait qu'on utilise le même endroit du visage, L'invention concerne également un procédé de simulation des effets de l'application d'un produit cosmétique sur un deuxième visage, comprenant un procédé d'évaluation des effets de l'application dudit produit cosmétique sur un premier visage selon l'invention, et comprenant en outre les étapes suivantes : acquisition d'une image 3D dudit deuxième visage éclairé par un dispositif de lumière structurée en lignes droites parallèles établissement d'un modèle 3D à partir de ladite image acquisition d'une image de texture dudit deuxième visage vierge, sans application de produit cosmétique, éclairé par un dispositif de lumière non structurée superposition de ladite image de texture et dudit modèle 3D soustraction du terme translucide du visage vierge calculé sur le premier visage ajout du terme translucide du visage maquillé calculé sur le premier visage.The invention relates to the field of evaluation of effects and cosmetic practices. It relates more particularly to a device and a method for evaluating the effects of a cosmetic product, and to modeling its effect on a given face. The cosmetic effects are related to an interaction of light and skin. Cosmetic treatments modify the appearance by intervening on this light-skin interaction. The skin is a biological material having specific optical properties. It diffuses the light in its thickness before reflecting some of it by giving the skin its color and its transparency. This light-skin interaction is called translucency of the skin. In cosmetics there are two aspects that the human eye only evaluates in a very subjective way and that we do not know how to quantify objectively, they are a "brilliant complexion" and a "porcelain complexion", or evanescent. The inventors have focused on the second, so as to be able to evaluate the effect of cosmetic products on the translucency of the skin. Known devices use a laser beam (focused beam) and proceed by measure by point: we look at how light diffuses around this point, with and without makeup. This solution is unsatisfactory because it is carried out by dot and not on a surface of the face, and because one generally works under restrictive conditions that are not natural. The present invention proposes to remedy at least some of the aforementioned drawbacks and proposes a solution which allows an objective evaluation of the translucency changes of the skin. For this purpose, the invention relates to a method for evaluating the effects of the application of a cosmetic product to a face, comprising the following steps: a) acquisition of a 3D image of said face illuminated by a structured light device in parallel straight lines b) establishment of a 3D model from said image c) acquisition of a texture image of said blank face, without application of cosmetic product, illuminated by an unstructured light device d) superposition of said image texture and said 3D model e) quantitative evaluation of the diffusion and absorption coefficients of the virgin face and calculation of the translucent term of the virgin face, f) acquisition of a texture image of said makeup face, said cosmetic product being applied thereto, illuminated by an unstructured light device, g) superposition of said texture image and said 3D model h) quantitative evaluation of diffusion coefficients and of absorption of the masked face and calculation of the translucent term of the masked face, according to other characteristics: steps c) and f) can be performed in a single image acquisition, said face being blank on one half of the face and made up , said cosmetic product being applied to it, on the other half of the face and steps e) and h) are carried out by choosing two substantially symmetrical regions of the face, one on the virgin half, the other on the half masked; thus it is possible to minimize the number of image acquisitions, steps c) and f) can be performed in two image acquisitions, said face being blank on one of the image and made up, said cosmetic product being applied, in the other image, steps e) and h) are performed by choosing two regions positioned at the same place on the face, one on the image of the virgin face, the other on the image of the masked face; The invention also relates to a method of simulating the effects of the application of a cosmetic product on a second face, comprising a method of evaluating the effects of the application of said cosmetic product on a first face according to the invention, and further comprising the following steps: acquisition of a 3D image of said second face illuminated by a light device structured in parallel straight lines establishment of a model 3D from said image acquisition of a texture image of said second blank face, without application of cosmetic product, illuminated by an unstructured light device superposition of said texture image and said 3D model subtraction of the translucent term of the blank face calculated on the first face added the translucent term of the make-up face calculated on the first face.
Un tel procédé selon l'invention permet d'obtenir une simulation de l'effet d'un produit cosmétique appliqué sur un visage sans avoir à appliquer ledit produit sur ledit visage. L'invention concerne encore un dispositif d'évaluation des effets d'une pratique cosmétique spécialement conçu pour mettre 30 en oeuvre un procédé selon l'invention caractérisé en ce qu'il comprend un moyen d'éclairage uniforme, un moyen d'acquisition numérique d'une image, un dispositif de lumière structurée en lignes droites parallèles et un moyen de traitement numérique de données apte à établir un modèle 3D en utilisant la déformation 35 des lignes projetées sur une surface non plane, et un dispositif de lumière non structurée. Un tel dispositif est particulièrement simple à réaliser et à utiliser. Selon d'autres caractéristiques : ledit moyen d'éclairage uniforme peut être composé de deux dispositifs de lumière non structurée ; ceci constitue un moyen simple d'obtenir une bonne qualité d'éclairage uniforme, ledit moyen de traitement peut comprendre un moyen de détection d'une discontinuité d'une ligne et un moyen d'affectation à une ligne donnée des deux côtés de ladite discontinuité, permettant ainsi d'éviter des erreurs d'interprétation du moyen de traitement numérique. L'avantage du procédé selon la présente invention réside en particulier en ce qu'elle permet, par un dispositif simple, de 15 quantifier l'effet d'un maquillage sur un visage, puis de simuler cet effet sur un visage qui peut être un autre visage D'autres caractéristiques et avantages de l'invention ressortiront de la description détaillée qui va suivre se rapportant à un exemple de réalisation donné à titre indicatif 20 et non limitatif. La compréhension de cette description sera facilitée en se référant aux dessins joints, dans lesquels : la figure 1 représente une vue d'un dispositif selon l'invention ; 25 la figure 2 représente une image en éclairage structuré, et quatre vues du modèle 3D que l'on en obtient ; Selon l'invention, il est proposé un procédé pour évaluer l'incidence des produits cosmétiques sur la translucidité de la peau humaine. Ce procédé vise à évaluer de façon quantitative 30 les modifications de translucidité d'une région maquillée dans un visage humain vis-à-vis d'une deuxième région du même visage sans maquillage, en gardant les mêmes conditions d'éclairage ambiant sur les deux régions.Such a method according to the invention makes it possible to obtain a simulation of the effect of a cosmetic product applied to a face without having to apply said product to said face. The invention also relates to a device for evaluating the effects of a cosmetic practice specially designed to implement a method according to the invention, characterized in that it comprises a uniform lighting means, a digital acquisition means an image, a parallel straight lines structured light device and a digital data processing means adapted to establish a 3D model using the deformation of projected lines on a non-planar surface, and an unstructured light device. Such a device is particularly simple to make and use. According to other features: said uniform illumination means may be composed of two unstructured light devices; this is a simple way to obtain good uniform illumination quality, said processing means may comprise means for detecting a discontinuity of a line and means for assigning to a given line on both sides of said discontinuity , thereby avoiding errors of interpretation of the digital processing means. The advantage of the method according to the present invention resides in particular in that it allows, by a simple device, to quantify the effect of a make-up on a face, then to simulate this effect on a face which may be a Other features Other features and advantages of the invention will emerge from the following detailed description relating to an exemplary embodiment given by way of indication and not limitation. The understanding of this description will be facilitated with reference to the accompanying drawings, in which: FIG. 1 represents a view of a device according to the invention; Fig. 2 shows an image in structured lighting, and four views of the 3D model obtained therefrom; According to the invention, there is provided a method for evaluating the impact of cosmetic products on the translucency of human skin. This method aims to quantitatively evaluate the translucency changes of a masked region in a human face vis-à-vis a second region of the same face without makeup, keeping the same ambient lighting conditions on both regions.
Le procédé comporte les étapes suivantes : - acquisition d'une image 3D, selon le dispositif dit à lumière structurée, puis plaquage de la texture du visage (sans maquillage) sur le modèle reconstitué - Le système de la lumière structurée est utilisé pour construire une maquette numérique en trois dimensions V3D du visage. - Une image Iml du visage sans application du maquillage est prise sous un éclairage uniforme. Cette image Iml peut être combinée à ladite maquette numérique, pour simuler une image en trois dimensions du visage. - Avec le même éclairage une autre image Im2 est prise avec un effet cosmétique sur toute ou partie du visage. Dans les images Iml et 102 sont considérées deux régions de la peau : une région 'non maquillée' notée ROI1, par exemple sur la pommette droite, et l'autre 'maquillée' notée R012, par exemple sur la pommette gauche. - En se basant sur les paramètres de BSSRDF (Bidirectional Surface Scattering Reflectance Distribution Function) de Jensen, le coefficient de diffusion a's et le coefficient d'absorption aa sont estimés pour chacune des régions : a'sl, a.1 pour la région ROI1, a's2, 0.2 pour la région R012. - La maquette V3D avec les paramètres estimés est utilisée pour calculer les deux composantes responsables de la translucidité de la peau : TR1 les termes translucides pour un visage vierge non maquillé et TR2 les termes translucides pour le visage maquillé. - Une nouvelle image 3D peut être simulée en retirant de l'image Iml les termes translucides non maquillés TR1 et en ajoutant ensuite les termes translucides maquillés TR2. La simulation réciproque consistant à retirer de l'image 102 les termes translucides maquillés TR2 et à ajouter les termes translucides non maquillés TR1 est également réalisable.The method comprises the following steps: - acquisition of a 3D image, according to the so-called structured light device, then plating of the texture of the face (without makeup) on the reconstituted model - The system of structured light is used to build a V3D three-dimensional digital model of the face. - Iml image of the face without applying makeup is taken under uniform lighting. This image Iml can be combined with said digital model, to simulate a three-dimensional image of the face. - With the same lighting another image Im2 is taken with a cosmetic effect on all or part of the face. In the images Im1 and 102 are considered two regions of the skin: a 'non-makeup' region denoted ROI1, for example on the right cheekbone, and the other 'makeup' denoted R012, for example on the left cheekbone. - Based on Jensen's BSSRDF (Bidirectional Surface Scattering Reflectance Distribution Function) parameters, the scattering coefficient a's and the absorption coefficient aa are estimated for each of the regions: a'sl, a.1 for region ROI1 , a's2, 0.2 for the R012 region. - The V3D model with the estimated parameters is used to calculate the two components responsible for the translucency of the skin: TR1 the translucent terms for a virgin face not made up and TR2 the translucent terms for the masked face. - A new 3D image can be simulated by removing from the image Iml the translucent terms not made up TR1 and then adding the translucent makeup TR2. The reciprocal simulation of removing the masked translucent terms TR2 from the image 102 and adding the non-masked translucent terms TR1 is also feasible.
La méthode proposée permet de modéliser le rendu d'une surface selon la quantité de lumière qu'elle réfléchit. La méthode est basée sur le modèle de Jensen qui impose deux contraintes : l'éclairage doit être uniforme, et le milieu paramétré doit être infini. La première contrainte est satisfaite par les conditions d'éclairage lors de la prise de vue : on crée un éclairage ambiant quasi uniforme, par exemple à l'aide de 2 projecteurs placés de part et d'autre de l'appareil de prise de vue, à 45° chacun La seconde contrainte est satisfaite par le fait que l'on travaille sur des zones extraites du visage du sujet (ROI1 et R0I2) Dans ces conditions, les intensités des pixels dans les 15 régions extraites sont utilisées pour calculer la réflectance diffuse totale. Pour la peau, le terme de diffusion simple est négligé pour ne considérer que le terme de diffusion multiple. Le procédé selon l'invention permet d'effectuer deux types d'évaluation des produits cosmétiques : 20 Le premier utilise des critères quantitatifs avec une estimation des deux paramètres a's et aa pour répondre quantitativement aux questions suivantes : - comment la peau humaine interagit avec la lumière incidente ? 25 - quel est le pourcentage de lumière absorbée et de lumière réfléchie ? - comment l'application d'un produit cosmétique modifie ces interactions ? La comparaison entre les deux paramètres a'sl, Gal pour une 30 peau non maquillée avec les mêmes paramètres a's2, 0.2 extraits pour chaque produit cosmétique appliqué, fournit des éléments de réponse aux questions posées. Elle est complétée par le calcul des termes translucides TR1 et TR2, fonction des paramètres a'sl, aal, et a's2, 0a2 respectivement caractérisant l'effet d'un 35 produit cosmétique donné sur tout le visage en trois dimensions.The proposed method makes it possible to model the rendering of a surface according to the quantity of light that it reflects. The method is based on Jensen's model which imposes two constraints: the lighting must be uniform, and the parametric medium must be infinite. The first constraint is satisfied by the lighting conditions during the shooting: we create an almost uniform ambient lighting, for example using 2 projectors placed on both sides of the camera at 45 ° each The second constraint is satisfied by the fact that we work on areas extracted from the face of the subject (ROI1 and ROI2). Under these conditions, the intensities of the pixels in the extracted regions are used to calculate the reflectance. diffuse total. For the skin, the term of simple diffusion is neglected to consider only the term of multiple diffusion. The method according to the invention makes it possible to perform two types of evaluation of cosmetic products: The first uses quantitative criteria with an estimation of the two parameters a and aa to quantitatively answer the following questions: how human skin interacts with the incident light? What is the percentage of light absorbed and reflected light? - how does the application of a cosmetic product modify these interactions? The comparison between the two parameters α1, Gal for a non-makeuped skin with the same parameters α2,2, extracted for each cosmetic product applied, provides elements of answer to the questions asked. It is supplemented by the calculation of the translucent terms TR1 and TR2, a function of the parameters a's1, aal, and a's2, 0a2 respectively characterizing the effect of a given cosmetic product on the whole face in three dimensions.
On peut ensuite pratiquer un rendu simulé à partir d'une image 3D initiale d'un visage sans aucune application du produit. Les termes translucides sans maquillage TR1 sont retirés puis les termes translucides avec maquillage TR2 sont ajoutés. Cette image 3D simule sur tout le visage l'effet translucide du produit cosmétique : - si les images initiale et simulée sont identiques, alors le maquillage n'a pas eu d'effet sur la translucidité, - sinon le maquillage a eu un effet rendant l'apparence de la peau plus opaque ou plus translucide. Le procédé permet également de simuler sur un autre visage l'effet d'un produit cosmétique dont on a auparavant déterminé les termes translucides. Exemple numérique tiré de valeurs relevées sur un visage.One can then practice a simulated rendering from an initial 3D image of a face without any application of the product. The translucent terms without TR1 makeup are removed and the translucent terms with TR2 makeup are added. This 3D image simulates on the whole face the translucent effect of the cosmetic product: - if the initial and simulated images are identical, then the makeup had no effect on the translucency, - otherwise the makeup had an effect making the appearance of the skin more opaque or more translucent. The method also makes it possible to simulate on another face the effect of a cosmetic product whose translucent terms have previously been determined. Numerical example from values found on a face.
Les valeurs moyennes dans chacune des trois composantes RVB (R pour Rouge, V, ou G en anglais pour Vert, et B pour Bleu) pour chacune des régions sont utilisées comme réflectance diffuse totale. Dans la suite nous allons noter par le numéro 2 les paramètres concernant la région R012 avec maquillage et par 20 le numéro 1 ceux qui concernent la région ROI1 sans maquillage : Réflectance diffuse totale R G B Rdl : 0.8031 0.5631 0.5174 Re2 : 0.8502 0.7141 0.6058 Cette réflectance diffuse totale Rd, définie comme le flux lumineux émis par unité de surface est utilisée pour calculer 25 l'albédo réduit a' selon l'équation : Rd 4 / ci e-3( 1-111) =z (1 e V3(1-a1)) 1+Fch.. OÙ A = - , avec Fdr = 1.440 +.710 + 0. 668 + 0. 0636n Fdr n2 F dr étant la réflectance diffuse moyenne de Fresnel et 1) l'indice de réfraction relatif.The average values in each of the three RGB components (R for Red, V, or G for Green, and B for Blue) for each of the regions are used as the total diffuse reflectance. In the following we will note by the number 2 the parameters concerning the region R012 with makeup and by number 1 those concerning the region ROI1 without makeup: Diffuse reflectance total RGB Rdl: 0.8031 0.5631 0.5174 Re2: 0.8502 0.7141 0.6058 This diffuse reflectance total Rd, defined as the luminous flux emitted per unit area is used to calculate the reduced albedo a 'according to the equation: Rd 4 / ci e-3 (1-111) = z (1 e V3 (1- a1)) 1 + Fch .. Where A = -, with Fdr = 1.440 +.710 + 0. 668 + 0. 0636n Fdr n2 F dr being the Fresnel average diffuse reflectance and 1) the relative refractive index.
En cherchant dans une look-up table créée pour l'albédo réduit, les albédos réduits correspondants sont obtenus : R G B Albédo 0.9482 0.8876 0.8690 réduit a'l : Albédo 0.9553 0.9312 0.9021 réduit a'2 : Ces valeurs a' avec la valeur du libre parcours moyen /d = 1.815, 1.0213, 0.6453, sont utilisées pour résoudre les équations suivantes : a,= et cr't = où : t = a' s + 0a G's+ Ga 1c1 -13(1-a') Ce que donne pour le présent exemple : R G B R G B 's1 a .3251 1 .4964 1 .1477 2 al a .0724 0 .1896 0 .3239 0 's2 a .4364 1 .0075 2 .5795 2 a2 a .0673 0 .1482 0 .2799 0 Calcul du terme translucide. On considère le flux lumineux (1): le flux de photons par 1124) (x, Wr) dAdIcos9 émis per unité de surface dans une direction donnée. La méthode BSSRDF consiste à lier la luminance réfléchie dLo(xo, 17e0) au point xo dans la direction Wo, au flux c14)i(xi, Wi) au point xi dans la direction ivj, par la relation : 20 S(Xi, Wi ; x0, c11,0 (x0, W0) 41 (xi, tivi) S(xi,Wi; x0, wo) étant la définition analytique de la BSSRDF. unité de temps, et la luminance L= : /e flux lumineux Le calcul de S(xi, wi ; xo, wo) se décompose d'abord de la manière suivante : 1 S(Xi, Wi; ) = -Ft(n, aRd(r,ds, 0-o)M(x0)Ft(n, wo) Ft(71, tiv>i),Ft(n, wo) sont les fonctions de transmission de Fresnel pour la lumiere entrante et la lumière sortante.By looking in a look-up table created for reduced albedo, the corresponding reduced albedos are obtained: RGB Albédo 0.9482 0.8876 0.8690 reduced a'l: Albédo 0.9553 0.9312 0.9021 reduced a'2: These values a 'with the value of free mean course / d = 1.815, 1.0213, 0.6453, are used to solve the following equations: a, = and cr't = where: t = a 's + 0a G's + Ga 1c1 -13 (1-a') What gives for the present example: RGBRGB 's1 a .3251 1 .4964 1 .1477 2 al a .0724 0 .1896 0 .3239 0' s2 a .4364 1 .0075 2 .5795 2 a2 a .0673 0 .1482 0. 2799 0 Calculation of the translucent term. We consider the luminous flux (1): the photon flux by 1124) (x, Wr) dAdIcos9 emitted per unit area in a given direction. The BSSRDF method consists of linking the reflected luminance dLo (xo, 17e0) to the point xo in the direction Wo, to the flux c14) i (xi, Wi) at the point xi in the direction ivj, by the relation: S (Xi, Wi; x0, c11,0 (x0, W0) 41 (xi, tivi) S (xi, Wi; x0, wo) being the analytical definition of the BSSRDF, unit of time, and the luminance L =: / e luminous flux The computation of S (xi, wi; xo, wo) decomposes first as follows: 1 S (Xi, Wi;) = -Ft (n, aRd (r, ds, 0-o) M (x0 ) Ft (n, wo) Ft (71, tiv> i), Ft (n, wo) are the Fresnel transmission functions for the incoming light and the outgoing light.
Rd(r,ds, (fa): est l'approximation de dipôle de Jensen. /1/(x0) : est un paramètre de texture de modulation spatialement variant (détails du visage) On en déduit le terme translucide TR(xi, x0,w0) = F(i) Rd(r, , uo) F(i0) en appliquant à n sa valeur 1,3 pour la peau en chaque point xi du modèle 3D du visage. Pour mettre en oeuvre un procédé selon l'invention, les inventeurs ont imaginé un dispositif adapté. Pour générer un éclairage ambiant quasi uniforme, on 15 utilise deux projecteurs 7 photographiques, par exemple de type 'Lastolite RayD8 c5600'. Chacun est équipé d'une ampoule fluorescente produisant une lumière de jour avec une température de 5200 K. Les deux projecteurs sont utilisés pour éclairer le visage de sujet qui se situe à une distance d'environ un mètre 20 d'un appareil photo. Les deux projecteurs font successivement des angles d'illumination de 45° et -45° avec l'axe de prise du vue de l'appareil photo. Un temps de stabilisation d'une minute est respecté pour atteindre le plein éclairage des projecteurs, ensuite une 25 correction de la balance des blancs de l'appareil photo est effectuée. Pour minimiser les effets de réflexion spéculaire, on peut utiliser : - soit des images du type High Dynamic Range générées pour chaque sujet en utilisant trois photos 30 prises sous trois niveaux d'exposition par l'appareil photo, par exemple un Canon EOS 5 avec une résolution de 4368x2912 pixels, - soit des images acquises par l'appareil photo muni d'un filtre polarisant. Fig.1 montre l'ensemble du système d'acquisition. Un projecteur 1 de lumière structurée est disposé à 5 proximité immédiate de l'appareil photo 2. Il est apte à projeter une lumière structurée sur le visage 3 à analyser. Cette lumière structurée peut consister en une séquence répétitive de couleurs, où chaque couleur constitue une ligne 4, et où deux lignes consécutives sont séparées par un espace 5 10 sans couleur (noir). Le motif est basé sur le principe des séquences de De Bruijn, et chaque couleur est déterminée par la valeur du symbole dans la séquence. Une seule photo avec le motif de lumière structurée projeté sur le visage, permet d'acquérir une image 3D (visage seul sans 15 les cheveux), et permet une reconstruction avec un maillage de précision d'environ 2 mm (voir Fig. 2). Une seconde photo, sans motif projeté, permet d'acquérir une texture, qui sera ensuite plaquée sur l'image 3D. Le traitement des images et le calcul des paramètres sont 20 effectués à l'aide d'un ordinateur avec une mémoire et un module de calcul numérique. L'appareil photo 2 et le projecteur 1 sont fixés, et donc contraints, sur un cadre 6 en aluminium et ils sont initialement calibrés (orientation de chacun) à l'aide d'une mire de 25 calibration (mire affichée et mire projetée). Enfin on notera que ce dispositif, conçu pour la cosmétique, pourrait également trouver des applications dans la caractérisation de pièces mécaniques, de pièces molles « en mouvement » (simplicité et rapidité du processus d'acquisition 30 du modèle 3D), ou encore en archéologie (dater des porcelaines à partir de leur translucidité). L'avantage du procédé selon la présente invention réside en particulier en ce qu'elle permet, par un dispositif simple, de quantifier l'effet d'un maquillage sur un visage, puis de 35 simuler cet effet sur un visage qui peut être un autre visage.Rd (r, ds, (fa): is the Jensen dipole approximation. / 1 / (x0): is a spatially varying modulation texture parameter (details of the face) We deduce the translucent term TR (xi, x0, w0) = F (i) Rd (r,, uo) F (i0) by applying to n its value 1.3 for the skin at each point xi of the 3D model of the face. The inventors have devised a suitable device for generating substantially uniform ambient lighting, using two photographic projectors 7, for example of the 'Lastolite RayD8 c5600' type, each of which is equipped with a fluorescent bulb producing daylight. The two projectors are used to illuminate the subject's face which is at a distance of approximately one meter from a camera.The two projectors successively make illumination angles of 45 ° and -45 ° with the camera's take-off axis A stabilization time of one minute is r In order to achieve full floodlighting, then a correction of the white balance of the camera is made. To minimize specular reflection effects, it is possible to use: - High Dynamic Range type images generated for each subject using three photos taken at three levels of exposure by the camera, for example a Canon EOS 5 with a resolution of 4368x2912 pixels, - images acquired by the camera equipped with a polarizing filter. Fig.1 shows the entire acquisition system. A structured light projector 1 is arranged in close proximity to the camera 2. It is able to project a structured light onto the face 3 to be analyzed. This structured light may consist of a repeating sequence of colors, where each color constitutes a line 4, and where two consecutive lines are separated by a colorless space (black). The pattern is based on the principle of De Bruijn sequences, and each color is determined by the value of the symbol in the sequence. A single photo with the structured light pattern projected on the face, allows to acquire a 3D image (face alone without the hair), and allows reconstruction with a precision mesh of about 2 mm (see Fig. 2) . A second photo, without a projected motive, makes it possible to acquire a texture, which will be then plated on the 3D image. The processing of the images and the calculation of the parameters are carried out using a computer with a memory and a numerical calculation module. The camera 2 and the projector 1 are fixed, and therefore constrained, on an aluminum frame 6 and they are initially calibrated (orientation of each) using a calibration chart (displayed pattern and projected pattern) . Finally, it should be noted that this device, designed for cosmetics, could also find applications in the characterization of mechanical parts, of soft parts "in motion" (simplicity and speed of the acquisition process of the 3D model), or in archeology (date porcelains from their translucency). The advantage of the method according to the present invention resides in particular in that it allows, by a simple device, to quantify the effect of a make-up on a face, and then to simulate this effect on a face that may be a other face.
Bien que l'invention ait été décrite à propos d'une forme de réalisation particulière, il est bien entendu qu'elle n'y est nullement limitée et qu'on peut y apporter diverses modifications de formes, de matériaux et de combinaisons de ces divers éléments sans pour cela s'éloigner du cadre de l'invention.Although the invention has been described with respect to a particular embodiment, it is understood that it is in no way limited and that various modifications of shapes, materials and combinations thereof can be made. various elements without departing from the scope of the invention.
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1260089A FR2996996A1 (en) | 2012-10-23 | 2012-10-23 | Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1260089A FR2996996A1 (en) | 2012-10-23 | 2012-10-23 | Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients |
Publications (1)
Publication Number | Publication Date |
---|---|
FR2996996A1 true FR2996996A1 (en) | 2014-04-25 |
Family
ID=47425145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1260089A Withdrawn FR2996996A1 (en) | 2012-10-23 | 2012-10-23 | Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR2996996A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1216658A1 (en) * | 2000-12-21 | 2002-06-26 | L'oreal | Method for determining a degree of a feature of bodily typology |
EP1297781A1 (en) * | 2001-10-01 | 2003-04-02 | L'oreal | Early detection of beauty treatment progress |
EP1635298A1 (en) * | 2004-09-07 | 2006-03-15 | L'oreal | Method and apparatus to generate a synthesized image of at least a fringe of lashes |
FR2915820A1 (en) * | 2007-05-03 | 2008-11-07 | Oreal | METHOD FOR EVALUATING A TYPOLOGY OF LIP AND EVALUATION SYSTEM FOR IMPLEMENTING SUCH A METHOD |
WO2012121556A2 (en) * | 2011-03-10 | 2012-09-13 | 주식회사 미르기술 | Vision testing device using multigrid pattern |
-
2012
- 2012-10-23 FR FR1260089A patent/FR2996996A1/en not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1216658A1 (en) * | 2000-12-21 | 2002-06-26 | L'oreal | Method for determining a degree of a feature of bodily typology |
EP1297781A1 (en) * | 2001-10-01 | 2003-04-02 | L'oreal | Early detection of beauty treatment progress |
EP1635298A1 (en) * | 2004-09-07 | 2006-03-15 | L'oreal | Method and apparatus to generate a synthesized image of at least a fringe of lashes |
FR2915820A1 (en) * | 2007-05-03 | 2008-11-07 | Oreal | METHOD FOR EVALUATING A TYPOLOGY OF LIP AND EVALUATION SYSTEM FOR IMPLEMENTING SUCH A METHOD |
WO2012121556A2 (en) * | 2011-03-10 | 2012-09-13 | 주식회사 미르기술 | Vision testing device using multigrid pattern |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3034992B1 (en) | Structured light projector and three-dimensional scanner comprising such a projector | |
Jimenez et al. | Screen-space perceptual rendering of human skin | |
US8264490B2 (en) | Practical modeling and acquisition of layered facial reflectance | |
Klehm et al. | Recent advances in facial appearance capture | |
US8300234B2 (en) | Estimating spectral distribution of reflections from object surface based on low frequency illumination | |
Qian et al. | Full-color structured illumination optical sectioning microscopy | |
US20160261850A1 (en) | Near-instant capture of high-resolution facial geometry and reflectance | |
US20070285422A1 (en) | Method for Separating Direct and Global Illumination in a Scene | |
FR2910123A1 (en) | Object`s outer surface three dimensional measuring method for meteorological application, involves illuminating images containing portion of outer surfaces by illumination points of projection axis, and capturing images | |
FR2950695A1 (en) | METHOD AND SYSTEM FOR VISUAL APPEARANCE MEASUREMENT FOR BRAZEN FIBERS ARRANGED RANDOMLY AND REGULARLY. | |
JP2012044421A5 (en) | ||
EP3720115A1 (en) | Method for imaging with pulsed light | |
WO2005088985A1 (en) | Sequential colour illumination system, method for producing a colour wheel for said system and a colour segment device | |
Fuchs et al. | Combining confocal imaging and descattering | |
Qiao et al. | Snapshot coherence tomographic imaging | |
EP3552575B1 (en) | Method for generating a 3d model of a dental arch | |
Bimber et al. | Closed-loop feedback illumination for optical inverse tone-mapping in light microscopy | |
FR2996996A1 (en) | Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients | |
FR2893428A1 (en) | METHOD AND SYSTEM FOR RECONSTRUCTION OF OBJECT SURFACES BY POLARIZATION IMAGING | |
WO2019170420A1 (en) | Method for reconstructing a colour image acquired by a sensor covered with a mosaic of colour filters | |
EP2502206A2 (en) | Method for estimating light scattering | |
JP2006113022A (en) | Defect detection device and method on antireflection film | |
JP2022060641A (en) | Texture acquisition system, texture acquisition apparatus, and texture acquisition program | |
WO2012000847A2 (en) | Method of estimating diffusion of light | |
WO2015162235A2 (en) | Displaying device with simulation of reflections and/or scintillations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
ST | Notification of lapse |
Effective date: 20180629 |