FR2996996A1 - Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients - Google Patents

Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients Download PDF

Info

Publication number
FR2996996A1
FR2996996A1 FR1260089A FR1260089A FR2996996A1 FR 2996996 A1 FR2996996 A1 FR 2996996A1 FR 1260089 A FR1260089 A FR 1260089A FR 1260089 A FR1260089 A FR 1260089A FR 2996996 A1 FR2996996 A1 FR 2996996A1
Authority
FR
France
Prior art keywords
face
image
cosmetic product
blank
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1260089A
Other languages
French (fr)
Inventor
Hussam Yousef
Celine Loscos
Michel Herbin
Regis Huez
Laurent Hussenet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universite de Reims Champagne Ardenne URCA
Original Assignee
Universite de Reims Champagne Ardenne URCA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universite de Reims Champagne Ardenne URCA filed Critical Universite de Reims Champagne Ardenne URCA
Priority to FR1260089A priority Critical patent/FR2996996A1/en
Publication of FR2996996A1 publication Critical patent/FR2996996A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment

Abstract

The method involves acquiring a three-dimensional (3D) image of a face illuminated by a structured light, and establishing a 3D model from the image. A texture image of a blank face is captured and superposed with the 3D model. Diffusion and absorption coefficients of the blank face are evaluated, and a translucent term is calculated for the blank face. A texture image of the face made up with the cosmetic product is captured and superposed with the 3D model, and diffusion and absorption coefficients are evaluated for the made up face. A translucent term is calculated for the made up face. Independent claims are also included for the following: (1) a method for simulation of the effects of the application of a cosmetic product on a face (2) a device for evaluating effects of applying a cosmetic product on a face.

Description

L'invention concerne le domaine de l'évaluation d'effets et de pratiques cosmétiques. Elle concerne plus particulièrement un dispositif et une méthode permettant d'évaluer les effets d'un produit cosmétique, 5 et de modéliser son effet sur un visage donné. Les effets cosmétiques sont liés à une interaction de la lumière et de la peau. Les traitements cosmétiques modifient l'apparence en intervenant sur cette interaction lumière-peau. La peau est un matériau biologique ayant des propriétés optiques 10 spécifiques Elle diffuse la lumière dans son épaisseur avant d'en réfléchir une partie en donnant à la peau sa couleur et sa transparence. Cette interaction lumière-peau est appelée translucidité de la peau. En cosmétique il y a deux aspects que l'oeil humain n'évalue 15 que de façon très subjective et que l'on ne sait pas quantifier objectivement, ce sont un « teint éclatant », et un « teint de porcelaine », ou encore évanescent. Les inventeurs se sont focalisés sur le second, de manière à pouvoir évaluer l'effet de produits cosmétiques sur la 20 translucidité de la peau. Les dispositifs connus utilisent un rayon laser (rayon focalisé) et procèdent par mesure par point : on regarde comment la lumière se diffuse autour de ce point, avec et sans maquillage. Cette solution n'est pas satisfaisante car on 25 procède par point et non sur une surface du visage, et parce que l'on travaille généralement dans des conditions contraignantes qui ne sont pas naturelles. La présente invention se propose de remédier à au moins une partie des inconvénients précités et propose une solution qui 30 permette une évaluation objective des modifications de translucidité de la peau. A cet effet, l'invention concerne un procédé d'évaluation des effets de l'application d'un produit cosmétique sur un visage, comprenant les étapes suivantes : a) acquisition d'une image 3D dudit visage éclairé par un dispositif de lumière structurée en lignes droites parallèles b) établissement d'un modèle 3D à partir de ladite image c) acquisition d'une image de texture dudit visage vierge, sans application de produit cosmétique, éclairé par un dispositif de lumière non structurée d) superposition de ladite image de texture et dudit modèle 3D e) évaluation quantitative des coefficients de diffusion et d'absorption du visage vierge et calcul du terme translucide du visage vierge, f) acquisition d'une image de texture dudit visage maquillé, ledit produit cosmétique lui étant appliqué, éclairé par un dispositif de lumière non structurée, g) superposition de ladite image de texture et dudit modèle 3D h) évaluation quantitative des coefficients de diffusion et d'absorption du visage maquillé et calcul du terme translucide du visage maquillé, Selon d'autres caractéristiques : les étapes c) et f) peuvent être effectuées en une seule acquisition d'image, ledit visage étant vierge sur une moitié de visage et maquillé, ledit produit cosmétique lui étant appliqué, sur l'autre moitié du visage et les étapes e) et h) sont effectuées en choisissant deux régions sensiblement symétriques du visage, l'une sur la moitié vierge, l'autre sur la moitié maquillée ; ainsi on peut réduire au minimum le nombre d'acquisitions d'images, les étapes c) et f) peuvent être effectuées en deux acquisitions d'image, ledit visage étant vierge sur l'une des image et maquillé, ledit produit cosmétique lui étant appliqué, sur l'autre image, les étapes e) et h) sont effectuées en choisissant deux régions positionnées au même endroit du visage, l'une sur l'image du visage vierge, l'autre sur l'image du visage maquillé ; ainsi on peut être plus précis du fait qu'on utilise le même endroit du visage, L'invention concerne également un procédé de simulation des effets de l'application d'un produit cosmétique sur un deuxième visage, comprenant un procédé d'évaluation des effets de l'application dudit produit cosmétique sur un premier visage selon l'invention, et comprenant en outre les étapes suivantes : acquisition d'une image 3D dudit deuxième visage éclairé par un dispositif de lumière structurée en lignes droites parallèles établissement d'un modèle 3D à partir de ladite image acquisition d'une image de texture dudit deuxième visage vierge, sans application de produit cosmétique, éclairé par un dispositif de lumière non structurée superposition de ladite image de texture et dudit modèle 3D soustraction du terme translucide du visage vierge calculé sur le premier visage ajout du terme translucide du visage maquillé calculé sur le premier visage.The invention relates to the field of evaluation of effects and cosmetic practices. It relates more particularly to a device and a method for evaluating the effects of a cosmetic product, and to modeling its effect on a given face. The cosmetic effects are related to an interaction of light and skin. Cosmetic treatments modify the appearance by intervening on this light-skin interaction. The skin is a biological material having specific optical properties. It diffuses the light in its thickness before reflecting some of it by giving the skin its color and its transparency. This light-skin interaction is called translucency of the skin. In cosmetics there are two aspects that the human eye only evaluates in a very subjective way and that we do not know how to quantify objectively, they are a "brilliant complexion" and a "porcelain complexion", or evanescent. The inventors have focused on the second, so as to be able to evaluate the effect of cosmetic products on the translucency of the skin. Known devices use a laser beam (focused beam) and proceed by measure by point: we look at how light diffuses around this point, with and without makeup. This solution is unsatisfactory because it is carried out by dot and not on a surface of the face, and because one generally works under restrictive conditions that are not natural. The present invention proposes to remedy at least some of the aforementioned drawbacks and proposes a solution which allows an objective evaluation of the translucency changes of the skin. For this purpose, the invention relates to a method for evaluating the effects of the application of a cosmetic product to a face, comprising the following steps: a) acquisition of a 3D image of said face illuminated by a structured light device in parallel straight lines b) establishment of a 3D model from said image c) acquisition of a texture image of said blank face, without application of cosmetic product, illuminated by an unstructured light device d) superposition of said image texture and said 3D model e) quantitative evaluation of the diffusion and absorption coefficients of the virgin face and calculation of the translucent term of the virgin face, f) acquisition of a texture image of said makeup face, said cosmetic product being applied thereto, illuminated by an unstructured light device, g) superposition of said texture image and said 3D model h) quantitative evaluation of diffusion coefficients and of absorption of the masked face and calculation of the translucent term of the masked face, according to other characteristics: steps c) and f) can be performed in a single image acquisition, said face being blank on one half of the face and made up , said cosmetic product being applied to it, on the other half of the face and steps e) and h) are carried out by choosing two substantially symmetrical regions of the face, one on the virgin half, the other on the half masked; thus it is possible to minimize the number of image acquisitions, steps c) and f) can be performed in two image acquisitions, said face being blank on one of the image and made up, said cosmetic product being applied, in the other image, steps e) and h) are performed by choosing two regions positioned at the same place on the face, one on the image of the virgin face, the other on the image of the masked face; The invention also relates to a method of simulating the effects of the application of a cosmetic product on a second face, comprising a method of evaluating the effects of the application of said cosmetic product on a first face according to the invention, and further comprising the following steps: acquisition of a 3D image of said second face illuminated by a light device structured in parallel straight lines establishment of a model 3D from said image acquisition of a texture image of said second blank face, without application of cosmetic product, illuminated by an unstructured light device superposition of said texture image and said 3D model subtraction of the translucent term of the blank face calculated on the first face added the translucent term of the make-up face calculated on the first face.

Un tel procédé selon l'invention permet d'obtenir une simulation de l'effet d'un produit cosmétique appliqué sur un visage sans avoir à appliquer ledit produit sur ledit visage. L'invention concerne encore un dispositif d'évaluation des effets d'une pratique cosmétique spécialement conçu pour mettre 30 en oeuvre un procédé selon l'invention caractérisé en ce qu'il comprend un moyen d'éclairage uniforme, un moyen d'acquisition numérique d'une image, un dispositif de lumière structurée en lignes droites parallèles et un moyen de traitement numérique de données apte à établir un modèle 3D en utilisant la déformation 35 des lignes projetées sur une surface non plane, et un dispositif de lumière non structurée. Un tel dispositif est particulièrement simple à réaliser et à utiliser. Selon d'autres caractéristiques : ledit moyen d'éclairage uniforme peut être composé de deux dispositifs de lumière non structurée ; ceci constitue un moyen simple d'obtenir une bonne qualité d'éclairage uniforme, ledit moyen de traitement peut comprendre un moyen de détection d'une discontinuité d'une ligne et un moyen d'affectation à une ligne donnée des deux côtés de ladite discontinuité, permettant ainsi d'éviter des erreurs d'interprétation du moyen de traitement numérique. L'avantage du procédé selon la présente invention réside en particulier en ce qu'elle permet, par un dispositif simple, de 15 quantifier l'effet d'un maquillage sur un visage, puis de simuler cet effet sur un visage qui peut être un autre visage D'autres caractéristiques et avantages de l'invention ressortiront de la description détaillée qui va suivre se rapportant à un exemple de réalisation donné à titre indicatif 20 et non limitatif. La compréhension de cette description sera facilitée en se référant aux dessins joints, dans lesquels : la figure 1 représente une vue d'un dispositif selon l'invention ; 25 la figure 2 représente une image en éclairage structuré, et quatre vues du modèle 3D que l'on en obtient ; Selon l'invention, il est proposé un procédé pour évaluer l'incidence des produits cosmétiques sur la translucidité de la peau humaine. Ce procédé vise à évaluer de façon quantitative 30 les modifications de translucidité d'une région maquillée dans un visage humain vis-à-vis d'une deuxième région du même visage sans maquillage, en gardant les mêmes conditions d'éclairage ambiant sur les deux régions.Such a method according to the invention makes it possible to obtain a simulation of the effect of a cosmetic product applied to a face without having to apply said product to said face. The invention also relates to a device for evaluating the effects of a cosmetic practice specially designed to implement a method according to the invention, characterized in that it comprises a uniform lighting means, a digital acquisition means an image, a parallel straight lines structured light device and a digital data processing means adapted to establish a 3D model using the deformation of projected lines on a non-planar surface, and an unstructured light device. Such a device is particularly simple to make and use. According to other features: said uniform illumination means may be composed of two unstructured light devices; this is a simple way to obtain good uniform illumination quality, said processing means may comprise means for detecting a discontinuity of a line and means for assigning to a given line on both sides of said discontinuity , thereby avoiding errors of interpretation of the digital processing means. The advantage of the method according to the present invention resides in particular in that it allows, by a simple device, to quantify the effect of a make-up on a face, then to simulate this effect on a face which may be a Other features Other features and advantages of the invention will emerge from the following detailed description relating to an exemplary embodiment given by way of indication and not limitation. The understanding of this description will be facilitated with reference to the accompanying drawings, in which: FIG. 1 represents a view of a device according to the invention; Fig. 2 shows an image in structured lighting, and four views of the 3D model obtained therefrom; According to the invention, there is provided a method for evaluating the impact of cosmetic products on the translucency of human skin. This method aims to quantitatively evaluate the translucency changes of a masked region in a human face vis-à-vis a second region of the same face without makeup, keeping the same ambient lighting conditions on both regions.

Le procédé comporte les étapes suivantes : - acquisition d'une image 3D, selon le dispositif dit à lumière structurée, puis plaquage de la texture du visage (sans maquillage) sur le modèle reconstitué - Le système de la lumière structurée est utilisé pour construire une maquette numérique en trois dimensions V3D du visage. - Une image Iml du visage sans application du maquillage est prise sous un éclairage uniforme. Cette image Iml peut être combinée à ladite maquette numérique, pour simuler une image en trois dimensions du visage. - Avec le même éclairage une autre image Im2 est prise avec un effet cosmétique sur toute ou partie du visage. Dans les images Iml et 102 sont considérées deux régions de la peau : une région 'non maquillée' notée ROI1, par exemple sur la pommette droite, et l'autre 'maquillée' notée R012, par exemple sur la pommette gauche. - En se basant sur les paramètres de BSSRDF (Bidirectional Surface Scattering Reflectance Distribution Function) de Jensen, le coefficient de diffusion a's et le coefficient d'absorption aa sont estimés pour chacune des régions : a'sl, a.1 pour la région ROI1, a's2, 0.2 pour la région R012. - La maquette V3D avec les paramètres estimés est utilisée pour calculer les deux composantes responsables de la translucidité de la peau : TR1 les termes translucides pour un visage vierge non maquillé et TR2 les termes translucides pour le visage maquillé. - Une nouvelle image 3D peut être simulée en retirant de l'image Iml les termes translucides non maquillés TR1 et en ajoutant ensuite les termes translucides maquillés TR2. La simulation réciproque consistant à retirer de l'image 102 les termes translucides maquillés TR2 et à ajouter les termes translucides non maquillés TR1 est également réalisable.The method comprises the following steps: - acquisition of a 3D image, according to the so-called structured light device, then plating of the texture of the face (without makeup) on the reconstituted model - The system of structured light is used to build a V3D three-dimensional digital model of the face. - Iml image of the face without applying makeup is taken under uniform lighting. This image Iml can be combined with said digital model, to simulate a three-dimensional image of the face. - With the same lighting another image Im2 is taken with a cosmetic effect on all or part of the face. In the images Im1 and 102 are considered two regions of the skin: a 'non-makeup' region denoted ROI1, for example on the right cheekbone, and the other 'makeup' denoted R012, for example on the left cheekbone. - Based on Jensen's BSSRDF (Bidirectional Surface Scattering Reflectance Distribution Function) parameters, the scattering coefficient a's and the absorption coefficient aa are estimated for each of the regions: a'sl, a.1 for region ROI1 , a's2, 0.2 for the R012 region. - The V3D model with the estimated parameters is used to calculate the two components responsible for the translucency of the skin: TR1 the translucent terms for a virgin face not made up and TR2 the translucent terms for the masked face. - A new 3D image can be simulated by removing from the image Iml the translucent terms not made up TR1 and then adding the translucent makeup TR2. The reciprocal simulation of removing the masked translucent terms TR2 from the image 102 and adding the non-masked translucent terms TR1 is also feasible.

La méthode proposée permet de modéliser le rendu d'une surface selon la quantité de lumière qu'elle réfléchit. La méthode est basée sur le modèle de Jensen qui impose deux contraintes : l'éclairage doit être uniforme, et le milieu paramétré doit être infini. La première contrainte est satisfaite par les conditions d'éclairage lors de la prise de vue : on crée un éclairage ambiant quasi uniforme, par exemple à l'aide de 2 projecteurs placés de part et d'autre de l'appareil de prise de vue, à 45° chacun La seconde contrainte est satisfaite par le fait que l'on travaille sur des zones extraites du visage du sujet (ROI1 et R0I2) Dans ces conditions, les intensités des pixels dans les 15 régions extraites sont utilisées pour calculer la réflectance diffuse totale. Pour la peau, le terme de diffusion simple est négligé pour ne considérer que le terme de diffusion multiple. Le procédé selon l'invention permet d'effectuer deux types d'évaluation des produits cosmétiques : 20 Le premier utilise des critères quantitatifs avec une estimation des deux paramètres a's et aa pour répondre quantitativement aux questions suivantes : - comment la peau humaine interagit avec la lumière incidente ? 25 - quel est le pourcentage de lumière absorbée et de lumière réfléchie ? - comment l'application d'un produit cosmétique modifie ces interactions ? La comparaison entre les deux paramètres a'sl, Gal pour une 30 peau non maquillée avec les mêmes paramètres a's2, 0.2 extraits pour chaque produit cosmétique appliqué, fournit des éléments de réponse aux questions posées. Elle est complétée par le calcul des termes translucides TR1 et TR2, fonction des paramètres a'sl, aal, et a's2, 0a2 respectivement caractérisant l'effet d'un 35 produit cosmétique donné sur tout le visage en trois dimensions.The proposed method makes it possible to model the rendering of a surface according to the quantity of light that it reflects. The method is based on Jensen's model which imposes two constraints: the lighting must be uniform, and the parametric medium must be infinite. The first constraint is satisfied by the lighting conditions during the shooting: we create an almost uniform ambient lighting, for example using 2 projectors placed on both sides of the camera at 45 ° each The second constraint is satisfied by the fact that we work on areas extracted from the face of the subject (ROI1 and ROI2). Under these conditions, the intensities of the pixels in the extracted regions are used to calculate the reflectance. diffuse total. For the skin, the term of simple diffusion is neglected to consider only the term of multiple diffusion. The method according to the invention makes it possible to perform two types of evaluation of cosmetic products: The first uses quantitative criteria with an estimation of the two parameters a and aa to quantitatively answer the following questions: how human skin interacts with the incident light? What is the percentage of light absorbed and reflected light? - how does the application of a cosmetic product modify these interactions? The comparison between the two parameters α1, Gal for a non-makeuped skin with the same parameters α2,2, extracted for each cosmetic product applied, provides elements of answer to the questions asked. It is supplemented by the calculation of the translucent terms TR1 and TR2, a function of the parameters a's1, aal, and a's2, 0a2 respectively characterizing the effect of a given cosmetic product on the whole face in three dimensions.

On peut ensuite pratiquer un rendu simulé à partir d'une image 3D initiale d'un visage sans aucune application du produit. Les termes translucides sans maquillage TR1 sont retirés puis les termes translucides avec maquillage TR2 sont ajoutés. Cette image 3D simule sur tout le visage l'effet translucide du produit cosmétique : - si les images initiale et simulée sont identiques, alors le maquillage n'a pas eu d'effet sur la translucidité, - sinon le maquillage a eu un effet rendant l'apparence de la peau plus opaque ou plus translucide. Le procédé permet également de simuler sur un autre visage l'effet d'un produit cosmétique dont on a auparavant déterminé les termes translucides. Exemple numérique tiré de valeurs relevées sur un visage.One can then practice a simulated rendering from an initial 3D image of a face without any application of the product. The translucent terms without TR1 makeup are removed and the translucent terms with TR2 makeup are added. This 3D image simulates on the whole face the translucent effect of the cosmetic product: - if the initial and simulated images are identical, then the makeup had no effect on the translucency, - otherwise the makeup had an effect making the appearance of the skin more opaque or more translucent. The method also makes it possible to simulate on another face the effect of a cosmetic product whose translucent terms have previously been determined. Numerical example from values found on a face.

Les valeurs moyennes dans chacune des trois composantes RVB (R pour Rouge, V, ou G en anglais pour Vert, et B pour Bleu) pour chacune des régions sont utilisées comme réflectance diffuse totale. Dans la suite nous allons noter par le numéro 2 les paramètres concernant la région R012 avec maquillage et par 20 le numéro 1 ceux qui concernent la région ROI1 sans maquillage : Réflectance diffuse totale R G B Rdl : 0.8031 0.5631 0.5174 Re2 : 0.8502 0.7141 0.6058 Cette réflectance diffuse totale Rd, définie comme le flux lumineux émis par unité de surface est utilisée pour calculer 25 l'albédo réduit a' selon l'équation : Rd 4 / ci e-3( 1-111) =z (1 e V3(1-a1)) 1+Fch.. OÙ A = - , avec Fdr = 1.440 +.710 + 0. 668 + 0. 0636n Fdr n2 F dr étant la réflectance diffuse moyenne de Fresnel et 1) l'indice de réfraction relatif.The average values in each of the three RGB components (R for Red, V, or G for Green, and B for Blue) for each of the regions are used as the total diffuse reflectance. In the following we will note by the number 2 the parameters concerning the region R012 with makeup and by number 1 those concerning the region ROI1 without makeup: Diffuse reflectance total RGB Rdl: 0.8031 0.5631 0.5174 Re2: 0.8502 0.7141 0.6058 This diffuse reflectance total Rd, defined as the luminous flux emitted per unit area is used to calculate the reduced albedo a 'according to the equation: Rd 4 / ci e-3 (1-111) = z (1 e V3 (1- a1)) 1 + Fch .. Where A = -, with Fdr = 1.440 +.710 + 0. 668 + 0. 0636n Fdr n2 F dr being the Fresnel average diffuse reflectance and 1) the relative refractive index.

En cherchant dans une look-up table créée pour l'albédo réduit, les albédos réduits correspondants sont obtenus : R G B Albédo 0.9482 0.8876 0.8690 réduit a'l : Albédo 0.9553 0.9312 0.9021 réduit a'2 : Ces valeurs a' avec la valeur du libre parcours moyen /d = 1.815, 1.0213, 0.6453, sont utilisées pour résoudre les équations suivantes : a,= et cr't = où : t = a' s + 0a G's+ Ga 1c1 -13(1-a') Ce que donne pour le présent exemple : R G B R G B 's1 a .3251 1 .4964 1 .1477 2 al a .0724 0 .1896 0 .3239 0 's2 a .4364 1 .0075 2 .5795 2 a2 a .0673 0 .1482 0 .2799 0 Calcul du terme translucide. On considère le flux lumineux (1): le flux de photons par 1124) (x, Wr) dAdIcos9 émis per unité de surface dans une direction donnée. La méthode BSSRDF consiste à lier la luminance réfléchie dLo(xo, 17e0) au point xo dans la direction Wo, au flux c14)i(xi, Wi) au point xi dans la direction ivj, par la relation : 20 S(Xi, Wi ; x0, c11,0 (x0, W0) 41 (xi, tivi) S(xi,Wi; x0, wo) étant la définition analytique de la BSSRDF. unité de temps, et la luminance L= : /e flux lumineux Le calcul de S(xi, wi ; xo, wo) se décompose d'abord de la manière suivante : 1 S(Xi, Wi; ) = -Ft(n, aRd(r,ds, 0-o)M(x0)Ft(n, wo) Ft(71, tiv>i),Ft(n, wo) sont les fonctions de transmission de Fresnel pour la lumiere entrante et la lumière sortante.By looking in a look-up table created for reduced albedo, the corresponding reduced albedos are obtained: RGB Albédo 0.9482 0.8876 0.8690 reduced a'l: Albédo 0.9553 0.9312 0.9021 reduced a'2: These values a 'with the value of free mean course / d = 1.815, 1.0213, 0.6453, are used to solve the following equations: a, = and cr't = where: t = a 's + 0a G's + Ga 1c1 -13 (1-a') What gives for the present example: RGBRGB 's1 a .3251 1 .4964 1 .1477 2 al a .0724 0 .1896 0 .3239 0' s2 a .4364 1 .0075 2 .5795 2 a2 a .0673 0 .1482 0. 2799 0 Calculation of the translucent term. We consider the luminous flux (1): the photon flux by 1124) (x, Wr) dAdIcos9 emitted per unit area in a given direction. The BSSRDF method consists of linking the reflected luminance dLo (xo, 17e0) to the point xo in the direction Wo, to the flux c14) i (xi, Wi) at the point xi in the direction ivj, by the relation: S (Xi, Wi; x0, c11,0 (x0, W0) 41 (xi, tivi) S (xi, Wi; x0, wo) being the analytical definition of the BSSRDF, unit of time, and the luminance L =: / e luminous flux The computation of S (xi, wi; xo, wo) decomposes first as follows: 1 S (Xi, Wi;) = -Ft (n, aRd (r, ds, 0-o) M (x0 ) Ft (n, wo) Ft (71, tiv> i), Ft (n, wo) are the Fresnel transmission functions for the incoming light and the outgoing light.

Rd(r,ds, (fa): est l'approximation de dipôle de Jensen. /1/(x0) : est un paramètre de texture de modulation spatialement variant (détails du visage) On en déduit le terme translucide TR(xi, x0,w0) = F(i) Rd(r, , uo) F(i0) en appliquant à n sa valeur 1,3 pour la peau en chaque point xi du modèle 3D du visage. Pour mettre en oeuvre un procédé selon l'invention, les inventeurs ont imaginé un dispositif adapté. Pour générer un éclairage ambiant quasi uniforme, on 15 utilise deux projecteurs 7 photographiques, par exemple de type 'Lastolite RayD8 c5600'. Chacun est équipé d'une ampoule fluorescente produisant une lumière de jour avec une température de 5200 K. Les deux projecteurs sont utilisés pour éclairer le visage de sujet qui se situe à une distance d'environ un mètre 20 d'un appareil photo. Les deux projecteurs font successivement des angles d'illumination de 45° et -45° avec l'axe de prise du vue de l'appareil photo. Un temps de stabilisation d'une minute est respecté pour atteindre le plein éclairage des projecteurs, ensuite une 25 correction de la balance des blancs de l'appareil photo est effectuée. Pour minimiser les effets de réflexion spéculaire, on peut utiliser : - soit des images du type High Dynamic Range générées pour chaque sujet en utilisant trois photos 30 prises sous trois niveaux d'exposition par l'appareil photo, par exemple un Canon EOS 5 avec une résolution de 4368x2912 pixels, - soit des images acquises par l'appareil photo muni d'un filtre polarisant. Fig.1 montre l'ensemble du système d'acquisition. Un projecteur 1 de lumière structurée est disposé à 5 proximité immédiate de l'appareil photo 2. Il est apte à projeter une lumière structurée sur le visage 3 à analyser. Cette lumière structurée peut consister en une séquence répétitive de couleurs, où chaque couleur constitue une ligne 4, et où deux lignes consécutives sont séparées par un espace 5 10 sans couleur (noir). Le motif est basé sur le principe des séquences de De Bruijn, et chaque couleur est déterminée par la valeur du symbole dans la séquence. Une seule photo avec le motif de lumière structurée projeté sur le visage, permet d'acquérir une image 3D (visage seul sans 15 les cheveux), et permet une reconstruction avec un maillage de précision d'environ 2 mm (voir Fig. 2). Une seconde photo, sans motif projeté, permet d'acquérir une texture, qui sera ensuite plaquée sur l'image 3D. Le traitement des images et le calcul des paramètres sont 20 effectués à l'aide d'un ordinateur avec une mémoire et un module de calcul numérique. L'appareil photo 2 et le projecteur 1 sont fixés, et donc contraints, sur un cadre 6 en aluminium et ils sont initialement calibrés (orientation de chacun) à l'aide d'une mire de 25 calibration (mire affichée et mire projetée). Enfin on notera que ce dispositif, conçu pour la cosmétique, pourrait également trouver des applications dans la caractérisation de pièces mécaniques, de pièces molles « en mouvement » (simplicité et rapidité du processus d'acquisition 30 du modèle 3D), ou encore en archéologie (dater des porcelaines à partir de leur translucidité). L'avantage du procédé selon la présente invention réside en particulier en ce qu'elle permet, par un dispositif simple, de quantifier l'effet d'un maquillage sur un visage, puis de 35 simuler cet effet sur un visage qui peut être un autre visage.Rd (r, ds, (fa): is the Jensen dipole approximation. / 1 / (x0): is a spatially varying modulation texture parameter (details of the face) We deduce the translucent term TR (xi, x0, w0) = F (i) Rd (r,, uo) F (i0) by applying to n its value 1.3 for the skin at each point xi of the 3D model of the face. The inventors have devised a suitable device for generating substantially uniform ambient lighting, using two photographic projectors 7, for example of the 'Lastolite RayD8 c5600' type, each of which is equipped with a fluorescent bulb producing daylight. The two projectors are used to illuminate the subject's face which is at a distance of approximately one meter from a camera.The two projectors successively make illumination angles of 45 ° and -45 ° with the camera's take-off axis A stabilization time of one minute is r In order to achieve full floodlighting, then a correction of the white balance of the camera is made. To minimize specular reflection effects, it is possible to use: - High Dynamic Range type images generated for each subject using three photos taken at three levels of exposure by the camera, for example a Canon EOS 5 with a resolution of 4368x2912 pixels, - images acquired by the camera equipped with a polarizing filter. Fig.1 shows the entire acquisition system. A structured light projector 1 is arranged in close proximity to the camera 2. It is able to project a structured light onto the face 3 to be analyzed. This structured light may consist of a repeating sequence of colors, where each color constitutes a line 4, and where two consecutive lines are separated by a colorless space (black). The pattern is based on the principle of De Bruijn sequences, and each color is determined by the value of the symbol in the sequence. A single photo with the structured light pattern projected on the face, allows to acquire a 3D image (face alone without the hair), and allows reconstruction with a precision mesh of about 2 mm (see Fig. 2) . A second photo, without a projected motive, makes it possible to acquire a texture, which will be then plated on the 3D image. The processing of the images and the calculation of the parameters are carried out using a computer with a memory and a numerical calculation module. The camera 2 and the projector 1 are fixed, and therefore constrained, on an aluminum frame 6 and they are initially calibrated (orientation of each) using a calibration chart (displayed pattern and projected pattern) . Finally, it should be noted that this device, designed for cosmetics, could also find applications in the characterization of mechanical parts, of soft parts "in motion" (simplicity and speed of the acquisition process of the 3D model), or in archeology (date porcelains from their translucency). The advantage of the method according to the present invention resides in particular in that it allows, by a simple device, to quantify the effect of a make-up on a face, and then to simulate this effect on a face that may be a other face.

Bien que l'invention ait été décrite à propos d'une forme de réalisation particulière, il est bien entendu qu'elle n'y est nullement limitée et qu'on peut y apporter diverses modifications de formes, de matériaux et de combinaisons de ces divers éléments sans pour cela s'éloigner du cadre de l'invention.Although the invention has been described with respect to a particular embodiment, it is understood that it is in no way limited and that various modifications of shapes, materials and combinations thereof can be made. various elements without departing from the scope of the invention.

Claims (7)

REVENDICATIONS1. Procédé d'évaluation des effets de l'application d'un produit cosmétique sur un visage, comprenant les étapes 5 suivantes : a) acquisition d'une image 3D dudit visage éclairé par un dispositif de lumière structurée en lignes droites parallèles b) établissement d'un modèle 3D à partir de ladite 10 image c) acquisition d'une image de texture dudit visage vierge, sans application de produit cosmétique, éclairé par un dispositif de lumière non structurée d) superposition de ladite image de texture et 15 dudit modèle 3D e) évaluation quantitative des coefficients de diffusion et d'absorption du visage vierge, et calcul du terme translucide du visage vierge, f) acquisition d'une image de texture dudit visage 20 maquillé, ledit produit cosmétique lui étant appliqué, éclairé par un dispositif de lumière non structurée, g) superposition de ladite image de texture et dudit modèle 3D h) évaluation quantitative des coefficients de 25 diffusion et d'absorption, et calcul du terme translucide du visage maquillé.REVENDICATIONS1. A method of evaluating the effects of applying a cosmetic product to a face, comprising the following steps: a) acquiring a 3D image of said face illuminated by a light device structured in parallel straight lines; a 3D model from said image c) acquisition of a texture image of said blank face, without application of cosmetic product, illuminated by an unstructured light device d) superposition of said texture image and said 3D model e) quantitative evaluation of the diffusion and absorption coefficients of the virgin face, and calculation of the translucent term of the blank face, f) acquisition of a texture image of said makeup face, said cosmetic product being applied to it, illuminated by a device of unstructured light, g) superposition of said texture image and said 3D model h) quantitative evaluation of diffusion and absorption coefficients, and calc ul the translucent term of the masked face. 2. Procédé selon la revendication précédente, dans lequel les étapes c) et f) sont effectuées en une seule acquisition d'image, ledit visage étant vierge sur une moitié de 30 visage et maquillé, ledit produit cosmétique lui étant appliqué, sur l'autre moitié du visage et les étapes e) et h) sont effectuées en choisissant deux régions sensiblement symétriques du visage, l'une sur la moitié vierge, l'autre sur la moitié maquillée. 352. Method according to the preceding claim, wherein steps c) and f) are performed in a single image acquisition, said face being blank on one half face and makeup, said cosmetic product being applied thereto, on the other half of the face and steps e) and h) are performed by choosing two substantially symmetrical regions of the face, one on the blank half, the other on the half masked. 35 3. Procédé selon la revendication 1, dans lequel les étapes c) et f) sont effectuées en deux acquisitions d'image,ledit visage étant vierge sur l'une des image et maquillé, ledit produit cosmétique lui étant appliqué, sur l'autre image, les étapes e) et h) sont effectuées en choisissant deux régions positionnées au même endroit du visage, l'une sur l'image du visage vierge, l'autre sur l'image du visage maquillé.3. Method according to claim 1, wherein steps c) and f) are performed in two image acquisitions, said face being blank on one of the image and makeup, said cosmetic product being applied to it, on the other image, steps e) and h) are performed by choosing two regions positioned at the same place on the face, one on the image of the virgin face, the other on the image of the masked face. 4. Procédé de simulation des effets de l'application d'un produit cosmétique sur un deuxième visage, comprenant un procédé d'évaluation des effets de l'application dudit produit cosmétique sur un premier visage selon l'une des revendications précédentes, et comprenant en outre les étapes suivantes : acquisition d'une image 3D dudit deuxième visage éclairé par un dispositif de lumière structurée en lignes droites parallèles établissement d'un modèle 3D à partir de ladite image acquisition d'une image de texture dudit deuxième visage vierge, sans application de produit cosmétique, éclairé par un dispositif de lumière non structurée superposition de ladite image de texture et dudit modèle 3D soustraction du terme translucide du visage vierge calculé sur le premier visage ajout du terme translucide du visage maquillé calculé sur le premier visage.4. A method for simulating the effects of the application of a cosmetic product on a second face, comprising a method of evaluating the effects of the application of said cosmetic product on a first face according to one of the preceding claims, and comprising in addition the following steps: acquisition of a 3D image of said second face illuminated by a light device structured in parallel straight lines establishment of a 3D model from said image acquisition of a texture image of said second blank face, without application of cosmetic product, illuminated by an unstructured light device superposition of said texture image and said 3D model subtraction of the translucent term of the blank face calculated on the first face addition of the translucent term of the makeup face calculated on the first face. 5. Dispositif d'évaluation des effets d'une pratique cosmétique spécialement conçu pour mettre en oeuvre un procédé selon l'une des revendications précédentes caractérisé en ce qu'il comprend un moyen d'éclairage uniforme (7), un moyen d'acquisition numérique d'une image (2), un dispositif (1) de lumière structurée en lignes droites parallèles (4) et un moyen de traitement numérique de données apte à établir un modèle 3D en utilisant la déformation des lignes projetées sur une surface non plane, et un dispositif de lumière non structurée.5. Apparatus for evaluating the effects of a cosmetic practice specifically designed to implement a method according to one of the preceding claims characterized in that it comprises a uniform illumination means (7), a means of acquisition digital image (2), a device (1) of light structured in parallel straight lines (4) and a digital data processing means adapted to establish a 3D model using the deformation of the projected lines on a non-flat surface , and an unstructured light device. 6. Dispositif selon la revendication précédente, dans deux lequel ledit moyen d'éclairage uniforme est composé de dispositifs (7) de lumière non structurée.6. Device according to the preceding claim, in which said two uniform illumination means is composed of devices (7) of unstructured light. 7. Dispositif selon la revendication précédente, dans lequel ledit moyen de traitement comprend un moyen de détection d'une discontinuité d'une ligne (4) et un moyen d'affectation à une ligne donnée des deux côtés de ladite discontinuité.7. Device according to the preceding claim, wherein said processing means comprises means for detecting a discontinuity of a line (4) and means for assigning to a given line on both sides of said discontinuity.
FR1260089A 2012-10-23 2012-10-23 Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients Withdrawn FR2996996A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1260089A FR2996996A1 (en) 2012-10-23 2012-10-23 Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1260089A FR2996996A1 (en) 2012-10-23 2012-10-23 Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients

Publications (1)

Publication Number Publication Date
FR2996996A1 true FR2996996A1 (en) 2014-04-25

Family

ID=47425145

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1260089A Withdrawn FR2996996A1 (en) 2012-10-23 2012-10-23 Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients

Country Status (1)

Country Link
FR (1) FR2996996A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1216658A1 (en) * 2000-12-21 2002-06-26 L'oreal Method for determining a degree of a feature of bodily typology
EP1297781A1 (en) * 2001-10-01 2003-04-02 L'oreal Early detection of beauty treatment progress
EP1635298A1 (en) * 2004-09-07 2006-03-15 L'oreal Method and apparatus to generate a synthesized image of at least a fringe of lashes
FR2915820A1 (en) * 2007-05-03 2008-11-07 Oreal METHOD FOR EVALUATING A TYPOLOGY OF LIP AND EVALUATION SYSTEM FOR IMPLEMENTING SUCH A METHOD
WO2012121556A2 (en) * 2011-03-10 2012-09-13 주식회사 미르기술 Vision testing device using multigrid pattern

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1216658A1 (en) * 2000-12-21 2002-06-26 L'oreal Method for determining a degree of a feature of bodily typology
EP1297781A1 (en) * 2001-10-01 2003-04-02 L'oreal Early detection of beauty treatment progress
EP1635298A1 (en) * 2004-09-07 2006-03-15 L'oreal Method and apparatus to generate a synthesized image of at least a fringe of lashes
FR2915820A1 (en) * 2007-05-03 2008-11-07 Oreal METHOD FOR EVALUATING A TYPOLOGY OF LIP AND EVALUATION SYSTEM FOR IMPLEMENTING SUCH A METHOD
WO2012121556A2 (en) * 2011-03-10 2012-09-13 주식회사 미르기술 Vision testing device using multigrid pattern

Similar Documents

Publication Publication Date Title
EP3034992B1 (en) Structured light projector and three-dimensional scanner comprising such a projector
Jimenez et al. Screen-space perceptual rendering of human skin
US8264490B2 (en) Practical modeling and acquisition of layered facial reflectance
Klehm et al. Recent advances in facial appearance capture
US8300234B2 (en) Estimating spectral distribution of reflections from object surface based on low frequency illumination
Qian et al. Full-color structured illumination optical sectioning microscopy
US20160261850A1 (en) Near-instant capture of high-resolution facial geometry and reflectance
US20070285422A1 (en) Method for Separating Direct and Global Illumination in a Scene
FR2910123A1 (en) Object`s outer surface three dimensional measuring method for meteorological application, involves illuminating images containing portion of outer surfaces by illumination points of projection axis, and capturing images
FR2950695A1 (en) METHOD AND SYSTEM FOR VISUAL APPEARANCE MEASUREMENT FOR BRAZEN FIBERS ARRANGED RANDOMLY AND REGULARLY.
JP2012044421A5 (en)
EP3720115A1 (en) Method for imaging with pulsed light
WO2005088985A1 (en) Sequential colour illumination system, method for producing a colour wheel for said system and a colour segment device
Fuchs et al. Combining confocal imaging and descattering
Qiao et al. Snapshot coherence tomographic imaging
EP3552575B1 (en) Method for generating a 3d model of a dental arch
Bimber et al. Closed-loop feedback illumination for optical inverse tone-mapping in light microscopy
FR2996996A1 (en) Method for evaluating effects of applying cosmetic product on face, involves capturing and superposing texture image of face made up with cosmetic product with three-dimensional model, and evaluating diffusion and absorption coefficients
FR2893428A1 (en) METHOD AND SYSTEM FOR RECONSTRUCTION OF OBJECT SURFACES BY POLARIZATION IMAGING
WO2019170420A1 (en) Method for reconstructing a colour image acquired by a sensor covered with a mosaic of colour filters
EP2502206A2 (en) Method for estimating light scattering
JP2006113022A (en) Defect detection device and method on antireflection film
JP2022060641A (en) Texture acquisition system, texture acquisition apparatus, and texture acquisition program
WO2012000847A2 (en) Method of estimating diffusion of light
WO2015162235A2 (en) Displaying device with simulation of reflections and/or scintillations

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

ST Notification of lapse

Effective date: 20180629