FR3134645A1 - Prédiction du teint de la peau à l'aide d'un modèle de visage 3D - Google Patents

Prédiction du teint de la peau à l'aide d'un modèle de visage 3D Download PDF

Info

Publication number
FR3134645A1
FR3134645A1 FR2203402A FR2203402A FR3134645A1 FR 3134645 A1 FR3134645 A1 FR 3134645A1 FR 2203402 A FR2203402 A FR 2203402A FR 2203402 A FR2203402 A FR 2203402A FR 3134645 A1 FR3134645 A1 FR 3134645A1
Authority
FR
France
Prior art keywords
interest
area
image
user
skin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2203402A
Other languages
English (en)
Inventor
Sileye BA
Matthieu Perrot
Louis DUPONT DE DINECHIN
Emmanuel Malherbe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LOreal SA filed Critical LOreal SA
Priority to FR2203402A priority Critical patent/FR3134645A1/fr
Priority to PCT/EP2023/059472 priority patent/WO2023198728A1/fr
Publication of FR3134645A1 publication Critical patent/FR3134645A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model

Abstract

Prédiction du teint de la peau à l'aide d'un modèle de visage 3D L’invention concerne un procédé de détermination d’une couleur de la peau d’une zone d’intérêt d’un utilisateur, comprenant : (i) une importation d’au moins une image comportant une représentation de la zone d’intérêt de l’utilisateur ; (ii) une reconstruction 3D de la zone d’intérêt pour générer le modèle 3D de la zone d’intérêt ; (iii) un dépliage UV du modèle 3D sur au moins un plan projeté pour obtenir une carte UV pour chaque plan projeté ; (iv) un traitement de la carte UV avec un modèle d'apprentissage;(v) une évaluation de la couleur de la peau de la zone d’intérêt. Fig. 2

Description

Prédiction du teint de la peau à l'aide d'un modèle de visage 3D
La présente invention concerne un procédé de détermination d’une couleur de la peau d’une zone d’intérêt d’un utilisateur. Elle vise également un système pour la mise en œuvre de ce procédé, en particulier dans le cadre d’une recommandation de produits cosmétiques.
Plus généralement, un produit cosmétique est un produit tel que défini dans le Règlement CE N°1223/2009 du Parlement européen et du Conseil daté du 30 novembre 2009, relatif aux produits cosmétiques.
Arrière-plan technologique
Acheter des produits en ligne, notamment via des appareils informatiques mobiles, est un moyen pratique pour les consommateurs de naviguer et d'obtenir des produits. Diverses technologies existent pour fournir aux acheteurs en ligne des recommandations de produits susceptibles de les intéresser en fonction d’analyses de leurs consultations en lignes, historiques d’achats, commentaires, notations de produits.
Toutefois, il existe certains types de produits pour lesquels une interaction en personne est difficile à remplacer par une expérience en ligne. Par exemple, les produits de beauté tels que les fonds de teint ou autres produits de maquillage sont difficiles à parcourir en ligne, et il est difficile de les recommander de manière automatisée. Cela est principalement dû au fait que la caractéristique du consommateur qui serait la base la plus pertinente d'une recommandation, c’est-à-dire en particulier la couleur de la peau du visage, est difficile à estimer de manière automatisée. Même si une image ou une vidéo du consommateur est capturée, cette image ou vidéo ne peut classiquement pas être utilisée pour déterminer de manière fiable la couleur de la peau en raison de limitations techniques dans le traitement des images provenant d'environnements non contrôlés. Des conditions d'éclairage incohérentes entre les différents lieux entraîneraient des reproductions de couleurs différentes dans l'image ou la vidéo à différents endroits, et la couleur de peau déterminée serait donc différente en fonction des conditions d'éclairage.
Le document US10 936 853 décrit dans un environnement de support numérique pour la correspondance des couleurs d'images numériques assistée par teint, un procédé mis en œuvre par un dispositif informatique, le procédé comprenant : recevoir une image d'entrée à modifier sur la base de caractéristiques de couleur d'une image de référence ; détecter des visages dans l'image d'entrée et dans l'image de référence ; déterminer une valeur de teint de peau reflétant un teint de peau de chacun des visages ; regrouper les visages en groupes de visages sur la base de la valeur de teint de peau de chacun des visages, les groupes de visages comprenant chacun des visages de teint de peau similaires qui sont regroupés à partir de l'image d'entrée et regroupés à partir de l'image de référence sur la base d'une différence de valeur de teint de peau moyenne inférieure à ou égal à un seuil de regroupement des visages à teint de peau similaire ; faire correspondre une paire de groupes de visages en tant que groupe de visages d'image d'entrée apparié avec un groupe de visages d'image de référence ; et générer une image modifiée à partir de l'image d'entrée sur la base des caractéristiques de couleur de l'image de référence, les caractéristiques de couleur comprenant les tons chair des visages respectifs dans la paire de groupes de visages faisant partie des caractéristiques de couleur appliquées pour modifier l'image d'entrée.
Le document WO2014168678A9 divulgue un système comprenant un module d'informations d'utilisateur, dans lequel le module d'informations d'utilisateur capture une image de peau d'utilisateur ; une interface utilisateur graphique, dans laquelle l'interface utilisateur graphique permet la sélection d'une application liée à la peau parmi une pluralité d'applications liées à la peau ; une base de données d'images de peau ; un processeur couplé au module d'informations utilisateur, à l'interface utilisateur graphique et à la base de données d'images de peau comprenant des données de couleur de peau et des données de texture de peau, le processeur étant configuré pour déterminer des données d'image de peau d'utilisateur à partir de l'image de peau d'utilisateur identifier un ou plusieurs des ensembles de données d'image de peau dans la base de données d'images de peau qui correspondent aux données d'image de peau d'utilisateur sur la base d'un ou plusieurs paramètres spécifiés par l'application liée à la peau ; et appliquer au moins un filtre de traitement d'image qui correspond au ou aux ensembles identifiés de données d'image de peau de la base de données d'images de peau à l'image de peau d'utilisateur pour générer une image de peau d'utilisateur simulée ; et un affichage de sortie, l'affichage de sortie affiche l'image de peau d'utilisateur simulée.
Le document US20210209427 divulgue un appareil comprenant : un circuit de traitement pour accepter au moins une image représentant la peau du visage d'un utilisateur ; un circuit de communication pour transmettre l'image acceptée aux modèles d'apprentissage automatique et pour recevoir une recommandation de régime des modèles d'apprentissage automatique ; et un circuit d'interface utilisateur pour présenter la recommandation de régime à l'utilisateur, dans lequel le circuit d'interface utilisateur est en outre configuré pour présenter des images de visages humains à l'utilisateur ; le circuit de traitement étant en outre configuré pour accepter une entrée de l'utilisateur qui classe les caractéristiques de la peau du visage à partir des images qui lui sont fournies via le circuit d'interface utilisateur ; et le circuit d'interface de communication étant en outre configuré pour transmettre l'entrée de l'utilisateur aux modèles d'apprentissage automatique en tant que données d'apprentissage.
Il est souhaitable d’améliorer encore la précision de la couleur évaluée à partir d’images ayant des conditions d'éclairage diverses et a priori inconnues.
Définition de l’invention
L’invention concerne un procédé de détermination d’une couleur de la peau d’une zone d’intérêt d’un utilisateur, comprenant :
(i) une importation depuis une bibliothèque d’images d’un appareil informatique utilisateur d’au moins une image comportant une représentation de la zone d’intérêt de l’utilisateur ;
(ii) une reconstruction 3D de la zone d’intérêt par un ajustement de la pluralité d’images 2D d’entrée à un modèle 3D de la zone d’intérêt en collectant des points de repère à partir de la pluralité d'images 2D puis en générant un maillage en réponse aux points de repères et en ajustant le maillage pour générer le modèle 3D de la zone d’intérêt,
(iii) un dépliage UV du modèle 3D sur au moins un plan projeté pour obtenir une carte UV pour chaque plan projeté ;
(iv) un traitement de la carte UV avec un modèle d'apprentissage machine adapté pour fournir, pour chaque image importée, une valeur numérique représentative de la couleur de la peau de la zone d’intérêt présente sur ladite au moins une image importée ;
(v) une évaluation de la couleur de la peau de la zone d’intérêt à partir de la ou desdites valeur(s) numérique(s) de chaque image importée.
Par exemple, l’appareil informatique utilisateur peut être un téléphone multifonction (usuellement désigné par l’anglicisme « smartphone »), une tablette tactile, un ordinateur personnel, une montre connectée ou tout autre appareil informatique pouvant faire des selfies.
Par «bibliothèque d’images» on entend un répertoire, usuellement prévu dans les appareils informatiques utilisateurs, accédant à toutes ou quasiment toutes les images et photographies enregistrées dans la mémoire de l’appareil informatique utilisateur ou dans une mémoire distante accessible depuis l’appareil informatique utilisateur, par exemple du type mémoire « en nuage » (usuellement désignée par l’anglicisme « cloud »).
Ladite au moins une image est préférablement une photographie prise avec un capteur photographique de l’appareil informatique utilisateur, éventuellement une photographie prise avec un autre appareil et importée dans l’appareil informatique utilisateur.
Le procédé selon l’invention s’avère très performant lors d’un traitement d’images dont les conditions d'éclairage sont diverses et variées, telles qu’elles peuvent exister dans la bibliothèque d’images de l’appareil informatique utilisateur.
Bien que l’invention trouve une application particulièrement intéressante et avantageuse dans la détermination de la couleur de peau d’un visage, elle peut s’appliquer néanmoins à la détermination de la couleur de peau d’une autre zone d’intérêt, par exemple une autre partie du corps, en particulier en vue de l’application sur ladite zone d’intérêt, d’au moins un produit cosmétique basée sur ladite évaluation de la couleur de la peau de cette zone d’intérêt.
L’invention concerne aussi un système de détermination d’une couleur de la peau d’une zone d’intérêt d’un utilisateur, comprenant : des moyens de communication adaptés pour communiquer avec un appareil informatique utilisateur et configurés pour importer depuis une bibliothèque d’images de l’appareil informatique utilisateur, au moins une image comportant une représentation de la zone d’intérêt de l’utilisateur ; des moyens de traitement configurée pour effectuer (a) une reconstruction 3D de la zone d’intérêt par un ajustement de la pluralité d’images 2D d’entrée à un modèle 3D de la zone d’intérêt en collectant des points de repère à partir de la pluralité d'images 2D puis en générant un maillage en réponse aux points de repères et en ajustant le maillage pour générer le modèle 3D de la zone d’intérêt,(b) un dépliage UV du modèle 3D sur au moins un plan projeté pour obtenir une carte UV pour chaque plan projeté ; (c) un traitement de la carte UV avec un modèle d'apprentissage machine adapté pour fournir, pour chaque image importée, une valeur numérique représentative de la couleur de la peau de la zone d’intérêt présente sur ladite au moins une image importée ; (d) une évaluation de la couleur de la peau de la zone d’intérêt à partir de la ou desdites valeur(s) numérique(s) de chaque image importée.
De préférence, les moyens de communication sont adaptés pour communiquer avec l’appareil informatique utilisateur par l’intermédiaire d’un réseau de télécommunications.
L’invention concerne aussi un programme d’ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent celui-ci à mettre en œuvre le procédé décrit ci-dessus.
L’invention concerne aussi un support lisible par ordinateur comprenant des instructions qui, lorsqu'elles sont exécutées par un ordinateur, conduisent celui-ci à mettre en œuvre le procédé tel que décrit précédemment.
Définitions principales
L'albédo est la proportion de lumière incidente réfléchie par une surface.
La réflexion diffuse est la réflexion de la lumière dans plusieurs directions, plutôt que dans une seule direction, à la manière d'un miroir ( réflexion spéculaire ).
Dans le cas d'une réflexion diffuse idéale ( « réflectance de Lambert » ), la lumière incidente est réfléchie dans toutes les directions indépendamment de l'angle auquel elle est arrivée. Comme dans la littérature informatique, il existe parfois un "coefficient diffus" lors du calcul de la couleur d'un pixel, indiquant la proportion de lumière réfléchie de manière diffuse. Le termealbedodésigne la proportion de lumière réfléchie non diffuse.
Si on effectue le rendu d'un matériau dont la réflectance diffuse est idéale, alors l'albédo sera égal au coefficient diffus. Cependant, en général, une surface peut réfléchir une partie de la lumière de façon diffuse et une autre lumière de manière spéculaire ou en fonction de la direction, de sorte que le coefficient de diffusion ne représente qu'une fraction de l'albédo.
Une "normal map" (carte de normales) est habituellement une image RVB où les composantes fournissent les coordonnées X, Y et Z de la normale du texel de la texture correspondante. Dit autrement, chaque pixel de la normal map est en réalité un vecteur fournissant l'information d'élévation et d'inclinaison de sa surface, c'est-à-dire, de la surface du texel sur lequel sera appliqué la normal map. On l'utilise donc telle une texture, en complément de la texture diffuse.
Modes de réalisation préférés
De préférence, le procédé selon l’invention présente une ou plusieurs des caractéristiques suivantes, prises seules ou en combinaison :
La zone d’intérêt est de l’utilisateur est le visage de l’utilisateur.
Il comprend un pré-traitement de l’image 2D d’entrée pour effectuer un centrage et une mise à l’échelle de la zone d’intérêt.
Le dépliage UV comporte la projection du modèle 3D sur plan, un cylindre ou une sphère, et de préférence sur un cylindre.
Il comprend une détermination, à partir de la carte UV, d’une composante diffuse et d’une composante spéculaire d’un albédo, pour chaque pixel.
Il comprend une estimation à partir de la carte UV, d’une carte des normales fournissant une image RVB.
Il comprend une détermination, à partir de la carte UV, d’une couleur et d’une direction d’une lumière incidente, pour chaque pixel.
On décompose la carte UV en un albédo, une normale et un éclairage par rendu inverse.
On décompose la carte UV par rendu inverse avec un modèle d'imagerie Blinn-Phong.
On décompose l’évaluation de la couleur de la peau de la zone d’intérêt est réalisée à partir de la composante diffuse de l’albédo.
Le modèle d'apprentissage machine est un réseau neuronal convolutif préformé.
Il comprend en outre une recommandation d’au moins un produit cosmétique basée sur ladite évaluation de la couleur de la peau de la zone d’intérêt.
Description des figures
D’autres caractéristiques et avantages de l’invention ressortiront à la lecture de la description détaillée qui va suivre, d’exemples de mise en œuvre non limitatifs de celle-ci, et à l’examen du dessin annexé, sur lequel :
La représente un exemple de système SYS.
La illustre un exemple de procédé de détermination d’une couleur de la peau d’un visage.
La illustre autre exemple de procédé de détermination d’une couleur de la peau d’un visage.
La est un schéma fonctionnel illustrant un mode de réalisation du procédé selon la présente invention.
La montre un exemple de maillage du visage.
La montre une projection sur un cylindre du modèle 3D obtenu à partir du maillage de la .
La montre une carte de réflectance faciale diffuse obtenue à partir de la carte UV de la .
La montre une carte de réflectance faciale spéculaire obtenue à partir de la carte UV de la .
La représente un exemple de système SYS comportant des moyens de traitement PU configurés pour effectuer un traitement TS d’au moins une image IMi, IMj, IMk avec un modèle d'apprentissage machine AI_TS, et évaluer EVAL la couleur de la peau d’une zone d’intérêt d’un utilisateur, présente sur la ou les image(s) IMi, IMj, IMk.
Pour les mêmes raisons, la description est également faite dans le cas non-limitatif dans lequel la zone d’intérêt de l’utilisateur est le visage de l’utilisateur.
Le modèle d'apprentissage machine AI_TS est configuré et entrainé pour fournir, pour chaque image IMk, une valeur numérique ClrEstm représentative de la couleur de la peau d’un visage présent sur chacune des images IMk.
Les moyens d’évaluation EVAL sont configurés pour évaluer la couleur de la peau du visage à partir des valeurs numériques ClrEstm de chaque image. Par exemple l’évaluation peut comprendre un calcul de combinaison des valeurs ClrEstm, tel qu’un calcul de moyenne ou de médiane, avec pondérations ou non.
Des moyens de communication COM sont adaptés pour communiquer avec un appareil informatique utilisateur APP et configurés pour recevoir IN_DAT lesdites images IMi, IMj, IMk depuis une bibliothèque d’images LIB de l’appareil informatique utilisateur APP.
En particulier, l’appareil informatique utilisateur APP peut appartenir au système SYS en ce sens qu’il peut être spécifiquement configuré, par exemple de façon logicielle dans l’exécution d’une application ou d’un site web, pour collaborer avec les moyens de traitements PU pour transmettre les images IMi, IMj, IMk dans l’importation des images IN_DAT par les moyens de traitements PU.
L'appareil informatique utilisateur APP et les moyens de communication COM peuvent communiquer en utilisant toute technologie de communication appropriée, telle que des technologies de communication sans fil, par exemple le Wi-Fi®, le Wi-MAX®, le Bluetooth®, la 2G, la 3G, la 4G, la 5G et LTE, ou des technologies de communication filaire, par exemple l'Ethernet, le FireWire et l'USB. En particulier, la communication entre l'appareil informatique utilisateur et l'appareil de détermination de la couleur de la peau peut se produire au moins en partie via Internet.
L’appareil informatique utilisateur APP peut par exemple être un téléphone multifonction (usuellement désigné par l’anglicisme « smartphone »), une tablette tactile, un ordinateur personnel, une montre connectée ou tout autre appareil informatique pouvant avoir une bibliothèque d’images LIB.
La bibliothèque d’images LIB est usuellement un répertoire prévu dans les interfaces des appareils informatiques utilisateurs APP, accédant à toutes ou quasiment toutes les images et photographies IM1-IM4, IMk enregistrées dans une mémoire non-volatile INT_NVM interne de l’appareil informatique utilisateur APP. Les images et photographies IM1-IM4, IMk de la bibliothèque LIB peuvent aussi ou alternativement être enregistrées dans une mémoire distante d’un serveur CLD accessible depuis l’appareil informatique utilisateur APP (par exemple dans « le cloud » selon l’anglicisme usuel).
Ladite au moins une image IM1-IM4, IMk est préférablement une photographie d’un visage prise avec un capteur photographique CAM de l’appareil informatique utilisateur APP, ou une photographie d’un visage prise avec un autre appareil et importée dans la bibliothèque d’images LIB de l’appareil informatique utilisateur APP.
Les images IM1-IM4, IMk de la bibliothèque d’images IMk ont un format de données numériques d’images, tel que le JPEG (pour « Joint Photographic Expert Group » en anglais), le PNG (pour « Portable Network Graphics » en anglais), le GIF (pour « Graphics Interchange Format » en anglais) le TIFF (pour « Tagged Image File Format » en anglais) ou tout autre format d’image.
Avantageusement, chaque image IM1-IM4, IMk de la bibliothèque d’images IMk incluent en outre des métadonnées MTD1-MTD4, MTDk fournissant des informations diverses concernant les images.
En particulier, certaines au moins des images IM1-IM4, IMk de la bibliothèque LIB incluent des métadonnées d’horodatage, informant de la date et l’heure de la création de l’image respective, et/ou des métadonnées de géolocalisation informant du lieu de la création de l’image respective.
Comme on le verra ci-après en relation avec la , les métadonnées d’horodatage et/ou de géolocalisation peuvent permettre d’affiner et d’améliorer le traitement par le modèle d’apprentissage machine AI_TS et l’évaluation EVAL de la couleur de la peau.
La couleur de la peau ainsi obtenue par le modèle d’apprentissage machine AI_TS est fidèle et peut ensuite être utilisée pour recommander un ou plusieurs produits cosmétique qui sont corrélé précisément avec la couleur de la peau de chaque utilisateur, en particulier le fond de teint, la poudre et les variantes de fond de teint et de poudre, et des produits cosmétiques qui compléteraient ou seraient appropriés pour la couleur de la peau de l’utilisateur.
On se réfère désormais à la .
La illustre un exemple de procédé de détermination d’une couleur de la peau d’un visage, mise en œuvre notamment par les moyens de traitement PU du système décrit précédemment en relation avec la .
Le procédé comprend une importation IN_DAT d’au moins une image IMk depuis la bibliothèque d’images LIB de l’appareil informatique utilisateur, telle que décrite en relation avec la .
Le traitement TS de ladite au moins une image IMk mis en œuvre dans cet exemple comprend un pré-traitement P_TS, et un traitement avec un modèle d'apprentissage machine AI_TS configuré pour fournir une valeur numérique ClrEstm représentative de la couleur de la peau d’un visage présent sur ladite au moins une image IMk.
Le pré-traitement P_TS comprend un conditionnement des images IMk dans un format adapté au modèle d’apprentissage machine AI_TS. En particulier, le pré-traitement P_TS est adapté pour isoler une ou plusieurs partie(s) de l’image contenant un visage, par un mécanisme de détection de visage FceDet classique et connu en soi, et pour effectuer un centrage et une mise à l’échelle Cntr+Scl de la partie de l’image contenant un visage, de façon à fournir des données normalisées au modèle d’apprentissage machine.
Sommairement, le centrage Cntr peut comprendre un recadrage de l’image de façon à conserver seulement la partie contenant le visage, et la mise à l’échelle Scl comprend un agrandissement ou un rétrécissement de l’image recadrée, ainsi qu’un sous-échantillonnage ou un sur-échantillonnage des pixels de l'image recadrée, pour fournir une image recadrée ayant une taille fixe et une résolution fixe.
Avantageusement, le pré-traitement comprend en outre une sélection des images recadrées contenant le même visage, par un mécanisme de reconnaissance faciale Fce+Reco classique et connu en soi.
La reconnaissance faciale Fce+Reco identifie et détecte un visage cible, c’est-à-dire un visage de référence fourni sur une image de référence IMref. Avantageusement le visage de référence est isolé dans l’image de référence IMref, c’est-à-dire que le visage de référence est le seul visage présent dans l’image de référence IMref.
L’image de référence IMref peut par exemple être importée depuis la bibliothèque d’image LIB de l’appareil informatique utilisateur, identifiée en tant qu’image de référence IMref par un utilisateur. En alternative, l’image de référence IMref peut être prise par l’utilisateur au moyen du capteur photographique de l’appareil informatique utilisateur (CAM), avantageusement du type photographie autoportrait (usuellement « selfie ») PhtSlf, de façon à comporter le visage isolé de l’utilisateur comme visage de référence.
Comme mentionné précédemment en relation avec la , les images IMk de la bibliothèque d’image incluent avantageusement des métadonnées MTDk. Dans ce cas, le prétraitement P_TS peut avantageusement comprendre une correction de la température chromatique TempCorr des images importées, établie en fonction des métadonnées MTDk respectives.
La température chromatique, aussi appelée « température de couleur », est une mesure bien connue de l’homme de l’art, usuellement donnée en Kelvin, caractérisant une source de lumière par comparaison au principe théorique du rayonnement thermique du corps noir.
Avantageusement, la correction de la température chromatique de chaque image est faite en outre en fonction de données externes EXT_MTD, telles que des données d’archives météorologiques et des données géographiques, permettant d’estimer, en correspondance avec les métadonnées MTDk respectives, la température chromatique des conditions d’éclairage de la création de l’image respective.
En effet, des métadonnées MTDk d’horodatage ts et de géolocalisation geoloc permettent de conjecturer des conditions d’éclairage, avec une température chromatique respective à compenser. Par exemple, les métadonnées d’horodatage ts peuvent indiquer si la photographie a été prise le jour ou la nuit, et les métadonnées de géolocalisation geoloc peuvent en outre indiquer si la photographie a été prise dans un espace intérieur ou dans un espace extérieur.
Les données d’archives météorologiques permettent de connaitre avec certitude, pour une date donnée et un lieu donné, notamment les heures du jour et de la nuit, et des périodes d’aube et de crépuscule, ainsi que les conditions d’ensoleillement. Cela permet de préciser la conjecture des conditions d’éclairage et d’affiner la correction de température chromatique.
La mise en œuvre de la correction de la température chromatique TempCorr par les moyens de pré-traitement P_TS, peut par exemple prévoir une liste de conditions pouvant être vérifiée par les métadonnées MTDk, éventuellement par la mise en correspondance des données externes EXT_MTD avec lesdites métadonnées MTDk.
Une table de correspondances peut permettre de sélectionner une correction de température chromatique spécifique en fonction des conditions qui sont vérifiées ou non.
Par exemple, parmi des conditions possibles simples, on pourra citer « aube », « jour », « nuit », « crépuscule », « intérieur », « extérieur », « ciel dégagé », « ciel nuageux », « pluie », « neige », etc. D’autres conditions, ainsi que des conditions plus complexes, pourrons être imaginées et conçues à cet égard.
Par exemple, si les métadonnées MTDk traduisent des conditions « nuit » et « intérieur », alors la correction de température chromatique pourra être faite de manière à corriger une illumination du type « lampe d’intérieure », ou « ampoule à incandescence ». Si les métadonnées MTDk traduisent des conditions « crépuscule » et « extérieur » et « ensoleillement », alors la correction de température chromatique pourra être faite de manière à corriger une illumination du type soleil couchant.
Le mécanisme de correction de la température chromatique TempCorr est comparable à une technique de debayerisation ou de dématriçage, classiquement utilisée pour rééquilibrer les canaux RGB individuellement dans le format brut « raw » du capteur photographique avant l’enregistrement de l’image.
Cela étant, le mécanisme de correction de la température chromatique TempCorr utilise avantageusement une matrice de debayerisation ou de dématriçage dont les points sont adaptés en fonction des conditions évaluées par les métadonnées MTDk, sur les images importées IMk. Ces ajustements sont ensuite consolidés dans un fichier image statique qui est vérifié en faisant l’hypothèse que la colorimétrie d’un élément est toujours connue dans l’image (comme par exemple le blanc de l’œil ou dans une moindre mesure les dents).
Les images IMk ainsi centrées Cntr sur un visage FceDet, mise à l’échelle Scl, éventuellement sélectionnées Fce+Reco et éventuellement corrigées TempCorr, sont fournies au modèle d'apprentissage machine AI_TS.
Le modèle d'apprentissage machine AI_TS calcule des valeurs numériques ClrEstm représentatives de la couleur de la peau des visage présents sur chaque image IMk.
Le modèle d’apprentissage machine AI_TS peut par exemple être mis en œuvre par réseau neuronal convolutif préformé, par exemple de la façon décrite dans la demande de brevet PCT/US2020/041350, ou telle que résumée ci-après en relation avec la . Le modèle d’apprentissage machine AI_TS peut également être du type réseaux de neurones à action directe, ou des réseaux de neurones récurrents. Toute technique de formation appropriée peut être utilisée, notamment des descentes de gradient telles que les descentes stochastiques, par lots et par mini lots.
En outre, le modèle d’apprentissage machine AI_TS peut être capable d’adapter un modèle de visage tridimensionnel 3DFceFit aux images IMk, d’effectuer un dépliage uv du modèle 3D sur au moins un plan projeté FceUvmap, de décomposer la carte UV par rendu inverse FceInvRender.
Lorsque le modèle d’apprentissage machine AI_TS a fourni les valeurs numériques ClrEstm pour chaque image IMk, une évaluation EVAL de la couleur de la peau du visage est effectuée à partir desdites valeurs numériques ClrEstm.
Par exemple l’évaluation EVAL peut comprendre un calcul de combinaison des valeurs ClrEstm, tel qu’un calcul de moyenne ou de médiane, en activant un moteur Gigatexel pour optimiser l’affichage de la texture de l’image en relation avec une valeur numérique ClrGt, par exemple en utilisant le logiciel Mudbox. La valeur numérique sortant de l’évaluation est pour fournir la valeur numérique AVRG (« »).
La figure 3 illustre un exemple non limitatif de mise en œuvre d’une formation TRN (aussi appelée « entrainement ») du modèle d'apprentissage machine AI_TS pour fournir la valeur numérique AVRG (« ») représentative de la couleur de la peau d’un visage présent sur au moins une image IMk, tel que décrit précédemment en relation avec les figures 1 et 2.
La formation peut être mise en œuvre par les moyens de traitement PU comportant additionnellement des moyens d’entrainement TRN, notamment configuré pour commander les moyens de réception de données IN_DAT, les moyens de pré-traitement P_TS, le modèle d’apprentissage machine AI_TS et les moyens d’évaluation EVAL.
Un ensemble d’images de formation IN_DAT associées à une information réelle de la couleur de la peau GRND_TRTH, appelée référence véridique (usuellement « ground truth » en anglais), sont collectées pour la mise en œuvre de la formation TRN du modèle d’apprentissage machine AI_TS.
La référence véridique GRND_TRTH sur la couleur de la peau est utilisée comme vérité de base ou comme information de marquage pour les images qui seront fournies par un sujet de formation, c’est-à-dire une personne volontaire, appelée paneliste.
Par exemple, la référence véridique GRND_TRTH peut être recueillie par l'utilisateur en utilisant une technique standard de l'industrie pour déterminer une couleur de peau, comme une comparaison avec un nuancier ou une valeur déterminée par un spectrophotomètre dédié à la mesure des couleurs de la peau.
Dans la comparaison avec un nuancier, une partie de l'image peut contenir une représentation d’un nuancier de couleurs de référence connu, et une correction de la couleur de l'image ramenant la représentation du nuancier de référence à ses couleurs originelles peut permettre de déterminer la référence véridique GRND_TRTH sur la couleur de la peau présente dans l'image après ladite correction de couleurs.
Par exemple, la correction de couleur fournissant la référence véridique GRND_TRTH peut être mise en œuvre dans le pré-traitement P_TS sur commande des moyens d’entrainement TRN.
L’utilisation d’un spectrophotomètre peut être mise en œuvre au moins une fois sur la peau du paneliste, la couleur mesurée par le spectrophotomètre peut être utilisée directement, à une éventuelle traduction du codage de la couleur près, comme référence véridique GRND_TRTH.
L’ensemble d’images de formation IN_DAT est fourni par le paneliste par l’intermédiaire d’un appareil informatique utilisateur du même type que l’appareil APP décrit précédemment en relation avec la .
Par exemple, l’importation des images de formation IN_DAT utilise le capteur photosensible CAM de l'appareil informatique utilisateur du paneliste pour capturer une ou plusieurs images de formation comportant le visage du paneliste. Les images de formation peuvent provenir de photographies individuelles PhtSlf, par exemple prises en mode autoportrait, ou d’au moins un enregistrement vidéo Vid360, par exemple pris en mode autoportrait, au cours duquel les conditions d'éclairage peuvent être modifiées en faisant bouger le point de vue, par exemple par une rotation de l’appareil autour du visage du paneliste.
De multiples images de formation peuvent ensuite être générées en extrayant des images individuelles de la vidéo Vid360.
La capture d'une vidéo générant plusieurs images d'entraînement peut être bénéfique, au moins parce qu'elle augmentera considérablement l'efficacité de la génération d'une grande quantité de données d'entraînement avec différentes conditions d'éclairage.
A toutes fins utiles, l’homme de l’art pourra se référer à la description de la formation du modèle d’apprentissage décrit dans la demande PCT/US2020/041350.
Eventuellement, les images de formation IN_DAT peuvent provenir en outre ou en alternative d’une bibliothèque d’image (IMk∈LIB) de l’appareil informatique utilisateur du paneliste. Dans ce cas, les étapes de reconnaissance faciale Fce+Reco et de correction de température chromatique TempCorr peuvent être prévues telle que décrites en relation avec la .
Dans la mise en œuvre de la formation, le modèle d’apprentissage machine AI_TS exécute des calculs paramétrables, sur les images de formation IN_DAT et fourni des valeurs numériques (« ») représentatives de la couleur de la peau d’un visage présent sur les images de formation.
L’évaluation de la couleur de la peau EVAL peut être faite, telle que décrite en relation avec la figure 2, par une opération de regroupement statistique AVRG des différentes valeurs numériques (« »).
La couleur de la peau ainsi évaluée EVAL, ou bien les valeurs numériques ClrEstm directement, sont ensuite comparées par rapport à la référence véridique GRND_TRTH afin de reparamétrer les calculs exécutés par le modèle d’apprentissage machine AI_TS pour se rapprocher autant que possible de la référence véridique.
En d’autres termes, la référence véridique GRND_TRTH de la couleur de la peau est utilisée comme donnée de marquage indiquant un résultat souhaité du traitement des images de formation IN_DAT, par le modèle d’apprentissage machine AI_TS.
On notera que l’entrainement du modèle d’apprentissage machine AI_TS est avantageusement fait avec les données de plusieurs panelistes. A cet égard, les images de formation IN_DAT et la référence véridique GRND_TRTH associée à chaque paneliste peut être enregistré dans une mémoire des moyens de traitement PU et d’entrainement TRN. Le paramétrage du calcul du modèle d’apprentissage AI_TS est fait pour toutes les données de tous les panelistes afin d’être le plus universel possible.
En résumé, pour déterminer la couleur de la peau d’un visage, les moyens de traitement PU utilisent le modèle d'apprentissage machine AI_TS tel que décrit ci-dessus, pour déterminer la couleur de la peau du visage présent dans au moins une image importée à partir d’une bibliothèque d’image d’un appareil informatique utilisateur APP. La couleur de la peau peut ensuite être utilisée pour recommander un ou plusieurs produits cosmétique qui complètent ou sont appropriés pour la couleur de la peau ainsi déterminée.
Le diagramme fonctionnel représenté sur la montre les étapes successives d’un exemple de mise en œuvre du procédé selon l’invention. Lors d’une première étape 1, un réseau de neurones peut prédire un modèle de visage 3D à partir d'images d'une vidéo selfie. Lors d’une deuxième étape 2, l’image subit éventuellement un pré-traitement, comme une mise au point pour la détection du visage, un centrage et une mise à l’échelle, une reconnaissance du visage. Lors d’une troisième étape 3, les modèles de visage 3D sont ajustés aux images et sont projetés en 2D à l'aide d'une projection cylindrique. Ces projections 2D sont appelées cartographie uv («uv-maps»). Lors d’une quatrième étape 4, en utilisant notamment le modèle d'infographie Blinn-Phong, les cartes uv sont combinées et décomposées en forme de visage 3D, cartes de réflectance faciale diffuse et spéculaire, et couleur et direction de la lumière. Lors d’une étape 5, la carte de réflectance faciale diffuse est introduite dans un réseau de neurones profonds pour la prédiction du teint de la peau en laboratoire. Le système de prédiction du teint de la peau atteint une erreur de prédiction delta E moyenne de 3,3.
Les figures 5 à 8 illustrent le mappage des informations de maillage 3D sur un plan 2D.
La montre un exemple de maillage du visage, réalisé à partir d’un selfie. Comme on peut le voir sur la figure, le maillage («mesh») 5 forme un réseau tridimensionnel constitué de sommets, d'arêtes et de faces organisés en polygones sous forme de fils dans une infographie tridimensionnelle. Les faces se composent de triangles, de quadrilatères ou d'autres polygones convexes simples, car cela simplifie le rendu. Les faces peuvent être combinées pour former des polygones concaves plus complexes, ou des polygones avec des trous.
Des outils de modélisation graphique tels que Blender ou 3D Studio Max permettent de réaliser ces objets filaires.
Le traitement de ces objets est possible grâce à certains logiciels tels que Arksan, SiloData, qui permettent de visualiser, d’exploiter et de partager des modèles 3D maillés.
La montre une projection sur un cylindre du modèle 3D obtenu à partir du maillage 5 de la , par cartographie uv. La cartographie UV est un processus de modélisation 3d consistant à projeter une image 2d sur la surface d'un modèle 3d, notamment un cylindre, pour lui appliquer une texture. Les lettres U et V désignent les axes de la texture 2D car X, Y et Z sont déjà utilisés pour désigner les axes de l'objet 3d dans son espace sur la .
Les figures 7 et 8 sont des cartes de texture uv. La texturation uv a pour avantage de visualiser en couleurs, les polygones composant un objet 3D à partir du selfie. Le processus de cartographie uv consiste à attribuer des pixels d'une image à ceux de la surface d'un polygone. La texturation uv est une alternative au mapping de projection, par exemple, en utilisant n'importe quelle paire des coordonnées X, Y, Z du modèle ou toute transformation de la position. Elle correspond à un espace de texture plutôt qu'à l'espace géométrique de l'objet. Le calcul du rendu utilise les coordonnées de texture uv.

Claims (16)

  1. Procédé de détermination d’une couleur de la peau d’une zone d’intérêt d’un utilisateur, comprenant : (i) une importation depuis une bibliothèque d’images d’un appareil informatique utilisateur d’au moins deux image 2D comportant une représentation de la zone d’intérêt de l’utilisateur ; (ii) une reconstruction 3D de la zone d’intérêt par un ajustement de la pluralité d’images 2D d’entrée à un modèle 3D de la zone d’intérêt en collectant des points de repère à partir de la pluralité d’images 2D puis en générant un maillage en réponse aux points de repères et en ajustant le maillage pour générer le modèle 3D de la zone d’intérêt, (iii) un dépliage UV du modèle 3D sur au moins un plan projeté pour obtenir une carte UV pour chaque plan projeté ; (iv) un traitement de la carte UV avec un modèle d'apprentissage machine adapté pour fournir, pour chaque image importée, une valeur numérique représentative de la couleur de la peau de la zone d’intérêt présente sur ladite au moins une image importée ; (v) une évaluation de la couleur de la peau de la zone d’intérêt à partir de la ou desdites valeur(s) numérique(s) de chaque image importée.
  2. Procédé selon la revendication 1, dans lequel la zone d’intérêt de l’utilisateur est le visage de l’utilisateur.
  3. Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait qu’il comprend un pré-traitement de la pluralité d’images 2D d’entrée pour effectuer un centrage et une mise à l’échelle de la zone d’intérêt.
  4. Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait que le dépliage UV comporte la projection du modèle 3D sur plan, un cylindre ou une sphère, et de préférence sur un cylindre.
  5. Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait qu’il comprend une détermination, à partir de la carte UV, d’une composante diffuse et d’une composante spéculaire d’un albédo, pour chaque pixel.
  6. Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait qu’il comprend une estimation à partir de la carte UV, d’une carte des normales fournissant une image RVB.
  7. Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait qu’il comprend une détermination, à partir de la carte UV, d’une couleur et d’une direction d’une lumière incidente, pour chaque pixel.
  8. Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait qu’on décompose la carte UV en un albédo, une normale et un éclairage par rendu inverse.
  9. Procédé selon la revendication 8, caractérisé par le fait qu’on décompose la carte UV par rendu inverse avec un modèle d'imagerie Blinn-Phong.
  10. Procédé selon la revendication 5, caractérisé par le fait que l’évaluation de la couleur de la peau de la zone d’intérêt est réalisée à partir de la composante diffuse de l’albédo.
  11. Procédé selon l’une des revendications précédentes, dans lequel le modèle d'apprentissage machine est un réseau neuronal convolutif préformé.
  12. Procédé selon l’une des revendications précédentes, comprenant en outre une recommandation d’au moins un produit cosmétique basée sur ladite évaluation de la couleur de la peau de la zone d’intérêt.
  13. Système de détermination d’une couleur de la peau d’une zone d’intérêt d’un utilisateur, comprenant : - des moyens de communication adaptés pour communiquer avec un appareil informatique utilisateur et configurés pour importer depuis une bibliothèque d’images de l’appareil informatique utilisateur, au moins une image comportant une représentation de la zone d’intérêt de l’utilisateur ; - des moyens de traitement configurée pour effectuer (a) une reconstruction 3D de la zone d’intérêt par un ajustement de la pluralité d’images 2D d’entrée à un modèle 3D de la zone d’intérêt en collectant des points de repère à partir de la pluralité d'images 2D puis en générant un maillage en réponse aux points de repères et en ajustant le maillage pour générer le modèle 3D de la zone d’intérêt,(b) un dépliage UV du modèle 3D sur au moins un plan projeté pour obtenir une carte UV pour chaque plan projeté ; (c) un traitement de la carte UV avec un modèle d'apprentissage machine adapté pour fournir, pour chaque image importée, une valeur numérique représentative de la couleur de la peau de la zone d’intérêt présente sur ladite au moins une image importée ; (d) une évaluation de la couleur de la peau de la zone d’intérêt à partir de la ou desdites valeur(s) numérique(s) de chaque image importée.
  14. Système selon la revendication 13, dans lequel les moyens de communication sont adaptés pour communiquer avec l’appareil informatique utilisateur par l’intermédiaire d’un réseau de télécommunications.
  15. Programme d’ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent celui-ci à mettre en œuvre le procédé selon l’une des revendications 1 à 12.
  16. Support lisible par ordinateur comprenant des instructions qui, lorsqu'elles sont exécutées par un ordinateur, conduisent celui-ci à mettre en œuvre le procédé selon l’une des revendications 1 à 12.
FR2203402A 2022-04-13 2022-04-13 Prédiction du teint de la peau à l'aide d'un modèle de visage 3D Pending FR3134645A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2203402A FR3134645A1 (fr) 2022-04-13 2022-04-13 Prédiction du teint de la peau à l'aide d'un modèle de visage 3D
PCT/EP2023/059472 WO2023198728A1 (fr) 2022-04-13 2023-04-12 Prédiction du teint de la peau à l'aide d'un modèle de visage 3d

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2203402 2022-04-13
FR2203402A FR3134645A1 (fr) 2022-04-13 2022-04-13 Prédiction du teint de la peau à l'aide d'un modèle de visage 3D

Publications (1)

Publication Number Publication Date
FR3134645A1 true FR3134645A1 (fr) 2023-10-20

Family

ID=83996599

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2203402A Pending FR3134645A1 (fr) 2022-04-13 2022-04-13 Prédiction du teint de la peau à l'aide d'un modèle de visage 3D

Country Status (2)

Country Link
FR (1) FR3134645A1 (fr)
WO (1) WO2023198728A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014168678A9 (fr) 2013-04-09 2015-10-29 Elc Management Llc Systèmes de diagnostic et de traitement d'image de la peau, appareil et objets
US10936853B1 (en) 2019-10-04 2021-03-02 Adobe Inc. Skin tone assisted digital image color matching
US20210209427A1 (en) 2018-01-05 2021-07-08 L'oreal Machine-implemented facial health and beauty assistant

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014168678A9 (fr) 2013-04-09 2015-10-29 Elc Management Llc Systèmes de diagnostic et de traitement d'image de la peau, appareil et objets
US20210209427A1 (en) 2018-01-05 2021-07-08 L'oreal Machine-implemented facial health and beauty assistant
US10936853B1 (en) 2019-10-04 2021-03-02 Adobe Inc. Skin tone assisted digital image color matching

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CARLOS ALIAGA ET AL: "Estimation of Spectral Biophysical Skin Properties from Captured RGB Albedo", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 26 January 2022 (2022-01-26), XP091140987 *
FENG YAO YFENG@TUEBINGEN MPG DE ET AL: "Learning an animatable detailed 3D face model from in-the-wild images", ACM TRANSACTIONS ON GRAPHICS, ACM, NY, US, vol. 40, no. 4, 19 July 2021 (2021-07-19), pages 1 - 13, XP058930478, ISSN: 0730-0301, DOI: 10.1145/3450626.3459936 *
KIPS ROBIN ET AL: "Beyond color correction: Skin color estimation in the wild through deep learning", ELECTRONIC IMAGING, 1 January 2020 (2020-01-01), XP055850777, Retrieved from the Internet <URL:https://www.ingentaconnect.com/content/ist/ei/2020/00002020/00000005/art00005?crawler=true&mimetype=application/pdf&utm_source=TrendMD&utm_medium=cpc&utm_campaign=Electronic_Imaging_TrendMD_1> [retrieved on 20211013], DOI: 10.2352/ISSN.2470-1173.2020.5.MAAP-082 *
ROBIN KIPS ET AL: "CA-GAN: Weakly Supervised Color Aware GAN for Controllable Makeup Transfer", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 24 August 2020 (2020-08-24), XP081890729, DOI: 10.1007/978-3-030-67070-2_17 *
SONG GUOXIAN ET AL: "Recovering facial reflectance and geometry from multi-view images", IMAGE AND VISION COMPUTING, ELSEVIER, GUILDFORD, GB, vol. 96, 27 February 2020 (2020-02-27), XP086141792, ISSN: 0262-8856, [retrieved on 20200227], DOI: 10.1016/J.IMAVIS.2020.103897 *

Also Published As

Publication number Publication date
WO2023198728A1 (fr) 2023-10-19

Similar Documents

Publication Publication Date Title
US10810469B2 (en) Extracting material properties from a single image
US10979640B2 (en) Estimating HDR lighting conditions from a single LDR digital image
Apollonio et al. A photogrammetry-based workflow for the accurate 3D construction and visualization of museums assets
US10936909B2 (en) Learning to estimate high-dynamic range outdoor lighting parameters
Goesele et al. Disco: acquisition of translucent objects
Calian et al. From faces to outdoor light probes
US10957026B1 (en) Learning from estimated high-dynamic range all weather lighting parameters
JP2022032937A (ja) コンピュータビジョン方法及びシステム
US11276244B2 (en) Fixing holes in a computer generated model of a real-world environment
US20230169658A1 (en) Instant masks with polarized light
FR2991078A1 (fr) Selection d&#39;image basee sur un style photographique
US11887341B2 (en) Systems and methods for hue based encoding of a digital image
JP2023521270A (ja) 多様なポートレートから照明を学習すること
US11069034B2 (en) Method and system to enhance quality of digital images
JP2014203458A (ja) 3次元幾何学境界を検出する方法
EP3073441B1 (fr) Procédé de correction d&#39;une image d&#39;au moins un objet présenté à distance devant un imageur et éclairé par un système d&#39;éclairage et système de prise de vues pour la mise en oeuvre dudit procédé
JP2004164571A (ja) 3dオブジェクトをモデル化する方法
FR3134645A1 (fr) Prédiction du teint de la peau à l&#39;aide d&#39;un modèle de visage 3D
JP2014203459A (ja) 2つ以上の光源の組によって照光されたシーンの2つ以上の入力画像の組から照明基底画像の組を復元する方法
EP3633625B1 (fr) Procede de texturation d&#39;un modele 3d
Boss et al. Single image brdf parameter estimation with a conditional adversarial network
Rainer et al. Neural shading fields for efficient facial inverse rendering
US11670042B2 (en) Learning material reconstruction from a single image
FR3118517A1 (fr) Procédé de détermination d’une couleur de la peau d’un visage et système correspondant
Bornstein et al. New Dimensions in Conservation Imaging: Combining Photogrammetry and Photometric Stereo for 3D Documentation of Heritage Artefacts

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20231020

PLFP Fee payment

Year of fee payment: 3