FR3118517A1 - Procédé de détermination d’une couleur de la peau d’un visage et système correspondant - Google Patents

Procédé de détermination d’une couleur de la peau d’un visage et système correspondant Download PDF

Info

Publication number
FR3118517A1
FR3118517A1 FR2101039A FR2101039A FR3118517A1 FR 3118517 A1 FR3118517 A1 FR 3118517A1 FR 2101039 A FR2101039 A FR 2101039A FR 2101039 A FR2101039 A FR 2101039A FR 3118517 A1 FR3118517 A1 FR 3118517A1
Authority
FR
France
Prior art keywords
image
color
imk
skin
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2101039A
Other languages
English (en)
Other versions
FR3118517B1 (fr
Inventor
Johan Aubert
Grégoire Charraud
Asiya SHAKHMAMETOVA
Louis DUPONT DE DINECHIN
Emmanuel Malherbe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/139,454 external-priority patent/US11900434B2/en
Application filed by LOreal SA filed Critical LOreal SA
Priority to EP21843700.2A priority Critical patent/EP4271223A1/fr
Priority to KR1020237019387A priority patent/KR20230101895A/ko
Priority to US18/259,915 priority patent/US20240086989A1/en
Priority to PCT/EP2021/086979 priority patent/WO2022144233A1/fr
Priority to JP2023540164A priority patent/JP2024502818A/ja
Publication of FR3118517A1 publication Critical patent/FR3118517A1/fr
Application granted granted Critical
Publication of FR3118517B1 publication Critical patent/FR3118517B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Color Image Communication Systems (AREA)

Abstract

Le procédé de détermination d’une couleur de la peau d’une zone d’intérêt d’un utilisateur, comprend : - une importation depuis une bibliothèque d’images (LIB) d’un appareil informatique utilisateur (APP) d’au moins une image (IMk) comportant une représentation de la zone d’intérêt de l’utilisateur ; - un traitement (TS) de ladite au moins une image (IMk) avec un modèle d'apprentissage machine (AI_TS) adapté pour fournir, pour chaque image importée (IMk), une valeur numérique (ClrEstm_k) représentative de la couleur de la peau de la zone d’intérêt présente sur ladite au moins une image importée (IMk) ; - une évaluation (EVAL) de la couleur de la peau de la zone d’intérêt à partir de la ou desdites valeur(s) numérique(s) (ClrEstm_k) de chaque image importée. Figure pour l’abrégé : Fig 1

Description

Procédé de détermination d’une couleur de la peau d’un visage et système correspondant
Des modes de mise en œuvre et de réalisation de la présente invention concernent un procédé de détermination d’une couleur de la peau d’un visage, par exemple mais non limitativement, et un système correspondant, en particulier dans le cadre d’une recommandation de produits cosmétiques.
Acheter des produits en ligne, notamment via des appareils informatiques mobiles, est un moyen pratique pour les consommateurs de naviguer et d'obtenir des produits. Diverses technologies existent pour fournir aux acheteurs en ligne des recommandations de produits susceptibles de les intéresser en fonction d’analyses de leurs consultations en lignes, historiques d’achats, commentaires, notations de produits, etc.
Toutefois, il existe certains types de produits pour lesquels une interaction en personne est difficile à remplacer par une expérience en ligne. Par exemple, les produits de beauté tels que les fonds de teint ou autres produits de maquillage sont difficiles à parcourir en ligne, et il est difficile de les recommander de manière automatisée. Cela est principalement dû au fait que la caractéristique du consommateur qui serait la base la plus pertinente d'une recommandation, c’est-à-dire en particulier la couleur de la peau du visage, est difficile à estimer de manière automatisée. Même si une image ou une vidéo du consommateur est capturée, cette image ou vidéo ne peut classiquement pas être utilisée pour déterminer de manière fiable la couleur de la peau en raison de limitations techniques dans le traitement des images provenant d'environnements non contrôlés. Des conditions d'éclairage incohérentes entre les différents lieux entraîneraient des reproductions de couleurs différentes dans l'image ou la vidéo à différents endroits, et la couleur de peau déterminée serait donc différente en fonction des conditions d'éclairage.
La demande de brevet PCT/US2020/041350 déposée le 9 juillet 2020 sous priorité de la demande de brevet provisoire US 16/516,080 déposée le 18 juillet 2019, décrit des techniques qui permettent de surmonter ces limitations techniques afin d'estimer avec précision la couleur de la peau dans une image, quelles que soient les conditions d'éclairage.
En particulier, la demande PCT/US2020/041350 décrit un système qui utilise au moins un modèle d'apprentissage automatique pour générer une estimation automatique de la couleur de la peau. Un utilisateur dispose d'un appareil informatique mobile muni d’un capteur photographique et capture une ou plusieurs image(s) de son visage avec le capteur photographique. L'appareil informatique mobile transmet la ou les image(s) à un appareil de détermination de la couleur de la peau utilisant un ou plusieurs modèles d'apprentissage machine pour déterminer la couleur de la peau sur la base de la ou des image(s).
Par exemple, l’utilisateur peut capturer plusieurs images en enregistrant une vidéo au lieu d’une image isolée, et ainsi modifier les conditions d'éclairage en déplaçant l'appareil informatique mobile pendant la capture de la vidéo. En fournissant plusieurs images dans différentes conditions d'éclairage, le modèle d'apprentissage machine peut être utilisé pour générer plusieurs déterminations de la couleur de peau, qui peuvent ensuite être moyennées ou autrement combinées pour améliorer la précision de la détermination.
La technique résumée ci-dessus de la demande de brevet PCT/US2020/041350 présente des inconvénients dans la mesure où l’utilisateur doit procéder lui-même à la capture d’image, ce qui peut être gênant voire impossible dans certaines situations.
Il est donc souhaitable de limiter les efforts demandés à l’utilisateur pour déterminer la couleur de sa peau avec précision, à partir d’images ayant des conditions d'éclairage diverses et a priori inconnues.
A cet égard il est proposé un procédé de détermination d’une couleur de la peau d’une zone d’intérêt d’un utilisateur, par exemple le visage de l’utilisateur, comprenant :
- une importation depuis une bibliothèque d’images d’un appareil informatique utilisateur d’au moins une image comportant une représentation de la zone d’intérêt de l’utilisateur ;
- un traitement de ladite au moins une image avec un modèle d'apprentissage machine adapté pour fournir, pour chaque image importée, une valeur numérique représentative de la couleur de la peau de la zone d’intérêt présente sur ladite au moins une image importée ;
- une évaluation de la couleur de la peau de la zone d’intérêt à partir de la ou desdites valeur(s) numérique(s) de chaque image importée.
Par exemple, l’appareil informatique utilisateur peut être un téléphone multifonction (usuellement désigné par l’anglicisme « smartphone »), une tablette tactile, un ordinateur personnel, une montre connectée ou tout autre appareil informatique pouvant avoir une bibliothèque d’images.
Par « bibliothèque d’images » on entend un répertoire, usuellement prévu dans les appareils informatiques utilisateurs, accédant à toutes ou quasiment toutes les images et photographies enregistrées dans la mémoire de l’appareil informatique utilisateur ou dans une mémoire distante accessible depuis l’appareil informatique utilisateur, par exemple du type mémoire « en nuage » (usuellement désignée par l’anglicisme « cloud »).
Ladite au moins une image est préférablement une photographie prise avec un capteur photographique de l’appareil informatique utilisateur, éventuellement une photographie prise avec un autre appareil et importée dans l’appareil informatique utilisateur.
Il a été remarqué de façon surprenante et inattendue que le modèle d’apprentissage machine préformé pour la technique résumée ci-dessus de la demande de brevet PCT/US2020/041350, parvient des résultats encore meilleurs, c’est-à-dire plus précis et plus justes, lorsque l’utilisateur fournit plusieurs images en provenance de la bibliothèque d’images.
En effet, le modèle d’apprentissage machine, bien que préalablement entrainé pour traiter des images dont les conditions d'éclairage sont modifiées par déplacement de l'appareil informatique mobile pendant la capture d’une vidéo, s’avère encore plus performant lors d’un traitement d’images dont les conditions d'éclairage sont encore plus diverses et variées, telles qu’elles peuvent exister dans la bibliothèque d’images de l’appareil informatique utilisateur.
Bien que l’invention trouve une application particulièrement intéressante et avantageuse dans la détermination de la couleur de peau d’un visage, elle peut s’appliquer néanmoins à la détermination de la couleur de peau d’une autre zone d’intérêt, par exemple une autre partie du corps, en particulier en vue de l’application sur ladite zone d’intérêt, d’au moins un produit cosmétique basée sur ladite évaluation de la couleur de la peau de cette zone d’intérêt.
Selon un mode de mise en œuvre, ladite au moins une image inclut des métadonnées d’horodatage de la création de l’image respective (c’est-à-dire par exemple la date et l’heure de la capture de la photographie) ; et l’évaluation de la couleur de la peau est faite à partir de la valeur numérique de chaque image pondérée en fonction d’une date courante et des métadonnées d’horodatage respectives.
La pondération peut correspondre à l’attribution d’un indice de confiance à l’image, en fonction de la date de la prise de la photographie, par exemple afin de déprécier des photographies trop anciennes ou de valoriser des photographies très récentes dans l’évaluation de la couleur de la peau.
Selon un mode de mise en œuvre, la valeur numérique de chaque image est pondérée en fonction de la date courante et des métadonnées d’horodatage respective de manière à tenir compte d’une variation du teint de la couleur de la peau au cours des saisons de l’année.
En effet, la variation du teint de la couleur de la peau, autrement dit le bronzage, peut avoir une grande amplitude chez certaines personnes, et est naturellement (c’est-à-dire sans tenir compte de méthodes de bronzage artificielles) étroitement corrélée avec les saisons de l’année. Ainsi, ce mode de mise en œuvre peut par exemple être prévu de façon à déprécier des photographies prises dans la saison opposée à la saison de la date courante, et à valoriser des photographies prises dans la même saison que la saison de la date courante.
Avantageusement, la pondération tenant compte de la variation du teint de la couleur de la peau au cours des saisons de l’année est faite de manière à ce que ladite évaluation de la couleur de la peau fournisse une prédiction de la couleur la peau telle qu’elle sera ultérieurement à la date courante.
Par exemple, ce mode de mise en œuvre peut être prévu de façon à déprécier des photographies prises dans les saisons précédant la saison de la date courante, et à valoriser des photographies prises dans les saisons suivant la saison de la date courante.
Selon un mode de mise en œuvre, ladite au moins une image inclut des métadonnées d’horodatage de la création de l’image respective et/ou des métadonnées de géolocalisation de la création de l’image respective (c’est-à-dire par exemple les coordonnées GPS du lieu de la capture de la photographie) ; et le traitement comprend un pré-traitement comprenant une correction de la température chromatique de chaque image en fonction des métadonnées respectives.
En effet, des métadonnées d’horodatage et de géolocalisation permettent de conjecturer des conditions d’éclairage, avec une température chromatique respective à compenser. Par exemple les métadonnées d’horodatage peuvent indiquer si la photographie a été prise le jour ou la nuit, et les métadonnées de géolocalisation peuvent en outre indiquer si la photographie a été prise dans un espace intérieur ou dans un espace extérieur.
Avantageusement, la correction de la température chromatique de chaque image est faite en outre en fonction de données d’archives météorologiques correspondant aux métadonnées respectives permettant d’estimer la température chromatique des conditions d’éclairage de la création de l’image respective.
Les données d’archives météorologiques permettent de connaitre avec certitude, pour une date donnée et un lieu donné, notamment les heures du jour et de la nuit, et des périodes d’aube et de crépuscule, ainsi que les conditions d’ensoleillement. Cela permet de préciser la conjecture des conditions d’éclairage et d’affiner la correction de température chromatique.
Selon un mode de mise en œuvre dans lequel la zone d’intérêt de l’utilisateur est le visage de l’utilisateur, l’importation comprend en outre une obtention d’une image de référence représentant un visage de référence de l’utilisateur, et le traitement comprend un pré-traitement comprenant une sélection par reconnaissance faciale du visage de référence dans ladite au moins une image importée depuis la bibliothèque d’images de l’appareil informatique utilisateur.
Cela permet de ne pas fausser l’évaluation de la couleur de la peau en considérant différents visages de différentes personnes dans le traitement, par exemple en cas d’image importée de façon erronée, ou en cas d’images contenant plusieurs visages.
Par exemple, l’obtention de l’image de référence comprend une capture photographique de la zone d’intérêt isolés de l’utilisateur, ou une identification par un utilisateur d’une image représentant la zone d’intérêt isolée parmi les images de ladite bibliothèque d’images.
Selon un mode de mise en œuvre, le modèle d'apprentissage machine est un réseau neuronal convolutif préformé.
Selon un mode de mise en œuvre, le procédé comprend en outre une recommandation d’au moins un produit cosmétique basée sur ladite évaluation de la couleur de la peau de la zone d’intérêt.
Il est également proposé un système de détermination d’une couleur de la peau d’une zone d’intérêt d’un utilisateur, comprenant des moyens de communication adaptés pour communiquer avec un appareil informatique utilisateur et configurés pour importer depuis une bibliothèque d’images de l’appareil informatique utilisateur, au moins une image comportant une représentation de la zone d’intérêt de l’utilisateur. Le système comporte des moyens de traitement configurée pour effectuer un traitement de ladite au moins une image avec un modèle d'apprentissage machine adapté pour fournir, pour chaque image importée, une valeur numérique représentative de la couleur de la peau de la zone d’intérêt présente sur ladite au moins une image importée, et en outre pour évaluer la couleur de la peau de la zone d’intérêt à partir de la ou desdites valeur(s) numérique(s) de chaque image importée.
Il est également proposé un système comportant des moyens de communication adaptés pour communiquer avec un appareil informatique utilisateur et configurés pour mettre en œuvre l’étape d’importation du procédé tel que défini ci-avant, et des moyens de traitement configurée pour mettre en œuvre les étapes de traitement et d’évaluation du procédé tel que défini ci-avant.
Selon un mode de réalisation, le système comporte en outre l’appareil informatique utilisateur configuré pour communiquer aux moyens de communications ladite au moins une image de la bibliothèque d’images.
Selon un mode de réalisation, les moyens de communication sont adaptés pour communiquer avec l’appareil informatique utilisateur par l’intermédiaire d’un réseau de télécommunication, tel que l’Internet.
Il est également proposé un programme d’ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent celui-ci à mettre en œuvre le procédé tel que défini ci-avant.
Il est également proposé un support lisible par ordinateur comprenant des instructions qui, lorsqu'elles sont exécutées par un ordinateur, conduisent celui-ci à mettre en œuvre le procédé tel que défini ci-avant.
D’autres avantages et caractéristiques de l’invention apparaîtront à l’examen de la description détaillée de modes de réalisation et de mise en œuvre, nullement limitatifs, et des dessins annexés sur lesquels :
illustrent des modes de réalisation et de mise en œuvre de l’invention.
La représente un exemple de système SYS comportant des moyens de traitement PU configurés pour effectuer un traitement TS d’au moins une image IMi, IMj, IMk avec un modèle d'apprentissage machine AI_TS, et évaluer EVAL la couleur de la peau d’une zone d’intérêt d’un utilisateur, présente sur la ou les image(s) IMi, IMj, IMk.
Pour des raisons de commodité, et selon un choix arbitraire et non-limitatif, la description est faite dans le cas où l’ensemble « ladite au moins une image » est constitué de plusieurs images. La mise en œuvre du cas où l’ensemble « ladite au moins une image » est constitué d’une seule image est analogue en tout point.
Pour les mêmes raisons, la description est également faite dans le cas non-limitatif dans lequel la zone d’intérêt de l’utilisateur est le visage de l’utilisateur.
Le modèle d'apprentissage machine AI_TS est configuré et entrainé pour fournir, pour chaque image IMk, une valeur numérique ClrEstm_k représentative de la couleur de la peau d’un visage présent sur chacune des images IMk.
Les moyens d’évaluation EVAL sont configurés pour évaluer la couleur de la peau du visage à partir des valeurs numériques ClrEstm_k de chaque image. Par exemple l’évaluation peut comprendre un calcul de combinaison des valeurs ClrEstm_k, tel qu’un calcul de moyenne ou de médiane, avec pondérations ou non.
Des moyens de communication COM sont adaptés pour communiquer avec un appareil informatique utilisateur APP et configurés pour recevoir IN_DAT lesdites images IMi, IMj, IMk depuis une bibliothèque d’images LIB de l’appareil informatique utilisateur APP.
En particulier, l’appareil informatique utilisateur APP peut appartenir au système SYS en ce sens qu’il peut être spécifiquement configuré, par exemple de façon logicielle dans l’exécution d’une application ou d’un site web, pour collaborer avec les moyens de traitements PU pour transmettre les images IMi, IMj, IMk dans l’importation des images IN_DAT par les moyens de traitements PU.
L'appareil informatique utilisateur APP et les moyens de communication COM peuvent communiquer en utilisant toute technologie de communication appropriée, telle que des technologies de communication sans fil, par exemple le Wi-Fi, le Wi-MAX, le Bluetooth, la 2G, la 3G, la 4G, la 5G et LTE, ou des technologies de communication filaire, par exemple l'Ethernet, le FireWire et l'USB. En particulier, la communication entre l'appareil informatique utilisateur et l'appareil de détermination de la couleur de la peau peut se produire au moins en partie via Internet.
L’appareil informatique utilisateur APP peut par exemple être un téléphone multifonction (usuellement désigné par l’anglicisme « smartphone »), une tablette tactile, un ordinateur personnel, une montre connectée ou tout autre appareil informatique pouvant avoir une bibliothèque d’images LIB.
La bibliothèque d’images LIB est usuellement un répertoire prévu dans les interfaces des appareils informatiques utilisateurs APP, accédant à toutes ou quasiment toutes les images et photographies IM1-IM4, IMk enregistrées dans une mémoire non-volatile INT_NVM interne de l’appareil informatique utilisateur APP. Les images et photographies IM1-IM4, IMk de la bibliothèque LIB peuvent aussi ou alternativement être enregistrées dans une mémoire distante d’un serveur CLD accessible depuis l’appareil informatique utilisateur APP (par exemple dans « le cloud » selon l’anglicisme usuel).
Ladite au moins une image IM1-IM4, IMk est préférablement une photographie d’un visage prise avec un capteur photographique CAM de l’appareil informatique utilisateur APP, ou une photographie d’un visage prise avec un autre appareil et importée dans la bibliothèque d’images LIB de l’appareil informatique utilisateur APP.
Les images IM1-IM4, IMk de la bibliothèque d’images IMk ont un format de données numériques d’images, tel que le JPEG (pour « Joint Photographic Expert Group » en anglais), le PNG (pour « Portable Network Graphics » en anglais), le GIF (pour « Graphics Interchange Format » en anglais) le TIFF (pour « Tagged Image File Format » en anglais) ou tout autre format d’image.
Avantageusement, chaque image IM1-IM4, IMk de la bibliothèque d’images IMk incluent en outre des métadonnées MTD1-MTD4, MTDk fournissant des informations diverses concernant les images.
En particulier, certaines au moins des images IM1-IM4, IMk de la bibliothèque LIB incluent des métadonnées d’horodatage, informant de la date et l’heure de la création de l’image respective, et/ou des métadonnées de géolocalisation informant du lieu de la création de l’image respective.
Comme on le verra ci-après en relation avec la , les métadonnées d’horodatage et/ou de géolocalisation peuvent permettre d’affiner et d’améliorer le traitement par le modèle d’apprentissage machine AI_TS et l’évaluation EVAL de la couleur de la peau.
La couleur de la peau ainsi obtenue par le modèle d’apprentissage machine AI_TS est fidèle et peut ensuite être utilisée pour recommander un ou plusieurs produits cosmétique qui sont corrélé précisément avec la couleur de la peau de chaque utilisateur, en particulier le fond de teint, la poudre et les variantes de fond de teint et de poudre, et des produits cosmétiques qui compléteraient ou seraient appropriés pour la couleur de la peau de l’utilisateur.
On se réfère désormais à la .
La illustre un exemple de procédé de détermination d’une couleur de la peau d’un visage, mise en œuvre notamment par les moyens de traitement PU du système décrit précédemment en relation avec la .
Le procédé comprend une importation IN_DAT d’au moins une image IMk depuis la bibliothèque d’images LIB de l’appareil informatique utilisateur, telle que décrite en relation avec la .
Le traitement TS de ladite au moins une image IMk mis en œuvre dans cet exemple comprend un pré-traitement P_TS, et un traitement avec un modèle d'apprentissage machine AI_TS configuré pour fournir une valeur numérique ClrEstm_k représentative de la couleur de la peau d’un visage présent sur ladite au moins une image IMk.
Le pré-traitement P_TS comprend un conditionnement des images IMk dans un format adapté au modèle d’apprentissage machine AI_TS. En particulier, le pré-traitement P_TS est adapté pour isoler une ou plusieurs partie(s) de l’image contenant un visage, par un mécanisme de détection de visage FceDet classique et connu en soi, et pour effectuer un centrage et une mise à l’échelle Cntr+Scl de la partie de l’image contenant un visage, de façon à fournir des données normalisées au modèle d’apprentissage machine.
Sommairement, le centrage Cntr peut comprendre un recadrage de l’image de façon à conserver seulement la partie contenant le visage, et la mise à l’échelle Scl comprend un agrandissement ou un rétrécissement de l’image recadrée, ainsi qu’un sous-échantillonnage ou un sur-échantillonnage des pixels de l'image recadrée, pour fournir une image recadrée ayant une taille fixe et une résolution fixe.
Avantageusement, le pré-traitement comprend en outre une sélection des images recadrées contenant le même visage, par un mécanisme de reconnaissance faciale FceReco classique et connu en soi.
La reconnaissance faciale FceReco identifie et détecte un visage cible, c’est-à-dire un visage de référence fourni sur une image de référence IMref. Avantageusement le visage de référence est isolé dans l’image de référence IMref, c’est-à-dire que le visage de référence est le seul visage présent dans l’image de référence IMref.
L’image de référence IMref peut par exemple être importée depuis la bibliothèque d’image LIB de l’appareil informatique utilisateur, identifiée en tant qu’image de référence IMref par un utilisateur. En alternative, l’image de référence IMref peut être prise par l’utilisateur au moyen du capteur photographique de l’appareil informatique utilisateur (CAM), avantageusement du type photographie autoportrait (usuellement « selfie ») PhtSlf, de façon à comporter le visage isolé de l’utilisateur comme visage de référence.
Comme mentionné précédemment en relation avec la , les images IMk de la bibliothèque d’image incluent avantageusement des métadonnées MTDk. Dans ce cas, le prétraitement P_TS peut avantageusement comprendre une correction de la température chromatique TempCorr des images importées, établie en fonction des métadonnées MTDk respectives.
La température chromatique, aussi appelée « température de couleur », est une mesure bien connue de l’homme de l’art, usuellement donnée en Kelvin, caractérisant une source de lumière par comparaison au principe théorique du rayonnement thermique du corps noir.
Avantageusement, la correction de la température chromatique de chaque image est faite en outre en fonction de données externes EXT_MTD, telles que des données d’archives météorologiques et des données géographiques, permettant d’estimer, en correspondance avec les métadonnées MTDk respectives, la température chromatique des conditions d’éclairage de la création de l’image respective.
En effet, des métadonnées MTDk d’horodatage ts et de géolocalisation geoloc permettent de conjecturer des conditions d’éclairage, avec une température chromatique respective à compenser. Par exemple, les métadonnées d’horodatage ts peuvent indiquer si la photographie a été prise le jour ou la nuit, et les métadonnées de géolocalisation geoloc peuvent en outre indiquer si la photographie a été prise dans un espace intérieur ou dans un espace extérieur.
Les données d’archives météorologiques permettent de connaitre avec certitude, pour une date donnée et un lieu donné, notamment les heures du jour et de la nuit, et des périodes d’aube et de crépuscule, ainsi que les conditions d’ensoleillement. Cela permet de préciser la conjecture des conditions d’éclairage et d’affiner la correction de température chromatique.
La mise en œuvre de la correction de la température chromatique TempCorr par les moyens de pré-traitement P_TS, peut par exemple prévoir une liste de conditions pouvant être vérifiée par les métadonnées MTDk, éventuellement par la mise en correspondance des données externes EXT_MTD avec lesdites métadonnées MTDk.
Une table de correspondances peut permettre de sélectionner une correction de température chromatique spécifique en fonction des conditions qui sont vérifiées ou non.
Par exemple, parmi des conditions possibles simples, on pourra citer « aube », « jour », « nuit », « crépuscule », « intérieur », « extérieur », « ciel dégagé », « ciel nuageux », « pluie », « neige », etc. D’autres conditions, ainsi que des conditions plus complexes, pourrons être imaginées et conçues à cet égard.
Par exemple, si les métadonnées MTDk traduisent des conditions « nuit » et « intérieur », alors la correction de température chromatique pourra être faite de manière à corriger une illumination du type « lampe d’intérieure », ou « ampoule à incandescence ». Si les métadonnées MTDk traduisent des conditions « crépuscule » et « extérieur » et « ensoleillement », alors la correction de température chromatique pourra être faite de manière à corriger une illumination du type soleil couchant.
Le mécanisme de correction de la température chromatique TempCorr est comparable à une technique de debayerisation ou de dématriçage, classiquement utilisée pour rééquilibrer les canaux RGB individuellement dans le format brut « raw » du capteur photographique avant l’enregistrement de l’image.
Cela étant, le mécanisme de correction de la température chromatique TempCorr utilise avantageusement une matrice de debayerisation ou de dématriçage dont les points sont adaptés en fonction des conditions évaluées par les métadonnées MTDk, sur les images importées IMk. Ces ajustements sont ensuite consolidés dans un fichier image statique qui est vérifié en faisant l’hypothèse que la colorimétrie d’un élément est toujours connue dans l’image (comme par exemple le blanc de l’œil ou dans une moindre mesure les dents).
Les images IMk ainsi centrées Cntr sur un visage FceDet, mise à l’échelle Scl, éventuellement sélectionnées FceReco et éventuellement corrigées TempCorr, sont fournies au modèle d'apprentissage machine AI_TS.
Le modèle d'apprentissage machine AI_TS calcule des valeurs numériques ClrEstm_k représentatives de la couleur de la peau des visage présents sur chaque image IMk.
Le modèle d’apprentissage machine AI_TS peut par exemple être mis en œuvre par réseau neuronal convolutif préformé, par exemple de la façon décrite dans la demande de brevet PCT/US2020/041350, ou telle que résumée ci-après en relation avec la . Le modèle d’apprentissage machine AI_TS peut également être du type réseaux de neurones à action directe, ou des réseaux de neurones récurrents. Toute technique de formation appropriée peut être utilisée, notamment des descentes de gradient telles que les descentes stochastiques, par lots et par mini lots.
En outre, le modèle d’apprentissage machine AI_TS peut être capable de sélectionner des images conformes ImSel en détectant des conditions de prises de vue aberrantes sur l’image, telles que notamment un angle de prise de vue non conforme.
Cette sélection d’image conformes peut être faite en deux temps. Premièrement, un modèle d’apprentissage machine permet d’effectuer des contrôles explicites de conditions validées (exemple : visage de face, un seul visage dans l’image, un visage est bien dans l’image). Après ce premier filtrage, une seconde sélection se fait à l’aide d’un score de qualité wght1, par exemple entrainée de façon faiblement supervisée durant l’apprentissage du modèle AI_TS. Le score de qualité wght1 est purement statistique et est notamment optimisé pour améliorer la précision du modèle AI_TS durant l’apprentissage.
Ainsi, le modèle d’apprentissage machine AI_TS peut assigner chaque résultat d’un premier poids wght1, permettant notamment d’écarter des résultats aberrants.
Lorsque le modèle d’apprentissage machine AI_TS a fourni les valeurs numériques ClrEstm_k pour chaque image IMk, une évaluation EVAL de la couleur de la peau du visage est effectuée à partir desdites valeurs numériques ClrEstm_k et des premiers poids wght1 respectifs.
Par exemple l’évaluation EVAL peut comprendre un calcul de combinaison des valeurs ClrEstm_k, tel qu’un calcul de moyenne ou de médiane, avec pondérations selon les premiers poids wght1.
En outre, l’évaluation peut avantageusement être pondérée par des deuxièmes poids whgt2, obtenus à partir des métadonnées MTDk des images respectives, en particulier les métadonnées d’horodatage ts, afin de tenir compte d’une variation du teint de la couleur de la peau au cours des saisons de l’année, c’est-à-dire le bronzage de la peau.
En effet, il peut être souhaitable de sélectionner des photographies prises dans la même saison que la saison de la date courante, c’est-à-dire la date à laquelle est mise en œuvre la détermination de couleur de la peau d’un visage selon la technique présentée.
Par exemple des images datées à une saison opposée à la saison de la date courante peuvent être dépréciées avec un deuxième poids wght2 de faible valeur, tandis que des images datées à la même saison que la saison de la date courante peuvent être valorisées avec un deuxième poids wght2 de grande valeur.
Avantageusement, les deuxièmes poids wght2 peuvent être déterminés de manière à ce que ladite évaluation de la couleur de la peau EVAL fournisse une prédiction de la couleur la peau telle qu’elle sera ultérieurement à la date courante.
Par exemple, cela peut être obtenu en dépréciant des images datées dans les saisons précédant la saison de la date courante, et en valorisant des images datées dans les saisons suivant la saison de la date courante.
Des mesures de couleur de peau avec un spectrocolorimètre (ou « spectrophotomètre ») en fonction des saisons ont révélé les décalages introduits par l’été par rapport à l’hiver sur les tonalités de peau moyenne. Ces mesures ont permis d’établir les variations macroscopiques sur une population et sont intégrées dans le modèle de l’évaluation EVAL pour la détermination desdits deuxièmes poids wght2.
La illustre un exemple non limitatif de mise en œuvre d’une formation TRN (aussi appelée « entrainement ») du modèle d'apprentissage machine AI_TS pour fournir une valeur numérique ClrEstm_k représentative de la couleur de la peau d’un visage présent sur au moins une image IMk, tel que décrit précédemment en relation avec les figures 1 et 2.
La formation peut être mise en œuvre par les moyens de traitement PU comportant additionnellement des moyens d’entrainement TRN, notamment configuré pour commander les moyens de réception de données IN_DAT, les moyens de pré-traitement P_TS, le modèle d’apprentissage machine AI_TS et les moyens d’évaluation EVAL.
Un ensemble d’images de formation IN_DAT associées à une information réelle de la couleur de la peau GRND_TRTH, appelée référence véridique (usuellement « ground truth » en anglais), sont collectées pour la mise en œuvre de la formation TRN du modèle d’apprentissage machine AI_TS.
La référence véridique GRND_TRTH sur la couleur de la peau est utilisée comme vérité de base ou comme information de marquage pour les images qui seront fournies par un sujet de formation, c’est-à-dire une personne volontaire, appelée paneliste.
Par exemple, la référence véridique GRND_TRTH peut être recueillie par l'utilisateur en utilisant une technique standard de l'industrie pour déterminer une couleur de peau, comme une comparaison avec un nuancier ou une valeur déterminée par un spectrophotomètre dédié à la mesure des couleurs de la peau.
Dans la comparaison avec un nuancier, une partie de l'image peut contenir une représentation d’un nuancier de couleurs de référence connu, et une correction de la couleur de l'image ramenant la représentation du nuancier de référence à ses couleurs originelles peut permettre de déterminer la référence véridique GRND_TRTH sur la couleur de la peau présente dans l'image après ladite correction de couleurs.
Par exemple, la correction de couleur fournissant la référence véridique GRND_TRTH peut être mise en œuvre dans le pré-traitement P_TS sur commande des moyens d’entrainement TRN.
L’utilisation d’un spectrophotomètre peut être mise en œuvre au moins une fois sur la peau du paneliste, la couleur mesurée par le spectrophotomètre peut être utilisée directement, à une éventuelle traduction du codage de la couleur près, comme référence véridique GRND_TRTH.
L’ensemble d’images de formation IN_DAT est fourni par le paneliste par l’intermédiaire d’un appareil informatique utilisateur du même type que l’appareil APP décrit précédemment en relation avec la .
Par exemple, l’importation des images de formation IN_DAT utilise le capteur photosensible CAM de l'appareil informatique utilisateur du paneliste pour capturer une ou plusieurs images de formation comportant le visage du paneliste. Les images de formation peuvent provenir de photographies individuelles PhtSlf, par exemple prises en mode autoportrait, ou d’au moins un enregistrement vidéo Vid360, par exemple pris en mode autoportrait, au cours duquel les conditions d'éclairage peuvent être modifiées en faisant bouger le point de vue, par exemple par une rotation de l’appareil autour du visage du paneliste.
De multiples images de formation peuvent ensuite être générées en extrayant des images individuelles de la vidéo Vid360.
La capture d'une vidéo générant plusieurs images d'entraînement peut être bénéfique, au moins parce qu'elle augmentera considérablement l'efficacité de la génération d'une grande quantité de données d'entraînement avec différentes conditions d'éclairage.
A toutes fins utiles, l’homme de l’art pourra se référer à la description de la formation du modèle d’apprentissage décrit dans la demande PCT/US2020/041350.
On notera que, lors de la mise en œuvre du procédé de formation, le pré-traitement P_TS comprend seulement la détection de visage FceDet et le centrage et mise à l’échelle Cntr+Scl tels que décrit ci-avant en relation avec la . En effet, l’hypothèse que le paneliste fournisse des images de son visage exclusivement, peut être faite, auquel cas la reconnaissance faciale FceReco n’est pas nécessaire. En outre, étant donné que les images de formation proviennent de photographies ou de vidéos, les métadonnées n’apportent pas de contexte particulier permettant de paramétrer la correction de température chromatique TempCorr.
Eventuellement, les images de formation IN_DAT peuvent provenir en outre ou en alternative d’une bibliothèque d’image (IMk∈LIB) de l’appareil informatique utilisateur du paneliste. Dans ce cas, les étapes de reconnaissance faciale FceReco et de correction de température chromatique TempCorr peuvent être prévues telle que décrites en relation avec la .
Cela étant, il a été remarqué de façon surprenante que l’entrainement avec seulement des photographie et enregistrements vidéo, tel que mentionné ci-dessus ou bien tel que décrit dans la demande PCT/US2020/041350, fourni des résultats très satisfaisants dans la mise en œuvre décrite en relation avec la , c’est-à-dire dans l’inférence du modèle d’apprentissage machine AI_TS avec des images provenant d’une bibliothèque d’images LIB.
Dans la mise en œuvre de la formation, le modèle d’apprentissage machine AI_TS exécute des calculs paramétrables, sur les images de formation IN_DAT et fourni des valeur numérique ClrEstm représentative de la couleur de la peau d’un visage présent sur les images de formation.
L’évaluation de la couleur de la peau EVAL peut être faite, telle que décrite en relation avec la , par une opération de regroupement statistique AVRG des différentes valeurs numériques ClrEstm.
La couleur de la peau ainsi évaluée EVAL, ou bien les valeurs numériques ClrEstm directement, sont ensuite comparées par rapport à la référence véridique GRND_TRTH afin de reparamétrer les calculs exécutés par le modèle d’apprentissage machine AI_TS pour se rapprocher autant que possible de la référence véridique.
En d’autres termes, la référence véridique GRND_TRTH de la couleur de la peau est utilisée comme donnée de marquage indiquant un résultat souhaité du traitement des images de formation IN_DAT, par le modèle d’apprentissage machine AI_TS.
On notera que l’entrainement du modèle d’apprentissage machine AI_TS est avantageusement fait avec les données de plusieurs panelistes. A cet égard, les images de formation IN_DAT et la référence véridique GRND_TRTH associée à chaque paneliste peut être enregistré dans une mémoire des moyens de traitement PU et d’entrainement TRN. Le paramétrage du calcul du modèle d’apprentissage AI_TS est fait pour toutes les données de tous les panelistes afin d’être le plus universel possible.
En résumé, pour déterminer la couleur de la peau d’un visage, les moyens de traitement PU utilisent le modèle d'apprentissage machine AI_TS tel que décrit ci-dessus, pour déterminer la couleur de la peau du visage présent dans au moins une image importée à partir d’une bibliothèque d’image d’un appareil informatique utilisateur APP. La couleur de la peau peut ensuite être utilisée pour recommander un ou plusieurs produits cosmétique qui complètent ou sont appropriés pour la couleur de la peau ainsi déterminée.

Claims (16)

  1. Procédé de détermination d’une couleur de la peau d’une zone d’intérêt d’un utilisateur, comprenant :
    - une importation depuis une bibliothèque d’images (LIB) d’un appareil informatique utilisateur (APP) d’au moins une image (IMk) comportant une représentation de la zone d’intérêt de l’utilisateur ;
    - un traitement (TS) de ladite au moins une image (IMk) avec un modèle d'apprentissage machine (AI_TS) adapté pour fournir, pour chaque image importée (IMk), une valeur numérique (ClrEstm_k) représentative de la couleur de la peau de la zone d’intérêt présente sur ladite au moins une image importée (IMk) ;
    - une évaluation (EVAL) de la couleur de la peau de la zone d’intérêt à partir de la ou desdites valeur(s) numérique(s) (ClrEstm_k) de chaque image importée.
  2. Procédé selon la revendication 1, dans lequel la zone d’intérêt de l’utilisateur est le visage de l’utilisateur.
  3. Procédé selon l’une des revendications 1 ou 2, dans lequel :
    - ladite au moins une image (IMk) inclut des métadonnées d’horodatage (MTDk, ts) de la création de l’image respective ;
    - l’évaluation de la couleur de la peau (EVAL) est faite à partir de la valeur numérique de chaque image (ClrEstm_k) pondérée (wght2) en fonction d’une date courante et des métadonnées d’horodatage (ts) respectives.
  4. Procédé selon la revendication 3, dans lequel la valeur numérique de chaque image (ClrEstm_k) est pondérée (wght2) en fonction de la date courante et des métadonnées d’horodatage (ts) respective de manière à tenir compte d’une variation du teint de la couleur de la peau au cours des saisons de l’année.
  5. Procédé selon la revendication 4, dans lequel la pondération (wght2) tenant compte de la variation du teint de la couleur de la peau au cours des saisons de l’année est faite de manière à ce que ladite évaluation (EVAL) de la couleur de la peau fournisse une prédiction de la couleur la peau telle qu’elle sera ultérieurement à la date courante.
  6. Procédé selon l’une des revendications 1 à 5, dans lequel :
    - ladite au moins une image (IMk) inclut des métadonnées d’horodatage (MTDk, ts) de la création de l’image respective et/ou des métadonnées de géolocalisation (MTDk, geoloc) de la création de l’image respective ;
    - le traitement (TS) comprend un pré-traitement (P_TS) comprenant une correction de la température chromatique (TempCorr) de chaque image (IMk) en fonction des métadonnées (MTDk) respectives.
  7. Procédé selon la revendication 6, dans lequel la correction de la température chromatique (TempCorr) de chaque image est faite en outre en fonction de données d’archives météorologiques (ArchMeteo) correspondant aux métadonnées respectives (MTDk) permettant d’estimer la température chromatique des conditions d’éclairage de la création de l’image respective.
  8. Procédé selon l’une des revendications 1 à 7 prise en combinaison avec la revendication 2, dans lequel :
    - l’importation comprend en outre une obtention d’une image de référence (IMref) représentant un visage de référence de l’utilisateur ;
    - le traitement comprend un pré-traitement (P_TS) comprenant une sélection par reconnaissance faciale (FceReco) du visage de référence dans ladite au moins une image (IMk) importée depuis la bibliothèque d’images de l’appareil informatique utilisateur.
  9. Procédé selon la revendication 8, dans lequel l’obtention de l’image de référence (IMref) comprend une capture photographique (PhtSlf) de la zone d’intérêt isolée de l’utilisateur, ou une identification par l’utilisateur d’une image représentant la zone d’intérêt isolée parmi les images (IMk) de ladite bibliothèque d’images.
  10. Procédé selon l’une des revendications 1 à 9, dans lequel le modèle d'apprentissage machine (AI_TS) est un réseau neuronal convolutif préformé (TRN).
  11. Système de détermination d’une couleur de la peau d’une zone d’intérêt d’un utilisateur, comprenant :
    - des moyens de communication (COM) adaptés pour communiquer avec un appareil informatique utilisateur (APP) et configurés pour importer depuis une bibliothèque d’images (LIB) de l’appareil informatique utilisateur (APP), au moins une image (IMk) comportant une représentation de la zone d’intérêt de l’utilisateur ;
    - des moyens de traitement (PU) configurée pour effectuer un traitement (TS) de ladite au moins une image (IMk) avec un modèle d'apprentissage machine (AI_TS) adapté pour fournir, pour chaque image importée (IMk), une valeur numérique (ClrEstm_k) représentative de la couleur de la peau de la zone d’intérêt présente sur ladite au moins une image importée (IMk) ;
    - les moyens des traitement (PU) étant en outre configuré pour évaluer (EVAL) la couleur de la peau de la zone d’intérêt à partir de la ou desdites valeur(s) numérique(s) (ClrEstm_k) de chaque image importée.
  12. Système selon la revendication 11, dans lequel les moyens de communication (COM) sont en outre configurés pour mettre en œuvre l’étape d’importation du procédé selon l’une des revendications 2 à 10, et les moyens de traitement (PU) sont en outre configurés pour mettre en œuvre les étapes de traitement (TS) et d’évaluation (EVAL) du procédé selon l’une des revendications 2 à 10.
  13. Système selon l’une des revendications 11 ou 12, comportant en outre l’appareil informatique utilisateur (APP) configuré pour communiquer aux moyens de communications (COM) ladite au moins une image (IMk) de la bibliothèque d’images (LIB).
  14. Système selon l’une des revendications 11, 12 ou 13, dans lequel les moyens de communication (COM) sont adaptés pour communiquer avec l’appareil informatique utilisateur (APP) par l’intermédiaire d’un réseau de télécommunications (RES).
  15. Programme d’ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent celui-ci à mettre en œuvre le procédé selon l’une des revendications 1 à 10.
  16. Support lisible par ordinateur comprenant des instructions qui, lorsqu'elles sont exécutées par un ordinateur, conduisent celui-ci à mettre en œuvre le procédé selon l’une des revendications 1 à 10.
FR2101039A 2020-12-31 2021-02-03 Procédé de détermination d’une couleur de la peau d’un visage et système correspondant Active FR3118517B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP21843700.2A EP4271223A1 (fr) 2020-12-31 2021-12-21 Procédé de détermination d?une couleur de peau d'un visage et système correspondant
KR1020237019387A KR20230101895A (ko) 2020-12-31 2021-12-21 안면의 피부 컬러를 결정하기 위한 방법 및 상응 시스템
US18/259,915 US20240086989A1 (en) 2020-12-31 2021-12-21 Method for determining a skin colour of a face and corresponding system
PCT/EP2021/086979 WO2022144233A1 (fr) 2020-12-31 2021-12-21 Procédé de détermination d'une couleur de peau d'un visage et système correspondant
JP2023540164A JP2024502818A (ja) 2020-12-31 2021-12-21 顔の肌の色を判定する方法及び対応するシステム

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US17/139,454 US11900434B2 (en) 2020-01-31 2020-12-31 Ecosystem for dispensing personalized foundation
US17/139,338 2020-12-31
US17/139,391 US11478063B2 (en) 2020-01-31 2020-12-31 Cleaning system for cosmetic dispensing device
US17/139,338 US20210235845A1 (en) 2020-01-31 2020-12-31 Smart swappable cartridge system for cosmetic dispensing device
US17/139,340 US11935107B2 (en) 2020-01-31 2020-12-31 Ecosystem for dispensing personalized lipstick
US17/139,391 2020-12-31
US17/139,457 US20210236863A1 (en) 2020-01-31 2020-12-31 Ecosystem for dispensing personalized skincare product
US17/139,454 2020-12-31

Publications (2)

Publication Number Publication Date
FR3118517A1 true FR3118517A1 (fr) 2022-07-01
FR3118517B1 FR3118517B1 (fr) 2024-03-15

Family

ID=82160152

Family Applications (2)

Application Number Title Priority Date Filing Date
FR2101039A Active FR3118517B1 (fr) 2020-12-31 2021-02-03 Procédé de détermination d’une couleur de la peau d’un visage et système correspondant
FR2108455A Pending FR3118521A1 (fr) 2020-12-31 2021-08-04 Procédé de détermination d’au moins une couleur compatible avec une tenue vestimentaire d’un utilisateur

Family Applications After (1)

Application Number Title Priority Date Filing Date
FR2108455A Pending FR3118521A1 (fr) 2020-12-31 2021-08-04 Procédé de détermination d’au moins une couleur compatible avec une tenue vestimentaire d’un utilisateur

Country Status (2)

Country Link
CN (1) CN116615752A (fr)
FR (2) FR3118517B1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008108760A1 (fr) * 2007-03-08 2008-09-12 Hewlett-Packard Development Company, L.P. Procédé et système pour recommander un produit en fonction d'une couleur de peau estimée à partir d'une image
US10347163B1 (en) * 2008-11-13 2019-07-09 F.lux Software LLC Adaptive color in illuminative devices
WO2020118977A1 (fr) * 2018-12-15 2020-06-18 深圳市华星光电半导体显示技术有限公司 Procédé et dispositif de correction de température de couleur d'image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008108760A1 (fr) * 2007-03-08 2008-09-12 Hewlett-Packard Development Company, L.P. Procédé et système pour recommander un produit en fonction d'une couleur de peau estimée à partir d'une image
US10347163B1 (en) * 2008-11-13 2019-07-09 F.lux Software LLC Adaptive color in illuminative devices
WO2020118977A1 (fr) * 2018-12-15 2020-06-18 深圳市华星光电半导体显示技术有限公司 Procédé et dispositif de correction de température de couleur d'image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIPS ROBIN ET AL: "Beyond color correction: Skin color estimation in the wild through deep learning", ELECTRONIC IMAGING, 1 January 2020 (2020-01-01), pages 1 - 8, XP055850777, Retrieved from the Internet <URL:https://www.ingentaconnect.com/content/ist/ei/2020/00002020/00000005/art00005?crawler=true&mimetype=application/pdf&utm_source=TrendMD&utm_medium=cpc&utm_campaign=Electronic_Imaging_TrendMD_1> [retrieved on 20211013], DOI: 10.2352/ISSN.2470-1173.2020.5.MAAP-082 *

Also Published As

Publication number Publication date
FR3118521A1 (fr) 2022-07-01
FR3118517B1 (fr) 2024-03-15
CN116615752A (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
US11704905B2 (en) Use of camera metadata for recommendations
US10265011B2 (en) Mining social media for ultraviolet light exposure analysis
US10924661B2 (en) Generating image capture configurations and compositions
CN108777815B (zh) 视频处理方法和装置、电子设备、计算机可读存储介质
US7929796B2 (en) Image processing system and method, and terminal and server used for the same
US20160142625A1 (en) Method and system for determining image composition attribute adjustments
WO2019233260A1 (fr) Procédé et appareil d&#39;envoi d&#39;informations de publicité, support d&#39;informations, et dispositif électronique
FR2913510A1 (fr) Procede pour determiner automatiquement une probabilite de saisie d&#39;images avec un terminal a partir de donnees contextuelles
WO2018063951A1 (fr) Recolorisation de flux d&#39;images infrarouges
CN107424117B (zh) 图像美颜方法、装置、计算机可读存储介质和计算机设备
US10469739B2 (en) Systems and methods for determining preferences for capture settings of an image capturing device
EP3087551B1 (fr) Procédé d&#39;analyse d&#39;images du visage pour la détection d&#39;un effet flush
FR3118517A1 (fr) Procédé de détermination d’une couleur de la peau d’un visage et système correspondant
US20240086989A1 (en) Method for determining a skin colour of a face and corresponding system
FR3134645A1 (fr) Prédiction du teint de la peau à l&#39;aide d&#39;un modèle de visage 3D
FR3055764A1 (fr) Procede de controle de la detection en temps reel d&#39;une scene par un appareil de communication sans fil, par exemple un telephone mobile cellulaire, et appareil correspondant.
CN116648728A (zh) 用于确定面部皮肤颜色的方法和对应的系统
WO2022144233A1 (fr) Procédé de détermination d&#39;une couleur de peau d&#39;un visage et système correspondant
US12002264B2 (en) Use of camera metadata for recommendations
EP2234066B1 (fr) Mesure de distance à partir d&#39;images stéréo
WO2022019171A1 (fr) Dispositif de traitement d&#39;informations, procédé de traitement d&#39;informations et programme
WO2017149248A1 (fr) Appareil de prise de vue stereoscopique
WO2023247208A1 (fr) Procede de segmentation d&#39;une pluralite de donnees, procede de codage, procede de decodage, dispositifs, systemes et programme d&#39;ordinateur correspondants
EP4375899A1 (fr) Procede et dispositif de recommandation d&#39;activites a au moins un utilisateur
FR3110994A1 (fr) Procédé de reconstruction d’une image, notamment d’une image exacte en couleur, programme d’ordinateur, dispositif et système associés

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20220701

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4