EP2803039A1 - Procédé et dispositif de coloration de cheveux - Google Patents

Procédé et dispositif de coloration de cheveux

Info

Publication number
EP2803039A1
EP2803039A1 EP13711449.2A EP13711449A EP2803039A1 EP 2803039 A1 EP2803039 A1 EP 2803039A1 EP 13711449 A EP13711449 A EP 13711449A EP 2803039 A1 EP2803039 A1 EP 2803039A1
Authority
EP
European Patent Office
Prior art keywords
hair
user
mask
image
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP13711449.2A
Other languages
German (de)
English (en)
Inventor
Christophe Blanc
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wisimage
Original Assignee
Wisimage
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wisimage filed Critical Wisimage
Publication of EP2803039A1 publication Critical patent/EP2803039A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Definitions

  • the invention relates to a method for the virtual extraction and coloration of a target person's capillary mask in a substantially real time by using information on the texture of the hair mask provided by the user using a support digital device with or attached to a touch screen.
  • the first set is based on an automatic detection (no information or constraint is made to the detection algorithm) or semi-automatic (a mask with the position of certain elements of the face is used to constrain the position of the person's face target on digital photography) of the target person's face.
  • the objective is to detect and model the face by different characteristic points and a contour of the face. Once this information is determined, a virtual wig is "posed" on the head of the target person. This method allows the laying of a predefined hair and not a virtual hair coloration of the target person.
  • the second set is based on the use of a capillary mask that can be either predefined or defined by the user as shown in Figure 3.
  • This capillary mask is defined / drawn by several points connected to each other by lines.
  • the user will have to move the points defining the capillary mask, with the aid of a cursor, to adapt this generic mask to the hair of the target person.
  • the user must, by means of a cursor, manually define all the points defining his capillary mask.
  • a hair coloring is applied in the zone defined by these different points. This method is binding for the user because he must define all or part of the capillary mask.
  • this definition must be as precise as possible so that the hair coloring is located on all the hair of the target person only and not on part of the background or face.
  • the third set is based on a capillary segmentation approach.
  • the goal is to semi-automatically extract the capillary mask.
  • the user must perform several binding actions. First, he must make a photograph of the body of his body centered with a uniform background preferably. Secondly, he must use a mouse to place a rectangle within which his face is located (see Figure 4). Third, always with the mouse and without any user-friendly interface, he must place dots on the image on his hair and on the bottom.
  • the last type of approach is based on touchscreen technology. After making a digital photograph and recording it, the user must "color" the area where the hair is located by using his finger with the touch screen. This solution is minimalist because no automatic or semi-automatic detection of the capillary mask is performed. The coloring of the hair will be applied only in the areas defined by the passage of the finger of the user on the touch interface. This solution therefore has two major disadvantages: the user must color all the hair manually and the coloring is uniformly applied to the colored parts without any artificial intelligence.
  • the invention provides:
  • a step of providing the user with a useful hair color zone selection interface during this step, as shown in FIG. 5, the user uses the interface and the selection tool made available to select the hair area.
  • the user uses the interface and the selection tool made available to select the hair area.
  • selection modes can be proposed, depending on the case.
  • the user selects a plurality of points by drawing at least one line in the area of the hair. This variant is particularly advantageous because it allows the taking into account of several points. Since in
  • the method allows for the segmentation of the capillary mask from information previously obtained on the one hand and provided by the user on the other hand.
  • the method therefore provides for the reception of coloring data corresponding to the points and / or zones selected by the user. This input of information makes it possible to initialize in an optimal manner the segmentation algorithm of the capillary mask.
  • a step is provided for searching the face of the target person in the image. From this data locating the face of the target person, the image is cropped and resized so that it is centered on it. This method therefore makes it possible to reduce the stress on the position of the face during the photographing step.
  • the automatic hair dyeing method is based on a tactile interface is illustrated in Figure 6. It is based on the use of a touch interface (slab, mobile phone or digital tablet) associated with a server performing the calculations necessary for the
  • Step 0 Obtain an image of the target person
  • a shooting of the head of the target person can be carried out according to two different approaches.
  • the user uses a remote digital camera, or he uses the device integrated in the touch support like a digital tablet (laptop without keyboard with touch screen and intuitive user interface such as products marketed under the name "iPad”) or a smartphone ("iPhone” for example).
  • iPad a digital tablet
  • iPhone a smartphone
  • a previously existing image can also be used.
  • Step 1 questionnaire (optional)
  • step 5 this information allows a determination of the color to be applied to the hair corresponding more precisely to the wishes of the user. This step makes it possible to personalize the hair coloring and to respond more easily to the expectations of the user.
  • This step corresponds to the determination of the texture of the hair by the user of the invention. It is preferably based on the use of a touch interface. Passing a finger on the hair of the target person as shown in Figure No. 5, the user selects one to several points describing the texture of the hair, area described as the first plane in Figure No. 1. This operation can be repeated identically to describe the texture of the areas forming the background described in Figure No. 1. Once the operation is complete, validation enables the information (points of interest and image of the target person) to be transmitted to the server that will perform steps 3 to 5.
  • this step is based on three modules (see Figure 6):
  • the result display module displays on the touch screen in real time the points determined by the user superimposed on the image of the target person.
  • the module sends data allows, once the points selected and validated, to send to the server the image accompanied by the points of interest.
  • Step 3 Face detection and resizing of the image
  • This step corresponds to a search of the face in the image using an image processing algorithm such as that based on a learning method "AdaBoost" with Haar wavelet descriptor.
  • This algorithm traverses the image in its entirety to search for pixel images, described by the wavelets, identical to the information obtained with the learning provided a priori. Once the comparison is positive, the face of the target person is located in the image.
  • Step 4 Segmentation of the capillary mask
  • This automatic segmentation of the capillary mask is advantageously performed by an image processing algorithm named "Grabcut”.
  • This algorithm traverses the entire image by searching for the pixels having the same intensity as the pixels associated with the background or the capillary mask provided as input. The goal is to label all pixels in the image as either a background or a hair mask. Then, the algorithm seeks to optimize a boundary between the two classes of pixels always obtained by relying on the strong data input constraints. In other words, the algorithm looks for the best compromise between the two zones by using strong binding information in input.
  • the texture of the hair described by the points of interest positioned by the user (hair mask in Figure No. 1) and the texture of the skin of the face obtained with the points detected in step 4 (part from the background in FIG. 1) are therefore used as input to the algorithm (segmentation module of the capillary mask). Since this initialization is correct (strong constraint), the algorithm detects more quickly and more precisely the parts of the image of the target person corresponding to this texture.
  • This step is broken down into two distinct parts.
  • the color of the hair contained in the hair mask is determined. With this value and the possible information obtained in step 1, the method automatically determines several colors of capillary coloration that can be envisaged corresponding to both the current capillary mask and the user's expectations (color determination module in FIG. ).
  • Step 6 Creating a layer of the colored capillary mask
  • This step corresponds to the creation of a capillary mask using one of the patches determined in step 5.
  • This function is implemented by the mask creation module.
  • the objective of this step is to obtain a uniform and realistic coloration of the hair mask. To do this, it is necessary to perform several consecutive treatments applied on the one hand to the color patch determined in step 5, on the other hand to the capillary mask extracted from the image of the target person during the treatment. step 4.
  • This step breaks down into several distinct parts.
  • the color patch and the capillary mask are translated into histograms defined from a colorimetric criterion.
  • a colorimetric criterion For an optimal rendering of the coloring,
  • Step 7 Display on a screen
  • the tactile support displays the result of the hair coloring by superimposing the colored layer with the original image of the target person (see figure n ° 8).
  • Step 8 Making a beauty prescription
  • This step carries out, through a graphical interface, a summary of the previous operations performed by the invention:
  • the touch interface may be replaced by a known type of mobile cursor remotely operated by a mouse, a keypad, or other known type of moving means.
  • the selection made by the user's finger in the previous description is replaced by a selection made by moving the cursor in the relevant area to be selected.
  • the selection of the area to be colored can be performed by one or preferably a plurality of discrete points included in the area to be colored.
  • the implementation of the various modules of the coloring device previously described is advantageously carried out by means of instructions or commands, enabling the modules to perform the operation or operations specifically provided for the module concerned.
  • the instructions may be in the form of one or more software or software modules implemented by one or more microprocessors.
  • the module (s) and / or the software (s) are advantageously provided in a computer program product comprising a recording medium or recording medium that can be used by a computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Procédé et dispositif de coloration capillaire, le procédé permettant, à partir d' une image cible d ' un utilisateur, de générer une simulation de coloration des cheveux, comprenant les étapes selon lesquelles : - un module image reçoit les données d' une image cible à traiter; - un module interface génère une interface utilisateur permettant de recevoir une sélection d ' au moins un point d' identification de zone de coloration; - après réception des données de sélection, le module interface envoie les données à un module de segmentation de masque capillaire; - l e module de segmentation de masque capillaire extrait la zone correspondant à la chevelure de l ' utilisateur.

Description

Procédé et dispositif de coloration de cheveux
Domaine technique de l'invention
L'invention concerne un procédé d'extraction et de coloration virtuelle d'un masque capillaire d'une personne cible en temps sensiblement réel en employant des informations sur la texture du masque capillaire fournies par l'utilisateur à l'aide d'un support numérique comportant ou relié à un écran tactile.
Etat de la technique antérieure
Nous connaissons aujourd'hui plusieurs types de technologies numériques permettant à une utilisatrice de simuler un maquillage, ou de tester virtuellement un maquillage au moyen d'une photographie numérique du visage et d'outils de sélection et d'application de couleurs. Malgré la pléiade de solutions mises à disposition des utilisatrices, les solutions permettant d'obtenir des résultats réalistes sont peu nombreuses. Plusieurs raisons expliquent les imperfections des solutions proposées. Le plus souvent, la difficulté de détecter précisément les diverses zones du visage à maquiller constitue une source de problèmes multiples.
Pour les applications visant également à prendre en compte la simulation de coloration des cheveux, en plus de la difficulté consistant à délimiter la zone cible à colorer, d'autres difficultés rendent la simulation de coloration particulièrement délicate à réaliser de façon précise, fiable et réaliste. Ainsi, le très fort gradient de variation de couleurs dans des zones très petites du fait du grand nombre de cheveux, les problèmes de reflets, et le fait qu'un seul cheveux possède souvent des caractéristiques colori métriques différentes, ne sont que quelques-uns de problèmes à surmonter pour effectuer de telles simulations.
Plusieurs approphes de coloration capillaire virtuelle sur une photographie numérique existent. Elles peuvent être classées en quatre groupes.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) Le premier ensemble repose sur une détection automatique (aucune information ou contrainte n'est apportée à l'algorithme de détection) ou semi-automatique (un masque avec la position de certains éléments du visage est employé pour contraindre la position du visage de la personne cible sur la photographie numérique) du visage de la personne cible. L'objectif est de détecter et modéliser le visage par différents points caractéristiques et un contour du visage. Dés lors que ces informations sont déterminées, une perruque virtuelle est « posée » sur la tête de la personne cible. Cette méthode rie permet que la pose d'une chevelure prédéfinie et non une coloration capillaire virtuelle de la personne cible.
Le deuxième ensemble repose sur l'utilisation d'un masque capillaire qui peut être soit prédéfini, soit défini par l'utilisateur comme présenter sur la figure n°3. Ce masque capillaire est défini/dessiné par plusieurs points reliés entre eux par des droites. Dans le cas où ce masque capillaire est prédéfini, l'utilisateur aura à déplacer les points définissant le masque capillaire, à l'aide d'un curseur, pour l'adapter ce masque générique à la chevelure de la personne cible. Dans le deuxième cas, l'utilisateur se doit, à l'aide d'un curseur, de définir manuellement tous les points définissant son masque capillaire. Dés lors que le masque capillaire est bien adapté à celui de la personne cible, une coloration capillaire est appliquée dans la zone définie par ces différents points. Cette méthode est contraignante pour l'utilisateur car il doit définir en totalité ou partiellement le masque capillaire. De plus, cette définition devra être la plus précise possible pour que la coloration des cheveux soit située sur tous les cheveux de la personne cible uniquement et non sur une partie de l'arrière plan ou du visage.
Le troisième ensemble repose sur une approche de segmentation capillaire. Pour les méthodes existantes, l'objectif est d'extraire de manière semi-automatique le masque capillaire. Cependant, en l'état, l'utilisateur doit réaliser plusieurs actions contraignantes. Premièrement, il doit réaliser une photographie du hàut de son corps centré avec un fond uniforme de préférence. Deuxièmement, il doit, à l'aide d'une souris, placer un rectangle à l'intérieur duquel se trouve son visage (cf. la figure n°4). Troisièmement, toujours avec la souris et sans aucune interface conviviale, il doit placer des points sur l'image sur ses cheveux et sur le fond.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) Même si ce procédé est semi-automatique, son emploi reste donc très contraignant pour l'utilisateur car il doit réaliser de nombreuses actions sous peine d'obtenir de mauvais résultats lors de la coloration capillaire.
Le dernier type d'approche repose sur la technologie des écrans tactiles. Après avoir réalisé une photographie numérique et enregistré celle-ci, l'utilisateur doit « colorier » la zone où se situe les cheveux en se servant de son doigt à l'aide de l'écran tactile. Cette solution est minimaliste car aucune détection automatique ou semi-automatique du masque capillaire n'est réalisée. La coloration des cheveux sera appliquée uniquement dans les zones définies par le passage du doigt de l'utilisateur sur l'interface tactile. Cette solution a donc deux inconvénients majeurs : l'utilisateur doit colorier toute la chevelure manuellement et la coloration est appliquée de manière uniforme sur les parties coloriées sans aucune intelligence artificielle.
Aucune des solutions existantes à ce jour ne permet de prendre en compte de façon simple, rapide, fiable et efficace l'ensemble des difficultés techniques préalablement exposées. Il existe donc aujourd'hui un besoin important pour trouver une solution efficace à ces nombreux problèmes.
Exposé de l'Invention
Dans le but d'éviter les inconvénients des approches décrites dans le paragraphe précédent, l'invention prévoit :
• une étape de mise à disposition à l'utilisateur d'une interface de sélection de zone utile de coloration des cheveux : lors de cette étape, tel que montré à la figure n°5, l'utilisateur utilise l'interface et l'outil de sélection mis à sa disposition pour sélectionner la zone des cheveux. Plusieurs modes de sélection peuvent être proposés, selon les cas. Dans l'exemple illustré, l'utilisateur sélectionne une pluralité de points en traçant au moins une ligne dans la zone des cheveux. Cette variante est particulièrement avantageuse car elle permet la prise en compte de plusieurs points. Puisque dans de
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) nombreuses chevelures, la couleur varie sensiblement d'un point à l'autre, cette approche permet d'indiquer toute une série de données de couleur à prendre en compte. Dans une variante simplifiée, l'utilisateur sélectionne au moins un point de la zone sujette à coloration. Egalement en variante, le procédé met à disposition une interface permettant à l'utilisateur d'indiquer la zone entourant la chevelure, à l'arrière plan du sujet.
• Le procédé permet de réalise la segmentation du masque capillaire à partir des informations précédemment obtenues d'une part et fournies par l'utilisateur d'autre part. Le procédé prévoit donc la réception des données de coloration correspondant aux points et/ou zones sélectionnées par l'utilisateur. Cet apport d'informations permet d'initialiser d'une manière optimale l'algorithme de segmentation du masque capillaire.
• De manière avantageuse, on prévoit une étape permettant de rechercher le visage de la personne cible dans l'image. A partir de cette donnée localisant le visage de la personne cible, l'image est recadrée et redimensionnée pour qu'elle soit centrée sur celui-ci. Ce procédé permet donc de réduire la contrainte sur la position du visage lors de l'étape de la photographie.
Grâce à ce procédé automatique, il n'est plus nécessaire de définir manuellement le masque capillaire ou d'obliger l'utilisateur à réaliser une photographie avec des contraintes fortes sur la position de son visage dans l'image. L'unique action qu'il doit réaliser correspond à la définition des points décrivant la texture des cheveux de la personne cible à l'aide d'une interface « conviviale ».
Dans un exemple de réalisation illustré aux figures, le procédé automatique de coloration capillaire repose sur une interface tactile est illustré sur la figure 6. Il repose sur l'emploi d'une interface tactile (dalle, téléphone portable ou tablette numérique) associée à un serveur réalisant les calculs nécessaires à la
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) localisation du visage de la personne cible, la segmentation et coloration du masque capillaire. La communication entre les deux entités repose sur des moyens connus tels qu'un protocole Wifi ou Wimax ou un câble lorsqu'une dalle tactile est employée avec un PC ou serveur, ou tout autre moyen permettant l'échange des données.
Pour illustrer le procédé selon l'invention, le procédé est découpé en différentes étapes présentées sur la figure n°2. Ces étapes sont décrites en s'appuyant sur les modules nécessaires à la réalisation de celles-ci. a) Etape 0 : obtention d'une image de la personne cible
En amont du procédé, une prise de vue de la tête de la personne cible peut être réalisée selon deux approches différentes. Soit l'utilisateur emploie un appareil photographique numérique déporté, soit il emploie l'appareil intégré au support tactile à l'instar d'une tablette numérique (ordinateur portable sans clavier avec écran tactile et interface utilisateur intuitive comme par exemple les produits commercialisés sous le nom « iPad ») ou d'un smartphone (« iPhone » par exemple). Une image préalablement existante peut aussi être utilisée.
Dans le cas où la prise de vue repose sur l'emploi d'une tablette ou d'un smartphone, l'utilisateur peut utiliser le module prise de photo. Il est ainsi guidé par la présence d'une cible (cercle ou zone hachurée) sur l'écran servant d'interface qui lui permet de réaliser une prise de vue optimale garantissant le bon fonctionnement de l'application et une utilisation simplifiée de son point de vue. b) Etape 1 : questionnaire (facultatif)
Grâce à une interface graphique interactive fournie par le support tactile, il est possible de poser des questions à l'utilisateur sur son type de chevelure et sur la couleur qu'il souhaite appliquer.
Lors de l'étape 5, ces informations permettent une détermination de la couleur à appliquer à la chevelure correspondant plus précisément aux désirs de l'utilisateur. Cette étape permet de personnaliser la coloration capillaire et de répondre plus facilement aux attentes de l'utilisateur.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) c) Etape 2 : sélection manuelle de la chevelure
Cette étape correspond à la détermination de la texture de la chevelure par l'utilisateur de l'invention. Elle repose de préférence sur l'emploi d'une interface tactile. En passant un doigt sur la chevelure de la personne cible comme présenter sur la figure n°5, l'utilisateur sélectionne un à plusieurs points décrivant la texture de la chevelure, zone décrite comme le premier plan sur la figure n°1. Cette opération peut être renouvelée à l'identique pour décrire la texture des zones composant l'arrière plan décrit sur la figure n°1. Une fois l'opération terminée, une validation permet de transmettre les informations (points d'intérêt et image de la personne cible) au serveur qui réalisera les étapes 3 à 5.
Au final, cette étape repose sur trois modules (cf. la figure 6) :
• Le module sélection des points d'intérêt permettant de recevoir et d'enregistrer les points décrit par le passage du doigt de l'utilisateur sur le support tactile.
• Le module affichage du résultat permet d'afficher sur l'écran tactile en temps réel les points déterminés par l'utilisateur superposés sur l'image de la personne cible.
• Le module envoie des données permet, une fois les points sélectionnés et validés, d'envoyer au serveur l'image accompagnée des points d'intérêt.
d) Etape 3 : Détection du visage et redimensionnement de l'image
Cette étape correspond à une recherche du visage dans l'image à l'aide d'un algorithme de traitement d'image tel que celui reposant sur une méthode d'apprentissage « AdaBoost » avec comme descripteur des ondelettes de Haar. Cet algorithme parcourt l'image dans son intégralité pour rechercher des imagettes de pixels, décrites par les ondelettes, identiques aux informations obtenues avec l'apprentissage fournies a priori. Dès lors que la comparaison est positive, le visage de la personne cible est localisée dans l'image.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) A partir de cette détection, le procédé réalise deux opérations. Il choisit automatiquement des points appartenant au visage détecté qui sont identifiés comme appartenant à l'arrière plan. Il redimensionne et recadre l'image sur le visage de la personne cible.
L'ensemble de ces actions est avantageusement mis en œuvre par le module détection visage (cf. figure n°6).
L'emploi de cette méthodologie a pour intérêt de ne pas contraindre la position du visage de la personne cible au centre de l'image lors de la réalisation de la photographie. e) Etape 4 : Segmentation du masque capillaire
Cette segmentation automatique du masque capillaire est avantageusement réalisée par un algorithme de traitement d'images nommé « Grabcut ». Cet algorithme parcourt toute l'image en recherchant les pixels ayant la même intensité que les pixels associés à l'arrière plan ou au masque capillaire fournis en entrée. L'objectif est d'étiqueter tous les pixels de l'image soit comme arrière plan, soit comme masque capillaire. Puis, l'algorithme cherche à optimiser une frontière entre les deux classes de pixels obtenues toujours en s'appuyant sur les contraintes fortes données en entrée. En d'autres termes, l'algorithme recherche le meilleur compromis entre les deux zones en employant des informations contraignantes fortes en entrée.
Ainsi, la texture de la chevelure décrite par les points d'intérêt positionnés par l'utilisateur (masque capillaire sur la figure n°1) et la texture de la peau du visage obtenu avec les points détectés lors de l'étape 4 (partie de l'arrière plan sur la figure n°1) sont donc utilisés comme entrée de l'algorithme (module segmentation du masque capillaire). Du fait que cette initialisation est correcte (contrainte forte), l'algorithme détecte plus rapidement et plus précisément les parties de l'image de la personne cible correspondant à cette texture.
Au final, la réception des données colorimétriques de la zone de l'arrière plan permet d'exclure de la zone à colorer les points dont les données colorimétriques
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) sont identiques ou sensiblement identiques à celles reçues pour cette zone. Puis, la réception des données colorimétriques de la zone du visage permet également d'exclure de la zone à colorer les points dont les données colorimétriques sont identiques ou sensiblement identiques à celles reçues pour cette zone. A la sortie de ce module, nous obtiendrons une zone correspondant au masque capillaire avec la texture identifiée par l'utilisateur de l'invention. f) Etape 5 : Sélection de la couleur
Cette étape se décompose en deux parties distinctes. Premièrement, la couleur des cheveux contenue dans le masque capillaire est déterminée. Avec cette valeur et les informations éventuelles obtenues lors de l'étape 1. le procédé détermine automatiquement plusieurs couleurs de coloration capillaire envisageable correspondant à la fois au masque capillaire actuel et aux attentes de l'utilisateur (module détermination couleur sur la figure n°6).
Ces couleurs sont représentées par des patchs comme l'exemple présenté sur la figure n°7. Ces patchs représentent une palette de la même couleur avec des luminosités, des teintes et des contrastes différents. Ces informations permettent, lors de l'étape 6, de conserver les différents reflets observables sur le masque capillaire de la personne cible sur l'image originale. g) Etape 6 : Création d'un calque du masque capillaire coloré
Cette étape correspond à la création d'un masque capillaire en utilisant l'un des patchs déterminé à l'étape 5. Cette fonction est mise en œuvre par le module création masque. L'objectif de cette étape est d'obtenir une coloration uniforme et réaliste du masque capillaire. Pour ce faire, il est nécessaire de réaliser plusieurs traitements consécutifs appliqués d'une part sur le patch de couleur déterminé lors de l'étape 5, d'autre part sur le masque capillaire extrait de l'image de la personne cible lors de l'étape 4.
Cette étape se décompose en plusieurs parties distinctes. Dans une première partie, le patch de couleur et le masque capillaire sont traduits en histogrammes définis à partir d'un critère colorimétrique. Pour un rendu optimal de la coloration,
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) ces histogrammes doivent se situer dans la même zone de valeurs en fonction du critère colorimétrique. Si ce n'est pas le cas, les couleurs du masque capillaire de la personne cible sont transposés dans la zone de définition du patch de couleur. Ensuite, dans une seconde partie, les couleurs du patch choisi sont toutes extraites en éliminant les doublons (pixels avec des caractéristiques identiques). Ensuite, ces pixels sont classés en fonction de critères colorimétriques. Dans une troisième partie, le même procédé de tris des pixels est appliqué au masque capillaire. Lors d'une dernière opération, les pixels triés de chaque entité graphique sont mis en correspondance en utilisant le critère colorimétrique précédemment employé.
En partant du masque capillaire extrait lors de l'étape 4, tous les pixels sont coloriés à l'aide du patch choisi. Cependant, cette coloration n'est pas uniforme. Elle respecte les reflets existants (contraste, teinte et intensité des pixels différents) sur le masque capillaire originel. Grâce à ce procédé, le rendu final de la coloration capillaire est réaliste.
Dans l'exemple illustré, cette étape est la dernière réalisée par le serveur. Dès lors que le calque est réalisé, le serveur envoie les informations vers le support tactile. h) Etape 7 : Affichage sur un écran
Suite à la réception des données, le support tactile affiche le résultat de la coloration capillaire en superposant le calque coloré avec l'image originale de la personne cible (cf. la figure n°8).
L'utilisateur peut, après observation du premier résultat, sélectionner une couleur différente. Le support tactile redéfinit un calqué et affiche le résultat en superposant celui-ci avec l'image de la personne cible (cf. figure n°8). i) Etape 8 : Réalisation d'une ordonnance de beauté
Cette étape réalise, au travers d'une interface graphique, un récapitulatif des précédentes opérations réalisées par l'invention :
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) Un affichage de l'image de la personne cible avec la coloration capillaire retenue ;
• Une liste des différents produits nécessaires à la coloration capillaire ;
• Des explications, s'appuyant sur des schémas, pour réaliser correctement la coloration capillaire.
Ces ordonnances sont imprimées in fine dans un format pdf.
Le procédé et le dispositif selon l'invention sont illustrés et décrits dans ce qui précède par un système à deux entités séparées. Plusieurs variantes sont aussi possibles sans sortir du cadre de l'invention. Par exemple, un ordinateur de type pc tout-en-un (avec écran, microprocesseur et autres éléments intégrés en un seul bloc) peut aussi être utiliser pour la mise en oeuvre de l'invention. Dans une autre variante, une tablette tactile disposant d'une capacité de calcul suffisante peut aussi être utilisée.
Dans une autre variante, l'interface tactile peut être remplacée par un curseur mobile de type connu actionné à distance par une souris, un pavé numérique, ou autre moyen de déplacement de type connu. Dans une tel exemple, la sélection effectuée par le doigt de l'utilisateur dans la description précédente est remplacée par une sélection effectuée par un déplacement du curseur dans la zone pertinente à sélectionnée.
Enfin, tant avec un curseur mobile actionnable à distance qu'avec une interface tactile, la sélection de la zone à colorer peut être effectuée par un ou de préférence une pluralité de points discrets compris dans la zone à colorer.
La mise en œuvre des différents modules du dispositif de coloration préalablement décrits est avantageusement réalisée au moyen d'instructions ou commandes, permettant aux modules d'effectuer la ou les opérations spécifiquement prévues pour le module concerné. Les instructions peuvent être sous la forme d'un ou plusieurs logiciels ou modules de logiciels mis en œuvre par un ou plusieurs microprocesseurs. Le ou les modules et/ou le ou les logiciels sont avantageusement prévus dans un produit programme d'ordinateur comprenant un support d'enregistrement ou médium d'enregistrement utilisable par un ordinateur
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) et comportant un code programmé lisible par un ordinateur intégré dans ledit support ou médium, permettant à un logiciel applicatif son exécution sur un ordinateur ou autre dispositif comportant un microprocesseur tel qu'une tablette à écran tactile.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6)

Claims

REVENDICATIONS
1) Procédé de coloration capillaire permettant, à partir d'une image cible d'un utilisateur, de générer une simulation de coloration des cheveux, comprenant les étapes selon lesquelles :
-un module image reçoit les données d'une image cible à traiter ;
-un module interface génère une interface utilisateur permettant de recevoir une sélection d'au moins un point d'identification de zone de coloration ;
-après réception des données de sélection, le module interface envoie les données à un module de segmentation de masque capillaire ;
-le module de segmentation de masque capillaire extrait la zone correspondant à la chevelure de l'utilisateur.
2) Procédé de coloration capillaire selon la revendication 1 , dans lequel un module interface fourni un choix de coloration pour l'utilisateur et reçoit une sélection de coloration.
3) Procédé de coloration capillaire selon la revendication 2, dans lequel un module de création de masque génère un masque pour application sur l'image cible et affiche l'image colorée.
4) Dispositif de coloration capillaire pour la mise en uvre du procédé selon l'une des revendications 1 à 3, comprenant :
-un module image susceptible de recevoir les données d'une image cible à traiter ;
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) -un module interface susceptible de générer une interface utilisateur permettant de recevoir une sélection d'au moins un point d'identification de zone de coloration ;
-le module de segmentation de masque capillaire susceptible d'extraire la zone correspondant à la chevelure de l'utilisateur.
5) Dispositif de coloration capillaire selon la revendication 4, comprenant par ailleurs un module de création de masque susceptible de générer un masque pour application sur l'image cible et affiche l'image colorée.
6) Dispositif de coloration capillaire selon l'une des revendications 4 ou 5, dans lequel le module interface est également adapté pour fournir un choix de coloration pour l'utilisateur et recevoir une sélection de coloration.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6)
EP13711449.2A 2012-01-13 2013-01-11 Procédé et dispositif de coloration de cheveux Withdrawn EP2803039A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1200104 2012-01-13
PCT/FR2013/000013 WO2013104848A1 (fr) 2012-01-13 2013-01-11 Procédé et dispositif de coloration de cheveux

Publications (1)

Publication Number Publication Date
EP2803039A1 true EP2803039A1 (fr) 2014-11-19

Family

ID=47915287

Family Applications (1)

Application Number Title Priority Date Filing Date
EP13711449.2A Withdrawn EP2803039A1 (fr) 2012-01-13 2013-01-11 Procédé et dispositif de coloration de cheveux

Country Status (4)

Country Link
US (1) US20140354676A1 (fr)
EP (1) EP2803039A1 (fr)
JP (1) JP2015511339A (fr)
WO (1) WO2013104848A1 (fr)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017054337A (ja) * 2015-09-10 2017-03-16 ソニー株式会社 画像処理装置および方法
WO2018104356A1 (fr) 2016-12-06 2018-06-14 Koninklijke Philips N.V. Affichage d'un indicateur de guidage à un utilisateur
DE102016225656A1 (de) * 2016-12-20 2018-06-21 Henkel Ag & Co. Kgaa Kamera zur Haaranalyse mit Kalibiervorrichtung
KR102171269B1 (ko) 2018-11-02 2020-10-28 네이버웹툰컴퍼니 주식회사 이미지의 채색 완성 방법, 장치 및 컴퓨터 프로그램과 인공 신경망 학습 방법, 장치 및 컴퓨터 프로그램
KR20240031670A (ko) * 2022-09-01 2024-03-08 엘지파루크 주식회사 화장품 제공 시스템

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2984652B2 (ja) * 1997-08-22 1999-11-29 富士通株式会社 領域抽出装置及び領域抽出方法並びにコンピュータで実現可能なプログラムが記憶された記録媒体
DE10142526C5 (de) * 2001-08-30 2006-02-16 Wella Ag Verfahren für eine Haarfarbberatung
US8913074B2 (en) * 2004-05-05 2014-12-16 Yissum Research Development Company Of The Hebrew University Of Jerusalem Colorization method and apparatus
US8428382B2 (en) * 2007-02-16 2013-04-23 Kao Corporation Hair image display method and display apparatus
JP2011221812A (ja) * 2010-04-09 2011-11-04 Sony Corp 情報処理装置及び方法、並びにプログラム
US8884980B2 (en) * 2010-09-24 2014-11-11 Taaz, Inc. System and method for changing hair color in digital images
FR2981254A1 (fr) * 2011-10-18 2013-04-19 Pierre Ollivier Methode de simulation d'une chevelure a colorimetrie variable et dispositif pour la mise en oeuvre de la methode

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2013104848A1 *

Also Published As

Publication number Publication date
US20140354676A1 (en) 2014-12-04
JP2015511339A (ja) 2015-04-16
WO2013104848A1 (fr) 2013-07-18

Similar Documents

Publication Publication Date Title
US11854072B2 (en) Applying virtual makeup products
US11854070B2 (en) Generating virtual makeup products
US9741137B2 (en) Image-based color palette generation
US9245350B1 (en) Image-based color palette generation
US9177391B1 (en) Image-based color palette generation
US9311889B1 (en) Image-based color palette generation
US10049308B1 (en) Synthesizing training data
CA3083486C (fr) Procede, support et systeme de previsualisation en direct par l`intermediaire de modeles d`apprentissage automatique
WO2013104848A1 (fr) Procédé et dispositif de coloration de cheveux
Pajankar Raspberry Pi computer vision programming
CN110110118A (zh) 妆容推荐方法、装置、存储介质及移动终端
RU2677573C2 (ru) Система и способ дополнения изображения стилизованными свойствами
EP2768339A2 (fr) Methode de simulation d'une chevelure a colorimetrie variable et dispositif pour la mise en oeuvre de la methode
EP2626838A1 (fr) Procédé, dispositif et système de génération d'une représentation texturée d'un objet réel
Mould et al. Developing and applying a benchmark for evaluating image stylization
Hou et al. Text-aware single image specular highlight removal
CN109241930B (zh) 用于处理眉部图像的方法和装置
US9858296B2 (en) Representative image selection for image management using face recognition
Rosin et al. Non-photorealistic rendering with spot colour
WO2019077026A1 (fr) Procede de calcul d'un descripteur global d'une image
Henry et al. Proximity system
US20230298213A1 (en) Precision color application system and method
EP2626837A1 (fr) Système de création de représentations tridimensionnelles à partir de modèles réels ayant des caractéristiques similaires et prédéterminées
CN111259696B (zh) 用于显示图像的方法及装置
FR3114895A1 (fr) Systèmes et procédés pour une classification améliorée des attributs faciaux et leurs applications

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20140725

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20160728

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20170208