EP2803039A1 - Hair colouring device and method - Google Patents

Hair colouring device and method

Info

Publication number
EP2803039A1
EP2803039A1 EP13711449.2A EP13711449A EP2803039A1 EP 2803039 A1 EP2803039 A1 EP 2803039A1 EP 13711449 A EP13711449 A EP 13711449A EP 2803039 A1 EP2803039 A1 EP 2803039A1
Authority
EP
European Patent Office
Prior art keywords
hair
user
mask
image
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP13711449.2A
Other languages
German (de)
French (fr)
Inventor
Christophe Blanc
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wisimage
Original Assignee
Wisimage
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wisimage filed Critical Wisimage
Publication of EP2803039A1 publication Critical patent/EP2803039A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Definitions

  • the invention relates to a method for the virtual extraction and coloration of a target person's capillary mask in a substantially real time by using information on the texture of the hair mask provided by the user using a support digital device with or attached to a touch screen.
  • the first set is based on an automatic detection (no information or constraint is made to the detection algorithm) or semi-automatic (a mask with the position of certain elements of the face is used to constrain the position of the person's face target on digital photography) of the target person's face.
  • the objective is to detect and model the face by different characteristic points and a contour of the face. Once this information is determined, a virtual wig is "posed" on the head of the target person. This method allows the laying of a predefined hair and not a virtual hair coloration of the target person.
  • the second set is based on the use of a capillary mask that can be either predefined or defined by the user as shown in Figure 3.
  • This capillary mask is defined / drawn by several points connected to each other by lines.
  • the user will have to move the points defining the capillary mask, with the aid of a cursor, to adapt this generic mask to the hair of the target person.
  • the user must, by means of a cursor, manually define all the points defining his capillary mask.
  • a hair coloring is applied in the zone defined by these different points. This method is binding for the user because he must define all or part of the capillary mask.
  • this definition must be as precise as possible so that the hair coloring is located on all the hair of the target person only and not on part of the background or face.
  • the third set is based on a capillary segmentation approach.
  • the goal is to semi-automatically extract the capillary mask.
  • the user must perform several binding actions. First, he must make a photograph of the body of his body centered with a uniform background preferably. Secondly, he must use a mouse to place a rectangle within which his face is located (see Figure 4). Third, always with the mouse and without any user-friendly interface, he must place dots on the image on his hair and on the bottom.
  • the last type of approach is based on touchscreen technology. After making a digital photograph and recording it, the user must "color" the area where the hair is located by using his finger with the touch screen. This solution is minimalist because no automatic or semi-automatic detection of the capillary mask is performed. The coloring of the hair will be applied only in the areas defined by the passage of the finger of the user on the touch interface. This solution therefore has two major disadvantages: the user must color all the hair manually and the coloring is uniformly applied to the colored parts without any artificial intelligence.
  • the invention provides:
  • a step of providing the user with a useful hair color zone selection interface during this step, as shown in FIG. 5, the user uses the interface and the selection tool made available to select the hair area.
  • the user uses the interface and the selection tool made available to select the hair area.
  • selection modes can be proposed, depending on the case.
  • the user selects a plurality of points by drawing at least one line in the area of the hair. This variant is particularly advantageous because it allows the taking into account of several points. Since in
  • the method allows for the segmentation of the capillary mask from information previously obtained on the one hand and provided by the user on the other hand.
  • the method therefore provides for the reception of coloring data corresponding to the points and / or zones selected by the user. This input of information makes it possible to initialize in an optimal manner the segmentation algorithm of the capillary mask.
  • a step is provided for searching the face of the target person in the image. From this data locating the face of the target person, the image is cropped and resized so that it is centered on it. This method therefore makes it possible to reduce the stress on the position of the face during the photographing step.
  • the automatic hair dyeing method is based on a tactile interface is illustrated in Figure 6. It is based on the use of a touch interface (slab, mobile phone or digital tablet) associated with a server performing the calculations necessary for the
  • Step 0 Obtain an image of the target person
  • a shooting of the head of the target person can be carried out according to two different approaches.
  • the user uses a remote digital camera, or he uses the device integrated in the touch support like a digital tablet (laptop without keyboard with touch screen and intuitive user interface such as products marketed under the name "iPad”) or a smartphone ("iPhone” for example).
  • iPad a digital tablet
  • iPhone a smartphone
  • a previously existing image can also be used.
  • Step 1 questionnaire (optional)
  • step 5 this information allows a determination of the color to be applied to the hair corresponding more precisely to the wishes of the user. This step makes it possible to personalize the hair coloring and to respond more easily to the expectations of the user.
  • This step corresponds to the determination of the texture of the hair by the user of the invention. It is preferably based on the use of a touch interface. Passing a finger on the hair of the target person as shown in Figure No. 5, the user selects one to several points describing the texture of the hair, area described as the first plane in Figure No. 1. This operation can be repeated identically to describe the texture of the areas forming the background described in Figure No. 1. Once the operation is complete, validation enables the information (points of interest and image of the target person) to be transmitted to the server that will perform steps 3 to 5.
  • this step is based on three modules (see Figure 6):
  • the result display module displays on the touch screen in real time the points determined by the user superimposed on the image of the target person.
  • the module sends data allows, once the points selected and validated, to send to the server the image accompanied by the points of interest.
  • Step 3 Face detection and resizing of the image
  • This step corresponds to a search of the face in the image using an image processing algorithm such as that based on a learning method "AdaBoost" with Haar wavelet descriptor.
  • This algorithm traverses the image in its entirety to search for pixel images, described by the wavelets, identical to the information obtained with the learning provided a priori. Once the comparison is positive, the face of the target person is located in the image.
  • Step 4 Segmentation of the capillary mask
  • This automatic segmentation of the capillary mask is advantageously performed by an image processing algorithm named "Grabcut”.
  • This algorithm traverses the entire image by searching for the pixels having the same intensity as the pixels associated with the background or the capillary mask provided as input. The goal is to label all pixels in the image as either a background or a hair mask. Then, the algorithm seeks to optimize a boundary between the two classes of pixels always obtained by relying on the strong data input constraints. In other words, the algorithm looks for the best compromise between the two zones by using strong binding information in input.
  • the texture of the hair described by the points of interest positioned by the user (hair mask in Figure No. 1) and the texture of the skin of the face obtained with the points detected in step 4 (part from the background in FIG. 1) are therefore used as input to the algorithm (segmentation module of the capillary mask). Since this initialization is correct (strong constraint), the algorithm detects more quickly and more precisely the parts of the image of the target person corresponding to this texture.
  • This step is broken down into two distinct parts.
  • the color of the hair contained in the hair mask is determined. With this value and the possible information obtained in step 1, the method automatically determines several colors of capillary coloration that can be envisaged corresponding to both the current capillary mask and the user's expectations (color determination module in FIG. ).
  • Step 6 Creating a layer of the colored capillary mask
  • This step corresponds to the creation of a capillary mask using one of the patches determined in step 5.
  • This function is implemented by the mask creation module.
  • the objective of this step is to obtain a uniform and realistic coloration of the hair mask. To do this, it is necessary to perform several consecutive treatments applied on the one hand to the color patch determined in step 5, on the other hand to the capillary mask extracted from the image of the target person during the treatment. step 4.
  • This step breaks down into several distinct parts.
  • the color patch and the capillary mask are translated into histograms defined from a colorimetric criterion.
  • a colorimetric criterion For an optimal rendering of the coloring,
  • Step 7 Display on a screen
  • the tactile support displays the result of the hair coloring by superimposing the colored layer with the original image of the target person (see figure n ° 8).
  • Step 8 Making a beauty prescription
  • This step carries out, through a graphical interface, a summary of the previous operations performed by the invention:
  • the touch interface may be replaced by a known type of mobile cursor remotely operated by a mouse, a keypad, or other known type of moving means.
  • the selection made by the user's finger in the previous description is replaced by a selection made by moving the cursor in the relevant area to be selected.
  • the selection of the area to be colored can be performed by one or preferably a plurality of discrete points included in the area to be colored.
  • the implementation of the various modules of the coloring device previously described is advantageously carried out by means of instructions or commands, enabling the modules to perform the operation or operations specifically provided for the module concerned.
  • the instructions may be in the form of one or more software or software modules implemented by one or more microprocessors.
  • the module (s) and / or the software (s) are advantageously provided in a computer program product comprising a recording medium or recording medium that can be used by a computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The invention relates to a hair colouring device and method. The method can be used to generate a hair colouring simulation using a target image of a user, said method comprising the following steps: an image module receives data from a target image to be processed; an interface module generates a user interface, allowing reception of the selection of at least one colouring zone identification point; after reception of the selection data, the interface module sends the data to a hair mask segmentation module; and the hair mask segmentation module extracts the zone corresponding to the user's scalp.

Description

Procédé et dispositif de coloration de cheveux Method and device for coloring hair
Domaine technique de l'invention Technical field of the invention
L'invention concerne un procédé d'extraction et de coloration virtuelle d'un masque capillaire d'une personne cible en temps sensiblement réel en employant des informations sur la texture du masque capillaire fournies par l'utilisateur à l'aide d'un support numérique comportant ou relié à un écran tactile. The invention relates to a method for the virtual extraction and coloration of a target person's capillary mask in a substantially real time by using information on the texture of the hair mask provided by the user using a support digital device with or attached to a touch screen.
Etat de la technique antérieure State of the art
Nous connaissons aujourd'hui plusieurs types de technologies numériques permettant à une utilisatrice de simuler un maquillage, ou de tester virtuellement un maquillage au moyen d'une photographie numérique du visage et d'outils de sélection et d'application de couleurs. Malgré la pléiade de solutions mises à disposition des utilisatrices, les solutions permettant d'obtenir des résultats réalistes sont peu nombreuses. Plusieurs raisons expliquent les imperfections des solutions proposées. Le plus souvent, la difficulté de détecter précisément les diverses zones du visage à maquiller constitue une source de problèmes multiples. We now know several types of digital technologies that allow a user to simulate makeup, or to virtually test makeup using digital facial photography and color selection and application tools. Despite the multitude of solutions available to users, solutions to achieve realistic results are few. Several reasons explain the imperfections of the proposed solutions. Most often, the difficulty of accurately detecting the various areas of the face to make up is a source of multiple problems.
Pour les applications visant également à prendre en compte la simulation de coloration des cheveux, en plus de la difficulté consistant à délimiter la zone cible à colorer, d'autres difficultés rendent la simulation de coloration particulièrement délicate à réaliser de façon précise, fiable et réaliste. Ainsi, le très fort gradient de variation de couleurs dans des zones très petites du fait du grand nombre de cheveux, les problèmes de reflets, et le fait qu'un seul cheveux possède souvent des caractéristiques colori métriques différentes, ne sont que quelques-uns de problèmes à surmonter pour effectuer de telles simulations. For applications that also take into account the hair color simulation, in addition to the difficulty of defining the target area to be colored, other difficulties make the color simulation particularly delicate to achieve accurately, reliably and realistically. . Thus, the very high gradient of color variation in very small areas due to the large number of hair, the glare problems, and the fact that a single hair often has different color characteristics, are only a few problems to overcome to perform such simulations.
Plusieurs approphes de coloration capillaire virtuelle sur une photographie numérique existent. Elles peuvent être classées en quatre groupes. Several approaches to virtual hair coloration on a digital photograph exist. They can be classified into four groups.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) Le premier ensemble repose sur une détection automatique (aucune information ou contrainte n'est apportée à l'algorithme de détection) ou semi-automatique (un masque avec la position de certains éléments du visage est employé pour contraindre la position du visage de la personne cible sur la photographie numérique) du visage de la personne cible. L'objectif est de détecter et modéliser le visage par différents points caractéristiques et un contour du visage. Dés lors que ces informations sont déterminées, une perruque virtuelle est « posée » sur la tête de la personne cible. Cette méthode rie permet que la pose d'une chevelure prédéfinie et non une coloration capillaire virtuelle de la personne cible. INCORPORATED (E) BY REFERENCE (RULE 20.6) The first set is based on an automatic detection (no information or constraint is made to the detection algorithm) or semi-automatic (a mask with the position of certain elements of the face is used to constrain the position of the person's face target on digital photography) of the target person's face. The objective is to detect and model the face by different characteristic points and a contour of the face. Once this information is determined, a virtual wig is "posed" on the head of the target person. This method allows the laying of a predefined hair and not a virtual hair coloration of the target person.
Le deuxième ensemble repose sur l'utilisation d'un masque capillaire qui peut être soit prédéfini, soit défini par l'utilisateur comme présenter sur la figure n°3. Ce masque capillaire est défini/dessiné par plusieurs points reliés entre eux par des droites. Dans le cas où ce masque capillaire est prédéfini, l'utilisateur aura à déplacer les points définissant le masque capillaire, à l'aide d'un curseur, pour l'adapter ce masque générique à la chevelure de la personne cible. Dans le deuxième cas, l'utilisateur se doit, à l'aide d'un curseur, de définir manuellement tous les points définissant son masque capillaire. Dés lors que le masque capillaire est bien adapté à celui de la personne cible, une coloration capillaire est appliquée dans la zone définie par ces différents points. Cette méthode est contraignante pour l'utilisateur car il doit définir en totalité ou partiellement le masque capillaire. De plus, cette définition devra être la plus précise possible pour que la coloration des cheveux soit située sur tous les cheveux de la personne cible uniquement et non sur une partie de l'arrière plan ou du visage. The second set is based on the use of a capillary mask that can be either predefined or defined by the user as shown in Figure 3. This capillary mask is defined / drawn by several points connected to each other by lines. In the case where this capillary mask is predefined, the user will have to move the points defining the capillary mask, with the aid of a cursor, to adapt this generic mask to the hair of the target person. In the second case, the user must, by means of a cursor, manually define all the points defining his capillary mask. As soon as the capillary mask is well adapted to that of the target person, a hair coloring is applied in the zone defined by these different points. This method is binding for the user because he must define all or part of the capillary mask. In addition, this definition must be as precise as possible so that the hair coloring is located on all the hair of the target person only and not on part of the background or face.
Le troisième ensemble repose sur une approche de segmentation capillaire. Pour les méthodes existantes, l'objectif est d'extraire de manière semi-automatique le masque capillaire. Cependant, en l'état, l'utilisateur doit réaliser plusieurs actions contraignantes. Premièrement, il doit réaliser une photographie du hàut de son corps centré avec un fond uniforme de préférence. Deuxièmement, il doit, à l'aide d'une souris, placer un rectangle à l'intérieur duquel se trouve son visage (cf. la figure n°4). Troisièmement, toujours avec la souris et sans aucune interface conviviale, il doit placer des points sur l'image sur ses cheveux et sur le fond. The third set is based on a capillary segmentation approach. For existing methods, the goal is to semi-automatically extract the capillary mask. However, as is, the user must perform several binding actions. First, he must make a photograph of the body of his body centered with a uniform background preferably. Secondly, he must use a mouse to place a rectangle within which his face is located (see Figure 4). Third, always with the mouse and without any user-friendly interface, he must place dots on the image on his hair and on the bottom.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) Même si ce procédé est semi-automatique, son emploi reste donc très contraignant pour l'utilisateur car il doit réaliser de nombreuses actions sous peine d'obtenir de mauvais résultats lors de la coloration capillaire. INCORPORATED (E) BY REFERENCE (RULE 20.6) Even if this process is semi-automatic, its use is therefore very restrictive for the user because he must perform many actions under pain of getting poor results in hair coloring.
Le dernier type d'approche repose sur la technologie des écrans tactiles. Après avoir réalisé une photographie numérique et enregistré celle-ci, l'utilisateur doit « colorier » la zone où se situe les cheveux en se servant de son doigt à l'aide de l'écran tactile. Cette solution est minimaliste car aucune détection automatique ou semi-automatique du masque capillaire n'est réalisée. La coloration des cheveux sera appliquée uniquement dans les zones définies par le passage du doigt de l'utilisateur sur l'interface tactile. Cette solution a donc deux inconvénients majeurs : l'utilisateur doit colorier toute la chevelure manuellement et la coloration est appliquée de manière uniforme sur les parties coloriées sans aucune intelligence artificielle. The last type of approach is based on touchscreen technology. After making a digital photograph and recording it, the user must "color" the area where the hair is located by using his finger with the touch screen. This solution is minimalist because no automatic or semi-automatic detection of the capillary mask is performed. The coloring of the hair will be applied only in the areas defined by the passage of the finger of the user on the touch interface. This solution therefore has two major disadvantages: the user must color all the hair manually and the coloring is uniformly applied to the colored parts without any artificial intelligence.
Aucune des solutions existantes à ce jour ne permet de prendre en compte de façon simple, rapide, fiable et efficace l'ensemble des difficultés techniques préalablement exposées. Il existe donc aujourd'hui un besoin important pour trouver une solution efficace à ces nombreux problèmes. None of the existing solutions to date makes it possible to take into account in a simple, fast, reliable and efficient way all the technical difficulties previously exposed. Today, there is a great need to find an effective solution to these many problems.
Exposé de l'Invention Presentation of the invention
Dans le but d'éviter les inconvénients des approches décrites dans le paragraphe précédent, l'invention prévoit : In order to avoid the disadvantages of the approaches described in the preceding paragraph, the invention provides:
• une étape de mise à disposition à l'utilisateur d'une interface de sélection de zone utile de coloration des cheveux : lors de cette étape, tel que montré à la figure n°5, l'utilisateur utilise l'interface et l'outil de sélection mis à sa disposition pour sélectionner la zone des cheveux. Plusieurs modes de sélection peuvent être proposés, selon les cas. Dans l'exemple illustré, l'utilisateur sélectionne une pluralité de points en traçant au moins une ligne dans la zone des cheveux. Cette variante est particulièrement avantageuse car elle permet la prise en compte de plusieurs points. Puisque dans de A step of providing the user with a useful hair color zone selection interface: during this step, as shown in FIG. 5, the user uses the interface and the selection tool made available to select the hair area. Several selection modes can be proposed, depending on the case. In the illustrated example, the user selects a plurality of points by drawing at least one line in the area of the hair. This variant is particularly advantageous because it allows the taking into account of several points. Since in
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) nombreuses chevelures, la couleur varie sensiblement d'un point à l'autre, cette approche permet d'indiquer toute une série de données de couleur à prendre en compte. Dans une variante simplifiée, l'utilisateur sélectionne au moins un point de la zone sujette à coloration. Egalement en variante, le procédé met à disposition une interface permettant à l'utilisateur d'indiquer la zone entourant la chevelure, à l'arrière plan du sujet. INCORPORATED (E) BY REFERENCE (RULE 20.6) Many hair color varies significantly from one point to another, this approach can indicate a series of color data to take into account. In a simplified variant, the user selects at least one point of the area subject to coloration. Also alternatively, the method provides an interface allowing the user to indicate the area surrounding the hair in the background of the subject.
• Le procédé permet de réalise la segmentation du masque capillaire à partir des informations précédemment obtenues d'une part et fournies par l'utilisateur d'autre part. Le procédé prévoit donc la réception des données de coloration correspondant aux points et/ou zones sélectionnées par l'utilisateur. Cet apport d'informations permet d'initialiser d'une manière optimale l'algorithme de segmentation du masque capillaire. • The method allows for the segmentation of the capillary mask from information previously obtained on the one hand and provided by the user on the other hand. The method therefore provides for the reception of coloring data corresponding to the points and / or zones selected by the user. This input of information makes it possible to initialize in an optimal manner the segmentation algorithm of the capillary mask.
• De manière avantageuse, on prévoit une étape permettant de rechercher le visage de la personne cible dans l'image. A partir de cette donnée localisant le visage de la personne cible, l'image est recadrée et redimensionnée pour qu'elle soit centrée sur celui-ci. Ce procédé permet donc de réduire la contrainte sur la position du visage lors de l'étape de la photographie. Advantageously, a step is provided for searching the face of the target person in the image. From this data locating the face of the target person, the image is cropped and resized so that it is centered on it. This method therefore makes it possible to reduce the stress on the position of the face during the photographing step.
Grâce à ce procédé automatique, il n'est plus nécessaire de définir manuellement le masque capillaire ou d'obliger l'utilisateur à réaliser une photographie avec des contraintes fortes sur la position de son visage dans l'image. L'unique action qu'il doit réaliser correspond à la définition des points décrivant la texture des cheveux de la personne cible à l'aide d'une interface « conviviale ». Thanks to this automatic method, it is no longer necessary to manually define the capillary mask or to force the user to make a photograph with strong constraints on the position of his face in the image. The only action he must perform is to define the points describing the hair texture of the target person using a "friendly" interface.
Dans un exemple de réalisation illustré aux figures, le procédé automatique de coloration capillaire repose sur une interface tactile est illustré sur la figure 6. Il repose sur l'emploi d'une interface tactile (dalle, téléphone portable ou tablette numérique) associée à un serveur réalisant les calculs nécessaires à la In an exemplary embodiment illustrated in the figures, the automatic hair dyeing method is based on a tactile interface is illustrated in Figure 6. It is based on the use of a touch interface (slab, mobile phone or digital tablet) associated with a server performing the calculations necessary for the
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) localisation du visage de la personne cible, la segmentation et coloration du masque capillaire. La communication entre les deux entités repose sur des moyens connus tels qu'un protocole Wifi ou Wimax ou un câble lorsqu'une dalle tactile est employée avec un PC ou serveur, ou tout autre moyen permettant l'échange des données. INCORPORATED (E) BY REFERENCE (RULE 20.6) location of the target person's face, segmentation and staining of the hair mask. The communication between the two entities is based on known means such as a Wifi or Wimax protocol or a cable when a touch screen is used with a PC or server, or any other means for the exchange of data.
Pour illustrer le procédé selon l'invention, le procédé est découpé en différentes étapes présentées sur la figure n°2. Ces étapes sont décrites en s'appuyant sur les modules nécessaires à la réalisation de celles-ci. a) Etape 0 : obtention d'une image de la personne cible To illustrate the process according to the invention, the process is divided into the different steps shown in FIG. These stages are described by relying on the modules necessary for the realization of these. a) Step 0: Obtain an image of the target person
En amont du procédé, une prise de vue de la tête de la personne cible peut être réalisée selon deux approches différentes. Soit l'utilisateur emploie un appareil photographique numérique déporté, soit il emploie l'appareil intégré au support tactile à l'instar d'une tablette numérique (ordinateur portable sans clavier avec écran tactile et interface utilisateur intuitive comme par exemple les produits commercialisés sous le nom « iPad ») ou d'un smartphone (« iPhone » par exemple). Une image préalablement existante peut aussi être utilisée. Upstream of the method, a shooting of the head of the target person can be carried out according to two different approaches. Either the user uses a remote digital camera, or he uses the device integrated in the touch support like a digital tablet (laptop without keyboard with touch screen and intuitive user interface such as products marketed under the name "iPad") or a smartphone ("iPhone" for example). A previously existing image can also be used.
Dans le cas où la prise de vue repose sur l'emploi d'une tablette ou d'un smartphone, l'utilisateur peut utiliser le module prise de photo. Il est ainsi guidé par la présence d'une cible (cercle ou zone hachurée) sur l'écran servant d'interface qui lui permet de réaliser une prise de vue optimale garantissant le bon fonctionnement de l'application et une utilisation simplifiée de son point de vue. b) Etape 1 : questionnaire (facultatif) In the case where the shooting is based on the use of a tablet or a smartphone, the user can use the camera taking module. It is thus guided by the presence of a target (circle or shaded area) on the screen serving as an interface that allows it to make an optimal shooting ensuring the smooth operation of the application and a simplified use of its point of view. b) Step 1: questionnaire (optional)
Grâce à une interface graphique interactive fournie par le support tactile, il est possible de poser des questions à l'utilisateur sur son type de chevelure et sur la couleur qu'il souhaite appliquer. Thanks to an interactive graphical interface provided by the tactile support, it is possible to ask questions to the user about his type of hair and the color he wants to apply.
Lors de l'étape 5, ces informations permettent une détermination de la couleur à appliquer à la chevelure correspondant plus précisément aux désirs de l'utilisateur. Cette étape permet de personnaliser la coloration capillaire et de répondre plus facilement aux attentes de l'utilisateur. In step 5, this information allows a determination of the color to be applied to the hair corresponding more precisely to the wishes of the user. This step makes it possible to personalize the hair coloring and to respond more easily to the expectations of the user.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) c) Etape 2 : sélection manuelle de la chevelure INCORPORATED (E) BY REFERENCE (RULE 20.6) c) Step 2: manual selection of the hair
Cette étape correspond à la détermination de la texture de la chevelure par l'utilisateur de l'invention. Elle repose de préférence sur l'emploi d'une interface tactile. En passant un doigt sur la chevelure de la personne cible comme présenter sur la figure n°5, l'utilisateur sélectionne un à plusieurs points décrivant la texture de la chevelure, zone décrite comme le premier plan sur la figure n°1. Cette opération peut être renouvelée à l'identique pour décrire la texture des zones composant l'arrière plan décrit sur la figure n°1. Une fois l'opération terminée, une validation permet de transmettre les informations (points d'intérêt et image de la personne cible) au serveur qui réalisera les étapes 3 à 5. This step corresponds to the determination of the texture of the hair by the user of the invention. It is preferably based on the use of a touch interface. Passing a finger on the hair of the target person as shown in Figure No. 5, the user selects one to several points describing the texture of the hair, area described as the first plane in Figure No. 1. This operation can be repeated identically to describe the texture of the areas forming the background described in Figure No. 1. Once the operation is complete, validation enables the information (points of interest and image of the target person) to be transmitted to the server that will perform steps 3 to 5.
Au final, cette étape repose sur trois modules (cf. la figure 6) : In the end, this step is based on three modules (see Figure 6):
• Le module sélection des points d'intérêt permettant de recevoir et d'enregistrer les points décrit par le passage du doigt de l'utilisateur sur le support tactile. • The module selection points of interest to receive and save the points described by the passage of the finger of the user on the touch support.
• Le module affichage du résultat permet d'afficher sur l'écran tactile en temps réel les points déterminés par l'utilisateur superposés sur l'image de la personne cible.  • The result display module displays on the touch screen in real time the points determined by the user superimposed on the image of the target person.
• Le module envoie des données permet, une fois les points sélectionnés et validés, d'envoyer au serveur l'image accompagnée des points d'intérêt.  • The module sends data allows, once the points selected and validated, to send to the server the image accompanied by the points of interest.
d) Etape 3 : Détection du visage et redimensionnement de l'image d) Step 3: Face detection and resizing of the image
Cette étape correspond à une recherche du visage dans l'image à l'aide d'un algorithme de traitement d'image tel que celui reposant sur une méthode d'apprentissage « AdaBoost » avec comme descripteur des ondelettes de Haar. Cet algorithme parcourt l'image dans son intégralité pour rechercher des imagettes de pixels, décrites par les ondelettes, identiques aux informations obtenues avec l'apprentissage fournies a priori. Dès lors que la comparaison est positive, le visage de la personne cible est localisée dans l'image. This step corresponds to a search of the face in the image using an image processing algorithm such as that based on a learning method "AdaBoost" with Haar wavelet descriptor. This algorithm traverses the image in its entirety to search for pixel images, described by the wavelets, identical to the information obtained with the learning provided a priori. Once the comparison is positive, the face of the target person is located in the image.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) A partir de cette détection, le procédé réalise deux opérations. Il choisit automatiquement des points appartenant au visage détecté qui sont identifiés comme appartenant à l'arrière plan. Il redimensionne et recadre l'image sur le visage de la personne cible. INCORPORATED (E) BY REFERENCE (RULE 20.6) From this detection, the method performs two operations. It automatically chooses points belonging to the detected face that are identified as belonging to the background. It resizes and reframes the image on the face of the target person.
L'ensemble de ces actions est avantageusement mis en œuvre par le module détection visage (cf. figure n°6). All of these actions are advantageously implemented by the face detection module (see FIG.
L'emploi de cette méthodologie a pour intérêt de ne pas contraindre la position du visage de la personne cible au centre de l'image lors de la réalisation de la photographie. e) Etape 4 : Segmentation du masque capillaire The use of this methodology has the advantage of not constraining the position of the face of the target person in the center of the image during the production of the photograph. e) Step 4: Segmentation of the capillary mask
Cette segmentation automatique du masque capillaire est avantageusement réalisée par un algorithme de traitement d'images nommé « Grabcut ». Cet algorithme parcourt toute l'image en recherchant les pixels ayant la même intensité que les pixels associés à l'arrière plan ou au masque capillaire fournis en entrée. L'objectif est d'étiqueter tous les pixels de l'image soit comme arrière plan, soit comme masque capillaire. Puis, l'algorithme cherche à optimiser une frontière entre les deux classes de pixels obtenues toujours en s'appuyant sur les contraintes fortes données en entrée. En d'autres termes, l'algorithme recherche le meilleur compromis entre les deux zones en employant des informations contraignantes fortes en entrée. This automatic segmentation of the capillary mask is advantageously performed by an image processing algorithm named "Grabcut". This algorithm traverses the entire image by searching for the pixels having the same intensity as the pixels associated with the background or the capillary mask provided as input. The goal is to label all pixels in the image as either a background or a hair mask. Then, the algorithm seeks to optimize a boundary between the two classes of pixels always obtained by relying on the strong data input constraints. In other words, the algorithm looks for the best compromise between the two zones by using strong binding information in input.
Ainsi, la texture de la chevelure décrite par les points d'intérêt positionnés par l'utilisateur (masque capillaire sur la figure n°1) et la texture de la peau du visage obtenu avec les points détectés lors de l'étape 4 (partie de l'arrière plan sur la figure n°1) sont donc utilisés comme entrée de l'algorithme (module segmentation du masque capillaire). Du fait que cette initialisation est correcte (contrainte forte), l'algorithme détecte plus rapidement et plus précisément les parties de l'image de la personne cible correspondant à cette texture. Thus, the texture of the hair described by the points of interest positioned by the user (hair mask in Figure No. 1) and the texture of the skin of the face obtained with the points detected in step 4 (part from the background in FIG. 1) are therefore used as input to the algorithm (segmentation module of the capillary mask). Since this initialization is correct (strong constraint), the algorithm detects more quickly and more precisely the parts of the image of the target person corresponding to this texture.
Au final, la réception des données colorimétriques de la zone de l'arrière plan permet d'exclure de la zone à colorer les points dont les données colorimétriques Finally, the reception of the colorimetric data of the area of the background makes it possible to exclude from the area to be colored the points whose colorimetric data
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) sont identiques ou sensiblement identiques à celles reçues pour cette zone. Puis, la réception des données colorimétriques de la zone du visage permet également d'exclure de la zone à colorer les points dont les données colorimétriques sont identiques ou sensiblement identiques à celles reçues pour cette zone. A la sortie de ce module, nous obtiendrons une zone correspondant au masque capillaire avec la texture identifiée par l'utilisateur de l'invention. f) Etape 5 : Sélection de la couleur INCORPORATED (E) BY REFERENCE (RULE 20.6) are identical or substantially identical to those received for this zone. Then, the reception of the colorimetric data of the face area also makes it possible to exclude from the zone to be colored the points whose colorimetric data are identical or substantially identical to those received for this zone. At the output of this module, we will obtain an area corresponding to the capillary mask with the texture identified by the user of the invention. f) Step 5: Selection of the color
Cette étape se décompose en deux parties distinctes. Premièrement, la couleur des cheveux contenue dans le masque capillaire est déterminée. Avec cette valeur et les informations éventuelles obtenues lors de l'étape 1. le procédé détermine automatiquement plusieurs couleurs de coloration capillaire envisageable correspondant à la fois au masque capillaire actuel et aux attentes de l'utilisateur (module détermination couleur sur la figure n°6). This step is broken down into two distinct parts. First, the color of the hair contained in the hair mask is determined. With this value and the possible information obtained in step 1, the method automatically determines several colors of capillary coloration that can be envisaged corresponding to both the current capillary mask and the user's expectations (color determination module in FIG. ).
Ces couleurs sont représentées par des patchs comme l'exemple présenté sur la figure n°7. Ces patchs représentent une palette de la même couleur avec des luminosités, des teintes et des contrastes différents. Ces informations permettent, lors de l'étape 6, de conserver les différents reflets observables sur le masque capillaire de la personne cible sur l'image originale. g) Etape 6 : Création d'un calque du masque capillaire coloré These colors are represented by patches as the example shown in Figure 7. These patches represent a palette of the same color with different luminosities, hues and contrasts. This information makes it possible, during step 6, to preserve the different reflections observable on the capillary mask of the target person on the original image. g) Step 6: Creating a layer of the colored capillary mask
Cette étape correspond à la création d'un masque capillaire en utilisant l'un des patchs déterminé à l'étape 5. Cette fonction est mise en œuvre par le module création masque. L'objectif de cette étape est d'obtenir une coloration uniforme et réaliste du masque capillaire. Pour ce faire, il est nécessaire de réaliser plusieurs traitements consécutifs appliqués d'une part sur le patch de couleur déterminé lors de l'étape 5, d'autre part sur le masque capillaire extrait de l'image de la personne cible lors de l'étape 4. This step corresponds to the creation of a capillary mask using one of the patches determined in step 5. This function is implemented by the mask creation module. The objective of this step is to obtain a uniform and realistic coloration of the hair mask. To do this, it is necessary to perform several consecutive treatments applied on the one hand to the color patch determined in step 5, on the other hand to the capillary mask extracted from the image of the target person during the treatment. step 4.
Cette étape se décompose en plusieurs parties distinctes. Dans une première partie, le patch de couleur et le masque capillaire sont traduits en histogrammes définis à partir d'un critère colorimétrique. Pour un rendu optimal de la coloration, This step breaks down into several distinct parts. In a first part, the color patch and the capillary mask are translated into histograms defined from a colorimetric criterion. For an optimal rendering of the coloring,
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) ces histogrammes doivent se situer dans la même zone de valeurs en fonction du critère colorimétrique. Si ce n'est pas le cas, les couleurs du masque capillaire de la personne cible sont transposés dans la zone de définition du patch de couleur. Ensuite, dans une seconde partie, les couleurs du patch choisi sont toutes extraites en éliminant les doublons (pixels avec des caractéristiques identiques). Ensuite, ces pixels sont classés en fonction de critères colorimétriques. Dans une troisième partie, le même procédé de tris des pixels est appliqué au masque capillaire. Lors d'une dernière opération, les pixels triés de chaque entité graphique sont mis en correspondance en utilisant le critère colorimétrique précédemment employé. INCORPORATED (E) BY REFERENCE (RULE 20.6) these histograms must be in the same area of values according to the colorimetric criterion. If this is not the case, the colors of the target person's capillary mask are transposed into the color patch's definition area. Then, in a second part, the colors of the chosen patch are all extracted by eliminating the duplicates (pixels with identical characteristics). Then, these pixels are classified according to color criteria. In a third part, the same process of sorting pixels is applied to the capillary mask. In a last operation, the sorted pixels of each graphic entity are mapped using the colorimetric criterion previously used.
En partant du masque capillaire extrait lors de l'étape 4, tous les pixels sont coloriés à l'aide du patch choisi. Cependant, cette coloration n'est pas uniforme. Elle respecte les reflets existants (contraste, teinte et intensité des pixels différents) sur le masque capillaire originel. Grâce à ce procédé, le rendu final de la coloration capillaire est réaliste. Starting from the capillary mask extracted during step 4, all the pixels are colored using the chosen patch. However, this coloration is not uniform. It respects the existing reflections (contrast, hue and intensity of the different pixels) on the original hair mask. Thanks to this process, the final rendering of the hair coloring is realistic.
Dans l'exemple illustré, cette étape est la dernière réalisée par le serveur. Dès lors que le calque est réalisé, le serveur envoie les informations vers le support tactile. h) Etape 7 : Affichage sur un écran In the example shown, this step is the last performed by the server. Once the layer is made, the server sends the information to the touch support. h) Step 7: Display on a screen
Suite à la réception des données, le support tactile affiche le résultat de la coloration capillaire en superposant le calque coloré avec l'image originale de la personne cible (cf. la figure n°8). Following the reception of the data, the tactile support displays the result of the hair coloring by superimposing the colored layer with the original image of the target person (see figure n ° 8).
L'utilisateur peut, après observation du premier résultat, sélectionner une couleur différente. Le support tactile redéfinit un calqué et affiche le résultat en superposant celui-ci avec l'image de la personne cible (cf. figure n°8). i) Etape 8 : Réalisation d'une ordonnance de beauté The user can, after observing the first result, select a different color. The tactile support redefines a pattern and displays the result by superimposing it with the image of the target person (see figure 8). i) Step 8: Making a beauty prescription
Cette étape réalise, au travers d'une interface graphique, un récapitulatif des précédentes opérations réalisées par l'invention : This step carries out, through a graphical interface, a summary of the previous operations performed by the invention:
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) Un affichage de l'image de la personne cible avec la coloration capillaire retenue ; INCORPORATED (E) BY REFERENCE (RULE 20.6) A display of the image of the target person with the hair coloring chosen;
• Une liste des différents produits nécessaires à la coloration capillaire ;  • A list of the different products needed for hair coloring;
• Des explications, s'appuyant sur des schémas, pour réaliser correctement la coloration capillaire.  • Explanations, based on diagrams, to correctly perform hair coloring.
Ces ordonnances sont imprimées in fine dans un format pdf. These orders are printed in fine in a pdf format.
Le procédé et le dispositif selon l'invention sont illustrés et décrits dans ce qui précède par un système à deux entités séparées. Plusieurs variantes sont aussi possibles sans sortir du cadre de l'invention. Par exemple, un ordinateur de type pc tout-en-un (avec écran, microprocesseur et autres éléments intégrés en un seul bloc) peut aussi être utiliser pour la mise en oeuvre de l'invention. Dans une autre variante, une tablette tactile disposant d'une capacité de calcul suffisante peut aussi être utilisée. The method and the device according to the invention are illustrated and described in the foregoing by a system with two separate entities. Several variants are also possible without departing from the scope of the invention. For example, an all-in-one pc-type computer (with display, microprocessor and other integral elements in one block) can also be used for the implementation of the invention. In another variant, a touch pad with sufficient computing capacity can also be used.
Dans une autre variante, l'interface tactile peut être remplacée par un curseur mobile de type connu actionné à distance par une souris, un pavé numérique, ou autre moyen de déplacement de type connu. Dans une tel exemple, la sélection effectuée par le doigt de l'utilisateur dans la description précédente est remplacée par une sélection effectuée par un déplacement du curseur dans la zone pertinente à sélectionnée. In another variant, the touch interface may be replaced by a known type of mobile cursor remotely operated by a mouse, a keypad, or other known type of moving means. In such an example, the selection made by the user's finger in the previous description is replaced by a selection made by moving the cursor in the relevant area to be selected.
Enfin, tant avec un curseur mobile actionnable à distance qu'avec une interface tactile, la sélection de la zone à colorer peut être effectuée par un ou de préférence une pluralité de points discrets compris dans la zone à colorer. Finally, with both a remotely operable movable cursor and a touch interface, the selection of the area to be colored can be performed by one or preferably a plurality of discrete points included in the area to be colored.
La mise en œuvre des différents modules du dispositif de coloration préalablement décrits est avantageusement réalisée au moyen d'instructions ou commandes, permettant aux modules d'effectuer la ou les opérations spécifiquement prévues pour le module concerné. Les instructions peuvent être sous la forme d'un ou plusieurs logiciels ou modules de logiciels mis en œuvre par un ou plusieurs microprocesseurs. Le ou les modules et/ou le ou les logiciels sont avantageusement prévus dans un produit programme d'ordinateur comprenant un support d'enregistrement ou médium d'enregistrement utilisable par un ordinateur The implementation of the various modules of the coloring device previously described is advantageously carried out by means of instructions or commands, enabling the modules to perform the operation or operations specifically provided for the module concerned. The instructions may be in the form of one or more software or software modules implemented by one or more microprocessors. The module (s) and / or the software (s) are advantageously provided in a computer program product comprising a recording medium or recording medium that can be used by a computer.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) et comportant un code programmé lisible par un ordinateur intégré dans ledit support ou médium, permettant à un logiciel applicatif son exécution sur un ordinateur ou autre dispositif comportant un microprocesseur tel qu'une tablette à écran tactile. INCORPORATED (E) BY REFERENCE (RULE 20.6) and having programmed code readable by a computer integrated in said medium or medium, allowing application software to run on a computer or other device having a microprocessor such as a touch screen tablet.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) INCORPORATED (E) BY REFERENCE (RULE 20.6)

Claims

REVENDICATIONS
1) Procédé de coloration capillaire permettant, à partir d'une image cible d'un utilisateur, de générer une simulation de coloration des cheveux, comprenant les étapes selon lesquelles : 1) A hair dyeing method allowing, from a target image of a user, to generate a hair coloring simulation, comprising the steps according to which:
-un module image reçoit les données d'une image cible à traiter ; an image module receives the data of a target image to be processed;
-un module interface génère une interface utilisateur permettant de recevoir une sélection d'au moins un point d'identification de zone de coloration ; an interface module generates a user interface for receiving a selection of at least one color zone identification point;
-après réception des données de sélection, le module interface envoie les données à un module de segmentation de masque capillaire ; after receiving the selection data, the interface module sends the data to a capillary mask segmentation module;
-le module de segmentation de masque capillaire extrait la zone correspondant à la chevelure de l'utilisateur. the capillary mask segmentation module extracts the zone corresponding to the user's hair.
2) Procédé de coloration capillaire selon la revendication 1 , dans lequel un module interface fourni un choix de coloration pour l'utilisateur et reçoit une sélection de coloration. 2) A hair dyeing method according to claim 1, wherein an interface module provides a coloring choice for the user and receives a color selection.
3) Procédé de coloration capillaire selon la revendication 2, dans lequel un module de création de masque génère un masque pour application sur l'image cible et affiche l'image colorée. 3) A hair dyeing method according to claim 2, wherein a mask creation module generates a mask for application on the target image and displays the colored image.
4) Dispositif de coloration capillaire pour la mise en uvre du procédé selon l'une des revendications 1 à 3, comprenant : 4) Hair dyeing device for the implementation of the method according to one of claims 1 to 3, comprising:
-un module image susceptible de recevoir les données d'une image cible à traiter ; an image module capable of receiving the data of a target image to be processed;
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) -un module interface susceptible de générer une interface utilisateur permettant de recevoir une sélection d'au moins un point d'identification de zone de coloration ; INCORPORATED (E) BY REFERENCE (RULE 20.6) an interface module capable of generating a user interface making it possible to receive a selection of at least one color zone identification point;
-le module de segmentation de masque capillaire susceptible d'extraire la zone correspondant à la chevelure de l'utilisateur. the capillary mask segmentation module capable of extracting the zone corresponding to the user's hair.
5) Dispositif de coloration capillaire selon la revendication 4, comprenant par ailleurs un module de création de masque susceptible de générer un masque pour application sur l'image cible et affiche l'image colorée. 5) Hair dyeing device according to claim 4, further comprising a mask creation module capable of generating a mask for application on the target image and displays the colored image.
6) Dispositif de coloration capillaire selon l'une des revendications 4 ou 5, dans lequel le module interface est également adapté pour fournir un choix de coloration pour l'utilisateur et recevoir une sélection de coloration. 6) Hair dyeing device according to one of claims 4 or 5, wherein the interface module is also adapted to provide a coloring choice for the user and receive a color selection.
INCORPORE(E) PAR RENVOI (RÈGLE 20.6) INCORPORATED (E) BY REFERENCE (RULE 20.6)
EP13711449.2A 2012-01-13 2013-01-11 Hair colouring device and method Withdrawn EP2803039A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1200104 2012-01-13
PCT/FR2013/000013 WO2013104848A1 (en) 2012-01-13 2013-01-11 Hair colouring device and method

Publications (1)

Publication Number Publication Date
EP2803039A1 true EP2803039A1 (en) 2014-11-19

Family

ID=47915287

Family Applications (1)

Application Number Title Priority Date Filing Date
EP13711449.2A Withdrawn EP2803039A1 (en) 2012-01-13 2013-01-11 Hair colouring device and method

Country Status (4)

Country Link
US (1) US20140354676A1 (en)
EP (1) EP2803039A1 (en)
JP (1) JP2015511339A (en)
WO (1) WO2013104848A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017054337A (en) * 2015-09-10 2017-03-16 ソニー株式会社 Image processor and method
RU2750596C2 (en) 2016-12-06 2021-06-29 Конинклейке Филипс Н.В. Displaying guide pointer to the user
DE102016225656A1 (en) * 2016-12-20 2018-06-21 Henkel Ag & Co. Kgaa Camera for hair analysis with calibration device
KR102171269B1 (en) 2018-11-02 2020-10-28 네이버웹툰컴퍼니 주식회사 Method, apparatus and computer program for coloring of image, Method, apparatus and computer program for learning of artificial neural network
KR20240031670A (en) * 2022-09-01 2024-03-08 엘지파루크 주식회사 Cosmetics providing system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2984652B2 (en) * 1997-08-22 1999-11-29 富士通株式会社 Area extracting apparatus, area extracting method, and recording medium storing computer-implementable program
DE10142526C5 (en) * 2001-08-30 2006-02-16 Wella Ag Procedure for a hair color consultation
US8913074B2 (en) * 2004-05-05 2014-12-16 Yissum Research Development Company Of The Hebrew University Of Jerusalem Colorization method and apparatus
EP2124185B1 (en) * 2007-02-16 2017-08-30 Kao Corporation Hair image display method and display device
JP2011221812A (en) * 2010-04-09 2011-11-04 Sony Corp Information processing device, method and program
US8884980B2 (en) * 2010-09-24 2014-11-11 Taaz, Inc. System and method for changing hair color in digital images
FR2981254A1 (en) * 2011-10-18 2013-04-19 Pierre Ollivier METHOD OF SIMULATING A VARIABLE COLORIMETRY HAIR AND DEVICE FOR IMPLEMENTING THE METHOD

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2013104848A1 *

Also Published As

Publication number Publication date
US20140354676A1 (en) 2014-12-04
WO2013104848A1 (en) 2013-07-18
JP2015511339A (en) 2015-04-16

Similar Documents

Publication Publication Date Title
US11854072B2 (en) Applying virtual makeup products
US11854070B2 (en) Generating virtual makeup products
US9177391B1 (en) Image-based color palette generation
US9401032B1 (en) Image-based color palette generation
US9311889B1 (en) Image-based color palette generation
US10049308B1 (en) Synthesizing training data
US10593023B2 (en) Deep-learning-based automatic skin retouching
US20160104303A1 (en) Image-based color palette generation
KR101887216B1 (en) Image Reorganization Server and Method
CA3083486C (en) Method, medium, and system for live preview via machine learning models
EP2803039A1 (en) Hair colouring device and method
Pajankar Raspberry Pi computer vision programming
RU2677573C2 (en) System and method of adding stylized properties to image
CN108846792A (en) Image processing method, device, electronic equipment and computer-readable medium
WO2013057210A2 (en) Method for simulating hair having variable colorimetry and device for implementing said method
Mould et al. Developing and applying a benchmark for evaluating image stylization
EP2626838A1 (en) Method, device and system for generating a textured representation of a real object
CN109241930B (en) Method and apparatus for processing eyebrow image
US9858296B2 (en) Representative image selection for image management using face recognition
CN115131841A (en) Cosmetic mirror and dressing assisting method
Rosin et al. Non-photorealistic rendering with spot colour
EP3698274A1 (en) Method for calculating a global descriptor of an image
EP2626837A1 (en) System for creating three-dimensional representations from real models having similar and pre-determined characteristics
Gooch et al. Visualizing pentimenti: revealing the hidden history of paintings
CN111259696B (en) Method and device for displaying image

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20140725

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20160728

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20170208