FR2900256A1 - Procede d'assistance en temps reel a la modification de l'apparence physique d'une entite et son dispositif de mise en oeuvre. - Google Patents

Procede d'assistance en temps reel a la modification de l'apparence physique d'une entite et son dispositif de mise en oeuvre. Download PDF

Info

Publication number
FR2900256A1
FR2900256A1 FR0603643A FR0603643A FR2900256A1 FR 2900256 A1 FR2900256 A1 FR 2900256A1 FR 0603643 A FR0603643 A FR 0603643A FR 0603643 A FR0603643 A FR 0603643A FR 2900256 A1 FR2900256 A1 FR 2900256A1
Authority
FR
France
Prior art keywords
entity
module
modification
virtual
accessories
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0603643A
Other languages
English (en)
Other versions
FR2900256B1 (fr
Inventor
Marie Anne Senckeisen
Toole Lawrence O
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR0603643A priority Critical patent/FR2900256B1/fr
Publication of FR2900256A1 publication Critical patent/FR2900256A1/fr
Application granted granted Critical
Publication of FR2900256B1 publication Critical patent/FR2900256B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D19/00Devices for washing the hair or the scalp; Similar devices for colouring the hair
    • A45D19/0041Processes for treating the hair of the scalp
    • A45D19/0066Coloring or bleaching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Dermatology (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Processing Or Creating Images (AREA)

Abstract

L'invention concerne un procédé pour l'assistance, en temps réel, à la modification de l'apparence physique d'une entité, objet ou être vivant, ce procédé mettant en oeuvre un dispositif comportant un module de capture d'une image numérique, un module d'affichage comprenant un écran, un module de saisie de données et de commande, un module de stockage d'une base de données (11), un module de gestion de la base de données (12), un module de traitement (8), un module d'analyse structurale (10), un module de moyens de modification virtuels (9) correspondant à des moyens réels.Elle s'applique notamment au façonnage d'une coiffure et/ou à la coloration des cheveux et/ou à la sélection d'accessoires et/ou de vêtements ou encore au dessin industriel ou à la réalisation d'un dispositif d'assistance en vue de la réalisation d'une chirurgie esthétique, réparatrice, traumatologique.

Description

10 La présente invention concerne un procédé d'assistance en temps réel à
la modification de l'apparence physique d'une entité, objet ou être vivant, et un dispositif pour sa mise en oeuvre. Elle s'applique plus particulièrement, mais non exclusivement, à la réalisation de dispositifs interactifs d'assistance ou d'apprentissage au façonnage d'une coiffure et/ou à la coloration des 15 cheveux ou d'assistance pour la sélection d'accessoires tels que des lunettes, des bijoux ou encore de vêtements, ces dispositifs pouvant être autonomes ou intégrés par exemple dans des distributeurs automatiques par exemple de produits cosmétiques, d'accessoires. L'invention pourra en outre s'appliquer à une assistance au dessin industriel ou en vue de la réalisation 20 d'une chirurgie esthétique, réparatrice, traumatologique.
De façon générale, toute modification de l'apparence physique d'une entité par exemple d'une personne doit prendre en compte ladite entité que ce soit son physique (mensurations, caractéristiques ethniques...) mais également 25 son style, ses couleurs ou encore l'évènement concerné par ladite modification.
Cependant, il n'est pas toujours aisé d'élaborer, de sélectionner la modification adéquate telle que le façonnage d'une coiffure, la couleur des 30 cheveux, des vêtements et des bijoux assortis sans l'avoir expérimenté soi-même ce qui peut s'avérer long et coûteux, en particulier les heures passées dans un salon de coiffure. - 2 L'invention a pour objet de résoudre ces inconvénients grâce à un procédé permettant de modifier virtuellement, en temps réel, un existant à l'aide de mesure et d'analyse de données structurales et de paramètres associés et à l'aide de règles d'association.
A cet effet, ce procédé est mis en oeuvre par un dispositif comportant : -un module de capture d'une image numérique, un module d'affichage comprenant un écran, un module de saisie de données et de commande, un module de stockage d'une base de données, un module de gestion de la base de données, un module de traitement, - un module d'analyse structurale, -un module de moyens de modification virtuels mis à la disposition de 15 l'utilisateur et correspondant à des moyens réels.
Selon l'invention, ce procédé pour l'assistance, en temps réel, à la modification de l'apparence physique d'une entité, objet ou être vivant comprend au moins une séquence opératoire comportant les étapes 20 suivantes : une capture numérique par le module de capture d'au moins une partie d'une entité et une représentation de cette partie à l'écran du module d'affichage, une analyse structurale de ladite partie de l'entité par le module 25 d'analyse pour identifier, à l'aide de données d'identification, des ensembles et/ou des sous-ensembles de ces ensembles et/ou à l'intérieur desdits ensembles ou sous-ensembles des zones remarquables susceptibles de faire l'objet de modifications, - une détermination de paramètres relatifs auxdits ensembles, sous- 30 ensembles ou zones, - une sélection parmi les zones remarquables identifiées de celles qui doivent faire l'objet d'une modification, un affichage à l'écran d'une vue de ladite partie d'une entité avec indication desdites zones sélectionnées, - 3 une simulation d'au moins une modification sur lesdites zones sélectionnées grâce à la sélection et à l'application des moyens de modification virtuels mis à disposition du sujet et correspondant à des moyens réels, une modification des paramètres, - la validation des modifications virtuelles apportées et des modifications de paramètres, - un stockage en mémoire des modifications virtuelles réalisées et des paramètres relatifs.
La capture numérique pourra être effectuée au moyen d'un appareil photo numérique ou encore au moyen d'une vidéo numérique ou tout autre moyen adéquat.
L'analyse structurale pourra comprendre une analyse biométrique de l'entité. Par analyse structurale, on entend la mesure et l'analyse de données physiques propres à l'entité et des éventuels éléments indépendants dont elle est parée tels que des vêtements.
Selon un mode de réalisation, l'analyse structurale pourra être réalisée après conversion de l'image numérique dans un format vectoriel.
Avantageusement, l'analyse structurale pourra avoir en outre pour fonction d'identifier les différentes portions de ladite partie d'une entité et de délimiter les zones de modification les unes par rapport aux autres et par rapport au reste de ladite partie d'une entité.
Les paramètres relatifs auxdits ensembles, sous-ensembles ou zones pourront être déterminés au moyen de l'analyse structurale ou de tout étape 30 de mesure et/ou d'analyse mise en oeuvre par un moyen adéquat.
Les paramètres relatifs auxdits ensembles, sous-ensembles ou zones pourront être, par exemple, la couleur, la texture, le décor, les dimensions, les accessoires déjà en place.
Le procédé pourra également comprendre une étape d'affichage simultané pour la représentation et la comparaison de deux entités portant des modifications virtuelles exécutées lors de séquences précédentes.
Selon un premier avantage, ledit procédé pourra comprendre, en outre, une transmission des données structurales nécessaires à la fabrication de produits tels qu'une coloration et/ou de vêtements et/ou d'accessoires tels que des verres, des chapeaux.
Selon un deuxième avantage, le procédé pourra comprendre en outre une modification manuelle du contour des zones à modifier lors de l'affichage à l'écran d'une vue d'au moins une partie d'une entité et de l'indication desdites zones à modifier.
Le procédé pourra, en outre comprendre un procédé de détection de la couleur voire de la texture d'un substrat (peau, cheveu, tissu...) à intégrer dans un environnement, ce procédé étant basé sur une analyse de la capture numérique. 20 Selon une variante, le procédé de détection de la couleur voire de la texture d'un substrat à intégrer dans un environnement pourra comprendre les étapes suivantes : une mesure au moyen d'un appareil de mesure tel qu'un 25 chromamètre, d'un appareil photo ou vidéo, une comparaison des mesures avec un référentiel colorimétrique correspondant aux différentes valeurs colorimétriques stockées dans la base de données.
30 Les moyens de modification virtuels pourront comprendre des palettes de couleurs, des palettes de différents modèles d'accessoires, des palettes de tissus, de textures, avec leurs éventuels modes d'application pour chacune des zones de ladite entité. 10 15 Pour les cheveux, lesdits moyens de modification virtuels pourront comprendre en outre, par exemple, des palettes de différentes coupes de cheveux, positionnements de mèches, de franges.
Toutes les données relatives aux produits et/ou accessoires pourront être stockées dans la base de données. Ces données pourront comprendre la ou les zones concernées de ladite partie d'une entité, un nom, une référence, une marque, une image, une image de la couleur, une image et une qualification quant à la texture, une qualification quant au style souhaité, des règles d'association avec d'autres produits et/ou accessoires concernant d'autres zones de ladite partie d'une entité, un ou plusieurs modes d'application, etc.
Ces moyens de modification virtuels pourront au moins en partie être 15 présélectionnés selon différents critères, par exemple : selon des choix effectués au moyen de formulaires à remplir par un utilisateur, - selon la teinte de l'entité qui pourra être mesurée et qualifiée par rapport à un référentiel, et/ou 20 selon les choix par exemple de couleurs, de textures déjà effectués pour d'autres zones de ladite partie d'une entité afin de respecter des règles d'harmonisation prédéfinies basées par exemple sur les couleurs, les textures, les gammes, les marques de produits et/ou d'accessoires. 25 Les sélections des moyens de modification virtuels pourront être effectuées au moyen d'un écran tactile ou en utilisant une souris pour commander des boutons virtuels.
30 Le procédé selon l'invention pourra comprendre l'utilisation de formulaires pour établir des présélections de produits et/ou d'accessoires. Ces formulaires pourront comprendre des questions à choix multiples concernant par exemple la couleur des cheveux, des yeux, le style vestimentaire, les couleurs portées, les zones ou parties de l'entité à modifier. -6 Ce procédé pourra, en outre, comprendre un affichage séquentiel des paramètres de modification de manière à permettre à un utilisateur de reproduire la modification par exemple pour le façonnage d'une coiffure ou le positionnement d'un accessoire tel qu'une étole, un bijou.
L'affichage séquentiel pourra comprendre le défilement d'une séquence d'apprentissage pour mettre en oeuvre la modification de l'apparence physique pouvant par exemple comprendre une vidéo couplée à des explications audio ou affichées à l'écran. Parallèlement, un affichage en temps réel de l'entité pourra être prévu afin de jouer un rôle équivalent à celui d'un miroir.
Avantageusement, la séquence de modification pourra défiler automatiquement avec la possibilité de stopper le défilement et/ou de retourner en arrière, le passage d'une étape à une autre de la modification pouvant également être déclenché par l'utilisateur.
Bien entendu, l'invention concerne également le dispositif pour la mise en 20 oeuvre du procédé précédemment décrit.
Le module de saisie de données et de commande du dispositif selon l'invention pourra comprendre de moyens de saisie et de commande vocales, Ce dispositif pourra en outre comprendre des moyens de stockage des paramètres d'une modification virtuelle.
Le dispositif pourra également comprendre des moyens de connexion à 30 Internet afin de passer une commande sur un site marchand, les références des produits et/ou accessoires souhaités étant directement insérées dans un bon de commande. 25 -7 Le dispositif pourra également comprendre des moyens de connexion à Internet afin réaliser une transmission des données structurales nécessaires à la fabrication de produits tels qu'une coloration et/ou de vêtements et/ou d'accessoires tels que des verres, des chapeaux.
Si nécessaire, ladite transmission pourra directement être effectuée vers une machine de fabrication.
Un autre objet de l'invention concerne l'utilisation du procédé pour l'assistance, en temps réel, à la modification de l'apparence physique d'un être vivant pour l'assistance au façonnage d'une coiffure et/ou à la coloration des cheveux d'un être vivant, personne ou animal.
Un autre objet de l'invention concerne l'utilisation du procédé pour l'assistance, en temps réel, à la modification de l'apparence physique d'un être vivant pour l'assistance à la sélection de vêtements.
Un autre objet de l'invention concerne l'utilisation du procédé pour l'assistance, en temps réel, à la modification de l'apparence physique d'un être vivant pour l'assistance à la sélection d'accessoires tels que des bijoux, des lunettes.
Un autre objet de l'invention concerne l'utilisation du procédé pour l'assistance, en temps réel, à la modification de l'apparence physique d'un objet pour l'assistance au dessin industriel.
Un autre objet de l'invention concerne l'utilisation du procédé pour l'assistance, en temps réel, à la modification de l'apparence physique d'un être vivant pour l'assistance en vue de la réalisation d'une chirurgie esthétique, réparatrice, traumatologique.
Des modes d'exécution de l'invention seront décrits ci-après, à titre d'exemples non limitatifs, avec référence aux dessins annexés dans lesquels : 30 -8-
La figure 1 est une représentation schématique d'un dispositif selon l'invention ; La figure 2 est une représentation de l'écran du dispositif de la figure 1 affichant deux entités ; La figure 3 est un schéma synoptique illustrant le principe de fonctionnement du processeur utilisé dans le dispositif de la figure 1 ; La figure 4 est un organigramme de mise en oeuvre d'un procédé selon l'invention ; Les figures 5a et 5b sont des représentations d'une application du procédé selon l'invention pour le façonnage d'une coiffure ; Les figures 6a et 6b sont des représentations d'une application du procédé selon l'invention pour la sélection de lunettes ;
Les figures 7a et 7b sont des représentations d'une application du 20 procédé selon l'invention la sélection de bijoux. Dans l'exemple représenté sur la figure 1, le dispositif d'assistance selon l'invention comporte : un écran 1 permettant l'affichage d'au moins deux entités (Figure 2) et 25 comprenant une partie tactile 2 avec des touches dynamiques, - un appareil de capture d'images 3 tel qu'un appareil photo ou un caméscope numérique ou encore une webcam , cet appareil étant monté par exemple sur le sommet de l'écran, - des moyens d'éclairage 4 de l'entité ou de la partie de l'entité, 30 - un stylet 5 pour utiliser la partie tactile de l'écran et éventuellement une souris 6, - une unité de traitement 7,15 -9- Il est à noter que, selon l'application envisagée, le positionnement de l'appareil de capture d'images pourra varier.
L'unité de traitement 7 comprend un module de traitement proprement dit 8, des moyens de modifications virtuels 9 correspondant à des moyens réels, un module d'analyse structurale 10, des moyens de stockage 11 d'une base de données, des moyens de gestion 12 de la base de données, des moyens de stockage 13 interne ou externe d'une modification virtuelle avec ses paramètres, des moyens de lecture et/ou d'enregistrement 14 d'un support externe (Figure 3).
La base de données comporte toutes les données relatives aux produits et/ou accessoires. Ces données comprennent notamment la zone de l'entité concernée, un nom, une référence, une marque, une image, une qualification quant à la texture, quant au style, des règles d'association avec d'autres produits et/ou accessoires concernant d'autres zones de l'entité, un ou plusieurs modes d'application, multimédia...
II est à noter que les modes d'application peuvent utiliser différents media : audio, vidéo...
Le procédé comporte les étapes suivantes (Figure 4) : la capture de l'image numérique d'au moins une partie de l'entité ou 25 non au moyen de l'appareil de capture (Bloc 15), une mémorisation de l'image de l'entité par exemple dans un format BIPMAP dans les moyens de stockage internes et/ou externes 13 (Bloc 16), - une conversion de l'image dans un format vectoriel, par exemple 30 BIPMAP vectorisé, par l'unité de traitement 8 (Bloc 17), une visualisation de l'image sur l'écran (Bloc 18), si l'image convient, une intégration de l'image vectorielle dans le module d'analyse structurale 10 (Bloc 19), -10- une extraction de différentes données par le module d'analyse structurale 10 (Bloc 20) telles que des données de position absolues et relatives et une identification des ensembles, sous ensembles et des zones remarquables détectées et une détermination de paramètres relatifs auxdits ensembles, sous-ensembles ou zones : position du visage, du buste, des bras, des mains, des jambes, contour général du corps et du visage, ligne cheveux/visage, nez, joues, oreilles, front, menton, cils, sourcils, contour extérieur des narines, différentes zones des yeux et autour des yeux, distance entre les yeux, coupe des vêtements et leur position par rapport à l'entité, une conversion (Bloc 21) par l'unité de traitement des données extraites en données au format vectoriel pour créer et afficher, sur la partie de l'entité numérisée, des masques correspondant à chacune des zones définies (un masque est une image transparente superposable à l'image originale qui peut être rendue modifiable ou non) (Bloc 22), une sélection parmi les zones remarquables identifiées de celles qui doivent faire l'objet d'une modification (cette étape peut être réalisée automatiquement selon l'usage prévu ou manuellement par l'utilisateur, dans ce cas , on ajoute une étape d'affichage de toutes les zones suivie de l'affichage des zones sélectionnées) (Bloc 23), un affichage d'un ou plusieurs formulaires (Bloc 24), les réponses de l'utilisateur et les paramètres extraits relatifs à l'entité devant permettre d'établir une présélection de produits et/ou accessoires (Bloc 25), l'affichage, dans la partie tactile de l'écran, de ladite présélection de produits pour chaque zone de modification sous la forme de palettes tactiles, ces palettes comportant notamment des représentations de couleurs, de textures, de pictogrammes symbolisant différents modes d'application et différents moyens d'application (Bloc 26), pour chaque zone de modification, un choix de couleur, de texture, de mode d'application par l'utilisateur (Bloc 27) et la modification par l'application du ou des produit(s) et/ou accessoire(s) correspondant par l'utilisateur au moyen du stylet ou automatiquement (Bloc 28) et -11- un affichage en temps réel du résultat de chaque modification sur l'entité virtuelle (Bloc 29), une commande de l'affichage simultané de l'entité et/ou d'une ou plusieurs entités mémorisées (Bloc 31) afin de comparaison avec dans ce cas, une commande éventuelle du stockage d'une entité avec tous les paramètres relatifs aux produits et/ou accessoires sélectionnés dans les moyens de stockage internes et/ou externes 13, - si le résultat de la comparaison n'est pas satisfaisant (Bloc 32), la réalisation d'une ou plusieurs autres modifications virtuelles (Bloc 24- 30) suivi d'un affichage pour comparaison (Bloc 31), une validation d'une modification ou d'un ensemble de modifications (Bloc 32), - une commande du stockage de l'entité avec tous les paramètres relatifs aux produits et/ou accessoires sélectionnés dans les moyens de stockage internes et/ou externes 13 (Bloc 33), une impression de l'entité modifiée et validée (Bloc 34).
L'extraction des différentes données (Bloc 20) notamment des paramètres de couleur et de texture pourra être effectuée au moyen d'un procédé de détection de la couleur voire de la texture d'un substrat à intégrer dans un environnement, ce procédé étant basé sur une analyse de la capture numérique.
Le procédé pourra, en outre, comprendre un affichage de deux fenêtres : une fenêtre où défile une séquence d'apprentissage de l'application de la modification pouvant par exemple comprendre une vidéo couplée à des explications audio ou affichées à l'écran, - une fenêtre où s'affiche l'image prise en temps réel de l'utilisateur afin de jouer un rôle équivalent à celui d'un miroir.
Avantageusement, la séquence de modification pourra défiler automatiquement avec la possibilité de stopper le défilement et/ou de retourner en arrière, le passage d'une étape à une autre de la modification pouvant également être déclenché par l'utilisateur. - 12 Les formulaires pourront comprendre des questions à choix multiples concernant par exemple la saison, l'heure de l'évènement concerné s'il y a lieu (jour, soir, été, hiver, ...), la couleur des cheveux, des yeux, le style vestimentaire, les couleurs portées, les zones à modifier.
L'étape de capture comprend une prise de vue avec un sujet assis les yeux à hauteur de l'objectif devant un fond uni clair. L'éclairage optimal doit être diffus. Il se fait au moyen de deux parapluies photo placés à 45 , un éclairage d'environ 800 watts ou un éclairage par flash chacun ou tout autre dispositif permettant d'obtenir un rendu similaire. L'image est symétrique verticalement. La prise de vue se fait sur le visage, sans lunette, la bouche fermée de préférence, le front ou les oreilles dégagés ou le buste ou le corps en pied.
Le cadrage du sujet se fait avec l'aide d'une prévisualisation sur l'écran. L'image numérique doit avoir une dimension suffisamment précise (1024X768 pixels au minimum). De préférence, pour une qualité optimisée, le format du fichier à exploiter doit être enregistré en pixels non compressé.
Selon un autre mode de réalisation, le dispositif pourra être situé dans une cabine afin d'offrir un meilleur éclairage et faciliter le positionnement du sujet.
Les zones de modification sont définies par soustraction de différents masques correspondant à des ensembles et/ou sous-ensembles et/ou zones remarquables, certains masques étant opaques c'est-à-dire non modifiables et d'autres pouvant recevoir une modification.
Les masques qui sont opaques pour une zone peuvent être des masques modifiables pour d'autres zones et vice versa.
Cette qualification entre masques opaques et masques à maquiller est définie selon la zone sélectionnée. -13- Le procédé selon l'invention permet d'identifier plusieurs ensembles, sous-ensembles et zones remarquables et certains de leurs paramètres.
Ces ensembles peuvent par exemple être les cheveux, le visage, un 5 vêtement couvrant le buste, un vêtement couvrant les jambes.
L'exemple des figures 5a et 5b illustre une application du procédé selon l'invention au façonnage d'une coiffure.
10 L'ensemble cheveux comprend par exemple les sous-ensembles suivants décrivant toute l'implantation des cheveux tels que les racines des cheveux, sommet du crâne, longueur et couleur des cheveux au-dessus des yeux, à droite et/ou à gauche du visage, forme des cheveux au-dessus des yeux, à droite et/ou à gauche du visage. 15 Pour modifier la couleur des cheveux ou le façonnage d'une coiffure, il faut considérer les masques correspondant aux ensembles, sous-ensembles ou zones suivants : l'ensemble cheveux et chaque zone des cheveux devant recevoir une modification différente. Les moyens de modifications virtuels utilisés correspondent par exemple à différentes coupes, à différentes longueurs de cheveux, à différentes couleurs de cheveux, à différentes positions et couleurs de mèches, à différentes franges. 25 L'exemple des figures 6a et 6b illustre une application du procédé selon l'invention au choix de lunettes.
L'ensemble visage comprend yeux, les zones autour des yeux par 30 exemple celles qui seraient modifiées par un ajout de lunettes.
Pour ajouter des lunettes, le procédé permet l'identification des zones qui sont impliquées par le port de lunettes afin de permettre d'effectuer une modification qui est l'ajout d'une paire de lunettes. 20 - 14 -L'exemple des figures 7a et 7b illustre une application du procédé selon l'invention au choix de boucles d'oreilles.
Pour ajouter des boucles d'oreilles, le procédé permet l'identification des zones des oreilles impliquées afin de permettre un positionnement adéquat.
Pour d'autres bijoux, les zones sélectionnées pourraient être le cou et/ou le décolleté et/ou le buste.
L'invention ne se limite pas aux exemples précédemment décrits. En effet, le procédé est analogue pour la sélection de vêtements.
Les moyens de modifications permettent alors de modifier par exemple des paramètres tels que la forme, la couleur, la texture du vêtement.
Des modifications diverses peuvent être envisagées sans pour autant sortir du cadre de l'invention.

Claims (18)

Revendications
1. Procédé pour l'assistance, en temps réel, à la modification de l'apparence physique d'une entité, objet ou être vivant, ce procédé mettant en oeuvre un dispositif comportant un module de capture d'une image numérique (3, 4), un module d'affichage comprenant un écran (1), un module de saisie de données et de commande (5, 6), un module de stockage d'une base de données (11), un module de gestion de la base de données (12), un module de traitement (8), un module d'analyse structurale (10), un module de moyens de modification virtuels (9) correspondant à des moyens réels, ce procédé s'appliquant à des domaines variés à l'exclusion de toute application chirurgicale, caractérisé en ce qu'il comprend au moins une séquence opératoire comportant les étapes suivantes : - une capture numérique par le module de capture d'au moins une partie d'une entité et une représentation de cette partie à l'écran du module d'affichage (Bloc 15), une analyse structurale de ladite partie de l'entité par le module d'analyse pour identifier, à l'aide de données d'identification, des ensembles et/ou des sous-ensembles de ces ensembles et/ou à l'intérieur desdits ensembles ou sous-ensembles des zones remarquables susceptibles de faire l'objet de modifications (Blocs 20-21), une détermination de paramètres relatifs auxdits ensembles, sous-25 ensembles ou zones (Blocs 20-21), une sélection parmi les zones remarquables identifiées de celles qui doivent faire l'objet d'une modification (Bloc 23), un affichage à l'écran d'une vue de ladite partie d'une entité avec indication desdites zones sélectionnées (Bloc 26), 30 une simulation d'au moins une modification sur lesdites zones sélectionnées grâce à la sélection et à l'application des moyens de modification virtuels mis à disposition du sujet et correspondant à des moyens réels (Blocs 27-31), une modification des paramètres (Blocs 27-31),-16- la validation des modifications virtuelles apportées et des modifications de paramètres (Bloc 32), - un stockage en mémoire des modifications virtuelles réalisées et des paramètres relatifs (Bloc 33).
2. Procédé selon la revendication 1, caractérisé en ce que l'analyse structurale comprend une analyse biométrique de l'entité. 10
3. Procédé selon la revendication 1, caractérisé en ce que l'analyse structurale est réalisée après conversion de l'image numérique (Bloc 17) dans un format vectoriel.
4. Procédé selon la revendication 1, 15 caractérisé en ce que les paramètres relatifs auxdits ensembles, sous-ensembles ou zones sont la couleur, la texture, le décor, les dimensions, des accessoires déjà en place.
5. Procédé selon la revendication 1, 20 caractérisé en ce qu'il comprend également une étape d'affichage simultané pour la représentation et la comparaison de deux entités portant des modifications virtuelles exécutées lors de séquences précédentes (Bloc 31). 25
6. Procédé selon la revendication 1, caractérisé en ce qu'il comprend, en outre, une transmission de données structurales nécessaires à la fabrication de produits tels qu'une coloration et/ou de vêtements et/ou d'accessoires. 30
7. Procédé selon la revendication 1, caractérisé en ce qu'il comprend en outre une modification manuelle du contour des zones à modifier lors de l'affichage à l'écran d'une vue d'au moins une partie d'une entité et de l'indication desdites zones à modifier.5-17-
8. Procédé selon la revendication 1, caractérisé en ce qu'il comprend en outre une étape de détection de la couleur voire de la texture d'un substrat à intégrer dans un environnement, cette étape étant basée sur une analyse de la capture numérique.
9. Procédé selon la revendication 1, caractérisé en ce qu'il comprend en outre une étape de détection de la couleur voire de la texture d'un substrat à intégrer dans un environnement, cette étape de détection comportant les sous-étapes suivantes : une mesure au moyen d'un appareil de mesure tel qu'un chromamètre, un appareil de photo ou de vidéo, une comparaison des mesures avec un référentiel colorimétrique correspondant aux différentes valeurs colorimétriques stockées dans la base de données.
10. Procédé selon la revendication 1, caractérisé en ce qu'il comprend, en outre, un affichage séquentiel des paramètres de modification de manière à permettre à un utilisateur de reproduire la modification pour le façonnage d'une coiffure ou le positionnement d'un accessoire.
11. Procédé selon la revendication 10, caractérisé en ce que l'affichage séquentiel comprend le défilement d'une séquence d'apprentissage pour mettre en oeuvre la modification de l'apparence physique pouvant comprendre une vidéo couplée à des explications audio ou affichées à l'écran.
12. Dispositif pour la mise en oeuvre d'un procédé selon la revendication 1, ce dispositif comportant un module de capture d'une image numérique (3, 4), un module d'affichage comprenant un écran (1), un module de saisie de données et de commande (5, 6), un module de stockage d'une base de données (11), un module de gestion de la base de données (12), un module de traitement (8), un module d'analyse structurale (10), un module de moyens de modification virtuels (9)correspondant à des moyens réels.-18-
13. Dispositif selon la revendication 12, caractérisé en ce que les moyens de modification virtuels comprennent des palettes de couleurs, des palettes de différents modèles d'accessoires, des palettes de tissus, de textures, avec leurs éventuels modes d'application pour chacune des zones de ladite entité.
14. Dispositif selon la revendication 12, caractérisé en ce que les moyens de modification virtuels pourront au moins en partie être présélectionnés selon l'un au moins des critères suivants : selon des choix effectués au moyen de formulaires à remplir par un utilisateur, selon la teinte de l'entité qui pourra être mesurée et qualifiée par rapport à un référentiel, et/ou selon les choix par exemple de couleurs, de textures déjà effectués pour d'autres zones de ladite partie d'une entité afin de respecter des règles d'harmonisation prédéfinies basées par exemple sur les couleurs, les textures, les gammes, les marques de produits et/ou d'accessoires.
15. Dispositif selon la revendication 12, caractérisé en ce qu'il comprend en outre des moyens de connexion à Internet pour passer une commande sur un site marchand, les références des produits et/ou accessoires souhaités étant directement insérées dans un bon de commande et/ou des moyens de connexion à Internet pour réaliser une transmission des données structurales nécessaires à la fabrication de produits tels qu'une coloration et/ou de vêtements et/ou d'accessoires.
16. Utilisation du procédé selon la revendication 1 pour l'assistance au 30 façonnage d'une coiffure et/ou à la coloration des cheveux d'un être vivant.
17. Utilisation du procédé selon la revendication 1 pour l'assistance à la sélection de vêtements et/ou d'accessoires.-19-
18. Utilisation du procédé selon la revendication 1 pour l'assistance au dessin industriel.
FR0603643A 2006-04-24 2006-04-24 Procede d'assistance en temps reel a la modification de l'apparence physique d'une entite et son dispositif de mise en oeuvre. Active FR2900256B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR0603643A FR2900256B1 (fr) 2006-04-24 2006-04-24 Procede d'assistance en temps reel a la modification de l'apparence physique d'une entite et son dispositif de mise en oeuvre.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0603643A FR2900256B1 (fr) 2006-04-24 2006-04-24 Procede d'assistance en temps reel a la modification de l'apparence physique d'une entite et son dispositif de mise en oeuvre.

Publications (2)

Publication Number Publication Date
FR2900256A1 true FR2900256A1 (fr) 2007-10-26
FR2900256B1 FR2900256B1 (fr) 2008-12-05

Family

ID=37487382

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0603643A Active FR2900256B1 (fr) 2006-04-24 2006-04-24 Procede d'assistance en temps reel a la modification de l'apparence physique d'une entite et son dispositif de mise en oeuvre.

Country Status (1)

Country Link
FR (1) FR2900256B1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001004839A2 (fr) * 1999-07-07 2001-01-18 Unilever Plc Changement de style virtuel
WO2001004840A1 (fr) * 1999-07-07 2001-01-18 Unilever Plc Systeme de selection de cosmetique de couleur
EP1298597A2 (fr) * 2001-10-01 2003-04-02 L'oreal Simulation des effets de produits cosmetiques à base d'une image tridimensionnelle d'un visage

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001004839A2 (fr) * 1999-07-07 2001-01-18 Unilever Plc Changement de style virtuel
WO2001004840A1 (fr) * 1999-07-07 2001-01-18 Unilever Plc Systeme de selection de cosmetique de couleur
EP1298597A2 (fr) * 2001-10-01 2003-04-02 L'oreal Simulation des effets de produits cosmetiques à base d'une image tridimensionnelle d'un visage

Also Published As

Publication number Publication date
FR2900256B1 (fr) 2008-12-05

Similar Documents

Publication Publication Date Title
CA2377090C (fr) Dispositif de conseil pour la coloration capillaire
JP6292639B2 (ja) 仮想現実を利用したヘアスマートミラーシステム
FR2883395A1 (fr) Procede d'assistance au maquillage en temps reel et son dispositif de mise en oeuvre
CN104105953B (zh) 用于颜色校准的装置和方法
US7665843B2 (en) Method and the associate mechanism for stored-image database-driven spectacle frame fitting services over public network
CA2364874A1 (fr) Procede pour determiner un degre d'une caracteristique de la typologie corporelle
US8498456B2 (en) Method and system for applying cosmetic and/or accessorial enhancements to digital images
EP1089191A1 (fr) Dispositif d'aide au maquillage
EP1196893B1 (fr) Systeme de selection de cosmetique de couleur
JP2002224049A (ja) 携帯端末装置、アドバイスシステム、肌診断評価方法、肌診断評価用プログラム、化粧アドバイス提供方法及び化粧アドバイス提供用プログラム
KR102546863B1 (ko) 화장 조성물의 도포를 위한 맞춤형 어플리케이터의 제조 방법
CA2667526A1 (fr) Procede et dispositif de simulation virtuelle d'une sequence d'images video.
EP1321098A1 (fr) Dispositif et procédé d'évaluation de la région du contour autour de l'oeil
KR101987189B1 (ko) 메이크업 제안 키오스크
KR102037166B1 (ko) 시지각과 청지각을 통한 퍼스널 컬러 분석시스템 및 이를 이용한 패션 페르소나 컬러 메칭방법
CN106028929A (zh) 底妆对照系统
FR2915586A1 (fr) Dispositif comportant un reseau lenticulaire.
FR3072546A1 (fr) Procede de fabrication d'un applicateur personnalise pour le contour des levres
JP2020526756A (ja) 髪の状態の情報を管理するシステムと、美容コンサルテーションを最適化する方法
EP4049289A1 (fr) Procede de generation d'une image dentaire
US20240265433A1 (en) Interactive system and method for recommending one or more lifestyle products
FR2915820A1 (fr) Procede d'evaluation d'une typologie de levres et systeme d'evaluation pour la mise en oeuvre d'un tel procede
FR2912883A1 (fr) Procede d'evaluation d'une typologie de cils et systeme d'evaluation pour la mise en oeuvre d'un tel procede
FR2900256A1 (fr) Procede d'assistance en temps reel a la modification de l'apparence physique d'une entite et son dispositif de mise en oeuvre.
WO2001075796A1 (fr) Systeme teleinformatique et numerique pour la transformation d'une image, notamment de l'image d'un visage humain

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

PLFP Fee payment

Year of fee payment: 15

PLFP Fee payment

Year of fee payment: 16

PLFP Fee payment

Year of fee payment: 17

PLFP Fee payment

Year of fee payment: 18

PLFP Fee payment

Year of fee payment: 19