FR3142589A1 - Instrumentation of makeup applicators to improve and share application techniques - Google Patents

Instrumentation of makeup applicators to improve and share application techniques Download PDF

Info

Publication number
FR3142589A1
FR3142589A1 FR2212307A FR2212307A FR3142589A1 FR 3142589 A1 FR3142589 A1 FR 3142589A1 FR 2212307 A FR2212307 A FR 2212307A FR 2212307 A FR2212307 A FR 2212307A FR 3142589 A1 FR3142589 A1 FR 3142589A1
Authority
FR
France
Prior art keywords
applicator
video
relative
trajectory
computing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2212307A
Other languages
French (fr)
Inventor
Juwan Hong
Gregoire CHARRAUD
Ji Heun Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LOreal SA filed Critical LOreal SA
Priority to FR2212307A priority Critical patent/FR3142589A1/en
Priority to PCT/US2023/074510 priority patent/WO2024073268A1/en
Publication of FR3142589A1 publication Critical patent/FR3142589A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)

Abstract

Instrumentation des applicateurs de maquillage pour améliorer et partager les techniques d’application Dans certains modes de réalisation, un système de génération de présentations d’applications de maquillage est fourni. Le système comprend une caméra, au moins un capteur de mouvement associé à un premier applicateur et un dispositif informatique comprenant au moins un processeur et un support non transitoire lisible par ordinateur, des instructions exécutables par ordinateur étant stockées sur celui-ci. Les instructions, en réponse à l’exécution par le au moins un processeur, amènent le dispositif informatique à effectuer des actions comprenant : la réception d’une première vidéo d’un procédé d’application de maquillage de la caméra, la première vidéo représentant au moins une partie d’un visage et au moins une partie d’un applicateur ; la réception de signaux provenant du au moins un capteur de mouvement indiquant le mouvement de l’applicateur ; la mesure du mouvement de l’applicateur par rapport à un ou plusieurs repères du visage pour déterminer une trajectoire relative de l'applicateur  et le stockage de la trajectoire relative de l'applicateur. Figure pour l'abrégé : néantInstrumentation of makeup applicators to improve and share application techniques. In some embodiments, a system for generating makeup application presentations is provided. The system includes a camera, at least one motion sensor associated with a first applicator, and a computing device including at least one processor and a non-transitory computer-readable medium, with computer-executable instructions stored thereon. The instructions, in response to execution by the at least one processor, cause the computing device to perform actions including: receiving a first video of a makeup application process from the camera, the first video representing at least part of a face and at least part of an applicator; receiving signals from the at least one motion sensor indicating movement of the applicator; measuring the movement of the applicator relative to one or more facial landmarks to determine a relative trajectory of the applicator and storing the relative trajectory of the applicator. Figure for the abstract: none

Description

Instrumentation des applicateurs de maquillage pour améliorer et partager les techniques d’applicationInstrumentation of makeup applicators to improve and share application techniques RésuméSummary

Le présent résumé a pour objet de présenter une sélection de concepts sous une forme simplifiée qui sont décrits plus amplement ci-après dans la description détaillée. Le présent résumé n’est pas censé identifier des particularités clés du sujet revendiqué ni être utilisé comme aide pour déterminer la portée du sujet revendiqué.The purpose of this summary is to present a selection of concepts in a simplified form which are described more fully below in the detailed description. This summary is not intended to identify key features of the claimed subject matter or to be used as an aid in determining the scope of the claimed subject matter.

Dans certains modes de réalisation, un procédé d’application de maquillage avec instrument est fourni. Un dispositif informatique reçoit une première vidéo d’un procédé d’application de maquillage, la première vidéo représentant au moins une partie d’un premier visage et au moins une partie d’un premier applicateur. Le dispositif informatique mesure le mouvement du premier applicateur par rapport à un ou plusieurs repères du premier visage pour déterminer une trajectoire relative de l’applicateur. Le dispositif informatique enregistre la trajectoire relative de l’applicateur.In some embodiments, a method of applying makeup with an instrument is provided. A computing device receives a first video of a makeup application process, the first video depicting at least a portion of a first face and at least a portion of a first applicator. The computing device measures the movement of the first applicator relative to one or more marks of the first face to determine a relative trajectory of the applicator. The computing device records the relative trajectory of the applicator.

Dans certains modes de réalisation, un système de génération de présentations d’applications de maquillage est fourni. Le système comprend une caméra, au moins un capteur de mouvement associé à un premier applicateur et un dispositif informatique comprenant au moins un processeur et un support non transitoire lisible par ordinateur, des instructions exécutables par ordinateur étant stockées sur celui-ci. Les instructions, en réponse à l’exécution par le au moins un processeur, amènent le dispositif informatique à effectuer des actions comprenant : la réception d’une première vidéo d’un procédé d’application de maquillage de la caméra, la première vidéo représentant au moins une partie d’un visage et au moins une partie d’un applicateur ; la réception de signaux provenant du au moins un capteur de mouvement indiquant le mouvement de l’applicateur ; la mesure du mouvement de l’applicateur par rapport à un ou plusieurs repères du visage pour déterminer une trajectoire relative de l'applicateur et le stockage de la trajectoire relative de l'applicateur.In some embodiments, a system for generating makeup application presentations is provided. The system includes a camera, at least one motion sensor associated with a first applicator, and a computing device including at least one processor and a non-transitory computer-readable medium, with computer-executable instructions stored thereon. The instructions, in response to execution by the at least one processor, cause the computing device to perform actions including: receiving a first video of a makeup application process from the camera, the first video representing at least part of a face and at least part of an applicator; receiving signals from the at least one motion sensor indicating movement of the applicator; measuring the movement of the applicator relative to one or more facial landmarks to determine a relative trajectory of the applicator and storing the relative trajectory of the applicator.

Dans certains modes de réalisation, un dispositif informatique est fourni. Le dispositif informatique comprend des circuits pour recevoir une première vidéo d’un procédé d’application de maquillage, la première vidéo illustrant au moins une portion d’un premier visage et au moins une portion d’un premier applicateur ; des circuits pour mesurer le mouvement du premier applicateur par rapport à un ou plusieurs repères du premier visage pour déterminer une trajectoire relative de l’applicateur et des circuits pour stocker la trajectoire relative de l'applicateur.In some embodiments, a computing device is provided. The computing device includes circuitry for receiving a first video of a makeup application process, the first video illustrating at least a portion of a first face and at least a portion of a first applicator; circuits for measuring the movement of the first applicator relative to one or more marks of the first face to determine a relative trajectory of the applicator and circuits for storing the relative trajectory of the applicator.

L’invention a pour objet un procédé d’application de maquillage instrumenté, le procédé comprenant :

  • la réception, par un dispositif informatique, d’une première vidéo d’un procédé d’application de maquillage, la première vidéo représentant au moins une portion d’un premier visage et au moins une portion d’un premier applicateur ;
  • la mesure, par le dispositif informatique, du mouvement du premier applicateur par rapport à un ou plusieurs repères du premier visage pour déterminer une trajectoire relative de l'applicateur et
  • le stockage, par le dispositif informatique, de la trajectoire relative de l’applicateur.
The subject of the invention is a process for applying instrumented makeup, the process comprising:
  • receiving, by a computing device, a first video of a makeup application process, the first video representing at least a portion of a first face and at least a portion of a first applicator;
  • measuring, by the computing device, the movement of the first applicator relative to one or more marks of the first face to determine a relative trajectory of the applicator and
  • the storage, by the computing device, of the relative trajectory of the applicator.

Suivant d’autres aspects avantageux de l’invention, le procédé comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :

  • la réception, par le dispositif informatique, d’une deuxième vidéo, la deuxième vidéo étant une vidéo en direct qui représente au moins une portion d’un second visage et au moins une portion d’un second applicateur ;
  • l’alignement, par le dispositif informatique, de la trajectoire relative de l’applicateur sur un ou plusieurs repères du deuxième visage et
  • la génération, par le dispositif informatique, d’une présentation de la trajectoire relative de l’applicateur à fournir en association avec la capture de la deuxième vidéo.
  • fournir la présentation de la trajectoire relative de l’applicateur sous forme d’images superposées sur la deuxième vidéo.
  • la présentation de la trajectoire relative de l’applicateur en :
According to other advantageous aspects of the invention, the method comprises one or more of the following characteristics, taken individually or in all technically possible combinations:
  • receiving, by the computing device, a second video, the second video being a live video that represents at least a portion of a second face and at least a portion of a second applicator;
  • the alignment, by the computing device, of the relative trajectory of the applicator on one or more marks of the second face and
  • generating, by the computing device, a presentation of the relative trajectory of the applicator to be provided in association with capturing the second video.
  • provide the presentation of the relative trajectory of the applicator in the form of images superimposed on the second video.
  • the presentation of the relative trajectory of the applicator in:

comparant un emplacement détecté du deuxième applicateur avec la trajectoire relative de l’applicateur etcomparing a detected location of the second applicator with the relative trajectory of the applicator and

fournissant un retour haptique pour déterminer que l’emplacement détecté du deuxième applicateur est en dehors de la trajectoire relative de l’applicateur.

  • la génération de la présentation de la trajectoire relative de l’applicateur à fournir en association avec la capture de la deuxième vidéo comprenant la présentation de la trajectoire relative de l’applicateur sur un affichage du dispositif informatique avec la deuxième vidéo pendant la capture de la deuxième vidéo.
providing haptic feedback to determine that the detected location of the second applicator is outside the relative trajectory of the applicator.
  • generating the presentation of the relative trajectory of the applicator to be provided in association with capturing the second video including presenting the relative trajectory of the applicator on a display of the computing device with the second video while capturing the second video.

L’invention a également pour objet un dispositif informatique, comprenant :

  • des circuits de réception d’une première vidéo d’un procédé d’application de maquillage, dans lequel la première vidéo représente au moins une portion d’un premier visage et au moins une portion d’un premier applicateur ;
  • des circuits de mesure du mouvement du premier applicateur par rapport à un ou plusieurs repères du premier visage pour déterminer une trajectoire relative de l’applicateur et
  • des circuits pour le stockage de la trajectoire relative de l’applicateur.
The invention also relates to a computing device, comprising:
  • circuits for receiving a first video of a makeup application method, in which the first video represents at least one portion of a first face and at least one portion of a first applicator;
  • circuits for measuring the movement of the first applicator relative to one or more marks of the first face to determine a relative trajectory of the applicator and
  • circuits for storing the relative trajectory of the applicator.

Suivant d’autres aspects avantageux de l’invention, le dispositif informatique comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :

  • des circuits de réception d’une deuxième vidéo, la deuxième vidéo étant une vidéo en direct qui représente au moins une portion d’une deuxième visage et au moins une portion d’un deuxième applicateur ;
  • des circuits permettant d’aligner la trajectoire relative de l’applicateur sur un ou plusieurs repères du deuxième visage et
  • des circuits de génération d’une présentation de la trajectoire relative de l’applicateur à fournir en association avec la capture de la deuxième vidéo.
  • des circuits pour fournir la présentation de la trajectoire relative de l’applicateur sous forme d’images superposées sur la deuxième vidéo.
  • des circuits pour présenter la trajectoire relative de l’applicateur en :
According to other advantageous aspects of the invention, the computing device comprises one or more of the following characteristics, taken in isolation or in all technically possible combinations:
  • circuits for receiving a second video, the second video being a live video which represents at least one portion of a second face and at least one portion of a second applicator;
  • circuits making it possible to align the relative trajectory of the applicator on one or more marks of the second face and
  • circuitry for generating a presentation of the relative trajectory of the applicator to be provided in association with the capture of the second video.
  • circuitry to provide presentation of the relative trajectory of the applicator in the form of images superimposed on the second video.
  • circuits to present the relative trajectory of the applicator by:

comparant un emplacement détecté du deuxième applicateur avec la trajectoire relative de l’applicateur etcomparing a detected location of the second applicator with the relative trajectory of the applicator and

fournissant un retour haptique pour déterminer que l’emplacement détecté du deuxième applicateur est en dehors de la trajectoire relative de l’applicateur.

  • la génération de la présentation de la trajectoire relative de l’applicateur à fournir en association avec la capture de la deuxième vidéo comprenant la présentation de la trajectoire relative de l’applicateur sur un affichage du dispositif informatique avec la deuxième vidéo pendant la capture de la deuxième vidéo.
providing haptic feedback to determine that the detected location of the second applicator is outside the relative trajectory of the applicator.
  • generating the presentation of the relative trajectory of the applicator to be provided in association with capturing the second video including presenting the relative trajectory of the applicator on a display of the computing device with the second video while capturing the second video.

Les aspects précédents et de nombreux avantages connexes de cette invention seront plus facilement appréciés à mesure qu’ils seront mieux compris en se référant à la description détaillée suivante, lorsqu’elle est prise conjointement avec les dessins d’accompagnement, sur lesquels :The foregoing aspects and many related advantages of this invention will be more readily appreciated as they become better understood by reference to the following detailed description, when taken in conjunction with the accompanying drawings, in which:

La représente un schéma fonctionnel qui illustre les aspects d’un exemple non limitatif de mode de réalisation d’un dispositif informatique mobile selon divers aspects de la présente divulgation. There represents a block diagram that illustrates aspects of a non-limiting exemplary embodiment of a mobile computing device according to various aspects of the present disclosure.

La représente un schéma qui illustre un exemple non limitatif de mode de réalisation d’un système qui permet de partager des trajectoires relatives de l'applicateur entre des sujets selon divers aspects de la présente divulgation. There represents a diagram which illustrates a non-limiting example of an embodiment of a system which allows relative trajectories of the applicator to be shared between subjects according to various aspects of the present disclosure.

La est une illustration représentant un exemple non limitatif de mode de réalisation d’une vidéo capturée d’un visage d’un sujet selon divers aspects de la présente divulgation. There is an illustration depicting a non-limiting example embodiment of a captured video of a subject's face according to various aspects of the present disclosure.

[Fig 4A-4B] Les Figures 4A et 4B sont un organigramme qui illustre un exemple de mode de réalisation non limitatif d’un procédé d’instrumentation des applications de maquillage et de génération de présentations selon divers aspects de la présente divulgation.[Fig 4A-4B] Figures 4A and 4B are a flowchart which illustrates an example of a non-limiting embodiment of a method of instrumenting makeup applications and generating presentations according to various aspects of the present disclosure.

La illustre un exemple non limitatif de mode de réalisation d’une image d’une première vidéo d’un procédé d’application de maquillage selon divers aspects de la présente divulgation. There illustrates a non-limiting example of an embodiment of an image of a first video of a makeup application method according to various aspects of the present disclosure.

La illustre un exemple non limitatif de mode de réalisation d’une image d’une seconde vidéo avec des images superposées selon divers aspects de la présente divulgation. There illustrates a non-limiting example of an embodiment of an image of a second video with superimposed images according to various aspects of the present disclosure.

Description détailléedetailed description

Il est de plus en plus courant que les techniques d’application du maquillage soient partagées entre les personnes. Cependant, les tutoriels de maquillage sont généralement une vidéo d’une personne qui s’applique du maquillage sur elle-même, et un spectateur doit trouver comment adapter l’application du maquillage à sa propre structure faciale. De plus, aucun guidage en direct n’est fourni pendant que l’observateur tente de recréer l’application du maquillage. Ce qui est souhaité, ce sont des systèmes qui fournissent des présentations qui aident à améliorer l’application du maquillage et à l’adapter à une application de démonstration malgré les différences de structure faciale entre le démonstrateur et l’applicateur.It is becoming more and more common for makeup application techniques to be shared between people. However, makeup tutorials are usually a video of a person applying makeup on themselves, and a viewer must figure out how to tailor the makeup application to their own facial structure. Additionally, no live guidance is provided as the viewer attempts to recreate makeup application. What is desired are systems that provide presentations that help improve makeup application and make it suitable for demonstration application despite differences in facial structure between the demonstrator and applicator.

Dans des modes de réalisation de la présente divulgation, un premier sujet utilise un dispositif informatique d’instrumentation pour enregistrer une application de maquillage. À partir de cet enregistrement, une trajectoire relative de l’applicateur est déterminée qui spécifie les emplacements d’un applicateur de maquillage pendant l’application. La trajectoire relative de l’applicateur est définie par rapport aux distances à partir de différents repères faciaux, de sorte que la trajectoire relative de l’applicateur peut être présentée par rapport aux autres visages en calculant les distances à partir des différents repères faciaux des autres visages. Des présentations comprenant, entre autres, des contours fantômes d’applicateurs, un retour audio, un retour haptique ou des invites visuelles peuvent être générées afin d’aider un deuxième sujet à guider un applicateur le long de la trajectoire relative de l’applicateur et ainsi améliorer l’application du maquillage par le deuxième sujet.In embodiments of the present disclosure, a first subject uses an instrumentation computing device to record a makeup application. From this recording, a relative applicator trajectory is determined that specifies the locations of a makeup applicator during application. The relative trajectory of the applicator is defined with respect to the distances from different facial landmarks, so that the relative trajectory of the applicator can be presented relative to other faces by calculating the distances from different facial landmarks of others faces. Presentations including, among other things, phantom outlines of applicators, audio feedback, haptic feedback or visual prompts may be generated to assist a second subject in guiding an applicator along the relative trajectory of the applicator and thus improving the application of makeup by the second subject.

La représente un schéma fonctionnel qui illustre les aspects d’un exemple non limitatif de mode de réalisation d’un dispositif informatique mobile selon divers aspects de la présente divulgation. Bien que le dispositif informatique d’instrumentation illustré 110 puisse typiquement être un dispositif informatique mobile tel qu’un smartphone ou une tablette, dans certains modes de réalisation, le dispositif informatique d’instrumentation 110 peut être mis en œuvre par tout dispositif informatique ou ensemble de dispositifs informatiques, y compris, entre autres, un dispositif informatique de bureau, un dispositif informatique portable, un dispositif informatique mobile, un dispositif informatique de serveur, un dispositif informatique d’un dispositif informatique en nuage et/ou des combinaisons de ceux-ci. Comme abordé plus en détail ci-dessous, le dispositif informatique d’instrumentation 110 est configuré pour surveiller l’application du maquillage afin de déterminer les trajectoires des applicateurs pendant l’application et de présenter des informations basées sur les trajectoires déterminées afin d’appliquer ultérieurement le maquillage.There represents a block diagram that illustrates aspects of a non-limiting exemplary embodiment of a mobile computing device according to various aspects of the present disclosure. Although the illustrated instrumentation computing device 110 may typically be a mobile computing device such as a smartphone or tablet, in some embodiments the instrumentation computing device 110 may be implemented by any computing device or set computing devices, including, but not limited to, a desktop computing device, a portable computing device, a mobile computing device, a server computing device, a computing device of a cloud computing device and/or combinations thereof this. As discussed in more detail below, the instrumentation computing device 110 is configured to monitor the application of makeup to determine the trajectories of the applicators during application and present information based on the determined trajectories in order to apply later the makeup.

Comme illustré, le dispositif informatique d’instrumentation 110 inclut un ou plusieurs processeurs 102, une ou plusieurs interfaces de communication 104, une banque de données de trajectoires 108; une caméra 11116 et un support lisible par ordinateur 106.As illustrated, the instrumentation computing device 110 includes one or more processors 102, one or more communication interfaces 104, a trajectory database 108; a camera 11116 and a computer readable medium 106.

Telle qu'utilisée ici, l'expression « banque de données » comporte, notamment, tout dispositif approprié configuré pour stocker des données en vue d’un accès par un dispositif informatique. Un exemple de banque de données est un système de gestion de base de données (DBMS) relationnelle extrêmement fiable et rapide qui s’exécute sur un ou plusieurs dispositifs informatiques et est accessible sur un réseau à grande vitesse. Un autre exemple de banque de données est une banque de valeurs de clés. Toutefois, toute autre technique et/ou tout autre dispositif de stockage approprié(e) capable de fournir rapidement et de manière fiable les données stockées en réponse à des requêtes peut être utilisé(e), et le dispositif informatique peut être accessible localement au lieu d’être connecté à un réseau, ou peut être fourni sous forme d'un service en nuage. Une banque de données peut également inclure des données stockées d'une manière organisée sur un support de stockage lisible par ordinateur, tel qu’un disque dur, une mémoire flash, une RAM, une ROM ou tout autre type de support de stockage lisible par ordinateur. Un homme du métier reconnaîtra que des banques de données distinctes décrites ici peuvent être combinées en une seule banque de données, et/ou qu'une seule banque de données décrite ici peut être séparée en plusieurs banques de données, sans s’écarter du champ d’application de la présente divulgation.As used herein, the expression "data bank" includes, in particular, any suitable device configured to store data for access by a computing device. An example of a database is a highly reliable and fast relational database management system (DBMS) that runs on one or more computing devices and is accessible over a high-speed network. Another example of a data store is a key value store. However, any other suitable storage technique and/or device capable of quickly and reliably providing the stored data in response to queries may be used, and the computing device may be accessible locally instead. to be connected to a network, or can be provided as a cloud service. A database may also include data stored in an organized manner on a computer-readable storage medium, such as a hard drive, flash memory, RAM, ROM, or any other type of computer-readable storage medium. computer. One skilled in the art will recognize that separate data banks described herein may be combined into a single data bank, and/or that a single data bank described herein may be separated into several data banks, without departing from the scope application of this disclosure.

Tel qu’utilisée ici, l'expression « support lisible par ordinateur » comporte, notamment, un dispositif amovible ou non amovible qui met en œuvre toute technologie capable de stocker des informations d'une manière volatile ou non volatile pour qu'elles soient lues par un processeur d’un dispositif informatique, y compris, notamment : un disque dur ; une mémoire flash ; un disque statique à semi-conducteurs ; une mémoire vive (RAM) ; une mémoire morte (ROM) ; un CD-ROM, un DVD ou un autre stockage sur disque ; une cassette magnétique ; une bande magnétique et une mémoire à disque magnétique.As used here, the expression "computer readable medium" includes, in particular, a removable or non-removable device which implements any technology capable of storing information in a volatile or non-volatile manner so that it can be read by a processor of a computing device, including, in particular: a hard disk; flash memory; a solid-state static disk; random access memory (RAM); a read only memory (ROM); a CD-ROM, DVD or other disk storage; a magnetic cassette; a magnetic tape and a magnetic disk memory.

Dans certains modes de réalisation, les processeurs 102 comportent tout type approprié de processeur informatique à usage général. Dans certains modes de réalisation, les processeurs 102 comportent un ou plusieurs processeurs informatiques à usage spécial ou accélérateurs d’IA /optimisés pour des tâches informatiques spécifiques, y compris, mais sans s'y limiter, des unités de traitement graphique (GPU), des unités de traitement de vision (VPT) et des Tensor Processing Units (TPU).In some embodiments, the processors 102 include any suitable type of general purpose computer processor. In some embodiments, the processors 102 include one or more special purpose computer processors or AI accelerators optimized for specific computing tasks, including, but not limited to, graphics processing units (GPUs), vision processing units (VPT) and Tensor Processing Units (TPU).

Dans certains modes de réalisation, les interfaces de communication 104 incluent une ou plusieurs interfaces matérielles et/ou logicielles adaptées pour fournir des liens de communication entre constituants. Les interfaces de communication 104 peuvent prendre en charge une ou plusieurs technologies de communication par câble (y compris, notamment, Ethernet, FireWire et USB), une ou plusieurs technologies de communication sans fil (y compris, notamment Wi-Fi, WiMAX, Bluetooth, 2G, 3G, 4G, 5G et LTE), et/ou des combinaisons de ces technologies.In certain embodiments, the communication interfaces 104 include one or more hardware and/or software interfaces adapted to provide communication links between constituents. The communications interfaces 104 may support one or more cable communications technologies (including, but not limited to, Ethernet, FireWire, and USB), one or more wireless communications technologies (including, but not limited to, Wi-Fi, WiMAX, Bluetooth , 2G, 3G, 4G, 5G and LTE), and/or combinations of these technologies.

Dans certains modes de réalisation, la caméra 116 comprend tout type de caméra numérique ou combinaison de deux caméras numériques ou plus configurées pour capturer au moins une partie d’un visage d’un sujet. Dans certains modes de réalisation, la caméra 116 capture des images en utilisant la lumière visible, des images en utilisant la lumière à infrarouges, des informations de profondeur et/ou tout autre type d’information sur les images. Certains exemples non limitatifs de modes de réalisation de dispositifs pouvant être utilisés comme caméra 116, seuls ou en combinaison avec d’autres dispositifs, incluent une caméra frontale d’un dispositif informatique mobile, une caméra stéréoscopique et une caméra temps de vol. Dans certains modes de réalisation, la caméra 116 comporte un ou plusieurs capteurs optiques, capteurs d’image, transducteurs optiques, ou similaires.In some embodiments, camera 116 includes any type of digital camera or combination of two or more digital cameras configured to capture at least a portion of a subject's face. In some embodiments, camera 116 captures images using visible light, images using infrared light, depth information, and/or any other type of image information. Some non-limiting example embodiments of devices that can be used as a camera 116, alone or in combination with other devices, include a front-facing camera of a mobile computing device, a stereoscopic camera, and a time-of-flight camera. In some embodiments, camera 116 includes one or more optical sensors, image sensors, optical transducers, or the like.

Comme le montre l’illustration, le support lisible par ordinateur 106 stocke une logique qui, en réponse à son exécution par un ou plusieurs processeurs 102, amène le périphérique informatique mobile 110 à fournir un moteur de détection de visage 112, un moteur de détermination de trajectoire 114 et un moteur de présentation de trajectoire 118.As shown in the illustration, the computer readable medium 106 stores logic which, in response to execution by one or more processors 102, causes the mobile computing device 110 to provide a face detection engine 112, a determination engine trajectory 114 and a trajectory presentation engine 118.

Tel qu’utilisé ici, le terme « moteur » inclut, notamment, la logique incarnée dans les instructions matérielles ou logicielles, qui peuvent être écrites dans un ou plusieurs langages de programmation, y compris, notamment, C, C++, C#, COBOL, JAVA™, PHP, Perl, HTML, CSS, JavaScript, VBScript, ASPX, Go et Python. Un moteur peut être compilé dans des programmes exécutables ou écrit dans des langages de programmation interprétés. Les moteurs logiciels peuvent être appelés à partir d’autres moteurs ou à partir d’eux-mêmes. En général, les moteurs décrits dans les présentes font référence à des modules logiques qui peuvent être fusionnés avec d’autres moteurs ou peuvent être divisés en sous-moteurs. Les moteurs peuvent être mis en œuvre par une logique stockée dans tout type de support ou périphérique de stockage informatique lisible par ordinateur et être stockée et exécutée par un ou plusieurs ordinateurs à usage général, créant ainsi un ordinateur à usage spécial configuré pour fournir le moteur ou sa fonctionnalité. Les moteurs peuvent être mis en œuvre par une logique programmée dans des circuits intégrés spécifiques à l’application (ASIC), un réseau prédiffusé programmable par l'utilisateur (FPGA) ou un autre dispositif matériel.As used herein, the term "engine" includes, in particular, logic embodied in hardware or software instructions, which may be written in one or more programming languages, including, but not limited to, C, C++, C#, COBOL, JAVA™, PHP, Perl, HTML, CSS, JavaScript, VBScript, ASPX, Go and Python. An engine can be compiled into executable programs or written in interpreted programming languages. Software engines can be called from other engines or from themselves. In general, the engines described herein refer to logic modules that may be merged with other engines or may be divided into sub-engines. The engines may be implemented by logic stored in any type of computer-readable computer storage media or device and be stored and executed by one or more general-purpose computers, thereby creating a special-purpose computer configured to provide the engine or its functionality. The motors may be implemented by programmed logic in application-specific integrated circuits (ASICs), a field-programmable gate array (FPGA), or other hardware device.

Dans certains modes de réalisation, le moteur de détection faciale 112 est configuré pour utiliser les informations collectées par la caméra 116 pour construire un modèle d’un visage d’un sujet, et pour détecter des repères faciaux dans le modèle. Dans certains modes de réalisation, le moteur de détermination de trajectoire 114 est configuré pour déterminer une trajectoire tracée par un applicateur pendant l’application de maquillage sur le visage sur la base d’une ou plusieurs informations collectées par la caméra 116 et des données de capteur de mouvement associées à l’applicateur et reçues via une interface de communication 104. Dans certains modes de réalisation, le moteur de détermination de trajectoire 114 détermine la trajectoire par rapport aux repères faciaux détectés par le moteur de détection de visage 112, et stocke la trajectoire relative de l'applicateur dans la banque de données de trajectoires 108. Dans certains modes de réalisation, le moteur de présentation de trajectoires 118 est configuré pour générer une présentation d’une trajectoire relative de l'applicateur à partir de la banque de données de trajectoires 108 pour aider à améliorer une application ultérieure de maquillage.In some embodiments, facial detection engine 112 is configured to use information collected by camera 116 to construct a model of a subject's face, and to detect facial landmarks in the model. In some embodiments, the trajectory determination engine 114 is configured to determine a trajectory traced by an applicator during application of makeup to the face based on one or more information collected by the camera 116 and data from motion sensor associated with the applicator and received via a communication interface 104. In certain embodiments, the trajectory determination engine 114 determines the trajectory with respect to the facial landmarks detected by the face detection engine 112, and stores the relative trajectory of the applicator in the trajectory database 108. In some embodiments, the trajectory presentation engine 118 is configured to generate a presentation of a relative trajectory of the applicator from the bank of trajectory data 108 to help improve subsequent makeup application.

Dans certains modes de réalisation, le moteur de détermination de trajectoires 114 inclut un ensemble de circuits de calcul configuré pour générer un score de prédiction par pixel pour une présence ou une absence d’un applicateur dans une image en utilisant un ou plusieurs classificateurs d’images de réseau neuronal convolutif. Dans certains modes de réalisation, le moteur de détermination de trajectoires 114 inclut un ensemble de circuits de calcul configuré pour prédire une trajectoire traversée par l’applicateur et pour générer un affichage virtuel de la trajectoire traversée par l’applicateur prédite sur au moins une partie du visage de l’utilisateur sur la base des scores de prédiction par pixel pour la présence ou l’absence de l’applicateur dans l’image.In some embodiments, the trajectory determination engine 114 includes computational circuitry configured to generate a per-pixel prediction score for a presence or absence of an applicator in an image using one or more image classifiers. convolutional neural network images. In some embodiments, the trajectory determination engine 114 includes computational circuitry configured to predict a trajectory traversed by the applicator and to generate a virtual display of the predicted trajectory traversed by the applicator on at least a portion of the user's face based on per-pixel prediction scores for the presence or absence of the applicator in the image.

Une description plus détaillée de la configuration de chacun de ces constituants est fournie ci-après.A more detailed description of the configuration of each of these constituents is provided below.

Si générer une présentation d’une trajectoire relative de l'applicateur à un sujet qui a enregistré la trajectoire relative de l'applicateur peut être utile pour soutenir une application cohérente et reproductible du maquillage par le sujet, un avantage offert par des modes de réalisation de la présente divulgation qui utilisent des trajectoires relatives de l'applicateur définies par rapport aux repères faciaux est la capacité à partager entre les sujets des trajectoires relatives de l'applicateur. La représente un schéma qui illustre un exemple non limitatif de mode de réalisation d’un système qui permet de partager des trajectoires relatives de l'applicateur entre des sujets selon divers aspects de la présente divulgation. Comme illustré, le système 200 comprend un premier dispositif informatique d’instrumentation 202 utilisé par un premier sujet 208, un second dispositif informatique d’instrumentation 204 utilisé par un deuxième sujet 210 et un troisième dispositif informatique d’instrumentation 206 utilisé par un troisième sujet 212. Bien que trois dispositifs informatiques d’instrumentation et sujets soient illustrés sur la , dans certains modes de réalisation, un nombre plus ou moins important de dispositifs informatiques d’instrumentation et de sujets peuvent être présents dans le système 200.While generating a presentation of a relative applicator trajectory to a subject who has recorded the relative applicator trajectory may be useful in supporting consistent and repeatable application of makeup by the subject, a benefit provided by embodiments of the present disclosure that use relative applicator trajectories defined with respect to facial landmarks is the ability to share relative applicator trajectories between subjects. There represents a diagram which illustrates a non-limiting example of an embodiment of a system which allows relative trajectories of the applicator to be shared between subjects according to various aspects of the present disclosure. As illustrated, the system 200 includes a first instrumentation computing device 202 used by a first subject 208, a second instrumentation computing device 204 used by a second subject 210, and a third instrumentation computing device 206 used by a third subject 212. Although three computer instrumentation devices and subjects are illustrated on the , in some embodiments, a greater or lesser number of instrumentation computing devices and subjects may be present in the system 200.

Le premier sujet 208 peut utiliser le premier dispositif informatique d’instrumentation 202 pour déterminer et enregistrer une trajectoire relative de l'applicateur, que le premier dispositif informatique d’instrumentation 202 transmet ensuite à un système informatique de gestion de trajectoires 214. Le système informatique de gestion de trajectoires 214 transmet ensuite la trajectoire relative de l’applicateur au deuxième dispositif informatique d’instrumentation 204 et au troisième dispositif informatique d’instrumentation 206.The first subject 208 may use the first instrumentation computing device 202 to determine and record a relative trajectory of the applicator, which the first instrumentation computing device 202 then transmits to a trajectory management computing system 214. The computing system trajectory management system 214 then transmits the relative trajectory of the applicator to the second computer instrumentation device 204 and to the third computer instrumentation device 206.

Étant donné que la trajectoire relative de l’applicateur est enregistrée par le premier sujet 208 mais est définie par rapport aux repères faciaux, les mêmes repères faciaux peuvent être déterminés pour d’autres sujets, et la trajectoire relative de l’applicateur peut être présentée aux autres sujets comme s’il l’avait initialement enregistrée. En d’autres termes, le deuxième dispositif informatique d’instrumentation 204 peut présenter la trajectoire relative de l’applicateur pour correspondre aux caractéristiques faciales du deuxième sujet 210 et le troisième dispositif informatique d’instrumentation 206 peut présenter la trajectoire relative de l’applicateur pour correspondre aux caractéristiques faciales du troisième sujet 212.Since the relative trajectory of the applicator is recorded by the first subject 208 but is defined relative to the facial landmarks, the same facial landmarks can be determined for other subjects, and the relative trajectory of the applicator can be presented to other subjects as if he had initially recorded it. In other words, the second instrumentation computing device 204 may present the relative trajectory of the applicator to match the facial characteristics of the second subject 210 and the third instrumentation computing device 206 may present the relative trajectory of the applicator to match the facial characteristics of the third subject 212.

Dans certains modes de réalisation, le système informatique de gestion de trajectoires 214 offre une variété de fonctionnalités qui est rendue possible par la capacité d’échanger des trajectoires relatives de l'applicateur entre les sujets. Par exemple, dans certains modes de réalisation, le système informatique de gestion de trajectoires 214 peut fournir une interface qui permet à un deuxième sujet 210 de rechercher des tutoriels d’applications de maquillage particulières (par exemple, un eyeliner œil de chat, des yeux charbonneux, etc.). Le système informatique de gestion de trajectoire 214 peut fournir une ou plusieurs trajectoires relatives de l'applicateur pertinentes au deuxième dispositif informatique d’instrumentation 204 pour créer l’aspect généré par, éventuellement, le premier sujet 208 utilisant le premier dispositif informatique d’instrumentation 202, et le deuxième dispositif informatique d’instrumentation 204 présente les trajectoires relatives de l'applicateur au deuxième sujet 210. Un tel mode de réalisation peut être utile aux influenceurs et à d’autres pour se développer un public et améliorer la capacité à guider les sujets à travers des tutoriels de maquillage.In some embodiments, the trajectory management computer system 214 provides a variety of functionality that is made possible by the ability to exchange relative applicator trajectories between subjects. For example, in some embodiments, the trajectory management computer system 214 may provide an interface that allows a second subject 210 to search for tutorials of particular makeup applications (e.g., cat eye eyeliner, eyeliner sooty, etc.). The trajectory management computing system 214 may provide one or more relative applicator trajectories relevant to the second instrumentation computing device 204 to create the appearance generated by, optionally, the first subject 208 using the first instrumentation computing device 202, and the second instrumentation computing device 204 presents the relative trajectories of the applicator to the second subject 210. Such an embodiment may be useful to influencers and others in developing an audience and improving the ability to guide topics through makeup tutorials.

À titre d’autre exemple, dans certains modes de réalisation, le système informatique de gestion de trajectoire 214 peut fournir une interface de connexion sociale qui permet aux sujets de se connecter entre eux pour fournir des informations de préférence relatives aux apparences, couleurs et/ou produits ; partager des trajectoires relatives de l'applicateur ; examiner les trajectoires relatives de l'applicateur publiés par d’autres et ainsi de suite. L’interface de connexion sociale peut ensuite utiliser un moteur de recommandation pour déterminer une ou plusieurs trajectoires relatives de l'applicateur recommandées qu’un sujet peut souhaiter en fonction de ses informations de préférence et des revues qui ont été publiées, et peut fournir pour présentation les trajectoires relatives de l'applicateur recommandées au dispositif informatique d’instrumentation associé au sujet.As another example, in some embodiments, the trajectory management computer system 214 may provide a social connection interface that allows subjects to connect with each other to provide preference information relating to appearances, colors and/or appearances. or products; share relative trajectories of the applicator; review relative applicator trajectories published by others and so on. The social connection interface may then use a recommendation engine to determine one or more relative recommended applicator trajectories that a subject may desire based on their preference information and reviews that have been published, and may provide for presentation of the relative trajectories of the recommended applicator to the instrumentation computing device associated with the subject.

La est une illustration représentant un exemple non limitatif de mode de réalisation d’une vidéo capturée d’un visage d’un sujet selon divers aspects de la présente divulgation. Dans certains modes de réalisation, la vidéo peut être présentée sur un affichage d’un dispositif informatique d’instrumentation (tel qu’un dispositif informatique mobile) pendant que la vidéo est capturée, bien que le dispositif informatique d’instrumentation lui-même ne soit pas illustré sur la (ou le reste des illustrations de la présente divulgation) dans un souci de clarté.There is an illustration depicting a non-limiting example embodiment of a captured video of a subject's face according to various aspects of the present disclosure. In some embodiments, the video may be presented on a display of an instrumentation computing device (such as a mobile computing device) while the video is captured, although the instrumentation computing device itself does not is not illustrated on the (or the rest of the illustrations in this disclosure) for the sake of clarity.

La illustre quelques exemples non limitatifs de repères faciaux qui peuvent être détectés par le moteur de détection faciale 112. Comme illustré, la vidéo comprend une aile 302, ou « aile » du nez ; une « narine » 304, un angle palpébral interne de l'œil 306 ; un angle palpébral externe de l'œil 308 ; un point nasal 310, une jonction médiane entre les yeux et sous les sourcils. Dans certains modes de réalisation, d’autres repères faciaux, y compris, entre autres, des caractéristiques des lèvres, des oreilles, de la structure osseuse et/ou d’autres repères faciaux, peuvent être détectés. Dans certains modes de réalisation, le contour de surface du visage peut lui-même être utilisé comme repère facial. En trouvant ces repères faciaux dans un modèle du visage dans la vidéo, il est possible de déterminer et d’enregistrer une trajectoire relative de l'applicateur (par rapport aux repères faciaux).There illustrates some non-limiting examples of facial landmarks that can be detected by the facial detection engine 112. As illustrated, the video includes a wing 302, or “wing” of the nose; a “nostril” 304, an internal palpebral angle of the eye 306; an external palpebral angle of the eye 308; a nasal point 310, a median junction between the eyes and under the eyebrows. In some embodiments, other facial landmarks, including, among others, features of lips, ears, bone structure, and/or other facial landmarks, may be detected. In some embodiments, the surface contour of the face may itself be used as a facial cue. By finding these facial landmarks in a model of the face in the video, it is possible to determine and record a relative trajectory of the applicator (relative to the facial landmarks).

La Figure 4A - et la Figure 4B sont un organigramme qui illustre un exemple de mode de réalisation non limitatif d’un procédé d’instrumentation des applications de maquillage et de génération de présentations selon divers aspects de la présente divulgation. Dans la méthode 400, une trajectoire relative de l’applicateur est déterminée lors de l’enregistrement d’une application de maquillage. La trajectoire relative de l’applicateur peut ensuite être utilisée pour générer des présentations lors d’une deuxième application de maquillage afin d’améliorer la deuxième application de maquillage, comme décrit ci-dessus.Figure 4A - and Figure 4B are a flowchart which illustrates an example of a non-limiting embodiment of a method for instrumenting makeup applications and generating presentations according to various aspects of the present disclosure. In method 400, a relative trajectory of the applicator is determined when recording a makeup application. The relative trajectory of the applicator can then be used to generate presentations during a second makeup application to enhance the second makeup application, as described above.

À partir d’un bloc de départ, la méthode 400 passe au bloc optionnel 402, où un premier capteur de mouvement est associé à un premier applicateur. Dans certains modes de réalisation, le premier capteur de mouvement comporte un accéléromètre à trois, six ou neuf axes qui génère des signaux représentant une orientation, une position et/ou un mouvement du capteur de mouvement (et, par association, de tout objet auquel le capteur de mouvement est attaché). Dans certains modes de réalisation, d’autres types de capteurs de mouvement, y compris, entre autres, un capteur photo, une caméra, un capteur magnétique, un capteur tomographique, un capteur à infrarouges, un capteur à ultrasons, un capteur de force, et/ou des combinaisons de ceux-ci.From a starting block, method 400 proceeds to optional block 402, where a first motion sensor is associated with a first applicator. In some embodiments, the first motion sensor includes a three-, six-, or nine-axis accelerometer that generates signals representing an orientation, position, and/or movement of the motion sensor (and, by association, any object to which it is directed). motion sensor is attached). In some embodiments, other types of motion sensors, including, among others, a photo sensor, a camera, a magnetic sensor, a tomographic sensor, an infrared sensor, an ultrasonic sensor, a force sensor , and/or combinations thereof.

Le capteur de mouvement peut être associé au premier applicateur de n’importe quelle manière appropriée. Par exemple, le capteur de mouvement peut être intégré dans un boîtier du premier applicateur ou relié de manière permanente au premier applicateur. Autre exemple : le capteur de mouvement peut être couplé de manière amovible au premier applicateur, par exemple à l’aide d’un clip, d’une sangle, d’un cliquet, d’une poche ou de tout autre moyen d’accouplement amovible. Autre exemple : le capteur de mouvement peut être fixé à un gant, une montre ou un autre dispositif portable porté par le sujet sur la main tenant le premier applicateur.The motion sensor may be associated with the first applicator in any suitable manner. For example, the motion sensor may be integrated into a housing of the first applicator or permanently connected to the first applicator. Another example: the motion sensor can be removably coupled to the first applicator, for example using a clip, a strap, a ratchet, a pocket or any other means of coupling removable. Another example: the motion sensor may be attached to a glove, a watch or other portable device worn by the subject on the hand holding the first applicator.

Au bloc optionnel 404, le premier capteur de mouvement est couplé à un premier dispositif informatique d’instrumentation 110. Dans certains modes de réalisation, le premier capteur de mouvement communique via Bluetooth, Wi-Fi ou une autre technologie de communication sans fil, et le couplage du premier capteur de mouvement avec le premier dispositif informatique d’instrumentation 110 entraîne la transmission d’informations par le premier capteur de mouvement au premier dispositif informatique d’instrumentation 110. Dans certains modes de réalisation, le couplage du premier capteur de mouvement avec le premier dispositif informatique d’instrumentation 110 peut inclure l’utilisation de la caméra 116 du premier dispositif informatique d’instrumentation 110 pour scanner un identifiant du premier capteur de mouvement. Les blocs 402 et 404 sont décrits comme étant facultatifs parce que, dans certains modes de réalisation, le procédé 400 peut fonctionner en utilisant les informations vidéo sans les informations du capteur de mouvement.At option block 404, the first motion sensor is coupled to a first instrumentation computing device 110. In some embodiments, the first motion sensor communicates via Bluetooth, Wi-Fi or other wireless communication technology, and coupling the first motion sensor with the first instrumentation computing device 110 causes the first motion sensor to transmit information to the first instrumentation computing device 110. In some embodiments, coupling the first motion sensor with the first instrumentation computing device 110 may include using the camera 116 of the first instrumentation computing device 110 to scan an identifier of the first motion sensor. Blocks 402 and 404 are described as optional because, in some embodiments, the method 400 can operate using the video information without the motion sensor information.

Au bloc 406, une caméra 116 associée au premier dispositif informatique d’instrumentation 110 capture une première vidéo d’un procédé d’application de maquillage, la première vidéo représentant au moins une partie d’un visage d’un premier sujet et au moins une partie du premier applicateur. Dans certains modes de réalisation, la première vidéo comprend une représentation bidimensionnelle d’une scène qui inclut la partie du visage du premier sujet et la partie du premier applicateur. Dans certains modes de réalisation, la première vidéo comprend une représentation tridimensionnelle de la scène. Dans certains modes de réalisation, la première vidéo inclut des informations de profondeur pour accompagner la représentation bidimensionnelle de la scène.In block 406, a camera 116 associated with the first instrumentation computing device 110 captures a first video of a makeup application process, the first video representing at least part of a face of a first subject and at least part of the first applicator. In some embodiments, the first video includes a two-dimensional representation of a scene that includes the facial portion of the first subject and the portion of the first applicator. In some embodiments, the first video includes a three-dimensional representation of the scene. In some embodiments, the first video includes depth information to accompany the two-dimensional representation of the scene.

La illustre un exemple non limitatif de mode de réalisation d’une image d’une première vidéo d’un procédé d’application de maquillage selon divers aspects de la présente divulgation. L’image représentée sur la est un exemple non limitatif d’image d’une première vidéo capturée au bloc 406. Dans l’image, une partie du visage du premier sujet est visible et le premier sujet applique le maquillage à l’aide du premier applicateur 502. Dans le mode de réalisation illustré, le premier applicateur 502 est un crayon eye-liner, et le maquillage appliqué 504 est un eye-liner, mais ces exemples ne doivent pas être considérés comme limitatifs. Dans d’autres exemples, le premier applicateur 502 peut être un pinceau, une éponge, une pince, une houppette, une imprimante de maquillage ou tout autre type d’outil utilisable pour appliquer le maquillage. Dans d’autres exemples, le maquillage 504 appliqué peut être un rouge à lèvres, un blush, un mascara, un fond de teint, un correcteur ou tout autre type de maquillage.There illustrates a non-limiting example of an embodiment of an image of a first video of a makeup application method according to various aspects of the present disclosure. The image shown on the is a non-limiting example of an image from a first video captured in block 406. In the image, part of the face of the first subject is visible and the first subject applies makeup using the first applicator 502. In the illustrated embodiment, the first applicator 502 is an eyeliner pencil, and the applied makeup 504 is an eyeliner, but these examples should not be considered limiting. In other examples, the first applicator 502 may be a brush, sponge, tweezers, powder puff, makeup printer, or any other type of tool that can be used to apply makeup. In other examples, the makeup 504 applied may be lipstick, blush, mascara, foundation, concealer, or any other type of makeup.

Si nous revenons à la Figure 4A, le procédé 400 passe au bloc facultatif 408, où un moteur de détermination de trajectoire 114 du premier dispositif informatique d’instrumentation 110 reçoit des signaux du premier capteur de mouvement pendant la capture de la première vidéo. Les signaux indiquent l’orientation, la position et/ou le mouvement du premier capteur de mouvement, et donc du premier applicateur, pendant la vidéo. Dans certains modes de réalisation, le moteur de détermination de trajectoire 114 corrèle ces signaux avec la représentation du premier applicateur dans la première vidéo. Les actions du bloc 408 sont illustrées et décrites comme facultatives car, dans certains modes de réalisation, le procédé 400 peut fonctionner en utilisant les données vidéo sans les signaux du capteur de mouvement.Returning to Figure 4A, process 400 proceeds to optional block 408, where a trajectory determination engine 114 of the first instrumentation computing device 110 receives signals from the first motion sensor while capturing the first video. The signals indicate the orientation, position and/or movement of the first motion sensor, and therefore of the first applicator, during the video. In some embodiments, the trajectory determination engine 114 correlates these signals with the representation of the first applicator in the first video. The actions of block 408 are illustrated and described as optional because, in some embodiments, the method 400 can operate using the video data without the motion sensor signals.

Au bloc 410, un moteur de détection faciale 112 du premier dispositif informatique d’instrumentation 110 construit un modèle du visage du premier sujet sur la base de la première vidéo. Dans certains modes de réalisation, le modèle du visage peut être un modèle bidimensionnel basé sur des informations bidimensionnelles présentes dans la première vidéo. Dans certains modes de réalisation, le modèle du visage peut être un modèle tridimensionnel construit à partir d’un nuage de points dérivé d’informations de profondeur ou d’autres informations tridimensionnelles dans la première vidéo. Dans certains modes de réalisation, le modèle du visage peut être un modèle tridimensionnel construit à partir d’informations bidimensionnelles présentes dans la première vidéo en utilisant, par exemple, des techniques de traitement d’image par apprentissage automatique (par exemple, LOLNeRF développé par Google, Inc.). Dans certains modes de réalisation, la construction du modèle peut inclure des parties prédictives du modèle qui sont obscurcies dans une ou plusieurs images de la première vidéo, telles que des parties du visage qui sont cachées par le premier applicateur ou par une main du sujet. Dans certains modes de réalisation, un modèle initial du visage peut être construit sur la base d’une partie de la première vidéo capturée avec une vue non obstruée du visage (par exemple, avant le début de l’application du maquillage).At block 410, a facial detection engine 112 of the first instrumentation computing device 110 constructs a model of the face of the first subject based on the first video. In some embodiments, the facial model may be a two-dimensional model based on two-dimensional information present in the first video. In some embodiments, the facial model may be a three-dimensional model constructed from a point cloud derived from depth information or other three-dimensional information in the first video. In some embodiments, the facial model may be a three-dimensional model constructed from two-dimensional information present in the first video using, for example, machine learning image processing techniques (e.g., LOLNeRF developed by Google, Inc.). In some embodiments, construction of the model may include predictive portions of the model that are obscured in one or more frames of the first video, such as portions of the face that are obscured by the first applicator or by a hand of the subject. In some embodiments, an initial model of the face may be constructed based on a portion of the first video captured with an unobstructed view of the face (e.g., before makeup application begins).

Au bloc 412, le moteur de détection faciale 112 détecte un ou plusieurs repères faciaux dans le modèle du visage du premier sujet. Dans certains modes de réalisation, le ou les repères faciaux sont détectés sur le modèle lui-même. Dans certains modes de réalisation, le ou les repères faciaux sont détectés dans des images bidimensionnelles de la première vidéo, puis corrélés à des emplacements dans le modèle du visage. Toute technique appropriée pour détecter les repères faciaux peut être utilisée, y compris, entre autres, les routines de traitement d’image fournies par la bibliothèque dlib open source accessible au public.In block 412, the facial detection engine 112 detects one or more facial landmarks in the face model of the first subject. In some embodiments, the facial landmark(s) are detected on the model itself. In some embodiments, the facial landmark(s) are detected in two-dimensional images of the first video and then correlated to locations in the facial model. Any suitable technique for detecting facial landmarks can be used, including, among others, image processing routines provided by the publicly available open source dlib library.

Au bloc 414, un moteur de détermination de trajectoire 114 du premier dispositif informatique d’instrumentation 110 construit un modèle d’emplacements du premier applicateur basé sur la première vidéo et, en option, sur les signaux du capteur de mouvement. Dans certains modes de réalisation, le moteur de détermination de trajectoire 114 utilise des techniques similaires utilisées dans le bloc 410 pour construire le modèle du visage pour construire un modèle similaire du premier applicateur dans le même espace de coordonnées que le modèle du visage, et comme avec les techniques du bloc 410, peut générer un modèle bidimensionnel ou un modèle tridimensionnel.In block 414, a trajectory determination engine 114 of the first instrumentation computing device 110 constructs a model of locations of the first applicator based on the first video and, optionally, on the motion sensor signals. In some embodiments, the trajectory determination engine 114 uses similar techniques used in block 410 to construct the face model to construct a similar model of the first applicator in the same coordinate space as the face model, and as with block 410 techniques, can generate a two-dimensional model or a three-dimensional model.

L’utilisation du capteur de mouvement est facultative car, dans certains modes de réalisation, les informations de la première vidéo peuvent être adéquates pour construire le modèle des emplacements du premier applicateur. Dans d’autres modes de réalisation, les signaux du capteur de mouvement peuvent être utilisés pour améliorer le détail du modèle de localisation, y compris en fournissant des informations détaillées sur la rotation et l’attitude qui peuvent ne pas être facilement visibles dans la première vidéo. Les signaux du capteur de mouvement peuvent être particulièrement utiles si une grande partie du premier applicateur est masquée dans la première vidéo (par exemple, si le sujet saisit le premier applicateur à proximité d’un embout du premier applicateur, de sorte que la majeure partie du premier applicateur est masquée, etc.) ou si le premier applicateur est lisse, réfléchissant ou conçu de manière à ce que les caractéristiques détaillées du premier applicateur autres que la forme ne soient pas facilement détectables dans la première vidéo.Use of the motion sensor is optional because, in some embodiments, the information from the first video may be adequate to construct the model of the first applicator locations. In other embodiments, the motion sensor signals may be used to enhance the detail of the location model, including providing detailed rotation and attitude information that may not be readily visible at first. video. The motion sensor signals may be particularly useful if a large portion of the first applicator is obscured in the first video (for example, if the subject grips the first applicator near a tip of the first applicator, such that most of the first applicator is hidden, etc.) or if the first applicator is smooth, reflective or designed in such a way that detailed features of the first applicator other than the shape are not easily detectable in the first video.

Au bloc 416, le moteur de détermination de trajectoire 114 mesure les emplacements du premier applicateur par rapport aux un ou plusieurs repères faciaux pour déterminer une trajectoire relative de l'applicateur. Une fois que les modèles du visage et du premier applicateur sont générés, les distances relatives entre le premier applicateur et les repères du visage peuvent être facilement mesurées sur chaque image de la première vidéo. Les distances relatives pour chaque image peuvent ensuite être combinées en série pour créer la trajectoire relative de l’applicateur. La trajectoire relative de l’applicateur peut également inclure l’attitude (par exemple, angle d’incidence par rapport à une surface normale, torsion au fil du temps, etc.) du premier applicateur par rapport aux repères faciaux. Dans certains modes de réalisation, le premier applicateur peut également inclure un capteur de force qui transmet des signaux au dispositif informatique d’instrumentation 110, de sorte qu’une quantité de force avec laquelle le premier applicateur est appliqué peut être incluse dans la trajectoire relative de l’applicateur. Dans certains modes de réalisation, une quantité de force avec laquelle le premier applicateur est appliqué peut être déterminée en mesurant une quantité de déflexion d’au moins une portion du premier applicateur est visible dans la première vidéo.In block 416, the trajectory determination engine 114 measures the locations of the first applicator relative to the one or more facial landmarks to determine a relative trajectory of the applicator. Once the models of the face and the first applicator are generated, the relative distances between the first applicator and the facial landmarks can be easily measured on each frame of the first video. The relative distances for each image can then be combined in series to create the relative trajectory of the applicator. The relative trajectory of the applicator may also include the attitude (e.g., angle of incidence relative to a normal surface, twist over time, etc.) of the first applicator relative to the facial landmarks. In some embodiments, the first applicator may also include a force sensor that transmits signals to the instrumentation computing device 110, such that an amount of force with which the first applicator is applied may be included in the relative trajectory of the applicator. In some embodiments, an amount of force with which the first applicator is applied can be determined by measuring an amount of deflection of at least a portion of the first applicator is visible in the first video.

Au bloc 418, le moteur de détermination de trajectoire 114 stocke la trajectoire relative de l’applicateur dans une banque de données de trajectoire 108 du premier dispositif informatique d’instrumentation 110. Le procédé 400 passe ensuite à un terminal de poursuite (« terminal A »).In block 418, the trajectory determination engine 114 stores the relative trajectory of the applicator in a trajectory data bank 108 of the first computer instrumentation device 110. The method 400 then passes to a tracking terminal ("terminal A ").

A partir du terminal A (Figure 4B), le procédé 400 passe au bloc 420, où le moteur de détermination de trajectoire 114 transmet la trajectoire relative de l’applicateur à un système informatique de gestion de trajectoire 214, et au bloc 422, le système informatique de gestion de trajectoire 214 transmet la trajectoire relative de l’applicateur à un deuxième dispositif informatique d’instrumentation 110 pour stockage dans une banque de données de trajectoires 108 du deuxième dispositif informatique d’instrumentation 110. Comme indiqué ci-dessus, le système informatique de gestion de trajectoire 214 peut distribuer la trajectoire relative de l’applicateur au deuxième dispositif informatique d’instrumentation 110 pour diverses raisons. Par exemple, un deuxième sujet associé au second dispositif informatique d’instrumentation 110 peut parcourir les trajectoires relatives de l’applicateur ou transmettre une requête pour les trajectoires relatives de l’applicateur, et le système informatique de gestion des trajectoires 214 peut transmettre la trajectoire relative de l’applicateur au second dispositif informatique d’instrumentation 110 en réponse à la requête. À titre d’autre exemple, le système informatique de gestion de trajectoire 214 peut pousser la trajectoire relative de l’applicateur vers le deuxième dispositif informatique d’instrumentation 110 sans recevoir de demande si le système informatique de gestion de trajectoire 214 détermine que le deuxième sujet associé au deuxième dispositif informatique d’instrumentation 110 peut être intéressé par la trajectoire relative de l’applicateur.From terminal A (Figure 4B), the method 400 passes to block 420, where the trajectory determination engine 114 transmits the relative trajectory of the applicator to a trajectory management computer system 214, and to block 422, the trajectory management computer system 214 transmits the relative trajectory of the applicator to a second instrumentation computer device 110 for storage in a trajectory data bank 108 of the second instrumentation computer device 110. As indicated above, the trajectory management computer system 214 may distribute the relative trajectory of the applicator to the second instrumentation computer device 110 for various reasons. For example, a second subject associated with the second instrumentation computing device 110 may navigate the relative trajectories of the applicator or transmit a request for the relative trajectories of the applicator, and the trajectory management computing system 214 may transmit the trajectory relative of the applicator to the second computer instrumentation device 110 in response to the request. As another example, the trajectory management computer system 214 may push the relative trajectory of the applicator toward the second instrumentation computing device 110 without receiving a request if the trajectory management computer system 214 determines that the second subject associated with the second computer instrumentation device 110 may be interested in the relative trajectory of the applicator.

Au bloc optionnel 424, un second capteur de mouvement est associé à un second applicateur, et au bloc optionnel 426, le second capteur de mouvement est couplé au second dispositif informatique d’instrumentation 110. L’association du deuxième capteur de mouvement avec le deuxième applicateur et le couplage avec le deuxième dispositif informatique d’instrumentation 110 est similaire à celle évoquée ci-dessus en ce qui concerne le premier capteur de mouvement, le premier applicateur et le premier dispositif informatique d’instrumentation 110, et n’est donc pas abordée plus en détail ici par souci de concision.At the optional block 424, a second motion sensor is associated with a second applicator, and at the optional block 426, the second motion sensor is coupled to the second computer instrumentation device 110. The association of the second motion sensor with the second applicator and the coupling with the second instrumentation computing device 110 is similar to that mentioned above with regard to the first motion sensor, the first applicator and the first instrumentation computing device 110, and is therefore not discussed in more detail here for the sake of brevity.

Au bloc 428, une caméra 116 associée au second dispositif informatique d’instrumentation 110 capture une deuxième vidéo, dans laquelle la deuxième vidéo est une vidéo en direct qui représente au moins une portion d’un second visage d’un deuxième sujet et au moins une portion du deuxième applicateur. Telle qu’utilisée ici, une « vidéo en direct » est une vidéo capturée et traitée en temps réel, et qui continue d’être capturée pendant les actions ultérieures de la méthode 400. Un exemple non limitatif de capture d’une vidéo en direct est la capture d’une vidéo selfie par une caméra frontale d’un dispositif informatique mobile, où la vidéo selfie est présentée sur un écran du dispositif informatique mobile pendant que la vidéo est capturée, de sorte que l’affichage du dispositif informatique mobile ressemble à un miroir. Un autre exemple non limitatif de capture d’une vidéo en direct est la capture d’une vidéo par un autre type de caméra qui est diffusée vers le deuxième dispositif informatique d’instrumentation 110 pendant sa capture.At block 428, a camera 116 associated with the second instrumentation computing device 110 captures a second video, wherein the second video is a live video that represents at least a portion of a second face of a second subject and at least a portion of the second applicator. As used herein, "live video" is video captured and processed in real time, and which continues to be captured during subsequent actions of method 400. A non-limiting example of capturing live video is the capture of a selfie video by a front camera of a mobile computing device, where the selfie video is presented on a screen of the mobile computing device while the video is captured, such that the display of the mobile computing device appears to a mirror. Another non-limiting example of capturing a live video is the capture of a video by another type of camera which is broadcast to the second instrumentation computing device 110 during its capture.

Au bloc 430, un moteur de détection faciale 112 du second dispositif informatique d’instrumentation 110 construit un modèle du deuxième visage du second sujet sur la base de la deuxième vidéo, et au bloc 432, le moteur de détection faciale 112 détecte un ou plusieurs repères faciaux dans le modèle du deuxième visage du second sujet. Les techniques de construction du modèle du second visage et de détection des repères faciaux sont similaires à celles évoquées ci-dessus par rapport au premier visage, et ne sont donc pas à nouveau décrites ici par souci de concision.At block 430, a facial detection engine 112 of the second instrumentation computing device 110 constructs a model of the second face of the second subject based on the second video, and at block 432, the facial detection engine 112 detects one or more facial landmarks in the model of the second face of the second subject. The techniques for constructing the model of the second face and detecting facial landmarks are similar to those mentioned above in relation to the first face, and are therefore not described again here for the sake of brevity.

Au bloc 434, un moteur de présentation de trajectoire 118 du second dispositif informatique d’instrumentation 110 génère une présentation de la trajectoire relative de l’applicateur, basée sur le ou les repères faciaux dans le modèle du second visage, tout en capturant la deuxième vidéo. Dans le cadre de la génération de la présentation de la trajectoire relative de l’applicateur, le moteur de présentation de la trajectoire 118 peut aligner la trajectoire de l’applicateur relative sur la vidéo en direct en trouvant les repères faciaux dans la vidéo en direct et en déterminant l’emplacement de la présentation en fonction des distances par rapport aux repères faciaux indiqués par la trajectoire relative de l’applicateur.In block 434, a trajectory presentation engine 118 of the second instrumentation computing device 110 generates a presentation of the relative trajectory of the applicator, based on the facial landmark(s) in the model of the second face, while capturing the second video. As part of generating the relative applicator trajectory presentation, the trajectory presentation engine 118 may align the relative applicator trajectory to the live video by finding the facial landmarks in the live video and determining the location of the presentation based on distances from facial landmarks indicated by the relative trajectory of the applicator.

Dans divers modes de réalisation, différents types de présentations peuvent être réalisés, chacun pouvant contribuer à améliorer l’application du maquillage par le deuxième sujet. À titre d’exemple non limitatif, la présentation peut utiliser la trajectoire relative de l’applicateur et les repères faciaux du deuxième visage pour déterminer où le deuxième applicateur serait situé si le même motif de maquillage était appliqué sur le deuxième visage au lieu du premier, et peut ensuite générer des images à superposer sur la vidéo en direct pour guider le deuxième applicateur le long de la trajectoire relative de l’applicateur. Dans certains modes de réalisation, les présentations peuvent ne pas être faites si le deuxième applicateur se trouve dans une marge d’erreur de la trajectoire relative de l’applicateur.In various embodiments, different types of presentations may be made, each of which may contribute to improving the application of makeup by the second subject. As a non-limiting example, the presentation may use the relative trajectory of the applicator and the facial landmarks of the second face to determine where the second applicator would be located if the same makeup pattern were applied to the second face instead of the first. , and can then generate images to overlay on the live video to guide the second applicator along the relative applicator trajectory. In some embodiments, presentations may not be made if the second applicator is within a margin of error of the relative trajectory of the applicator.

La illustre un exemple non limitatif de mode de réalisation d’une image d’une seconde vidéo avec des images superposées selon divers aspects de la présente divulgation. Sur la , une partie du visage d’un deuxième sujet, différente du premier sujet utilisé pour déterminer initialement la trajectoire relative de l'applicateur, est montrée. Le visage du second sujet aura une forme différente (par exemple, différentes formes et emplacements des yeux, différentes formes et emplacements du nez, etc.), mais la trajectoire relative de l’applicateur représente les emplacements de l’applicateur par rapport aux repères faciaux et non un emplacement absolu, et le moteur de présentation de trajectoire sera donc en mesure de compenser les différences de formes des visages.There illustrates a non-limiting example of an embodiment of an image of a second video with superimposed images according to various aspects of the present disclosure. On the , a portion of the face of a second subject, different from the first subject used to initially determine the relative trajectory of the applicator, is shown. The second subject's face will be shaped differently (e.g., different eye shapes and locations, different nose shapes and locations, etc.), but the relative applicator trajectory represents the applicator locations relative to the landmarks. faces and not an absolute location, and the trajectory presentation engine will therefore be able to compensate for differences in face shapes.

Dans l’image, la partie du visage et le second applicateur 602 sont visibles. Deux types de présentations différents sont illustrés. Un premier type de présentation est une présentation fantôme 604. la présentation fantôme 604, montre une forme translucide, un contour ou une autre forme de présentation destinée à représenter l’emplacement idéal du second applicateur 602 pour correspondre à l’emplacement du premier applicateur dans la trajectoire relative de l’applicateur. Dans chaque image, la présentation fantôme 604 peut être déplacée pour coïncider avec la poursuite de la trajectoire relative de l’applicateur de sorte que la présentation fantôme 604 semble être animée le long de la trajectoire relative de l’applicateur, et peut également être déplacée en fonction du mouvement des repères faciaux pour rester dans une position relative fixe par rapport au visage.In the image, the facial part and the second applicator 602 are visible. Two different types of presentations are illustrated. A first type of presentation is a phantom presentation 604. The phantom presentation 604, shows a translucent shape, outline or other form of presentation intended to represent the ideal location of the second applicator 602 to correspond to the location of the first applicator in the relative trajectory of the applicator. In each frame, the phantom presentation 604 may be moved to coincide with the continuation of the relative trajectory of the applicator such that the phantom presentation 604 appears to be animated along the relative trajectory of the applicator, and may also be moved based on the movement of facial landmarks to remain in a fixed relative position relative to the face.

Un second type de présentation illustré sur la est une présentation d’indicateur 606. Dans la présentation de l’indicateur 606, au lieu de représenter entièrement l’emplacement souhaité du second applicateur 602, une pluralité d’indicateurs sont superposés sur le second applicateur 602 pour demander un mouvement souhaité du second applicateur 602 (dans ce cas, une rangée de chevrons indiquant le sens souhaité du mouvement du second applicateur 602).A second type of presentation illustrated on the is an indicator presentation 606. In the indicator presentation 606, instead of fully representing the desired location of the second applicator 602, a plurality of indicators are superimposed on the second applicator 602 to request a desired movement of the second applicator 602 (in this case, a row of chevrons indicating the desired direction of movement of the second applicator 602).

Bien que la présentation fantôme 604 et la présentation de l’indicateur 606 soient toutes deux représentées sur la , dans certains modes de réalisation, un seul type de présentation peut être effectué. Dans certains modes de réalisation, d’autres types de présentations peuvent être faits. Par exemple, si le second applicateur 602 est déterminé comme étant en dehors d’une plage prédéterminée autour de la trajectoire relative de l’applicateur, une indication auditive ou haptique peut être fournie pour inciter le deuxième applicateur 602 à revenir à la trajectoire relative de l’applicateur. De même, dans des modes de réalisation dans lesquels la trajectoire relative de l’applicateur comprend une quantité de pression appliquée par l’applicateur, la présentation peut inclure une indication visuelle, auditive ou haptique lorsqu’il est déterminé qu’une quantité de pression appliquée avec le deuxième applicateur 602 est différente de la quantité de pression indiquée par la trajectoire relative de l’applicateur.Although both the phantom presentation 604 and the indicator presentation 606 are shown on the , in some embodiments, only one type of presentation can be performed. In some embodiments, other types of presentations may be made. For example, if the second applicator 602 is determined to be outside a predetermined range around the relative trajectory of the applicator, an auditory or haptic indication may be provided to prompt the second applicator 602 to return to the relative trajectory of the applicator. the applicator. Likewise, in embodiments in which the relative trajectory of the applicator includes an amount of pressure applied by the applicator, the presentation may include a visual, auditory, or haptic indication when it is determined that an amount of pressure applied with the second applicator 602 is different from the amount of pressure indicated by the relative trajectory of the applicator.

Si nous revenons à la Figure 4B, après la génération de la présentation, le procédé 400 passe ensuite à un bloc de fin et se termine.Returning to Figure 4B, after generating the presentation, process 400 then proceeds to an end block and terminates.

La description du procédé 400 présente des modes de réalisation dans lesquels la trajectoire relative de l'applicateur est déterminée pendant une application par un premier sujet de maquillage sur son propre visage, et la trajectoire relative de l'applicateur est ensuite utilisée pendant une application de maquillage par un deuxième sujet sur son propre visage dans le but de décrire clairement divers aspects de l’objet divulgué. Cependant, dans d’autres modes de réalisation, différentes situations peuvent se présenter. Par exemple, dans certains modes de réalisation, le premier sujet peut enregistrer la trajectoire relative de l’applicateur, puis peut également repasser la trajectoire relative de l’applicateur afin d’assurer la cohérence entre plusieurs applications de maquillage. À titre d’autre exemple, dans certains modes de réalisation, le premier sujet peut enregistrer la trajectoire relative de l’applicateur sur un premier côté du visage, fournir une commande pour refléter la trajectoire relative de l’applicateur, puis utiliser la trajectoire relative de l’applicateur sur le deuxième côté du visage afin de fournir une application symétrique.The description of the method 400 presents embodiments in which the relative trajectory of the applicator is determined during an application by a first subject of makeup on his or her own face, and the relative trajectory of the applicator is then used during an application of makeup by a second subject on his or her own face for the purpose of clearly depicting various aspects of the disclosed subject matter. However, in other embodiments, different situations may arise. For example, in some embodiments, the first subject may record the relative trajectory of the applicator, and then may also replay the relative trajectory of the applicator to ensure consistency across multiple makeup applications. As another example, in some embodiments, the first subject may record the relative trajectory of the applicator on a first side of the face, provide a command to reflect the relative trajectory of the applicator, and then use the relative trajectory of the applicator on the second side of the face to provide symmetrical application.

Comme autre exemple, le sujet et la personne qui applique le maquillage peuvent être des personnes différentes. Dans un tel mode de réalisation, la personne qui applique le maquillage peut utiliser un écran monté sur la tête ou un autre dispositif de réalité augmentée pour superposer des présentations sur le sujet pendant l’application du maquillage. De tels modes de réalisation peuvent avoir des cas d’utilisation supplémentaires dans lesquels une première personne effectue des tâches relatives à l’interaction avec différents visages. Par exemple, un premier hygiéniste dentaire peut enregistrer une trajectoire relative de l'applicateur pour suivre une trajectoire d’un outil dentaire dans une première bouche, et un deuxième hygiéniste dentaire peut visualiser les présentations liées à la trajectoire relative de l'applicateur lors de l’utilisation de l’outil dentaire dans une deuxième bouche. Dans un tel mode de réalisation, des repères dans la bouche peuvent être utilisés (par exemple, emplacements de dents spécifiques) au lieu des repères faciaux évoqués ci-dessus.As another example, the subject and the person applying the makeup may be different people. In such an embodiment, the person applying the makeup may use a head-mounted display or other augmented reality device to overlay presentations on the subject while applying the makeup. Such embodiments may have additional use cases in which a first person performs tasks relating to interacting with different faces. For example, a first dental hygienist may record a relative trajectory of the applicator to follow a trajectory of a dental tool in a first mouth, and a second dental hygienist may view presentations related to the relative trajectory of the applicator when using the dental tool in a second mouth. In such an embodiment, landmarks in the mouth may be used (e.g., specific tooth locations) instead of the facial landmarks discussed above.

Bien que des modes de réalisation illustratifs aient été illustrés et décrits, il sera apprécié que divers changements peuvent y être apportés sans s’écarter de l’esprit et de la portée de l’invention.Although illustrative embodiments have been illustrated and described, it will be appreciated that various changes may be made therein without departing from the spirit and scope of the invention.

Claims (10)

Procédé d’application de maquillage instrumenté, le procédé comprenant :
la réception, par un dispositif informatique, d’une première vidéo d’un procédé d’application de maquillage, la première vidéo représentant au moins une portion d’un premier visage et au moins une portion d’un premier applicateur ;
la mesure, par le dispositif informatique, du mouvement du premier applicateur par rapport à un ou plusieurs repères du premier visage pour déterminer une trajectoire relative de l'applicateur et
le stockage, par le dispositif informatique, de la trajectoire relative de l’applicateur.
Process for applying instrumented makeup, the process comprising:
receiving, by a computing device, a first video of a makeup application process, the first video representing at least a portion of a first face and at least a portion of a first applicator;
measuring, by the computing device, the movement of the first applicator relative to one or more marks of the first face to determine a relative trajectory of the applicator and
the storage, by the computing device, of the relative trajectory of the applicator.
Procédé selon la revendication 1, comprenant en outre :
la réception, par le dispositif informatique, d’une deuxième vidéo, la deuxième vidéo étant une vidéo en direct qui représente au moins une portion d’un second visage et au moins une portion d’un second applicateur ;
l’alignement, par le dispositif informatique, de la trajectoire relative de l’applicateur sur un ou plusieurs repères du deuxième visage et
la génération, par le dispositif informatique, d’une présentation de la trajectoire relative de l’applicateur à fournir en association avec la capture de la deuxième vidéo.
A method according to claim 1, further comprising:
receiving, by the computing device, a second video, the second video being a live video that represents at least a portion of a second face and at least a portion of a second applicator;
the alignment, by the computing device, of the relative trajectory of the applicator on one or more marks of the second face and
generating, by the computing device, a presentation of the relative trajectory of the applicator to be provided in association with capturing the second video.
Procédé selon la revendication 2, comprenant en outre :
Fournir la présentation de la trajectoire relative de l’applicateur sous forme d’images superposées sur la deuxième vidéo.
A method according to claim 2, further comprising:
Provide the presentation of the relative trajectory of the applicator in the form of images superimposed on the second video.
Procédé selon la revendication 2, comprenant en outre :
la présentation de la trajectoire relative de l’applicateur en :
comparant un emplacement détecté du deuxième applicateur avec la trajectoire relative de l’applicateur et
fournissant un retour haptique pour déterminer que l’emplacement détecté du deuxième applicateur est en dehors de la trajectoire relative de l’applicateur.
A method according to claim 2, further comprising:
the presentation of the relative trajectory of the applicator in:
comparing a detected location of the second applicator with the relative trajectory of the applicator and
providing haptic feedback to determine that the detected location of the second applicator is outside the relative trajectory of the applicator.
Procédé selon la revendication 2, la génération de la présentation de la trajectoire relative de l’applicateur à fournir en association avec la capture de la deuxième vidéo comprenant la présentation de la trajectoire relative de l’applicateur sur un affichage du dispositif informatique avec la deuxième vidéo pendant la capture de la deuxième vidéo.The method of claim 2, generating the presentation of the relative trajectory of the applicator to be provided in association with capturing the second video comprising presenting the relative trajectory of the applicator on a display of the computing device with the second video while capturing the second video. Dispositif informatique comprenant :
des circuits de réception d’une première vidéo d’un procédé d’application de maquillage, dans lequel la première vidéo représente au moins une portion d’un premier visage et au moins une portion d’un premier applicateur ;
des circuits de mesure du mouvement du premier applicateur par rapport à un ou plusieurs repères du premier visage pour déterminer une trajectoire relative de l’applicateur et
des circuits pour le stockage de la trajectoire relative de l’applicateur.
Computer device comprising:
circuits for receiving a first video of a makeup application method, in which the first video represents at least one portion of a first face and at least one portion of a first applicator;
circuits for measuring the movement of the first applicator relative to one or more marks of the first face to determine a relative trajectory of the applicator and
circuits for storing the relative trajectory of the applicator.
Dispositif informatique selon la revendication 6, comprenant, par ailleurs :
des circuits de réception d’une deuxième vidéo, la deuxième vidéo étant une vidéo en direct qui représente au moins une portion d’une deuxième visage et au moins une portion d’un deuxième applicateur ;
des circuits permettant d’aligner la trajectoire relative de l’applicateur sur un ou plusieurs repères du deuxième visage et
des circuits de génération d’une présentation de la trajectoire relative de l’applicateur à fournir en association avec la capture de la deuxième vidéo.
Computer device according to claim 6, further comprising:
circuits for receiving a second video, the second video being a live video which represents at least one portion of a second face and at least one portion of a second applicator;
circuits making it possible to align the relative trajectory of the applicator on one or more marks of the second face and
circuitry for generating a presentation of the relative trajectory of the applicator to be provided in association with the capture of the second video.
Dispositif informatique selon la revendication 7, comprenant, par ailleurs :
des circuits pour fournir la présentation de la trajectoire relative de l’applicateur sous forme d’images superposées sur la deuxième vidéo.
Computer device according to claim 7, further comprising:
circuitry to provide presentation of the relative trajectory of the applicator in the form of images superimposed on the second video.
Dispositif informatique selon la revendication 7, comprenant, par ailleurs :
des circuits pour présenter la trajectoire relative de l’applicateur en :
comparant un emplacement détecté du deuxième applicateur avec la trajectoire relative de l’applicateur et
fournissant un retour haptique pour déterminer que l’emplacement détecté du deuxième applicateur est en dehors de la trajectoire relative de l’applicateur.
Computer device according to claim 7, further comprising:
circuits to present the relative trajectory of the applicator by:
comparing a detected location of the second applicator with the relative trajectory of the applicator and
providing haptic feedback to determine that the detected location of the second applicator is outside the relative trajectory of the applicator.
Dispositif informatique selon la revendication 7, la génération de la présentation de la trajectoire relative de l’applicateur à fournir en association avec la capture de la deuxième vidéo comprenant la présentation de la trajectoire relative de l’applicateur sur un affichage du dispositif informatique avec la deuxième vidéo pendant la capture de la deuxième vidéo.A computing device according to claim 7, generating the presentation of the relative trajectory of the applicator to be provided in association with capturing the second video comprising presenting the relative trajectory of the applicator on a display of the computing device with the second video while capturing the second video.
FR2212307A 2022-09-30 2022-11-25 Instrumentation of makeup applicators to improve and share application techniques Pending FR3142589A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2212307A FR3142589A1 (en) 2022-11-25 2022-11-25 Instrumentation of makeup applicators to improve and share application techniques
PCT/US2023/074510 WO2024073268A1 (en) 2022-09-30 2023-09-18 Instrumenting makeup applicators for improving and sharing application techniques

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2212307 2022-11-25
FR2212307A FR3142589A1 (en) 2022-11-25 2022-11-25 Instrumentation of makeup applicators to improve and share application techniques

Publications (1)

Publication Number Publication Date
FR3142589A1 true FR3142589A1 (en) 2024-05-31

Family

ID=85685686

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2212307A Pending FR3142589A1 (en) 2022-09-30 2022-11-25 Instrumentation of makeup applicators to improve and share application techniques

Country Status (1)

Country Link
FR (1) FR3142589A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210345016A1 (en) * 2020-05-04 2021-11-04 Google Llc Computer vision based extraction and overlay for instructional augmented reality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210345016A1 (en) * 2020-05-04 2021-11-04 Google Llc Computer vision based extraction and overlay for instructional augmented reality

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MOHR PETER MOHR@ICG TUGRAZ AT ET AL: "Retargeting Video Tutorials Showing Tools With Surface Contact to Augmented Reality", PROCEEDINGS OF THE 2017 ACM ON CONFERENCE ON INFORMATION AND KNOWLEDGE MANAGEMENT , CIKM '17, ACM PRESS, NEW YORK, NEW YORK, USA, 2 May 2017 (2017-05-02), pages 6547 - 6558, XP058629030, ISBN: 978-1-4503-4918-5, DOI: 10.1145/3025453.3025688 *

Similar Documents

Publication Publication Date Title
US10685496B2 (en) Saving augmented realities
US20160202756A1 (en) Gaze tracking via eye gaze model
EP3659545B1 (en) System for monitoring the positioning of a patient's teeth
EP2760329B1 (en) Method for determining ocular and optical measurements
US9740282B1 (en) Gaze direction tracking
McMurrough et al. An eye tracking dataset for point of gaze detection
FR3027505A1 (en) METHOD FOR CONTROLLING THE POSITIONING OF TEETH
US10685457B2 (en) Systems and methods for visualizing eyewear on a user
EP3796865A1 (en) Method for analysing a dental situation
EP3281093A1 (en) Electronic bracelet for displaying interactive digital content intended to be projected onto a zone of an arm
WO2019224056A1 (en) Method for analysing a dental situation
EP3145405B1 (en) Method of determining at least one behavioural parameter
EP3651057B1 (en) Procedure for facial authentication of a wearer of a watch
JP2020027390A (en) Attention object estimation device and attention object estimation method
FR3142589A1 (en) Instrumentation of makeup applicators to improve and share application techniques
ES2954483T3 (en) Computer-implemented methods and devices for determining dimensions and distances of head features
EP3761267A1 (en) Method and device for determining the amplitude of a movement performed by an articulated limb of a body
US20240108119A1 (en) Instrumenting makeup applicators for improving and sharing application techniques
WO2024073268A1 (en) Instrumenting makeup applicators for improving and sharing application techniques
FR3034890A1 (en) ELECTRONIC DEVICE FOR INTERACTIVE PROJECTION
US20240212343A1 (en) Contextualized visual search
FR3048541B1 (en) VIRTUAL CHANGE OF A PERSON'S TOOTH
US20240212291A1 (en) Attention control in multi-user environments
US20230367117A1 (en) Eye tracking using camera lens-aligned retinal illumination
US20230309824A1 (en) Accommodation tracking based on retinal-imaging

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240531