FR3126485A1 - génération de modèles numériques 3d de surfaces corporelles avec identification automatique des particularités - Google Patents

génération de modèles numériques 3d de surfaces corporelles avec identification automatique des particularités Download PDF

Info

Publication number
FR3126485A1
FR3126485A1 FR2108971A FR2108971A FR3126485A1 FR 3126485 A1 FR3126485 A1 FR 3126485A1 FR 2108971 A FR2108971 A FR 2108971A FR 2108971 A FR2108971 A FR 2108971A FR 3126485 A1 FR3126485 A1 FR 3126485A1
Authority
FR
France
Prior art keywords
digital
body surface
model
human body
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2108971A
Other languages
English (en)
Other versions
FR3126485B1 (fr
Inventor
David B. Kosecoff
Aldina SUWANTO
Grégoire Charraud
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LOreal SA filed Critical LOreal SA
Priority to FR2108971A priority Critical patent/FR3126485B1/fr
Publication of FR3126485A1 publication Critical patent/FR3126485A1/fr
Application granted granted Critical
Publication of FR3126485B1 publication Critical patent/FR3126485B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D40/00Casings or accessories specially adapted for storing or handling solid or pasty toiletry or cosmetic substances, e.g. shaving soaps or lipsticks
    • A45D40/30Masks for marking lips or eyelashes
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/58Wireless transmission of information between a sensor or probe and a control or evaluation unit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • G06V2201/121Acquisition of 3D measurements of objects using special illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • Manufacturing & Machinery (AREA)
  • Materials Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)

Abstract

G énération de modèles numériques 3d de surfaces corporelles avec identification automatique des particularités Un système d’ordinateur obtient au moins un balayage 3D d’une surface corporelle ; identifie automatiquement, sur la base de l’au moins un balayage 3D, une ou plusieurs particularités (par exemple, le nez, les lèvres, les yeux, les sourcils, les pommettes, ou des portions spécifiques de ceux-ci, ou d’autres particularités) de la surface corporelle ; et génère un modèle 3D numérique de la surface corporelle. Le modèle 3D numérique comporte les particularités identifiées de la surface corporelle humaine. Dans un mode de réalisation, l’étape de génération du modèle 3D numérique est basée sur l’au moins un balayage 3D et les particularités identifiées de la surface corporelle. Dans un mode de réalisation, le modèle 3D numérique comprend un fichier de quadrillage 3D. Le modèle 3D numérique peut être utilisé de diverses manières. Par exemple, la sortie d’un processus de fabrication (par exemple, un article imprimé en 3D, un produit cosmétique, un produit de soin personnel) peut être basée sur le modèle 3D numérique. Figure pour l’abrégé : 1

Description

gÉnÉration de modÈles numÉriques 3d de surfaces corporelles avec identification automatique des particularitÉs
RÉSUMÉ
Dans un aspect, la présente divulgation concerne, entre autres, un système, comportant une unité de particularité corporelle comportant une circuiterie de calcul configurée pour générer un modèle numérique de particularité corporelle humaine en réponse à une ou plusieurs représentations numériques bidimensionnelles et tridimensionnelles de la particularité corporelle humaine ; une unité de particularité augmentée comportant une circuiterie de calcul configurée pour modifier une sous-particularité du modèle numérique de particularité corporelle humaine en réponse à une ou plusieurs entrées d’augmentation de particularité et pour générer un modèle numérique modifié de sous-particularité de la particularité corporelle humaine ; et une unité de particularité inversée comportant une circuiterie de calcul configurée pour générer un modèle numérique de particularité inversée d’au moins une portion du modèle modifié de sous-particularité de la particularité corporelle humaine.
Dans un aspect, la présente divulgation concerne, entre autres, un système d’ordinateur qui réalise un procédé comprenant l’obtention d’une ou de plusieurs images sources comportant au moins un balayage tridimensionnel (3D) d’une surface corporelle humaine ; l’identification automatique, sur la base de l’au moins un balayage 3D, d’une ou de plusieurs particularités (par exemple, le nez, les lèvres, les yeux, les sourcils, les pommettes, le menton, les oreilles, etc., ou des portions spécifiques de ceux-ci, ou d’autres particularités) de la surface corporelle humaine ; la génération d’un modèle 3D numérique de la surface corporelle humaine, dans lequel le modèle 3D numérique comporte les particularités identifiées de la surface corporelle humaine ; et la transmission du modèle 3D numérique à un système d’ordinateur de fabrication pour une utilisation dans un processus de fabrication tel qu’un processus d’impression 3D. Une sortie du processus de fabrication (par exemple, un article imprimé en 3D, un produit cosmétique, un produit de soin personnel) est basée au moins en partie sur le modèle 3D numérique. Dans un mode de réalisation, la sortie du processus de fabrication comprend un moule physique imprimé en 3D d’au moins une portion de la surface corporelle humaine correspondant à la(aux) particularité(s) identifiée(s). De plus amples détails sur la fabrication de tels moules peuvent être trouvés, par exemple, dans les publications internationales de brevets n° WO2019077131 A1 et WO2019077129 A1.
Dans un mode de réalisation, l’étape de génération du modèle 3D numérique est basée sur l’au moins un balayage 3D et les particularités identifiées de la surface corporelle. Dans un mode de réalisation, le modèle 3D numérique comprend un fichier de quadrillage 3D.
Dans un mode de réalisation, l’au moins un balayage 3D comporte de multiples balayages en profondeur sous différents angles. L’obtention du ou des balayages 3D comporte, dans un mode de réalisation, la vérification d’une obstruction visuelle de la surface corporelle humaine pendant le balayage, ou la vérification et/ou l’adaptation du processus de balayage à des changements d’expression faciale, ou d’autres mouvements ou des changements de conditions d’éclairage.
Dans un mode de réalisation, les une ou plusieurs images sources comportent des captures couleur bidimensionnelles (2D) et des captures infrarouge 3D, et la génération du modèle 3D numérique de la surface corporelle humaine comporte la cartographie des captures couleur 2D avec les captures infrarouges 3D.
Dans un mode de réalisation, l’identification automatique des particularités identifiées comporte la comparaison du balayage 3D ou d’une ou de plusieurs autres images sources à une base de données d’images de référence des particularités identifiées. Dans un mode de réalisation, l’identification automatique des particularités identifiées comporte la détermination de la proximité ou de l’orientation relative d’au moins l’une des particularités identifiées par rapport à une ou plusieurs autres particularités précédemment identifiées.
Dans un aspect, la présente divulgation concerne, entre autres, un système d’ordinateur qui exécute un procédé comprenant l’obtention d’au moins un balayage 3D d’une surface corporelle ; l’identification automatique, sur la base de l’au moins un balayage 3D de la surface corporelle, d’une particularité de la surface corporelle, comportant la comparaison de l’au moins un balayage 3D à une base de données d’images de référence de la particularité identifiée ; et la génération d’un modèle 3D numérique de la surface corporelle, dans lequel le modèle 3D numérique comporte la particularité identifiée.
Dans un mode de réalisation, le modèle 3D numérique est utilisé dans une routine de soin personnel guidée par ordinateur, telle qu’une cartographie de particularités de peau, l’administration d’un traitement de peau, l’application d’un produit cosmétique, le diagnostic d’une affection de peau, ou le suivi de changements de particularités de peau au fil du temps.
Des supports lisibles par ordinateur sur lesquels sont stockées des instructions exécutables par ordinateur configurées pour amener un système d’ordinateur à réaliser des techniques décrites dans le présent document sont également divulgués. Des dispositifs et systèmes informatiques correspondants sont également divulgués.
Ce résumé est fourni pour présenter une sélection de concepts sous forme simplifiée qui sont décrits plus en détail ci-dessous dans la description détaillée. Ce résumé n’est pas destiné à identifier des particularités clés de l’objet revendiqué, ni à être utilisé comme une aide pour déterminer la portée de l’objet revendiqué.
La présente invention a pour objet un procédé comprenant, par un système d’ordinateur comprenant un ou plusieurs dispositifs informatiques :
l’obtention d’une ou de plusieurs images sources comportant au moins un balayage tridimensionnel d’une surface corporelle humaine ;
l’identification automatique, sur la base de l’au moins un balayage tridimensionnel, de particularités de la surface corporelle humaine ;
la génération d’un modèle numérique de la surface corporelle humaine, dans lequel le modèle tridimensionnel numérique comporte les particularités identifiées de la surface corporelle humaine ;
la génération d’un modèle 3D numérique de particularité inversée du modèle 3D numérique de la surface corporelle humaine ; et
la transmission d’au moins l’un du modèle tridimensionnel numérique ou du modèle 3D numérique de particularité inversée à un système d’ordinateur de fabrication pour une utilisation dans un processus de fabrication, dans lequel une sortie du processus de fabrication est basée au moins en partie sur le modèle 3D numérique.
Selon des modes de réalisation particuliers, le procédé selon l’invention comprend une ou plusieurs des caractéristiques suivantes, prise(s) isolément ou suivant toutes les combinaisons techniquement possibles :
  • l’au moins un balayage tridimensionnel comporte de multiples balayages en profondeur sous différents angles ;
  • l’obtention de l’au moins un balayage tridimensionnel comporte la vérification de changements d’expression faciale pendant le balayage ;
  • l’obtention de l’au moins un balayage tridimensionnel comporte la vérification d’une obstruction visuelle de la surface corporelle humaine ;
  • les une ou plusieurs images sources comportent des captures couleur bidimensionnelles et des captures infrarouges tridimensionnelles, et dans lequel la génération du modèle tridimensionnel numérique de la surface corporelle humaine comporte la cartographie des captures couleur bidimensionnelles avec les captures infrarouges tridimensionnelles ;
  • l’identification automatique des particularités identifiées comporte la comparaison des unes ou plusieurs images sources à une base de données d’images de référence des particularités identifiées ;
  • l’identification automatique des particularités identifiées comporte la détermination de la proximité ou de l’orientation relative d’au moins l’une des particularités identifiées par rapport à une ou plusieurs autres particularités précédemment identifiées ;
  • la sortie du processus de fabrication comprend un moule physique imprimé en 3D d’au moins une portion de la surface corporelle humaine correspondant aux particularités identifiées ;
  • la sortie du processus de fabrication comporte un produit cosmétique ou un produit de soin personnel ayant une caractéristique physique adaptée à au moins l’une des particularités identifiées ; et
  • la génération du modèle tridimensionnel numérique de la surface corporelle humaine est basée sur l’au moins un balayage tridimensionnel et les particularités identifiées de la surface corporelle humaine.
La est un schéma fonctionnel d’un système logiciel pour la génération de modèles 3D numériques sur la base de balayages 3D et l’identification automatique de particularités, selon divers aspects de la présente divulgation ;
[Fig. 2A] la [Fig. 2A] est une illustration schématique d’un agencement dans lequel un dispositif informatique client obtient un balayage 3D d’un sujet et communique avec un système de modélisation et, facultativement, un système de fabrication, selon divers aspects de la présente divulgation ;
[Fig. 2B] la [Fig. 2B] est une illustration schématique d’un système de modélisation, d’un système de fabrication et d’une unité d’affichage de particularités configurés pour être utilisés dans l’agencement de la [Fig. 2A], selon divers aspects de la présente divulgation ;
la est un schéma fonctionnel qui illustre un mode de réalisation d’un dispositif informatique client selon divers aspects de la présente divulgation ;
la est un schéma fonctionnel qui illustre un système d’ordinateur comportant un système d’ordinateur distant, un dispositif informatique client, et un système d’ordinateur de fabrication ou d’impression 3D, dans lequel divers aspects de la présente divulgation peuvent être mis en œuvre ;
la est un organigramme qui illustre un mode de réalisation d’un procédé de génération et d’utilisation d’un modèle 3D numérique, selon divers aspects de la présente divulgation ; et
la est un schéma fonctionnel qui illustre des aspects d’un dispositif informatique illustratif approprié pour être utilisé comme dispositif informatique de la présente divulgation.
Les aspects qui précèdent et de nombreux avantages connexes de la présente divulgation seront plus facilement appréciés à mesure qu’ils seront mieux compris en référence à la description détaillée qui suit, prise conjointement avec les dessins qui l’accompagnent.

Claims (9)

  1. Procédé comprenant, par un système d’ordinateur comprenant un ou plusieurs dispositifs informatiques :
    l’obtention d’une ou de plusieurs images sources comportant au moins un balayage tridimensionnel d’une surface corporelle humaine ;
    l’identification automatique, sur la base de l’au moins un balayage tridimensionnel, de particularités de la surface corporelle humaine ;
    la génération d’un modèle numérique de la surface corporelle humaine, dans lequel le modèle tridimensionnel numérique comporte les particularités identifiées de la surface corporelle humaine ;
    la génération d’un modèle 3D numérique de particularité inversée du modèle 3D numérique de la surface corporelle humaine ; et
    la transmission d’au moins l’un du modèle tridimensionnel numérique ou du modèle 3D numérique de particularité inversée à un système d’ordinateur de fabrication pour une utilisation dans un processus de fabrication, dans lequel une sortie du processus de fabrication est basée au moins en partie sur le modèle 3D numérique.
  2. Procédé selon la revendication 1, dans lequel l’au moins un balayage tridimensionnel comporte de multiples balayages en profondeur sous différents angles.
  3. Procédé selon la revendication 1, dans lequel l’obtention de l’au moins un balayage tridimensionnel comporte la vérification de changements d’expression faciale pendant le balayage.
  4. Procédé selon la revendication 1, dans lequel l’obtention de l’au moins un balayage tridimensionnel comporte la vérification d’une obstruction visuelle de la surface corporelle humaine.
  5. Procédé selon la revendication 1, dans lequel les une ou plusieurs images sources comportent des captures couleur bidimensionnelles et des captures infrarouges tridimensionnelles, et dans lequel la génération du modèle tridimensionnel numérique de la surface corporelle humaine comporte la cartographie des captures couleur bidimensionnelles avec les captures infrarouges tridimensionnelles.
  6. Procédé selon la revendication 1, dans lequel l’identification automatique des particularités identifiées comporte la comparaison des unes ou plusieurs images sources à une base de données d’images de référence des particularités identifiées.
  7. Procédé selon la revendication 1, dans lequel l’identification automatique des particularités identifiées comporte la détermination de la proximité ou de l’orientation relative d’au moins l’une des particularités identifiées par rapport à une ou plusieurs autres particularités précédemment identifiées.
  8. Procédé selon la revendication 1, dans lequel la sortie du processus de fabrication comprend un moule physique imprimé en 3D d’au moins une portion de la surface corporelle humaine correspondant aux particularités identifiées.
  9. Procédé selon la revendication 1, dans lequel la génération du modèle tridimensionnel numérique de la surface corporelle humaine est basée sur l’au moins un balayage tridimensionnel et les particularités identifiées de la surface corporelle humaine.
FR2108971A 2021-08-27 2021-08-27 génération de modèles numériques 3d de surfaces corporelles avec identification automatique des particularités Active FR3126485B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2108971A FR3126485B1 (fr) 2021-08-27 2021-08-27 génération de modèles numériques 3d de surfaces corporelles avec identification automatique des particularités

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2108971A FR3126485B1 (fr) 2021-08-27 2021-08-27 génération de modèles numériques 3d de surfaces corporelles avec identification automatique des particularités
FR2108971 2021-08-27

Publications (2)

Publication Number Publication Date
FR3126485A1 true FR3126485A1 (fr) 2023-03-03
FR3126485B1 FR3126485B1 (fr) 2024-03-29

Family

ID=79171165

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2108971A Active FR3126485B1 (fr) 2021-08-27 2021-08-27 génération de modèles numériques 3d de surfaces corporelles avec identification automatique des particularités

Country Status (1)

Country Link
FR (1) FR3126485B1 (fr)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150366327A1 (en) * 2014-06-20 2015-12-24 Richard Joseph LaHood, SR. Cosmetics Applicator System and Method
JP2018117834A (ja) * 2017-01-25 2018-08-02 晶子 川野 眉描き補助マスク
WO2019077129A1 (fr) 2017-10-20 2019-04-25 L'oreal Procédé de fabrication d'un applicateur personnalisé pour l'application d'une composition cosmétique
WO2019077131A1 (fr) 2017-10-20 2019-04-25 L'oreal Procédé de fabrication d'un applicateur personnalisé pour l'application d'une composition cosmétique
WO2020076693A1 (fr) * 2018-10-07 2020-04-16 The Procter & Gamble Company Procédé de fabrication d'applicateur à ouverture des yeux de précision

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150366327A1 (en) * 2014-06-20 2015-12-24 Richard Joseph LaHood, SR. Cosmetics Applicator System and Method
JP2018117834A (ja) * 2017-01-25 2018-08-02 晶子 川野 眉描き補助マスク
WO2019077129A1 (fr) 2017-10-20 2019-04-25 L'oreal Procédé de fabrication d'un applicateur personnalisé pour l'application d'une composition cosmétique
WO2019077131A1 (fr) 2017-10-20 2019-04-25 L'oreal Procédé de fabrication d'un applicateur personnalisé pour l'application d'une composition cosmétique
US20200337444A1 (en) * 2017-10-20 2020-10-29 L'oreal Method for manufacturing a personalized applicator for the application of a cosmetic composition
WO2020076693A1 (fr) * 2018-10-07 2020-04-16 The Procter & Gamble Company Procédé de fabrication d'applicateur à ouverture des yeux de précision

Also Published As

Publication number Publication date
FR3126485B1 (fr) 2024-03-29

Similar Documents

Publication Publication Date Title
CN1045129C (zh) 个人识别装置
CN106604692B (zh) 对齐口内数字3d模型的方法
JP6507046B2 (ja) 立体物検知装置及び立体物認証装置
CN108564041B (zh) 一种基于rgbd相机的人脸检测和修复方法
US20070071288A1 (en) Facial features based human face recognition method
JP4910507B2 (ja) 顔認証システム及び顔認証方法
US11068704B2 (en) Head pose and distraction estimation
US20160086017A1 (en) Face pose rectification method and apparatus
CN1484451A (zh) 信息处理系统
EP3645218A1 (fr) Dispositif de gestion des deplacements d'un robot et robot de soin associe
JP2018163481A (ja) 顔認識装置
FR3126485A1 (fr) génération de modèles numériques 3d de surfaces corporelles avec identification automatique des particularités
US11875603B2 (en) Facial action unit detection
US20220414291A1 (en) Device for Defining a Sequence of Movements in a Generic Model
JP2006215743A (ja) 画像処理装置及び画像処理方法
FR3125623A1 (fr) détermination de la position d’un dispositif de soin personnel par rapport à la surface CORPORELLE
EP3761267A1 (fr) Procédé et dispositif de détermination de l'amplitude d'un mouvement effectué par un membre d'un corps articulé
Lee et al. AI-based dental prostheses fabrication using generative adversarial networks
Shashidhara et al. A novel approach to circular edge detection for iris image segmentation
Fang et al. Automatic head and facial feature extraction based on geometry variations
Batista Locating facial features using an anthropometric face model for determining the gaze of faces in image sequences
Shehzad et al. Face Recognition using average half face template
CN114863526A (zh) 一种人脸模型的快速建模方法
Ming et al. Human face orientation estimation using symmetry and feature points analysis
Sambrekar et al. Estimation of gaze for human computer interaction

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230303

PLFP Fee payment

Year of fee payment: 3