FR3125623A1 - détermination de la position d’un dispositif de soin personnel par rapport à la surface CORPORELLE - Google Patents

détermination de la position d’un dispositif de soin personnel par rapport à la surface CORPORELLE Download PDF

Info

Publication number
FR3125623A1
FR3125623A1 FR2107993A FR2107993A FR3125623A1 FR 3125623 A1 FR3125623 A1 FR 3125623A1 FR 2107993 A FR2107993 A FR 2107993A FR 2107993 A FR2107993 A FR 2107993A FR 3125623 A1 FR3125623 A1 FR 3125623A1
Authority
FR
France
Prior art keywords
personal care
care device
body surface
human body
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2107993A
Other languages
English (en)
Other versions
FR3125623B1 (fr
Inventor
David B. Kosecoff
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LOreal SA filed Critical LOreal SA
Priority to FR2107993A priority Critical patent/FR3125623B1/fr
Publication of FR3125623A1 publication Critical patent/FR3125623A1/fr
Application granted granted Critical
Publication of FR3125623B1 publication Critical patent/FR3125623B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00747Dermatology
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • A61N2005/0626Monitoring, verifying, controlling systems and methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/06Radiation therapy using light
    • A61N5/0613Apparatus adapted for a specific treatment
    • A61N5/0616Skin treatment other than tanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

D étermination de la position d’un dispositif de soin personnel par rapport à la surface corporelle L’invention concerne un système d’ordinateur qui obtient un modèle numérique tridimensionnel d’une surface corporelle, telle qu’un visage humain. Des portions de la surface correspondent à des points de référence dans le modèle. Le système obtient des données d’image d’un dispositif de soin personnel en utilisation ainsi que des données d’image de la surface sur lesquelles le modèle est basé. Le système calcule un emplacement relatif du dispositif par rapport aux points de référence sur la base des données d’image de la surface. Le système détermine une position réelle du dispositif par rapport à la surface sur la base des données d’image du dispositif en utilisation, des dimensions physiques connues du dispositif et de son emplacement relatif, même lorsque le dispositif est partiellement masqué. Le système peut, sur la base de la position réelle du dispositif, amener le dispositif à réaliser des actions telles que l’application d’un produit cosmétique ou l’administration d’une thérapie cutanée Figure pour l’abrégé : 1

Description

détermination de la position d’un dispositif de soin personnel par rapport à la surface CORPORELLE
RÉSUMÉ
Ce résumé est fourni pour présenter une sélection de concepts sous une forme simplifiée qui sont décrits plus en détail ci-dessous dans la description détaillée. Ce résumé n’est pas destiné à identifier les principales particularités de l’objet revendiqué, ni à être utilisé comme une aide pour déterminer la portée de l’objet revendiqué.
Dans certains modes de réalisation, un système d’ordinateur obtient un modèle numérique tridimensionnel d’une surface corporelle humaine, telle qu’un visage ou une autre région d’intérêt. Des portions de la surface corporelle correspondent à des points de référence dans le modèle tridimensionnel. Le système obtient des données d’image d’un dispositif de soin personnel ayant des dimensions physiques connues et des données d’image de la surface corporelle sur lesquelles le modèle tridimensionnel est basé. Le système calcule un emplacement relatif du dispositif de soin personnel par rapport aux points de référence sur la base au moins en partie des données d’image de la surface corporelle. Le système détermine une position réelle du dispositif de soin personnel vis-à-vis de la surface corporelle sur la base au moins en partie des données d’image du dispositif de soin personnel, des dimensions physiques connues du dispositif de soin personnel et de l’emplacement relatif du dispositif de soin personnel. Cela permet au système d’obtenir la position réelle d’un dispositif de soin personnel par rapport à une surface corporelle humaine, même lorsque le dispositif de soin personnel est partiellement masqué. Les modes de réalisation divulgués ici sont utiles dans de nombreux scénarios tels que l’application de cosmétiques guidée par ordinateur, les thérapies cutanées guidées par ordinateur, et similaires.
Dans certains modes de réalisation, les données d’image de la surface corporelle humaine sont obtenues à partir d’un ou de plusieurs capteurs d’image séparés du dispositif de soin personnel, d’un ou de plusieurs capteurs d’image montés sur le dispositif de soin personnel, ou d’une combinaison de ceux-ci.
Dans certains modes de réalisation, le calcul de l’emplacement relatif du dispositif de soin personnel est en outre basé sur des données de profondeur obtenues à partir d’un ou de plusieurs capteurs de profondeur, ou des données de proximité obtenues à partir d’un ou de plusieurs capteurs de proximité, ou d’une combinaison de celles-ci.
Dans certains modes de réalisation, le système d’ordinateur provoque une interaction du dispositif de soin personnel avec la surface corporelle humaine sur la base de la position réelle du dispositif de soin personnel. Dans un mode de réalisation, l’interaction comporte l’application d’un produit cosmétique sur la surface corporelle. Dans un autre mode de réalisation, l’interaction comporte l’administration d’une thérapie cutanée (par exemple, photothérapie, thérapie de nettoyage, etc.) sur la surface corporelle. Dans un mode de réalisation, l’interaction se produit lorsque le dispositif de soin personnel est en mouvement. Dans un mode de réalisation, l’interaction se produit lorsque le dispositif de soin personnel est en contact avec la surface corporelle humaine ou à une distance prédéterminée de la surface corporelle humaine. Dans un mode de réalisation, le système d’ordinateur détermine si le dispositif de soin personnel est en contact ou à une distance prédéterminée sur la base de données reçues à partir d’un capteur de proximité.
Dans certains modes de réalisation, le système d’ordinateur détecte une ou plusieurs particularités de peau (par exemple, des rides, des imperfections, des pores visibles, des zones d’hyperpigmentation, etc.) au niveau de la portion correspondante de la surface corporelle humaine sur la base au moins en partie des données d’image. Dans un mode de réalisation, le système d’ordinateur ajoute des représentations de ces particularités à une carte des particularités de peau.
Dans certains modes de réalisation, un dispositif de soin personnel comporte un ou plusieurs capteurs, un processeur et une mémoire, la mémoire contenant des instructions exécutables par ordinateur configurées pour amener le dispositif de soin personnel à réaliser des étapes comprenant l’obtention, par l’intermédiaire d’un ou de plusieurs capteurs, de données de capteur vis-à-vis d’une surface corporelle humaine sur lesquelles un modèle numérique tridimensionnel est basé, dans lequel des portions de la surface corporelle humaine correspondent à des points de référence dans le modèle numérique tridimensionnel ; le calcul d’un emplacement relatif du dispositif de soin personnel par rapport aux points de référence dans le modèle numérique tridimensionnel sur la base au moins en partie des données de capteur obtenues via les un ou plusieurs capteurs ; et la détermination d’une position réelle du dispositif de soin personnel vis-à-vis de la surface corporelle humaine sur la base au moins en partie des données d’image du dispositif de soin personnel en utilisation, des dimensions physiques connues du dispositif de soin personnel et de l’emplacement relatif du dispositif de soin personnel.
Dans un mode de réalisation, les un ou plusieurs capteurs comportent un capteur de profondeur, et la détection de l’emplacement relatif du dispositif de soin personnel est basée sur des données de profondeur obtenues à partir du capteur de profondeur. Dans un mode de réalisation, les un ou plusieurs capteurs comportent une caméra, et la détection de l’emplacement relatif du dispositif de soin personnel est basée sur des données d’image obtenues à partir de la caméra. Dans un mode de réalisation, les instructions exécutables par ordinateur sont en outre configurées pour amener le dispositif de soin personnel à réaliser une ou plusieurs actions sur la base de la position réelle du dispositif de soin personnel, telles que l’application d’un produit cosmétique, ou la détection d’une particularité de peau, ou l’administration d’une thérapie au niveau d’une portion correspondante de la surface corporelle humaine.
Dans certains modes de réalisation, un système d’ordinateur obtient des données d’image d’un dispositif de soin personnel et des données d’image d’une surface corporelle humaine ; génère une représentation numérique sur un afficheur d’un modèle tridimensionnel comportant une pluralité d’emplacements de référence sur la surface corporelle humaine sur la base moins en partie des données d’image de la surface corporelle humaine ; détermine un emplacement relatif du dispositif de soin personnel par rapport à la pluralité d’emplacements de référence sur la surface corporelle humaine ; et génère une représentation numérique d’une position réelle du dispositif de soin personnel vis-à-vis de la surface corporelle humaine sur la base au moins en partie des données d’image du dispositif de soin personnel, de dimensions physiques prédéterminées du dispositif de soin personnel, et de l’emplacement relatif du dispositif de soin personnel.
Dans certains modes de réalisation, un système comprend une unité de particularités de surface couplée fonctionnellement à une pluralité de capteurs, l’unité de particularités de surface comportant une circuiterie de calcul et au moins un processeur configurés pour obtenir des données de capteur vis-à-vis d’une surface corporelle humaine, et générer une représentation numérique sur un afficheur d’un modèle tridimensionnel comportant une pluralité d’emplacements de référence sur une surface corporelle humaine ; et une unité de localisation couplée fonctionnellement à l’unité de particularités de surface et à un dispositif de soin personnel. L’unité de localisation comporte une circuiterie de calcul et au moins un processeur configurés pour déterminer un emplacement d’un dispositif de soin personnel par rapport à un ou plusieurs de la pluralité d’emplacements de référence sur la surface corporelle humaine ; et déterminer une position réelle du dispositif de soin personnel par rapport à la surface corporelle humaine sur la base au moins en partie de données d’image du dispositif de soin personnel en utilisation, de dimensions physiques prédéterminées du dispositif de soin personnel, et l’emplacement relatif du dispositif de soin personnel.
Dans un mode de réalisation, l’unité de localisation couplée fonctionnellement à l’unité de particularités de surface et au dispositif de soin personnel comporte une circuiterie de calcul et au moins un processeur configuré pour déterminer l’orientation du dispositif de soin personnel par rapport à un ou plusieurs de la pluralité d’emplacements de référence sur la surface corporelle humaine sur la base au moins en partie de données d’image du dispositif de soin personnel en utilisation, de dimensions physiques prédéterminées du dispositif de soin personnel et de l’emplacement relatif du dispositif de soin personnel. Dans un mode de réalisation, des informations de position réelle comportent une orientation du dispositif de soin personnel et un ou plusieurs de la pluralité d’emplacements de référence sur la surface corporelle humaine.
Dans un mode de réalisation, l’unité de localisation couplée fonctionnellement à l’unité de particularités de surface et au dispositif de soin personnel comporte une circuiterie de calcul et au moins un processeur configurés pour déterminer des informations de déplacement relatif du dispositif de soin personnel par rapport à un ou plusieurs de la pluralité d’emplacements de référence sur la surface corporelle humaine sur la base au moins en partie de données d’image du dispositif de soin personnel en utilisation, de dimensions physiques prédéterminées du dispositif de soin personnel, et de l’emplacement relatif du dispositif de soin personnel. Dans un mode de réalisation, les informations de position réelle comportent des informations de déplacement du dispositif de soin personnel et un ou plusieurs de la pluralité d’emplacements de référence sur la surface corporelle humaine.
Les aspects qui précèdent et de nombreux avantages connexes de la présente divulgation seront plus facilement appréciés à mesure qu’ils seront mieux compris en référence à la description détaillée suivante, prise conjointement avec les dessins qui l’accompagnent, dans lesquels :
la est une illustration schématique d’un mode de réalisation d’un système qui utilise des données de capteur pour déterminer la position réelle d’un dispositif de soin personnel utilisé en rapport avec un visage humain, selon divers aspects de la présente divulgation ;
la est une illustration schématique d’une portion de modèle tridimensionnel mise en œuvre sous la forme d’une structure de quadrillage triangulaire avec des points de référence pour déterminer un emplacement d’un dispositif de soin personnel, selon divers aspects de la présente divulgation ;
la est un schéma fonctionnel qui illustre des composants inclus dans un mode de réalisation d’un dispositif de soin personnel, selon divers aspects de la présente divulgation ;
la est un schéma fonctionnel qui illustre un mode de réalisation d’un dispositif informatique client selon divers aspects de la présente divulgation ;
la est un schéma fonctionnel qui illustre un système d’ordinateur comportant un système d’ordinateur distant, un dispositif informatique client et un dispositif de soin personnel, dans lequel divers aspects de la présente divulgation peuvent être mis en œuvre ;
la est un organigramme qui illustre un mode de réalisation d’un procédé de détermination d’une position réelle d’un dispositif de soin personnel en utilisation en rapport avec une surface corporelle, selon divers aspects de la présente divulgation ; et
la est un schéma fonctionnel qui illustre des aspects d’un dispositif informatique illustratif approprié pour être utilisé comme dispositif informatique de la présente divulgation.

Claims (8)

  1. Procédé comprenant :
    l’obtention, par un dispositif informatique, de données d’image d’un dispositif de soin personnel et de données d’image de la surface corporelle humaine ;
    la génération d’une représentation numérique sur un afficheur d’un modèle tridimensionnel comportant une pluralité d’emplacements de référence sur la surface corporelle humaine sur la base au moins en partie des données d’image de la surface corporelle humaine ;
    la détermination d’un emplacement relatif du dispositif de soin personnel par rapport à la pluralité d’emplacements de référence sur la surface corporelle humaine ; et
    la génération d’une représentation numérique d’une position réelle du dispositif de soin personnel vis-à-vis de la surface corporelle humaine sur la base au moins en partie des données d’image du dispositif de soin personnel, de dimensions physiques prédéterminées du dispositif de soin personnel, et de l’emplacement relatif du dispositif de soin personnel.
  2. Procédé selon la revendication 1, dans lequel les données d’image de la surface corporelle humaine sont obtenues à partir d’un ou de plusieurs capteurs d’image séparés du dispositif de soin personnel ou d’un ou de plusieurs capteurs d’image montés sur le dispositif de soin personnel, ou d’une combinaison de ceux-ci.
  3. Procédé selon la revendication 1, dans lequel la génération de la représentation numérique de la position réelle du dispositif de soin personnel est en outre basée sur des données de profondeur obtenues à partir d’un ou de plusieurs capteurs de profondeur ou des données de proximité obtenues à partir d’un ou de plusieurs capteurs de proximité ou une combinaison de celles-ci.
  4. Procédé selon la revendication 1 comprenant en outre la détection d’une ou de plusieurs particularités de peau au niveau d’une portion correspondante de la surface corporelle humaine sur la base au moins en partie des données d’image de la surface corporelle humaine.
  5. Procédé selon la revendication 4 comprenant en outre l’ajout des une ou plusieurs particularités de peau détectées à une carte des particularités de peau de la surface corporelle humaine.
  6. Procédé selon la revendication 1, dans lequel la surface corporelle humaine comprend au moins une partie d’un visage.
  7. Support lisible par ordinateur non transitoire sur lequel sont stockées des instructions exécutables par ordinateur configurées pour amener un système d’ordinateur comprenant un ou plusieurs dispositifs informatiques à réaliser des étapes comprenant :
    l’obtention d’un modèle numérique tridimensionnel de la surface corporelle humaine, dans lequel des portions de la surface corporelle humaine correspondent à des points de référence dans le modèle numérique tridimensionnel ;
    l’obtention de données d’image d’un dispositif de soin personnel et de données d’image de la surface corporelle humaine sur lesquelles le modèle numérique tridimensionnel est basé ; sur la base au moins en partie des données d’image de la surface corporelle humaine, le calcul d’un emplacement relatif du dispositif de soin personnel par rapport aux points de référence ; et
    la détermination d’une position réelle du dispositif de soin personnel par rapport à la surface corporelle humaine sur la base au moins en partie des données d’image du dispositif de soin personnel, de dimensions physiques prédéterminées du dispositif de soin personnel, et de l’emplacement relatif du dispositif de soin personnel.
  8. Support lisible par ordinateur non transitoire selon la revendication 7, dans lequel les données d’image de la surface corporelle humaine sont obtenues à partir d’un ou de plusieurs capteurs d’image séparés du dispositif de soin personnel ou d’un ou de plusieurs capteurs d’image montés sur le dispositif de soin personnel, ou d’une combinaison de ceux-ci.
FR2107993A 2021-07-23 2021-07-23 détermination de la position d’un dispositif de soin personnel par rapport à la surface CORPORELLE Active FR3125623B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2107993A FR3125623B1 (fr) 2021-07-23 2021-07-23 détermination de la position d’un dispositif de soin personnel par rapport à la surface CORPORELLE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2107993A FR3125623B1 (fr) 2021-07-23 2021-07-23 détermination de la position d’un dispositif de soin personnel par rapport à la surface CORPORELLE
FR2107993 2021-07-23

Publications (2)

Publication Number Publication Date
FR3125623A1 true FR3125623A1 (fr) 2023-01-27
FR3125623B1 FR3125623B1 (fr) 2024-04-26

Family

ID=78483346

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2107993A Active FR3125623B1 (fr) 2021-07-23 2021-07-23 détermination de la position d’un dispositif de soin personnel par rapport à la surface CORPORELLE

Country Status (1)

Country Link
FR (1) FR3125623B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117282038A (zh) * 2023-11-22 2023-12-26 杭州般意科技有限公司 眼部光疗装置的光源调整方法、装置、终端及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008052348A1 (fr) * 2006-11-02 2008-05-08 Northern Digital Inc. Système d'affectation intégré
WO2016071325A1 (fr) * 2014-11-06 2016-05-12 Koninklijke Philips N.V. Système de traitement cutané
WO2020145826A1 (fr) * 2019-01-10 2020-07-16 Augmedit B.V. Procédé et assemblage de cartographie spatiale d'un modèle, tel qu'un modèle holographique, d'un outil chirurgical et/ou d'une structure anatomique sur une position spatiale de l'outil chirurgical par rapport à la structure anatomique, ainsi qu'un outil chirurgical

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008052348A1 (fr) * 2006-11-02 2008-05-08 Northern Digital Inc. Système d'affectation intégré
WO2016071325A1 (fr) * 2014-11-06 2016-05-12 Koninklijke Philips N.V. Système de traitement cutané
WO2020145826A1 (fr) * 2019-01-10 2020-07-16 Augmedit B.V. Procédé et assemblage de cartographie spatiale d'un modèle, tel qu'un modèle holographique, d'un outil chirurgical et/ou d'une structure anatomique sur une position spatiale de l'outil chirurgical par rapport à la structure anatomique, ainsi qu'un outil chirurgical

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117282038A (zh) * 2023-11-22 2023-12-26 杭州般意科技有限公司 眼部光疗装置的光源调整方法、装置、终端及存储介质
CN117282038B (zh) * 2023-11-22 2024-02-13 杭州般意科技有限公司 眼部光疗装置的光源调整方法、装置、终端及存储介质

Also Published As

Publication number Publication date
FR3125623B1 (fr) 2024-04-26

Similar Documents

Publication Publication Date Title
JP6374107B2 (ja) アイトラッキングシステムのための改良されたキャリブレーション
JP6544244B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP4830650B2 (ja) 追跡装置
CN105832336B (zh) 身高测量系统和方法
WO2020190976A3 (fr) Systèmes et procédés d'imagerie et d'évaluation artérielle et flux de travaux basés sur une interface utilisateur associés
JP2018527112A5 (fr)
JP2019530490A5 (fr)
US20070263906A1 (en) Personal Identification Method by Subcutaneous Bloodstream Measurement and Personal Identification Device
TW200943197A (en) Face expressions identification
Bosch-Jorge et al. Fall detection based on the gravity vector using a wide-angle camera
FR3125623A1 (fr) détermination de la position d’un dispositif de soin personnel par rapport à la surface CORPORELLE
JP7113013B2 (ja) 被験者の頭部の追跡
JP5016959B2 (ja) 見え方度判定装置
JP2017038777A (ja) 動作認識装置
US10318798B2 (en) Device and method for detecting non-visible content in a non-contact manner
JP6459856B2 (ja) 車両運転支援装置、車両運転支援方法、およびプログラム
CN112883920A (zh) 基于点云深度学习的三维人脸扫描特征点检测方法和装置
JP2006215743A (ja) 画像処理装置及び画像処理方法
EP3761267A1 (fr) Procédé et dispositif de détermination de l'amplitude d'un mouvement effectué par un membre d'un corps articulé
Zhang et al. An automatic human fall detection approach using RGBD cameras
EP2959311B1 (fr) Procédé de génération d'une image d'élasticité
Yang et al. Height estimations based on eye measurements throughout a gait cycle
JP2004046464A (ja) 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体
Popek et al. Assessing the feasibility of the use of video motion magnification for measuring microdisplacements
KR20100040557A (ko) 태아의 미래 얼굴 영상을 제공하는 시스템 및 방법

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLFP Fee payment

Year of fee payment: 3