JP6936852B2 - アイバッグの3次元分析のための、システム、デバイス、及び方法 - Google Patents

アイバッグの3次元分析のための、システム、デバイス、及び方法 Download PDF

Info

Publication number
JP6936852B2
JP6936852B2 JP2019515336A JP2019515336A JP6936852B2 JP 6936852 B2 JP6936852 B2 JP 6936852B2 JP 2019515336 A JP2019515336 A JP 2019515336A JP 2019515336 A JP2019515336 A JP 2019515336A JP 6936852 B2 JP6936852 B2 JP 6936852B2
Authority
JP
Japan
Prior art keywords
scan data
determining
facial
model
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019515336A
Other languages
English (en)
Other versions
JP2019536496A (ja
Inventor
テレサ ファムデュイ,
テレサ ファムデュイ,
ケルシー ノーウッド,
ケルシー ノーウッド,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LOreal SA filed Critical LOreal SA
Publication of JP2019536496A publication Critical patent/JP2019536496A/ja
Application granted granted Critical
Publication of JP6936852B2 publication Critical patent/JP6936852B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/442Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Dermatology (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

概要
いくつかの実施形態において、3次元顔面スキャンデータを処理するコンピュータ実行方法が提供される。顔面分析デバイスは、顔面の3次元スキャンを表す第1の顔面スキャンデータを受信する。顔面分析デバイスは、第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定する。顔面分析デバイスは、第1のモデルに基づいて第1のスコアを決定し、第1のスコアをスキャンデータストアに記憶する。
いくつかの実施形態において、3次元顔面スキャンデータを処理するためのシステムが提供される。システムは、3次元スキャナー及びスキャナーに通信可能に結合された顔面分析デバイスを含む。顔面分析デバイスは、以下の動作を含む複数の動作を実施するように構成される:3次元スキャナーから、顔面の3次元スキャンを表す第1の顔面スキャンデータを受信する動作;第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定する動作;第1のモデルに基づいて第1のスコアを決定する動作;及び第1のスコアをスキャンデータストアに記憶する動作。
いくつかの実施形態において、3次元顔面スキャンデータを処理するためのシステムが提供される。システムは、顔面の3次元スキャンを表す第1の顔面スキャンデータを受信するための回路;第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定するための回路;第1のモデルに基づいて第1のスコアを決定するための回路;及び第1のスコアをスキャンデータストアに記憶するための回路を含む。
この概要は、詳細な説明において以下にさらに説明される概念の選択を、簡略化された形で紹介するために提供される。この概要は、特許請求の範囲に記載の発明の内容の重要な特徴を識別することを意図するものではなく、特許請求の範囲に記載の発明の内容の範囲を決定する際の補助として使用されることを意図するものでもない。
本発明の前述の態様及び付随する利点の多くは、それが、添付の図面と併せて以下の詳細な説明を参照することによってよりよく理解されるにつれて、より容易に理解されるようになるであろう。
図1は、本開示の様々な態様に係る、アイバッグを分析するためのシステムの例示的な実施形態の構成要素を示す模式図である。
図2Aは、本開示の様々な態様に係る、顔面のモデルを構築及び分析する方法の例示的な実施形態を示すフローチャートである。 図2Bは、本開示の様々な態様に係る、顔面のモデルを構築及び分析する方法の例示的な実施形態を示すフローチャートである。
図3は、本開示の様々な態様に係る、比較された2次元アイバッグモデルの一例を示すチャートである。
図4は、スキャンデータの3次元表現に基づく比較されたアイバッグモデルの一例を示すチャートである。
図5は、本開示の様々な態様に係る、絶対曲線下面積スコアの決定を示すチャートである。
図6は、本開示の様々な態様に係る、最大/最小値スコアの決定を示すチャートである。
図7は、本開示の様々な態様に係る、傾きスコアの決定を示すチャートである。
図8は、本開示の様々な態様に係る、アーク長さスコアの決定を示すチャートである。
図9は、本開示のコンピューティングデバイスとして使用するのに適切な、1つの例示的なコンピューティングデバイスの態様を示すブロック図である。
詳細な説明
化粧品業界において、3次元分析ツールの使用は、製品の効能の技術的測定及び消費者への製品の利点の伝達のための新しい手段を提供する。しかしながら、アイバッグ(eyebag、目の下のたるみ)エリアを定量的に説明又は評価するためのインビボ測定は存在しない。アイバッグエリアの3次元スキャンの自動分析を提供し、エンドユーザ(消費者、臨床医、科学者、又は別のタイプのユーザなど)に、評価に使用可能な出力を生成することができる、システム及び方法が求められている。
3次元イメージング技術の使用は、文献において幾何情報を欠く物理的な顔面の特徴であるアイバッグの、定量的測定にとって、新しい。定量的測定に加えて、アイバッグモデルはまた、アイバッグエリアに対する製品の作用のメカニズムを決定するのにも有用であり得る。
3次元測定は、非接触イメージング技術によって達成され、これはインビボアイバッグ形状について正確な情報を提供し、訓練された臨床医による主観的視覚的等級付けと比較して有利である。さらに、3次元スキャニングデバイスは、分析のための非常にきめの細かいデータを提供し、そのため、複数のスキャンの詳細な比較を可能にすることができる。次いで、製品の効能を定量的に試験するために、形状を変化させることでアイバッグの外観を低減することが意図される製品の適用の前後などで、経時的に、ユーザの顔面上のアイバッグエリアの形状を追跡するために、この詳細な比較を使用することができる。加えて、個々の測定を使用して、診断評価のためにアイバッグの重症度を等級付けすることもできる。本開示のいくつかの実施形態において、顔面表面構造が3次元イメージングデバイスを用いて捕捉され、その結果記憶された3次元スキャンがもたらされる。この3次元スキャンはディスプレイデバイス上に表示して、アイバッグエリアに焦点を合わせることができる。いくつかの実施形態において、各3次元スキャンについて、幾何形状の最も高いz点と最も低いz点との間に中央平面を描くことができる。この平面の上下の測定点の広がりは、ヒストグラムの標準偏差などの単一のメトリックとして計算することができる。ユーザには、アイバッグの現在の「平坦」状態の診断として、この単数のメトリックを提示することができる。代替的に、後続のメトリックを比較して、アイバッグが受けた「平坦化」の量を特徴付けて、進行又は製品の効果を追跡することができる。いくつかの実施形態において、各3次元スキャンについて、アイバッグの中央に垂直の切断部が作られる。分析は、様々な異なる時点からのデータ取得を使用することができる。これらの曲線のスキャンの特徴付け(例えば、曲線下面積、アイバッグ高さ、ティアトラフのくぼみの深さ、アーク長さ、傾き、など)に基づいて、製品の効果を評価することができる。ユーザのために、これは、追跡メトリックとして提示することができる。
図1は、本開示の様々な態様に係る、アイバッグを分析するためのシステムの例示的な実施形態の構成要素を示す模式図である。図示されているように、システム100は、3次元スキャナー102、顔面分析デバイス104、及びディスプレイ16を含む。3次元スキャナー102は、顔面などの対象物の3次元表現を生成することができる任意の適切なデバイスである。3次元スキャナー102は、フリンジ投影法、立体写真計測法、又は3次元表現を生成するための任意の他の適切な技術を使用してよい。3次元スキャナー102として使用するのに適しているであろうデバイスの一例は、EOTECH SAによって製造されるDermaTOPである。3次元スキャナー102として使用するのに適しているであろうデバイスの別の例は、Canfield Scientific, Incによって製造されるVECTRA M3である。3次元スキャナー102として使用するのに適しているであろうデバイスの別の例は、カメラ画像又は他のデータ源から3次元モデルを生成することができる、スマートフォン用のアタッチメントデバイスである。これらの例は、限定するものとみなすべきではない。なぜなら、同様の機能を備える任意の他のデバイスを使用してもよいからである。
顔面分析デバイス104は、3次元スキャナー102に通信可能に結合されたコンピューティングデバイスである。いくつかの実施形態において、顔面分析デバイス104の機能のうちいくつか又は全てが、3次元スキャナー102に組み込まれたコンピューティングデバイスによって提供される。いくつかの実施形態において、顔面分析デバイス104の機能のうちいくつか又は全てが、デスクトップコンピューティングデバイス、ラップトップコンピューティングデバイス、タブレットコンピューティングデバイス、スマートフォン、クラウドサービスのデバイス、及び/又は任意の他のタイプのコンピューティングデバイスなどの、別個のコンピューティングデバイスによって提供される。
顔面分析デバイスは、スキャン分析エンジン108及びスキャンデータストア110を含む。いくつかの実施形態において、スキャン分析エンジン108は、3次元スキャナー102からスキャンデータを受信し、スキャンデータに基づいてアイバッグモデルを生成し、アイバッグモデルを比較して差分を決定し、計算された差分を様々な方法で使用するように構成される。いくつかの実施形態において、スキャンデータストアは、スキャンデータ、モデルデータ、及び差分データのうち1又は複数を記憶するように構成される。スキャン分析エンジン108及びスキャンデータストア110の構成のさらなる詳細が以下に提供される。
一般に、本明細書で使用される場合、用語「エンジン」は、ハードウェア又はソフトウェアの命令で具体化された論理を指し、プログラミング言語、例えば、C、C++、COBOL、JAVA(商標)、PHP、Perl、HTML、CSS、JavaScript、VBScript、ASPX、C#などのMicrosoft .NET(商標)言語、Matlabなどの特定用途向け言語などで記述することができる。エンジンは、実行可能プログラムにコンパイルされてもよく、又はインタプリタ形式のプログラミング言語で記述されてもよい。エンジンは、他のエンジンから、又はそれらのエンジン自体から、呼び出し可能であってよい。一般に、本明細書に記載されるエンジンは、他のエンジン又はアプリケーションと統合することができる、又はサブエンジンに分割することができる、論理モジュールを指す。エンジンは、任意のタイプのコンピュータ可読媒体又はコンピュータ記憶デバイスに記憶し、1又は複数の汎用コンピュータに記憶してそれにより実行し、その結果、エンジンを提供するように構成される専用コンピュータを作製することができる。したがって、本明細書に示されるデバイス及びシステムは、示されるエンジンを提供するように構成される1又は複数のコンピューティングデバイスを含むが、コンピューティングデバイス自体は、明確にするために、すべての場合において、示されていない。
当業者によって理解されるように、本明細書に記載される「データストア」は、コンピューティングデバイスによるアクセスのためのデータを記憶するように構成される、任意の適切なデバイスによって提供され得る。データストアの一例は、1又は複数のコンピューティングデバイス上で実行され、ローカルに又は高速ネットワークを介してアクセス可能な、高度に信頼性の高い、高速リレーショナルデータベース管理システム(RDBMS)である。しかしながら、クエリに応答して記憶されたデータを迅速に及び確実に提供することのできる、キーバリューストア、オブジェクトデータベースなどの、任意の他の適切な記憶技術及び/又はデバイスを使用してもよい。データストアを提供するコンピューティングデバイスは、ネットワークを介してではなくローカルにアクセス可能であってよく、又はクラウドベースのサービスとして提供されてよい。データストアはまた、以下でさらに説明されているように、組織的な形でコンピュータ可読記憶媒体に記憶されたデータを含んでもよい。データストアの別の例は、フラッシュメモリ、ランダムアクセスメモリ(RAM)、ハードディスクドライブなどのコンピュータ可読媒体上のファイル(又はレコード)にデータを記憶するファイルシステム又はデータベース管理システムである。本開示の範囲から逸脱することなく、本明細書に記載される別個のデータストアは単一のデータストアに組み合わせてよいこと、及び/又は本明細書に記載される単一のデータストアは複数のデータストアに分けてよいことを、当業者は認識するであろう。
ディスプレイ106は、顔面分析デバイス104に通信可能に結合している。LCDモニター、CRTモニター、プロジェクター、タッチスクリーンデバイス、スマートフォン、などの、任意のタイプのディスプレイデバイスをディスプレイ106として使用してよい。いくつかの実施形態において、ディスプレイ106は顔面分析デバイス104とは別個のものである。いくつかの実施形態において、ディスプレイ106は、顔面分析デバイス104及び/又は3次元スキャナー102と組み合わされる。
いくつかの実施形態において、システム100は、ユーザアカウント及び履歴情報を管理するための追加のインターフェイスを提供する。例えば、顔面分析デバイス104はユーザアカウント情報を記憶することができ、ユーザ90は、ユーザ名及びパスワードを使用して、過去のスキャンデータ、人口統計情報、購入履歴、以前に使用した製品、などの、ユーザ90についての情報を記憶する顔面分析デバイス104上のアカウントに、アクセスすることができる。いくつかの実施形態において、スキャンデータストア110は、サーバ又はクラウドサービスによって提供されてよく、顔面分析デバイス104は、スキャンデータストア110への送信の前に、顔面スキャンデータ、人口統計情報、個人を特定できる情報、及び/又はユーザ90に関する任意の他の情報を暗号化及び/又は匿名化してよい。
図2A−2Bは、本開示の様々な態様に係る、顔面のモデルを構築及び分析する方法の例示的な実施形態を示すフローチャートである。方法200は、開始ブロックからブロック202に進み、ここでは、3次元スキャナー102が顔面の第1のスキャンを実施し、第1のスキャンデータを顔面分析デバイス104に提供する。第1のスキャンデータは、3次元スキャナー102によって得られた顔面の3次元表現である。いくつかの実施形態において、第1のスキャンデータは、.ply又は.stlファイルに保存された表面幾何形状を含んでよいが、いくつかの実施形態においては、他の適切なデータフォーマットを使用してよい。次に、ブロック204において、顔面分析デバイス104が第1のスキャンデータをスキャンデータストア110に記憶する。いくつかの実施形態において、3次元スキャナー102から受信したスキャンデータ全体が、スキャンデータストア110に記憶される。いくつかの実施形態において、スキャンデータからの関心領域が、スキャンデータストア110に記憶され、スキャンデータの残部が破棄される。いくつかの実施形態において、モデルを(以下に説明されるように)生成してよく、このモデルをスキャンデータ全体の代わりにスキャンデータストア110に記憶してよい。いくつかの実施形態において、モデルスコアを(以下に説明されるように)生成してよく、このモデルスコアをスキャンデータ又はモデル全体の代わりにスキャンデータストア110に記憶してよい。
ブロック206において、3次元スキャナー102が顔面の第2のスキャンを実施し、第2のスキャンデータを顔面分析デバイス104に提供し、ブロック208において、顔面分析デバイス104が第2のスキャンデータをスキャンデータストア110に記憶する。ブロック206及び208において実施される動作は、ブロック202及び204において実施される動作と同様であるが、時間的により後である。いくつかの実施形態において、第2のスキャンは、ある期間が経過した後実施してよく、この期間の間に製品が顔面90に適用されていてもよい。このようにして、第2のスキャンを実施し、それを第1のスキャンと比較することによって、顔面90に対する製品の効果を決定してよい。単一のスキャンが実行され、モデル間又はモデルスコア間の比較が実施されない実施形態などの、いくつかの実施形態において、第1のスキャンのみが実施され、第1のスキャンデータのみが記憶される。
いくつかの実施形態において、各スキャン中の3次元スキャナー102に対する顔面90の不完全な再配置に起因して、複数の時点で撮影された同じ顔面90の画像は位置ずれをする可能性がある。したがって、スキャンデータの表面幾何形状の自動再整列が望ましい場合がある。コンピュータ化された整列の1つの非限定的な例が、ブロック210及び212において記載されている。ブロック210において、顔面分析デバイス104のスキャン分析エンジン108が、粗調整を実行して、第1のスキャンデータと第2のスキャンデータを整列させる。いくつかの実施形態において、ペアワイズ粗調整を実施してよい。このような実施形態において、拘束フラクションオーバーラップパラメーター及びエラー耐性(適合の自由度)パラメーターの案内の下で、第1のスキャンデータが第2の「アンカー」スキャンデータに整列される。顔面の目印(鼻及び目など)が整列するまで、可能なオーバーラップの順列が繰り返される。次いで方法200はブロック212に進み、ここでは、スキャン分析エンジン108が微調整を実行して、スキャンデータストア110にある顔面の全てのスキャンデータを整列させる。いくつかの実施形態において、微調整は、第1のスキャンデータと第2のスキャンデータを単純に整列させてよい。いくつかの実施形態において、スキャンデータストア110に記憶されている顔面90の追加のスキャンを互いに整列させてもよい。いくつかの実施形態において、各スキャンデータは、エラー耐性が0.001単位以内になるまで再整列される。一般に、全てのスキャンデータを全体的に整列するために、精密整列処理シーケンスの10回の繰り返しを使用してよいが、いくつかの実施形態においては、より多い又はより少ない反復を使用してよい。
方法200は次いで、継続末端(「末端A」)に進み、末端A(図2B)からブロック214に進み、ここでは、スキャン分析エンジン108が、第1のスキャンデータについての第1のアイバッグモデル及び第2のスキャンデータについての第2のアイバッグモデルを生成する。アイバッグエリアは、顔によって異なる複雑な表面エリアであり、そのため、アイバッグエリアの定量化可能に比較できる表現の決定が求められる。いくつかの実施形態において、アイバッグモデルは、スキャンデータの2次元断面に基づく。そのようなアイバッグモデルは、それぞれの目の両端に対するそれぞれのアイバッグの中央で取られた垂直断面に基づいており、それ故に、アイバッグの特徴の定量化可能な分析の標準化が可能になる。垂直のアイバッグプロファイルに基づくこのアイバッグモデルは、劇的な変化についての有用な情報を提供する。なぜなら、アイバッグのたるんだ皮膚は、測定の最も大きい範囲の変形距離を提供するためである。いくつかの実施形態において、アイバッグモデルはスキャンデータの3次元表現に基づく。そのようなアイバッグモデルは、スキャンデータ内の基準面を決定し、スキャンデータの全てのピクセル又はボクセルについての基準面からの距離を決定することによって、生成してよい。基準面の1つの非限定的な例は、スキャンデータの最も前方の点とスキャンデータの最も後方の点との間の中点に位置する中央平面又は垂直面である。この場合のアイバッグモデルは、基準面からの決定された距離のヒストグラムであってよい。
図3は、本開示の様々な態様に係る、比較された2次元アイバッグモデルの一例を示すチャートである。第1のアイバッグモデル302は、アイバッグエリアに製品を適用する前の顔面の第1のスキャンから得られた、垂直断面の「S」形状として示されている。一群の後続のアイバッグモデル304は、アイバッグエリアへの製品の適用後の、経時的な垂直断面の変化を示す。チャートはまた、第1のスキャンに基づくアイバッグモデルの傾き306及び後続のスキャンに基づくアイバッグモデルの傾き308を示す。
図4は、スキャンデータの3次元表現に基づく比較されたアイバッグモデルの一例を示すチャートである。第1のアイバッグモデル402は、スキャンデータのピクセル又はボクセルの、スキャンデータの基準面までの距離のヒストグラムとして示される。第2のアイバッグモデル404も示されている。そのようなモデルについてのスコアを決定するために、ヒストグラムの標準偏差を決定してよく、決定された標準偏差をスコアとして使用してよい。より低いスコアは、アイバッグの外観の改善を示すだろう。なぜならば、より低いスコアは、より多くのアイバッグエリアが基準面の近くに位置し、したがってこのエリアが、より滑らかであるか、又はより規則的な形状であることを意味すると考えられるからである。いくつかの実施形態において、ヒストグラムの最大値の決定、ヒストグラムのX軸上の位置の決定、及び/又は他の適切な技術などの、他の技術を使用してスコアを決定してよい。
図2Bに戻ると、ブロック216において、スキャン分析エンジン108が、第1のアイバッグモデルと第2のアイバッグモデルとの間の差分を生成する。多くの適切な形態の定量的アイバッグモデル測定を実施してよい。いくつかのスコア又はメトリックは、それぞれのアイバッグモデルについて別々に計算してよく、計算されたスコアは比較してよい。他の場合において、メトリックは、選択されたアイバッグモデル間の差分として計算してよい。アイバッグモデルが得られたら、スコア又はメトリックは、Matlab、カスタムスタンドアローンソフトウェア、など含むがこれらに限定されない任意の適切なツールを使用して計算してよい。いくつかの実施形態において、複数のモデル間の差分を生成する代わりに、単一のモデルについてのスコアを決定し記憶してよい。
図5〜8は、アイバッグエリアの垂直断面に基づくアイバッグプロファイルについて決定された様々なメトリック又はスコアを示す。図5は、本開示の様々な態様に係る、絶対曲線下面積スコアの決定を示すチャートである。このメトリックについて、ベースラインのアイバッグモデルに対するアイバッグモデルの曲線下の面積は、アイバッグの減少量を示す。面積差が大きいほど、ベースラインの顔面スキャンと、その後の顔面スキャンとの間に適用された任意の製品の効果が大きい。
図6は、本開示の様々な態様に係る、最大/最小値スコアの決定を示すチャートである。このメトリックについて、アイバッグモデルのアイバッグ部分の高さ及び/又はアイバッグモデルのティアトラフ部分の深さを測定することにより決定されるスコアを、計算してよく、そしてアイバッグモデル間で比較して、アイバッグの減少の程度を決定してよい。最大値間の差分がより大きいことは、ベースラインの顔面スキャンと、その後の顔面スキャンとの間に適用された任意の製品の効果がより大きいことを示す。いくつかの実施形態において、アイバッグ部分の高さのみを比較してよい。いくつかの実施形態において、ティアトラフ部分の深さのみを比較してよい。いくつかの実施形態において、アイバッグ部分の高さとティアトラフ部分の深さとの間の差分を組み合わせて、組み合わせられたメトリックを生成してよい。
図7は、本開示の様々な態様に係る、傾きスコアの決定を示すチャートである。このメトリックについて、アイバッグモデルの始点からアイバッグモデルの終点までの傾きが決定され、ゼロにより近い値はアイバッグエリアの外観の改善を示す。
図8は、本開示の様々な態様に係る、アーク長さスコアの決定を示すチャートである。アイバッグモデルのアーク長さは、アイバッグのたるみ度と、アイバッグの皮膚上の製品によって生じる収縮応力に関連する。内部応力が大きいほど、アーク長さは小さくなり、それ故にアイバッグの外観がより大きく改善される。
図2Bに戻ると、方法200は次いでブロック218に進み、ここでは、スキャン分析エンジン108が、第1のアイバッグモデルと第2のアイバッグモデルとの間の差分をスキャンデータストアに記憶する。記憶された差分には様々な用途がある。例えば、いくつかの実施形態において、記憶された差分を使用して、アイバッグエリアへの製品の適用の前、及びアイバッグエリアに製品を適用してから1又は複数の期間経った後などの、アイバッグの形状の経時的な変化を定量的に比較してよい。本開示の前は、このような定量的比較は不可能であった。別の例として、いくつかの実施形態において、任意選択のブロック220〜224において以下に説明されるように、記憶された差分を使用して予測モデルを生成してよい。差分は、差分絶対値として、変化のパーセンテージとして、又は任意の他の適切なフォーマットで記憶してよい。上述のように、いくつかの実施形態において、単一のアイバッグモデルが処理され、モデル間又はスコア間の差分の代わりに(又はそれに加えて)、単一のアイバッグモデルについてのスコアが記憶される。
任意選択のブロック220において、3次元スキャナー102が新しい顔面のスキャンを実施し、新しいスキャンデータを顔面分析デバイス104に提供する。任意選択のブロック222において、スキャン分析エンジン108が、第1のアイバッグモデルと第2のアイバッグモデルとの間の記憶された差分を使用して、新しいスキャンデータに基づき予測されたスキャンデータを生成する。例えば、記憶された差分は、アイバッグ高さの40%の減少及びティアトラフ深さの60%の減少を示す可能性があり、したがってスキャン分析エンジン108は、新しいスキャンデータのアイバッグ高さが40%減少し、新しいスキャンデータのティアトラフ深さが60%減少した、予測されたスキャンデータを生成するだろう。いくつかの実施形態において、(第1のアイバッグモデルと第2のアイバッグモデルとの間の差分だけではなく)複数の記憶された差分を組み合わせて使用し、予測されたスキャンデータを生成することができる。
次に、任意選択のブロック224において、顔面分析デバイス104が、予測されたスキャンデータをディスプレイ106上に表示する。予測されたスキャンデータは、第1のアイバッグモデルの生成と第2のアイバッグモデルの生成との間に使用された製品を適用した後に、新しい顔面がどのように見え得るかを表すだろう。そのような表示は、製品を使用するかどうかの決定に影響を与えるのを助けることができ、又は複数の製品間での選択を助けることができる。ブロック220〜224は、任意選択のものとして示されている。なぜならば、いくつかの実施形態は、差分情報を単に、定量的比較のためだけに使用し、予測されたスキャンデータを生成するためには使用しないからである。また、いくつかの実施形態において、単一のスキャンを実施してよく、スコアは、比較差分スコアではなく、診断スコアとして、単一のアイバッグモデルに基づいて生成してよい。方法200は次いで終了ブロックに進み、終了する。
図9は、本開示のコンピューティングデバイスとして使用するのに適切な1つの例示的なコンピューティングデバイス900の態様を示すブロック図である。複数の異なるタイプのコンピューティングデバイスを上で論じたが、例示的なコンピューティングデバイス900は、多くの異なるタイプのコンピューティングデバイスに共通の様々な要素を説明している。図9は、ネットワーク上のデバイスとして実行されるコンピューティングデバイスを参照して説明されているが、以下の説明は、サーバ、パーソナルコンピュータ、携帯電話、スマートフォン、タブレットコンピュータ、組み込みコンピューティングデバイス、及び本開示の実施形態の一部を実行するのに使用することができる他のデバイスに適用可能である。さらに、当業者及び他の者は、コンピューティングデバイス900が、任意の数の現在入手可能なデバイス又はまだ開発中のデバイスのうちの任意の1つであり得ることを認識するであろう。
その最も基本的な構成において、コンピューティングデバイス900は、少なくとも1つのプロセッサ902及び通信バス906によって接続されたシステムメモリ904を含む。デバイスの正確な構成及びタイプに応じて、システムメモリ904は、リードオンリーメモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、EEPROM、フラッシュメモリ、又は同様のメモリ技術などの、揮発性又は不揮発性メモリであってよい。当業者及び他の者は、システムメモリ904が典型的には、プロセッサ902によって直ちにアクセス可能である及び/又は現在操作されている、データ及び/又はプログラムモジュールを記憶することを認識するだろう。これに関して、プロセッサ902は、命令の実行をサポートすることによって、コンピューティングデバイス900の計算センターとして機能し得る。
図9においてさらに示されるように、コンピューティングデバイス900は、ネットワークを介して他のデバイスと通信するための1又は複数の構成要素を含む、ネットワークインターフェイス910を含んでよい。本開示の実施形態は、一般的なネットワークプロトコルを使用して通信を実施するために、ネットワークインターフェイス910を利用する基本サービスにアクセスしてよい。ネットワークインターフェイス910はまた、WiFi、2G、3G、LTE、WiMAX、ブルートゥース、ブルートゥース低エネルギー、などの1又は複数の無線通信プロトコルを介して通信するように構成される無線ネットワークインターフェイスを含んでもよい。当業者によって理解されるように、図9に示されるネットワークインターフェイス910は、システム100の特定の構成要素に関して上で説明され示される1又は複数の無線インターフェイス又は物理的通信インターフェイスを表し得る。
図9に図示される例示的な実施形態において、コンピューティングデバイス900はまた、記憶媒体908を含む。しかしながら、サービスは、データをローカルの記憶媒体に保持するための手段を含まないコンピューティングデバイスを使用してアクセスすることができる。それ故に、図9に示される記憶媒体908は、記憶媒体908が任意選択のものであることを示すために、破線で表される。いずれにしても、記憶媒体908は、揮発性又は不揮発性であってよく、取り外し可能又は取り外し不能であってよく、情報を記憶することのできる任意の技術を使用して実行してよく、任意の技術としては、例えば、ハードドライブ、ソリッドステートドライブ、CD ROM、DVD、又は他のディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置、などがあるが、これらに限定されない。
本明細書で使用される場合、用語「コンピュータ可読媒体」は、コンピュータ可読命令、データ構造、プログラムモジュール、又は他のデータなどの情報を記憶することができる任意の方法又は技術で実行される、揮発性及び非揮発性で取り外し可能及び取り外し不能の媒体を含む。これに関して、図9に示されるシステムメモリ904及び記憶媒体908は、コンピュータ可読媒体の単なる例である。
プロセッサ902、システムメモリ904、通信バス906、記憶媒体908、及びネットワークインターフェイス910を含むコンピューティングデバイスの適切な実装形態は、既知であり市販されている。説明を容易にするため且つ特許請求の範囲に記載の発明の内容の理解にとって重要ではないため、図9は、多くのコンピューティングデバイスの典型的な構成要素のうちいくつかを示していない。これに関して、コンピューティングデバイス900は、キーボード、キーパッド、マウス、マイクロフォン、タッチ入力デバイス、タッチスクリーン、タブレット、などの入力デバイスを含んでよい。そのような入力デバイスは、RF、赤外線、シリアル、パラレル、ブルートゥース、ブルートゥース低エネルギー、USB、又は無線接続又は物理的接続を使用する他の適切な接続プロトコルを含む、有線接続又は無線接続によって、コンピューティングデバイス900に結合してよい。同様に、コンピューティングデバイス900はまた、ディスプレイ、スピーカー、プリンター、などの出力デバイスを含んでもよい。これらのデバイスは本分野において周知であるため、本明細書ではさらに図示又は説明しない。
本明細書中に開示されるある特定の実施形態は、機能の実行、より多くの構成要素の操作可能な結合、情報の生成、操作条件の決定などのために、回路を利用する。任意のタイプの回路を使用することができる。いくつかの実施形態において、回路は、とりわけ、1又は複数のコンピューティングデバイス、例えば、プロセッサ(例えば、マイクロプロセッサ)、中央処理装置(CPU)、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)など、又は任意のそれらの組み合わせを含み、そして個別のデジタル又はアナログの回路素子又は電子機器、又はそれらの組み合わせを含むことができる。いくつかの実施形態において、回路は、複数の所定のロジックコンポーネントを有する1又は複数のASICを含む。いくつかの実施形態において、回路は、複数のプログラマブルロジックコンポーネントを有する1又は複数のFPGAを含む。
例示的な実施形態を図示し説明してきたが、本発明の精神及び範囲から逸脱することなく、様々な変更を加えることができるということを理解されたい。

Claims (24)

  1. 3次元顔面スキャンデータを処理するコンピュータ実行方法であって、前記方法が、
    顔面分析デバイスによって、顔面の3次元スキャンを表す第1の顔面スキャンデータを受信する工程;
    前記顔面分析デバイスによって、前記第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定する工程;
    前記顔面分析デバイスによって、前記第1のモデルに基づいて第1のスコアを決定する工程;及び
    前記顔面分析デバイスによって、前記第1のスコアをスキャンデータストアに記憶する工程
    を含み、
    前記第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定する工程が、関連する目の両端に対する前記アイバッグエリアの中央で、前記アイバッグエリアの垂直断面を決定する工程を含む、
    方法。
  2. 前記顔面分析デバイスによって、前記第1のモデルを、前記顔面の以前の3次元スキャンを表す以前の顔面スキャンデータの少なくとも1つの記憶されたモデルと比較して、前記モデル間の差分を決定する工程;及び
    前記顔面分析デバイスによって、決定された前記差分を前記スキャンデータストアに記憶する工程
    をさらに含む、請求項1に記載の方法。
  3. 前記顔面分析デバイスによって、新しい顔面の3次元スキャンを表す新しい顔面スキャンデータを受信する工程;
    前記顔面分析デバイスによって、前記新しい顔面スキャンデータのアイバッグエリアの新しいモデルを決定する工程;
    前記顔面分析デバイスによって、前記新しいモデル及び前記スキャンデータストアに記憶された決定された前記差分を使用して、予測された顔面スキャンデータを決定する工程;及び
    前記顔面分析デバイスによって、前記予測された顔面スキャンデータをディスプレイ上に表示する工程
    をさらに含む、請求項2に記載の方法。
  4. 前記以前の顔面スキャンデータを受信した後且つ前記第1の顔面スキャンデータを受信する前に、前記アイバッグエリアに適用された処置を評価するために、前記顔面分析デバイスによって、決定された前記差分を表示する工程
    をさらに含む、請求項2〜3のいずれか一項に記載の方法。
  5. 前記第1のモデルに基づいて第1のスコアを決定する工程が、
    前記第1のモデルについての絶対曲線下面積(AUC)を決定する工程;
    前記第1のモデルについての最大値又は最小値を決定する工程;
    前記第1のモデルについての曲線終点間の傾きを決定する工程;及び
    前記第1のモデルについてのアーク長さを決定する工程
    のうち少なくとも1つを含む、
    請求項1〜4に記載の方法。
  6. 前記第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定する工程が、
    前記第1の顔面スキャンデータの基準面を決定する工程;
    前記第1の顔面スキャンデータ内の各ボクセルから前記基準面までの距離を決定する工程;及び
    前記距離のヒストグラムを決定する工程
    を含み、
    前記第1のモデルに基づいて第1のスコアを決定する工程が、前記ヒストグラムの標準偏差を決定する工程を含む、
    請求項1〜5のいずれか一項に記載の方法。
  7. ペアワイズ粗調整を実施して、前記第1の顔面スキャンデータを第2の顔面スキャンデータと整列させる工程;及び
    全体的な微調整を実施して、エラー耐性が所定の閾値内になるまで全ての顔面スキャンデータを繰り返し再整列させる工程
    によって、前記第1の顔面スキャンデータを以前の顔面スキャンデータに整列させる工程をさらに含む、
    請求項1〜6のいずれか一項に記載の方法。
  8. ペアワイズ粗調整を実施して、前記第1の顔面スキャンデータを第2の顔面スキャンデータと整列させる工程が、拘束フラクションオーバーラップパラメーター及びエラー耐性パラメーターの案内の下で、顔面の目印が整列するまで、前記第1の顔面スキャンデータを前記第2の顔面スキャンデータに繰り返し整列させる工程を含む、
    請求項7に記載の方法。
  9. 3次元顔面スキャンデータを処理するためのシステムであって、前記システムが、
    3次元スキャナー;及び
    顔面分析デバイス
    を含み、
    前記顔面分析デバイスが、前記スキャナーに通信可能に結合され、以下の複数の動作:
    前記3次元スキャナーから、顔面の3次元スキャンを表す第1の顔面スキャンデータを受信する動作;
    前記第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定する動作;
    前記第1のモデルに基づいて第1のスコアを決定する動作;及び
    前記第1のスコアをスキャンデータストアに記憶する動作
    を実施するように構成される、
    システムであって、
    前記複数の動作が、
    前記第1のモデルを、前記顔面の以前の3次元スキャンを表す以前の顔面スキャンデータの少なくとも1つの記憶されたモデルと比較して、前記モデル間の差分を決定する動作;及び
    決定された前記差分を前記スキャンデータストアに記憶する動作
    をさらに含み、
    前記システムがディスプレイをさらに含み、
    前記複数の動作が、
    前記スキャナーから、新しい顔面の3次元スキャンを表す新しい顔面スキャンデータを受信する動作;
    前記新しい顔面スキャンデータのアイバッグエリアの新しいモデルを決定する動作;
    前記新しいモデル及び前記スキャンデータストアに記憶された決定された前記差分を使用して、予測された顔面スキャンデータを決定する動作;及び
    前記ディスプレイ上に、前記予測された顔面スキャンデータを表示する動作
    をさらに含む、システム
  10. 前記複数の動作が、前記以前の顔面スキャンデータを受信した後且つ前記第1の顔面スキャンデータを受信する前に、前記アイバッグエリアに適用された処置を評価するために、決定された前記差分を表示する動作をさらに含む、請求項に記載のシステム。
  11. 前記第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定する動作が、関連する目の両端に対する前記アイバッグエリアの中央で、前記アイバッグエリアの垂直断面を決定する動作を含む、請求項9又は10に記載のシステム。
  12. 前記第1のモデルに基づいて第1のスコアを決定する動作が、以下の動作:
    前記第1のモデルについての絶対曲線下面積(AUC)を決定する動作;
    前記第1のモデルについての最大値又は最小値を決定する動作;
    前記第1のモデルについての曲線終点間の傾きを決定する動作;及び
    前記第1のモデルについてのアーク長さを決定する動作
    のうち少なくとも1つを含む、
    請求項11に記載のシステム。
  13. 前記第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定する動作が、
    前記第1の顔面スキャンデータの基準面を決定する動作;
    前記第1の顔面スキャンデータ内の各ボクセルから前記基準面までの距離を決定する動作;及び
    前記距離のヒストグラムを決定する動作
    を含み、
    前記第1のモデルに基づいて第1のスコアを決定する動作が、前記ヒストグラムの標準偏差を決定する動作を含む、
    請求項9〜12のいずれか一項に記載のシステム。
  14. 前記複数の動作が、
    ペアワイズ粗調整を実施して、前記第1の顔面スキャンデータを第2の顔面スキャンデータと整列させる動作;及び
    全体的な微調整を実施して、エラー耐性が所定の閾値内になるまで全ての顔面スキャンデータを繰り返し再整列させる動作
    によって、前記第1の顔面スキャンデータを以前の顔面スキャンデータに整列させる動作をさらに含む、
    請求項9〜13のいずれか一項に記載のシステム。
  15. ペアワイズ粗調整を実施して、前記第1の顔面スキャンデータを第2の顔面スキャンデータと整列させる動作が、拘束フラクションオーバーラップパラメーター及びエラー耐性パラメーターの案内の下で、顔面の目印が整列するまで、前記第1の顔面スキャンデータを前記第2の顔面スキャンデータに繰り返し整列させる動作を含む、請求項14に記載のシステム。
  16. 3次元顔面スキャンデータを処理するためのシステムであって、前記システムが、
    顔面の3次元スキャンを表す第1の顔面スキャンデータを受信するための回路;
    前記第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定するための回路;
    前記第1のモデルに基づいて第1のスコアを決定するための回路;及び
    前記第1のスコアをスキャンデータストアに記憶するための回路
    を含む、システムであって、
    前記第1のモデルを、前記顔面の以前の3次元スキャンを表す以前の顔面スキャンデータの少なくとも1つの記憶されたモデルと比較して、前記モデル間の差分を決定するための回路;及び
    決定された前記差分を前記スキャンデータストアに記憶するための回路
    をさらに含み、
    新しい顔面の3次元スキャンを表す新しい顔面スキャンデータを受信するための回路;
    前記新しい顔面スキャンデータのアイバッグエリアの新しいモデルを決定するための回路;
    前記新しいモデル及び前記スキャンデータストアに記憶された決定された前記差分を使用して、予測された顔面スキャンデータを決定するための回路;及び
    前記予測された顔面スキャンデータをディスプレイ上に表示するための回路
    をさらに含む、
    システム
  17. 前記以前の顔面スキャンデータを受信した後且つ前記第1の顔面スキャンデータを受信する前に、前記アイバッグエリアに適用された処置を評価するために、決定された前記差分を表示するための回路をさらに含む、請求項16に記載のシステム。
  18. 前記第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定することが、関連する目の両端に対する前記アイバッグエリアの中央で、前記アイバッグエリアの垂直断面を決定することを含む、請求項16又は17に記載のシステム。
  19. 前記第1のモデルに基づいて第1のスコアを決定することが、
    前記第1のモデルについての絶対曲線下面積(AUC)を決定すること;
    前記第1のモデルについての最大値又は最小値を決定すること;
    前記第1のモデルについての曲線終点間の傾きを決定すること;及び
    前記第1のモデルについてのアーク長さを決定すること
    のうち少なくとも1つを含む、
    請求項18に記載のシステム。
  20. 前記第1の顔面スキャンデータのアイバッグエリアの第1のモデルを決定することが、
    前記第1の顔面スキャンデータの基準面を決定すること;
    前記第1の顔面スキャンデータ内の各ボクセルから前記基準面までの距離を決定すること;及び
    前記距離のヒストグラムを決定すること
    を含み、
    前記第1のモデルに基づいて第1のスコアを決定することが、前記ヒストグラムの標準偏差を決定することを含む、
    請求項1619のいずれか一項に記載のシステム。
  21. ペアワイズ粗調整を実施して、前記第1の顔面スキャンデータを第2の顔面スキャンデータと整列させること;及び
    全体的な微調整を実施して、エラー耐性が所定の閾値内になるまで全ての顔面スキャンデータを繰り返し再整列させること
    によって、前記第1の顔面スキャンデータを以前の顔面スキャンデータに整列させるための回路をさらに含む、
    請求項1620のいずれか一項に記載のシステム。
  22. ペアワイズ粗調整を実施して、前記第1の顔面スキャンデータを第2の顔面スキャンデータと整列させることが、拘束フラクションオーバーラップパラメーター及びエラー耐性パラメーターの案内の下で、顔面の目印が整列するまで、前記第1の顔面スキャンデータを前記第2の顔面スキャンデータに繰り返し整列させることを含む、請求項21に記載のシステム。
  23. コンピューティングデバイスの1又は複数のプロセッサによる実行に応答して、前記コンピューティングデバイスに請求項1〜8のいずれか一項に記載の3次元顔面スキャンデータを処理する方法を実施させるコンピュータ実行可能命令が記憶されている、非一時的コンピュータ可読媒体。
  24. 請求項1〜8のいずれか一項に記載の3次元顔面スキャンデータを処理する方法を実施するように構成される、顔面分析デバイス。
JP2019515336A 2016-09-19 2017-09-05 アイバッグの3次元分析のための、システム、デバイス、及び方法 Active JP6936852B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/269,246 US10395099B2 (en) 2016-09-19 2016-09-19 Systems, devices, and methods for three-dimensional analysis of eyebags
US15/269,246 2016-09-19
PCT/US2017/050051 WO2018052755A1 (en) 2016-09-19 2017-09-05 Systems, devices, and methods for three-dimensional analysis of eyebags

Publications (2)

Publication Number Publication Date
JP2019536496A JP2019536496A (ja) 2019-12-19
JP6936852B2 true JP6936852B2 (ja) 2021-09-22

Family

ID=59901591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019515336A Active JP6936852B2 (ja) 2016-09-19 2017-09-05 アイバッグの3次元分析のための、システム、デバイス、及び方法

Country Status (6)

Country Link
US (1) US10395099B2 (ja)
EP (1) EP3531893A1 (ja)
JP (1) JP6936852B2 (ja)
KR (1) KR102220035B1 (ja)
CN (1) CN110072433B (ja)
WO (1) WO2018052755A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7164333B2 (ja) * 2018-06-27 2022-11-01 株式会社日立製作所 個人情報分析システム
JP6983831B2 (ja) * 2019-03-26 2021-12-17 富士フイルム株式会社 弛み評価方法、弛み評価装置、及び弛み評価プログラム
CN111938655B (zh) * 2020-07-09 2021-09-03 上海交通大学 基于关键点信息的眼眶软组织形态评价方法、系统及设备
US11900556B2 (en) 2021-06-30 2024-02-13 L'oreal Generation of digital 3D models of body surfaces with automatic feature identification

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6571003B1 (en) * 1999-06-14 2003-05-27 The Procter & Gamble Company Skin imaging and analysis systems and methods
JP2002042115A (ja) * 2000-07-26 2002-02-08 Fujitsu Ltd 疲労緩和システム、疲労緩和方法及び記録媒体
JP4860472B2 (ja) * 2003-10-09 2012-01-25 ユニヴァーシティ オブ ヨーク 画像認識
US20060274071A1 (en) * 2004-09-29 2006-12-07 L'oreal Method of predicting the appearance of at least a portion of an individual's body
JP4761924B2 (ja) * 2004-10-22 2011-08-31 株式会社 資生堂 肌状態診断システムおよび美容のためのカウンセリングシステム
SG123618A1 (en) * 2004-12-15 2006-07-26 Chee Khin George Loo A method and system for verifying the identity of a user
US20060206724A1 (en) * 2005-02-16 2006-09-14 David Schaufele Biometric-based systems and methods for identity verification
JP2006223608A (ja) * 2005-02-18 2006-08-31 Hatsue Eguchi 下顔カバー付きアイマスク
JP4585471B2 (ja) * 2006-03-07 2010-11-24 株式会社東芝 特徴点検出装置及びその方法
US20080136814A1 (en) 2006-09-17 2008-06-12 Chang Woo Chu System and method for generating 3-d facial model and animation using one video camera
FR2915390B1 (fr) * 2007-04-24 2010-01-01 Ballot Flurin Apiculteurs Procede de traitement de la propolis
JP2009054060A (ja) * 2007-08-29 2009-03-12 Kao Corp 顔の形状評価方法
KR102559017B1 (ko) * 2007-09-24 2023-07-25 애플 인크. 전자 장치 내의 내장형 인증 시스템들
DE102007056528B3 (de) * 2007-11-16 2009-04-02 Seereal Technologies S.A. Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
WO2009067670A1 (en) * 2007-11-21 2009-05-28 Gesturetek, Inc. Media preferences
US8180112B2 (en) * 2008-01-21 2012-05-15 Eastman Kodak Company Enabling persistent recognition of individuals in images
JP4569670B2 (ja) * 2008-06-11 2010-10-27 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
KR101021027B1 (ko) * 2008-07-01 2011-03-09 경원대학교 산학협력단 피부 주름 평가를 위한 입체영상 측정 시스템 및 방법
CN101347332A (zh) * 2008-08-22 2009-01-21 深圳先进技术研究院 一种人脸三维面形数字化测量系统的测量方法及设备
TW201106919A (en) * 2009-08-21 2011-03-01 Jian-Han Chen Method for measuring and identifying dark cycles under eyes
JP2011150595A (ja) * 2010-01-22 2011-08-04 Shiseido Co Ltd 顔形状評価装置、顔形状評価方法、及び顔形状評価プログラム
FR2967348B1 (fr) * 2010-11-17 2013-05-10 Oreal Composition cosmetique pour le contour des yeux
US20140043329A1 (en) 2011-03-21 2014-02-13 Peng Wang Method of augmented makeover with 3d face modeling and landmark alignment
CN102429727B (zh) * 2011-08-10 2013-07-31 四川华肤生物科技有限责任公司 一种用于人体面部皮肤无创测量重复定位的方法
US8593634B1 (en) * 2012-06-15 2013-11-26 Larry Y Igarashi Custom cosmetic blending machine
US9342735B2 (en) * 2011-12-01 2016-05-17 Finding Rover, Inc. Facial recognition lost pet identifying system
US20130286161A1 (en) * 2012-04-25 2013-10-31 Futurewei Technologies, Inc. Three-dimensional face recognition for mobile devices
FR2995777B1 (fr) * 2012-09-26 2015-08-21 Lvmh Rech Methode de caracterisation des volumes de la peau
WO2014160448A1 (en) * 2013-03-13 2014-10-02 Soloinsight, Inc. Integrated workforce management and access control
KR102121592B1 (ko) * 2013-05-31 2020-06-10 삼성전자주식회사 시력 보호 방법 및 장치
WO2015017687A2 (en) 2013-07-31 2015-02-05 Cosmesys Inc. Systems and methods for producing predictive images
JP6209417B2 (ja) 2013-10-21 2017-10-04 日本メナード化粧品株式会社 目元印象評価装置および目元印象評価方法
US20150126907A1 (en) * 2013-10-30 2015-05-07 Living Proof, Inc. Scale and associated metric for treatment of facial wrinkles and related conditions
US9361510B2 (en) * 2013-12-13 2016-06-07 Intel Corporation Efficient facial landmark tracking using online shape regression method
EP3084682B1 (en) * 2013-12-19 2019-07-24 Avigilon Fortress Corporation System and method for identifying faces in unconstrained media
US9846522B2 (en) * 2014-07-23 2017-12-19 Microsoft Technology Licensing, Llc Alignable user interface
CN204395236U (zh) * 2014-10-29 2015-06-17 刘东光 一种用于面部的3d综合美容仪
CN204521532U (zh) * 2015-02-10 2015-08-05 刘东光 眼面部美容保健仪

Also Published As

Publication number Publication date
CN110072433A (zh) 2019-07-30
CN110072433B (zh) 2022-04-05
US10395099B2 (en) 2019-08-27
KR20190096933A (ko) 2019-08-20
KR102220035B1 (ko) 2021-02-24
US20180082108A1 (en) 2018-03-22
EP3531893A1 (en) 2019-09-04
JP2019536496A (ja) 2019-12-19
WO2018052755A1 (en) 2018-03-22

Similar Documents

Publication Publication Date Title
JP6936852B2 (ja) アイバッグの3次元分析のための、システム、デバイス、及び方法
US11688105B2 (en) Facial expression image processing method and apparatus
US9256951B2 (en) System for rapid and accurate quantitative assessment of traumatic brain injury
KR101835873B1 (ko) 의료 이미지들의 분할 불확실성의 계산 및 시각화를 위한 시스템들 및 방법들
JP2020513615A (ja) 深層学習ニューラルネットワークの分散化された診断ワークフロー訓練
US10650525B2 (en) Interactive image segmenting apparatus and method
US20200234444A1 (en) Systems and methods for the analysis of skin conditions
US9058650B2 (en) Methods, apparatuses, and computer program products for identifying a region of interest within a mammogram image
US9588666B2 (en) Image processing apparatus, image processing method, and storage medium
US10034610B2 (en) System and method for registration of brain images
Pineda et al. Robust automated reading of the skin prick test via 3D imaging and parametric surface fitting
US9538920B2 (en) Standalone annotations of axial-view spine images
JP2013521039A (ja) 神経精神医学障害に関する規範的なデータセット
Heckel et al. On the evaluation of segmentation editing tools
Wachinger et al. Gaussian process interpolation for uncertainty estimation in image registration
Ghrenassia et al. Interactive segmentation of tongue contours in ultrasound video sequences using quality maps
KR20220145758A (ko) 컴퓨팅 장치를 이용한 하악골 비대칭 평가 방법 및 이를 이용한 수술 시뮬레이션 방법
JP2019512284A (ja) 組織変形の存在下において手術を支援するためのシステム及び方法
CN106157289B (zh) 线检测方法和设备
JP6319820B2 (ja) 属性要因分析方法、装置、およびプログラム
US20220313075A1 (en) Apparatus and method for imaging structure in a transparent medium
O'Dell Method for accurate sizing of pulmonary vessels from 3D medical images
US20200242394A1 (en) Display control method and display control apparatus
KR20240018144A (ko) 뇌질환 위험도를 예측하는 방법 및 뇌질환 위험도 분석 모델의 학습 방법
KR20240018722A (ko) 뇌혈류 데이터를 연산하는 방법 및 뇌혈류 데이터를 연산하기 위한 신경망 모델의 학습 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210517

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210629

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210827

R150 Certificate of patent or registration of utility model

Ref document number: 6936852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150