JP6761824B2 - 身体情報分析装置およびその眉型比較補助方法 - Google Patents
身体情報分析装置およびその眉型比較補助方法 Download PDFInfo
- Publication number
- JP6761824B2 JP6761824B2 JP2018006441A JP2018006441A JP6761824B2 JP 6761824 B2 JP6761824 B2 JP 6761824B2 JP 2018006441 A JP2018006441 A JP 2018006441A JP 2018006441 A JP2018006441 A JP 2018006441A JP 6761824 B2 JP6761824 B2 JP 6761824B2
- Authority
- JP
- Japan
- Prior art keywords
- eyebrow
- feature points
- mirroring
- image
- auxiliary line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 210000004709 eyebrow Anatomy 0.000 title claims description 344
- 238000000034 method Methods 0.000 title claims description 47
- 238000012545 processing Methods 0.000 claims description 68
- 238000004458 analytical method Methods 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 19
- 230000001815 facial effect Effects 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 9
- 210000001331 nose Anatomy 0.000 claims description 7
- 238000013519 translation Methods 0.000 claims description 4
- 238000012937 correction Methods 0.000 description 32
- 230000000875 corresponding effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 210000001508 eye Anatomy 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000012733 comparative method Methods 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- UMOBBYYPUXMHTB-UHFFFAOYSA-N C1C(C2)CCC3C2C13 Chemical compound C1C(C2)CCC3C2C13 UMOBBYYPUXMHTB-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Geometry (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Tourism & Hospitality (AREA)
- Biophysics (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Physiology (AREA)
- Artificial Intelligence (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
また、眉補正が成功したかどうかの判断は、通常左眉と右眉の眉型が対称であるかどうかによる。
通常、使用者は鏡の前に座って眉補正を行い、またはスマートフォンのカメラおよびスクリーンを鏡の代わりにして眉補正を行う。
これにかんがみ、現在、経験不足の使用者がすばやく眉補正を行うのを有効に補助することができる補助装置が強く求められている。
実施例において、顔部分析モジュール101は、顔部イメージの1側の眉毛イメージ(左眉イメージなど)の複数の眉毛特徴点を識別する。ミラーリングモジュール102は、複数の眉毛特徴点にミラーリング処理を実行し、それによって複数のミラーリング特徴点を得る。計算モジュール103は、対称補助線を計算し、対称補助線およびミラーリング特徴点に基づいて投影位置を計算する。
ステップS10:分析装置1の処理ユニット10は、イメージ取込モジュール12が使用者の顔部を撮影し、それによって使用者の顔部イメージ(図9に示された顔部イメージ51)を取り込むよう制御する。
ステップS12:処理ユニット10は、取り込まれた顔部イメージ51に顔部分析処理を実行し、それによって顔部イメージ51中で眉毛イメージを識別する。
これによって本発明は、複数の特徴点6の番号、形状、順序などの情報に応じて、顔部イメージ51中で各部位の位置を確定し、それによって特定部位を識別することができる。
ステップS202:処理ユニット10は、顔部イメージの両側のうち1つを基準側として選択する。具体的には、使用者は、まず右眉に眉補正を行い、手入れが済んでから分析装置1を使用し、手入れ後の右眉を基準側として選択し、それによって分析装置1によって、引き続き左目を手入れする。その反対も同様である。
実施例において、計算モジュール103は、鼻データセットの複数の鼻特徴点62、63を通過する直線を対称補助線82とする。
実施例において、計算モジュール103は、鼻データセットの複数の鼻特徴点62、63に線形回帰演算を行い、算出された回帰線を対称補助線82とする。
実施例において、計算モジュール103は、顔部イメージの中線をそのまま対称補助線82とする。
実施例において、処理ユニット10は、ミラーリング処理を実行して、複数のミラーリング特徴点61’の配列関係を生成するのみであるが、各ミラーリング特徴点61’の位置を設定することはない。
ステップS212:処理ユニット10は、計算モジュール103によって第1の眉毛データセットのすべてまたは一部の眉毛特徴点61と対称補助線82との間の複数の垂直距離(第1の垂直距離)を計算する。
実施例において、ミラーリングモジュール102は、複数のミラーリング特徴点61’が囲んでなる領域を投影位置とするが、これに限定されない。
実施例において、ミラーリングモジュール102が複数のミラーリング特徴点61’の中心を投影位置とする場合、処理ユニット10は、眉型ミラーリングパターン73’の中心を投影位置にアライメントして表示する。
実施例において、ミラーリングモジュール102が複数のミラーリング特徴点61’のうち1つを投影位置として選択した場合、処理ユニット10は、眉型ミラーリングパターン73’の特定部位を投影位置にアライメントして表示する。
具体的には使用者は、眉補正を完了した後、入力インターフェース15または電子装置2によって眉型比較補助機能を閉じることができる。
処理ユニット10が、眉型比較補助機能が閉じられたと判断した場合、眉型比較補助方法を終了する。そうでない場合、処理ユニット10は、再度ステップS200〜S216を実行する。
ステップS30:処理ユニット10は、計算モジュール103によって対称補助線を計算する。
ステップS32:処理ユニット10は、対称補助線に基づき、第2の眉毛データセットの複数の第2の眉毛特徴点67〜69にミラーリング処理を実行し、それによってミラーリング後の複数のミラーリング特徴点67’〜69’を得る(図12D参照)。また、処理ユニット10は、第1の眉毛データセットの複数の第1の眉毛特徴点64〜66にミラーリング処理を実行する必要はない(図12C参照)。
ステップS34:処理ユニット10は、計算モジュール103により、複数のミラーリング特徴点67’〜69’および基準としての第2の眉毛データセットに基づき、調整パラメータ群を計算する。
実施例において、計算モジュール103は、Rigid Registrationシステムを使用してLeast−square estimationアルゴリズムを組み合わせ、前述の調整パラメータ群を計算する。Rigid RegistrationシステムおよびLeast−square estimationアルゴリズムは、本技術分野における常用技術手段であり、2つのデータ(複数の第1の眉毛特徴点64〜66と複数のミラーリング特徴点67’〜69’など)を分析し、1群の調整パラメータ群を計算することができる。
ステップS38:処理ユニット10は、描画モジュール104により、調整後の複数のミラーリング特徴点67”〜69”の位置に基づき、眉型ミラーリングパターンを描画する。
もちろん本発明は、その他さまざまな実施例を有することもでき、本発明の精神およびその実質を逸脱せずに、当業者なら本発明に基づいて各種相応の変更および変形を行うことができるはずであるが、これらの相応の変更および変形は、すべて本発明に添付された特許請求の範囲の保護範囲に属するべきである。
1 身体情報分析装置
10 処理ユニット
101 顔部分析モジュール
102 ミラーリングモジュール
103 計算モジュール
104 描画モジュール
11 ミラースクリーン
111 ディスプレイモジュール
12 イメージ取込モジュール
13 ボタン
14 センサ
15 入力インターフェース
16 無線伝送モジュール
2 電子装置
21 ソフトウェア
3 無線ルータ
4 インターネット
5 鏡像
51〜53 顔部イメージ
6 特徴点
61,64〜69 眉毛特徴点
61’、67’〜69’ ミラーリング特徴点
62〜63 鼻特徴点
67”〜69” 調整後のミラーリング特徴点
71〜76 眉毛イメージ
71’、73’ 眉型ミラーリングパターン
81〜82 対称補助線
90〜92 パターン
D1〜D3 垂直距離
S10〜S18 第1の眉型比較補助ステップ
S200〜S218 第2の眉型比較補助ステップ
S30〜S38 眉型ミラーリングパターン生成ステップ
Claims (13)
- 身体情報分析装置に応用される眉型比較補助方法であって、以下のステップ、すなわち、
a)前記身体情報分析装置のイメージ取込モジュールを制御して顔部イメージを取り込むステップと、
b)ユーザにより行われる基準側選択指令または基準側選択操作に基づき、前記顔部イメージにおける左右の眉毛のうち1つを選択するステップと、
c)前記身体情報分析装置の処理ユニットを制御して前記顔部イメージ中で選択された前記側の眉毛イメージを識別するステップと、
d)前記処理ユニットが、選択された前記側の前記眉毛イメージに対してミラーリング処理を実行し眉型ミラーリングパターンを生成するステップと、
e)前記処理ユニットが、前記眉毛イメージの位置に基づき、前記顔部イメージの対称補助線から前記眉型ミラーリングパターンの投影位置を計算し、ここで、前記投影位置は前記顔部イメージの前記対称補助線に対して他側にあるステップと、
f)前記身体情報分析装置のディスプレイモジュールを制御して前記顔部イメージを表示すると同時に、前記投影位置に前記眉型ミラーリングパターンを投影表示するステップとを含む眉型比較補助方法。 - 前記ステップc)は、ステップc1)前記顔部イメージに顔部分析処理を実行し、それによって前記眉毛イメージの複数の眉毛特徴点を識別し、ここで、前記複数の眉毛特徴点は、それぞれ眉毛の異なる特徴に対応するステップを含む、請求項1に記載の眉型比較補助方法。
- 前記ステップd)は、以下のステップ、すなわち、
d1)前記対称補助線に基づき、前記複数の眉毛特徴点にミラーリング処理を実行し、それによって複数のミラーリング特徴点を得、ここで、前記複数のミラーリング特徴点と前記複数の眉毛特徴点とは、それぞれ前記対称補助線の異なる側にあるステップと、
d2)前記複数のミラーリング特徴点を接続して、前記眉型ミラーリングパターンを描画するステップと、を含む、請求項2に記載の眉型比較補助方法。 - 前記ステップc1)は、鼻イメージの複数の鼻特徴点をさらに識別し、ここで、前記複数の鼻特徴点は、それぞれ鼻の異なる特徴に対応し、前記d1)の前に、ステップd0)前記複数の鼻特徴点に基づき、前記対称補助線を計算するステップをさらに含み、前記ステップe)は、前記複数の眉毛特徴点の位置に基づき、前記対称補助線から前記投影位置を計算するものである、請求項3に記載の眉型比較補助方法。
- 前記ステップe)は、以下のステップ、すなわち、
e1)前記複数の眉毛特徴点と前記対称補助線との間の複数の第1の垂直距離を計算するステップと、
e2)前記複数の第1の垂直距離に基づき、前記複数のミラーリング特徴点の位置を前記対称補助線の他側に設定し、設定後の前記複数のミラーリング特徴点の位置に基づき、前記投影位置を計算し、ここで、前記複数のミラーリング特徴点と前記対称補助線との間の複数の第2の垂直距離は、それぞれ前記複数の第1の垂直距離と同一であり、各前記眉毛特徴点と対応する各前記ミラーリング特徴点との間の接続線は、前記対称補助線に垂直である、請求項4に記載の眉型比較補助方法。 - 前記ステップc)は、ステップc2)前記顔部イメージに顔部分析処理を実行し、それによってそれぞれ前記顔部イメージの両側にある第1の眉毛イメージの複数の第1の眉毛特徴点および第2の眉毛イメージの複数の第2の眉毛特徴点を識別し、前記複数の第1の眉毛特徴点に基づき、第1の眉毛データセットを構築し、前記複数の第2の眉毛特徴点に基づき、第2の眉毛データセットを構築するステップを含み、ここで、前記複数の第1の眉毛特徴点は、少なくともそれぞれ1側の眉毛の眉頭、眉山および眉尻に対応する3つの前記第1の眉毛特徴点を含み、前記複数の第2の眉毛特徴点は、少なくともそれぞれ他側の眉毛の眉頭、眉山および眉尻に対応する3つの前記第2の眉毛特徴点を含む、請求項1に記載の眉型比較補助方法。
- 前記ステップd)は、以下のステップ、すなわち、
d3)前記対称補助線に基づき、前記第1の眉毛データセットにミラーリング処理を実行し、それによって複数のミラーリング特徴点を得るステップと、
d4)前記複数のミラーリング特徴点および前記第2の眉毛データセットに基づき、調整パラメータ群を計算し、ここで、前記調整パラメータ群は、平行移動パラメータ、回転パラメータおよびスケーリングパラメータを含むステップと、
d5)前記対称補助線および前記調整パラメータ群に基づき、前記複数のミラーリング特徴点の位置を調整するステップと、
d6)調整後の前記複数のミラーリング特徴点の位置に基づき、前記眉型ミラーリングパターンを描画するステップと、を含む、請求項6に記載の眉型比較補助方法。 - 前記ステップe)は、調整後の前記複数のミラーリング特徴点の位置に基づき、前記投影位置を計算する、請求項7に記載の眉型比較補助方法。
- 顔部イメージを取り込むためのイメージ取込モジュールと、
前記顔部イメージを表示すると同時に、投影位置に眉型ミラーリングパターンを投影表示するためのディスプレイモジュールと、
前記顔部イメージの両側のうち1つをユーザによって選択される基準側選択操作を受け入れるための入力インターフェースと、
電子装置を接続し、前記電子装置から前記顔部イメージにおける左右の眉毛のうち1つを前記ユーザによって選択される基準側選択指令を受け入れるための無線伝送モジュールと、
前記イメージ取込モジュール、前記ディスプレイモジュール、前記入力インターフェース及び無線伝送モジュールを電気接続し、前記顔部イメージの選択された側の眉毛イメージを識別し、選択された前記側の前記眉毛イメージに対してミラーリング処理を実行し、眉型ミラーリングパターンを生成し、前記眉毛イメージの位置に基づき、前記顔部イメージの対称補助線から前記眉型ミラーリングパターンの前記投影位置を計算し、ここで、前記投影位置は、前記顔部イメージの前記対称補助線に対して他側にある処理モジュールと、を含む身体情報分析装置。 - 前記処理ユニットは、顔部分析モジュールを含み、前記顔部分析モジュールは、前記顔部イメージに顔部分析処理を実行し、それによって前記眉毛イメージの複数の眉毛特徴点および鼻イメージの複数の鼻特徴点を識別し、ここで、前記複数の眉毛特徴点は、それぞれ眉毛の異なる特徴に対応し、前記複数の鼻特徴点は、それぞれ鼻の異なる特徴に対応する、請求項9に記載の身体情報分析装置。
- 前記処理ユニットは、
前記対称補助線に対して、前記複数の眉毛特徴点に前記ミラーリング処理を実行し、それによって複数のミラーリング特徴点を得るために用いられ、ここで、前記複数のミラーリング特徴点と前記複数の眉毛特徴点とは、それぞれ前記対称補助線の異なる側にあるミラーリングモジュールと、
前記複数の鼻特徴点に基づき前記対称補助線を計算し、前記対称補助線および前記複数のミラーリング特徴点の位置に基づき前記投影位置を計算するための計算モジュールと、
前記複数のミラーリング特徴点を接続して、前記眉型ミラーリングパターンを描画するための描画モジュールと、をさらに含む、請求項9に記載の身体情報分析装置。 - 前記計算モジュールは、前記複数の眉毛特徴点と前記対称補助線との間の複数の第1の垂直距離を計算し、前記複数の第1の垂直距離に基づき、前記対称補助線の他側にある前記複数のミラーリング特徴点を計算し、前記複数のミラーリング特徴点の位置に基づき、前記投影位置を計算するものであり、ここで、前記複数のミラーリング特徴点と前記対称補助線との間の複数の第2の垂直距離は、それぞれ前記複数の第1の垂直距離と同一であり、各前記眉毛特徴点と対応する各前記ミラーリング特徴点との間の接続線は、前記対称補助線に垂直である、請求項11に記載の身体情報分析装置。
- 前記処理ユニットは、
前記顔部イメージに顔部分析処理を実行し、それによってそれぞれ前記対称補助線の両側にある第1の眉毛イメージの複数の第1の眉毛特徴点および第2の眉毛イメージの複数の第2の眉毛特徴点を識別し、前記複数の第1の眉毛特徴点に基づき、第1の眉毛データセットを構築し、前記複数の第2の眉毛特徴点に基づき、第2の眉毛データセットを構築し、ここで、前記複数の第1の眉毛特徴点は、少なくともそれぞれ1側の眉毛の眉頭、眉山および眉尻に対応する3つの前記第1の眉毛特徴点を含み、前記複数の第2の眉毛特徴点は、少なくともそれぞれ他側の眉毛の眉頭、眉山および眉尻に対応する3つの前記第2の眉毛特徴点を含む顔部分析モジュールと、
前記対称補助線に対して、前記第1の眉毛データセットに前記ミラーリング処理を実行し、それによって複数のミラーリング特徴点を得るミラーリングモジュールと、
前記複数のミラーリング特徴点および前記第2の眉毛データセットに基づき、調整パラメータ群を計算し、前記対称補助線および前記調整パラメータ群に基づき、前記複数のミラーリング特徴点の位置を調整し、調整後の前記複数のミラーリング特徴点の位置に基づき、前記投影位置を計算し、ここで、前記調整パラメータ群は、平行移動パラメータ、回転パラメータおよびスケーリングパラメータを含む計算モジュールと、
調整後の前記複数のミラーリング特徴点の位置に基づき、前記眉型ミラーリングパターンを描画するための描画モジュールと、を含む、請求項9に記載の身体情報分析装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710896760.9 | 2017-09-28 | ||
CN201710896760.9A CN109583261A (zh) | 2017-09-28 | 2017-09-28 | 身体信息分析装置及其辅助比对眉型方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019063479A JP2019063479A (ja) | 2019-04-25 |
JP6761824B2 true JP6761824B2 (ja) | 2020-09-30 |
Family
ID=61691252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018006441A Expired - Fee Related JP6761824B2 (ja) | 2017-09-28 | 2018-01-18 | 身体情報分析装置およびその眉型比較補助方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10521648B2 (ja) |
EP (1) | EP3462376B1 (ja) |
JP (1) | JP6761824B2 (ja) |
KR (1) | KR102045218B1 (ja) |
CN (1) | CN109583261A (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109288233A (zh) * | 2017-07-25 | 2019-02-01 | 丽宝大数据股份有限公司 | 可标示修容区域的身体信息分析装置 |
WO2019142420A1 (ja) * | 2018-01-22 | 2019-07-25 | ソニー株式会社 | 情報処理装置および情報処理方法 |
CN109165571B (zh) * | 2018-08-03 | 2020-04-24 | 北京字节跳动网络技术有限公司 | 用于插入图像的方法和装置 |
JP7175476B2 (ja) * | 2019-10-30 | 2022-11-21 | 有限会社 ティ・アール・コーポレーション | デザイン方法、眉デザインサーバ及びデザイン支援プログラム |
CN110866979A (zh) * | 2019-11-14 | 2020-03-06 | 联想(北京)有限公司 | 数据处理方法、装置、计算设备以及介质 |
US20210187765A1 (en) * | 2019-12-18 | 2021-06-24 | L'oreal | Browblade adapter mechanism |
CN111553220A (zh) * | 2020-04-21 | 2020-08-18 | 海信集团有限公司 | 一种智能设备及数据处理方法 |
CN111553221B (zh) * | 2020-04-21 | 2023-10-31 | 海信集团有限公司 | 一种数据处理方法及智能设备 |
CN114554097A (zh) * | 2022-02-28 | 2022-05-27 | 维沃移动通信有限公司 | 显示方法、显示装置、电子设备和可读存储介质 |
US11924588B2 (en) * | 2022-05-19 | 2024-03-05 | Fleek Inc. | System and method for guiding eyebrow shaping with projected light |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2341231A (en) | 1998-09-05 | 2000-03-08 | Sharp Kk | Face detection in an image |
AUPS140502A0 (en) * | 2002-03-27 | 2002-05-09 | Seeing Machines Pty Ltd | Method for automatic detection of facial features |
JP2004357801A (ja) * | 2003-06-02 | 2004-12-24 | Fuji Photo Film Co Ltd | 化粧用表示装置 |
JP4180027B2 (ja) * | 2004-08-27 | 2008-11-12 | 株式会社豊田中央研究所 | 顔部品位置検出装置及び方法並びにプログラム |
US20070047761A1 (en) * | 2005-06-10 | 2007-03-01 | Wasilunas Elizabeth A | Methods Of Analyzing Human Facial Symmetry And Balance To Provide Beauty Advice |
KR101363691B1 (ko) * | 2006-01-17 | 2014-02-14 | 가부시키가이샤 시세이도 | 메이크업 시뮬레이션 시스템, 메이크업 시뮬레이션 장치,메이크업 시뮬레이션 방법 및 메이크업 시뮬레이션프로그램 |
JP5191665B2 (ja) * | 2006-01-17 | 2013-05-08 | 株式会社 資生堂 | メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム |
JP4793823B2 (ja) * | 2006-04-26 | 2011-10-12 | 株式会社メガチップス | メークアップアシスト装置および眉毛描画アシスト装置 |
EP1865443A3 (en) | 2006-06-09 | 2010-03-17 | Samsung Electronics Co.,Ltd. | Facial feature detection method and device |
US20090151741A1 (en) * | 2007-12-14 | 2009-06-18 | Diem Ngo | A cosmetic template and method for creating a cosmetic template |
JP2009213751A (ja) * | 2008-03-12 | 2009-09-24 | Sony Ericsson Mobilecommunications Japan Inc | 化粧評価プログラム、化粧評価方法および化粧評価装置 |
JP4760999B1 (ja) * | 2010-10-29 | 2011-08-31 | オムロン株式会社 | 画像処理装置、画像処理方法、および制御プログラム |
JP5656603B2 (ja) | 2010-12-14 | 2015-01-21 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびそのプログラム |
JP2013158481A (ja) | 2012-02-06 | 2013-08-19 | Seiko Epson Corp | 電子鏡およびそのプログラム |
CN102708575A (zh) * | 2012-05-17 | 2012-10-03 | 彭强 | 基于人脸特征区域识别的生活化妆容设计方法及系统 |
FR2995411B1 (fr) | 2012-09-07 | 2014-09-19 | Tipheret | Procede et dispositif pour preparer une monture de lunettes |
GB2525516B (en) * | 2012-11-14 | 2020-04-22 | Weiss Golan | Biometric methods and systems for enrollment and authentication |
WO2014161189A1 (en) | 2013-04-03 | 2014-10-09 | Nokia Corporation | An apparatus and associated methods |
JP5863930B2 (ja) * | 2014-11-14 | 2016-02-17 | レノボ・イノベーションズ・リミテッド(香港) | 化粧支援装置、化粧支援方法、及びプログラム |
US10292483B2 (en) * | 2017-03-21 | 2019-05-21 | Nisan Shlomov | Eyebrow shaping method |
-
2017
- 2017-09-28 CN CN201710896760.9A patent/CN109583261A/zh active Pending
-
2018
- 2018-01-14 US US15/870,984 patent/US10521648B2/en not_active Expired - Fee Related
- 2018-01-15 KR KR1020180005061A patent/KR102045218B1/ko active IP Right Grant
- 2018-01-18 JP JP2018006441A patent/JP6761824B2/ja not_active Expired - Fee Related
- 2018-03-14 EP EP18161754.9A patent/EP3462376B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019063479A (ja) | 2019-04-25 |
KR102045218B1 (ko) | 2019-11-15 |
KR20190037050A (ko) | 2019-04-05 |
US20190095696A1 (en) | 2019-03-28 |
CN109583261A (zh) | 2019-04-05 |
EP3462376A1 (en) | 2019-04-03 |
US10521648B2 (en) | 2019-12-31 |
EP3462376B1 (en) | 2020-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6761824B2 (ja) | 身体情報分析装置およびその眉型比較補助方法 | |
JP6803348B2 (ja) | 拡張現実を結合した身体情報分析装置およびその眉型プレビュー方法 | |
JP6568606B2 (ja) | 身体情報分析装置およびそのアイシャドウの分析方法 | |
JP6547013B2 (ja) | 生体情報解析装置及びその頬紅解析方法 | |
JP6019947B2 (ja) | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム | |
KR102065480B1 (ko) | 신체 정보 분석 장치 및 입술 화장 분석 방법 | |
KR102045228B1 (ko) | 신체 정보 분석 장치 및 얼굴형 모의 방법 | |
WO2012119371A1 (zh) | 一种用户交互系统和方法 | |
KR102045217B1 (ko) | 인체 정보 분석장치 및 메이크업 파운데이션 분석 방법 | |
KR102101337B1 (ko) | 볼터치 구역의 표시가 가능한 신체 정보 분석 장치 | |
US10824850B2 (en) | Body information analysis apparatus capable of indicating shading-areas | |
RU2703327C1 (ru) | Способ обработки двухмерного изображения и реализующее его вычислительное устройство пользователя | |
US10496873B2 (en) | Body information analysis apparatus and method of detecting face shape by using same | |
TWI554910B (zh) | Medical image imaging interactive control method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190723 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6761824 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |