JP6761407B2 - 身体情報分析装置および顔形診断方法 - Google Patents

身体情報分析装置および顔形診断方法 Download PDF

Info

Publication number
JP6761407B2
JP6761407B2 JP2017249551A JP2017249551A JP6761407B2 JP 6761407 B2 JP6761407 B2 JP 6761407B2 JP 2017249551 A JP2017249551 A JP 2017249551A JP 2017249551 A JP2017249551 A JP 2017249551A JP 6761407 B2 JP6761407 B2 JP 6761407B2
Authority
JP
Japan
Prior art keywords
face
ratio
feature points
contour
human face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017249551A
Other languages
English (en)
Other versions
JP2019053706A (ja
Inventor
軾榮 沈
軾榮 沈
敏昶 季
敏昶 季
暉騰 林
暉騰 林
靖維 王
靖維 王
Original Assignee
麗寶大數據股▲フン▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 麗寶大數據股▲フン▼有限公司 filed Critical 麗寶大數據股▲フン▼有限公司
Publication of JP2019053706A publication Critical patent/JP2019053706A/ja
Application granted granted Critical
Publication of JP6761407B2 publication Critical patent/JP6761407B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、身体情報分析装置および顔形診断方法に関する。
女性にとって、化粧は、ほぼ毎日行うことの1つである。通常、使用者は、鏡の前に座って化粧するが、スマートフォンやタブレットPCなどの設備のカメラおよびスクリーンを利用して化粧することもある。
通常、化粧する際に、使用者は、自分の顔形のタイプ(例えば、楕円形顔、円形顔、または菱形顔など)に応じて適切な化粧法を選んで化粧する。適切な化粧法で化粧すると、使用者の化粧後の顔に、視覚的により良い美観効果をもたらすことができる。
しかしながら、一般的に、使用者は、自分の顔形タイプについて、自分の目で観察し判断することしかできない。そのため、一部の経験不足の使用者は、自分の顔がどのタイプであるかを判断することができず、あるいは、正しく判断することができないため、良い化粧効果を得ることができない場合がある。
このような状況に鑑み、本発明は、使用者の顔形タイプを自動的に診断することが可能な身体情報分析装置および顔形診断方法を提供することを目的としている。
上記目的を達成するため、本発明に係る身体情報分析装置は、外部映像を撮るための映像取得モジュールと、顔形情報を表示するための表示モジュールと、前記映像取得モジュールおよび前記表示モジュールに電気的に接続される処理ユニットとを備え、前記処理ユニットは、顔面分析モジュールと、第1計算モジュールと、顔形診断モジュールと、情報生成モジュールとを備えており、前記顔面分析モジュールは、前記外部映像から人顔を識別した場合、前記人顔の眉、口、および2つの第1輪郭特徴ポイントに対して位置決めを行い、前記2つの第1輪郭特徴ポイントは、前記人顔の両側にあって前記人顔の輪郭における前記口と同じ高さの部位にそれぞれ位置するものであり、前記第1計算モジュールは、前記眉と前記口との間の垂直距離を計算して第1距離とし、前記2つの第1輪郭特徴ポイントの間の水平距離を計算して第2距離とし、前記第1距離と前記第2距離との第1比率を計算し、前記顔形診断モジュールは、前記第1比率に基づいて前記人顔の顔形を決定し、前記情報生成モジュールは、決定した前記人顔の顔形タイプに基づいて、該当の前記顔形情報を生成するようになっている。
上述した本発明に係る身体情報分析装置によれば、使用者の顔形タイプを自動的に診断することができる。当該装置を利用して、使用者は、自分の顔形に応じて、適切な化粧法を選び、適切な身なりや服装(ピアス、イアリング、ネックレスなどのアクセッサリの選択、帽子、マフラなどの服装の選択、髪型、メガネの選択など)を行うことができる。
また、上記目的を達成するため、本発明に係る顔形診断方法は、身体情報分析装置に用いる顔形診断方法であって、前記身体情報分析装置の映像取得モジュールを介して外部映像を撮るステップAと、前記身体情報分析装置の処理ユニットを制御することにより、前記外部映像から人顔を識別した場合、前記人顔の眉、口、および前記人顔の両側にあって前記人顔の輪郭における前記口と同じ高さの部位にそれぞれ位置する2つの第1輪郭特徴ポイントに対して位置決めを行うステップBと、前記眉と前記口との間の垂直距離を計算して第1距離とし、前記2つの第1輪郭特徴ポイントの間の水平距離を計算して第2距離とするステップCと、前記第1距離と前記第2距離との第1比率を計算するステップDと、前記第1比率に基づいて前記人顔の顔形を決定し、前記身体情報分析装置の表示モジュールを介して該当の顔形情報を表示するステップEとを含む。
上記本発明の顔形診断方法によれば、使用者の顔形タイプを自動的に診断することができるため、身なりや服装、および化粧に役立つ情報を使用者に提供することができる。
図1は、本発明の一実施の形態の身体情報分析装置が適用されたシステムの構成図である。 図2は、上記実施の形態の身体情報分析装置を示す第1模式図である。 図3は、上記実施の形態の身体情報分析装置を示す第2模式図である。 図4は、上記実施の形態の身体情報分析装置の構成を示すブロック図である。 図5は、上記実施の形態における処理ユニットの構成図である。 図6は、本発明の顔形診断方法の第1の実施の形態を示すフロチャートである。 図7は、本発明の顔形診断方法の第2の実施の形態を示す部分フロチャートである。 図8は、本発明の顔形診断方法の第3の実施の形態を示す部分フロチャートである。 図9は、本発明の顔形診断方法の第4の実施の形態を示す部分フロチャートである。 図10は、本発明の顔形診断方法の第5の実施の形態を示す部分フロチャートである。 図11は、本発明の顔形診断方法の第6の実施の形態を示す部分フロチャートである。 図12は、本発明における顔分析を説明するための第1模式図である。 図13は、本発明における顔分析を説明するための第2模式図である。 図14は、本発明における顔分析を説明するための第3模式図である。 図15Aは、上記第6の実施の形態における顔形情報を示す第1模式図である。 図15Bは、上記第6の実施の形態における顔形情報を示す第2模式図である。 図15Cは、上記第6の実施の形態における顔形情報を示す第3模式図である。 図15Dは、上記第6の実施の形態における顔形情報を示す第4模式図である。 図15Eは、上記第6の実施の形態における顔形情報を示す第5模式図である。 図15Fは、上記第6の実施の形態における顔形情報を示す第6模式図である。
次に、図面を参照しながら、本発明の身体情報分析装置および顔形診断方法の実施の形態について詳細に説明する。但し、以下の説明の内容は、本発明の技術手段およびその効果と作用をよく分かりやすく理解するためのものであり、本発明の特許請求の範囲を制限するものではない。
<身体情報分析装置の実施の形態>
図1は、本実施の形態の身体情報分析装置1(以下、「分析装置1」と称する)が適用されたシステムの構成図である。当該システムにおいて、分析装置1は、電子装置2に接続されているとともに、無線ルータ30に接続されて、当該無線ルータ30を介してインターネット32に接続され、さらに、インターネット32を介してサーバ34に接続されるようになっている。以下、具体的に説明する。
電子装置2の記憶ユニット(図示省略)には、分析装置1にアクセスするためのソフトウェア21(例えば、分析装置1の製造メーカより開発または提供されたアプリケーション)がインストールされている。使用者は、電子装置2を利用して分析装置1を設定することができる。即ち、使用者は、ソフトウェア21を操作することによって、分析装置1に対する様々な設定を行うことができる。例えば、使用者のデータを入力したり、使用者の映像(例えば、顔の映像)を登録したり、各種の所定値を設定したりすることができる。
1つの実施例として、使用者は、分析装置1の入力インターフェース(例えば、図4に示す入力インターフェース15)を直接操作することによって、各種の設定操作を行うことができるように構成してもよい。
1つの実施例として、分析装置1の無線伝送モジュール(図4に示す無線伝送モジュール16)は、Wi−Fi通信技術、ブルートゥース(登録商標)通信技術、ZiGBEE通信技術、RF通信技術、赤外線通信技術、光通信技術、音響通信技術およびその他の無線通信技術のうちの少なくとも1つを介して、電子装置2とデータ伝送を行うことができるように構成してもよい。
1つの実施例として、分析装置1は、所在地域にある無線ルータ30に接続され、当該無線ルータ30を介してインターネット32にアクセスすることができるように構成してもよい。これにより、分析装置1から、インターネット32を介して、ファームウェアのアップデート、データのアップロードおよびダウンロードなどの操作を行うことができる。さらに、分析装置1から、インターネット32を介して、使用者の身体情報(例えば、後述の外部映像、人顔映像および/または顔形情報など)を遠方のサーバ34へ送信することもできる。そのため、使用者は、リモート操作で情報を調べたり、異なる場所でバックアップを行ったりすることができる。
図2は、本実施の形態の身体情報分析装置1を示す第1模式図であり、図3は本実施の形態の身体情報分析装置1を示す第2模式図である。図2および図3に示す分析装置1は、例えば、使用者の寝室または化粧室に設置されており、使用者は、当該分析装置1を用いて身体情報(例えば、顔面、首部、手部または皮膚)の検出および分析を行うことができる。
分析装置1は、鏡面スクリーン11を備えている。鏡面スクリーン11は、分析装置1がオンの状態(図2に示す状態)になると、鏡面スクリーン11にグラフィカルユーザーインターフェース(GUI)が表示され、使用者が当該グラフィカルユーザーインターフェースを介して、分析装置1とやり取りすることが可能である。一方、分析装置1がオフの状態(図3に示す状態)になると、鏡面スクリーン11が、使用者の光学的鏡像4を映すことが可能な一般的な鏡となるように構成されている。
分析装置1は、使用者の顔形タイプを自動的に診断するとともに、対応する顔形情報を表示することにより、使用者に化粧および、身なりや服装に役に立つ情報を提供するものである。そのため、鏡面スクリーン11は、グラフィカルユーザーインターフェースを表示すると同時に、使用者の光学的鏡像4を映すことにより、後述のように、使用者が化粧する時に当該使用者の顔形タイプを分析しながら、使用者の化粧を補助することができる。
1つの実施例として、分析装置1は、映像取得モジュール12を備え、当該映像取得モジュール12が、角度調整可能に分析装置1に設置され、使用者に対して高解像度映像(例えば人顔映像、首部映像または手部映像など)を撮ることができるように構成してもよい。当該映像を用いて、分析装置1は、使用者の身体情報および/または化粧の進行状況を分析することができる。また、他の実施例として、映像取得モジュール12は、一次元バーコード、二次元バーコードなどの外部の情報を採集し、採集された情報の内容に基づいて対応のデータを取得することができるように構成してもよい。
また、分析装置1は、映像取得モジュール12が撮った映像をリアルタイムで鏡面スクリーン11に表示させる。そうすると、鏡面スクリーン11がオフされていない状態においても、使用者がいつでも自分の光学的鏡像4を鏡面スクリーン11から見ることができる。
さらに、分析装置1は、撮った映像に対してまずリアルタイムで処理(例えば、撮った映像に対して、対応の輪郭パターンを描いたり、図形または文字を挿入したりする処理)を行ってから、処理後の映像を鏡面スクリーン11に表示させることもできる。
そうすれば、分析装置1は、拡張現実(AR)方式により、使用者が化粧する時にリアルタイムで鏡面スクリーン11から直観的確認できる補助情報を提供することができるため、使用者の役に立つことができる。
1つの実施例として、鏡面スクリーン11は、タッチスクリーンとして構成されてもよい。そうすれば、使用者は、鏡面スクリーン11を介して、分析装置1へデータ入力を行うことができる。
また、分析装置1は、複数のボタン13を備えることができる。本実施の形態において、複数のボタン13は、実ボタンあるいはタッチキーとすることができるが、特に制限されることがない。使用者は、ボタン13を押すことにより、グラフィカルユーザーインターフェースの操作(例えば、グラフィカルユーザーインターフェースをトップページに戻したり、前のページまたは次のページへ移動したりする制御)を行い、または、分析装置1に所定の機能(例えば、鏡面スクリーン11のオン、鏡面スクリーン11のオフ、映像取得モジュール12のオンなど)を実行させる指示を出すことができる。
分析装置1は、分析装置1の所在環境の環境データを測定するための1つまたは複数のセンサ14(例えば、温度センサ、湿度センサなど)を備えることができる。これによって、分析装置1による使用者の身体情報の検出および分析の精度を向上させることができる。1つの実施例として、前記センサ14は、モーションセンサーをさらに含み、分析装置1が当該モーションセンサーを介して、使用者の手の動き(例えば、左へ振る動作、右へ振る動作、上へ振る動作、下へ振る動作、前へ押す動作、後ろに引っ張る動作など)を検出することができるように構成されてもよい。そうすれば、使用者は、鏡面スクリーン11またはボタン13をタッチしなくても、手の動きだけで分析装置1に対するデータ入力を行うことができるため、指紋の残留を避けることができる。
図4は、本実施の形態の身体情報分析装置の構成を示すブロック図である。図4に示すように、分析装置1は、主に、処理ユニット10と、表示モジュール111と、映像取得モジュール12と、入力インターフェース15と、無線伝送モジュール16と、記憶媒体17とを備えている。表示モジュール111、映像取得モジュール12、入力インターフェース15、無線伝送モジュール16、および記憶媒体17は、それぞれ、処理ユニット10と電気的に接続されている。
1つの実施例として、映像取得モジュール12は、外部映像(例えば、使用者の人顔映像)および外部情報を撮るためのカメラまたはビデオカメラとして構成されてもよい。分析装置1は、外部映像により、使用者を識別(例えば顔面識別、首部識別または手部識別等)して、使用者の顔面、首部または手部などの部位に対する分析を行い、または、外部情報の内容に応じて該当の操作を行うようになっている。
表示モジュール111は、上述したグラフィカルユーザーインターフェースを表示するためのものである。表示モジュール111は、例えば、前記鏡面スクリーン11の中に取り付けられる。表示モジュール111の機能がオンになっている時、表示モジュール111の光源が、鏡面スクリーン11の片方向ガラス(図示省略)を通過して使用者の目に投射することができる。そのため、使用者は、鏡面スクリーン11からグラフィカルユーザーインターフェースを見ることができる。一方、表示モジュール111の機能がオフになっている時、片方向ガラスの片面光透過特性により、使用者が鏡面スクリーン11から自分の光学的鏡像4しか見ることができない。1つの実施例として、分析装置1は、表示モジュール111の光源強度および表示領域を調整する機能をさらに備えることにより、鏡面スクリーン11に使用者の光学的鏡像4を映しながらグラフィカルユーザーインターフェースを表示するように構成されてもよい。
分析装置1は、入力インターフェース15を介して使用者の外部入力を受けるようになっている。そのため、使用者は、グラフィカルユーザーインターフェースとやり取りしたり、必要な設定操作を行ったりすることができる。1つの実施例として、入力インターフェース15は、使用者の入力操作を受けることが可能なタッチスクリーンまたはボタン13として構成されてもよい。他の実施例として、入力インターフェース15は、上述した使用者の手の動きによる入力を受けることが可能なセンサ14、または、外部映像または外部情報を取り入れることが可能な映像取得モジュール12、または、外部の音声情報を取り入れることが可能なマイクとして構成されてもよい。
無線伝送モジュール16は、インターネット32と接続するためのものであり、具体的には、使用者がインターネット32を介して分析装置1をリモート端末からアクセスすることができるように構成されている。そうすれば、使用者は、どこでもいつでも分析装置1に記憶されている各種の情報(例えば身体情報)を調べることができる。
記憶媒体17は、データを記憶するためのものである。1つの実施例として、記憶媒体17は、使用者の顔形タイプ、使用者の身体情報履歴、分析装置1の音声コマンド、使用者が所有する化粧品の情報、化粧トレーニングビデオおよび/または後述の顔形情報などを記憶することができるように構成されてもよい。また、記憶媒体17の不揮発性メモリには、コンピュータが実行することが可能なプログラム(図示省略)が記憶されている。
処理ユニット10は、表示モジュール111、映像取得モジュール12、入力インターフェース15、無線伝送モジュール16、および記憶媒体17にそれぞれ電気的に接続されている。処理ユニット10は、記憶媒体17に記憶されている前記プログラムを実行することにより、分析装置1の顔形診断などの機能を実現させることができる。
図5は、本実施の形態における処理ユニット10の構成図である。具体的に、処理ユニット10は、主に、前記コンピュータ実行可能なプログラムを実行することにより、顔形診断に関する各機能を実現させるように構成されている。前記コンピュータ実行可能なプログラムは、機能によって、顔面分析モジュール500、第1計算モジュール501、第2計算モジュール502、第3計算モジュール503、情報生成モジュール504、および顔形診断モジュール511といった機能モジュールに分けられている。
顔面分析モジュール500は、映像取得モジュール12が取得した外部映像に対して、人顔識別処理を行い、識別された人顔の複数の部位に対して位置決めを行う。具体的には、顔面分析モジュール500は、外部映像から人顔映像(図12〜図14に示す人顔映像6)を識別し、さらに、人顔映像6から特定部位の複数の特徴ポイント(図12〜図14に示す複数の特徴ポイント7)を識別する。また、各特徴ポイント7は、それぞれ、使用者の異なる顔面部位(例えば、眼、口または眉など)の異なる特徴(例えば、眼角、口角、下唇または眉尻など)に対応している。
第1計算モジュール501、第2計算モジュール502および第3計算モジュール503は、前記複数の特徴ポイント7に基づいて、各種の顔形診断処理(例えば、楕円形顔診断処理、正方形顔診断処理、円形顔診断処理、逆三角形顔診断処理、菱形顔診断処理、または面長形顔診断処理など)を実行するために必要なパラメータ(例えば、後述の第1比率、第2比率、および頬角度)を計算するためのものである。
情報生成モジュール504は、診断した顔形タイプに応じて、関連の顔形情報(例えば、楕円形顔情報、正方形顔情報、円形顔情報、逆三角形顔情報、菱形顔情報、および面長形顔情報)を生成するためのものである。
1つの実施例として、情報生成モジュール504は、製図モジュールおよび表示制御モジュール(図示省略)をさらに含むように構成されてもよい。製図モジュールは、人顔のサイズおよび診断された顔形タイプに基づいて、対応の輪郭パターン(例えば、楕円形輪郭パターン、正方形輪郭パターン、円形輪郭パターン、逆三角形輪郭パターン、菱形輪郭パターンおよび面長形輪郭パターン)を描くことができる。表示制御モジュールは、表示モジュール111を制御することにより、人顔を含む外部映像と輪郭パターン(図15A〜図15Fに示す)とを同時に表示モジュール111に表示させることができる。この表示方法によれば、使用者は、自分の顔形タイプをさらに明確に理解することができるので、使用者にさらに役に立つことができる。
1つの実施例として、情報生成モジュール504は、参考モジュール(図示省略)をさらに含むように構成されてもよい。具体的には、記憶媒体17に顔形タイプごとに参考情報(例えば、各顔形タイプに対応した異なる身なりや服装に関するアドバイス、または各顔形タイプに対応した異なる化粧法のアドバイス)が記憶されている。参考モジュールは、診断された顔形タイプに基づいて、記憶媒体17から前記該当の参考情報を読み込んで、表示モジュール111に表示させることができる。そうすれば、使用者が自分の顔形タイプを把握した後、さらに、自分に適する身なり、服装、および化粧法をマスタすることができるため、使用者にさらに役に立つことができる。
顔形診断モジュール511は、第1計算モジュール501、第2計算モジュール502および第3計算モジュール503によって算出されたパラメータに基づいて、顔形判断を行い、処理する人顔の顔型タイプを決定するためのものである。
1つの実施例として、顔形診断モジュール511は、楕円形顔診断モジュール505と、正方形顔診断モジュール506と、円形顔診断モジュール507と、逆三角形顔診断モジュール508と、菱形顔診断モジュール509と、面長形顔診断モジュール510とを含み、これらのモジュール505〜510は、それぞれ、処理中の人顔映像6に対して異なる顔形診断処理を実行することにより、人顔の顔形タイプを診断するように構成されてもよい。
上述したように、本実施の形態において、分析装置1および後述の顔形診断方法は、顔形タイプの分析に使われるものである。具体的には、分析装置1は、顔面分析モジュール500が、外部映像から人顔映像6を識別するとともに人顔の各部位上の特徴ポイント7を識別し、第1計算モジュール501、第2計算モジュール502および第3計算モジュール503が、識別された特徴ポイント7に基づいて顔形診断のための複数のパラメータを算出し、顔形診断モジュール511が、算出されたパラメータに基づいて人顔に対する各種の顔形診断処理を実行することによって処理中の人顔の顔形タイプを決定し、最後に、情報生成モジュール504が、決定された顔形タイプに応じて、対応の顔形情報並びに対応の参考情報を生成して表示モジュール111に表示させるように構成されている。
このような分析装置1によれば、使用者は、表示モジュール111から自分の顔形タイプを調べることができるとともに、分析装置1から提供された身なり、服装、および化粧に関するアドバイスを受けることもできる。そのため、使用者は、自分の顔形に合う適切な化粧法を選んだり、自分の顔形に似合うアクセサリ(ピアス、イアリングなど)、服装(メガネ、帽子など)、または髪型を選んだりすることができる。
上述したように、分析装置1は、顔形診断方法を実行することにより、使用者の顔形タイプを自動的に診断するとともに、対応の顔形情報を表示するように、使用者に自分自身の顔形タイプを簡単に知らせることができる。つまり、上述した本実施の形態の分析装置1は、本発明の顔形診断方法に従って顔形診断を行うようになっている。具体的には、処理ユニット10は、前記コンピュータ実行可能なプログラム(例えば、上述した各機能モジュール500〜510)を実行することにより、本発明の顔形診断方法を実現する。次に、本発明に係る顔形診断方法の各実施の形態について説明する。
<顔形診断方法の第1の実施の形態>
図6は、本発明の顔形診断方法の第1の実施の形態を示すフロチャートである。図6に示すように、本実施の形態の顔形診断方法は、顔形診断機能を実現するためのステップS10〜ステップS14を含む。
ステップS10において、分析装置1の処理ユニット10は、映像取得モジュール12を制御することにより、映像取得モジュール12に使用者を撮影させて使用者の映像を含む外部映像を取得する。
1つの実施例として、処理ユニット10は、表示モジュール111も同時に制御することにより、撮影した外部映像を表示モジュール111に表示させて、電子鏡効果を実現するように構成されてもよい。
ステップS11において、処理ユニット10は、顔面分析モジュール500を介して、外部映像に対する人顔識別処理を行い、外部映像の中に完全な人顔映像6を含むか否かを判断する。処理ユニット10は、外部映像の中に人顔映像6を含むと判断した(即ち、外部映像から人顔映像6が識別された)場合、ステップS12へ進む。一方、外部映像の中に人顔映像6を含めていないと判断した(即ち、外部映像から人顔映像6が識別されなかった)場合、ステップS10へ戻って再び外部映像を撮る。
ステップS12において、処理ユニット10は、顔面分析モジュール500を介して、外部映像から人顔映像6の位置と範囲を識別し、識別された人顔映像6の位置と範囲に基づいて、外部映像から人顔映像6をトリミングする。そして、処理ユニット10は、顔面分析モジュール500を介して、人顔映像6に対する顔面分析処理を実行し、人顔映像6中の人顔の複数の部位(例えば、眉、額、口、輪郭または眼など)を識別する。
1つの実施例として、前記顔面分析処理は、特徴分析処理であって、人顔映像6から人顔の特定部位の複数の特徴を識別することができるように構成されてもよい。具体的には、前記特徴分析処理は、特徴マーク演算法によって人顔映像6中の人顔を分析し、人顔の特定部位(例えば、眉、額、口、人顔輪郭または眼)の複数の特徴に対して位置決めを行うが、これに限定されない。なお、前記特徴マーク演算法は、Dlibライブラリを用いることによって実現されるものである。
図12は、本発明における顔分析を説明するための第1模式図であり、図13は、本発明における顔分析を説明するための第2模式図であり、図14は、本発明における顔分析を説明するための第3模式図である。特徴分析処理を行う時に、顔面分析モジュール500は、前記特徴マーク演算法を用いて人顔映像6を分析する。なお、前記特徴マーク演算法は、当分野の公知技術手段であり、機械学習技術に基づいて人顔映像6中の人顔に対する特定部位の分析を行うことにより、人顔映像6から1つまたは複数の人顔の特定部位(例えば、眉、額、口、人顔輪郭または眼)の複数の特徴ポイント7を識別することができる。しかも、各特徴ポイント7は、それぞれ前記特定部位の異なる特徴と対応している。
例えば、眉を識別する場合、各特徴ポイント7は、それぞれ、眉の眉頭、眉峰、または眉尻などと対応しており、口を識別する場合、各特徴ポイント7は、それぞれ、口の上唇、口角、または下唇と対応している。前記特徴ポイント7の数は、例えば、68ポイント、198ポイント、またはその他の数とすることができ、特に制限されることがない。
また、前記特徴マーク演算法によれば、特定部位の複数の特徴ポイント7を人顔映像6にマークすることができる。図12〜図14に示すように、特徴マーク演算法により、複数の特徴ポイント7が人顔映像6にマークされている。
1つの実施例として、顔面分析モジュール500は、各特徴ポイント7が属する部位および対応する特徴に基づいて、各特徴ポイント7に番号を付けるように構成されてもよい。そうすれば、処理ユニット10は、複数の特徴ポイント7の番号、形?、順序などの情報に基づいて、人顔映像6から各個部位の位置を確定して特定部位を識別することができる。
また、図6に示すように、ステップS12の処理が完了したら、処理ユニット10は既に顔面分析モジュール500を介して複数の特徴ポイント7を識別したので、ステップS13へ進む。
ステップS13において、処理ユニット13は、顔形診断モジュール511を介して、識別された人顔の部位および特徴ポイント7に基づいて、1つまたは複数種の顔形診断処理(例えば、楕円形顔診断処理、正方形顔診断処理、円形顔診断処理、逆三角形顔診断処理、菱形顔診断処理、または面長形顔診断処理など)を行うことにより、処理中の人顔の顔形タイプを決定する。
1つの実施例として、処理ユニット10は、楕円形顔診断処理、正方形顔診断処理、円形顔診断処理、逆三角形顔診断処理、菱形顔診断処理、および面長形顔診断処理を順番に行うことにより、処理中の人顔が楕円形、正方形、円形、逆三角形、菱形、および面長形のうちのどれかを決めるように構成されてもよい。
ステップS14において、処理ユニット10は、情報生成モジュール504を介して、ステップS13で決定した顔形タイプに基づいて、対応の顔形情報を生成し、生成された顔形情報を表示モジュール111に表示させる。
これにより、使用者の顔形タイプを自動的に診断することができ、使用者に身なり、服装、および化粧の参考になる情報を提供することができる。
<顔形診断方法の第2の実施の形態>
図7は、本発明の第2の実施の形態の顔形診断方法を示す部分フロチャートである。本実施の形態の顔形診断方法において、ステップS12に以下に説明するステップS20〜S24が含まれているところが、図6に示す第1の実施の形態と異なっている。
ステップS20において、処理ユニット10は、顔面分析モジュール500を介して、人顔映像6の眉に対して位置決めを行って、眉の1つまたは複数の眉特徴ポイントを識別する。また、各眉特徴ポイントは、眉の異なる特徴とそれぞれ対応している。
1つの実施例として、顔面分析モジュール500は、両眉の眉尻に対して位置決めを行って、対応する2つの眉尻特徴ポイント(例えば、図12に示す眉尻特徴ポイント700および眉尻特徴ポイント702)のうちの少なくとも1つを識別するように構成されてもよい。
ステップS21において、処理ユニット10は、顔面分析モジュール500を介して、人顔映像6の口に対して位置決めを行って、口の1つまたは複数の口特徴ポイントを識別する。また、各口特徴ポイントは、口の異なる特徴とそれぞれ対応している。
1つの実施例として、顔面分析モジュール500は、口の口角に対して位置決めを行って、対応する2つの口角特徴ポイント(例えば、図12に示す口角特徴ポイント701および口角特徴ポイント703)のうちの少なくとも1つを識別するように構成されてもよい。
もう1つの実施例として、顔面分析モジュール500は、口の下唇に対して位置決めを行って、対応する下唇特徴ポイント(例えば、図12に示す下唇特徴ポイント710)を識別するように構成されてもよい。なお、前記下唇特徴ポイントは、下唇の下縁部の中心(水平方向の中心)に位置する。
ステップS22において、処理ユニット10は、顔面分析モジュール500を介して、人顔映像6の人顔輪郭に対して位置決めを行って、人顔輪郭の1つまたは複数の輪郭特徴ポイントを識別する。また、各輪郭特徴ポイントは、人顔輪郭の異なる特徴とそれぞれ対応している。
1つの実施例として、顔面分析モジュール500は、人顔輪郭の頬の両側(水平方向の両側)に対して位置決めを行って、対応する輪郭特徴ポイント(例えば、図12に示す輪郭特徴ポイント711、712)を識別するように構成されてもよい。さらに、前記輪郭特徴ポイント711、712は、前記下唇特徴ポイント710と高さが同じである。
もう1つの実施例として、顔面分析モジュール500は、人顔輪郭の頬の一側(水平方向の一側)に対して位置決めを行って、対応する輪郭特徴ポイント(例えば、図13に示す輪郭特徴ポイント720〜726)を識別するように構成されてもよい。
さらに他の実施例として、顔面分析モジュール500は、人顔輪郭の両側(水平方向の両側)の頬骨に対して位置決めを行って、対応する輪郭特徴ポイント(例えば、図14に示す輪郭特徴ポイント742、743)を識別するように構成されてもよい。さらに、前記輪郭特徴ポイント742、743は、後述の眼下縁特徴ポイント740、741のうちの少なくとも1つと高さが同じである。
ステップS23において、処理ユニット10は、顔面分析モジュール500を介して、人顔映像6の額に対して位置決めを行って、額の1つまたは複数の額特徴ポイントを識別する。また、各額特徴ポイントは、額の異なる特徴とそれぞれ対応している。
1つの実施例として、顔面分析モジュール500は、額の両側(水平方向の両側)に対して位置決めを行って、対応する2つの額特徴ポイント(例えば、図14に示す額特徴ポイント730、731)を識別するように構成されてもよい。
ステップS24において、処理ユニット10は、顔面分析モジュール500を介して、人顔映像6の両眼に対して位置決めを行って、各眼の1つまたは複数の眼特徴ポイントを識別するように構成されてもよい。また、各眼特徴ポイントは、眼の異なる特徴とそれぞれ対応している。
1つの実施例として、顔面分析モジュール500は、両眼のうちの少なくとも1つの眼の眼下縁に対して位置決めを行って、対応する眼下縁特徴ポイント(例えば図14に示す眼下縁特徴ポイント740、741)を識別するように構成されてもよい。さらに、前記各眼下縁特徴ポイント740、741は、眼下縁の中心(水平方向の中心)に位置する。
また、上述したように、本実施の形態において、眉、口、人顔輪郭、額および眼などの複数の部位に対して同時に位置決めを行うようにしているが、本発明は、これに限定されない。
他の実施例として、顔面分析モジュール500は、後述の顔形診断処理の種類によって、対応する部位に対して位置決めを行って対応する特徴ポイント7を識別するように構成されてもよい。
例えば、楕円形顔診断処理の場合、顔面分析モジュール500は、眉尻特徴ポイント700、702のうちの1つ、口角特徴ポイント701、703のうちの1つ、下唇特徴ポイント710、および輪郭特徴ポイント711、712を識別することができる(詳細については後述する)。
また、正方形顔診断処理および円形顔診断処理の場合、顔面分析モジュール500は、輪郭特徴ポイント720〜726を識別することができる(詳細については後述する)。
また、逆三角形顔診断処理、菱形顔診断処理および面長形顔診断処理の場合、顔面分析モジュール500は、額特徴ポイント730、731、眼下縁特徴ポイント740、741、および輪郭特徴ポイント742、743を識別することができる(詳細については後述する)。
このように、実行される顔形診断処理の種類に応じて、識別する必要がある特徴を選ぶことにより、識別する必要がある特徴ポイントの数を効果的に抑制することができるため、人顔特徴の識別速度を効果的に向上することができる。
また、1つの実施例として、顔面分析モジュール500は、人顔のすべての特徴(例えば、198の特徴ポイント)に対して識別を行ってから、必要な特徴ポイント7を選んで後続の処理を行うように構成されてもよい。
<顔形診断方法の第3の実施の形態>
図8は、本発明の顔形診断方法の第3の実施の形態を示す部分フロチャートである。本実施の形態の顔形診断方法において、ステップS13に楕円形顔診断機能を実現するための以下のステップS30〜S34が含まれているところが、図6に示す第1の実施の形態と異なっている。
ステップS30において、処理ユニット10は、第1計算モジュール501を介して、眉と口との間の第1距離を計算する。
1つの実施例として、第1計算モジュール501は、眉尻特徴ポイント700、702のうちの1つ(例えば、眉尻特徴ポイント700)と、口角特徴ポイント701、703のうちの1つ(例えば、口角特徴ポイント703)とを選択して、眉尻特徴ポイント700と口角特徴ポイント703との間の垂直距離(例えば、図12に示す第1距離D1)を計算するように構成されてもよい。
ステップS31において、処理ユニット10は、第1計算モジュール501を介して、人顔輪郭の複数の輪郭特徴ポイント(第1輪郭特徴ポイント)同士の間の水平距離(第2距離)を計算する。具体的には、第1計算モジュール501は、複数の輪郭特徴ポイントのうちの2つを選択して、選択した2つの輪郭特徴ポイントの間の水平距離(例えば図12に示すの第2距離D2)を計算する。さらに、第1計算モジュール501は、下唇特徴ポイント710と同じ高さの輪郭特徴ポイント711、712を選択することができる。
ステップS32において、処理ユニット10は、第1計算モジュール501を介して、第1距離D1と第2距離D2との第1比率を計算する。例えば、第1距離D1が500ピクセルであり、第2距離D2が800ピクセルであれば、第1比率(D1/D2)が5/8(即ち、0.625)となる。
ステップS33において、処理ユニット10は、楕円形顔診断モジュール505を介して、第1計算モジュール501によって算出された第1比率が記憶媒体17に予め記憶した所定の楕円比率(例えば1)を満たしているか否かを判断する。
1つの実施例として、前記所定の楕円比率を数値範囲(例えば0.8〜1.2)としてもよい。この場合、前記第1比率が前記数値範囲に入っている時、処理ユニット10は、処理中の人顔を楕円形顔と判断する。
そして、処理ユニット10は、第1比率が所定の楕円比率を満たしていると判断した場合、ステップS34へ進む。一方、処理ユニット10は、処理中の人顔が楕円形顔ではないと判断した場合、顔形診断を終了する。
また、他の実施例として、処理ユニット10は、処理中の人顔が楕円形顔ではないと判断した場合、引き続きその他の顔形診断処理を実行するように構成されてもよい。例えば、処理ユニット10は、後述の図9に示すステップS40〜S46を実行して、円形顔診断処理および正方形顔診断処理を行い、または、後述の図10に示すステップS50〜S57を実行して、逆三角形顔診断処理、菱形顔診断処理、および面長形顔診断処理を行うようにしてもよい。
ステップS34において、処理ユニット10は、楕円形顔診断モジュール505を介して、処理中の人顔映像6中の人顔が楕円形顔であると判断し、そして、後続のステップS14において、処理ユニット10は、情報生成モジュール504を介して、楕円形顔情報を生成し出力する。
これにより、処理中の人顔が楕円形顔であるか否かを適切に判断することができる。
<顔形診断方法の第4の実施の形態>
図9は、本発明の第4の実施の形態の顔形診断方法を示す部分フロチャートである。本実施の形態の顔形診断方法において、ステップS13に正方形顔診断機能および円形顔診断機能を実現するための以下のステップS40〜S46が含まれているところが、図6に示す第1の実施の形態と異なっている。
ステップS40において、処理ユニット10は、第1計算モジュール501を介して第1比率を計算する。なお、第1比率の計算方法は、図8に示すステップS30〜S32と同じであるため、その説明を省略する。
ステップS41において、処理ユニット10は、第1比率が記憶媒体17に予め記憶した所定の対称比率(例えば2/3)を満たしているか否かを判断する。なお、前記所定の対称比率は、前記所定の楕円比率より小さく設定されている。
1つの実施例として、前記所定の対称比率は、数値範囲(例えば0.6〜0.7)としてもよい。この場合、第1比率が前記数値範囲に入っている時、処理ユニット10は、第1比率が所定の対称比率を満たしていると判断する。
処理ユニット10は、第1比率が所定の対称比率を満たしていると判断した場合、ステップS42へ進む。一方、第1比率が所定の対称比率を満たしていない場合、処理ユニット10は、処理中の人顔が正方形顔および円形顔のいずれでもないと判断し、顔形診断を終了する。
また、他の実施例として、処理ユニット10は、処理中の人顔が正方形顔および円形顔のいずれでもないと判断した場合、その他の顔形診断処理を実行するように構成されてもよい。例えば、処理ユニット10は、図8に示すステップS30〜S34を実行して楕円形顔診断処理を行い、または、後述の図10に示すステップS50〜S57を実行して逆三角形顔診断処理、菱形顔診断処理、および面長形顔診断処理を行うようにしてもよい。
ステップS42において、処理ユニット10は、第2計算モジュール502を介して、第1頬切線と第2頬切線との間の第1頬角度を計算する。
1つの実施例として、次のように構成してもよい。即ち、図13に示すように、第2計算モジュール502は、複数の輪郭特徴ポイント(第2輪郭特徴ポイントであって、例えば、連続する輪郭特徴ポイント720〜722)を選択して、選択した複数の輪郭特徴ポイント720〜722に基づいて頬切線L1(即ち、第1頬切線)を計算する。例えば、輪郭特徴ポイント720〜722を通過した直線を頬切線L1とする。次に、第2計算モジュール502は、再び複数の輪郭特徴ポイント(第3輪郭特徴ポイントであって、例えば、連続する輪郭特徴ポイント722〜724)を選択し(但し、選択した輪郭特徴ポイントは、先に選択した輪郭特徴ポイントと部分的に同じであってもよく、全く異なってもよい)、選択した複数の輪郭特徴ポイント722〜724に基づいて頬切線L2(即ち、第2頬切線)を計算する。例えば、輪郭特徴ポイント722〜724を通過した直線を頬切線L2とする。最後に、第2計算モジュール502は、頬切線L1と頬切線L2との間の第1頬角度θ1を計算する。
ステップS43において、処理ユニット10は、第2計算モジュール502を介して、第3頬切線と第4頬切線との間の第2頬角度を計算する。
1つの実施例として、第3頬切線を形成する複数の輪郭特徴ポイントを、前記第2頬切線を形成する複数の輪郭特徴ポイントと全くに同じものとしてもよい(この場合、第3頬切線と第2頬切線とが完全に重なる)が、これに限らない。
他の実施例として、第3頬切線を形成する複数の輪郭特徴ポイントを、前記第2頬切線を形成する複数の輪郭特徴ポイントと部分的に同じまたは全く異なるものとしてもよい(この場合、第3頬切線と第2頬切線とが完全に重なっているのではない)。
例えば、第3頬切線と第2頬切線とが完全に重なっている場合、図13に示すように、第2計算モジュール502は、複数の輪郭特徴ポイント(第4輪郭特徴ポイントであって、例えば、連続する輪郭特徴ポイント722〜724)を選択し、選択した複数の輪郭特徴ポイント722〜724に基づいて頬切線L2(即ち、第2頬切線と完全に重なっている第3頬切線)を計算する。そして、第2計算モジュール502は、再び複数の輪郭特徴ポイント(第5輪郭特徴ポイントであって、例えば、連続する輪郭特徴ポイント724〜726)を選択し(但し、選択した輪郭特徴ポイントは、先に選択した輪郭特徴ポイントと部分的に同じであってもよく、全く異なってもよい)、選択した複数の輪郭特徴ポイント724〜726に基づいて頬切線L3(即ち、第4頬切線)を計算する。例えば、輪郭特徴ポイント724〜726を通過した直線を頬切線L3とする。最後に、第2計算モジュール502は、頬切線L2と頬切線L3との間の第2頬角度θ2を計算する。
ステップS44において、処理ユニット10は、正方形顔診断モジュール506および円形顔診断モジュール507を介して、第2計算モジュール502によって算出された頬角度が記憶媒体17に予め記憶した所定の正方形角度(例えば5°)より大きいか否かを判断する。
1つの実施例として、処理ユニット10は、第1頬角度θ1および第2頬角度θ2のうちの1つ(例えば、最大の角度)を選択し、選択した頬角度が所定の正方形角度より大きいか否かを判断するように構成されてもよいが、これに限らない。
他の実施例として、処理ユニット10は、第1頬角度θ1と第2頬角度θ2とを同時に所定の正方形角度と比較するように構成されてもよい。
処理ユニット10は、頬角度が所定の正方形角度より大きいと判断した場合、ステップS45へ進む。一方、頬角度が所定の正方形角度より大きくない場合、処理ユニット10は、処理中の顔が正方形顔ではないと判断し、ステップS46へ進む。
他の実施例として、処理ユニット10は、処理中の人顔が正方形顔ではないと判断した場合、引き続きその他の顔形診断処理を実行するように構成されてもよい。例えば、図8に示すステップS30〜S34を実行して楕円形顔診断処理を行い、または、後述の図10に示すステップS50〜S57を実行して逆三角形顔診断処理、菱形顔診断処理、および面長形顔診断処理を行うようにしてもよい。
1つの実施例として、前記所定の正方形角度の数値範囲を3°〜5°とし、処理ユニット10は、第1頬角度θ1および第2頬角度θ2のうちの少なくとも1つが前記数値範囲に入っている場合に次のステップ45を実行し、第1頬角度θ1および第2頬角度θ2がいずれも前記数値範囲に入っていない場合に次のステップ46を実行するようになっている。
ステップS45において、処理ユニット10は、正方形顔診断モジュール506を介して、処理中の人顔映像6中の人顔が正方形顔であると判断し、そして、後続のステップS14において、情報生成モジュール504を介して正方形顔情報を生成して出力する。
一方、ステップS44において、処理ユニット10は、頬角度が所定の正方形角度より大きくないと判断したら、ステップS46へ進む。
ステップS46において、処理ユニット10は、円形顔診断モジュール507を介して、処理中の人顔映像6中の人顔が円形顔であると判断し、そして、後続のステップS14において、情報生成モジュール504を介して、円形顔情報を生成し出力する。
これにより、処理中の人顔が正方形顔または円形顔であるか否かを適切に判断することができる。
<顔形診断方法の第5の実施の形態>
図10は、本発明の第5の実施の形態の顔形診断方法を示す部分フロチャートである。本実施の形態の顔形診断方法において、ステップS13に、逆三角形顔診断機能、菱形顔診断機能および面長形顔診断機能を実現するための以下に説明する処理およびステップS50〜S57が含まれているところが、図6に示す第1の実施の形態と異なっている。
図10には示していないが、まず、処理ユニット10は、第1計算モジュール501を介して第1比率を計算する。なお、第1比率の計算方法は、図8に示すステップS30〜S32と同じであるため、その説明を省略する。
そして、処理ユニット10は、楕円形顔診断モジュール505を介して、第1計算モジュール501によって算出された第1比率が記憶媒体17に予め記憶した所定の楕円比率を満たしているか否かを判断する。前記第1比率が所定の楕円比率を満たしている場合、処理ユニット10は、処理を終了し(または、図8に示すステップS34へ進む)。前記第1比率が所定の楕円比率を満たしていない場合、処理ユニット10は、第1比率が記憶媒体17に予め記憶した所定の対称比率を満たしているか否かを判断する。前記第1比率が所定の対称比率を満たしている場合、処理ユニット10は、処理を終了し(または、図9に示すステップS42へ進む)。前記第1比率が所定の対称比率を満たしていない場合、処理ユニット10は、図10に示すステップS50に進む。
ステップS50において、処理ユニット10は、第3計算モジュール503を介して、額の両側の間の水平距離(第3距離)を計算する。
1つの実施例として、第3計算モジュール503は、額の両側の額特徴ポイント730、731を選択し、2つの額特徴ポイント730、731の間の水平距離(例えば、図14に示す第3距離D3)を計算するように構成されてもよい。
ステップS51において、処理ユニット10は、第3計算モジュール503を介して、人顔輪郭の複数の輪郭特徴ポイント(第6輪郭特徴ポイント)同士の間の水平距離(第4距離)を計算する。具体的には、第3計算モジュール503は、複数の輪郭特徴ポイントのうちの2つを選択し、選択した2つの輪郭特徴ポイントの間の水平距離(例えば、図14に示す第4距離D4)を計算する。さらに、第3計算モジュール503は、眼下縁特徴ポイント740、741と高さが同じである輪郭特徴ポイント742、743を選択することができる。
ステップS52において、処理ユニット10は、第3計算モジュール503を介して、第3距離D3と第4距離D4との第2比率を計算する。例えば、第3距離D3が800ピクセルであり、第4距離D4が1000ピクセルであれば、第2比率(D3/D4)が4/5である。
ステップS53において、処理ユニット10は、逆三角形顔診断モジュール508を介して、第3計算モジュール503によって算出された第2比率が記憶媒体17に予め記憶した所定の逆三角比率(例えば1)を満たしているか否かを判断する。
1つの実施例として、前記所定の逆三角比率は、数値範囲(例えば、0.95〜1.05)としてもよい。この場合、第2比率が前記数値範囲に入っている場合、処理ユニット10は、処理中の人顔が逆三角形顔と判断する。
処理ユニット10は、第2比率が所定の逆三角比率を満たしている判断した場合、ステップS54へ進む。一方、第2比率が前記数値範囲に入っていない場合、処理ユニット10は、処理中の顔が逆三角形顔ではないと判断し、ステップS55へ進む。
ステップS54において、処理ユニット10は、逆三角形顔診断モジュール508を介して、処理中の人顔映像6中の人顔が逆三角形顔であると判断し、そして、後続のステップS14において、情報生成モジュール504を介して、逆三角形顔情報を生成し出力する。
これにより、処理中の人顔が逆三角形顔か否かを適切に判断することができる。
ステップS55において、処理ユニット10は、菱形顔診断モジュール509および面長形顔診断モジュール510を介して、第3計算モジュール503によって算出された第2比率が記憶媒体17に予め記憶した所定の菱形比率(例えば2/3)を満たしているか否かを判断する。
1つの実施例として、前記所定の菱形比率は、数値範囲(例えば0.65〜0.67)としてもよい。この場合、第2比率が前記数値範囲に入っている場合、処理ユニット10は、処理中の顔が菱形顔であると判断する。
処理ユニット10は、第2比率が所定の菱形比率を満たしていると判断したら、ステップS56へ進む。一方、第2比率が所定の菱形比率を満たしていない場合、処理ユニット10は、処理中の顔が菱形顔ではないと判断し、ステップS57へ進む。
ステップS56において、処理ユニット10は、菱形顔診断モジュール509を介して、処理中の顔映像6中の人顔が菱形顔であると判断し、そして、後続のステップS14において、情報生成モジュール504を介して、菱形顔情報を生成し出力する。
これにより、処理中の人顔が菱形顔であるか否かを適切に判断することができる。
また、ステップS55において、処理ユニット10は、第2比率が所定の菱形比率を満たしていないと判断したら、ステップS57へ進む。
ステップS57において、処理ユニット10は、面長形顔形診断モジュール510を介して、処理中の人顔映像6中の人顔が面長形顔であると判断し、そして、後続のステップS14において、情報生成モジュール504を介して、面長形顔情報を生成し出力する。
これにより、処理中の顔が面長形顔であるか否かを適切に判断することができる。
<顔形診断方法の第6の実施の形態>
図11は、本発明の第6の実施の形態の顔形診断方法を示す部分フロチャートである。図15Aは、本実施の形態における顔形情報(楕円形顔情報)を示す第1模式図であり、図15Bは、本実施の形態における顔形情報(正方形顔情報)を示す第2模式図であり、図15Cは、本実施の形態における顔形情報(円形顔情報)を示す第3模式図であり、図15Dは、本実施の形態における顔形情報(逆三角形顔情報)を示す第4模式図であり、図15Eは、本実施の形態における顔形情報(菱形顔情報)を示す第5模式図であり、図15Fは、本実施の形態における顔形情報(面長形顔情報)を示す第6模式図である。本実施の形態の顔形診断方法において、ステップS14に輪郭パターン表示機能を実現するための機能の以下のステップS60〜S62が含まれているところが、図6に示す第1の実施の形態と異なっている。また、本実施の形態において、顔形情報には、輪郭パターンおよび輪郭位置が含まれている。
ステップS60において、処理ユニット10は、情報生成モジュール504を介して、外部映像8中の人顔のサイズを計算し、算出した人顔サイズに基づいて、輪郭パターンを描く。1つの実施例として、情報生成モジュール504は、ステップS13で決定した人顔の顔形タイプと対応した形状の輪郭パターンを描くように構成されてもよい。
例えば、外部映像8中の人顔が楕円形顔である場合、情報生成モジュール504は、楕円形輪郭パターンを描き、外部映像8中の顔が正方形顔である場合、情報生成モジュール504は、正方形輪郭パターンを描くように、各タイプの顔形に対応した輪郭パターンを描く。さらに、情報生成モジュール504は、顔面を囲む最小サイズの該当幾何学図形を前記輪郭パターン(例えば、図15A〜図15Fに示す輪郭パターン90〜95)として描くようになっている。
ステップS61において、処理ユニット10は、情報生成モジュール504を介して、外部映像8中の人顔位置を計算し、算出した人顔位置をステップS60で生成される輪郭パターンの輪郭位置として設定する。
ステップS62において、処理ユニット10は、情報生成モジュール504を介して表示モジュール111に外部映像8を表示させるとともに輪郭位置で対応の輪郭パターン90〜95を表示させることにより、例えば、図15A〜図15Fに示すような輪郭パターンに囲まれている人顔を表示モジュール111に表示させる。
これにより、使用者は、表示モジュール111から、人顔映像6および人顔映像6と対応している顔形タイプの輪郭パターンを同時に見ることができる。そのため、自分の顔形タイプをさらに明確に理解することができる。
以上、本発明の身体情報分析装置を実施するための実施の形態、および顔形診断方法を実現するための第1〜第6の実施の形態について説明したが、上述した実施の形態の他にも、様々な実施の形態が考えられる。但し、本発明の技術思想および本質から離れない限り、当業者が本発明に基づいて行われた様々な変形および改良は、全て本発明の範囲内に入っていることは、言うまでもない。
1 身体情報分析装置
10 処理ユニット
11 鏡面スクリーン
111 表示モジュール
12 映像取得モジュール
13 ボタン
14 センサ
15 入力インターフェース
16 無線伝送モジュール
17 記憶媒体
2 電子装置
21 ソフトウェア
30 無線ルータ
32 インターネット
34 サーバ
4 鏡像
500 顔面分析モジュール
501 第1計算モジュール
502 第2計算モジュール
503 第3計算モジュール
504 情報生成モジュール
505 楕円形顔診断モジュール
506 正方形顔診断モジュール
507 円形顔診断モジュール
508 逆三角形顔診断モジュール
509 菱形顔診断モジュール
510 面長形顔診断モジュール
511 顔形診断モジュール
6 人顔映像
7 特徴ポイント
700、702 眉尻特徴ポイント
701、703 口角特徴ポイント
710 下唇特徴ポイント
711〜712、720〜726、742〜743 輪郭特徴ポイント
730、731 額特徴ポイント
740、741 眼下縁特徴ポイント
8 外部映像
90〜95 輪郭パターン
D1〜D4 距離
L1〜L3 頬切線
θ1、θ2 頬角度

Claims (15)

  1. 身体情報分析装置であって、
    外部映像を撮るための映像取得モジュールと、
    顔形情報を表示するための表示モジュールと、
    前記映像取得モジュールおよび前記表示モジュールに電気的に接続される処理ユニットとを備え、
    前記処理ユニットは、
    前記外部映像から人顔を識別した場合、前記人顔の眉、口、および前記人顔の両側にあって前記人顔の輪郭における前記口と同じ高さの部位にそれぞれ位置する2つの第1輪郭特徴ポイントに対して位置決めを行う顔面分析モジュールと、
    前記眉と前記口との間の垂直距離を計算して第1距離とし、前記2つの第1輪郭特徴ポイントの間の水平距離を計算して第2距離とし、前記第1距離と前記第2距離との第1比率を計算する第1計算モジュールと、
    前記第1比率に基づいて前記人顔の顔形タイプを決定する顔形診断モジュールと、
    決定した前記人顔の顔形タイプに基づいて、該当の前記顔形情報を生成する情報生成モジュールとを備えている、ことを特徴とする身体情報分析装置。
  2. 請求項1に記載の身体情報分析装置において、
    前記顔面分析モジュールは、前記人顔から、前記眉の眉尻特徴ポイントと、前記口の口角特徴ポイントと、前記口の下唇特徴ポイントと、高さが前記下唇特徴ポイントと同じの前記2つの第1輪郭特徴ポイントとをそれぞれ識別し、
    前記第1計算モジュールは、前記眉尻特徴ポイントと前記口角特徴ポイントとの間の垂直距離を計算して前記第1距離とし、
    前記顔形診断モジュールは、前記第1比率が所定の楕円比率を満たしている場合、前記人顔が楕円形顔であると判断する楕円形顔診断モジュールを備え、
    前記情報生成モジュールは、前記人顔が楕円形顔である場合、前記人顔のサイズに基づいて楕円形輪郭パターンを描き、前記人顔の位置に基づいて楕円形輪郭位置を計算し、
    前記表示モジュールは、前記外部映像を表示し、表示された前記人顔が前記楕円形輪郭パターンに囲まれるように、前記楕円形輪郭位置で前記楕円形輪郭パターンを表示する、ことを特徴とする身体情報分析装置。
  3. 請求項1に記載の身体情報分析装置において、
    前記顔面分析モジュールは、さらに、前記人顔の同一側の複数の第2輪郭特徴ポイントおよび複数の第3輪郭特徴ポイントに対して位置決めを行い、前記複数の第2輪郭特徴ポイントと前記複数の第3輪郭特徴ポイントとは部分的に重なっており、
    前記処理ユニットは、前記複数の第2輪郭特徴ポイントが形成した第1頬切線と、前記複数の第3輪郭特徴ポイントが形成した第2頬切線との間の第1頬角度を計算する第2計算モジュールをさらに備え、
    前記顔形診断モジュールは、前記第1比率が、所定の楕円比率より小さい所定の対称比率を満たしているとともに、前記第1頬角度が所定の正方形角度より大きい場合、前記人顔が正方形顔であると判断する正方形顔診断モジュールを備え、
    前記情報生成モジュールは、前記人顔が正方形顔である場合、正方形顔情報を生成し、前記表示モジュールは、前記正方形顔情報を表示する、ことを特徴とする身体情報分析装置。
  4. 請求項1に記載の身体情報分析装置において、
    前記顔面分析モジュールは、さらに、前記人顔の同一側の複数の第2輪郭特徴ポイントと、複数の第3輪郭特徴ポイントと、複数の第4輪郭特徴ポイントと、複数の第5輪郭特徴ポイントとに対して位置決めを行い、前記複数の第2輪郭特徴ポイントと前記複数の第3輪郭特徴ポイントとは部分的に重なっており、前記複数の第3輪郭特徴ポイントと前記複数の第4輪郭特徴ポイントとは全部あるいは部分的に重なっており、前記複数の第4輪郭特徴ポイントと前記複数の第5輪郭特徴ポイントとは部分的に重なっており、
    前記処理ユニットは、前記複数の第2輪郭特徴ポイントが形成した第1頬切線と前記複数の第3輪郭特徴ポイントが形成した第2頬切線との間の第1頬角度を計算し、前記複数の第4輪郭特徴ポイントが形成した第3頬切線と前記複数の第5輪郭特徴ポイントが形成した第4頬切線との間の第2頬角度を計算する第2計算モジュールをさらに備え、
    前記顔形診断モジュールは、
    前記第1比率が所定の対称比率を満たしているとともに、前記第1頬角度または前記第2頬角度が所定の正方形角度より大きい場合、前記人顔が正方形顔であると判断する正方形顔診断モジュールと、
    前記第1比率が前記所定の対称比率を満たしているとともに、前記第1頬角度および前記第2頬角度のいずれも前記所定の正方形角度より大きくない場合、前記人顔が円形顔であると判断する円形顔診断モジュールとを備え、
    前記情報生成モジュールは、前記人顔が正方形顔である場合、正方形顔情報を生成し、前記人顔が円形顔である場合、円形顔情報を生成し、
    前記表示モジュールは、前記正方形顔情報または前記円形顔情報を表示する、ことを特徴とする身体情報分析装置。
  5. 請求項1に記載の身体情報分析装置において、
    前記顔面分析モジュールは、さらに、前記人顔の額および2つの第6輪郭特徴ポイントに対して位置決めを行い、前記2つの第6輪郭特徴ポイントは、前記人顔の両側であって前記人顔の輪郭における眼と高さが同じの部位にそれぞれ位置し、
    前記処理ユニットは、前記額の両側の間の水平距離を計算して第3距離とし、前記2つの第6輪郭特徴ポイントの間の水平距離を計算して第4距離とし、前記第3距離と前記第4距離との第2比率を計算する第3計算モジュールをさらに備え、
    前記顔形診断モジュールは、前記第1比率が所定の楕円比率および所定の対称比率のいずれも満たしておらず、かつ、前記第2比率が所定の逆三角比率を満たしている場合、前記人顔が逆三角形顔であると判断する逆三角形顔診断モジュールを備え、
    前記情報生成モジュールは、前記人顔が逆三角形顔である場合、逆三角形顔情報を生成し、
    前記表示モジュールは、前記逆三角形顔情報を表示する、ことを特徴とする身体情報分析装置。
  6. 請求項5に記載の身体情報分析装置において、
    前記顔面分析モジュールは、前記人顔から、前記額の両側の2つの額特徴ポイントと、前記眼の眼下縁特徴ポイントと、高さが当該眼下縁特徴ポイントと同じの2つの第6輪郭特徴ポイントとを識別し、
    前記第3計算モジュールは、前記2つの額特徴ポイントの間の水平距離を計算して前記第3距離とする、ことを特徴とする身体情報分析装置。
  7. 請求項5に記載の身体情報分析装置において、
    前記顔形診断モジュールは、
    前記第1比率が前記所定の楕円比率および前記所定の対称比率のいずれも満たしておらず、かつ、前記第2比率が所定の菱形比率を満たしている場合、前記人顔が菱形顔であると判断する菱形顔診断モジュールと、
    前記第1比率が前記所定の楕円比率および前記所定の対称比率のいずれも満たしておらず、かつ、前記第2比率が前記所定の逆三角比率および前記所定の菱形比率のいずれも満たしていない場合、前記人顔が面長形顔であると判断する面長形顔診断モジュールとをさらに備え、
    前記情報生成モジュールは、前記人顔が菱形顔である場合に菱形顔情報を生成し、前記人顔が面長形顔である場合に面長形顔情報を生成し、
    前記表示モジュールは、前記菱形顔情報または前記面長形顔情報を生成する、ことを特徴とする身体情報分析装置。
  8. 身体情報分析装置に用いる顔形診断方法であって、
    前記身体情報分析装置の映像取得モジュールを介して外部映像を撮るステップAと、
    前記身体情報分析装置の処理ユニットを制御することにより、前記外部映像から人顔を識別した場合、前記人顔の眉、口、および前記人顔の両側にあって前記人顔の輪郭における前記口と高さが同じの部位にそれぞれ位置する2つの第1輪郭特徴ポイントに対して位置決めを行うステップBと、
    前記眉と前記口との間の垂直距離を計算して第1距離とし、前記2つの第1輪郭特徴ポイントの間の水平距離を計算して第2距離とするステップCと、
    前記第1距離と前記第2距離との第1比率を計算するステップDと、
    前記第1比率に基づいて前記人顔の顔形を決定し、前記身体情報分析装置の表示モジュールを介して該当の顔形情報を表示するステップEとを含む、ことを特徴とする顔形診断方法。
  9. 請求項8に記載の顔形診断方法において、
    前記ステップBにおいて、前記人顔から、前記眉の眉尻特徴ポイントと、前記口の口角特徴ポイントと、前記口の下唇特徴ポイントと、高さが前記下唇特徴ポイントと同じの前記2つの第1輪郭特徴ポイントとを識別し、
    前記ステップCにおいて、前記眉尻特徴ポイントと前記口角特徴ポイントとの間の垂直距離を計算して前記第1距離とする、ことを特徴とする顔形診断方法。
  10. 請求項8に記載の顔形診断方法において、
    前記ステップEは、
    前記第1比率が所定の楕円比率を満たしている場合、前記人顔が楕円形顔であると判断し、前記人顔のサイズに基づいて楕円形輪郭パターンを描くステップE11と、
    前記人顔の位置に基づいて楕円形輪郭位置を計算するステップE12と、
    前記外部映像を表示し、表示された前記人顔が前記楕円形輪郭パターンに囲まれるように、前記楕円形輪郭位置で前記楕円形輪郭パターンを表示するステップE13とを含む、ことを特徴とする顔形診断方法。
  11. 請求項8に記載の顔形診断方法において、
    前記ステップEは、
    前記処理ユニットに、前記人顔の同一側の複数の第2輪郭特徴ポイント、および当該第2輪郭特徴ポイントと部分的に重なっている複数の第3輪郭特徴ポイントに対して、位置決めを行うステップE21と、
    前記複数の第2輪郭特徴ポイントが形成した第1頬切線と前記複数の第3輪郭特徴ポイントが形成した第2頬切線との間の第1頬角度を計算するステップE22と、
    前記第1比率が、所定の楕円比率より小さい所定の対称比率を満たしているとともに、前記第1頬角度が所定の正方形角度より大きい場合、前記人顔が正方形顔であると判断し、前記表示モジュールを介して正方形顔情報を表示するステップE23と、
    前記第1比率が前記所定の対称比率を満たしているとともに、前記第1頬角度が前記所定の正方形角度より大きくない場合、前記人顔が円形顔であると判断し、前記表示モジュールを介して円形顔情報を表示するステップE24とを含む、ことを特徴とする顔形診断方法。
  12. 請求項8に記載の顔形診断方法において、
    前記ステップEは、
    前記処理ユニットを制御することにより、前記人顔の同一側の複数の第2輪郭特徴ポイントと、前記複数の第2輪郭特徴ポイントと部分的に重なっている複数の第3輪郭特徴ポイントと、前記複数の第3輪郭特徴ポイントと全部または部分的に重なっている複数の第4輪郭特徴ポイントと、前記複数の第4輪郭特徴ポイントと部分的に重なっている複数の第5輪郭特徴ポイントとに対して位置決めを行うステップE31と、
    前記複数の第2輪郭特徴ポイントが形成した第1頬切線と前記複数の第3輪郭特徴ポイントが形成した第2頬切線との間の第1頬角度を計算するステップE32と、
    前記複数の第4輪郭特徴ポイントが形成した第3頬切線と前記複数の第5輪郭特徴ポイントが形成した第4頬切線との間の第2頬角度を計算するステップE33と、
    前記第1比率が、所定の楕円比率より小さい所定の対称比率を満たしているとともに、前記第1頬角度または前記第2頬角度が所定の正方形角度より大きい場合、前記人顔が正方形顔であると判断し、前記表示モジュールを介して正方形顔情報を表示するステップE34と、
    前記第1比率が前記所定の対称比率を満たしているとともに、前記第1頬角度および前記第2頬角度のいずれも前記所定の正方形角度より大きくない場合、前記人顔が円形顔であると判断し、前記表示モジュールを介して円形顔情報を表示するステップE35とを含む、ことを特徴とする顔形診断方法。
  13. 請求項8に記載の顔形診断方法において、
    前記ステップEは、
    前記処理ユニットを制御することにより、前記人顔の額、および、人顔の両側であって前記人顔の輪郭における眼と高さが同じの部位にそれぞれ位置する2つの第6輪郭特徴ポイントに対して位置決めを行うステップE41と、
    前記額の両側の間の水平距離を計算して第3距離とし、前記2つの第6輪郭特徴ポイントの間の水平距離を計算して第4距離とするステップE42と、
    前記第3距離と前記第4距離との第2比率を計算するステップE43と、
    前記第1比率が所定の楕円比率および所定の対称比率のいずれも満たしておらず、かつ、前記第2比率が所定の逆三角比率を満たしている場合、前記人顔が逆三角形顔であると判断し、前記表示モジュールを介して逆三角形顔情報を表示するステップE44とを含む、ことを特徴とする顔形診断方法。
  14. 請求項13に記載の顔形診断方法において、
    前記ステップE41において、前記人顔から、前記額の両側の2つの額特徴ポイントと、前記眼の眼下縁特徴ポイントと、高さが前記眼下縁特徴ポイントと同じの2つの前記第6輪郭特徴ポイントとを識別し、
    前記ステップE43において、前記2つの額特徴ポイントの間の水平距離を計算して前記第3距離とする、ことを特徴とする顔形診断方法。
  15. 請求項13に記載の顔形診断方法において、
    前記ステップE43の後に、さらに、
    前記第1比率が、前記所定の楕円比率および前記所定の対称比率のいずれも満たしておらず、かつ、前記第2比率が、前記所定の逆三角比率より小さい所定の菱形比率を満たしている場合、前記人顔が菱形顔であると判断し、前記表示モジュールを介して菱形顔情報を表示するステップE45と、
    前記第1比率が前記所定の楕円比率および前記所定の対称比率のいずれも満たしておらず、かつ、前記第2比率が前記所定の逆三角比率および前記所定の菱形比率のいずれも満たしていない場合、前記人顔が面長形顔であると判断する、前記表示モジュールを介して面長形顔情報を表示するステップE46とを含む、ことを特徴とする顔形診断方法。
JP2017249551A 2017-09-18 2017-12-26 身体情報分析装置および顔形診断方法 Expired - Fee Related JP6761407B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710839948.X 2017-09-18
CN201710839948.XA CN109522773A (zh) 2017-09-18 2017-09-18 身体信息分析装置及其脸型检测方法

Publications (2)

Publication Number Publication Date
JP2019053706A JP2019053706A (ja) 2019-04-04
JP6761407B2 true JP6761407B2 (ja) 2020-09-23

Family

ID=60942873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017249551A Expired - Fee Related JP6761407B2 (ja) 2017-09-18 2017-12-26 身体情報分析装置および顔形診断方法

Country Status (6)

Country Link
US (1) US10496873B2 (ja)
EP (1) EP3457314A1 (ja)
JP (1) JP6761407B2 (ja)
KR (1) KR20190032156A (ja)
CN (1) CN109522773A (ja)
MA (1) MA47059A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3971820A4 (en) * 2019-09-30 2022-08-10 Beijing Sensetime Technology Development Co., Ltd. IMAGE PROCESSING METHOD, DEVICE AND ELECTRONIC DEVICE
CN113468934A (zh) * 2020-04-30 2021-10-01 海信集团有限公司 一种对称性检测方法及智能设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3855939B2 (ja) * 2003-01-31 2006-12-13 ソニー株式会社 画像処理装置、画像処理方法及び撮影装置
JP2006236013A (ja) * 2005-02-25 2006-09-07 Nippon Telegr & Teleph Corp <Ntt> 環境的情報提示装置、環境的情報提示方法およびこの方法のプログラム
CN101339612B (zh) * 2008-08-19 2010-06-16 陈建峰 一种脸型轮廓的检测与分类方法
JP5239625B2 (ja) * 2008-08-22 2013-07-17 セイコーエプソン株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9123144B2 (en) * 2011-11-11 2015-09-01 Microsoft Technology Licensing, Llc Computing 3D shape parameters for face animation
CN102622613B (zh) * 2011-12-16 2013-11-06 彭强 一种基于双眼定位和脸型识别的发型设计方法
FR2995411B1 (fr) * 2012-09-07 2014-09-19 Tipheret Procede et dispositif pour preparer une monture de lunettes
CN105469072B (zh) * 2015-12-14 2019-05-31 依视路国际公司 一种评估眼镜佩戴者和其所佩戴眼镜搭配度的方法和系统
CN106203263A (zh) * 2016-06-27 2016-12-07 辽宁工程技术大学 一种基于局部特征的脸型分类方法

Also Published As

Publication number Publication date
EP3457314A1 (en) 2019-03-20
KR20190032156A (ko) 2019-03-27
JP2019053706A (ja) 2019-04-04
MA47059A (fr) 2021-04-21
US20190087642A1 (en) 2019-03-21
US10496873B2 (en) 2019-12-03
CN109522773A (zh) 2019-03-26

Similar Documents

Publication Publication Date Title
CN105045398B (zh) 一种基于手势识别的虚拟现实交互设备
KR102045218B1 (ko) 신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법
JP6547013B2 (ja) 生体情報解析装置及びその頬紅解析方法
CN110456907A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
US20170136621A1 (en) Dynamic Multi-Sensor and Multi-Robot Interface System
JP6803348B2 (ja) 拡張現実を結合した身体情報分析装置およびその眉型プレビュー方法
US20120223956A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
CN112198962B (zh) 一种与虚拟现实设备交互的方法及虚拟现实设备
WO2012119371A1 (zh) 一种用户交互系统和方法
KR102045228B1 (ko) 신체 정보 분석 장치 및 얼굴형 모의 방법
JP2019037742A (ja) 身体情報分析装置およびそのリップメイクの分析方法
KR102101337B1 (ko) 볼터치 구역의 표시가 가능한 신체 정보 분석 장치
JP6761407B2 (ja) 身体情報分析装置および顔形診断方法
JP6738780B2 (ja) 頬紅案内装置及びその方法
US10824850B2 (en) Body information analysis apparatus capable of indicating shading-areas
WO2022081745A1 (en) Real-time rendering of 3d wearable articles on human bodies for camera-supported computing devices
JP7427937B2 (ja) 画像処理装置、画像処理方法、およびプログラム
KR20170060721A (ko) 서비스 프로토타이핑에서의 ux 프로파일링을 위한 실감형 테스트 시스템
WO2023126678A2 (en) Systems and methods for interacting with an electronic display device
JP2019152920A (ja) 入力装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200904

R150 Certificate of patent or registration of utility model

Ref document number: 6761407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees