JP2019036290A - 顔類似度評価方法および電子デバイス - Google Patents

顔類似度評価方法および電子デバイス Download PDF

Info

Publication number
JP2019036290A
JP2019036290A JP2018082496A JP2018082496A JP2019036290A JP 2019036290 A JP2019036290 A JP 2019036290A JP 2018082496 A JP2018082496 A JP 2018082496A JP 2018082496 A JP2018082496 A JP 2018082496A JP 2019036290 A JP2019036290 A JP 2019036290A
Authority
JP
Japan
Prior art keywords
image
area
similarity score
feature
score corresponding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018082496A
Other languages
English (en)
Other versions
JP6615932B2 (ja
Inventor
軾榮 沈
Shyh-Yong Shen
軾榮 沈
敏昶 季
Min-Chang Chi
敏昶 季
孝宗 ▲呉▼
孝宗 ▲呉▼
xiao zong Wu
靖維 王
Ching-Wei Wang
靖維 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cal Comp Big Data Inc
Original Assignee
Cal Comp Big Data Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cal Comp Big Data Inc filed Critical Cal Comp Big Data Inc
Publication of JP2019036290A publication Critical patent/JP2019036290A/ja
Application granted granted Critical
Publication of JP6615932B2 publication Critical patent/JP6615932B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

【課題】顔類似度評価方法および電子デバイスを提供する。【解決手段】この方法は、第1の画像を取得するステップと、前記第1の画像および少なくとも1つの第2の画像にそれぞれ対応する複数の特徴要素を取得するステップと、前記第1の画像および前記少なくとも1つの第2の画像にそれぞれ対応する前記特徴要素に基づいて、前記少なくとも1つの第2の画像に対応する全体類似度スコアを取得するステップ、および、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアに基づいて評価結果を生成するステップと、前記評価結果に基づいて通知メッセージを出力するステップと、を含む。【選択図】図9

Description

本発明は、顔認識技術に関し、より詳細には、顔認識に基づく顔類似度評価方法および電子デバイスに関する。
現在の顔認識技術では、顔画像における複数の特徴点を識別することができるため、ユーザは、当該顔認識技術に基づいて自身の顔情報を知ることができる。しかしながら、現在の技術および市場の関連する製品においては、ユーザは、自身の容姿と他人または有名人の容姿との類似度を知ることはできない。従って、ユーザの容姿と他人または有名人の容姿との類似度を判定して、より実用的かつ興味深い製品を開発することは、当該分野に関連する技術者にとっての開発対象となっている。
本発明は、顔類似度評価方法および電子デバイスに関し、該評価方法および電子デバイスによれば、2つの顔画像の類似度を、2つの顔の各エリアの特徴要素を取得することによって認識することができるため、ユーザは、自身の容姿と他人または有名人の容姿との類似度を知ることができる。
本発明の一実施形態は、第1の画像を取得するステップと、第1の画像および少なくとも1つの第2の画像にそれぞれ対応する複数の特徴要素を取得するステップと、第1の画像および少なくとも1つの第2の画像にそれぞれ対応する特徴要素に基づいて、少なくとも1つの第2の画像に対応する全体類似度スコアを取得するステップ、および、少なくとも1つの第2の画像に対応する全体類似度スコアに基づいて評価結果を生成するステップと、前評価結果に基づいて通知メッセージを出力するステップと、を含む、顔類似度評価方法を提供する。
本発明の一実施形態は、記憶装置とプロセッサとを備える、電子デバイスを提供する。プロセッサは、記憶装置に接続し、該記憶装置に格納された複数のモジュールにアクセスして該モジュールを実行する。モジュールは、画像取得モジュール、特徴要素取得モジュール、比較モジュールおよび取得モジュールを含む。画像取得モジュールは、第1の画像を取得する。特徴要素取得モジュールは、第1の画像および少なくとも1つの第2の画像にそれぞれ対応する複数の特徴要素を取得する。比較モジュールは、第1の画像および少なくとも1つの第2の画像にそれぞれ対応する特徴要素に基づいて、少なくとも1つの第2の画像に対応する全体類似度スコアを取得し、少なくとも1つの第2の画像に対応する全体類似度スコアに基づいて評価結果を生成する。出力モジュールは、評価結果に基づいて通知メッセージを出力する。
本発明の効果
上記構成によれば、本発明では、2つの画像のそれぞれに対応する特徴要素に従って各特徴要素間の差異を取得し、当該各特徴要素間の差異に従って顔の各エリアに対応するエリア類似度スコアを取得して、顔画像に対応する全体類似度スコアを取得する。このようにして、ユーザは、自身の容姿と他人または有名人の容姿との類似度を知ることができる。
本発明における上述の特徴および利点並びに他の特徴および利点をより理解し易くするため、以下に、いくつかの実施形態を図面を用いて詳細に説明する。
添付の図面によれば、本発明をさらによく理解することができる。これらの図面は、本発明の一部に組み込まれてその一部を構成する。これらの図面には、本発明の実施形態が図示されており、明細書中の記載とともに本発明の原理を説明している。
本発明の一実施形態に従う電子デバイスの概略図である。 図2Aは、本発明の一実施形態に従う顔類似度評価方法を示す概略図である。図2Bは、本発明の一実施形態に従う顔類似度評価方法を示す概略図である。 本発明の一実施形態に従う顔画像内のエリアを示す概略図である。 図4Aは、本発明の一実施形態に従う眉エリアの特徴要素を示す概略図である。図4Bは、本発明の一実施形態に従う眉エリアの特徴要素を示す概略図である。 図5Aは、本発明の一実施形態に従う目エリアの特徴要素を示す概略図である。図5Bは、本発明の一実施形態に従う目エリアの特徴要素を示す概略図である。 本発明の一実施形態に従う鼻エリアの特徴要素を示す概略図である。 本発明の一実施形態に従う唇エリアの特徴要素を示す概略図である。 本発明の一実施形態に従う顔エリアの特徴要素を示す概略図である。 本発明の他の実施形態に従う顔類似度評価方法を示す概略図である。
図1は、本発明の一実施形態に従う電子デバイスの概略図である。
図1を参照すると、本実施形態の電子デバイス10は、プロセッサ110および記憶装置120を少なくとも含み、プロセッサ110が記憶装置120に接続している。さらに、本実施形態の電子デバイス10は、撮像装置130をさらに含み、プロセッサ110が撮像装置130に接続している。本実施形態の電子デバイス10は、化粧台のミラー上に配置することができ、ユーザがミラーを見ている間にユーザの顔画像を取り込んで分析し、ミラーの後ろに配置されたディスプレイ(不図示)を用いてフィードバック情報(例えば、顔類似度の評価結果)を提供することができる。なお、他の実施形態において、電子デバイス10は、例えば、スマートフォン、タブレット型パソコン、デスクトップパソコンまたはポータブルミラーと組み合わされたポータブルミラーボックス等の電子製品とすることができる。
プロセッサ110は、中央処理装置(CPU)、マイクロプロセッサ、デジタル信号プロセッサ、プログラマブル制御装置、特定用途向け集積回路(ASIC)、プログラマブル論理装置(PLD)またはデータ演算機能を有する他のデバイスとすることができる。
記憶装置120は、任意の形式の固定または可動式のランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、フラッシュメモリもしくは他の類似デバイス、または、上記デバイスの組合せとすることができる。本実施形態において、記憶装置120は、画像取得モジュール121、特徴要素取得モジュール122、比較モジュール123および出力モジュール124を記録するために用いられる。他の実施形態において、記憶装置120は、データベースを格納するために用いることもでき、電子デバイス10は、該データベースから、格納された画像および該画像に対応する特徴要素を取得することができる。これらのモジュールは、例えば、記憶装置120に格納されたコンピュータプログラムである。当該コンピュータプログラムは、プロセッサ110にロードすることができ、プロセッサ110は、それに応じて、本発明の顔類似度評価方法の機能を実行することができる。
撮像装置130は、電荷結合素子(CCD)、相補型金属酸化膜半導体(CMOS)デバイスまたは他のタイプのフォトセンシング素子を備えたカメラとすることができ、ユーザの現在の顔画像を取り込むために用いることができる。顔類似度評価方法の具体的なステップについて、一実施形態を参照して以下に説明する。
図2Aおよび図2Bは、本発明の一実施形態に従う顔類似度評価方法を示す概略図である。図1、図2Aおよび図2Bを参照すると、本発明の顔類似度評価方法は、図1に示す電子デバイスにおいて実施することができる。顔類似度評価方法の具体的なステップについては、図1の電子デバイス10の様々なコンポーネントを参照して以下に説明する。なお、説明を簡潔にする目的で、以下の実施形態において、第1の画像はあるユーザの顔画像を表し、第2の画像は第1の画像とは異なる顔画像を表している。
図2Aを参照すると、ステップ201(S201)において、プロセッサ110は、画像取得モジュール121を実行して第1の画像を取得する。本実施形態では、ユーザが電子デバイス10を使用する際、プロセッサ110が画像取得モジュール121を実行して撮像装置130を制御し、ユーザの顔画像を取り込んで第1の画像を生成する。しかしながら、他の実施形態において、画像取得モジュール121は、記憶装置120に格納されたデータベースまたは他の電子デバイスから、評価するユーザの顔画像を取得して、第1の画像を提供することもできる。
つぎに、ステップ203(S203)において、プロセッサ110は、特徴要素取得モジュール122を実行して、第1の画像に対して分析オペレーションを実行し、第1の画像に対応する第1の特徴要素を取得する。本実施形態において、特徴要素取得モジュール122により実行される分析オペレーションは、第1の画像の複数の特徴点に基づいて該第1の画像に対応する第1の特徴要素を計算する、サブステップを含む。しかしながら、他の実施形態において、特徴要素取得モジュール122は、記憶装置130に格納されたデータベースまたは他の電子デバイスから、予め格納された、第1の画像に対応する第1の特徴要素を直接得ることもできる。
さらに、ステップ205(S205)において、プロセッサ110は、特徴要素取得モジュール122を実行して、複数の第2の画像のそれぞれに対応する第2の特徴要素を取得する。本実施形態において、特徴要素取得モジュール122は、第2の画像のそれぞれに対応する第2の特徴要素を、記憶装置130に格納されたデータベースから取得することができる。第2の画像のそれぞれに対応する第2の特徴要素は、図2Bに示すステップに従って、データベースに予め記録しておくことができる。図2Bを参照すると、ステップ221(S221)において、プロセッサ110は、画像取得モジュール121を実行して第2の画像を取得する。つぎに、ステップ223(S223)において、プロセッサ110は、特徴要素取得モジュール122を実行して、第2の画像に対して分析オペレーションを実行し、第2の画像に対応する第2の特徴要素を取得する。つぎに、ステップ225(S225)において、プロセッサ110は、第2の画像に対応する第2の特徴要素をデータベースに記録する。データベースは、記憶装置130に格納することができる。このように、電子デバイス10は、後に顔類似度評価を行うユーザのために、複数の第2の画像および第2の画像のそれぞれに対応する第2の特徴要素を予め格納しておくことができる。
本実施形態において、顔画像(例えば、第1の画像および第2の画像)は、複数のエリアを含むことができる。具体的には、プロセッサ110は、Dlibデータベース(Dlibの顔ランドマーク)を用いて顔検出システムを実行することができ、これによれば顔画像内の194の特徴点を検出および分析することができる。他の実施形態では、119のみの特徴点を分析することや、顔の特徴点を検出するための他のアルゴリズムを用いることによって、第1の画像内の特徴点を取得することができる。このように、顔画像の複数のエリアは、取得された特徴点に基づいて特定することができる。また、プロセッサ110は、座標系をさらに定義することができ、各特徴点に座標、例えば、(x,y)を割り当てることができる。以下の実施形態において、水平線はx軸に平行な直線であり、垂直線はy軸に平行な直線である。また、特徴要素取得モジュール122は、顔画像に対して分析オペレーションを実行して、各エリアの特徴点に従って各エリアの特徴要素を取得することができる。代替的に、特徴要素取得モジュール122は、特定の顔画像内の各エリアに対応する特徴要素を、データベースから直接取得することもできる。以下に、実施形態を例示して各エリアの特徴要素について説明する。
図3は、本発明の一実施形態に従う顔画像内のエリアを示す概略図である。説明を簡潔にする目的で、以下の実施形態では、特徴要素取得モジュール122が第1の画像において分析オペレーションを実行し該第1の画像の特徴要素を取得する、という状況を一例に挙げて説明する。しかしながら、本発明はそれに限定されず、特徴要素取得モジュール122は、他の特徴要素を取得するために、第2の画像のそれぞれにおいて分析オペレーションを実行することもできる。
図3を参照すると、第1の画像300の複数のエリアは、眉エリア400、目エリア500、鼻エリア600および唇エリア700を含むことができる。一実施形態において、第1の画像300は、顔全体に対応する顔エリア800をさらに含むことができる。しかしながら、本発明は、上述のエリアに限定されず、他の実施形態では、アプリケーションの要件に従って他のエリアを定義することができる。さらに、本実施形態では、片方の眉を眉エリア400とし、片方の目を目エリア500としているが、実際の実施においては、両方の眉を眉エリア400とし、両方の目を目エリア500としてもよい。特徴要素取得モジュール122は、第1の画像300に対して分析オペレーションを実行し、各エリアに属する複数の特徴点に従って、各エリアにおける1つまたは複数の特徴要素を取得することができる。
図4Aおよび図4Bは、本発明の一実施形態に従う眉エリアの特徴要素を示す概略図である。以下の実施形態において、各エンドポイントは、顔検出システムによって検出された特徴点、または、各部分の特徴点に従い特徴要素取得モジュール122によって追加定義された特徴点をいう。
図4Aを参照すると、特徴要素取得モジュール122は、第1の画像300における、顔の幅Fwおよび顔の高さFhを取得する。具体的には、特徴要素取得モジュール122は、目の下端に引いた水平線における頬の両側縁間の距離を、顔の幅Fwとする。さらに、特徴要素取得モジュール122は、眉尻を表すエンドポイント420を通る水平線L1と、口角を表すエンドポイント310aを通る水平線L2と、の間の垂直距離を、顔の高さFhとする。しかしながら、一般の顔画像は、2つの眉尻および2つの口角を含んでいるため、他の実施形態では、眉尻を表すエンドポイントは、2つの眉尻のいずれのエンドポイントとすることができ、同様に、口角を表すエンドポイントは、2つの口角のいずれのエンドポイントとすることができる。
一実施形態において、顔の高さFhの計算に用いられる水平線L1は、2つの眉尻の2つのエンドポイントの平均高さに位置させることができ、水平線L2は、例えば、2つの口角のエンドポイント310aおよびエンドポイント310bの平均高さに位置させることができ、水平線L1と水平線L2との間の垂直距離を、顔の高さFhとする。
図4Bを参照すると、特徴要素取得モジュール122は、眉幅EBwおよび眉高さEBhを取得する。具体的には、特徴要素取得モジュール122は、眉頭を表すエンドポイント410を通る垂直線L41と、眉尻を表すエンドポイント420を通る垂直線L42と、の間の距離を、眉幅EBwとする。特徴要素取得モジュール122は、さらに、エンドポイント430とエンドポイント440との間の垂直距離を、眉高さEBhとする。一実施形態において、エンドポイント430およびエンドポイント440をともに通る直線は、垂直線L41および垂直線L42と平行な垂直線とすることができる。さらに、エンドポイント430と垂直線L41との間の水平距離は、エンドポイント430と垂直線L42との間の水平距離と同一にすることができる。
また、特徴要素取得モジュール122は、さらに眉角度を取得することができる。眉角度は、基準線L43と水平線L44との間の挟角θ1とすることができる。基準線L43は、エンドポイント410およびエンドポイント420をともに通る直線とし、水平線L44は、エンドポイント410を通る水平線とする。本実施形態において、眉角度は片方の眉の特徴点に従って得られるが、眉角度は片方の眉の特徴点に従って得ることもできる。例えば、特徴要素取得モジュール122は、上述の方法に従って第1の画像300における両方の眉のそれぞれの眉角度を取得して、得られたそれぞれの眉角度の平均を、第1の画像300における眉角度とすることができる。
つぎに、特徴要素取得モジュール122は、顔の幅Fw、顔の高さFh、眉幅EBw、眉高さEBhおよび眉角度(例えば、挟角θ1)に従って、眉エリア400に対応する複数の特徴要素を取得することができる。例えば、特徴要素取得モジュール122は、眉幅EBwと眉高さEBhとの比、眉角度の正接値、眉幅EBwと顔の幅Fwの半幅との比、眉高さEBhと顔の高さFhとの比等の複数の値を計算することができ、該計算結果は、眉エリア400に対応する特徴要素として役立てられる。
図5Aおよび図5Bは、本発明の一実施形態に従う目エリアの特徴要素を示す概略図である。
図5Aを参照すると、特徴要素取得モジュール122は、第1の画像300における両目間の距離Ed、目の幅Ewおよび目の高さEhを取得する。具体的には、特徴要素取得モジュール122は、一方の目の目頭を表すエンドポイント510aと、他方の目の目頭を表すエンドポイント510bと、の間の距離を、両目間の距離Edとする。特徴要素取得モジュール122は、目の目頭を表す510aと、目の目尻を示すエンドポイント520を通る垂直線L51と、の間の水平距離を、目の幅Ewとする。特徴エリア取得モジュール122は、エンドポイント530を通る水平線L52と、エンドポイント540を通る水平線L53と、の間の垂直距離を、目の高さEhとする。一実施形態において、エンドポイント530は、目の上端の最高点とすることができ、エンドポイント540は、目の下端の最低点とすることができる。しかしながら、一般的な顔画像は2つの目を含むので、他の実施形態において、特徴要素取得モジュール122は、2つの目のうち任意の1つにおける特徴点に従って、第1の画像300における目の幅Ewおよび目の高さEhを取得することができる。
同様に、一実施形態において、目の高さEhの計算に用いられる水平線L52は、2つの目における上端の最高点の平均高さに位置していてもよく、また、水平線L53は、2つの目における下端の最低点の平均高さに位置していてもよい。水平線L52と水平線L53との間の垂直距離を、目の高さEhとする。
つぎに、特徴要素取得モジュール122は、顔の幅Fw、顔の高さFh、目の幅Ew、目の高さEhおよび両目間の距離Edに従って、目エリア500に対応する複数の特徴要素を取得する。例えば、特徴要素取得モジュール122は、目の幅Ewと目の高さEhとの比、目の幅Ewと顔の幅Fwの半幅との比、目の高さEhと顔の高さFhとの比、両目間の距離Edと顔の幅Fwとの比等の複数の値を計算することができ、該計算結果は、目エリア500に対応する特徴要素として役立てられる。
図6は、本発明の一実施形態に従う鼻エリアの特徴要素を示す概略図である。
図6を参照すると、特徴要素取得モジュール122は、第1の画像300における鼻の幅Nwおよび鼻の高さNhを取得することができる。具体的には、特徴要素取得モジュール122は、エンドポイント610aとエンドポイント610bとの間の距離を、鼻の幅Nwとしてとる。エンドポイント610aは、鼻の最右側端に位置する点であり、エンドポイント610bは、鼻の最左側端に位置する点である。さらに、特徴要素取得モジュール122は、鼻梁を表すエンドポイント620と、鼻の下部に位置する鼻腔を表すエンドポイントと、の間の距離を、鼻の高さNhとする。一実施形態において、特徴要素取得モジュール122は、図5Aに示す目の目頭を表す2つのエンドポイント510aおよび510bの中間を、上述のエンドポイント620とすることができる。
さらに、特徴要素取得モジュール122は、鼻角度を取得することができる。鼻角度とは、基準線L61と水平線L62との間の挟角θ2をいう。基準線L61とは、エンドポイント630およびエンドポイント610aをともに通る直線をいい、水平線L62とは、エンドポイント630を通る水平線をいう。しかしながら、一実施形態において、特徴要素取得モジュール122は、水平線L62と、エンドポイント630およびエンドポイント610bをともに通る直線と、の間の挟角θ2´を取得して、挟角θ2および挟角θ2´の平均を、鼻角度とすることもできる。
つぎに、特徴要素取得モジュール122は、顔の幅Fw、顔の高さFh、鼻の幅Nw、鼻の高さNhおよび鼻角度(例えば、挟角θ2)に従って、鼻エリア600の対応する複数の特徴要素を取得することができる。例えば、特徴要素取得モジュール122は、鼻の幅Nwと鼻の高さNhとの比、鼻の高さNhと顔の高さFhとの比、鼻の幅Nwと顔の幅Fwとの比、鼻角度の正接値等の複数の値を計算することができ、該計算結果は、鼻エリア600に対応する特徴要素として役立てられる。
図7は、本発明の一実施形態に従う唇エリアの特徴要素を示す概略図である。
図7を参照すると、特徴要素取得モジュール122は、第1の画像300における唇の幅Lwおよび唇の高さLhを取得することができる。具体的には、特徴要素取得モジュール122は、一方の口角を表すエンドポイント310aと他方の口角を表すエンドポイント310bとの間の距離を、唇の幅Lwとする。さらに、特徴要素取得モジュール122は、上唇の高さTLhおよび下唇の高さBLhを取得し、上唇の高さTLhと下唇の高さBLhの合計を、唇の高さLhとする。上唇の高さTLhは、上唇の中央の高さとすることができる。一実施形態において、特徴要素取得モジュール122は、エンドポイント310aおよびエンドポイント310bに従って唇の中央位置を通る垂直線を特定することができ、唇の中央位置を通る該垂直線上に、エンドポイント710、エンドポイント720およびエンドポイント730を特定することができる。特徴要素取得モジュール122は、エンドポイント710とエンドポイント720との間の距離を、上唇の高さTLhとし、エンドポイント720とエンドポイント730との間の距離を、下唇の高さBLhとする。エンドポイント710は、唇の中央位置を通る垂直線上の、上唇の上端に位置するエンドポイントとすることができ、エンドポイント720は、唇の中央位置を通る垂直線上の、上唇と下唇との境界に位置するエンドポイントとすることができ、エンドポイント730は、唇の中央位置を通る垂直線の、下唇の下端に位置するエンドポイントとすることができる。
さらに、特徴要素取得モジュール122は、唇角度を取得することができる。唇角度とは、基準線L71と水平線L72との間の挟角θ3をいう。基準線L71は、エンドポイント710および唇のリップピークを表すエンドポイント740aをともに通る直線をいい、水平線L72は、エンドポイント710を通る水平線をいう。しかしながら、一実施形態において、特徴要素取得モジュール122は、水平線L72と、エンドポイント710および唇のリップピークを表すエンドポイント740bをともに通る直線L73と、の間の挟角θ3´を取得して、挟角θ3と挟角θ3´の平均を、唇角度とすることもできる。
つぎに、特徴要素取得モジュール122は、顔の幅Fw、唇の幅Lw、唇の高さLh、上唇の高さTLh、下唇の高さBLhおよび唇角度(例えば、挟角θ3)に従って、唇エリア700に対応する複数の特徴要素を取得する。例えば、特徴要素取得モジュール122は、唇の幅Fwと唇の高さLhとの比、唇の幅Lwと顔の幅Fwとの比、上唇の高さTLhと下唇の高さBLhとの比、唇角度の正接値等の複数の値を計算することができ、該計算結果は、唇エリア700に対応する特徴要素として役立てられる。
図8は、本発明の一実施形態に従う顔エリアの特徴要素を示す概略図である。
図8を参照すると、特徴要素取得モジュール122は、第1の画像300における額の幅FHwおよび額の高さFHhを取得することができる。具体的には、特徴要素取得モジュール122は、眉の稜線を表すエンドポイント830aを通る水平線L81と、髪の生え際を通る水平線L82と、の間の距離を、額の高さFHhとする。一実施形態において、水平線L81は、眉の稜線を表すエンドポイント830bを通る直線とすることもできる。さらに、特徴要素取得モジュール122は、水平線L81と平行であり、かつ水平線L82との間の垂直距離が額の高さFHhの1/3である、他の水平線L83を特定することができる。特徴要素取得モジュール122は、額の両側の髪の生え際間における水平線L83の長さを、額の幅FHwとすることができる。
また、特徴要素取得モジュール122は、顎の幅Jwおよび顎の高さJhをさらに取得することができる。具体的には、特徴要素取得モジュール122は、エンドポイント810aとエンドポイント810bとの間の距離を、顎の幅Jwとする。エンドポイント810aおよびエンドポイント810bは、下唇の下側端を通る水平線L84と、頬の両側との交点上にあるエンドポイントをいう。特徴要素取得モジュール122は、水平線L84と顎の下側端との間の垂直距離を、顎の高さJhとする。
また、特徴要素取得モジュール122は、顎角度をさらに取得することができる。具体的には、特徴要素取得モジュール122は、水平線L84と、エンドポイント810aおよびエンドポイント820aをともに通る基準線L85と、の間の挟角θ4を顎角度とする。しかしながら、一実施形態において、特徴要素取得モジュール122は、水平線L84と、エンドポイント810bおよびエンドポイント820bの両方を通る基準線L86と、の間の挟角θ4´を取得し、角度θ4および角度θ4´の平均を顎角度とすることもできる。
つぎに、特徴要素取得モジュール122は、顔の幅Fw、顔の高さFh、額の幅FHw、額の高さFHh、顎の幅Jw、顎の高さJhおよび顎角度(例えば、挟角θ4)に従って、顔エリア800に対応する複数の特徴要素を取得する。例えば、特徴要素取得モジュール122は、顔の高さFh、額の高さFHhおよび顎の高さJhの合計値を算出し、顔輪郭の高さを取得する。さらに、特徴要素取得モジュール122は、顔の幅Fwと顔輪郭の高さとの比、額の幅FHwと顔の幅Fwとの比、額の高さFHhと顔の高さFhとの比、顎の幅Jwと顔の幅Fwとの比、顎の高さJhと顔の高さFhとの比、顎角度の正接値等の複数の値を計算することができ、該計算結果は、顔エリア800に対応する特徴要素として役立てられる。
さらに、第2の画像における特徴要素もまた、図3から図8の実施形態において述べた方法によって取得することができるが、具体的な説明は繰り返しになるので省略する。すなわち、第1の画像における(第1の特徴要素とも称される)特徴要素、および、第2の画像における(第2の特徴要素とも称される)特徴要素は、同様の定義に基づいて取得することができる。
再び図2Aを参照して、ステップ205を実行した後、ステップ207(S207)において、プロセッサ110は比較モジュール123を実行し、第1の特徴要素および第2の特徴要素に従って、第1の画像および第2の画像のそれぞれに比較オペレーションを実行し、第2の画像のそれぞれに対応するエリア類似度スコアおよび全体類似度スコアを取得し、評価結果を生成する。上記のステップでは、比較モジュール123は、第1の画像における第1の特徴要素を、第2の画像のそれぞれにおける大2の特徴要素と比較し、比較結果に応じて、第2の画像のそれぞれに対応するエリア類似度スコアおよび全体類似度スコアとを生成する。
具体的には、比較モジュール123は、第1の画像および第2の画像における特徴要素の各セットの特徴差パラメータSim(f,i)を、下記式(1)に従って取得する。特徴要素の各セットは、同一の定義に基づいて取得された1つの第1の特徴要素および1つの第2の特徴要素を含む。
上記式(1)において、user(f)は、第1の画像における1つの第1の特徴要素をいい、celeb(f)は、第2の画像のそれぞれにおける1つの第2の特徴要素をいう。すなわち、比較モジュール123は、特徴要素の各セットに対応する特徴差パラメータを計算することができる。
つぎに、比較モジュール123は、第2の画像のそれぞれにおける各エリアに対応した、エリア類似度スコアAreaSim(i)を取得する。
上記式(2)において、wは、特徴差パラメータのそれぞれに対応する重量値を表す。具体的には、顔画像の各エリアに属する特徴差パラメータsim(f,i)のそれぞれは、対応する重量値を有することができ、各エリアの特徴差パラメータsim(f,i)のすべての重量値の合計(例えば、式(2)におけるΣf∈AreaFactor)は、所定値を遵守している。各重量値および対応する重量値の合計の所定値は、実際のアプリケーションに従って調整することができる。式(2)に従えば、比較モジュール123は、各エリアにおける各特徴差パラメータsim(f,i)と対応する重量値wとの積を取得し、当該積の合計Σf∈AreaFactor×Sim(f,i)を取得し、当該積の合計Σf∈AreaFactor×Sim(f,i)と重量合計Σf∈AreaFactorとの比率を計算して、エリア類似度スコアAreaSim(i)を取得する。エリア類似度スコアは、2つの画像における、あるエリアの類似度合いを表すことができる。
つぎに、比較モジュール123は、下記式(3)に従って、第2の画像のそれぞれに対応する全体類似度スコアSimilarity(Celeb)を取得する。
式(3)によれば、比較モジュール123は、すべてのエリアに対応するエリア類似度スコアの合計ΣAreaSim(i)を取得し、エリア類似度スコアの合計ΣAreaSim(i)をすべてのエリアの数N(Area)で除することにより、第2の画像のそれぞれに対応する全体類似度スコアsimilarity(Celeb)を取得する。換言すれば、比較モジュール123は、第2の画像のそれぞれに対応するすべてのエリア類似度スコアの平均値を取得することができ、該平均値は、第2の画像のそれぞれに対応する全体類似度スコアとして機能する。全体類似度スコアは、2つの画像の顔全体の類似度合いを表すことができる。
第2の画像のそれぞれに対応するエリア類似度スコアおよび全体類似度スコアを上記式(1)、(2)および(3)により取得した後、比較モジュール123は、第2の画像のそれぞれに対応する全体類似度スコアに従って、第1の画像に最も類似する第2の画像を評価結果として決定する。本実施形態では、1つの第1の画像における各エリアが、1つの最もスコアが高いエリア類似度スコアに対応し、1つの第1の画像が、1つの最もスコアが高い全体類似度スコアに対応することができる。
目エリア500を例にして、下記の表1では、第1の画像が現在のユーザの画像を表し、第2の画像が有名人の一画像を表していると想定する。「目 W/H」、「目−顔 W」、「目−顔 H」および「両目間距離」は、目の幅Ewと目の高さEhとの比、目の幅Ewと顔の幅Fwの半幅との比、目の高さEhと顔の高さFhとの比、および、両目間の距離Edと顔幅Fwとの比を含む、目エリア500に対応する4つの特徴要素のそれぞれを表している。
下記の表1に示すように、比較モジュール123により上記式(1)に従って計算された、第1の画像および第2の画像(a)間の目エリアに対応する4つの特徴要素の特徴差パラメータSim(f,i)はそれぞれ、0.7、0.93、0.89および0.96である。つぎに、比較モジュール123により上記式(2)に従って取得された、第2の画像(a)の目エリアに対応する類似度スコアは、85%である。
同様に、比較モジュール123は、さらに第1の画像を他の第2の画像と比較して、当該他の第2の画像に対応するエリア類似度スコアを取得する。例えば、比較モジュール123は、別の第2の画像(b)の目エリアに関して93%のエリア類似度スコアを取得し、また、他の第2の画像(c)の目エリアに関して89%のエリア類似度スコアを取得する。従って、目エリアに関し、比較モジュール123は、第2の画像(b)が、最高値のエリア類似度スコアに対応すると決定し、第1の画像における目エリアが当該第2の画像(b)の目エリアと最も類似していることを示す評価結果を生成する。一実施形態において、評価結果は、最高値のエリア類似度スコアに対応する第2の画像(b)の情報を含むことができる。
目エリアのほかに、比較モジュール123は、上述の方法に従って他のエリアに対応する最高値のエリア類似度スコアをそれぞれ決定し、対応する評価結果を生成することができる。さらに、比較モジュール123は、式(3)に従って、第2の画像のそれぞれに対応する全体類似度スコアを計算し、最高値の全体類似度スコアを決定して、第1の画像が該最高値の全体類似度スコアを有する第2の画像に最も類似していることを表す評価結果を生成することができる。一実施形態において、評価結果は、最高値の全体類似度スコアに対応する第2の画像の情報を含むことができる。
図2Aを参照すると、評価結果を生成するべくステップ207を実行した後に、ステップ209(S209)において、プロセッサ110は、出力モジュール124を実行して評価結果に従い通知メッセージを出力する。例えば、評価結果は、最高値の全体類似度スコアに対応する第2の画像の情報を含むため、出力モジュール124は、該評価結果に従い、最高値の類似度スコアに対応する第2の画像の関連メッセージを出力することができる。しかしながら、他の実施形態において、評価結果はさらに、最高値のエリア類似度スコアに対応する第2の画像の情報を含むことができる。従って、出力モジュール124は、該評価結果に従い、最高値のエリア類似度スコアに対応する第2の画像の関連メッセージを、顔の各領域に言及して出力することができる。例えば、第2の画像は、有名人の顔画像であり、通知メッセージは、最高値の全体類似度スコアに対応する有名人の、該最高値の全体類似度スコア、画像および名前を含むことができる。さらに、通知メッセージは、最高値のエリア類似度スコアのそれぞれに対応する有名人の、各エリアに対応する該最高値の領域類似度スコア、画像および名前を含むことができる。
図9は、本発明の他の実施形態に従う、顔類似度評価方法の概略図である。
図9を参照すると、まず、ステップ901(S901)において、プロセッサ110は、画像取得モジュール121を実行して、第1の画像を取得する。つぎに、ステップ903(S903)において、プロセッサ110は、特徴要素取得モジュール122を実行して、第1の画像および少なくとも1つの第2の画像のそれぞれに対応する複数の特徴要素を取得する。つぎに、ステップ905(S905)において、プロセッサ110は、比較モジュール123を実行して、第1の画像および少なくとも1つの第2の画像のそれぞれに対応する特徴要素に基づいて、少なくとも1つの第2の画像に対応する全体類似度スコアを取得し、少なくとも1つの第2の画像に対応する全体類似度スコアに基づいて評価結果を生成する。最後に、ステップ907(S907)において、プロセッサ110は、出力モジュール124を実行して、評価結果に基づいて通知メッセージを出力する。図9に示す種々のステップの具体例については上述の実施形態に記載したので、ここでは記載を繰り返さない。
要するに、本発明では、各顔画像における特徴点に基づいて、各顔画像に対応する特徴要素を取得し、2つの画像のそれぞれに対応する特徴要素に従って、各特徴要素間における差異を取得し、各特徴要素間における差異に従って、顔の各エリアに対応するエリア類似度スコアを取得することにより、顔画像に対応する全体類似度スコアを取得する。このようにして、ユーザは、自身の容姿と他人または有名人の容姿との類似度を知ることができる。
本発明の趣旨および精神から逸脱しない範囲で本発明の構成に種々の変更を行うことが可能であることは、当業者にとって言うまでもない。上記に鑑み、本発明は、添付の特許請求の範囲およびその等価物の範囲に含まれる限り、本発明の改変および変更を包含することが意図される。
本発明は、顔認識技術、特には、顔認識および電子デバイスに基づく顔類似度評価方法に関する。
10:電子デバイス
110:プロセッサ
120:記憶装置
121:画像取得モジュール
122:特徴要素取得モジュール
123:比較モジュール
124:出力モジュール
130:撮像装置
310a,310b,410,420,430,440,510a,510b,520,530,540,610a,610b,620,630,710,720,730,740a,740b,810a,810b,820a,820b,830a,830b:エンドポイント
400:眉エリア
500:目エリア
600:鼻エリア
700:唇エリア
800:顔エリア
BLh:下唇の高さ
Ebh:眉の高さ
Ebw:眉の幅
Ed:両目間距離
Eh:目の高さ
Ew:目の幅
Fh:顔の高さ
FHh:額の高さ
FHw:額の幅
Fw:顔の幅
Jh:顎の高さ
Jw:顎の幅
L1,L2,L44,L52,L53,L62,L72,L81,L82,L83,L84:水平線
L41,L42,L51:垂直線
L43,L61,L63,L71,L85,L86:基準線
L73:直線
Lh:唇の高さ
Lw:唇の幅
Nh:鼻の高さ
Nw:鼻の幅
S201,S203,S205,S207,S221,S223,S225,S901,S903,S905,S907:ステップ
TLh:上唇の高さ
θ1,θ2,θ2´,θ3,θ3´,θ4,θ4´:角度(挟角)

Claims (18)

  1. 顔類似度評価方法であって、
    第1の画像を取得するステップと、
    前記第1の画像および少なくとも1つの第2の画像にそれぞれ対応する複数の特徴要素を取得するステップと、
    前記第1の画像および前記少なくとも1つの第2の画像にそれぞれ対応する前記特徴要素に基づいて、前記少なくとも1つの第2の画像に対応する全体類似度スコアを取得するステップ、および、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアに基づいて評価結果を生成するステップと、
    前記評価結果に基づいて通知メッセージを出力するステップと、を含む、顔類似度評価方法。
  2. 前記少なくとも1つの第2の画像に対応する前記全体類似度スコアに基づいて前記評価結果を生成する前記ステップが、
    前記評価結果を生成するために、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアから最高値の全体類似度スコアを決定するサブステップを含む、請求項1に記載の顔類似度評価方法。
  3. 前記第1の画像および前記少なくとも1つの第2の画像がそれぞれ少なくとも1つのエリアを有し、
    前記第1の画像および前記少なくとも1つの第2の画像のそれぞれに対応する前記特徴要素に基づいて、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアを取得する前記ステップが、
    前記第1の画像および前記少なくとも1つの第2の画像のそれぞれに対応する前記特徴要素に基づいて、前記少なくとも1つの第2の画像に対応する少なくとも1つのエリア類似度スコアを取得するサブステップを含み、前記サブステップにおいて、前記少なくとも1つのエリア類似度スコアは、前記少なくとも1つのエリアに対応し、さらに、
    前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアに基づいて、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアを取得するサブステップを含む、請求項1に記載の顔類似度評価方法。
  4. 前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアに基づいて、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアを取得する前記サブステップが、
    前記少なくとも1つの第2の画像に対応する前記全体類似度スコアを取得するために、前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアの平均値を計算するサブステップを含む、請求項3に記載の顔類似度評価方法。
  5. 前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアに従って、前記通知メッセージを出力するステップをさらに含む、請求項3に記載の顔類似度評価方法。
  6. 前記少なくとも1つの第2の画像に対応する前記全体類似度スコアに基づいて前記評価結果を生成する前記ステップが、
    前記評価結果を生成するために、前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアから、少なくとも1つの最高値のエリア類似度スコアを決定するサブステップを含み、該サブステップにおいて、前記少なくとも1つの最高値のエリア類似度スコアは、前記少なくとも1つのエリアに対応している、請求項5に記載の顔類似度評価方法。
  7. 前記特徴要素が、前記少なくとも1つのエリアに属する少なくとも1つの特徴要素を含み、
    前記第1の画像および前記少なくとも1つの第2の画像にそれぞれ対応する前記特徴要素に基づいて、前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアを取得する前記サブステップが、
    前記第1の画像および前記少なくとも1つの第2の画像にそれぞれ対応する、前記少なくとも1つのエリアに属する前記少なくとも1つの特徴要素に基づいて、前記少なくとも1つの第2の画像に対応する少なくとも1つの特徴差パラメータを計算するサブステップと、
    前記少なくとも1つの特徴差パラメータおよび少なくとも1つの重量値に従って、前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアを計算するサブステップと、を含む、請求項3に記載の顔類似度評価方法。
  8. 前記少なくとも1つのエリアが、眉エリア、目エリア、鼻エリア、唇エリアおよび顔エリアを含む、請求項3に記載の顔類似度評価方法。
  9. 前記第1の画像および前記少なくとも1つの第2の画像にそれぞれ対応する前記特徴要素を取得する前記ステップが、
    前記第1の画像に対応する複数の第1の特徴要素を取得するために、前記第1の画像に分析オペレーションを実行するサブステップと、
    前記少なくとも1つの第2の画像における前記分析オペレーションを介してデータベースから取得された、前記少なくとも1つの第2の画像に対応する複数の第2の特徴要素を取得するサブステップと、を含む、請求項1に記載の顔類似度評価方法。
  10. 複数のモジュールを格納する、記憶装置と、
    前記記憶装置に接続し、前記記憶装置に格納された前記モジュールにアクセスして該モジュールを実行する、プロセッサと、を備え、前記モジュールは、
    第1の画像を取得する、画像取得モジュールと、
    前記第1の画像および少なくとも1つの第2の画像にそれぞれ対応する複数の特徴要素を取得する、特徴要素取得モジュールと、
    前記第1の画像および前記少なくとも1つの第2の画像にそれぞれ対応する前記特徴要素に基づいて、前記少なくとも1つの第2の画像に対応する全体類似度スコアを取得し、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアに基づいて評価結果を生成する、比較モジュールと、
    前記評価結果に基づいて通知メッセージを出力する、出力モジュールと、を含む、電子デバイス。
  11. 前記比較モジュールが前記少なくとも1つの第2の画像に対応する前記全体類似度スコアに基づいて前記評価結果を生成する、前記オペレーションが、
    前記評価結果を生成するために、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアから最高値の全体類似度スコアを決定するサブオペレーションを含む、請求項10に記載の電子デバイス。
  12. 前記第1の画像および前記少なくとも1つの第2の画像がそれぞれ少なくとも1つのエリアを有し、前記比較モジュールが、前記第1の画像および前記少なくとも1つの第2の画像にそれぞれ対応する前記特徴要素に基づいて、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアを取得する、前記オペレーションが、
    前記第1の画像および前記少なくとも1つの第2の画像にそれぞれ対応する前記特徴要素に基づいて、前記少なくとも1つの第2の画像に対応する少なくとも1つのエリア類似度スコアを取得するサブオペレーションを含み、該サブオペレーションにおいて、前記少なくとも1つのエリア類似度スコアは前記少なくとも1つのエリアに対応し、
    さらに、前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアに基づいて、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアを取得するサブオペレーションを含む、請求項10に記載の電子デバイス。
  13. 前記比較モジュールが、前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアに基づいて、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアを取得する、前記サブオペレーションが、
    前記少なくとも1つの第2の画像に対応する前記全体類似度スコアを取得するために、前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアの平均値を計算するサブオペレーションを含む、請求項12に記載の電子デバイス。
  14. 前記出力モジュールが、前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアに従って前記通知メッセージを出力する、請求項12に記載の電子デバイス。
  15. 前記比較モジュールが、前記少なくとも1つの第2の画像に対応する前記全体類似度スコアに基づいて前記評価結果を生成する、前記オペレーションが、
    前記評価結果を生成するために、前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアから、少なくとも1つの最高値のエリア類似度スコアを決定する、サブオペレーションを含み、該オペレーションにおいて、前記少なくとも1つの最高値のエリア類似度スコアは、前記少なくとも1つのエリアに対応する、請求項14に記載の電子デバイス。
  16. 前記特徴要素が、前記少なくとも1つのエリアに属する少なくとも1つの特徴要素を含み、前記比較モジュールが、前記第1の画像および前記少なくとも1つの第2の画像にそれぞれ対応する前記特徴要素に基づいて、前記少なくとも1つの第2の画像に対応する少なくとも1つのエリア類似度スコアを取得する、前記サブオペレーションが、
    前記第1の画像および前記少なくとも1つの第2の画像にそれぞれ対応する前記少なくとも1つのエリアに属する前記少なくとも1つの特徴要素に基づいて、前記少なくとも1つの第2の画像に対応する少なくとも1つの特徴差パラメータを計算するサブオペレーションと、前記少なくとも1つの特徴差パラメータおよび少なくとも1つの重量値に従って、前記少なくとも1つの第2の画像に対応する前記少なくとも1つのエリア類似度スコアを計算するサブオペレーションと、を含む、請求項12に記載の電子デバイス。
  17. 前記少なくとも1つのエリアが、眉エリア、目エリア、鼻エリア、唇エリアおよび顔エリアを含む、請求項12に記載の電子デバイス。
  18. 前記特徴要素取得モジュールが、前記第1の画像および前記少なくとも1つの第2の画像にそれぞれ対応する前記複数の特徴要素を取得する、前記オペレーションが、
    前記第1の画像に対応する複数の第1の特徴要素を取得するために、前記第1の画像に分析オペレーションを実行するサブオペレーションと、
    前記少なくとも1つの第2の画像における前記分析オペレーションを介してデータベースから取得された、前記少なくとも1つの第2の画像に対応する複数の第2の特徴要素を取得するサブオペレーションと、を含む、請求項10に記載の電子デバイス。
JP2018082496A 2017-08-10 2018-04-23 顔類似度評価方法および電子デバイス Expired - Fee Related JP6615932B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710680021.6A CN109389015A (zh) 2017-08-10 2017-08-10 脸部相似度评估方法与电子装置
CN201710680021.6 2017-08-10

Publications (2)

Publication Number Publication Date
JP2019036290A true JP2019036290A (ja) 2019-03-07
JP6615932B2 JP6615932B2 (ja) 2019-12-04

Family

ID=62046633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018082496A Expired - Fee Related JP6615932B2 (ja) 2017-08-10 2018-04-23 顔類似度評価方法および電子デバイス

Country Status (5)

Country Link
US (1) US20190050678A1 (ja)
EP (1) EP3441907A1 (ja)
JP (1) JP6615932B2 (ja)
KR (1) KR20190017627A (ja)
CN (1) CN109389015A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019006601T5 (de) 2019-01-09 2021-09-23 Marelli Corporation Abgasaufbereitungsvorrichtung

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109288233A (zh) * 2017-07-25 2019-02-01 丽宝大数据股份有限公司 可标示修容区域的身体信息分析装置
KR20200107758A (ko) * 2019-03-08 2020-09-16 엘지전자 주식회사 음향 객체 추종을 위한 방법 및 이를 위한 장치
EP3963507A4 (en) 2019-05-03 2022-12-14 Chad Steelberg PURSUING AND HIDING OBJECTS
CN110458007B (zh) * 2019-07-03 2023-10-27 平安科技(深圳)有限公司 匹配人脸的方法、装置、计算机设备和存储介质
US12010234B2 (en) * 2020-05-04 2024-06-11 Gaurav Upadhyay System and method to generate a unique security proof for secure accessing of data
TWI796063B (zh) * 2021-12-23 2023-03-11 新加坡商瑞昱新加坡有限公司 真人辨識方法及其系統

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005078590A (ja) * 2003-09-03 2005-03-24 Nec Corp 顔照合システム
JP2007052733A (ja) * 2005-08-19 2007-03-01 Glory Ltd 顔画像判定装置および顔画像判定方法
JP2013232093A (ja) * 2012-04-27 2013-11-14 Rakuten Inc 情報処理装置、情報処理方法及び情報処理プログラム
JP2015219797A (ja) * 2014-05-20 2015-12-07 キヤノン株式会社 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
US6611622B1 (en) * 1999-11-23 2003-08-26 Microsoft Corporation Object recognition system and process for identifying people and objects in an image of a scene
US7286692B2 (en) * 2001-12-27 2007-10-23 Amnart Kanarat Automatic celebrity face matching and attractiveness rating machine
EP1343107A3 (en) * 2002-03-04 2005-03-23 Samsung Electronics Co., Ltd. Method and apparatus for recognising faces using principal component analysis and second order independent component analysis on parts of the image faces
AU2003281007B2 (en) * 2002-07-10 2009-11-19 Nec Corporation Image matching system using 3-dimensional object model, image matching method, and image matching program
US7313256B2 (en) * 2002-09-30 2007-12-25 Motorola, Inc. Progressive fingerprint matching system and method
JP4307301B2 (ja) * 2003-07-31 2009-08-05 キヤノン株式会社 画像処理装置およびその方法
US20050043897A1 (en) * 2003-08-09 2005-02-24 Meyer Robert W. Biometric compatibility matching system
WO2005020030A2 (en) * 2003-08-22 2005-03-03 University Of Houston Multi-modal face recognition
US7991232B2 (en) * 2004-03-03 2011-08-02 Nec Corporation Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US7519200B2 (en) * 2005-05-09 2009-04-14 Like.Com System and method for enabling the use of captured images through recognition
US7450740B2 (en) * 2005-09-28 2008-11-11 Facedouble, Inc. Image classification and information retrieval over wireless digital networks and the internet
US7907755B1 (en) * 2006-05-10 2011-03-15 Aol Inc. Detecting facial similarity based on human perception of facial similarity
JP2008117333A (ja) * 2006-11-08 2008-05-22 Sony Corp 情報処理装置、情報処理方法、個人識別装置、個人識別装置における辞書データ生成・更新方法および辞書データ生成・更新プログラム
KR100860989B1 (ko) * 2006-12-18 2008-09-30 삼성전자주식회사 얼굴 영상의 유사도 산출 방법 및 장치와 이를 이용한 얼굴영상 검색 방법 및 장치 그리고 얼굴 합성 방법
JP4309926B2 (ja) * 2007-03-13 2009-08-05 アイシン精機株式会社 顔特徴点検出装置、顔特徴点検出方法及びプログラム
US8411910B2 (en) * 2008-04-17 2013-04-02 Biometricore, Inc. Computationally efficient feature extraction and matching iris recognition
JP5361530B2 (ja) * 2009-05-20 2013-12-04 キヤノン株式会社 画像認識装置、撮像装置及び画像認識方法
JP2012221053A (ja) * 2011-04-05 2012-11-12 Canon Inc 画像認識装置、画像認識方法、及びプログラム
US8811726B2 (en) * 2011-06-02 2014-08-19 Kriegman-Belhumeur Vision Technologies, Llc Method and system for localizing parts of an object in an image for computer vision applications
WO2013175579A1 (ja) * 2012-05-22 2013-11-28 富士通株式会社 生体情報処理装置、生体情報処理方法及びプログラム
JP6244996B2 (ja) * 2014-03-10 2017-12-13 富士通株式会社 識別関数特定装置、識別関数特定プログラム、識別関数特定方法および生体認証装置
US9928410B2 (en) * 2014-11-24 2018-03-27 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognizer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005078590A (ja) * 2003-09-03 2005-03-24 Nec Corp 顔照合システム
JP2007052733A (ja) * 2005-08-19 2007-03-01 Glory Ltd 顔画像判定装置および顔画像判定方法
JP2013232093A (ja) * 2012-04-27 2013-11-14 Rakuten Inc 情報処理装置、情報処理方法及び情報処理プログラム
JP2015219797A (ja) * 2014-05-20 2015-12-07 キヤノン株式会社 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019006601T5 (de) 2019-01-09 2021-09-23 Marelli Corporation Abgasaufbereitungsvorrichtung

Also Published As

Publication number Publication date
KR20190017627A (ko) 2019-02-20
EP3441907A1 (en) 2019-02-13
JP6615932B2 (ja) 2019-12-04
US20190050678A1 (en) 2019-02-14
CN109389015A (zh) 2019-02-26

Similar Documents

Publication Publication Date Title
JP6615932B2 (ja) 顔類似度評価方法および電子デバイス
US10990803B2 (en) Key point positioning method, terminal, and computer storage medium
US9723979B2 (en) Method, apparatus and computer program product for positioning pupil
US20180232561A1 (en) Facial image processing method and apparatus, and storage medium
KR101612605B1 (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
US11676362B2 (en) Training system and analysis system
EP3591580A1 (en) Method and device for recognizing descriptive attributes of appearance feature
US20190059806A1 (en) Skin aging state assessment method and electronic device
Jana et al. Age group estimation using face features
CN109214324A (zh) 基于多相机阵列的最正脸图像输出方法及输出系统
JP7419999B2 (ja) 情報処理装置および情報処理方法
KR20190008071A (ko) 피부 상태 탐지 방법 및 전자 디바이스
CN114677703A (zh) 隐私保护的口罩合规性水平测量的系统和方法
JP5648452B2 (ja) 画像処理プログラムおよび画像処理装置
CN108875488B (zh) 对象跟踪方法、对象跟踪装置以及计算机可读存储介质
Santos et al. Eye gaze as a human-computer interface
JP5694471B2 (ja) 眼探索方法及び該方法を使用した眼状態検出装置と眼探索装置
JP2007048232A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
KR101787255B1 (ko) 랜드마크의 거리의 비율에 기반한 표정 인식 방법
WO2021181991A1 (ja) アクセシビリティ判定装置、アクセシビリティ判定方法、及びプログラム
JP2008059108A (ja) 画像処理装置,画像処理方法、そのプログラムおよび人流監視システム
JP2022086086A (ja) 人の顔に装着物が着用された新たな教師画像を人工的に生成するプログラム、装置及び方法
Chintalapati et al. Illumination, expression and occlusion invariant pose-adaptive face recognition system for real-time applications
Quy et al. 3D human face recognition using sift descriptors of face’s feature regions
KR20190097494A (ko) 전자 장치 및 그의 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191106

R150 Certificate of patent or registration of utility model

Ref document number: 6615932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees