JP2017054304A - 識別装置及び認証システム - Google Patents

識別装置及び認証システム Download PDF

Info

Publication number
JP2017054304A
JP2017054304A JP2015177676A JP2015177676A JP2017054304A JP 2017054304 A JP2017054304 A JP 2017054304A JP 2015177676 A JP2015177676 A JP 2015177676A JP 2015177676 A JP2015177676 A JP 2015177676A JP 2017054304 A JP2017054304 A JP 2017054304A
Authority
JP
Japan
Prior art keywords
candidate
nostril
unit
image
nose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015177676A
Other languages
English (en)
Other versions
JP6526527B2 (ja
Inventor
貴芬 田
Guifen Tian
貴芬 田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015177676A priority Critical patent/JP6526527B2/ja
Priority to US15/067,679 priority patent/US9858471B2/en
Publication of JP2017054304A publication Critical patent/JP2017054304A/ja
Application granted granted Critical
Publication of JP6526527B2 publication Critical patent/JP6526527B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

【課題】識別対象の位置と姿勢の変動による識別精度の低下を抑制可能な識別装置及び認証システムを提供することである。
【解決手段】一の実施形態による識別装置は、抽出部と、取得部と、識別部を備える。抽出部は、任意の物体を含む画像から、視差情報を用いて所定物の候補点を含む候補領域を抽出する。取得部は、画像における候補領域内の画像情報を用いて特性値を取得する。識別部は、特性値と、基準特性値との類似性に基づき、候補領域が所定物に対応するか否かを識別する。
【選択図】図2

Description

本発明の実施形態は、識別装置及び認証システムに関する。
自動的に人間の顔を認識する顔認証システムにおいては、顔領域を抽出する必要がある。そのため、鼻頂点及び鼻孔との位置関係を用いて顔領域を抽出する処理アルゴリズムが考えられる。
このような処理アルゴリズムにおいて、認証対象の顔とカメラとの距離に変動があったり、顔が斜めになったりすると、鼻頂点及び鼻孔の識別精度が低下することがあり、精度よく顔認証を行うことができない。
特開2006−38689号公報
そこで、本発明の実施形態は、このような点を考慮してなされたものであり、識別対象の位置や姿勢の変動による識別精度の低下を抑制可能な識別装置及び認証システムを提供することを目的とする。
一の実施形態による識別装置は、抽出部と、取得部と、識別部を備える。抽出部は、任意の物体を含む画像から、視差情報を用いて所定物の候補点を含む候補領域を抽出する。取得部は、候補領域内の画像情報を用いて特性値を取得する。識別部は、特性値と、基準特性値との類似性に基づき、候補領域が所定物に対応するか否かを識別する。
一実施形態による認証システムの構成を示すブロック図。 一実施形態による識別装置の構成を示すブロック図。 一実施形態による識別装置の処理を説明するフローチャート。 一実施形態による顔領域推定部の処理を説明するフローチャート。 一実施形態による前景領域の輪郭線を示す図。 一実施形態による鼻頂点候補検出部の処理を説明するフローチャート。 一実施形態による鼻頂点検出部の処理を説明するフローチャート。 一実施形態による第1鼻孔候補検出部の処理を説明するフローチャート。 一実施形態による円形分離度フィルタの一例を示す図。 一実施形態による第2鼻孔候補検出部の処理を説明するフローチャート。 一実施形態による鼻孔ペア処理部の処理を説明するフローチャート。 一実施形態による正面顔における2つの鼻孔候補と鼻頂点から構成する三角形を示す図。 一実施形態による斜め顔における2つの鼻孔候補と鼻頂点から構成する三角形を示す図。 一実施形態による鼻孔ペア検出部の識別処理を説明するフローチャート。 一実施形態による候補領域の正規化について説明する図。
以下、本発明の実施形態を、図面を参照して説明する。本実施形態は、本発明を限定するものではない。
本実施形態に係る識別装置は、特性値を取得する物体内の候補領域の大きさを、この物体に対応する視差情報を用いて定める。これにより、この物体の位置や姿勢の変動による候補領域の識別精度の低下を抑制する。
図1は、認証システム1の構成を示すブロック図である。認証システム1は、物体を撮像し、物体が予め登録されている物体であるか否かを認証する。認証システム1は、認証装置100と、識別装置200とを、備える。
認証装置100は、カメラ102と、画像入力部104と、顔認証部106と、結果表示部108とを、備える。カメラ102は、2台のカメラで構成されており、認証対象の物体、すなわち被撮者の顔を撮影する。2台のカメラのレンズ間の距離は、基線長である。これらのカメラで撮像された2枚の輝度画像上における座標の視差、すなわちdisparityに基づいて、対象物体、すなわち顔の3次元座標情報を得ることが可能である。なお、視差は、2枚の輝度画像に基づき、一般のアルゴリズムを用いて計算可能である。ここでは、画像入力部104は、いずれか1枚の輝度画像及びこの輝度画像に対応する視差画像を識別装置200に入力する。視差画像は、輝度画像の画素毎の視差の値を、対応する視差画像の画素に割り振って構成される。
顔認証部106は、物体が予め登録されている物体であるか否かを認証する。具体的には、顔認証部106は、鼻頂点及び鼻孔ペアの位置情報に基づき、顔が予め登録されている顔であるか否かの認証を行う。
結果表示部108は、例えばモニタで構成され、顔認証部106の認証結果を表示する。
識別装置200は、識別した所定物の情報を顔認証部106に出力する。図2は、識別装置200の構成を示すブロック図である。識別装置200は、鼻頂点検出部202と、鼻孔ペア検出部204とを、備える。
鼻頂点検出部202は、顔領域推定部206と、鼻頂点候補検出部208と、勾配辞書210と、鼻頂点識別部212とを、備える。鼻頂点検出部202は、鼻頂点の位置情報を出力する。
顔領域推定部206は、顔領域を推定する。具体的には、顔領域推定部206は、視差情報を用いて輝度画像或いは視差画像を前景と背景とに分け、視差の値(閾値)より大きな値を示す領域を、顔領域として推定する。ここでは、視差情報として、視差画像の画素値の値を用いる。顔領域は、視差画像自体から推定してもよいし、或いは、対応する視差情報を用いて輝度画像から推定してもよい。
鼻頂点候補検出部208は、輝度画像における物体領域内の2次元座標を3次元座標に視差情報を用いて変換し、3次元座標に基づき生成した3次元曲面の曲率の値に応じて候補点を検出する。具体的には、鼻頂点候補検出部208は、顔領域に対応する輝度画像の2次元座標を視差情報を用いて3次元座標に変換する。そして、鼻頂点候補検出部208は、3次元座標に基づく3次元曲面、すなわち顔表面に対応する3次元曲面を生成する。鼻頂点候補検出部208は、生成した3次元曲面に基づき曲率を計算し、所定条件を満たす曲率値を示す点を、鼻頂点の候補点として検出する。
勾配辞書210は、基準特性値を予め登録してしている。基準特性値は、例えば複数人の鼻頂点を含む領域内における勾配値に基づき計算される特徴量である。
鼻頂点識別部212は、候補点を含む領域(以下、候補領域)が鼻頂点に対応するか否かを識別する。鼻頂点識別部212は、第1抽出部214と、第1取得部216と、第1識別部218とを、備える。
第1抽出部214は、視差情報を用いて、輝度画像から候補領域を抽出する。すなわち、第1抽出部214は、顔領域に対応する視差情報を用いて候補領域の大きさを定め、顔領域内から候補領域を抽出する。この場合、候補領域の大きさは、顔領域の視差が大きくなるにしたがい、大きくなるように定められる。つまり、顔がカメラ102に近づくほど、候補領域がより大きくなるように定められる。なお、候補領域の大きさは、顔領域の視差に応じて正規化される。
第1取得部216は、候補領域の画像情報を用いて特徴量を求める。すなわち、第1取得部216は、候補領域の輝度情報を用いて特徴量を計算する。特徴量として、例えば輝度勾配特徴(Histogram of gradient)が計算される。
第1識別部218は、特徴量と、勾配辞書210に登録されている基準特性値と、の類似性に基づき、候補領域が所定物に対応するか否かを識別する。すなわち、第1識別部218は、第1取得部216で計算された特徴量と、基準特性値の類似性に基づき、候補領域が鼻頂点に対応するか識別する。
例えば、第1識別部218は、候補領域が複数ある場合、基準特性値と最も高い類似性を示した候補領域を、鼻頂点に対応する候補領域と識別する。つまり、第1識別部218は、識別された候補領域に対応する候補点を鼻頂点とする。そして、鼻頂点の位置情報を顔認証部106に出力する。
鼻孔ペア検出部204は、鼻孔ペアの位置情報を出力する。鼻孔ペア検出部204は、鼻孔候補検出部220と、パターン辞書222と、鼻孔ペア識別部224とを、備える。鼻孔候補検出部220は、鼻孔候補を検出する。鼻孔候補検出部220は、第1鼻孔候補検出部226と、第2鼻孔候補検出部228とを、備える。
第1鼻孔候補検出部226は、鼻頂点の位置に基づき定まる領域から、形状情報に基づき鼻孔候補を検出する。すなわち、第1鼻孔候補検出部226は、円形形状に基づく領域を鼻孔候補として検出する。
第2鼻孔候補検出部228は、鼻頂点の位置に基づき定まる領域から、輝度値が所定値以下であり視差が所定値以上の領域を鼻孔候補として抽出する。また、第2鼻孔候補検出部228は、例えば所定数Nになるように、鼻孔候補を検出する。すなわち、まず第1鼻孔候補検出部226が鼻孔候補を検出し、所定数Nとの差分数である鼻孔候補を第2鼻孔候補検出部228が検出する。
パターン辞書222は、基準パターンを予め登録している。基準パターンは、例えば複数人の鼻孔ペアを含む画像を加算平均したものである。
鼻孔ペア識別部224は、視差情報を用いて定められる候補領域が鼻孔ペアに対応するか否かを識別する。鼻孔ペア識別部224は、鼻孔ペア処理部230と、第2抽出部232と、第2取得部234と、第2識別部236とを、備える。
鼻孔ペア処理部230は、鼻孔候補検出部220で検出された鼻孔候補をペアにする。鼻孔ペア処理部230は、鼻孔候補間の距離、及び鼻頂点と鼻孔候補との距離が、所定の距離範囲にある2つの鼻孔を、鼻孔ペア候補とする。すなわち、画像上の鼻孔候補間の距離、及び鼻頂点と鼻孔候補との距離は、対応する視差情報が大きくなるにしたがい長くなる。これにより、3次元空間上での鼻孔候補間の距離、及び鼻頂点と鼻孔候補との距離は、対応する視差情報が変わっても被撮者の鼻の大きさに基いて一定値となる。所定の距離範囲は、視差情報に基づいて定まる。
第2抽出部232は、鼻孔ペア候補に基づく候補領域を抽出する。鼻孔ペア候補間の距離は視差情報を用いて定められるので、顔がカメラ102に近づくにしたがい、候補領域がより大きくなる。候補領域の大きさは顔領域の視差に応じて正規化されている。
第2取得部234は、候補領域の画像情報に基づく特性値を取得する。すなわち、第2取得部234は、候補領域の輝度画像をテンプレートとし、テンプレートを構成する画素値を特性値とする。
第2識別部236は、この特性値と、基準特性値との類似性に基づき候補領域が所定物に対応するか否かを識別する。すなわち、第2識別部236は、第2取得部234で得られたテンプレートとしての鼻孔ペア候補画像と、基準パターンの類似性に基づき、候補領域が鼻孔ペアに対応するか識別する。基準パターンは、予め鼻孔ペア画像に基づき計算された基準画像であり、パターン辞書222に登録されている。
例えば、第2識別部236は、候補領域が複数ある場合、基準特性値と最も高い類似性を示した候補領域を、鼻孔ペアに対応する候補領域として識別する。つまり、第2識別部236は、識別された候補領域に対応する鼻孔ペア候補を鼻孔ペアとする。そして、鼻孔ペアに対応する位置情報を顔認証部106に出力する。
次に、識別装置200の動作を説明する。図3は、識別装置200の処理を説明するフローチャートである。顔領域推定部206は、輝度画像から顔領域を推定する(S30)。すなわち、顔領域推定部206は、視差情報を用いて、視差が所定の閾値以上の輝度画像における前景領域を顔領域として推定する。この場合、推定した顔領域の大きさ及び縦方向対横方向の比が所定範囲に乖離すると顔領域でないと判定し(S32:No)、全体処理を終了する。すなわち、顔領域推定部206は、閾値を段階的に変更して推定した各前景領域のうち、大きさ及び縦方向対横方向の比が所定範囲内である前景領域が存在しない場合、顔領域は存在しないと判定して、全体処理を終了する。
一方、推定した前景領域の大きさ及び縦方向対横方向の比が所定範囲内であれば顔領域とする(S32:Yes)。鼻頂点候補検出部208は、輝度画像における物体領域内、すなわち顔領域内における画像ピクセルの2次元座標を、顔点群である3次元座標に視差情報を用いて変換する(S34)。続いて、鼻頂点候補検出部208は、顔点群にスムージング等の処理を行い、点群のノイズを除去する(S36)。そして、鼻頂点候補検出部208は、顔点群における各3次元点の曲率を計算し、これらの3次元点における曲率値が所定範囲内であれば、これらの3次元点それぞれを鼻頂点候補として検出する(S38)。各鼻頂点候補の3次元点の座標は、視差情報を用いて、2次元の輝度画像上の座標に逆変換され、輝度画像上における鼻頂点の候補点とされる。
次に、鼻頂点検出部202は、顔領域内から鼻頂点の候補点を含む候補領域を抽出し、候補領域が鼻頂点に対応するか否かを識別する(S40)。場合、候補領域内の画像情報を用いて特徴量を計算し、この特徴量と、勾配辞書210に登録される基準特徴量との類似性に基づき、候補領域が鼻頂点に対応するか否かを識別する。すなわち、候補領域から得られる特徴量と、勾配辞書210に登録される基準特徴量と、の類似性、すなわち照合スコアが所定値以上であれば、候補領域を鼻頂点に対応すると識別する。候補領域の大きさは、例えば顔領域に対応する視差の平均値に基づき定められている。また、識別の結果、鼻頂点と識別される候補領域が複数ある場合、照合スコア、すなわち類似性が最も高かった候補領域に対応する候補点を鼻頂点とする。
次に、鼻頂点が存在するか否かを判定する(S42)。鼻頂点が存在しないと判定された場合(S42:No)、すなわち照合スコアが所定値以上を示す候補領域が存在しない場合、全体処理を終了する。一方、鼻頂点が存在すると判定された場合(S42:Yes)、鼻孔候補検出部220は、輝度画像に円形分離度フィルタを適用し、鼻孔候補を検出する(S44)。
また、鼻孔候補検出部220は、視差画像を用いて鼻頂点までの絶対距離を計算し、この絶対距離が一定範囲内の任意形状の鼻孔候補を追加する(S46)。すなわち、鼻孔候補検出部220は、鼻頂点の位置に基づき定まる領域内から、輝度値が所定値以下であり視差が所定値以上の領域を鼻孔候補として抽出する。
次に、鼻孔ペア検出部204は、全ての鼻孔候補を組合せて鼻孔ペア候補とする(S48)。この場合、鼻孔ペア検出部204は、鼻孔ペア候補の鼻孔間の絶対距離が一定範囲内であり、且つ鼻頂点と鼻孔それぞれの絶対距離が一定範囲内の鼻孔ペア候補を検出する。絶対距離は顔領域に対応する視差情報を用いて計算される。
次に、鼻孔ペア検出部204は、鼻孔ペアに基づく候補領域から得られた特性値と、パターン辞書222に登録される基準特性値との類似性に基づき、候補領域が鼻孔ペアに対応するか否かを識別する(S50)。すなわち、鼻孔ペア検出部204は、鼻孔ペア候補を含む候補領域内の画像をテンプレートとして、パターン辞書222に登録される基準鼻孔ペアの画像と照合し、照合スコアが一番高い候補領域内の鼻孔ペア候補を鼻孔ペアとする処理を行い、全体処理を終了する。
このように、顔領域に対応する視差情報を用いて大きさが定められる鼻頂点の候補領域から特徴量を計算するので、カメラ102と顔の距離が変動しても安定して鼻頂点を識別することが可能である。また、顔領域に対応する視差情報を用いて、鼻孔ペア間の絶対距離が所定範囲内の鼻孔ペア候補に対応する領域をテンプレートとして取得するので、カメラ102と顔の距離が変動しても安定して鼻孔ペアを識別することが可能である。さらにまた、輝度値が所定値以下であり視差が所定値以上の領域を鼻孔候補として抽出するので、顔の向きが斜めになり鼻孔の形状が円形形状から乖離した場合でも鼻孔候補を抽出可能である。
次に、顔領域推定部206の動作を説明する。図4は、顔領域推定部206の処理を説明するフローチャートである。顔領域推定部206は、視差画像を縮小し、縮小視差画像を得る(S60)。縮小の方法は、例えば最近傍補間やバイリニア補間若しくは平均値法等が用いられる。
次に、顔領域推定部206は、縮小視差画像のヒストグラムにより、分離用閾値を計算し、縮小視差画像の背景を除去する(S62)。すなわち、顔領域推定部206は、縮小視差画像の各画素に対し、画素値、すなわち視差値が閾値より小さい場合、背景領域としてその画素の画素値をゼロに設定する。画素値がゼロでない領域が前景領域である。
次に、顔領域推定部206は、前景領域の大きさ、すなわちSizeを式(1)を用いて計算する(S64)。式(1)では、Bはカメラ102のレンズ間の距離を示し、Rect_widthとRect_heightとは前景を囲む最小四角形、すなわち外接する四角形の横方向と縦方向のピクセルの数(pixel)を示す。また、depth_avgは、前景領域における全ての画素の視差平均値を示す。
Size=(B×(Rect_width+Rect_(height)))/(2×depth_avg) (1)
Sizew=(B×Rect_width)/(depth_avg) (2)
Sizeh =(B×Rect_height)/(depth_avg) (3)
式(1)で計算されるSizeと、人間の顔のサイズ、すなわち閾値Tと比較し、Sizeのほうが閾値Tより大きいか否かを判定する(S66)。
Sizeのほうが閾値Tより大きい場合(S66:Yes)、前景領域に顔以外別の物体が存在すると判定する。この場合、分離用閾値を変更して次の背景分離を実施する(S68)。変更された分離用閾値には、depth_avgを使うことが可能である。S68の実行結果は、分離前の前景領域を複数の連結領域に分割する。次に、顔領域推定部206は、連結領域の輪郭線を抽出する(S70)。複数の連結領域が存在する場合、連結領域のそれぞれの輪郭線を抽出する。
図5は、前景領域の輪郭線を示す図である。図5(A)に示すように、視差画像における視差の値は濃淡(視差値が濃いほど前景がカメラに近い)で表される。また、図5(B)では、連結領域は複数存在し、複数の連結領域における輪郭線が存在する。
顔領域推定部206は、輪郭線の中から顔候補領域を推定結果として選択する(S72)。この場合、式(2)及び式(3)を用いて、輪郭線の領域における横方向Sizew及び縦方向Sizehの絶対長さを計算する。そして、大きさ及び縦方向対横方向の比が人間の顔に一番近いものを顔候補領域として選択する。図5(C)における四角形が選択された顔領域の例である。S72の処理後、S64に戻る。
Sizeのほうが閾値Tよりも小さい場合(S66:No)、前景領域を囲む四角形が顔領域として推定され、顔領域推定部206における処理を終了する。このように、視差情報を用いて前景領域と背景領域を分離し、分離した前景領域の大きさに基づき顔領域を推定する。また、前景領域が複数存在する場合、領域の縦横比も用いて、最も顔らしい前景領域を顔領域として推定する。
次に、鼻頂点候補検出部208の動作を説明する。図6は、鼻頂点候補検出部208の処理を説明するフローチャートである。
ここでは、顔領域推定部206で検出された顔領域内から鼻頂点の候補点を検出する場合について説明する。また、鼻頂点候補検出部208が、顔領域推定部206で検出された顔領域を3次元(X,Y,Z)へ変換する場合について説明する。すなわち、鼻頂点候補検出部208は、顔領域(左上角の座標:(Lx,Ly)、右下角の座標:(Rx,Ry))内の2次元の画像ピクセル(Ix,Iy)(Lx<=Ix<=Rx、Ly<=Iy<=Ry)を3次元(X,Y,Z)へ変換する。この変換で生成される3次元点の集合は、顔領域の3次元点群(ポイントクラウド)となる。この変換は、例えば式(4)を用いて実施可能である。
式(4)では、Ix(Iy)は顔領域内の画像ピクセルのX(Y)軸の座標、disparity(Ix,Iy)はピクセル(Ix,Iy)に対応する視差、(X,Y,Z)は(Ix,Iy)に対応するワールド座標系下の3次元点の座標である。また、Wは、固定値であり、Qは、カメラ102の内部パラメータである焦点距離や歪み係数で決まる4x4の透視変換行列である。左右2つのカメラ102を利用する場合、カメラ102間の回転行列及び並進ベクトルは、透視変換行列Qに含まれている。一般に、視変換行列Qは、公開されているカメラキャリブレーションのアルゴリズムを実施することで得ることが可能である。
ここでは、生成した点群をそのまま利用してもよい。或いは、生成した点群を処理したうえで利用してもよい。例えば点群をダウンサンプリング(down-sampling)、スムージングする処理を行ってもよい。点群をダウンサンプリングすると、点群を曲面近似することにかかる計算量を削減可能である。またスムージングすると、ノイズをより低減可能であり、曲面近似の精度をよりあげることが可能である。
まず、鼻頂点候補検出部208は、顔領域に対応する3次元点群を曲面にフィッテイングする窓の大きさ、すなわち曲面の範囲を決定する(S80)。3次元点に対応する曲率は、3次元点を中心とする範囲の曲面を用いて計算される。ここでは、2次元画像における横幅がn、縦幅がnの四角形領域内のp個の画素に対応するp個の3次元点(xi、yi、zi、)(1<=i<=p)を用いて曲面を近似することとする。
この場合、幅nは、実際の鼻の大きさに応じて設定される。すなわち、実際の鼻の大きさに対応する顔領域内の3次元曲面が近似される。nは、例えば式(5)を用いて計算される。
n=(fit_size×depth_avg)/B (5)
fit_sizeは固定値であり、人間の鼻の大きさとして、ここではfit_size=36mmを用いる。また、depth_avgは、顔領域推定部206で推定された顔領域の平均視差である。なお、曲面をフィッテイングする場合に、高速化のため、横方向と縦方向にs(1≦s<n/2)の間隔で3次元点を用いてフィッテイングしてよい。この場合、曲面の生成に用いる点の数は(p)/(s×s)である。
次に、顔領域内の全ての3次元点に対する処理が終了しているか判定する(S82)。全ての3次元点に対する処理が終了していない場合(S82:No)、次の3次元点(CX,CY,CZ)に対応する曲面から曲率を計算するための行列を生成する(S84)。p個の3次元点のそれぞれの座標(xi、yi、zi、)(1<=i<=p)を式(6)へ代入すれば、式(7)により、曲面係数を計算するために必要な行列が生成される。すなわち、式(6)は、3次元点(CX,CY,CZ)に対応する曲面の式を示す。
係数aは固定値であり、係数b,c,及びdは、近似される曲面に対し、3次元座標で示す3次元点(CX,CY,CZ)の1次微分である。また、係数eとfは3次元点(CX,CY,CZ)の2次微分である。上記係数を得るために、式(6)を式(7)の行列計算の形に変換する。このように、顔領域内の3次元点(CX,CY,CZ)に対応する曲面を生成し、曲率を計算する。
行列Aは式(8)の左辺のマトリックスであり、列ベクトルZは式(8)の右辺である。
次に、式(8)により、曲面係数を計算する(S86)。これら各3次元点の座標(xi、yi、zi、)(1<=i<=p)と中心である3次元点(CX,CY,CZ)の座標が既知のため、X=ベクトル(a,b,c,d,e,f)Tを計算可能である。
次に、曲面係数{a,b,c,d,e,f}を用いて3次元点(CX,CY,CZ)の平均曲率H及びガウス曲率Kを計算する(S88)。平均曲率は式(9)、ガウス曲率は式(10)により計算される。
次に、平均曲率H及びガウス曲率Kのそれぞれが所定値の範囲であるか、式(11)を用いて判定する(S90)。
平均曲率H及びガウス曲率Kのそれぞれが所定値の範囲内である場合(S90:Yes)、3次元点(CX,CY,CZ)を鼻頂点の候補点として検出し(S92)、S82の処理にもどる。式(11)によって検出される鼻頂点候補は、平均曲率値がゼロより小さく、且つガウス曲率が0より大きいため、鼻頂点は必ず凸領域となる。一方で、平均曲率H及びガウス曲率Kのそれぞれが所定値の範囲内でない場合(S90:No)、S82の処理にもどる。顔領域内の全ての3次元点に対する処理が終了した場合(S82:Yes)、全体の処理を終了する。
このように、鼻頂点候補検出部208は、顔領域内の3次元点の全てに対して、平均曲率H及びガウス曲率Kを計算する。そして、平均曲率H及びガウス曲率Kが所定条件を満たす場合に、3次元点を鼻頂点の候補点として出力する。
次に、鼻頂点検出部202の動作を説明する。図7は、鼻頂点検出部202の処理を説明するフローチャートである。鼻頂点検出部202は、まず、鼻頂点候補検出部208で検出した候補点の座標を入力する(S100)。
次に、鼻頂点検出部202は、入力した候補点に対する処理を全て終了したか判定する(S102)。候補点に対する処理を全て終了していない場合(S102:No)、第1抽出部214は、処理対象となる候補点の3次元座標を視差情報を用いて輝度画像上の2次元座標に変換する(S104)。すなわち、第1抽出部214は、鼻頂点の候補点(CX,CY,CZ)を画像平面上の座標へ変換する。この場合、候補点(CX,CY,CZ)の輝度画像上の2次元座標として鼻頂点の候補点(OX,OY)を、式(4)のQ行列を用いて計算する。
次に、第1抽出部214は、鼻頂点候補点(OX,OY)を中心とし、式(5)を用いて輝度画像内の候補領域を抽出する(S106)。すなわち、候補領域の横と縦の長さは、 (OX,OY)座標における視差の値を式(5)のdepth_avgに代入することで計算される。
次に、第1抽出部214は、候補領域内の輝度画像を一定サイズへ正規化する(S108)。正規化は、例えばバイリニア補間を用いて処理可能である。ここで、正規化後の候補領域内における鼻の輝度画像のサイズは60x60として処理を行う。
次に、第1取得部216は、正規化された候補領域内における鼻の輝度画像の輝度勾配HOG(Histogram of gradient)特徴を計算する(S110)。HOG特徴を計算する場合、例えば画像を6x6のセルに分割して、一つのセルを3x3のブロックに分割する。また、勾配の方向は0度から180度まで、20度つづ計9方向の勾配のヒストグラムを統計処理する。このため、一つのブロックについて、3x3x9=81次元のベクトルを得る。これによって、候補領域内における1枚の鼻画像から6561次元のベクトルが特徴量として計算される。
次に、第1識別部218は、計算された特徴量と、予め勾配辞書210に登録された基準特徴量との類似性を示すスコアを計算する(S112)。すなわち、第1識別部218は、演算された特徴量と、基準特徴量の照合スコアを計算する。そして、S102の処理に戻り、全ての候補点に対する処理を終了した場合(S102:Yes)、照合スコアの一番高い候補領域に対応する候補点を鼻頂点として識別する(S114)。そして、この鼻頂点の座標を検出結果として出力し(S116)、全体処理を終了する。このように、視差情報を用いて大きさの定められた候補領域内の画像情報に基づき特徴量を計算し、基準特徴量との類似性から候補領域が鼻頂点に対応するか識別する。
ここでの特徴量の学習には、例えばサポートベクターマシン(SVM:support vector machine)が用いられ、識別器が構成される(S118)。すなわち、識別結果の分かっている複数の候補点に対してS104〜S110の処理を行い、識別結果付きの輝度勾配HOG特徴を特徴量として計算する。続いて、これらの特徴量に対してサポートベクターマシンを用いて識別器を構成する。これにより、未知のカテゴリの特徴量に対して識別スコアを付与することが可能である。つまり、この識別スコアは、鼻頂点を含む候補領域から得られた特徴量との類似性を示す。
例えば、この識別器は、鼻頂点を含む候補領域から得られた特徴量に対して1を、鼻頂点を含まない候補領域から得られた特徴量に対して−1を付与するように学習されている。この場合、未知の特徴量に対して1に近い値が付与される程、鼻頂点に対応する可能性が高くなる。一方、−1に近い値が付与される程、鼻頂点に対応する可能性が低くなる。すなわち、カテゴリーが未知の特徴量と、学習に用いた鼻頂点を含む候補領域から得られた特徴量との類似性が高いほど、未知の特徴量は1に近い値が付与される。
次に、第1鼻孔候補検出部226の動作を説明する。図8は、第1鼻孔候補検出部226の処理を説明するフローチャートである。視差画像が第1鼻孔候補検出部226に入力される(S140)。
次に、第1鼻孔候補検出部226は、鼻頂点(OX,OY)を中心とし、式(5)を用いて輝度画像内から候補領域を抽出し、候補領域を一定サイズへ正規化する(S142)。正規化は、例えばバイリニア補間を用いて処理可能である。ここでは、正規化後の候補領域のサイズは60x60として処理を行う。すなわち、候補領域の横と縦の長さは、(OX,OY)座標における視差を式(5)のdepth_avgに代入することで計算される。正規化は鼻頂点位置の視差情報により実施するため、視差画像を固定サイズとして得ることが可能である。
ここで、円形分離度フィルについて説明する。図9は、円形分離度フィルタの一例を示す図である。円形分離度フィルタは2つの円領域を定めたフィルタである。すなわち、同じ中心位置を持ち、異なる半径r1、r2の円Region1、Region2から構成される。Region1とRegion2間の輝度値の分離度を計算する。分離度とは、ある集合を2つの領域に分割したときの、領域間の変動が全集合の変動に占める割合である。2つの領域が完全に分離されている場合には、最大値1.0をとり、分離できていない場合は、最小値0に近くなる。円形分離度フィルタは円形状の鼻孔付近で高い値を示し、照明変動やノイズの影響を受けにくい特性を有する。
第1鼻孔候補検出部226は、円形分離度フィルタを適用する探索領域を設定する(S144)。鼻孔は鼻頂点に対し、さまざまな位置に存在する可能性がある。このため、鼻頂点を中心とする輝度画像を全部探索してもよい。或いは、処理量を重視する場合、鼻頂点からの距離に依存して探索範囲を定めてもよい。すなわち、鼻頂点からの距離に基づき、鼻孔が存在する可能性が低い領域を探索領域から除いてもよい。
次に、第1鼻孔候補検出部226は、円形分離度フィルタの半径を設定する(S146)。フィルタの内外半径は、正規化された鼻画像のサイズによってそれぞれ設定することが可能である。
次に、第1鼻孔候補検出部226は、円形分離度フィルタ処理を正規化された鼻画像に対して行う(S148)。この処理により、円形分離度フィルタ処理を行った結果の値が正規化された鼻画像の各画素に対応して得られる。ここでは、円形分離度フィルタ処理の値を、正規化された鼻画像の各画素に割り振った画像を結果画像とする。
次に、第1鼻孔候補検出部226は、結果画像の中で所定値を超えている画素を鼻孔候補とする(S150)。この場合、所定値を超えている領域に対してラベリング処理などを行い、ラベルが付与された領域毎の代表点を鼻孔候補としてもよい。
次に、第2鼻孔候補検出部228の動作を説明する。図10は、第2鼻孔候補検出部228の処理を説明するフローチャートである。ここでは、円形ではない鼻孔候補の抽出について説明する。顔が斜めに向いた場合に、円形と異なる形状の鼻孔候補の検出が必要になる。
視差画像が第2鼻孔候補検出部228に入力される(S160)。次に、第2鼻孔候補検出部228は、輝度画像における最小輝度値Kを計算し(S162)、続いて視差画像の平均視差を計算する(S164)。
次に、輝度画像内のピクセルを処理対象として読み込む(S166)。続いて、輝度画像内の全ピクセルに対し処理が終了したか判定する(S168)。輝度画像内の全ピクセルに対し処理が終了した場合(S166:Yes)、全体の処理を終了する。
一方、処理が全て終了していない場合(S168:No)、ピクセルの輝度値は最小輝度値Kのr倍未満であるか判定する(S170)。鼻孔の輝度値は鼻孔周りのピクセルより低い値を示すため、rは鼻孔の輝度値に対応するように設定可能である。ここでのrは例えば1.0〜1.5間の値に設定する。
ピクセルの輝度値が輝度値K・r未満でない場合(S170:No)、そのピクセルに対する処理を終了し、S166の処理に戻る。一方、ピクセルの輝度値が輝度値K・r未満である場合(S170:Yes)、ピクセルの視差値は平均視差より高いか判定する(S172)。ピクセルの視差値が平均視差以下である場合(S172:No)、そのピクセルに対する処理を終了し、S166の処理に戻る。一方、ピクセルの視差値が平均視差より大きい場合(S172:Yes)、このピクセルと鼻頂点、すなわち画像中心との絶対距離(3次元空間上の距離)を式(12)を用いて計算する(S174)。
式(12)では、Lenghは鼻頂点とピクセル間の画像上の距離であり、d1は鼻頂点の視差であり、d2は処理対象とするピクセルの視差である。
次に、絶対距離Dが閾値D1より大きく、且つ閾値D2より小さいか判定する(S176)。ここでは、鼻頂点までの絶対距離で鼻孔候補の検出範囲を制限している。すなわち、D1及びD2の設定は、実際の人間の鼻孔と鼻頂点間の距離に基づき設定され、例えばD1=0.6cm、D2=2.0cmの値を用いることが可能である。
絶対距離DがD1以下、或いはD2以上である場合(S176:No)、そのピクセルに対する処理を終了し、S166の処理に戻る。一方、絶対距離DがD1より大きく、且つD2より小さい場合(S176:Yes)、既に選択した候補数がNを満たすか判定する(S178)。既に選択した候補数Nを満たさない場合(S178:No)、このピクセルを鼻候補に追加し(S180)、S166の処理に戻る。
一方、既に選択した候補数Nを満たす場合(S178:Yes)、鼻候補として追加せず、全体処理を終了する。処理量が重視する必要がない場合、候補数Nをピクセルの最大数に設定し、全てのピクセルを処理しても良い。
次に、鼻孔ペア検出部204の動作について説明する。図11は、鼻孔ペア処理部230の処理を説明するフローチャートである。ここでは、2つの鼻孔の組み合わせが鼻孔ペア候補の条件を満たすか否かを判定する場合について説明する。鼻孔候補検出部220はN個の鼻孔候補を検出するため、鼻孔の組み合わせの数はNx(N−1)/2である。すなわち、これら鼻孔の組み合わせが順に鼻孔ペア処理部230に入力され処理される場合について説明する。
鼻孔ペア処理部230は、鼻孔候補1と鼻孔候補2の組み合わせを入力する(S190)。続いて、鼻孔ペア処理部230は、鼻孔候補1と鼻頂点間の絶対距離を式(12)を用いて計算する。同様に、鼻孔候補2と鼻頂点間の絶対距離を計算する(S192)。
次に、鼻孔候補1と鼻頂点間の距離、及び鼻孔候補2と鼻頂点間の距離のそれぞれがD1より大きく、且つD2未満であるか判定する(S194)。距離のそれぞれがD1以下、或いはD2以上である場合(S194:No)、この組み合わせの判定処理を終了する。一方、距離のそれぞれがD1以上であり、且つD2未満である場合(S194:Yes)、鼻孔候補1と鼻孔候補2間の絶対距離を式(12)を用いて計算する(S196)。この場合、d1を鼻孔候補1の視差とし、d2を鼻孔候補2の視差とする。
次に、鼻孔候補1と鼻孔候補2間の距離が2*D1より大きく,且つD2未満であるか判定する(S198)。鼻孔候補1と鼻孔候補2間の距離が2*D1以下、或いは、D2以上である場合(S198:No)、この組み合わせの判定処理を終了する。一方、鼻孔候補1と鼻孔候補2間の距離が2*D1より大きく,且つD2未満である場合(S198:Yes)、鼻孔候補1、鼻孔候補2及び鼻頂点で構成する三角形における余弦値を計算する(S200)。
ここで、2つの鼻孔候補と鼻頂点から構成する三角形について説明する。図12Aは、正面顔における2つの鼻孔候補と鼻頂点から構成する三角形を示す図である。図12Bは、斜め顔における2つの鼻孔候補と鼻頂点から構成する三角形を示す図である。人間の鼻頂点と左右鼻孔は、どうのような顔の向きであっても鼻孔候補に位置する角A1とA2は0〜90度である。
cos(A1)及びcos(A2)の値が0より大きいか判定する(S202)。cos(A1)が0以下、或いはcos(A2)の値が0以下の場合(S202:No)、この組み合わせに対する処理を終了する。一方、cos(A1)及びcos(A2)の値が0より大きい場合(S202:Yes)、鼻孔候補1と鼻孔候補2とは鼻孔ペア候補とされ(S204)、この組み合わせに対する処理を終了する。このようにして、Nx(N−1)/2個の鼻孔の組み合わせの中から鼻孔ペア候補を選択する。
次に鼻孔ペア検出部204の動作を説明する。図13は、鼻孔ペア検出部204の識別処理を説明するフローチャートである。ここでは、鼻孔ペア処理部230が選択した鼻孔ペア候補が鼻孔ペアであるか識別する処理について説明する。
鼻孔ペア検出部204は、鼻孔ペア候補を入力する(S210)。次に、第2抽出部232は、鼻孔ペア候補を囲む矩形領域を候補領域として抽出し、候補領域内の画像を正規化する(S212)。
ここでこの正規化について説明する。図14は、候補領域の正規化について説明する図である。まず、鼻画像を回転して、鼻頂点と鼻孔ペア候補の中心点を結ぶ直線を垂直にする。この場合、鼻頂点を上に、鼻孔ペア候補を鼻頂点の下に位置するように回転する。次に、画像を再度回転して、鼻孔ペア候補を水平にする。そして、水平に配置される鼻孔ペア候補の中点を中心として、鼻孔ペア候補を囲む矩形領域を候補領域とする。続いて、第2取得部234は、候補領域内の画像を、固定サイズへリサイズし、正規化画像をテンプレートとして計算する。
第2識別部236は、テンプレートと、パターン辞書222に登録される基準画像との類似性を示す照合スコアを計算する(S214)。ここでは、例えばテンプレートと基準画像との正規化相関値を照合スコアとして計算する。
次に、鼻孔ペア検出部204は、全ての鼻孔ペア候補に対する処理を終了したか判定する(S216)。全ての鼻孔ペア候補に対する処理を終了していない場合(S216:No)、鼻孔ペア検出部204は、S210に戻る。
一方、全ての鼻孔ペア候補に対する処理を終了した場合(S216:Yes)、第2識別部236は、鼻孔ペアのX,Y座標に基づいて、XとY座標が隣接する鼻孔ペア候補を一つにマージする(S218)。これにより、鼻孔ペア候補の数を減らすことが可能である。
次に、第2識別部236は、鼻孔ペア候補の照合スコアが一番高い鼻孔ペア候補を鼻孔ペアとして検出し(S222)、処理を終了する。パターン辞書222は、複数の学習用正規化画像を加算平均した画像を基準画像として登録している。すなわち、大きさを正規化した複数の鼻孔ペア画像の平均値を基準画像として登録している。
次に、認証装置100の動作を説明する。顔認証部106は、識別装置200で得られた鼻頂点及び鼻孔情報に基づいて顔領域を抽出する。この場合、鼻頂点と鼻孔の情報を用いて顔の傾き及び向きを類推できるので、顔領域をより精度よく抽出可能である。
続いて、顔認証部106は、顔領域から認証に用いる特徴量を計算し、辞書に登録されている特徴量と照合する。照合スコアが所定値を超えている場合に、認証対象の顔が予め登録された人物の顔であると判断する。一方で、照合スコアが所定値未満である場合に、認証対象の顔は、登録されていないと判断する。
このように、一実施形態によれば、候補領域の大きさを視差情報を用いて定めることで、物体の位置変動の影響を低減してより高精度に候補領域を識別することができる。また、3次元座標に基づき生成した3次元曲面の曲率の値に応じて鼻頂点の候補点を検出し、候補点に応じて候補領域を抽出するので、より安定して候補領域を抽出でき、鼻頂点の検出精度をより上げることができる。
さらにまた、鼻孔候補を形状情報に基づき検出し、更に、輝度情報及び視差情報に基づき鼻孔候補を検出するので、斜めの顔からも鼻孔候補を検出することができる。このため、より安定して鼻孔ペアを含む候補領域を抽出でき、鼻孔ペアの検出精度をより上げることができる。一実施形態によれば、物体の例として顔を用いて説明したが、例としてのみ提示したものであり、物体を顔に限定することを意図したものではない。
以上のように、一実施形態に係る識別装置200によれば、第1抽出部214が顔領域における視差情報を用いて、鼻頂点の候補点に対応する候補領域の大きさを定めることとした。このため、顔領域の位置変動の影響を低減した状態で第1取得部216が特徴量を候補領域から取得でき、第1識別部218は、顔の位置変動による候補領域の識別精度の低下を抑制できる。
また、第2抽出部232が顔領域における視差情報を用いて、鼻孔ペア候補に対応する候補領域の大きさを定めることとした。このため、顔領域の位置変動の影響を低減した状態で第2取得部234がテンプレートを候補領域から取得でき、第2識別部236は、顔の位置変動による候補領域の識別精度の低下を抑制できる。
上述した実施形態で説明した識別装置および認証システムの少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、識別装置および認証システムの少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。
また、識別装置および認証システムの少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
以上、一実施形態を説明したが、一実施形態は、例としてのみ提示したものであり、発明の範囲を限定することを意図したものではない。本明細書で説明した新規な装置及びシステムは、その他の様々な形態で実施することができる。また、本明細書で説明した装置及びシステムの形態に対し、発明の要旨を逸脱しない範囲内で、種々の省略、置換、変更を行うことができる。添付の特許請求の範囲およびこれに均等な範囲は、発明の範囲や要旨に含まれるこのような形態や変形例を含むように意図されている。
1:認証システム、100:認証装置、102:カメラ、106:顔認証部、200:識別装置、202:鼻頂点検出部、204:鼻孔ペア検出部、206:顔領域推定部、208:鼻頂点候補検出部、210:勾配辞書、212:鼻頂点識別部、214:第1抽出部、216:第1取得部、218:第1識別部、220:鼻孔候補検出部、222:パターン辞書、224:鼻孔ペア識別部、226:第1鼻孔候補検出部、228:第2鼻孔候補検出部、230:鼻孔ペア処理部、232:第2抽出部、234:第2取得部、236:第2識別部

Claims (5)

  1. 任意の物体を含む画像から、視差情報を用いて所定物の候補点を含む候補領域を抽出する抽出部と、
    前記候補領域内の画像情報に基づく特性値を取得する取得部と、
    前記特性値と、基準特性値との類似性に基づき、前記候補領域が前記所定物を含むか否かを識別する識別部と、
    を備えることを特徴とする識別装置。
  2. 前記画像から物体領域を推定する推定部と、
    前記物体領域内の画素に対応する2次元座標を3次元座標に前記視差情報を用いて変換し、当該3次元座標に基づき生成した3次元曲面の曲率値に応じて前記候補点を検出する検出部と、を更に備え、
    前記抽出部は、前記候補点に基づき前記候補領域を抽出することを特徴とする請求項1に記載の識別装置。
  3. 前記候補点は、鼻頂点の候補を示す3次元座標であって、
    前記取得部は、前記候補領域内における勾配値に基づく特徴量を前記特性値として取得し、
    前記識別部は、前記候補領域が鼻頂点に対応するか否かを識別することを特徴とする請求項2に記載の識別装置。
  4. 前記抽出部は、鼻孔ペア候補を含む候補領域を抽出し、
    前記識別部は、前記候補領域が鼻孔ペアに対応するか否かを識別することを特徴とする請求項1乃至3のいずれか一項に記載の識別装置。
  5. 任意の物体を含む画像中から、視差情報を用いて所定物の候補点を含む候補領域を抽出する抽出部と、
    前記候補領域内の画像情報に基づく特性値を取得する取得部と、
    前記特性値と、基準特性値との類似性に基づき、前記候補領域が前記所定物を含むか否かを識別する識別部と、
    前記所定物を含む候補領域内の前記所定物の位置情報に基づき、認証に用いる情報を前記画像から取得し、前記物体が予め登録されている物体であるか否かを認証する認証部と、
    を備える認証システム。
JP2015177676A 2015-09-09 2015-09-09 識別装置及び認証システム Active JP6526527B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015177676A JP6526527B2 (ja) 2015-09-09 2015-09-09 識別装置及び認証システム
US15/067,679 US9858471B2 (en) 2015-09-09 2016-03-11 Identification apparatus and authentication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015177676A JP6526527B2 (ja) 2015-09-09 2015-09-09 識別装置及び認証システム

Publications (2)

Publication Number Publication Date
JP2017054304A true JP2017054304A (ja) 2017-03-16
JP6526527B2 JP6526527B2 (ja) 2019-06-05

Family

ID=58189347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015177676A Active JP6526527B2 (ja) 2015-09-09 2015-09-09 識別装置及び認証システム

Country Status (2)

Country Link
US (1) US9858471B2 (ja)
JP (1) JP6526527B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348822A (zh) * 2019-08-08 2021-02-09 佳能株式会社 图像处理设备和图像处理方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11210498B2 (en) * 2017-06-26 2021-12-28 Nec Corporation Facial authentication device, facial authentication method, and program recording medium
US10896503B2 (en) * 2018-03-23 2021-01-19 International Business Machines Corporation Identification of areas of interest in imaging applications
US11195301B1 (en) * 2020-07-26 2021-12-07 Nec Corporation Of America Estimation of head yaw in an image
CN112926784B (zh) * 2021-03-05 2022-07-12 江苏唱游数据技术有限公司 一种适用于文旅产业监测的景区人流量峰值预测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05215531A (ja) * 1992-02-07 1993-08-24 Nippon Telegr & Teleph Corp <Ntt> 3次元物体の識別処理方法
JPH10307923A (ja) * 1997-05-01 1998-11-17 Mitsubishi Electric Corp 顔部品抽出装置および顔の向き検出装置
JP2006038689A (ja) * 2004-07-28 2006-02-09 Nissan Motor Co Ltd 鼻検出装置
JP2011048485A (ja) * 2009-08-25 2011-03-10 Kumamoto Univ 物標検出装置および物標検出方法
JP2014178862A (ja) * 2013-03-14 2014-09-25 Secom Co Ltd 特徴点抽出装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4043973B2 (ja) 2003-02-27 2008-02-06 株式会社東芝 顔検出システムとその方法
JP4653606B2 (ja) 2005-05-23 2011-03-16 株式会社東芝 画像認識装置、方法およびプログラム
JP4539519B2 (ja) 2005-10-06 2010-09-08 コニカミノルタホールディングス株式会社 立体モデル生成装置および立体モデル生成方法
JP4645411B2 (ja) * 2005-10-28 2011-03-09 コニカミノルタホールディングス株式会社 認証システム、登録システム及びプログラム
JP4991317B2 (ja) 2006-02-06 2012-08-01 株式会社東芝 顔特徴点検出装置及びその方法
JP4826306B2 (ja) 2006-03-23 2011-11-30 日産自動車株式会社 顔部位追跡方法及びその装置
JP4996943B2 (ja) 2007-02-23 2012-08-08 アイシン精機株式会社 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP5981789B2 (ja) * 2012-07-09 2016-08-31 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP5923180B2 (ja) * 2012-11-12 2016-05-24 アルプス電気株式会社 生体情報計測装置及びそれを用いた入力装置
CN106144861B (zh) * 2015-04-03 2020-07-24 奥的斯电梯公司 用于乘客运输控制的基于深度传感器的乘客感测

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05215531A (ja) * 1992-02-07 1993-08-24 Nippon Telegr & Teleph Corp <Ntt> 3次元物体の識別処理方法
JPH10307923A (ja) * 1997-05-01 1998-11-17 Mitsubishi Electric Corp 顔部品抽出装置および顔の向き検出装置
JP2006038689A (ja) * 2004-07-28 2006-02-09 Nissan Motor Co Ltd 鼻検出装置
JP2011048485A (ja) * 2009-08-25 2011-03-10 Kumamoto Univ 物標検出装置および物標検出方法
JP2014178862A (ja) * 2013-03-14 2014-09-25 Secom Co Ltd 特徴点抽出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ALESSANDRO COLOMBO ET AL.: "3D face detection using curvature analysis", PATTERN RECOGNITION 39, JPN7018003279, 2006, pages 444 - 455, ISSN: 0003884053 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348822A (zh) * 2019-08-08 2021-02-09 佳能株式会社 图像处理设备和图像处理方法

Also Published As

Publication number Publication date
JP6526527B2 (ja) 2019-06-05
US9858471B2 (en) 2018-01-02
US20170068843A1 (en) 2017-03-09

Similar Documents

Publication Publication Date Title
US9881204B2 (en) Method for determining authenticity of a three-dimensional object
JP6526527B2 (ja) 識別装置及び認証システム
US11087169B2 (en) Image processing apparatus that identifies object and method therefor
JP5771413B2 (ja) 姿勢推定装置、姿勢推定システム、および姿勢推定方法
US7835568B2 (en) Method and apparatus for image-based photorealistic 3D face modeling
JP6125188B2 (ja) 映像処理方法及び装置
JP5873442B2 (ja) 物体検出装置および物体検出方法
CN105740778B (zh) 一种改进的三维人脸活体检测方法及其装置
JP6397354B2 (ja) 人物領域検出装置、方法およびプログラム
WO2016050290A1 (en) Method and system for determining at least one property related to at least part of a real environment
CN104573634A (zh) 一种三维人脸识别方法
JP2000105829A (ja) 顔パーツ検出方法及びその装置
KR20110064117A (ko) 얼굴 정면포즈 판단 방법
JP2018045309A (ja) 特徴量抽出装置および認証システム
US20130236108A1 (en) Object or shape information representation method
US20180144179A1 (en) Image processing device, image processing method, and image processing program
JP6885474B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP4533849B2 (ja) 画像処理装置及び画像処理プログラム
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
JP6452324B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6163732B2 (ja) 画像処理装置、プログラム、及び方法
JP5935118B2 (ja) 物体検出装置および物体検出方法
KR101998361B1 (ko) 카메라 영상의 얼굴 인식 방법
CN112800966B (zh) 一种视线的追踪方法及电子设备
JP5051671B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170901

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170906

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190508

R150 Certificate of patent or registration of utility model

Ref document number: 6526527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150