JP2009211177A - 特徴点位置決定方法及び装置 - Google Patents

特徴点位置決定方法及び装置 Download PDF

Info

Publication number
JP2009211177A
JP2009211177A JP2008051117A JP2008051117A JP2009211177A JP 2009211177 A JP2009211177 A JP 2009211177A JP 2008051117 A JP2008051117 A JP 2008051117A JP 2008051117 A JP2008051117 A JP 2008051117A JP 2009211177 A JP2009211177 A JP 2009211177A
Authority
JP
Japan
Prior art keywords
feature point
search
feature
reliability
searched
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008051117A
Other languages
English (en)
Other versions
JP5202037B2 (ja
Inventor
Masami Kato
政美 加藤
Takashi Suzuki
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008051117A priority Critical patent/JP5202037B2/ja
Priority to US12/393,508 priority patent/US8280173B2/en
Publication of JP2009211177A publication Critical patent/JP2009211177A/ja
Priority to US13/333,388 priority patent/US8971589B2/en
Application granted granted Critical
Publication of JP5202037B2 publication Critical patent/JP5202037B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】簡単な処理で複数の特徴点位置を高精度に決定可能とする。
【解決手段】画像中の特徴点の位置を決定する特徴点位置決定方法では、画像中の複数の特徴点の位置を予め設定された探索範囲で第1の探索を行い、探索された複数の特徴点の幾何学的な配置関係に基づいて当該複数の特徴点の位置を補正し、補正された各特徴点の位置に基づいて探索範囲を設定して当該探索範囲で各特徴点の位置を探索する第2の探索を行う。そして、第2の探索で探索された各特徴点について位置の信頼性を判定することにより、上記補正された位置と、上記第2の探索で探索された位置とのいずれかを選択する。
【選択図】 図1

Description

本発明は顔画像の認識等に用いられる特徴点の位置決め方法及び装置に関する。
画像データを用いた顔認識等に於いて、顔器官或いはそれに準ずる特徴的な部位(以下特徴点とする)の位置決定は重要なタスクであり、認識性能を律する事が多い。
決定した特徴点の位置は、認識対象画像の大きさ・回転の正規化や対象画像から認識に必要な部分領域を抽出する際の基準点等に利用される。認識に好適な特徴量を算出するためには正確な特徴点の位置決定が望まれる。
非特許文献1では、テンプレートマッチングによる器官候補抽出結果の中から候補となる特徴点のセットを抽出し、予めモデル化したグローバルな幾何拘束条件と比較することで特徴点の位置を決定する手法が記載されている。
また、非特許文献2では、幾何拘束となる格子点上に器官候補位置を配置し、当該格子点上の特徴量が検出対象の特徴量に一致する様に格子点を歪ませながら器官位置を探索する手法が記載されている。格子点の変形は特徴量の一致度と格子点の歪量に基づいて所定の評価関数で決定される。
更に、非特許文献3では、特徴点の各座標値を入力ベクトルとし、固有空間を利用して特徴点の位置を補正する手法が記載されている。
図2は非特許文献3に記載された手法の概要を説明する図である。S21は特徴点位置候補決定処理のステップであり、特徴点の位置を識別する複数の識別手段により構成される。図3は識別される特徴点の位置の例であり、“×”で示す14個の特徴点(これを特徴点のセットと定義する)を決定する場合を示している。例えば、特徴点31は向かって左側の目の目尻に対応する特徴点である。
S22は固有空間射影処理のステップであり、特徴点位置候補決定処理(ステップS21)で決定した各特徴点の座標値を入力ベクトルとして、固有空間に射影する。特徴点の数が14個の場合、28次元のベクトル(14個の水平方向座標値及び14個の垂直方向座標値を要素とするベクトル)が入力データとなる。固有空間は、予め特徴点位置データを用いて学習によって作成した固有ベクトルで構成される。固有ベクトルは、正しい特徴点位置に対応する複数の入力ベクトル(特徴点位置データ)を用いて予め主成分分析により生成される。S23は次元削減処理のステップであり、固有値の小さい固有ベクトルに対応する射影値を削除することで次元を削減する。例えば、28次元の射影ベクトルを数次元に削減する。S24は固有空間逆射影処理のステップであり、次元削減処理(ステップS23)で次元削減された射影ベクトルと固有ベクトルを用いて固有空間上に射影された入力ベクトルを実空間のベクトルに逆射影する。ステップS22〜ステップ24の処理により、固有空間で表現できない外れ値を有する入力ベクトルが投入された場合にも、表現可能なベクトルに補正される。
即ち、ステップS22〜ステップS24の処理により、統計的な幾何拘束条件に基づいて入力ベクトルが補正される。図4は特徴点位置候補決定処理(ステップS21)で誤って特徴点位置が抽出された例を説明する図である。特徴点41が誤って決定された特徴点であり、眉毛端を誤って目尻と判定した例である。図4に示す特徴点位置からなる入力ベクトルを上記ステップS22〜ステップS24で処理すると、特徴点41は固有空間で表現可能な位置に補正される。図5は固有空間逆射影処理(ステップS24)を行った後の特徴点位置の例を示す図であり、特徴点41が特徴点51に補正される様子を示す図である。S25は距離算出処理のステップであり、特徴点位置候補決定処理(ステップS21)の出力である特徴点候補の座標と、ステップS22〜ステップS24の処理により補正した特徴点座標との距離を特徴点毎に算出する。即ち、上記補正の前後における各特徴点の距離が算出される。図4、図5に示す例の場合、特徴点41と特徴点51間の画像座標上の距離が算出される。
S26は選択処理のステップであり、距離算出処理(ステップS25)で算出した特徴点の距離を閾値と比較してステップS22〜ステップS24の処理による補正前と補正後のどちらか一方の座標を特徴点毎に選択する。選択処理(ステップS25)では、算出された距離が所定の閾値を超える場合には補正後の座標値を選択し、閾値以下の場合には補正前の座標を選択する。27は特徴点毎に繰り返す処理ステップ郡を示し、28は特徴点のセット毎に繰り返される処理ステップ群を示す。そして、選択処理(ステップS26)の結果である特徴点のセットを入力ベクトルとして、ステップS22〜ステップS26に示す座標補正処理を複数回繰り返す事で適正な特徴点の位置を決定する。
宋欣光,李七雨,徐剛,辻三郎: "部分特徴テンプレートとグローバル制約による顔器官特徴の抽出,"電子情報通信学会論文誌(D-II),Vol.J77-D-II,No.8,pp.1601-1609 (1994). Wiskott, Laurenz; Fellous, Jean-Marc; Kruger, Norbert; Von der Malsburg, Christoph; "Face recognition by elastic bunch graph matching", IEEE Trans. Pattern Anal. & Machine Intelligence, Vol. 19, No.7, p. 775-779, 1997 Beumer, G.M.; Tao, Q.; Bazen, A. M. ;Veldhuis, R.N.J. "A landmark paper in face recognition" Automatic Face and Gesture Recognition, 2006. FGR 2006.7th International Conference on Volume, Issue, 10-12 April 2006 Page(s): 6 pp.
非特許文献1の様に複数の特徴点のセットを候補として抽出し、各特徴点間の配置関係に基づく幾何拘束条件を利用して最適な特徴点のセットを決定する手法は計算量の観点で問題になる場合がある。非特許文献2に開示されている手法も格子点の変形と特徴量の一致度を繰り返し処理で探索するため計算量が多い。
非特許文献3の場合も、上記のように複数回の繰り返し処理が必要であり、また、特徴点位置候補決定処理(ステップS21)の性能に依存しているため、複数回繰り返しても十分な精度が得られない場合がある。
本発明は、簡単な処理で複数の特徴点位置を高精度に決定可能とする事を目的とする。
上記の目的を達成するための本発明の一態様による特徴点位置検出方法は、
画像中の複数の特徴点の位置を予め設定された探索範囲で探索する第1探索工程と、
前記第1探索工程で探索した前記複数の特徴点の幾何学的な配置関係に基づいて当該複数の特徴点の位置を補正する位置補正工程と、
前記位置補正工程で補正した各特徴点の位置に基づいて探索範囲を設定し、当該探索範囲で各特徴点の位置を探索する第2探索工程と、
前記第2探索工程で探索された各特徴点について位置の信頼性を判定することにより、前記位置補正工程で補正された位置と、前記第2探索工程で探索された位置との一方を決定すべき特徴点の位置として選択する選択工程とを備える。
また、上記の目的を達成するための本発明の他の態様による特徴点位置検出装置は、以下の構成を備える。即ち、
画像中の複数の特徴点の位置を予め設定された探索範囲で探索する第1探索手段と、
前記第1探索手段で探索した前記複数の特徴点の幾何学的な配置関係に基づいて当該複数の特徴点の位置を補正する位置補正手段と、
前記位置補正手段で補正した各特徴点の位置に基づいて探索範囲を設定し、当該探索範囲で各特徴点の位置を探索する第2探索手段と、
前記第2探索手段で探索された各特徴点について位置の信頼性を判定することにより、前記位置補正手段で補正された位置と、前記第2探索手段で探索された位置との一方を決定すべき特徴点の位置として選択する選択手段とを備える。
本発明により、簡単な処理で統計的に所定の配置関係にある複数の特徴点位置を高精度に決定する事ができる。
以下、添付の図面を参照して、本発明の好適な実施形態について説明する。
[第1実施形態]
以下、第1実施形態の動作の詳細について図1、図6を用いて説明する。
図6は第1実施形態に関わる特徴点位置決定装置の構成を示すブロック図である。当該装置は顔画像データ中の複数の特徴点位置を決定する機能を有する。
図6において601は画像入力部である。画像入力部601は光学系、CCD(Charge-CoupledDevices)又はCMOS(Complimentary Metal OxideSemiconductor)センサ等の光電変換デバイスを含む。更に、画像入力部601は、センサを制御するドライバ回路/ADコンバータ/各種画像補正を司る信号処理回路/フレームバッファ等により構成される。602は前処理部であり、後段の各種処理を効果的に行うための各種前処理を実行する。具体的には、前処理部602は、画像入力部601で取得した画像データに対して色変換処理/コントラスト補正処理等の画像データ変換をハードウェアで処理する。
顔画像データ切り出し処理部603は、前処理部602で変換された画像データに対して顔検出処理を実行する。顔検出の手法は従来提案されている様々な手法を適用可能である。更に、顔画像データ切り出し処理部603は検出された顔毎に顔画像データを所定のサイズに正規化して切り出す。ここでは、顔検出の結果を使用して、大きさ及び面内回転を正規化する。図7は正規化した顔画像データの例を示す図である。顔画像データ切り出し処理部603は、正規化した顔画像71を含む所定の大きさの画像面72を切り出す。以後、特徴点の位置とはこの画像面72内の特徴点の座標と定義する。また、座標データは画像面72の左上端を原点とする座標系(x座標、y座標)で表現するものとする。
特徴位置信頼度算出処理部611は特徴点の存在の確からしさを示す情報である特徴位置信頼度マップを算出する処理部であり、その詳細は図1を参照して後述する。606はDMAC(Direct Memory Access Controller)である。DMAC606は、画像バス604上の各処理部間、及び画像バス604上のデバイスとCPU(CentralProcessingUnit)バス607上のRAM610/ROM609との間のデータ転送等を司る。605はブリッジであり、画像バス604とCPUバス607間のバスブリッジ機能を提供する。
608はCPUであり、本実施形態に係る主要な処理を実行すると共に本装置全体の動作を制御する。609はROMであり、CPU608の動作を規定する命令を格納する。RAM610はCPU608の動作に必要な作業メモリである。RAM610はDRAM(Dynamic RAM)等の比較的容量の大きいメモリで構成される。CPU608はブリッジ605を介して画像バス604上の各種処理部にアクセスできる。以上のように画像バス604とCPUバス607を分離する事で、ハードウェアによる各処理部601、602、603、611とCPU608は同時に動作する事ができる。
図1は第1実施形態の特徴点位置決定処理の主要な処理フローを説明する図である。図中ステップS101〜S107はCPU608で処理するステップを示す。以下、図1、図6を用いて第1実施形態の動作について詳細に説明する。
顔画像データ切り出し処理部603は、顔検出結果に基づいて所定のサイズに正規化した顔画像データを図示しない内蔵RAMに格納する。格納されたデータはDMAC606を介して特徴位置信頼度算出処理部611の図示しないRAMに転送される。特徴位置信頼度算出処理部611は当該RAMに格納した画像データに対して、特徴点位置候補の存在の確からしさである信頼度の算出を開始する(図1における特徴位置信頼度算出処理10に相当)。ここで生成される信頼度画像を特徴位置信頼度マップ11と定義する。なお、特徴位置信頼度(以下、信頼度という場合もある)を算出するための手法は従来提案されている様々な手法を適用可能である。最も簡単には、対応する特徴点の特徴を表現するテンプレートを学習により準備し、テンプレートと対象位置の画像の一致度を信頼度とする。
図8は特徴位置信頼度マップの生成の様子を模式的に説明する図である。82はテンプレートマッチングのためのテンプレートである。83はテンプレートマッチングする重心算出領域(探索範囲という)を示す。当該テンプレート82を探索範囲83内でスキャンし、対象位置におけるテンプレートの一致度を記録する事で特徴位置信頼度マップを生成する。即ち、特徴位置信頼度マップとは、画像データの代わりに信頼度が記録されたバッファメモリである。ここで探索範囲83には、個人差、表情、向き、顔画像データ切り出し処理部603での正規化の誤差、等を考慮して所望の端点を含む十分に広い領域が設定される。
84は特徴位置信頼度マップの例を模式的に説明する図である。85、86は対象とする特徴点位置の信頼度が高い(この場合、テンプレートに一致度が高い)位置を示す。濃い部分ほど信頼度が高いことを表す。この場合、向かって左の目尻の端点を検出するテンプレート82マッチングの結果を示している。また、85は眉毛の左端部に生じる誤検出に相当する。
特徴位置信頼度算出処理部611は特徴点毎に上記のような特徴位置信頼度マップを生成する。例えば図3に示すような14個の特徴点を決定する場合、14種類の特徴点検出テンプレートを使用して、14枚の特徴位置信頼度マップ11を生成する。なお、特徴位置信頼度マップ11は画像81に対応する領域84として保持するのではなく、探索範囲83のサイズのみをメモリに保持するようにしても良い。また、ここではテンプレートマッチングにより信頼度を算出する手法について説明したが、ニューラルネットによる方法、カスケード型フィルタによる方法等従来提案されている様々な手法を利用可能である。
生成された特徴位置信頼度マップ11はDMAC606を介してRAM610に転送される。CPU608は当該転送が終了すると特徴点決定のためのプログラム(ステップS101〜ステップS107)の実行を開始する。
図1において、12及び13で囲んだステップは特徴点毎に繰り返されるステップを示している。第1重心探索処理(ステップS101)では、特徴点毎に対応する特徴位置信頼度マップ11の探索範囲83内における特徴点位置信頼度値の重心を算出する。ここで得られた重心値を特徴点位置候補座標とする。重心探索の手法は一般的に知られている手法を適用することができる。また、重心の替わりに、探索範囲83内の特徴点位置信頼度値の最大値を利用する等の他の手法でも良い。以上のように、特徴位置信頼度算出処理10及び第1重心探索処理(ステップS101)は、画像中(本実施形態では正規化された顔画像中)の複数の特徴点の位置を予め設定された探索範囲で探索する処理(第1探索処理)を行う。
幾何拘束補正処理(ステップS102)では、第1重心探索処理(ステップS101)で得られた全ての特徴点位置候補座標を、特徴点の幾何学的な配置に関する拘束条件に従ってまとめて補正する。本実施形態の幾何拘束補正処理(ステップS102)においては、図2に示す固有空間を利用した補正処理(ステップS22〜ステップS24)を用いて座標位置の補正が行われる。即ち、CPU608は、第1重心探索処理(ステップS101)で生成した座標データ(xi,yi):i=0〜13を、vj:j=0〜27を要素と見なした入力ベクトルとして固有空間に射影する(ステップS22)。なお、固有空間に射影するための固有ベクトルEは予め、複数の顔画像に対する正しい特徴点の位置を示すデータセットを使用して主成分分析により生成しておく。また、生成に使用するデータセットとしては、目的に応じた変動(顔のサイズ、向き、表情)を含む多様なデータが用いられる。
図9は座標データ(xi,yi)(i:0〜13)と入力ベクトルV(vj:j=0〜27)の関係を説明する図である。座標データを1列に並べた座標データ列91をそのまま入力ベクトル92としている。例えば、ベクトル要素v0は座標値x0に対応する。固有空間射影処理(ステップS22)では、入力ベクトルVから固有ベクトル生成時に生成した平均ベクトルAvを減じたベクトルと固有ベクトルEを使用して、(1)式により射影ベクトルPを算出する。
P=ET (V−Av) …(1)
(1)式の演算結果が固有空間に対する射影ベクトルに相当する。次元削減処理(ステップS23)では射影ベクトルの次元を削減する。そして、固有空間逆射影処理(ステップS24)で、次元削減した射影ベクトルから入力ベクトルに対する補正ベクトルを生成する。補正ベクトルX’は(2)式により固有ベクトルEと平均ベクトルAvを用いて算出される。
X’=EP + Av …(2)
逆射影した補正ベクトルX’は図9に示す92の形式であるため、入力ベクトルと同様に座標データ列91に対応付ける事が可能である。尚、ステップS22〜S24の処理は線形なマトリクス演算であるため、固有空間に対するマトリクス演算を1回のマトリクス演算に合成する事が可能である。このように、固有空間を利用する事で、簡単な処理で特徴点の配置関係に基づく位置の補正を実現する事ができる。
以上のように、幾何拘束補正処理(ステップS102)では、CPU608は、固有空間を利用した統計的な幾何拘束処理で特徴点位置候補座標をその配置関係に基づいて補正する。第2重心探索処理(ステップS103)では、CPU608は、幾何拘束補正処理によって得られた補正後特徴点位置座標を利用して特徴位置信頼度マップ11を再探索する。即ち、第2重心探索処理(ステップS103)では、幾何拘束補正処理(ステップS102)において位置補正した各特徴点の位置に基づいて新たに探索範囲が設定され、当該探索範囲で各特徴点の位置が探索される(第2探索処理)。新たに設定される探索範囲は、例えば幾何拘束補正処理(ステップS102)において補正された特徴点の位置を中心とした所定サイズの探索範囲である。この新たな探索範囲は、第1重心探索処理(ステップS101)で用いられた探索範囲よりも小さくすることが好ましい。
図10において、101は1つの特徴位置信頼度マップの例であり、102、103は信頼度の高い位置の分布の状態を模式的に示している。103は所望の特徴点付近の信頼度の分布、102は誤った点付近の信頼度の分布であるとする。104は第1重心探索処理(ステップS101)で使用した探索範囲(探索範囲83に相当する)であり、105は第2重心探索処理(ステップS103)で使用される重心算出領域(探索範囲)である。第1重心探索処理(ステップS101)では探索範囲104は前述した様に十分に広い範囲が設定される。しかしながら、第2重心探索処理(ステップS103)では、補正後特徴点位置座標を中心とした狭い探索範囲105で重心を算出する。即ち、第2重心探索処理(ステップS103)では、幾何拘束補正処理による幾何拘束条件に基づいた特徴点位置の補正により候補点の信頼性が高まったとの前提に基づき探索範囲を狭い範囲に限定している。
図10の場合、探索範囲104の範囲内の重心を算出すると誤検出の信頼度分布102の影響を受ける。これに対して、狭い探索範囲105内の重心を算出した場合、誤検出による信頼度分布102の影響を除いて、正解となる特徴点の位置をより正確に求める事ができる。更に、図12は特徴位置信頼度マップ11の別の例を示す図である。ここでは123が所望の特徴点の付近の信頼度の分布、122は誤った位置付近の信頼度の分布であるであるとする。この場合、誤った位置付近での信頼度の方が高いため、第1重心探索処理(ステップS101)が広い探索範囲124で重心を探索した場合、所望の点に対する誤差が大きくなる。然しながら、幾何拘束補正処理(ステップS102)で補正された座標を使用して狭い探索範囲125で重心を探索する事で、誤検出による信頼度の分布122の影響を軽減してより正確な特徴点位置を決定する事が可能になる。
ステップS107は特徴点位置座標を選択する選択処理のステップである。選択処理(ステップS107)において、CPU608は、選択条件に応じて、補正後特徴点位置座標と第2重心探索処理(ステップS103)の結果の座標のいずれかを選択する。本実施形態において、CPU608は、特徴位置信頼度マップ11上の探索範囲105や探索範囲125内の特徴点位置信頼度値の総和を正規化した値を閾値と比較することで選択を行う。以下、探索範囲内の特徴点位置信頼度値の総和を探索位置信頼度と定義する。即ち、探索位置信頼度は、再探索後の特徴点の位置の信頼度を表す。CPU608は、第2重心探索処理(ステップS103)で重心算出の際に算出した総和値を重心算出領域(探索範囲105)の面積で除する事により探索位置信頼度を算出する。
選択処理(ステップS107)において、探索位置信頼度が閾値より低い場合、CPU608は、特徴位置信頼度算出処理10における特徴点位置の検出信頼度が低いと判断し、幾何拘束補正処理(ステップS102)の結果を最終結果座標として出力する。即ち、幾何学的な配置関係に基づいて補正された特徴点位置をより信用する。これは、例えば、オクルージョンやセルフシャドーの影響により特徴点の位置抽出が正しく行われなかった場合に相当する。一方、探索位置信頼度が閾値より高い場合、選択処理(ステップS107)において、CPU608は、特徴点位置の検出信頼度が高いと判断して第2重心探索処理(ステップS103)の結果を最終結果座標として出力する。なお、ここでは簡単のため特徴点位置信頼度値の総和を用いて探索位置信頼度を算出したが、再探索後の特徴点の位置の信頼度を表現する値であれば他のどの様な手法でも良い。
閾値判定処理(ステップS104)において、CPU608は、閾値決定処理(ステップS106)で決定された閾値に従って探索位置信頼度を閾値処理する。また閾値決定処理(ステップS106)において、CPU608は、距離算出処理(ステップS105)の結果に従って閾値を決定する。距離算出処理(ステップS105)において、CPU608は、第1重心探索処理(ステップS101)により求めた特徴点の座標と幾何拘束補正処理(ステップS102)で補正した特徴点の座標との距離を算出する。例えば、幾何拘束補正処理(ステップS102)による補正の前後における各特徴点の距離が算出される。
図11は幾何拘束補正処理(ステップS102)による位置補正前後における特徴点の位置の例を説明する図である。補正の対象となった特徴点は向かって左の目尻であるとする。特徴点111の位置は第1重心探索処理(ステップS101)で求めた特徴点の座標であり、眉毛の左端を誤って検出している。特徴点112の位置は、特徴点111の位置が幾何拘束補正処理(ステップS102)によって補正された位置であり、正解である目尻により近い位置に補正されている。距離算出処理(ステップS105)はこれらの2つの特徴点に関して座標間の距離Lを算出する。距離Lの値としてはユークリッド距離でもマンハッタン距離でもどちらでも良い(図11ではユークリッド距離の場合を示す)。
閾値決定処理(ステップS106)は、距離算出処理(ステップS105)の結果に従って閾値判定処理(ステップS104)における判定に使用される閾値を決定する。例えば、閾値決定処理(ステップS106)においてCPU608は、予め用意された大小2つの閾値の何れかを上記座標間の距離Lに応じて選択する。例えば、距離Lが予め定める値より大きい場合には大きな閾値が選択され、小さい場合には小さな閾値が選択される((3)式)。
L>距離閾値 : 探索位置信頼度閾値大
L≦ 距離閾値: 探索位置信頼度閾値小 …(3)
閾値判定処理(ステップS104)では、閾値決定処理(ステップS106)で選択した信頼度閾値を用いて閾値判定する。座標間距離Lが大きい特徴点は幾何拘束補正処理(ステップS102)で大幅に補正された点であり、特徴位置信頼度算出処理10の結果の信頼度が低い可能性が高い。この場合、閾値判定処理ステップS104の閾値を大きくする事で補正後特徴点位置座標が選択されやすくする。一方、座標間距離Lが小さい場合は、特徴位置信頼度算出処理10の結果の信頼度が高いと認められるので、閾値判定処理ステップS104の閾値を小さくする事で第2重心探索処理(ステップS103)の結果が選択されやすくする。
以上のように、幾何拘束補正処理(ステップS102)の補正量に応じて特徴位置信頼度算出処理10の結果の信憑性が判断され、それに応じて探索位置信頼度閾値が制御される。このため、より好適な特徴点位置の検出結果を選択する事が可能になる。
なお、13で示すステップ群は特徴点毎に繰り返すステップであり、ステップS103〜ステップS107は全ての特徴点に対して繰り返される。
以上の処理により各特徴点の位置が決定される。CPU608は決定した各特徴点の位置をRAM610等に格納する。本実施形態を人(或いは生物)の顔画像認識装置に適用した場合、CPU608は格納した特徴点の位置を利用して、顔画像データを正確に再正規化し、格納した特徴点の位置を利用して識別に必要な特徴量の抽出を実行する。例えば、CPU608は、特徴点位置を基準にした複数の領域、部位から特徴量を算出し、局所特徴毎に登録データとの比較を行う等の処理を実行する。
以上、第1実施形態によれば、幾何拘束補正後の特徴点位置を利用して最終的な特徴点の位置が再探索される。これにより、固有空間による幾何拘束能力を利用した上で、特徴位置信頼度算出処理10の性能を十分に活かした精度の高い位置決定を実現する事ができる。また、探索位置信頼度に基づいて幾何拘束補正処理(ステップS102)の結果と第2重心探索処理(ステップS103)の結果のいずれかを選択する事でコントラストやオクルージョン等の影響を抑えた位置決定を実現する事ができる。更に、幾何拘束補正処理(ステップS102)の補正量を基準にして特徴位置信頼度算出処理10の信頼性を加味した判断を行う事で大きな誤検出の可能性を低減する事ができる。
[第2実施形態]
次に、第2実施形態による特徴点位置決定装置について説明する。図13は第2実施形態による特徴点位置決定処理の主要な処理フローを説明する図である。図13において、ステップS1301〜S1307はCPU608で処理するステップを示す。
なお、第2実施形態による特徴点位置決定装置の構成は第1実施形態(図6)と同様である。以下では、第1実施形態と相違する点を主として説明する。
図13の特徴位置信頼度算出処理130及び特徴位置信頼度マップ131は第1実施形態の特徴位置信頼度算出処理10及び特徴位置信頼度マップ11と同様である。また、図13の第1重心探索処理(ステップS1301)及び幾何拘束補正処理(ステップS1302)は、第1実施形態の第1重心探索処理(ステップS101)及び幾何拘束補正処理(ステップS102)と同様である。即ち、第1重心探索処理(ステップS1301)と幾何拘束補正処理(ステップS1302)はそれぞれ特徴点位置候補座標と補正後特徴点位置座標を算出する。132は第1実施形態同様に特徴点毎に繰り返される処理(ステップ群)を示す。
特徴点位置探索処理(ステップS1303)では、CPU608は、補正後特徴点位置座標を用いて正規化顔画像から新たに各特徴点位置を抽出する。ここでは、特徴位置信頼度算出処理130とは異なる特徴位置抽出方式が使用される。また、特徴点位置探索処理(ステップS1303)における特徴位置の探索範囲は、第1重心探索処理(ステップS1301)の探索範囲とは異なる。
図10に示す例を用いて説明すると、第1重心探索処理(ステップS1301)は探索範囲104で示す広い領域を探索し、特徴点位置探索処理(ステップS1303)は狭い探索範囲105内から特徴点を抽出する。特徴点位置探索処理(ステップS1303)では、探索範囲を十分に狭い範囲とするため、処理負荷の増大を抑えてより高度な特徴位置抽出方式を適用する事が可能である。具体的な処理内容としては、第1実施形態同様、従来提案されている様々なパターン識別手法を利用することができる。システムとして要求される処理負荷を考慮して、特徴点位置探索処理(ステップS1303)には、特徴位置信頼度算出処理130に適用する方式に対してより性能の高い方式が選択される。例えば単純なテンプレートマッチングではなく、複雑なニューラルネットによる高精度な抽出手法が適用される。
以上のように、特徴点位置探索処理(ステップS1303)において、CPU608は、補正後特徴点位置座標を基準にして正規化顔画像内の所定の狭領域内から所望の特徴点を検出しその座標値を出力する。また、同時に、探索位置信頼度を閾値判定処理(ステップS1304)に対して出力する。ここでの探索位置信頼度も一般的なパターン識別手法の識別出力に相当する値を利用すれば良い。
閾値判定処理(ステップS1304)において、CPU608は、閾値決定処理(ステップS1306)で決定された閾値に従って閾値判定を行い、判定結果を選択処理(ステップS1307)に提供する。また、閾値決定処理(ステップS1306)において、CPU608は、距離算出処理(ステップS1305)の結果に従って閾値を決定する。ステップS1304〜ステップS1307の内容は第1実施形態のステップS104〜ステップS107と同様である。また、第1実施形態と同様、133は特徴点毎に繰り返す処理ステップ群を示す。
以上の処理により各特徴点の位置が決定される。CPU608は決定した各特徴点の位置をRAM610等に格納する。第2実施形態を人(或いは生物)の顔画像認識装置に適用した場合、CPU608は格納した特徴点の位置を利用して、顔画像データを正確に再正規化し、格納した特徴点の位置を利用して識別に必要な特徴点の抽出を実行する。例えば、特徴点位置を基準にした複数の領域、部位から特徴量を算出し、局所特徴毎に登録データとの比較を行う等の処理を実行する。
以上、第2実施形態によれば、幾何拘束補正後の特徴点位置を利用して、正規化された画像(顔画像)から特徴点の位置を狭い探索範囲で再探索する。このため、固有空間による幾何拘束能力を利用した上で、特徴点位置探索処理(ステップS1303)の性能を活かした精度の高い位置決定を実現する事ができる。また、探索位置信頼度に基づいて幾何拘束補正処理(ステップS1302)の結果と特徴点位置探索処理(ステップS1303)による再探索結果のいずれかを選択する事で、コントラストやオクルージョン等の影響を抑えた位置決定を実現する事ができる。また、幾何拘束補正処理(ステップS1302)の補正量を基準にして特徴点位置探索処理(ステップS1303)の信頼性を判断するので大きな誤検出の可能性を低減する事ができる。
[第3実施形態]
次に、第3実施形態による特徴点位置決定装置について説明する。図14は第3実施形態による特徴点位置決定処理の主要な処理フローを説明する図である。図14において、ステップS1401〜S1407はCPU608で処理するステップを示す。
なお、第3実施形態による特徴点位置決定装置の構成は第1実施形態(図6)と同様である。以下では、第1実施形態と相違する点を主として説明する。
図14の特徴位置信頼度算出処理140及び特徴位置信頼度マップ141は第1実施形態の特徴位置信頼度算出処理10及び特徴位置信頼度マップ11と同様である。また、図14の第1重心探索処理(ステップS1401)及び幾何拘束補正処理(ステップS1402)は第1実施形態の第1重心探索処理(ステップS101)及び幾何拘束補正処理(ステップS102)と同様である。第1重心探索処理(ステップS1401)と幾何拘束補正処理(ステップS1402)はそれぞれ特徴点位置候補座標と補正後特徴点位置座標を算出する。142は第1実施形態同様に特徴点毎に繰り返される処理である。
第2重心探索処理(ステップS1403)では、補正後特徴点位置座標と領域決定処理(ステップS1406)で決定した探索範囲とから、対応する特徴位置信頼度マップを探索して特徴位置を出力する。なお、本実施形態では、領域決定処理(ステップS1406)による探索範囲の決定を第2重心探索処理(ステップS1403)に適用したが、第2実施形態おける特徴点位置探索処理(ステップS1303)に適用してもよい。
閾値判定処理(ステップS1404)において、CPU608は、予め定められた閾値に従って第2重心探索処理(ステップS1403)における探索位置信頼度を閾値処理する。領域決定処理(ステップS1406)において、CPU608は、距離算出処理(ステップS1405)の結果に従って、第2重心探索処理(ステップS1403)における探索範囲(重心算出領域)を決定する。距離算出処理(ステップS1405)において、CPU608は、第1重心探索処理(ステップS1401)により求めた特徴点位置候補座標と幾何拘束補正処理(ステップS1402)で得られた補正後特徴点位置座標との距離を算出する。距離算出処理(ステップS1405)の処理内容は第1実施形態(ステップS105)と同様である。領域決定処理(ステップS1406)の一例としては、距離を判定する距離閾値と2種類の探索範囲が用意され、距離が閾値を超える場合には広い探索範囲を選択し、閾値以下の場合には狭い探索範囲を選択することが挙げられる。即ち、CPU608は、幾何拘束補正の補正量に応じて特徴位置信頼度算出処理140の結果の信憑性を判断し、信憑性が高い場合は第2重心探索処理(ステップS1403)においてより狭い探索範囲を探索する。これにより、正確に特徴点の位置を確定することができる。
図18は探索範囲の例を説明する図であり、ある信頼度マップ181における狭い探索範囲183と広い探索範囲182の2種類を示す。領域決定処理(S1406)では、これら2種類の探索範囲の何れか一方が、距離算出処理(ステップS1405)によって算出された距離に基づいて選択され、第2重心探索処理(ステップS1403)に提供される。2種類の探索範囲は、特徴点の種類毎に用意されており、領域決定処理(ステップS1406)では、特徴点の種類毎に対応する探索範囲が選択されることになる。なお、上記例では探索範囲は2段階としたが、3段階以上として構成することも可能であることはいうまでもない。
閾値判定処理(ステップS1404)における探索位置信頼度と閾値との比較結果を選択処理(ステップS1407)に提供する。選択処理(ステップS1407)は、この比較結果に応じて、即ち、探索位置信頼度に応じて第2重心探索処理(ステップS1403)の結果と幾何拘束補正処理(ステップS1402)の結果のいずれか一方を選択することになる。なお、閾値判定処理ステップ(ステップS1404)は閾値が固定である点を除いては第1実施形態の閾値判定処理(ステップS104)と同様である。
143で示すステップ群は特徴点毎に繰り返すステップであり、ステップS1403〜ステップS1407の処理は全ての特徴点に対して繰り返される。以上の処理により各特徴点の位置が決定される。
CPU608は決定した各特徴点の位置をRAM610等に格納する。第3実施形態を人(或いは生物)の顔画像認識装置に適用した場合、CPU608は格納した特徴点の位置を利用して、顔画像データを正確に再正規化し、格納した特徴点の位置を利用して識別に必要な特徴点の抽出を実行する。例えば、特徴点位置を基準にした複数の領域、部位から特徴量を算出し、局所特徴毎に登録データとの比較を行う等の処理を実行する。
以上、第3実施形態によれば、幾何拘束補正後の特徴点位置を利用して最終的な特徴点の位置が再探索される。このため、固有空間による幾何拘束能力を利用した上で、特徴位置信頼度算出処理140の性能を十分に活かした精度の高い位置決定を実現する事ができる。また、探索位置信頼度に基づいて幾何拘束補正処理(ステップS1402)の結果と再探索結果のいずれかを選択する事でコントラストやオクルージョン等の影響を抑えた位置決定を実現する事ができる。また、幾何拘束補正処理(ステップS1402)の補正量を基準にして、第2重心探索処理(ステップS1403)の領域を変えて判断を行う事で精度の高い位置決定を実現できる。
[第4実施形態]
次に、第4実施形態による特徴点位置決定装置について説明する。図15は第4実施形態による特徴点位置決定処理の主要な処理フローを説明する図である。図15において、ステップS1501〜S1507はCPU608で処理するステップを示す。
なお、第4実施形態による特徴点位置決定装置の構成は第1実施形態(図6)と同様である。以下では、第1実施形態と相違する点を主として説明する。
正規化顔画像の転送が終了すると、特徴位置信頼度算出処理部611は当該RAMに格納した画像データに対して、特徴点位置候補の存在の確からしさである信頼度の算出を開始する(図15における特徴位置信頼度算出処理150に相当)。ここで生成する信頼度画像が特徴位置信頼度マップ151である。生成された特徴位置信頼度マップ151はDMAC606を介してRAM610に転送される。CPU608は当該転送が終了すると特徴点決定のためのプログラム(ステップS1501〜ステップS1507)の実行を開始する。152及び153で囲んだステップ群は特徴点毎に繰り返すステップを示している。
第1重心探索処理(ステップS1501)では特徴点毎に対応する特徴位置信頼度マップ151に規定されている探索範囲83内の特徴点位置信頼度値の重心を算出する。第4実施形態では位置を決定する特徴点の種別に応じて異なる大きさの領域を探索する。図16は第1重心探索処理(ステップS1501)と第2重心探索処理(ステップS1503)が特徴位置信頼度マップを探索する際の領域の例を説明する図である。ここでは説明のため2つの特徴位置信頼度マップの探索領域が1つにまとめて示されている。第1重心探索処理(ステップS1501)では検出する特徴点に応じて探索範囲162や探索範囲164に示す領域が探索される。探索範囲164は、顔画像中の口の上部のエッジを特徴点とする場合の探索範囲であり、探索範囲162は向かって左の目頭を探索する場合の探索範囲の例を示している。口の上部エッジは表情などにより特徴点の位置変動が大きいため、目尻を特徴点とする場合に比べてより広い範囲を探索する。第4実施形態において、各探索範囲は図19に示す様な特徴点(特徴識別子)に対応するテーブルを参照して決定される。第1重心探索処理(ステップS1501)に対応するデータは図19における探索領域1で示すデータである。Ar_1_n(n:0〜13)は、実際には領域の幅と高さを示す情報を含む。なお、当該テーブルはROM609に格納されているものとする。
ここで得られた重心値を特徴点位置候補座標とする。幾何拘束補正処理(ステップS1502)では、第1重心探索処理(ステップS1501)で得られた特徴点候補位置を特徴点の幾何学的な配置に関する拘束条件に従って補正する。第4実施形態でも第1実施形態と同様に幾何拘束補正処理(ステップS1502)では固有空間を利用した幾何拘束処理で特徴点位置候補座標をその統計的な配置関係に基づいて補正する。
第2重心探索処理(ステップS1503)では補正後の特徴点位置座標を利用して特徴位置信頼度マップ151を再探索する。第2重心探索処理(ステップS1503)においても、特徴点の位置に応じて異なる大きさの探索範囲を探索する。図16において、探索範囲163及び探索範囲165は第2重心探索処理(ステップS1503)の探索範囲を示す。ここでも図19に示すテーブルを参照して領域サイズ情報Ar_2_n(n:0〜13)を参照して処理を行う。そのため、特徴識別子が第2重心探索処理(ステップS1503)に提供される(*7どこから取得?)。第2重心探索処理(ステップS1503)の探索範囲は第1重心探索処理(ステップS1501)の探索範囲より狭い範囲であり、更に、特徴点の特徴(動きが多い特徴である等)に応じて異なる範囲を探索する。
選択処理(ステップS1507)において、CPU608は、特徴点位置座標として使用すべき検出結果を選択する。CPU608は、閾値判定処理(ステップS1504)における閾値判定結果に基づいて、2つの座標(幾何拘束補正処理(ステップS1502)の結果と第2重心探索処理(ステップS1503)の結果)のいずれかを選択する。閾値判定処理(ステップS1504)では、第2重心探索処理(ステップS1503)からの探索位置信頼度を閾値と比較する事で閾値判定結果を生成する。
閾値判定処理(ステップS1504)は閾値決定処理(ステップS1506)で決定する閾値に従って閾値処理する。閾値決定処理(ステップS1506)は距離算出処理(ステップS1505)の結果に従って閾値を決定が、第4実施形態の閾値決定処理(ステップS1506)では、特徴点毎に閾値を変えている。図19に示されるテーブルにおける信頼度閾値1(Th_C_1_n:0〜13)、信頼度閾値2(Th_C_2_n:0〜13)は特徴点毎の閾値である。閾値決定処理(ステップS1506)では、当該テーブルを参照して閾値を決定する。例えば、特徴識別子がnの特徴点に対しては、距離算出処理(ステップS1505)によって算出された距離に従って、Th_C_1_n又はTh_C_2_nが選択される。閾値判定処理(ステップS1504)は閾値決定処理(ステップS1506)で選択した閾値に従って閾値処理する。
特徴位置信頼度算出処理150の生成する特徴位置信頼度マップ151は、特徴によってその値の分布状況が異なる場合がある。第4実施形態では、正解となる複数の学習データセットを用いて、予め特徴点毎に最適な信頼度閾値1、信頼度閾値2を決定し、図19に示すようにテーブルとして保持しておく。第4実施形態によれば、特徴毎に最適な信頼度閾値が選択されるため、選択処理(ステップS1507)では抽出する特徴点の性質に応じた好適な選択を実現できる。
距離算出処理(ステップS1505)は、第1実施形態と同様に、第1重心探索処理(ステップS1501)により求めた特徴点の座標と幾何拘束補正処理(ステップS1502)で補正した特徴点の座標との距離を算出する。閾値決定処理(ステップS1506)は距離算出処理(ステップS1505)の結果に従って閾値判定処理(ステップS1504)で判定に使用する閾値を決定する。第4実施形態において閾値決定処理(ステップS1506)は特徴毎に異なる距離閾値で距離を判定する。図19の距離閾値Th_D_n(n:0〜13)は距離閾値であり、距離判定処理ステップS1506は当該テーブルを参照して距離を判定する閾値を決定する。ここでは、目頭等の変動の少ない特徴点に対しては小さい距離閾値を設定し、口のエッジ特徴点等のように変動の大きい特徴点では大きい距離閾値を設定する。従って、変動の大きい特徴点に関しては、閾値決定処理(ステップS1506)で低い信頼度閾値が選択されやすくなる。これにより、選択処理(ステップS1507)では、第2重心探索処理(ステップS1503)の結果を選択する可能性が高まる。つまり、変動の大きい特徴点に対しては、幾何拘束補正による補正量が大きい場合であっても、再探索後の結果を信用するように傾向付けることができる。
153で示すステップ群は特徴点毎に繰り返されるステップであり、ステップS1503〜ステップS1507は全ての特徴点に対して繰り返される。
以上の処理により各特徴点の位置が決定される。CPU608は決定した各特徴点の位置をRAM610等に格納する。第4実施形態を人(或いは生物)の顔画像認識装置に適用した場合、CPU608は格納した特徴点の位置を利用して、顔画像データを正確に再正規化し、格納した特徴点の位置を利用して識別に必要な特徴点の抽出を実行する。例えば、特徴点位置を基準にした複数の領域、部位から特徴量を算出し、局所特徴毎に登録データとの比較を行う等の処理を実行する。
以上、第4実施形態によれば、第1実施形態に記載の効果に加えて、特徴点毎に領域や各種閾値を変更する事で、特徴点の性質(変動の大きい小さいなど)に応じたより精度の高い特徴点位置検出が可能になる。
[第5実施形態]
次に、第5実施形態による特徴点位置決定装置について説明する。図17は第5実施形態による特徴点位置決定処理の主要な処理フローを説明する図である。図17においてステップS1701〜S1705はCPU608で処理するステップを示す。
なお、第5実施形態による特徴点位置決定装置の構成は第1実施形態(図6)と同様である。以下では、第1実施形態と相違する点を主として説明する。
正規化顔画像の転送が終了すると、特徴位置信頼度算出処理部611は当該RAMに格納した画像データに対して、特徴点位置候補の存在の確からしさである信頼度の算出を開始する(図17における特徴位置信頼度算出処理170に相当)。ここで生成される信頼度画像が特徴位置信頼度マップ171である。生成された特徴位置信頼度マップ171はDMAC606を介してRAM610に転送される。CPU608は当該転送が終了すると特徴点決定のためのプログラム(ステップS1701〜ステップS1705)の実行を開始する。172及び173で囲んだステップは特徴点毎に繰り返すステップ群を示している。
第1重心探索処理(ステップS1701)において、CPU608は、特徴点毎に対応する特徴位置信頼度マップ171の探索範囲83において、特徴点位置信頼度値の重心を算出する。ここで得られた重心値を特徴点位置候補座標とする。幾何拘束補正処理(ステップS1702)において、CPU608は、第1重心探索処理(ステップS1701)で得られた特徴点候補位置を特徴点の幾何学的な配置に関する拘束条件に従って補正する。第5実施形態でも、第1実施形態と同様に、幾何拘束補正処理(ステップS1702)では固有空間を利用した幾何拘束処理で特徴点位置候補座標がその配置関係に基づいて補正される。
第2重心探索処理(ステップS1703)において、CPU608は、幾何拘束補正処理(ステップS1702)による補正後の特徴点位置座標を利用して特徴位置信頼度マップ171を再探索する。
選択処理(ステップS1705)において、CPU608は、所定の条件で補正後特徴点位置座標と第2重心探索処理(ステップS1703)の結果のいずれかを選択する。第5実施形態における選択処理(ステップS1705)では、距離判定処理(ステップS1704)の判定結果に従って選択がおこなわれる。
距離判定処理(ステップS1704)は、第1重心探索処理(ステップS1701)により求めた特徴点の座標と幾何拘束補正処理(ステップS1702)で補正した特徴点の座標との距離を算出する。距離の算出処理は第1実施形態で説明したとおりである。距離判定処理(ステップS1704)では、例えば算出された距離と閾値を比較することにより、幾何拘束補正処理(ステップS1702)の前後の座標のずれが大きいかどうかを判断する。距離判定処理(ステップS1704)は、ずれが大きいと判断した場合、補正後特徴点位置座標を選択するよう選択処理(ステップS1705)に指示する。一方、幾何拘束補正処理(ステップS1702)の前後の座標のずれが小さい場合は、第2重心探索処理(ステップS1703)の結果を選択するよう選択処理(ステップS1705)を指示する。
以上の処理により各特徴点の位置を決定する。CPU608は決定した各特徴点の位置をRAM610等に格納する。第5実施形態を人(或いは生物)の顔画像認識装置に適用した場合、CPU608は格納した特徴点の位置を利用して、顔画像データを正確に再正規化し、格納した特徴点の位置を利用して識別に必要な特徴点の抽出を実行する。例えば、特徴点位置を基準にした複数の領域、部位から特徴量を算出し、局所特徴毎に登録データとの比較を行う等の処理を実行する。
以上、第5実施形態では、幾何拘束補正処理前後の座標のずれ量に基づいて特徴位置信頼度算出処理170の信頼性を判定し、信頼性が高い場合に当該処理部の結果を利用した再探索結果を利用する。これにより、簡単な処理で精度の高く特徴点の位置を決定する事ができる。
[その他の実施形態]
上記各実施形態ではCPUを利用した装置について説明したが、全ての処理をハードウェアにより構成しても良い。或いは、画像バス604に接続された構成をCPU608とソフトウェアにより構成しても良い。
また、上記実施形態では顔器官を特徴点としてその位置を判定する場合について説明したが、本発明はこれに限るわけでではなく、その配置関係に何らかの幾何学的な拘束条件を有する様々な物体内の特徴的な位置を確定する手法に適用可能である。また、顔の器官に適用する場合であっても、顔全体の器官の位置決定に適用するだけでなく、部分的な器官、例えば口の周辺の複数の特徴点の位置を決定する様な場合に適用しても良い。
また、上記各実施形態では画像中の特徴点の位置を決定する場合について説明したが、1次元或いは2次元を超える多次元のデータに対する処理に適用する事も可能である。
また、上記各実施形態では、低処理負荷な手法として、探索位置信頼度を所定の閾値と比較し、更に幾何拘束補正処理前後の距離のずれに基づいて当該閾値を変更する等の手法について説明したが、この様な手法に限るわけではない。例えば、探索位置信頼度と補正前後の距離のずれを学習によって生成した評価関数に投入して補正後特徴点位置座標と再探索後の特徴点位置を選択する等の手法でも良い。
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
尚、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
コンピュータプログラムを供給するためのコンピュータ読み取り可能な記憶媒体としては以下が挙げられる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などである。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記録媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであってもよい。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布するという形態をとることもできる。この場合、所定の条件をクリアしたユーザに、インターネットを介してホームページから暗号を解く鍵情報をダウンロードさせ、その鍵情報を使用して暗号化されたプログラムを実行し、プログラムをコンピュータにインストールさせるようにもできる。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施形態の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部または全部を行ない、その処理によって前述した実施形態の機能が実現される。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれて前述の実施形態の機能の一部或いは全てが実現されてもよい。この場合、機能拡張ボードや機能拡張ユニットにプログラムが書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行なう。
第1実施形態における特徴点位置決定処理のフローを示す図である。 一般的な特徴点位置決定処理のフローを示す図である。 特徴点の例を示す図である。 誤判定を含む特徴点の例を示す図である。 誤判定を補正した特徴点を含む特徴点の例を示す図である。 第1〜第5実施形態における特徴点位置決定処理装置の構成例を示すブロック図である。 正規化された顔画像データの例を示す図である。 特徴点の探索と特徴位置信頼度マップの例を説明する図である。 特徴点座標と固有空間射影時の入力ベクトルの関係を説明する図である。 特徴位置信頼度マップの分布の例を説明する図である。 特徴点の補正前後の位置の例を説明する図である。 特徴位置信頼度マップの分布の例を説明する図である。 第2実施形態における特徴点位置決定処理のフローを示す図である。 第3実施形態における特徴点位置決定処理のフローを示す図である。 第4実施形態における特徴点位置決定処理のフローを示す図である。 探索範囲の例を説明する図である。 第5実施形態における特徴点位置決定処理のフローを示す図である。 第3実施形態における探索領域の例を説明する図である。 特徴点毎に探索領域、距離閾値、信頼度閾値を設定したテーブルのデータ構成例を示す図である。

Claims (17)

  1. 画像中の複数の特徴点の位置を予め設定された探索範囲で探索する第1探索工程と、
    前記第1探索工程で探索した前記複数の特徴点の幾何学的な配置関係に基づいて当該複数の特徴点の位置を補正する位置補正工程と、
    前記位置補正工程で補正した各特徴点の位置に基づいて探索範囲を設定し、当該探索範囲で各特徴点の位置を探索する第2探索工程と、
    前記第2探索工程で探索された各特徴点について位置の信頼性を判定することにより、前記位置補正工程で補正された位置と、前記第2探索工程で探索された位置との一方を決定すべき特徴点の位置として選択する選択工程とを備えることを特徴とする特徴点位置決定方法。
  2. 前記第2探索工程で設定された探索範囲内の信頼度値の分布に基づいて、当該探索範囲から探索された各特徴点の信頼度を算出する信頼度算出工程を更に備え、
    前記選択工程では、各特徴点について、前記信頼度算出工程で算出された信頼度に基づいて、前記位置補正工程で補正された位置と、前記第2探索工程で探索された位置との一方を選択することを特徴とする請求項1に記載の特徴点位置決定方法。
  3. 各特徴点について、前記位置補正工程による補正の前後の距離を算出する距離算出工程を更に備え、
    前記選択工程では、各特徴点について、前記距離算出工程で算出された距離に基づいて、前記位置補正工程で補正された位置と、前記第2探索工程で探索された位置との一方を選択することを特徴とする請求項1に記載の特徴点位置決定方法。
  4. 前記第2探索工程における探索範囲は、前記第1探索工程における探索範囲よりも小さいことを特徴とする請求項1乃至3のいずれか1項に記載の特徴点位置決定方法。
  5. 各特徴点について、前記位置補正工程による補正の前後の距離を算出する距離算出工程を更に備え、
    前記選択工程では、各特徴点について、前記距離算出工程で算出された距離と前記信頼度算出工程で算出された信頼度とに基づいて、前記位置補正工程で補正された位置と、前記第2探索工程で探索された位置との一方を選択することを特徴とする請求項2に記載の特徴点位置決定方法。
  6. 前記距離算出工程によって算出された距離に基づいて閾値を決定する決定工程を更に備え、
    前記選択工程では、前記信頼度算出工程で算出された信頼度と前記決定工程で決定された閾値との比較結果に従って選択を実行することを特徴とする請求項5に記載の特徴点位置決定方法。
  7. 前記画像に対して、各特徴点の存在の信頼度の分布を表す信頼度マップを生成する生成工程を更に備え、
    前記第1探索工程及び前記第2探索工程では、前記信頼度マップにおいて特徴点の位置を探索することを特徴とする請求項1乃至6のいずれか1項に記載の特徴点位置決定方法。
  8. 前記画像に対して、各特徴点の存在の信頼度の分布を表す信頼度マップを生成する生成工程を更に備え、
    前記第1探索工程では、前記信頼度マップにおいて特徴点の位置を探索し、
    前記第2探索工程では、前記画像を用いて特徴点の位置を探索することを特徴とする請求項1乃至6のいずれか1項に記載の特徴点位置決定方法。
  9. 前記距離算出工程で算出された距離に応じて、前記第2探索工程で用いられる探索範囲の大きさを変更する変更工程を更に備えることを特徴とする請求項3または5に記載の特徴点位置決定方法。
  10. 決定する特徴点の種類毎に、前記第2探索工程で用いられる探索範囲を変更する変更工程を更に備えることを特徴とする請求項1乃至9のいずれか1項に記載の特徴点位置決定方法。
  11. 前記決定工程では、決定する特徴点の種類毎に設定された条件で前記閾値を決定することを特徴とする請求項6に記載の特徴点位置決定方法。
  12. 前記位置補正工程では、各特徴点の座標値を要素とするベクトルを入力とし、予め生成した固有ベクトルを用いて前記入力ベクトルを固有空間に射影して射影ベクトルを生成し、前記射影ベクトルを前記固有ベクトルを用いて逆射影することによって補正された特徴点位置を取得することを特徴とする請求項1乃至11のいずれか1項に記載の特徴点位置決定方法。
  13. 前記固有ベクトルを主成分分析により生成することを特徴とする請求項12に記載の特徴点位置決定方法。
  14. 決定する特徴点が生物の顔の器官の位置或いは器官を構成する特徴的な部位の位置であることを特徴とする請求項1乃至13のいずれか1項に記載の特徴点位置決定方法。
  15. 画像中の複数の特徴点の位置を予め設定された探索範囲で探索する第1探索手段と、
    前記第1探索手段で探索した前記複数の特徴点の幾何学的な配置関係に基づいて当該複数の特徴点の位置を補正する位置補正手段と、
    前記位置補正手段で補正した各特徴点の位置に基づいて探索範囲を設定し、当該探索範囲で各特徴点の位置を探索する第2探索手段と、
    前記第2探索手段で探索された各特徴点について位置の信頼性を判定することにより、前記位置補正手段で補正された位置と、前記第2探索手段で探索された位置との一方を決定すべき特徴点の位置として選択する選択手段とを備えることを特徴とする特徴点位置決定装置。
  16. 請求項1乃至14のいずれか1項に記載の特徴点位置決定方法をコンピュータに実行させるためのプログラム。
  17. 請求項1乃至14のいずれか1項に記載の特徴点位置決定方法をコンピュータに実行させるためのプログラムを格納したコンピュータ読み取り可能な記憶媒体。
JP2008051117A 2008-02-29 2008-02-29 特徴点位置決定方法及び装置 Active JP5202037B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008051117A JP5202037B2 (ja) 2008-02-29 2008-02-29 特徴点位置決定方法及び装置
US12/393,508 US8280173B2 (en) 2008-02-29 2009-02-26 Feature point location determination method and apparatus
US13/333,388 US8971589B2 (en) 2008-02-29 2011-12-21 Feature point location determination method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008051117A JP5202037B2 (ja) 2008-02-29 2008-02-29 特徴点位置決定方法及び装置

Publications (2)

Publication Number Publication Date
JP2009211177A true JP2009211177A (ja) 2009-09-17
JP5202037B2 JP5202037B2 (ja) 2013-06-05

Family

ID=41013219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008051117A Active JP5202037B2 (ja) 2008-02-29 2008-02-29 特徴点位置決定方法及び装置

Country Status (2)

Country Link
US (2) US8280173B2 (ja)
JP (1) JP5202037B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086266A (ja) * 2009-10-19 2011-04-28 Canon Inc 特徴点位置決め装置、画像認識装置、その処理方法及びプログラム
JP2011138388A (ja) * 2009-12-28 2011-07-14 Canon Inc データ補正装置及び方法
WO2011148596A1 (ja) 2010-05-26 2011-12-01 日本電気株式会社 顔特徴点位置補正装置、顔特徴点位置補正方法および顔特徴点位置補正プログラム
JP2012243285A (ja) * 2011-05-24 2012-12-10 Canon Inc 特徴点位置決定装置、特徴点位置決定方法及びプログラム
JP2013196295A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 生体情報処理装置
JP2014038566A (ja) * 2012-08-20 2014-02-27 Kddi Corp 画像処理装置
JP2014075098A (ja) * 2012-10-05 2014-04-24 Secom Co Ltd 顔特徴抽出装置および顔認証システム
WO2020178881A1 (ja) * 2019-03-01 2020-09-10 日本電気株式会社 制御方法、学習装置、識別装置及びプログラム
US10885316B2 (en) 2017-07-31 2021-01-05 Canon Kabushiki Kaisha Apparatus for authenticating an object and method thereof
US10909353B2 (en) 2018-04-13 2021-02-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, non-transitory computer-readable storage medium
US11080557B2 (en) 2018-04-10 2021-08-03 Canon Kabushiki Kaisha Image authentication apparatus, method, and storage medium using registered image
JPWO2021210051A1 (ja) * 2020-04-13 2021-10-21

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120023134A1 (en) * 2009-03-27 2012-01-26 Nec Corporation Pattern matching device, pattern matching method, and pattern matching program
US8380711B2 (en) * 2011-03-10 2013-02-19 International Business Machines Corporation Hierarchical ranking of facial attributes
KR101822655B1 (ko) * 2011-06-21 2018-01-29 삼성전자주식회사 카메라를 이용한 물체 인식 방법 및 이를 위한 카메라 시스템
KR101381439B1 (ko) * 2011-09-15 2014-04-04 가부시끼가이샤 도시바 얼굴 인식 장치 및 얼굴 인식 방법
JP6071002B2 (ja) * 2012-02-16 2017-02-01 日本電気株式会社 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
TWI515605B (zh) * 2013-01-29 2016-01-01 緯創資通股份有限公司 手勢辨識與控制方法及其裝置
JP6261187B2 (ja) * 2013-05-21 2018-01-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US9208567B2 (en) 2013-06-04 2015-12-08 Apple Inc. Object landmark detection in images
CN104715227B (zh) 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
CN106295476B (zh) * 2015-05-29 2019-05-17 腾讯科技(深圳)有限公司 人脸关键点定位方法和装置
KR102001331B1 (ko) * 2015-08-25 2019-07-17 주식회사 히타치 정보통신 엔지니어링 화상 판독 장치 및 화상 판독 방법 및 매체에 저장된 화상 판독 컴퓨터 프로그램
EP3136289A1 (en) * 2015-08-28 2017-03-01 Thomson Licensing Method and device for classifying an object of an image and corresponding computer program product and computer-readable medium
CN106023182A (zh) * 2016-05-13 2016-10-12 广州视源电子科技股份有限公司 印制电路板图像匹配方法和系统
CN107179827A (zh) * 2017-04-01 2017-09-19 深圳怡化电脑股份有限公司 一种金融设备的智能交互方法及系统
WO2019100011A1 (en) 2017-11-17 2019-05-23 Divine Logic, Inc. Systems and methods for tracking items
CN107844781A (zh) * 2017-11-28 2018-03-27 腾讯科技(深圳)有限公司 人脸属性识别方法及装置、电子设备及存储介质
CN108108694B (zh) * 2017-12-21 2020-09-29 北京搜狐新媒体信息技术有限公司 一种人脸特征点定位方法及装置
CN108596093B (zh) 2018-04-24 2021-12-03 北京市商汤科技开发有限公司 人脸特征点的定位方法及装置
CN109063584B (zh) * 2018-07-11 2022-02-22 深圳大学 基于级联回归的面部特征点定位方法、装置、设备及介质
US12086925B2 (en) * 2021-06-17 2024-09-10 Faro Technologies, Inc. Targetless tracking of measurement device during capture of surrounding data
US11372529B1 (en) * 2021-08-03 2022-06-28 Adobe Inc. Digital image object anchor points

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH064714A (ja) * 1992-06-24 1994-01-14 Nec Corp パターン認識辞書生成装置およびパターン認識装置
JPH07103715A (ja) * 1993-10-01 1995-04-18 Nippondenso Co Ltd 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JPH10307923A (ja) * 1997-05-01 1998-11-17 Mitsubishi Electric Corp 顔部品抽出装置および顔の向き検出装置
JPH11185018A (ja) * 1997-12-24 1999-07-09 Olympus Optical Co Ltd 画像処理装置
JP2002063567A (ja) * 2000-08-23 2002-02-28 Nec Corp 物体位置姿勢推定装置及びその方法並びそれを用いた特徴点位置抽出方法及び画像照合方法
JP2007249280A (ja) * 2006-03-13 2007-09-27 Omron Corp 特徴点検出装置、特徴点検出方法および特徴点検出プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4196302B2 (ja) * 2006-06-19 2008-12-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5219184B2 (ja) * 2007-04-24 2013-06-26 任天堂株式会社 トレーニングプログラム、トレーニング装置、トレーニングシステムおよびトレーニング方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH064714A (ja) * 1992-06-24 1994-01-14 Nec Corp パターン認識辞書生成装置およびパターン認識装置
JPH07103715A (ja) * 1993-10-01 1995-04-18 Nippondenso Co Ltd 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JPH10307923A (ja) * 1997-05-01 1998-11-17 Mitsubishi Electric Corp 顔部品抽出装置および顔の向き検出装置
JPH11185018A (ja) * 1997-12-24 1999-07-09 Olympus Optical Co Ltd 画像処理装置
JP2002063567A (ja) * 2000-08-23 2002-02-28 Nec Corp 物体位置姿勢推定装置及びその方法並びそれを用いた特徴点位置抽出方法及び画像照合方法
JP2007249280A (ja) * 2006-03-13 2007-09-27 Omron Corp 特徴点検出装置、特徴点検出方法および特徴点検出プログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086266A (ja) * 2009-10-19 2011-04-28 Canon Inc 特徴点位置決め装置、画像認識装置、その処理方法及びプログラム
JP2011138388A (ja) * 2009-12-28 2011-07-14 Canon Inc データ補正装置及び方法
US8737697B2 (en) 2010-05-26 2014-05-27 Nec Corporation Facial feature point position correction device, facial feature point position correcting method, and facial feature point position correcting program
WO2011148596A1 (ja) 2010-05-26 2011-12-01 日本電気株式会社 顔特徴点位置補正装置、顔特徴点位置補正方法および顔特徴点位置補正プログラム
CN102906786A (zh) * 2010-05-26 2013-01-30 日本电气株式会社 脸部特征点位置校正设备、脸部特征点位置校正方法以及脸部特征点位置校正程序
KR101365789B1 (ko) 2010-05-26 2014-02-20 닛본 덴끼 가부시끼가이샤 얼굴 특징점 위치 보정 장치, 얼굴 특징점 위치 보정 방법, 및 얼굴 특징점 위치 보정 프로그램을 기록한 컴퓨터 판독가능 기록 매체
JP5772821B2 (ja) * 2010-05-26 2015-09-02 日本電気株式会社 顔特徴点位置補正装置、顔特徴点位置補正方法および顔特徴点位置補正プログラム
JP2012243285A (ja) * 2011-05-24 2012-12-10 Canon Inc 特徴点位置決定装置、特徴点位置決定方法及びプログラム
JP2013196295A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 生体情報処理装置
US9684850B2 (en) 2012-03-19 2017-06-20 Kabushiki Kaisha Toshiba Biological information processor
JP2014038566A (ja) * 2012-08-20 2014-02-27 Kddi Corp 画像処理装置
JP2014075098A (ja) * 2012-10-05 2014-04-24 Secom Co Ltd 顔特徴抽出装置および顔認証システム
US10885316B2 (en) 2017-07-31 2021-01-05 Canon Kabushiki Kaisha Apparatus for authenticating an object and method thereof
US11080557B2 (en) 2018-04-10 2021-08-03 Canon Kabushiki Kaisha Image authentication apparatus, method, and storage medium using registered image
US10909353B2 (en) 2018-04-13 2021-02-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, non-transitory computer-readable storage medium
WO2020178881A1 (ja) * 2019-03-01 2020-09-10 日本電気株式会社 制御方法、学習装置、識別装置及びプログラム
JPWO2020178881A1 (ja) * 2019-03-01 2021-11-04 日本電気株式会社 制御方法、学習装置、識別装置及びプログラム
JP7143931B2 (ja) 2019-03-01 2022-09-29 日本電気株式会社 制御方法、学習装置、識別装置及びプログラム
JPWO2021210051A1 (ja) * 2020-04-13 2021-10-21
JP7396468B2 (ja) 2020-04-13 2023-12-12 日本電気株式会社 学習装置、推論装置、制御方法及びプログラム

Also Published As

Publication number Publication date
US20120087590A1 (en) 2012-04-12
JP5202037B2 (ja) 2013-06-05
US8971589B2 (en) 2015-03-03
US20090220157A1 (en) 2009-09-03
US8280173B2 (en) 2012-10-02

Similar Documents

Publication Publication Date Title
JP5202037B2 (ja) 特徴点位置決定方法及び装置
US7995805B2 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
CN110287772B (zh) 平面手掌掌心区域提取方法及装置
Tang et al. Facial landmark detection by semi-supervised deep learning
US20140147023A1 (en) Face Recognition Method, Apparatus, and Computer-Readable Recording Medium for Executing the Method
JP2005346654A (ja) 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
KR20100098641A (ko) 불변적인 시각적 장면 및 객체 인식
US20160379088A1 (en) Apparatus and method for creating an image recognizing program having high positional recognition accuracy
JP5787686B2 (ja) 顔認識装置、及び顔認識方法
KR102434574B1 (ko) 이미지에 포함된 특징 포인트의 시간 또는 공간의 움직임에 기초하여 이미지에 존재하는 피사체를 인식하는 장치 및 방법
WO2020050413A1 (ja) 認証用顔画像候補判定装置、認証用顔画像候補判定方法、プログラム、および記録媒体
JP2018036770A (ja) 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム
WO2014183275A1 (zh) 一种基于在线学习的局部可形变目标检测方法及其系统
US11941498B2 (en) Facial motion detection and image correction method and apparatus
Pons-Moll et al. Efficient and robust shape matching for model based human motion capture
JP2018036901A (ja) 画像処理装置、画像処理方法および画像処理プログラム
Lin et al. Region-based context enhanced network for robust multiple face alignment
Xiang et al. Face recognition based on LBPH and regression of local binary features
US20210049777A1 (en) Feature extraction method, comparison system, and storage medium
Axyonov et al. Method of multi-modal video analysis of hand movements for automatic recognition of isolated signs of Russian sign language
JP7007551B2 (ja) 画像類否判断プログラム、画像類否判断装置および画像類否判断方法
JP5625196B2 (ja) 特徴点検出装置、特徴点検出方法、特徴点検出プログラム及び記録媒体
JP2007213582A (ja) デジタル画像データ内のオブジェクト・パーツの場所を特定する方法および装置
JP4537097B2 (ja) パターン検出方法及び装置
JP2003216935A (ja) 顔抽出装置及び方法及びそれを記憶した記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120618

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130212

R151 Written notification of patent or utility model registration

Ref document number: 5202037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3