JP5554984B2 - パターン認識方法およびパターン認識装置 - Google Patents

パターン認識方法およびパターン認識装置 Download PDF

Info

Publication number
JP5554984B2
JP5554984B2 JP2009293201A JP2009293201A JP5554984B2 JP 5554984 B2 JP5554984 B2 JP 5554984B2 JP 2009293201 A JP2009293201 A JP 2009293201A JP 2009293201 A JP2009293201 A JP 2009293201A JP 5554984 B2 JP5554984 B2 JP 5554984B2
Authority
JP
Japan
Prior art keywords
data
correlation
correlation value
dictionary
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009293201A
Other languages
English (en)
Other versions
JP2011134114A (ja
Inventor
崇士 鈴木
克彦 森
博 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009293201A priority Critical patent/JP5554984B2/ja
Priority to US12/970,712 priority patent/US9092662B2/en
Publication of JP2011134114A publication Critical patent/JP2011134114A/ja
Application granted granted Critical
Publication of JP5554984B2 publication Critical patent/JP5554984B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、顔や人物といった特定パターンを認識するためのパターン認識方法およびパターン認識装置に関するものである。
入力パターンから所定のパターンを検出、識別するパターン認識の技術がある。計算機の性能の向上とともにパターン認識技術も進展し、最近では、画像中の顔をリアルタイムで検出するシステムが出始めている。また画像中の顔領域を検出し、その顔領域の人物が誰であるのかを照合する顔認識技術が知られている。顔認識技術の精度は、斜光といった照明条件や、顔向き変動、表情の変動およびオクルージョンの影響により大きく左右される。更に、それぞれの変動は、おのおの独立して生じるわけではないため、これら変動に対するロバストな顔認識アルゴリズムの実現を困難なものとしている。
そこで、上記変動に対応する技術が提案されている。特許文献1は、入力画像に存在する変動要因を取り除く複数の逆変換器を構成に含めることで、変動ロバストな顔認識を行っている。この逆変換器は、顔向き、傾きおよび顔の位置ずれを除去する処理(変形の逆変換)を行っている。各逆変換器の後段には、各々識別器が存在し、各識別器は、逆変換器の出力と辞書データのマッチング処理を行って、識別結果を出力する。最終的に、複数ある識別結果のうち、出力最大な結果を抽出して、最終的な識別結果としている。また、変動を除去する処理の一例として、摂動法を挙げている。
また特許文献2は、入力画像と登録画像の画像1枚同士の対応する複数の局所領域間の類似度を求めて、これら類似度の上位数個から求められる統合類似度により認識する方法を提案している。上位類似度は、他の複数の類似度から動的に定められる閾値の閾値処理により求められる。よってこの閾値処理により、変動要因により不明瞭な領域間の類似度が取り除かれることになる。最終的に、この統合類似度を用いた識別結果を出力することで、変動に強い認識を達成している。
特開2000−90191号公報 特許第4161659号公報
しかしながら、特許文献1の逆変換処理は、個人差を示す特徴量を消してしまう恐れがあり、認識精度に影響を与える可能性がある。また、入力画像に対して、想定されるすべての変動要因を除去する逆変換処理を行うことは、処理コストが増加する。また、特許文献2にある局所領域の類似度は、入力画像と辞書画像が異なる人物であったとしても、表情や照明変動等の変動が似ている場合に局所領域単位の類似度が高くなる傾向がある。したがって、統合類似度が、変動が似ている局所領域の結果を統合することになり、認識精度の低下を招く可能性がある。
本発明は、上記の課題に鑑みてなされたものであり、照明や顔向きおよび表情等の変動の影響により生じる認識精度の低下を防止し、かつ処理コストの増加を抑えることを目的としている。
上記の目的を達成するための本発明の一態様によるパターン認識装置は以下の構成を備える。すなわち、
入力データのデータ属性を認識するパターン認識装置であって、
データ属性ごとに用意された複数の辞書データの各々について、前記入力データと辞書データとの間で対応する局所パターンの特徴量の相関値を算出して辞書データごとの相関値の集合を取得し、辞書データごとの相関値の集合をデータ属性ごとにまとめることによりデータ属性ごとの相関値の集合を取得する相関値算出手段と、
前記データ属性ごとの相関値の集合の各々において、対応する局所パターンの相関値ごとに統合して結合相関値の集合を取得し、取得された結合相関値を統合することにより、各データ属性に対する前記入力データの類似度を算出する類似度算出手段と、
前記類似度算出手段で算出された類似度に基づいて前記入力データの対応するデータ属性を識別する識別手段とを備える。
本発明によれば、照明や顔向きおよび表情等の変動の影響により生じる認識精度の低下を防止し、かつ処理コストの増加を抑えることができる。
パターン認識装置を示す図。 第1実施形態の基本処理フローチャート。 第1実施形態における顔検出枠を示す図。 第1実施形態における局所領域の設定方法を示す図。 第1実施形態における相関値算出方法を示すフロー図。 第1実施形態における辞書画像を示す図。 第1実施形態における統合方法を示すフロー図。 第1実施形態における統合方法の概要を示す図。 第1実施形態における相関値テーブルを示す図。 第2実施形態における統合方法を示す図。 第2実施形態における統合方法を示すフロー図。 第3実施形態における統合方法を示す図。 第3実施形態における統合方法を示すフロー図。 第3実施形態における変動パターンの例を示す図。
以下、添付の図面を参照して本発明の実施形態を説明する。なお、以下では画像情報ベースの個人認識を具体的な実施形態として説明する。すなわち、入力データとして画像データを扱い、データ属性として画像データ中の人物を表す固体識別情報が付加された辞書データを用いて、入力データ中の人物を識別する画像処理装置を説明する。但し、本発明は、入力データとして画像情報に限定されるものではなく、例えば、時系列の信号情報または周波数情報に対しても本発明を適用できることは当業者には明らかである。
(第1実施形態)
「パターン認識装置」
図1は、パターン認識装置の機能ブロック図である。以下、各ブロックの詳細について説明する。制御バス101は、各機能ブロックの入力または出力の制御を行う。領域設定部102は、外部から入力される入力画像を取得し、取得した入力画像に対して特徴量を抽出する局所領域を設定する。なお、局所領域の設定の仕方等の詳細は、後述する。また、画像を取得する方法としては、一般的な方法を用いることができる。たとえば、CCDのような撮像素子をパターン認識装置に組み込み、その撮像素子を介して画像を取得するといったものでよい。次に、相関値算出部103は、領域設定部102で設定された局所領域単位で、入力画像と予め取得されている辞書画像との間の相関値を算出する。相関値算出部103における相関値算出方法の詳細については、後述する。辞書画像記憶部104は、HDD等の外部ストレージで構成され、辞書データとして上述の辞書画像に属性データを付加して記憶する。統合類似度算出部105は、相関値算出部103で求めた局所領域単位の複数の相関値を統合して、統合類似度を算出する。統合類似度算出部105による統合類似度の算出方法については、後述する。オブジェクト属性識別部106は、統合類似度算出部105で求めた統合類似度を基に、領域設定部102に入力された画像に含まれている物体のオブジェクト属性を識別する。オブジェクト属性識別部106の具体的な識別方法については、後述する。なお、領域設定部102、相関値算出部103、統合類似度算出部105、オブジェクト属性識別部106は、例えば、専用の演算回路またはファームウエアで構成されるものとする。
「パターン認識方法」
図2のフローチャートを参照して、第1実施形態によるパターン認識方法を詳細に説明する。まず、領域設定部102は、相関値を算出する局所領域の位置を入力画像に対して決定する局所領域設定処理を行う(S201)。局所領域の位置の決定には、一般的な方法を用いることができる。例えば、本実施形態では、一般的な検出方法、具体的には顔検出方法を用いて入力画像から顔を検出し、その検出結果に基づいた切り出し正規化画像に対して、局所領域を設定する。すなわち、切り出し正規化画像の原点座標を基準点として、局所領域の設定を行う。
ここで、切り出し正規化画像の作成は、一般的な方法を用いることができる。例えば、本実施形態では、図3で示すように、顔検出で出力される顔検出位置302に基づいた切り出しと、顔検出枠303の縦幅および横幅を基にその横幅が任意の値になるような、画像の拡大または縮小を行う。なお、顔検出の公知例としては、M. Matsugu, K. Mori, et.al, “Convolutional Spiking Neural Network Modelfor Robust Face Detection”,2002,Internatinal Conference On Neural Information Processing(ICONIP02)を参考とされたい。また、顔検出枠303の縦幅および横幅の決定は、目特徴点の位置検出結果を利用して行えばよい。具体的には、顔検出枠303の横幅および縦幅を両目間距離の2倍というように決定することが挙げられる。なお、目特徴点等の器官位置検出の公知例としては、金田、森、御手洗、真継「顔検出ConvolutionalNeural Network を用いた自動表情認識システム」第2回情報科学技術フォーラム、119−121(2003)を参考とされたい。
図4は、切り出し正規化画像401に局所領域を設定する様子を示している。切り出し正規化画像401の顔領域は、顔検出で出力される顔サイズが正確であるなら、どの顔画像に対しても、概ね同じような位置に存在する。局所領域は、前述の切り出し正規化画像の画像原点402を基準として定められる。すなわち、第i局所領域403の位置は、画像原点402から、切り出し正規化画像401の水平方向と垂直方向の原点からの距離となる。以上が、図2の局所領域設定処理(S201)での処理内容である。
図2の説明に戻る。次に、相関値算出部103は、局所領域単位相関値算出処理(S202)において、S201で設定した第i局所領域と、辞書画像データベース200に記録されている辞書画像一枚の対応する第i局所領域との間の相関値を算出する。辞書画像データベース200は、辞書画像記憶部104に記憶されている辞書画像のデータベースである。ここで、相関値算出処理は、次式となる。
Figure 0005554984
ここで、(数1)式においてSki pは、登録者pのk枚目の辞書画像における第i局所領域と、入力画像の第i局所領域との局所パターンの相関値である。また、Iiは、入力画像の第i局所領域の画素の輝度値を並べたベクトルであり、Iki pは、登録者pのk枚目の辞書画像における第i局所領域の画素の輝度値を並べたベクトルである。ちなみに、(数1)式の相関値は、輝度値ベースで算出されるが、輝度値に限定されるものでない。つまり、所定フィルタ演算の出力結果に基づいて相関値を算出してかまわない。また、相関値は類似度を示すものであり、(数1)式以外の手法で求めてもよい。例えば、IiとIki pのユークリッド距離を用いることができる。局所領域単位相関値算出処理(S202)では、(数1)式で表される相関値算出が全登録画像に対して実行される。その処理の詳細を図5の処理フローチャートを用いて説明する。
相関値算出部103は、まず、辞書画像データベース200から登録者pに関するk枚目の辞書画像を選択する(S501)。ここで、辞書画像データベース200の詳細について説明する。辞書画像データベース200は、図6に示すように、別のタイミングで取得され、辞書画像記憶部104に記憶された複数の登録者の複数の画像を管理する。例えば、登録者pに関して、第kp辞書正規化画像601および第kp+1辞書正規化画像603が記録されている。もちろん、登録者pに関する辞書画像は、図6に示した2枚に限定されず、何枚でも構わない。なお、辞書正規化画像とは、図4の切り出し正規化画像のように、所定サイズに規格化されており、ある登録者の画像であることを指す。また、辞書正規化画像601と辞書正規化画像603は、まったく同じ画像ではなく、辞書正規化画像603には図に示してあるように陰影部がある等の差異が存在する。同じく、登録者p+1に関する第kp+1辞書正規化画像605が辞書画像データベースに記録されている。登録者p+1に関しても、辞書正規化画像が1枚に限定されるものでなく、複数枚存在しても構わない。ちなみに、辞書画像データベースは、画像を記憶するのでなく、辞書正規化画像単位である各局所領域の特徴量を記録しておくものでも構わない。その際、データベースは、登録者pの第kp辞書正規化画像の第i局所領域と、その輝度値に代表される特徴量との対応付けが必須である。辞書画像選択処理(S501)では、図6のような辞書画像データベース200から、対象となる辞書正規化画像を選択する処理を行う。
次に、候補局所領域選択処理(S502)において、相関値算出部103は、S501で選択した正規化辞書画像の第i局所領域を参照する処理を行う。局所領域の参照方法は、前述の局所領域設定処理(S201)の領域設定方法と同様であるので割愛する。次に、相関値算出処理(S503)において、相関値算出部103は、S502で参照した辞書画像の第i局所領域内の輝度値と、入力画像の対応する第i局所領域内の輝度値との相関値を算出する。相関値算出方法は、(数1)式を使って行う。算出した相関値は、相関値データベース500に順次記録される。
次に、S504において、相関値算出部103は、S501で選択された辞書画像に設定されている局所領域がすべて参照されたかどうかのチェックを行う。局所領域がすべて参照されていない場合は、再度S502に移行し、局所領域がすべて参照された場合はS505に移行する。S505において、相関値算出部103は、辞書画像データベース200に記録されている全画像に対して処理を完了したかの判断を行う。全画像の処理が完了した場合、図5に示す処理フローチャートの処理が終了する。終了していなければ処理はS501に戻り、次の辞書画像を選択して上述した処理を繰り返す。
図2の説明に戻る。統合類似度算出処理(S203)において、統合類似度算出部105は、統合類似度の算出処理を行う。統合類似度は、各登録者の複数ある局所領域単位の相関値をひとつに結合した値(統合相関値)である。統合類似度の算出方法を図7の概念図と図8の処理フローチャートを用いて説明する。
図7は、本実施形態による統合類似度算出処理の概念図である。データ属性が登録者Aである辞書画像701は、登録者Aに関する辞書画像で、図7では、2枚の辞書画像が存在すると仮定している。なお、図7は、登録者1名であるが、登録者A以外の人物がいても構わない。その場合、登録者A以外の登録画像に対しても図7に示したことと同様のことを行う。また、一人の登録者に3枚以上の辞書画像が登録されていてもよく、一人の登録者に多種多様な変動を有する複数の辞書画像を登録しておくことで、より識別精度を向上することができる。図5の処理(局所領域単位相関値算出処理)で説明したとおり、入力画像702と第1辞書画像703とにおいて、対応する局所領域の特徴量の相関値が算出される。より具体的には、相関値算出部103が、第1局所領域705の輝度値の相関値S11 Aを、(数1)式により算出する。同様にして、第1辞書画像703および陰影を有する第2辞書画像から各対応する局所領域で相関値が算出され、データ属性(登録者)ごとの相関値の集合である相関値ベクトル706が求められる。そして、相関値ベクトル706から、統合類似度707が求められる。以下、統合類似度の算出方法について、図8の処理フローチャートを用いて説明する。
図8は、統合類似度算出方法の処理フローチャートを示している。まず、図8の登録者別相関値抽出処理(S801)において、統合類似度算出部105は、前述した図5の相関値データベース500より、登録者pに関する相関値を全て抽出する。ちなみに、相関値データベース500は、図9に示すように、登録者pに関する各辞書画像から求められた相関値Skpi pを保持しているテーブル901である。すなわち、登録者別相関値抽出処理(S801)は、相関値テーブル901より、登録者pに関する相関値Skpi pをkp×i個(「登録画像枚数」×「1枚あたりの局所領域数」)抽出することになる。
次に、統合処理(S803)において、統合類似度算出部105は、S801で取り出した相関値のソーティング結果に対して閾値処理を行う。そして、閾値以上の相関値の平均値を算出して、その平均値を登録者pに関する統合類似度とする。統合類似度は、次式となる。
Figure 0005554984
ここで、(数2)式中のISpは、登録者pに関する統合類似度を表している。また、Thは閾値であり、(数2)式は、Thより大きい相関値に対して平均値を求めるという意味である。なお、統合類似度の求め方は、本実施形態のものに限定されるものでなく、全相関値の平均値或いは加重平均値、または最大値を統合類似度として構わない。また、前述の閾値Thの算出方法は、一般的な方法でよく、例えば、開発者が任意に定めた固定値、または登録者単位の全相関値の平均値に所定バイアスを加えて、動的に求める値でもよい。
図8の説明に戻る。S803において、統合類似度算出部105は、上述のS801とS802によって算出される統合類似度をすべての登録者に対して算出したかどうかを判定する。全登録者の統合類似度算出処理が終了した場合、図8の処理フローチャートは終了する。以上が、統合類似度算出方法の概要である。
図2の説明に戻る。ID判定処理(S204)において、オブジェクト属性識別部106は、前述の統合類似度に基づいて入力画像がどの登録者であるのかを判定する。判定方法は、次式となる。
Figure 0005554984
ここで、式(数3)のISpは、登録者pに関する統合類似度である。本ステップの判定処理は、統合類似度ISpの最大値探索を実施する。
以上のように、第1実施形態では、特定登録者の統合類似度を求める際に、入力画像と辞書画像の対応する各局所領域の相関値を多種多様な変動を有する複数の辞書画像から求める。その結果、入力画像の照明変動といった変動に影響されにくい個人認識が可能となるという効果がある。
(第2実施形態)
第2実施形態について説明する。第2実施形態の基本的な流れは、第1実施形態とほぼ同様であり、統合類似度算出処理(S203)における算出方法が異なる。以下、第2実施形態の統合類似度の算出方法について、図10に示す概念図と、図11に示す処理フローチャートを用いて説明する。
図10の登録者Aの辞書画像1001は、登録者Aに関する辞書画像で、図10では、2枚辞書画像が存在すると仮定している。なお、図10は、登録者が1名であるが、登録者A以外の人物がいても構わない。その場合、登録者A以外の登録画像に対しても、図10に示したことと同様のことを行う。また、一人の登録者に対して3枚以上の辞書画像を登録してもよいことは上述したとおりである。本実施形態では、登録者Aの辞書画像1001は、第1辞書画像1003と陰影を有する第2辞書画像1004から成る。第1辞書画像1003は、顔向きや陰影といった変動がない画像である。一方、陰影有第2辞書画像1004は、斜線で示される陰影成分が存在する画像である。また、入力画像1002は、第1辞書画像と同じく、顔向きや陰影といった変動がない画像である。
第1実施形態(図7)で説明したように、相関値算出部103は、入力画像1002と第1辞書画像1003の対応する局所領域の特徴量の相関値と、入力画像1002と第2辞書画像1004の対応する局所領域の特徴量の相関値とを算出する。算出された相関値は、ベクトル表記された相関値ベクトル1006のようになる。統合類似度算出部105(S203)は、この相関値ベクトル1006より、局所領域別の結合相関値ベクトル1007を求める。局所領域別の結合相関値ベクトル1007は、例えば、第1辞書画像1003及び第2辞書画像1004と、入力画像1002との間の第n番目の局所領域の相関値S1n AとS2n Aの平均値から構成される。そして、この結合相関値ベクトル1007より、統合類似度1008を求め、この統合類似度に基づいて個人を識別する。以上が、統合類似度の算出方法の概要である。次に、第2実施形態による統合類似度の算出方法の詳細を図11の処理フローチャートを用いて説明する。
まず、登録者別相関値抽出処理(S1101)において、統合類似度算出部105は、相関値データベース500より、注目する登録者から算出した相関値を取得する。次に、局所領域選択処理(S1102)において、統合類似度算出部105は、i個存在する局所領域から、注目する局所領域を1つ選択する。ここで、選択した局所領域は、第n番目の局所領域であるとする。そして、局所領域別結合相関値算出処理(S1103)は、S1102で選択した注目局所領域の各辞書画像の相関値を基に、注目局所領域単位の結合相関値を算出する。局所領域単位の結合相関値は、次式となる。
Figure 0005554984
ここで、CSn pは、登録者pに関するS1102で選択された第n局所領域の結合相関値である。この結合相関値は、登録者pに関する全辞書画像の中で第n局所領域の相関値Skpn pが所定閾値Th以上であるものの平均値である。なお、Thを超えるものが存在しない場合、結合相関値は0となる。また、結合相関値の算出方法は上述した方法に限られず、第n局所領域の全ての相関値の平均或いは加重平均、または最大値を用いてもよい。なお、kpは登録者pの辞書画像枚数を表している。求めた局所領域単位の結合相関値は、図示しないデータベースにプールされる。
次に、S1104において、統合類似度算出部105は、候補となる局所領域すべてを選択したかどうかを判定する。すべての局所領域を網羅的に選択した場合は、S1105に進む。未選択の局所領域があれば、処理はS1102に戻り、未選択の局所領域の一つを選択してS1103の局所領域別結合相関値算出処理を行う。
次に、統合類似度算出処理(S1106)において、統合類似度算出部105は、S1103で算出した局所領域別の結合相関値、具体的には(数4)式のCSn pを登録者pについてまとめる処理を行う。具体的には、次式で示される。
Figure 0005554984
ここで、(ISp)'は局所領域別の結合相関値を登録者pについて統合した、統合類似度である。(数5)より、統合類似度(ISp)'は、ある閾値Th以上の局所領域別の結合相関値の平均値となる。なお、統合類似度の求め方は(数5)式に限定されるものでなく、全ての結合相関値の平均値または最大値を統合類似度としても構わない。また、前述の閾値Thの算出方法は、一般的な方法でよく、例えば、開発者が任意に定めた固定値、または登録者単位の全相関値の平均値に所定バイアスを加えて動的に求める値でもよい。また、(数4)と(数5)におけるThは同じ値であっても異なる値であってもよい。
図11の説明に戻る。S1106において、統合類似度算出部105は、S1105で説明した統合類似度算出処理をすべての登録者に対して算出したかどうかを判定する。全登録者について統合類似度算出処理が終了した場合、図11のフローチャートで示される統合類似度算出処理は終了する。以上が、第2実施形態による統合類似度算出方法の概要である。
次に、図11の処理フローチャートで算出した統合類似度を基に、登録者を判定する処理について説明する。処理の流れは、第1実施形態のID判定処理(S204)と同様であり、次式で示される。
Figure 0005554984
ここで、(数6)式の(ISp)'は、図11に示した統合類似度算出処理により算出された登録者pに関する統合類似度である。(数6)より、判定処理は、統合類似度(ISp)'の最大値探索で実行される。
以上のように、第2実施形態によれば、局所領域単位の類似度の結合処理を導入することで、例えば左目周辺にある、同じ位置情報を有する局所領域の相関値から統合類似度を算出することを防止するという効果がある。したがって、より顔全体一様に分布する局所領域の相関値から統合類似度を算出することが可能となり、相関値が大きいローカルな局所領域のみを用いた個人判定による、認識精度の不安定性をなくすことが出来る。
(第3実施形態)
次に、第3実施形態について説明する。第3実施形態の基本的な流れは、第1実施形態とほぼ同様である。異なる点は、入力画像と各登録画像の見え方の相違に基づいて、統合類似度を算出するのに用いる局所領域を動的に変更することである。以下、第3実施形態の詳細を図12、図13、図14を用いて説明する。
図12は、第3実施形態の概要を示す概念図であり、図13は処理の詳細を示す処理フローチャートである。まず、図12を用いて、本実施形態の概要について説明する。図12の登録者Aの辞書画像1201は、登録者Aに関する辞書画像で、図12では、2枚辞書画像が存在すると仮定している。なお、図12は、登録者1名であるが、登録者A以外の人物がいても構わない。その場合、登録者A以外の登録画像に対しても図12に示したことと同様のことを行う。また、一人の登録者に関する辞書画像の枚数も、2枚に限られるものではなく、3枚以上であってもよい。登録者Aの辞書画像1201は、第1辞書画像1203と、陰影の有る第2辞書画像1204から成る。第1辞書画像1203は、顔向きや陰影といった変動がない画像である。一方、第2辞書画像1204は、斜線で示される陰影成分が存在する画像である。第2辞書画像1204にある第1局所領域1206、第4局所領域1207および第7局所領域1208は、前述の陰影部分に設定される局所領域である。
また、入力画像1202は、第1辞書画像1203と同じく、顔向きや陰影といった変動がない画像であるとする。このとき、前述の図7で説明したように、相関値算出部103は、入力画像1202と第1辞書画像1203の対応する局所領域の特徴量の相関値と、入力画像1202と第2辞書画像1204の対応する局所領域の特徴量の相関値とを算出する。相関値ベクトル1209は、算出された相関値をベクトル表記したものである。この相関値ベクトル1209より、候補相関値ベクトル1210を求める。候補相関値ベクトル1210は、相関値ベクトル1209から、
・第2辞書画像1204の陰影部分に設定される第1局所領域1206、第4局所領域1207および第7局所領域1208から求められる相関値、S21 A、S24 AおよびS27 Aと、
・第1辞書画像1203の第1局所領域、第4局所領域および第7局所領域から求められる相関値、S11 A、S14 AおよびS17 Aとを省略することで求められる。
相関値ベクトル1209から省く相関値を選別する基準は、入力画像1202と第1辞書画像1203または第2辞書画像1204の見え方の相違である。第2辞書画像1204は、入力画像1202と比較して、陰影成分があるため見え方が異なる。したがって、陰影部分に設定される第1局所領域1206、第4局所領域1207および第7局所領域1208から求められる相関値は、陰影すなわち照明変動の影響を受け、信頼性の低い値となっている。よって相関値、S21 A、S24 AおよびS27 Aは、相関値ベクトル1209から省かれる。また、相関値、S11 A、S14 AおよびS17 Aを省くのは、特に理由がないが、便宜上そのようにしておく。もちろん、相関値、S11 A、S14 AおよびS17 Aを残しておいても構わない。その場合、辞書画像間で対応する局所領域の最大値をとって結合相関値ベクトル1211を求める構成の場合、第1局所領域1206、第4局所領域1207および第7局所領域1208の結合相関値は、最大値を求める必要がない。そのため、それらの結合相関値は相関値S11 A、S14 AおよびS17 Aになる。最終的に、統合類似度1212は、結合相関値ベクトル1211より求める。そして、オブジェクト属性識別部106は、その統合類似度に基づいて、入力画像が誰であるのか判定する。以上が、本実施形態の概要である。次に、第3実施形態による統合類似度算出処理(S203)の詳細を図13の処理フローチャートを用いて説明する。
まず、登録者別相関値ベクトル抽出処理(S1301)において、統合類似度算出部105は、相関値データベース500より、登録者pに対応する相関値ベクトル1209を抽出する(但し、相関値ベクトル1209において、Aをpとする)。次に、変動パターン推定処理(S1302)において、統合類似度算出部105は、入力画像と登録者pの各辞書画像の変動パターンを推定する。ここで、変動パターン(変動種別)とは、図14に示すようなものである。
図14は、画像中の被写体の変動の種別を示している。本実施形態では、変動種別として4種類、すなわち、(a)の照明変動、(b)の顔向き変動、(c)の表情変動および(d)のオクルージョン1404、を用意する。照明変動は、顔の左半分または右半分が陰影部である照明パターン1および照明パターン4と、顔の左または右の4分の1が陰影部である照明パターン2および照明パターン3で構成される。また、向き変動は、左または右方向の横顔である向きパターン1および向きパターン4と、正面顔を0°とした場合において左または右方向に対して±45°方向の向きパターン2および向きパターン3で構成される。また、表情変動は、笑顔、怒り顔および哀しみ顔で構成される。オクルージョンは、サングラス、眼鏡、マスクおよび帽子がある顔で構成される。変動パターン推定処理(S1302)は、入力画像と辞書画像を図14で示した変動パターンにそれぞれ当てはめ、入力画像と辞書画像との間の変動の相違を判定する。なお、オクルージョンのサングラスと眼鏡のパターンは、眼鏡のレンズの濃さが異なる程度なので、同一の変動として扱ってもよい。ちなみに、変動パターンは、図14に挙げたものに限定されない。以上が、変動パターンの種別の詳細である。
図13の説明に戻る。上述のように、変動パターン推定処理(S1302)では、入力画像の変動と登録者pの各辞書画像の変動パターンを推定し、推定した変動パターンからその相違を判定する。変動パターン推定方法は、公知の技術を以って行う。具体的には、次の通りである。まず、向きパターンは、公知例として木下等「3Dモデル高速フィッティングによる顔特徴点検出・頭部姿勢推定」、pp.1324-pp.1329、MIRU(2008)にあるように、3Dモデルフィッティングの結果を用いて推定される。3Dモデルは、目頭といった器官等の複数器官位置の3次元座標ベクトルをPCA等の低次元化により求められる。そして、顔向きは、この3Dモデルと入力画像をマッチングし、マッチングにより入力画像の複数器官位置の3次元座標から推定される。また、照明変動パターンの推定は、例えば次のように行うことができる。すなわち、画像を低解像化して、鼻と口を結ぶ直線を分割線として、分割線の左顔領域および右顔領域のヒストグラムを作成し、入力画像のそれらヒストグラムと、予め取得されている様々な照明パターンのそれらヒストグラムとのマッチングにより行う。また、表情変動は、目または口といった特徴部位の形状を抽出し、その形状より表情を推定するといったものでよい。最後に、オクルージョンの推定は、メガネまたは帽子のモデルを統計学習から求め、求めたモデルに対する類似度を基に推定するといったものでよい。なお、変動パターン推定方法は、前述したものに限定されるものでなく、他の公知技術を用いてもよい。図13の変動パターン推定処理(S1302)では、前述した変動パターン推定方法を用いて、入力画像と登録者pに関する各辞書画像の変動パターンを推定する。
次に、局所領域選抜処理(S1303)において、統合類似度算出部105は、S1302で推定された入力画像と辞書画像の変動パターンの組み合わせに応じて、S1301で抽出した相関値ベクトルから外す相関値を選択する処理を行う。つまり局所領域選抜処理は、図12で説明した、候補相関値ベクトル1210を求める処理である。変動パターン推定処理(S1302)で、第2辞書画像1304には、陰影成分があると判定される。一方、入力画像には陰影がないため、陰影がある位置に設定される局所領域から求められる信頼性の低い相関値を省略する。
次に、局所領域選択処理(S1304)において、統合類似度算出部105は、最大i個存在する局所領域から、注目する局所領域を1つ選択する。ここで、選択した局所領域は、第n番目の局所領域であるとする。ただし、S1304で選抜された中から、注目する局所領域が選択される。従って、図12で示した第1局所領域1206、第4局所領域1207および第7局所領域1208は、局所領域選択処理(S1304)において選択候補にならない。
次に、局所領域別結合相関値算出処理(S1305)において、統合類似度算出部105は、S1304で選択した注目局所領域の相関値(図12の候補相関値ベクトル1210の各要素)を基に、注目局所領域単位の結合相関値を算出する。局所領域単位の結合相関値は、前述の(数4)式で表される。求めた局所領域単位の結合相関値は、図示しないデータベースにプールされる。なお、局所領域単位の結合相関値は、本ステップでは、前述の(数4)式で示される方法で算出するとしたが、加重平均値や最大値を用いても構わない。
次に、S1306において、統合類似度算出部105は、候補となる局所領域すべてを選択したかどうかを判定する。すべての局所領域を網羅的に選択した場合はS1307に進む。統合類似度算出処理(S1307)において、統合類似度算出部105は、S1305で算出した局所領域別の結合相関値、具体的には前述の(数4)式のCSn pを登録者pについてまとめる処理を行う。具体的には、次式で示される。
Figure 0005554984
ここで、(ISp)nは局所領域別の結合相関値を登録者pについて統合した、統合類似度である。前述の(数5)式より、統合類似度(ISp)nは、ある閾値Th以上の局所領域別の結合相関値の平均値となる。なお、第3実施形態の統合類似度の求め方は、(数7)式に限定されるものでなく、全局所領域別の結合相関値の平均値または最大値を統合類似度として構わない。また、前述の閾値Thの算出方法は、一般的な方法でよく、例えば、開発者が任意に定めた固定値、または登録者単位の全相関値の平均値に所定バイアスを加えて動的に求める値でもよい。また、上記の処理では、全ての局所領域について相関値を算出し、推定された変動パターンに応じて結合相関値の算出に使用する相関値を選択したが、相関値を算出する局所領域を推定された変動パターンに応じて選択してもよい。この場合、例えば図12において、相関値ベクトル1209における相関値S21 A、S24 A、S27 Aは算出されないことになる。
図13の説明に戻る。S1308において、統合類似度算出部105は、上述した統合類似度をすべての登録者に対して算出したかどうかの判定を行う。全登録者の統合類似度算出処理が終了していた場合、図13のフローチャートに示される統合類似度算出処理は終了する。以上が、統合類似度算出方法の概要である。
次に、図13の処理フローチャートで算出した統合類似度を基に、登録者を判定する処理について説明する。処理の流れは、第1実施形態のID判定処理(S204)と同様であり、次式で示される。
Figure 0005554984
ここで、(数8)式の(ISp)nは、図13の処理フローチャートで算出した登録者pに関する統合類似度である。(数8)式より、判定処理は、統合類似度(ISp)nの最大値探索で実行される。
以上が、第3実施形態の概要である。第3実施形態によれば、変動パターン推定を導入することで、その変動による相関値のばらつきを抑えることができ、変動に対して頑健な個人認識が可能となるという効果が得られる。
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (10)

  1. 入力データのデータ属性を認識するパターン認識装置であって、
    データ属性ごとに用意された複数の辞書データの各々について、前記入力データと辞書データとの間で対応する局所パターンの特徴量の相関値を算出して辞書データごとの相関値の集合を取得し、辞書データごとの相関値の集合をデータ属性ごとにまとめることによりデータ属性ごとの相関値の集合を取得する相関値算出手段と、
    前記データ属性ごとの相関値の集合の各々において、対応する局所パターンの相関値ごとに統合して結合相関値の集合を取得し、取得された結合相関値を統合することにより、各データ属性に対する前記入力データの類似度を算出する類似度算出手段と、
    前記類似度算出手段で算出された類似度に基づいて前記入力データの対応するデータ属性を識別する識別手段とを備えることを特徴とするパターン認識装置。
  2. 前記類似度算出手段では、前記データ属性ごとの相関値の集合の各々について、閾値を超える相関値のみによる平均値、相関値の加重平均値または最大値を算出して当該データ属性の類似度とすることを特徴とする請求項1に記載のパターン認識装置。
  3. 前記入力データにおける変動パターンを推定する推定手段と、
    前記入力データの変動パターンと各辞書データの変動パターンとに基づいて、辞書データごとに用いる局所パターンを決定する決定手段とを更に有し、
    前記類似度算出手段では、前記データ属性ごとの相関値の集合の各々に含まれている、辞書データごとの前記決定手段で決定された用いるべき局所パターンに対応する相関値の集合を統合することにより、各データ属性に対する前記入力データの類似度を算出することを特徴とする請求項1に記載のパターン認識装置。
  4. 前記類似度算出手段では、前記データ属性ごとの相関値の集合の各々において、用いるべき局所パターンごとに相関値を統合して結合相関値の集合を取得し、取得された結合相関値を統合することにより各データ属性に対する前記入力データの類似度を算出することを特徴とする請求項に記載のパターン認識装置。
  5. 前記結合相関値は、対応する局所パターンの相関値ごとの、閾値を超える相関値のみによる平均値、相関値の加重平均値または最大値であることを特徴とする請求項に記載のパターン認識装置。
  6. 前記類似度算出手段では、前記データ属性ごとの結合相関値の集合の各々について、閾値を超える結合相関値のみによる平均値、加重平均値または最大値を算出して当該データ属性の類似度とすることを特徴とする請求項に記載のパターン認識装置。
  7. 前記入力データは画像データであり、
    前記変動パターンは、画像に含まれている被写体の顔の向きの変動、照明の変動、表情の変動、及び顔に対するオクルージョンの少なくともいずれかであることを特徴とする請求項に記載のパターン認識装置。
  8. 前記データ属性は固体識別情報であることを特徴とする請求項1乃至のいずれか1項に記載のパターン認識装置。
  9. 入力データのデータ属性を認識するパターン認識装置によるパターン認識方法であって、
    相関値算出手段が、データ属性ごとに用意された複数の辞書データの各々について、前記入力データと辞書データとの間で対応する局所パターンの特徴量の相関値を算出して辞書データごとの相関値の集合を取得し、辞書データごとの相関値の集合をデータ属性ごとにまとめることによりデータ属性ごとの相関値の集合を取得する相関値算出工程と、
    類似度算出手段が、前記データ属性ごとの相関値の集合の各々において、対応する局所パターンの相関値ごとに統合して結合相関値の集合を取得し、取得された結合相関値を統合することにより、各データ属性に対する前記入力データの類似度を算出する類似度算出工程と、
    識別手段が、前記類似度算出手段で算出された類似度に基づいて前記入力データの対応するデータ属性を識別する識別工程とを有することを特徴とするパターン認識方法。
  10. コンピュータを、請求項1乃至のいずれか1項に記載されたパターン認識装置の各手段として機能させるためのコンピュータプログラム。
JP2009293201A 2009-12-24 2009-12-24 パターン認識方法およびパターン認識装置 Active JP5554984B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009293201A JP5554984B2 (ja) 2009-12-24 2009-12-24 パターン認識方法およびパターン認識装置
US12/970,712 US9092662B2 (en) 2009-12-24 2010-12-16 Pattern recognition method and pattern recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009293201A JP5554984B2 (ja) 2009-12-24 2009-12-24 パターン認識方法およびパターン認識装置

Publications (2)

Publication Number Publication Date
JP2011134114A JP2011134114A (ja) 2011-07-07
JP5554984B2 true JP5554984B2 (ja) 2014-07-23

Family

ID=44187669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009293201A Active JP5554984B2 (ja) 2009-12-24 2009-12-24 パターン認識方法およびパターン認識装置

Country Status (2)

Country Link
US (1) US9092662B2 (ja)
JP (1) JP5554984B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11157760B2 (en) 2017-12-21 2021-10-26 Samsung Electronics Co., Ltd. Liveness test method and apparatus

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5675145B2 (ja) * 2010-03-30 2015-02-25 キヤノン株式会社 パターン認識装置及びパターン認識方法
JP2012038106A (ja) 2010-08-06 2012-02-23 Canon Inc 情報処理装置、情報処理方法、およびプログラム
US8768944B2 (en) 2010-08-18 2014-07-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP5675214B2 (ja) 2010-08-18 2015-02-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP5653131B2 (ja) 2010-08-25 2015-01-14 キヤノン株式会社 オブジェクト認識装置およびその認識方法
JP5323035B2 (ja) 2010-12-10 2013-10-23 キヤノン株式会社 画像形成装置及びその画像形成方法
JP5801601B2 (ja) 2011-05-10 2015-10-28 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
JP5806606B2 (ja) 2011-12-01 2015-11-10 キヤノン株式会社 情報処理装置、情報処理方法
WO2013132695A1 (ja) * 2012-03-09 2013-09-12 日本電気株式会社 情報処理装置、情報処理方法および記録媒体
JP6071289B2 (ja) 2012-07-09 2017-02-01 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP6039942B2 (ja) 2012-07-09 2016-12-07 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
JP6012310B2 (ja) 2012-07-09 2016-10-25 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5997545B2 (ja) 2012-08-22 2016-09-28 キヤノン株式会社 信号処理方法及び信号処理装置
JP5651659B2 (ja) * 2012-08-31 2015-01-14 株式会社東芝 物体検出システムおよびプログラム
JP6351243B2 (ja) 2013-11-28 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法
CN104751109A (zh) * 2013-12-31 2015-07-01 西门子医疗保健诊断公司 一种用于识别耗材的方法和装置
JP6456031B2 (ja) 2014-03-25 2019-01-23 キヤノン株式会社 画像認識装置、画像認識方法およびプログラム
JP6410450B2 (ja) 2014-03-31 2018-10-24 キヤノン株式会社 オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP6406900B2 (ja) * 2014-07-09 2018-10-17 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、記録媒体、生産装置、及び組立部品の製造方法
US10133918B1 (en) * 2015-04-20 2018-11-20 Snap Inc. Generating a mood log based on user images
US10061977B1 (en) * 2015-04-20 2018-08-28 Snap Inc. Determining a mood for a group
US10963063B2 (en) * 2015-12-18 2021-03-30 Sony Corporation Information processing apparatus, information processing method, and program
CA3015492C (en) 2016-03-21 2021-11-23 The Procter & Gamble Company Systems and methods for providing customized product recommendations
JP6558388B2 (ja) * 2017-03-14 2019-08-14 オムロン株式会社 画像処理装置
US10818007B2 (en) 2017-05-31 2020-10-27 The Procter & Gamble Company Systems and methods for determining apparent skin age
KR102339915B1 (ko) * 2017-05-31 2021-12-17 더 프록터 앤드 갬블 캄파니 셀피를 촬영하도록 사용자를 안내하기 위한 시스템 및 방법

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
JP3416325B2 (ja) * 1995-03-28 2003-06-16 キヤノン株式会社 座標入力装置及びその制御方法
JPH08335134A (ja) * 1995-06-07 1996-12-17 Canon Inc 情報処理装置
JPH0922324A (ja) * 1995-07-05 1997-01-21 Canon Inc 座標入力装置
US5761087A (en) * 1996-01-10 1998-06-02 Canon Kabushiki Kaisha Coordinate input device and a control method therefor
JPH09190268A (ja) * 1996-01-11 1997-07-22 Canon Inc 情報処理装置およびその方法
US6225986B1 (en) * 1997-01-06 2001-05-01 Canon Kabushiki Kaisha Coordinate input apparatus and its control method
JPH11249803A (ja) * 1998-03-03 1999-09-17 Canon Inc 座標入力装置及びその制御方法、コンピュータ可読メモリ
JP2000090191A (ja) 1998-09-16 2000-03-31 Ntt Data Corp 顔認識装置及び方法
JP2000259814A (ja) * 1999-03-11 2000-09-22 Toshiba Corp 画像処理装置及びその方法
JP4846924B2 (ja) * 2001-05-31 2011-12-28 キヤノン株式会社 パターン認識装置
US6879709B2 (en) * 2002-01-17 2005-04-12 International Business Machines Corporation System and method for automatically detecting neutral expressionless faces in digital images
KR20030065659A (ko) * 2002-01-30 2003-08-09 삼성전자주식회사 얼굴정보 검출을 이용하여 기지국 또는 단말기에서의보안을 제공하기 위한 장치 및 그 방법
JP2008217803A (ja) * 2002-02-27 2008-09-18 Nec Corp 画像認識システム及びその認識方法並びにプログラム
JP4161659B2 (ja) * 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
AU2003289116A1 (en) * 2002-12-16 2004-07-09 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof
EP2955662B1 (en) * 2003-07-18 2018-04-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
WO2005059811A1 (en) * 2003-12-16 2005-06-30 Canon Kabushiki Kaisha Pattern identification method, apparatus, and program
JP4483334B2 (ja) * 2004-02-18 2010-06-16 富士ゼロックス株式会社 画像処理装置
JP4217664B2 (ja) * 2004-06-28 2009-02-04 キヤノン株式会社 画像処理方法、画像処理装置
JP5008269B2 (ja) * 2005-04-08 2012-08-22 キヤノン株式会社 情報処理装置、情報処理方法
EP1898339A1 (en) * 2005-06-30 2008-03-12 Olympus Corporation Retrieval system and retrieval method
JP4595750B2 (ja) * 2005-08-29 2010-12-08 ソニー株式会社 画像処理装置および方法、並びにプログラム
US20070071288A1 (en) * 2005-09-29 2007-03-29 Quen-Zong Wu Facial features based human face recognition method
JP2007206833A (ja) * 2006-01-31 2007-08-16 Toshiba Corp 生体照合方法および生体照合装置
JP2008059197A (ja) * 2006-08-30 2008-03-13 Canon Inc 画像照合装置、画像照合方法、コンピュータプログラム及び記憶媒体
KR100860989B1 (ko) * 2006-12-18 2008-09-30 삼성전자주식회사 얼굴 영상의 유사도 산출 방법 및 장치와 이를 이용한 얼굴영상 검색 방법 및 장치 그리고 얼굴 합성 방법
JP2009086749A (ja) * 2007-09-27 2009-04-23 Canon Inc パターン識別手法、識別用パラメータ学習方法、及び装置
JP5004743B2 (ja) * 2007-10-10 2012-08-22 東芝情報システム株式会社 データ処理装置
JP4948379B2 (ja) * 2007-12-18 2012-06-06 キヤノン株式会社 パターン識別器生成方法、情報処理装置、プログラム及び記憶媒体
JP5121506B2 (ja) * 2008-02-29 2013-01-16 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2009223580A (ja) * 2008-03-14 2009-10-01 Omron Corp 優先対象決定装置、電子機器、優先対象決定方法、プログラム、および記録媒体
US8331655B2 (en) * 2008-06-30 2012-12-11 Canon Kabushiki Kaisha Learning apparatus for pattern detector, learning method and computer-readable storage medium
JP4720880B2 (ja) * 2008-09-04 2011-07-13 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5247480B2 (ja) * 2009-01-13 2013-07-24 キヤノン株式会社 オブジェクト識別装置及びオブジェクト識別方法
EP2407933A1 (en) * 2009-03-13 2012-01-18 Nec Corporation Feature point generation system, feature point generation method, and feature point generation program
JP5254893B2 (ja) * 2009-06-26 2013-08-07 キヤノン株式会社 画像変換方法及び装置並びにパターン識別方法及び装置
JP2011091571A (ja) * 2009-10-21 2011-05-06 Olympus Imaging Corp 動画像作成装置及び動画像作成方法
JP5675145B2 (ja) * 2010-03-30 2015-02-25 キヤノン株式会社 パターン認識装置及びパターン認識方法
JP5653131B2 (ja) * 2010-08-25 2015-01-14 キヤノン株式会社 オブジェクト認識装置およびその認識方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11157760B2 (en) 2017-12-21 2021-10-26 Samsung Electronics Co., Ltd. Liveness test method and apparatus
US11971924B2 (en) 2017-12-21 2024-04-30 Samsung Electronics Co., Ltd. Liveness test method and apparatus

Also Published As

Publication number Publication date
US20110158540A1 (en) 2011-06-30
US9092662B2 (en) 2015-07-28
JP2011134114A (ja) 2011-07-07

Similar Documents

Publication Publication Date Title
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
CN110147717B (zh) 一种人体动作的识别方法及设备
KR102364993B1 (ko) 제스처 인식 방법, 장치 및 디바이스
JP6631179B2 (ja) 前景画像分割方法及び装置、プログラム、並びに記録媒体
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
WO2020181872A1 (zh) 一种物体检测方法、装置及电子设备
JP6007682B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2023082882A1 (zh) 一种基于姿态估计的行人摔倒动作识别方法及设备
US9213897B2 (en) Image processing device and method
EP2591460A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
WO2018082308A1 (zh) 一种图像处理方法及终端
JP7107598B2 (ja) 認証用顔画像候補判定装置、認証用顔画像候補判定方法、プログラム、および記録媒体
KR101994319B1 (ko) 깊이 영상을 이용하는 객체 인식 장치 및 그 장치를 이용한 방법
JP6157165B2 (ja) 視線検出装置及び撮像装置
JP5648452B2 (ja) 画像処理プログラムおよび画像処理装置
US9940718B2 (en) Apparatus and method for extracting peak image from continuously photographed images
CN113129249A (zh) 基于深度视频的空间平面检测方法及其系统和电子设备
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2006133941A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び携帯型端末
JP2009289210A (ja) 重要物体認識装置および重要物体認識方法ならびにそのプログラム
JP6393495B2 (ja) 画像処理装置および物体認識方法
KR101521136B1 (ko) 얼굴 인식 방법 및 얼굴 인식 장치
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
JP2021071769A (ja) 物体追跡装置および物体追跡方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140530

R151 Written notification of patent or utility model registration

Ref document number: 5554984

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151