JP5424819B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP5424819B2
JP5424819B2 JP2009253521A JP2009253521A JP5424819B2 JP 5424819 B2 JP5424819 B2 JP 5424819B2 JP 2009253521 A JP2009253521 A JP 2009253521A JP 2009253521 A JP2009253521 A JP 2009253521A JP 5424819 B2 JP5424819 B2 JP 5424819B2
Authority
JP
Japan
Prior art keywords
partial
unit
pattern
feature
partial feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009253521A
Other languages
English (en)
Other versions
JP2011100229A5 (ja
JP2011100229A (ja
Inventor
博 佐藤
優和 真継
克彦 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009253521A priority Critical patent/JP5424819B2/ja
Priority to US12/914,439 priority patent/US9070041B2/en
Publication of JP2011100229A publication Critical patent/JP2011100229A/ja
Publication of JP2011100229A5 publication Critical patent/JP2011100229A5/ja
Application granted granted Critical
Publication of JP5424819B2 publication Critical patent/JP5424819B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、パターン識別技術に関するものである。
パターン認識における識別技術、典型的には、画像データ中の被写体であるオブジェクトが、別の画像中の被写体であるオブジェクトと同一のものであると識別する技術として、例えば、個人の顔を識別する顔識別技術がある。以下、本明細書では、パターンの識別とは、パターンの個体の違い(例えば、個人としての人物の違い)を判定することを意味する。一方、パターンの検出は、個体を区別せず同じ範疇に入るものを判定する(例えば、個人を区別せず、顔を検出する)ことを意味するものとする。
顔識別技術として、例えば、非特許文献1に開示されているような方法がある。これは、顔による個人の識別問題を、差分顔と呼ばれる特徴クラスの2クラス識別問題に置き換えることによって、顔の登録・追加学習をリアルタイムに行うことを可能にしたアルゴリズムである。
例えば、一般によく知られているサポートベクターマシン(SVM)を用いた顔識別では、n人分の人物の顔を識別するために、登録された人物の顔とそれ以外の顔とを識別するn個のSVM識別器が必要になる。人物の顔を登録する際には、SVMの学習が必要となる。SVMの学習には、登録したい人物の顔と、既に登録されている人物とその他の人物の顔データが大量に必要で、非常に計算時間がかかるため、予め計算しておく手法が一般的であった。しかし、非特許文献1の方法によれば、個人識別の問題を、次に挙げる2クラスの識別問題に置き換えることよって、追加学習を実質的に不要にすることが出来る。
・ intra-personal class:同一人物の画像間の、照明変動、表情・向きなどの変動特徴クラス
・ extra-personal class:異なる人物の画像間の、変動特徴クラス
上記2クラスの分布は、特定の個人によらず一定であると仮定して、個人の顔識別問題を、上記2クラスの識別問題に帰着させて識別器を構成する。予め、大量の画像を準備して、同一人物間の変動特徴クラスと、異なる人物間の変動特徴クラスの識別を行う識別器について学習を行う。新たな登録者は、顔の画像(若しくは必要な特徴を抽出した結果)のみを保持すればよい。識別する際には、2枚の画像から差分特徴を取り出し、上記識別器で、同一人物なのか異なる人物なのかを判定する。これにより、個人の顔登録の際にSVMなどの学習が不要になり、リアルタイムで登録を行うことが出来る。
上記のような、パターン(具体的には画像中のオブジェクト、より具体的には、人物の顔)の識別を行う装置および方法において、識別性能を低下させる要因として、登録用パターンと認証用パターンとの間の変動が挙げられる。即ち、識別対象であるオブジェクト(人物の顔)の変動、具体的には、照明条件、向き・姿勢、他のオブジェクトによる隠れや、表情による変動などである。上記のような変動が大きくなると、識別性能が大幅に低下してしまう。
この問題に対して、特許文献1では、部分領域ごとのパターンマッチングを複数回行い、それらの結果のうち、外れ値を取り除いて、各部分領域のマッチ度を統合することによって、変動に対するロバスト性を確保している。
また、特許文献2では、部分領域ごとの特徴量を量子化し、それらを幾つかのサブグループに分割し、サブグループ内での量子化された特徴量の重み付き和をとって、新たな部分特徴量とし、それらを統合して判別している。このようすることで、複数の部分領域が一致していることを重視して、判定を行うことができる。
特開2003−323622号公報 特開2006−268825号公報
Baback Moghaddam, Beyond Eigenfaces :Probabilistic Matching for Face Recognition(M.I.T Media Laboratory Perceptual Computing Section Technical Report No.433), ProbabilisticVisual Learning for Object Representation(IEEE Transactions on PatternAnalysis and Machine Intelligence, Vol. 19, No. 7, JULY 1997)
しかしながら、複数の部分領域の類似度に対する単純な外れ値の除去や、その重み付き平均などを取るだけでは、性能的な改善の余地があると考えられる。例えば、上記複数の部分領域の設定に誤りがあった場合、上記処理だけでは、誤りを十分に訂正できる可能性は低いと考えられる。特に、部分領域間の類似度の重み付き平均は、重みの大きい部分領域の類似度が変動によって影響を受けると、識別性能への影響も大きくなってしまい、変動に対して十分にロバストとは言い難い。
人間の顔のように変動が大きく、さらに撮影条件がさまざまな環境においても識別性能を維持するためには、上記複数の部分領域の設定に誤りがあった場合に、その誤りをある程度吸収できる処理を組み込むことが有効であると考えられる。
デジタルカメラやWebカメラなどへの応用を想定すると、画像の撮影条件およびパターンの変動(大きさ、向き、表情など)が、大きい場合にも識別性能が劣化しないことが望まれる。部分領域ごとの類似度から識別を行う方法において、部分領域の設定に多少の誤りがある場合にも、識別性能を劣化させない方法を考えることが、大きな問題点であった。
本発明は以上の問題に鑑みてなされたものであり、識別対象のパターンやその周辺環境など変動に対してロバスト、且つ高精度なパターン識別技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の情報処理装置は以下の構成を備える。即ち、入力パターンと、予め登録されているパターンとしての登録パターンと、で対応する部分特徴を抽出する抽出手段と、
前記部分特徴の組み合わせを合成部分特徴として複数、生成する合成手段と、
前記複数の合成部分特徴を用いて、前記入力パターンが、それぞれの登録パターンが属するクラスの、どのクラスに対応するかを識別する識別手段と
を備え、
前記識別手段は、
前記合成部分特徴に属し且つ前記入力パターンと前記登録パターンとで対応する前記部分特徴を評価する評価手段を備え、
前記評価手段は、前記合成部分特徴の尤度を算出する算出手段を備え、
前記算出手段は、前記尤度を、前記合成部分特徴に含まれる、前記部分特徴間の統計量を基準に算出し、
前記識別手段は、前記評価手段による評価結果としての前記尤度に基づいて前記識別を行う
ことを特徴とする。
本発明の構成によれば、識別対象のパターンやその周辺環境など変動に対してロバスト、且つ高精度なパターン識別技術を提供することができる。
(a)はパターン識別装置100、(b)はパターン登録部5、(c)は登録パターン辞書データ生成部21の機能構成例を示すブロック図。 パターン識別装置100が行う全体処理のフローチャート。 (a)は特徴ベクトル抽出部32、特徴ベクトル変換部33が行う処理のフローチャート、(b)は入力パターン識別部6が行う処理のフローチャート。 (a)は入力パターン識別部6、(b)は入力パターン識別用データ生成部41、(c)は入力パターン識別演算部43、(d)は部分特徴合成部63の機能構成例を示すブロック図。 (a)は入力パターン識別演算部43、(b)は部分特徴合成部63が行う処理のフローチャート。 (a)は合成部分特徴評価部64、(b)は合成部分特徴尤度算出部84の機能構成例を示すブロック図。 (a)は合成部分特徴評価部64、(b)はステップS1403における処理の詳細を示すフローチャート。 (a)は合成部分特徴尤度算出部84、(b)は合成部分特徴評価値算出部85、(c)は部分領域の学習処理の一例としてのフローチャート。 (a)はパターン登録部105、(b)は入力パターン識別部106の機能構成例を示すブロック図。 (a)は登録パターン辞書データ生成部21、(b)は部分特徴合成部133が行う処理のフローチャート。 入力パターン識別演算部123の機能構成例を示すブロック図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
<パターン識別装置100の機能構成例について>
先ず、図1(a)を用いて、本実施形態に係る画像処理装置としてのパターン識別装置100の機能構成例について説明する。なお、図1(a)において、撮像制御部3、パターン登録部5、入力パターン識別部6のそれぞれは、本実施形態では、専用回路(ASIC)、プロセッサ(リコンフィギュラブルプロセッサ、DSP、CPUなど)であるとする。しかし、これら各部は専用回路として実現されることに限定するものではなく、単一の専用回路および汎用回路(PC用CPU)内部において実行されるコンピュータプログラムとして実装しても良い。
その場合、係るコンピュータプログラムは、RAMやROMなどのコンピュータ読み取り可能な記憶媒体に格納され、CPUがこれを実行することで、以下に説明する画像処理装置が行う各種の処理を実行することになる。
結像光学系1は、ズーム機構を備えた光学レンズにより構成されており、必要に応じて、パン・チルト軸方向の駆動機構を備えてもよい。撮像部2は、結像光学系1を介して入力される外界の光を、その光量に応じた電気信号に変換して出力する映像センサにより構成されており、不図示のセンサ駆動回路によって駆動制御される。撮像部2は、このセンサ駆動回路からの読み出し制御信号を受けると、変換した電気信号(映像信号)、例えば、サブサンプリング、ブロック読み出しして得られる信号を、画像データとして出力する。
撮像制御部3は、本装置の操作者からの操作指示(画角調整指示、シャッター押下、など)、パターン登録部5や入力パターン識別部6から指示、に基づいて、撮像を行うタイミングを制御する。
画像記録部4は、半導体メモリ等で構成されており、撮像部2から出力された画像データを一時的に保持し、パターン登録部5、入力パターン識別部6からの要求に応じて、この画像データを転送する。
パターン登録部5は、画像記録部4に保持されている画像データを取得し、取得した画像データから識別対象のオブジェクトの情報を抽出し、記録・保持する。パターン登録部5については、後で詳しく説明する。
入力パターン識別部6は、画像記録部4に保持されている画像データを取得し、取得した画像データと、パターン登録部5が保持している情報と、を用いて、この画像データからパターン、より典型的には、オブジェクトの識別を行う。入力パターン識別部6については、後で詳しく説明する。
外部出力部7は、典型的には、CRTやTFT液晶等のモニタであり、撮像部2や画像記録部4から取得した画像データに基づく画像を表示したり、この画像に更に、パターン登録部5や入力パターン識別部6により抽出、識別された情報を重畳表示する。なお、外部出力部7はモニタ以外にも、例えば、外部機器との接続を行うためのインターフェースとしても良い。その場合、外部出力部7は、本装置で扱う様々なデータ(画像データ、パターン登録部5や入力パターン識別部6による抽出、識別された情報)を外部機器に送出してもよい。
以上説明した撮像部2、撮像制御部3、画像記録部4、パターン登録部5、入力パターン識別部6、外部出力部7は何れも、接続バス8に接続されており、各部はこの接続バス8を介して互いに情報の送受信を行うことができる。
<パターン識別装置100が行う全体処理について>
次に、図2を用いて、パターン識別装置100が行う全体処理、即ち、撮像した画像データ中のパターンの識別処理について説明する。なお、以下では説明上、この識別対象パターンを人物の顔として説明するが、識別対象パターンが他の如何なるものであっても、以下の処理は同様に適用することができる。
先ず、ステップS200では、パターン登録部5は、結像光学系1、撮像部2を介して画像記録部4に記録された画像データを取得する。次に、ステップS201では、パターン登録部5は、この取得した画像データから、人の顔を検出する処理を実行する。画像データから人の顔を検出する方法は、周知の技術を用いればよい。例えば、「特許3078166号公報」や「特開2002−8032号公報」にて開示されているような技術を用いればよい。
そしてパターン登録部5が1以上の人の顔を検出したのであれば、処理はステップS202を介してステップS203に進むし、1つも人の顔を検出していないのであれば、処理はステップS202を介して本処理を終了する。
ステップS203では、入力パターン識別部6は、パターン登録部5が検出した人の顔に係る情報を用いて、この顔の識別処理を実行する。ステップS203における処理の詳細については後述する。
次に、ステップS204では、入力パターン識別部6は、ステップS203で識別した顔が、過去に識別した顔の何れかに該当するか否かを判断する。係る判断の結果、ステップS203で識別した顔が、過去に識別した顔の何れかに該当する場合には、処理はステップS205に進むし、何れにも該当しない場合には、処理はステップS207に進む。
ステップS205では、入力パターン識別部6は、ステップS203において識別のために用いた情報(ステップS201で検出した顔に係る情報)を画像記録部4等の記憶装置に記録するか否かを判断する。記録するか否かは、予め設定しておいても良いし、ユーザが外部インターフェースやGUIなどを操作することで指定しても良い。
何れにせよ、ステップS203において識別のために用いた情報(ステップS201で検出した顔に係る情報)を画像記録部4等の記憶装置に記録する場合は、処理はステップS206に進むし、記録しない場合には、処理はステップS207に進む。
ステップS206では、パターン登録部5は、ステップS203において識別のために用いた情報(ステップS201で検出した顔に係る情報)を画像記録部4等の記憶装置に記録する。
そして、パターン登録部5が検出した全ての顔について以上の処理を行った場合は、処理はステップS207を介してステップS208に進むし、未だ以上の処理の対象となっていない顔がある場合は、処理はステップS207を介してステップS203に戻る。
ステップS208では、外部出力部7は、撮像部2や画像記録部4から取得した画像データに基づく画像を表示したり、この画像に更に、パターン登録部5や入力パターン識別部6により抽出、識別された情報を重畳表示する。
<パターン登録部5について>
次に、パターン登録部5について、図1(b)を用いて説明する。登録パターン辞書データ生成部21は、画像記録部4から取得した画像データから、パターンの個体を識別するために必要な登録パターン辞書データを生成する。例えば、非特許文献1に開示されているようなintra-classおよびextra-classの2クラス問題を判別する場合、典型的には、人物の顔画像を辞書データとすればよい。顔検出処理によって検出された人物の顔画像データを、大きさや向き(面内回転方向)などを正規化したのち、登録パターン辞書データ保持部22に格納するようにしてもよい。
なお、画像データそのものの代わりに、識別時に必要なデータのみを登録パターン辞書データ保持部22に格納することによって、辞書データ量を削減することも出来る。パターンの部分領域のベクトル相関をとって識別演算を行う場合には、予めその部分領域のみを切り出しておけばよい。
以上のように、適宜必要な情報を画像から抽出し、後述する所定の変換を行った後、パターンの識別を行うための特徴ベクトルとして、登録パターン辞書データ保持部22に格納する。登録パターン辞書データ生成部21で行われる具体的な処理の内容については、後述する。
登録パターン辞書データ選択部23は、入力パターン識別部6からの要求に応じて、登録パターン辞書データ保持部22から必要な登録パターン辞書データを読み出し、入力パターン識別部6に転送する。
<登録パターン辞書データ生成部21>
次に、登録パターン辞書データ生成部21について、図1(c)を用いて説明する。部分領域設定部31は、画像記録部4から取得した画像データ(登録用パターンの画像データ)に対して、特徴ベクトル抽出部32が特徴ベクトルを抽出する部分領域の位置と範囲を設定する。設定する位置と範囲は、機械学習の方法を用いて予め決めておくとよい。例えば、部分領域の候補を複数設定しておき、そのうち、AdaBoostを用いて選択するようにしてもよい。また、後述するように、部分領域の組み合わせを多数用意しておき、その組み合わせを1つの候補として、AdaBoostで選択するようにしてもよい。実際にAdaBoostを適用して、部分領域やその組み合わせを決める方法については、後述する入力パターン識別部6の説明で詳しく述べることにする。
また、部分領域の数は、処理時間などに応じて予め所定の数として決めておくとよい。また、予め用意した学習用サンプルに対して、十分な識別性能を得られる数を計測し、これを部分領域の数として設定しても良い。
特徴ベクトル抽出部32は、画像記録部4から取得した画像データ(登録用パターンの画像データ)から、上記部分領域内の特徴ベクトルを抽出する。パターンが画像中の人物の顔である場合、典型的には、顔を含む画像から、識別に必要なデータを取り出す処理を行う。識別に必要なデータは、部分領域設定部31によって設定された部分領域から、その輝度値を特徴ベクトルとして抽出する。また、輝度値を直接取得するのではなく、ガボアフィルタなど何らかのフィルタ演算を施した結果から特徴ベクトルを抽出してもよい。特徴ベクトル抽出部32で行われる処理の内容については後述する。
特徴ベクトル変換部33は、特徴ベクトル抽出部32によって抽出された特徴ベクトルに対して、特徴ベクトル変換用データ保持部34に格納されているデータを用いて、所定の変換を施す。特徴ベクトルの変換には、例えば、主成分分析(PCA)による次元圧縮や、独立成分分析(ICA)による次元圧縮などがある。また、局所性保存射影(LPP)や、局所フィッシャー判別分析(LFDA)による次元圧縮を行ってもよい。
特徴ベクトルの変換方法にPCAを用いた場合、その基底数(特徴ベクトルの次元削減数)や、どの基底を用いるか、などのパラメータが存在する。基底数の代わりに、基底ベクトルに対応する固有値の和、すなわち累積寄与率を指標としてもよい。これらのパラメータを、部分領域ごとに異なったものにすることもできる。実際にどのようなパラメータを設定するかは、予め機械学習によって決めることができる。
特徴ベクトル変換用データ保持部34は、特徴ベクトル変換部33が特徴ベクトルの変換を行う為に必要とするデータを保持している。ここで、特徴ベクトルの変換に必要なデータとは、上述のような、基底数(次元削減数)などの設定情報や、予め学習によって求めておいた基底ベクトルの数値データなどである。
次に、図3(a)を用いて、特徴ベクトル抽出部32、特徴ベクトル変換部33が行う処理について説明する。ステップS500では、特徴ベクトル抽出部32は、部分領域設定部31が設定した部分領域を示す情報を、部分領域設定部31から取得する。
次に、ステップS501では、特徴ベクトル抽出部32は、画像記録部4から画像データを取得する。次に、ステップS502では、特徴ベクトル抽出部32は、この取得した画像データ中の、ステップS500で取得した情報が示す部分領域から、特徴ベクトルを取得する。
ここで、特徴ベクトルは、典型的には部分領域の画像データから取得した輝度データをベクトル化したものであってもよい。また、特徴ベクトルは、LBP(Local Binary Pattern)変換など、所定の変換を施したものから、対応する部分領域を特徴ベクトル化するようにしてもよい。
次に、ステップS503では、特徴ベクトル変換部33は、ステップS502で取得した特徴ベクトルに対して、特徴ベクトル変換用データ保持部34から取得したデータに基づいた変換処理を行う。すでに述べたように、本ステップでは、典型的には、PCAによる次元削減や、ICAによる次元削減、などを特徴ベクトルに対して行う。その際、取得した特徴ベクトルに対して、所定の統計値、典型的には、平均ベクトルや、要素の最大値などを求めておいてもよい。また、部分特徴として、画像から切り出した位置の情報を記録するようにしてもよい。後述するように、登録パターンと入力パターン間で対応する部分特徴の比較・評価を行うために、対応関係を示す識別子を記録するようにしてもよい。これらの情報は、登録パターン辞書データ生成部21からの出力として、特徴ベクトルとともに出力するようにするとよい。
以上のような処理を行うことで部分領域を設定し、設定した部分領域から特徴ベクトルを抽出し、抽出した特徴ベクトルを変換し、変換後の特徴ベクトルのデータを、登録パターン辞書データ生成部21の出力として、パターン辞書データ保持部22に格納する。
<入力パターン識別部6>
次に、入力パターン識別部6について、図4(a)を用いて説明する。入力パターン識別用データ生成部41は、画像記録部4から取得した画像データから、パターンの識別に必要な情報の抽出を行う。登録パターン辞書データ取得部42は、パターン登録部5より、パターンの識別に必要な辞書データを取得する。入力パターン識別演算部43は、入力パターン識別用データ生成部41から取得した情報と、登録パターン辞書データ取得部42から取得した辞書データとを用いて、パターンの識別処理を行う。係る識別処理について詳しくは、後述する。
次に、入力パターン識別部6が行う処理について、図3(b)を用いて説明する。先ず、ステップS700では、登録パターン辞書データ取得部42は、パターン登録部5より、パターンの識別に必要な辞書データを取得する。
次に、ステップS701では、入力パターン識別用データ生成部41は、画像記録部4から画像データを取得する。そしてステップS702では、入力パターン識別用データ生成部41は、この取得した画像データから、パターンの識別に必要な情報の抽出を行う。本ステップにおける処理の詳細については後述する。
次に、ステップS703では、入力パターン識別演算部43は、入力パターン識別用データ生成部41から取得した情報と、登録パターン辞書データ取得部42から取得した辞書データとを用いて、パターンの識別処理を行う。係る識別処理の結果として出力する情報は、登録済みデータ(辞書データ)との一致/不一致をバイナリ(0若しくは1)で表現する場合と、一致度を正規化した値を(0〜1の実数値)尤度として表現する場合とが考えられる。
さらに、登録パターン(登録者)が複数(複数人)ある場合には、それぞれの登録パターン(登録者)に対して、尤度を出力しても良いが、最も良く一致した登録パターンに対する結果だけを出力しても良い。また、登録パターンに対する尤度ではなく、登録パターンが属するクラスに対しての尤度を出力してもよい。すなわち、人物の場合には、個々の登録顔画像への結果ではなく、人物のID(名前)に対する尤度を出力するようにする。なお、ステップS703における処理の詳細については後述する。
<入力パターン識別用データ生成部41について>
次に、入力パターン識別用データ生成部41について、図4(b)を用いて説明する。図4(b)に示した構成は、図1(c)に示した構成とほぼ同じである。即ち、部分領域設定部31と部分領域設定部51とはほぼ同じであり、特徴ベクトル抽出部32と特徴ベクトル抽出部52とはほぼ同じである。また、特徴ベクトル変換部33と特徴ベクトル変換部53とはほぼ同じであり、特徴ベクトル変換用データ保持部34と特徴ベクトル変換用データ保持部54とはほぼ同じである。然るに、図4(b)に示した各部については、図1(c)に示した各部についての説明と同じであるので、図4(b)に係る説明は省略する。
<入力パターン識別演算部43について>
次に、入力パターン識別演算部43について、図4(c)、5(a)を用いて説明する。ここでは一例として、入力パターンの識別を、対応する部分特徴間の類似性をもとに判定する場合について説明する。
先ず、ステップS1001では、入力パターン識別用データ取得部61は、入力パターン識別用データ生成部41が生成した情報を、入力パターン識別用データとして、入力パターン識別用データ生成部41から取得する。次に、ステップS1002では、登録パターン辞書データ取得部62は、登録パターン辞書データ取得部42から、登録パターンの辞書データを取得する。
ステップS1003で部分特徴合成部63は、入力パターン識別用データ取得部61が取得した入力パターン識別用データと、登録パターン辞書データ取得部62が取得した登録パターンの辞書データとを用いて部分特徴の合成を行い、合成部分特徴を生成する。
ここで、合成部分特徴とは、複数の部分特徴から構成される特徴のことである。合成部分特徴は、登録パターンおよび入力パターンの部分特徴をそれぞれ組み合わせ、登録パターンと入力パターンとで対応が取れるように生成される。典型的には、数個の部分特徴を組み合わせ、複数の合成部分特徴を合成して、出力する。この部分特徴合成処理の詳細については後述する。
次に、ステップS1004では、合成部分特徴評価部64は、部分特徴合成部63が生成した合成部分特徴の評価を行う。典型的には、複数の合成部分特徴について、登録パターンと入力パターンとの類似性を表す数値を算出し、それらを統合した1つの値として出力する。この合成部分特徴評価処理の内容についても後述する。
次に、ステップS1005では、評価結果保持部65は、ステップS1004において評価された結果としての値を自身に格納する。そして、全ての辞書データについてステップS1001〜ステップS1005の処理を行った場合には、処理はステップS1006を介してステップS1007に進むし、行っていないのであれば、処理はステップS1006を介してステップS1002に戻る。
ステップS1007では、評価結果統合部66は、評価結果保持部65に記憶保持されている評価結果の統合を行う。係る処理は、例えば、最も単純には、合成部分特徴評価処理の出力値が最も大きかった登録パターン辞書データを、識別結果として出力するような処理が考えられる。また、一致度の高かった上位の登録パターン辞書データの結果をリストとして出力してもよい。
<部分特徴合成部63について>
次に、部分特徴合成部63について、図4(d)を用いて説明する。特徴ベクトル取得部71は、入力パターン識別用データ生成部41から取得した入力パターン識別用データ、登録パターン辞書データ取得部42から取得した登録パターンの辞書データ、から特徴ベクトルおよびその付帯情報を取得し、一時的に保持する。
付帯情報とは、例えば、特徴ベクトルとして画像から切り出された際の位置情報や、PCAなどの切り出しベクトルに対して行われた変換のパラメータ、もしくはそれらを文字列として表現した識別子などである。
部分特徴合成パラメータ保持部72は、特徴ベクトル結合部73によって参照される、合成部分特徴を生成するためのパラメータ(部分特徴合成パラメータ)を保持する。このパラメータは、典型的には、1つの特徴として合成する部分特徴の数や、対象となる特徴ベクトルの切り出し位置の座標情報もしくは前述のような特徴ベクトルの識別子などである。このパラメータの決め方については、機械学習の方法を用いることができる。あとで、AdaBoostの方法を用いた、部分特徴合成パラメータの決定方法について説明する。
特徴ベクトル合成部73は、部分特徴合成パラメータ保持部72から部分特徴合成パラメータを取得し、これを参照して特徴ベクトルの結合を行う。係る結合についても詳しくは後述する。
次に、部分特徴合成部63が行う処理について、図5(b)を用いて説明する。先ず、ステップS1201では、特徴ベクトル取得部71は、登録パターン辞書データまたは入力パターン識別用データから、部分特徴ベクトルを取得する。次に、ステップS1202では、特徴ベクトル結合部73は、部分特徴合成パラメータ保持部72から部分特徴合成パラメータを取得する。そしてステップS1203では、特徴ベクトル結合部73は、ステップS1202で取得した部分特徴合成パラメータを参照し、特徴ベクトル取得部71が取得した部分特徴ベクトルのうち、結合対象の組み合わせを決定する。具体的には、複数ある部分特徴に対応する特徴ベクトルを、上記パラメータに従ってグループ分けする。1つのグループに含まれる部分特徴の数や、全ての部分特徴を幾つのグループに分割するか、等を指定するパラメータは、予め機械学習の方法を用いて決めておくとよい。あとで、AdaBoostを用いた、これらパラメータの決定手順について説明する。
次に、ステップS1204では、特徴ベクトル結合部73は、パラメータに基づいてグループ分けされた特徴ベクトルを連結する。係る連結は、複数のベクトルを1つの数値列として結合してもよいし、各特徴ベクトルに同一グループに属することを表すタグ情報を付加することによって行ってもよい。連結された特徴ベクトルは、後段の処理において、1つの数値列として扱われる場合もあるが、個々の部分特徴ベクトルとして評価される場合もあるので、連結点の情報を保持しておくとよい。また、合成部分特徴は、後段の処理で、登録パターンから生成されたものと、入力パターンから生成されたものが対応付けられて処理される場合があるので、その対応がつくように合成部分特徴を識別可能なようにする識別子を付加するとよい。
<合成部分特徴評価部64について>
次に、合成部分特徴評価部64について、図6(a)を用いて説明する。合成部分特徴ベクトル取得部81は、部分特徴合成部63から、合成部分特徴を取得する。合成部分特徴評価パラメータ保持部82は、後述の部分特徴数量計測部83、合成部分特徴尤度算出部84で用いるパラメータ群を保持している。パラメータの詳細については、別途説明する。
部分特徴数量計測部83は、1つの合成部分特徴に含まれる部分特徴が、所定の基準を満たしているか否か判定し、所定の条件を満たしている部分特徴の数量を計測する。部分特徴数量計測部83が行う処理の詳細については後述する。
合成部分特徴尤度算出部84は、合成部分特徴の尤度を算出する。この合成部分特徴の尤度を算出するための処理についての詳細は後述する。合成部分特徴評価値算出部85は、部分特徴数量計測部83が計測した結果と、合成部分特徴尤度算出部84が求めた合成部分特徴の尤度と、を用いて、合成部分特徴の評価値を算出する。この評価値を算出するための処理の詳細についても後述する。
合成部分特徴は複数あってもよいので、この評価値を算出する為の処理では、複数ある合成部分特徴のそれぞれに対する評価値を1つの値に統合する処理も行う。例えば、全ての合成部分特徴に対する評価値の平均や、評価値の高い順に上位から所定個数の評価値の平均、等を最終的な評価値として出力する。
次に、合成部分特徴評価部64が行う処理について、図7(a)を用いて説明する。先ず、ステップS1401では、合成部分特徴ベクトル取得部81は、部分特徴合成部63から、合成部分特徴(合成部分特徴ベクトル)を取得する。合成部分特徴ベクトルは、登録パターンから生成されたものと、入力パターンから生成されたものがあるが、ここでは、登録と入力とで対応する合成部分特徴をそれぞれ取得する。
次に、ステップS1402では、部分特徴数量計測部83は、合成部分特徴評価パラメータ保持部82から、評価用のパラメータを取得する。評価用のパラメータは、後段の処理で使われるパラメータであり、例えば、閾値などの数値データや、登録パターンの部分特徴と、対応する入力パターンの部分特徴とを評価するための評価関数などがある。なお、これらパラメータは、部分特徴ごとに設定されていてもよいし、同一の合成部分特徴に属する部分特徴で共通のものであってもよい。
次に、ステップS1403では、部分特徴数量計測部83は、ステップS1402で取得したパラメータを参照して、合成部分特徴ベクトルに属する部分特徴の評価を行い、所定の条件を満たす部分特徴の数量を計測する。本ステップにおける処理の詳細については後述する。
次に、ステップS1404では、合成部分特徴尤度算出部84は、合成部分特徴の尤度を算出する。合成部分特徴の尤度については、予め機械学習を用いて定めることもできるが、入力パターンと登録パターンの対応する合成部分特徴に応じて、動的に算出することもできる。この合成部分特徴の尤度を算出するための処理についての詳細は後述する。
次に、ステップS1405では、合成部分特徴評価値算出部85は、部分特徴数量計測部83が計測した結果と、合成部分特徴尤度算出部84が求めた合成部分特徴の尤度と、を用いて、合成部分特徴の評価値を算出する。この評価値を算出するための処理の詳細についても後述する。
そして、全ての合成部分特徴についてステップS1401〜ステップS1405の処理を行ったのであれば、処理はステップS1406を介して本処理を終了するし、行っていないのであれば、処理はステップS1406を介してステップS1401に戻る。
<ステップS1403における処理の詳細について>
次に、ステップS1403における処理の詳細について、図7(b)を用いて説明する。先ず、ステップS1501では、部分特徴数量計測部83は、ステップS1402で取得したパラメータを参照して、部分特徴の評価を行う。ここでは、評価の一例として、登録パターンの部分特徴と、対応する入力パターンの部分特徴と、の類似度を用いる方法を説明する。ここで類似度θは、例えば、部分特徴ベクトル間の内積によって求めることができる。より具体的には、以下の式で計算することができる。
Figure 0005424819
ここで、uおよびvは、それぞれ登録パターンおよび入力パターンから生成した部分特徴ベクトルを表わす。lは特徴ベクトルの次元数を表わす。なお、類似度については他の求め方も考えられ、例えば、特徴ベクトル間の正規化相関を類似度として用いてもよいし、特徴ベクトル間の距離を類似度として用いてもよい。
次に、ステップS1502では、部分特徴数量計測部83は、このようにして求めた類似度を評価する。具体的には、例えば、ステップS1501で求めた類似度が所定の閾値を超えているか否かを判定する。
同一合成部分特徴に含まれる全ての部分特徴についてステップS1501,S1502の処理を行った場合、処理はステップS1503を介してステップS1504に進み、行っていない場合は、処理はステップS1503を介してステップS1501に戻る。
ステップS1504では、部分特徴数量計測部83は、類似度が所定の基準を超えた部分特徴の数量を計測する。典型的には、閾値を超えた部分特徴の個数を数えればよい。数量nの計測処理において、部分特徴の集計関数を以下のように定義することもできる。
Figure 0005424819
Figure 0005424819
ここで、mは同一合成部分特徴内にある部分特徴の個数、ωは閾値を示す。このようにすることにより、閾値近傍にある部分特徴を考慮して部分特徴の数量を測定することができる。
<合成部分特徴尤度算出部84について>
次に、合成部分特徴尤度算出部84について、図6(b)を用いて説明する。部分特徴ベクトル情報取得部91は、合成部分特徴ベクトルの構成要素である部分特徴ベクトルの情報を、合成部分特徴ベクトル取得部81から取得する。この取得する情報は、具体的には、部分特徴ベクトルの次元数、切り出しもとのパターン上での空間的な位置や、大きさ、特徴ベクトル変換方法や付随するパラメータ情報などである。パラメータ情報は、特徴ベクトル変換方式がPCAである場合、次元削減数や累積寄与率、PCAの学習に用いたデータ数などがあげられる。この取得する情報は、部分合成特徴のデータと共に合成部分特徴ベクトル取得部81が取得したものである。
部分特徴ベクトル統計情報取得部92は、部分特徴ベクトル情報取得部91が取得した情報を元に、その統計情報を取得する。統計情報を取得するための処理の詳細については後述する。
統計情報保持部93は、上記統計情報を保持する。なお、統計情報保持部93は、予め装置外で求められた統計情報を保持するようにしてもよい。尤度算出部94は、部分特徴ベクトル統計情報取得部92から得られた情報を元に、合成部分特徴ベクトルの尤度を算出する。具体的な処理の内容は、後述する。
次に、合成部分特徴尤度算出部84が行う処理について、図8(a)を用いて説明する。先ず、ステップS1701では、部分特徴ベクトル情報取得部91は、合成部分特徴ベクトルの構成要素である部分特徴ベクトルの情報を、合成部分特徴ベクトル取得部81から取得する。ここで、部分特徴ベクトルの情報とは、上述したような、部分特徴ベクトルの切り出し元であるパターン上での空間的な位置や、大きさなど様々な情報が考えられる。
次に、ステップS1702では、部分特徴ベクトル統計情報取得部92は、部分特徴ベクトル情報取得部91が取得した情報を元に、その統計情報を取得する。そしてステップS1703では、尤度算出部94は、部分特徴ベクトル統計情報取得部92から得られた統計情報をもとに、合成部分特徴の尤度を算出する。ここでは、一例として、部分特徴ベクトルの情報が、切り出し元のパターン上での空間的な位置と大きさを示し、取得する統計情報がその分散である場合について説明する。部分特徴ベクトルの位置と、大きさについてそれぞれ、以下の式に従って分散を求める。
Figure 0005424819
Figure 0005424819
ここでlは、合成部分特徴に含まれる部分特徴の数、vおよびvはそれぞれ部分特徴の切り出し位置とその平均、sおよびsはそれぞれ、部分特徴の大きさとその平均、を表す。そして、上記の統計情報から、合成部分特徴の尤度を以下の式で求めることができる。
Figure 0005424819
このように、部分特徴の位置と大きさの分散の平均を、合成部分特徴の尤度とすることによって、以下のような効果が期待できる。すなわち、合成部分特徴を構成する部分特徴の付帯情報(位置、大きさ)の分散が大きいほど、さまざまな尺度で、識別対象のパターンを観測していることになり、その合成部分特徴の妥当性が高いことを直接的に表現できる。識別対象パターンが画像中の人物の顔である場合、目の近傍だけで判定するよりも、口や鼻などの近傍も同時に判定に用いたほうが、妥当性が高いと考えられる。
部分特徴ベクトルの空間的な情報ではなく、特徴ベクトルの変換に関するパラメータの分散を、尤度にしてもよい。具体的には、部分特徴ごとに次元圧縮率(PCAの累積寄与率)が異なる場合、その次元圧縮率の分散を尤度にしてもよい。
また、特徴ベクトルの抽出方法の違いを、尤度にしてもよい。もっとも単純には、抽出方法の種類をそのまま尤度として用いる。例えば、合成部分特徴内の部分特徴がすべて輝度画像から抽出されている場合は、尤度1とし、複数の方法、例えば、輝度画像とガボアフィルタをかけた画像から抽出している場合は、尤度2などとすればよい。
また、尤度を予め学習データから定めておいてもよい。部分特徴ごとの学習データに対する識別性能を予め計測して統計情報保持部93に格納し、それらの平均を合成部分特徴の尤度とすることもできる。また、部分特徴の分散から求めた尤度と、学習データから求めた尤度とをあわせて、合成部分特徴の尤度として算出してもよい。
<合成部分特徴評価値算出部85が行う処理について>
合成部分特徴評価値算出部85が行う処理について、図8(b)を用いて説明する。先ず、ステップS1801では、合成部分特徴評価値算出部85は、部分特徴数量計測部83から合成部分特徴ベクトルを取得する。次に、ステップS1802では、合成部分特徴評価値算出部85は、部分特徴数量計測部83が計測した結果をこの部分特徴数量計測部83から取得する。次に、ステップS1803では、合成部分特徴評価値算出部85は、合成部分特徴尤度算出部84が求めた合成部分特徴の尤度を、この合成部分特徴尤度算出部84から取得する。次に、ステップS1804では、合成部分特徴評価値算出部85は、以下の式7に基づいて、合成部分特徴の評価値を算出する。
Figure 0005424819
ここで、nは部分特徴数量の計測結果であり、σは合成部分特徴の尤度である。このようにすることにより、合成部分特徴に属する部分特徴が所定の基準を満たす数量の違いで、評価値を大きく変化させることができる。部分特徴の組み合わせで識別を行う効果は、複数の部分特徴が基準を満たしている状態の評価値を、1つだけが満たしている状態の評価値と大きく差をつけることにある。人物の顔を識別する例で説明すると、他人同士でも、照明条件や表情の変動などで偶然に部分特徴が一致する場合は考えられるが、それが同時に複数の部分特徴で一致する確率は低いと考えられる。言い換えると、複数の部分領域が同時に一致している場合は、1つが一致している場合よりも、登録パターンと入力パターンとが同じクラスに属している可能性がより高まる。このような期待から、複数の部分特徴が基準を満たしている状態を、その数量で代表させ、識別に用いる。
評価に数量を用いることで、より変動に対してロバストな識別が行える可能性がある。例えば、上記式7の代わりに、例えば、以下のような評価関数を用いることもできる。
Figure 0005424819
ここでrは、登録パターンと入力パターンとで対応する部分特徴の類似度であり、wは、重み付き和を取るための各類似度の重みである。このようにした場合、重みの大きい類似度が、照明変動などの影響で、期待される値と異なった場合、評価値への影響も大きくなる。それに対して、式7のように数量で代表させることによって、特定の部分特徴の重みが大きくなることが回避され、結果として、変動に対してロバストになると期待される。また、合成部分特徴の尤度を乗じることで、複数ある合成部分特徴間に重みづけを行うことができる。
式7や式8による評価値の算出は、あくまでひとつの例であり、これ以外の表現も当然考えられる。例えば、部分特徴の数量nの多項式でもよい。また、直接部分特徴の数量nを用いるのではなく、合成部分特徴に含まれる部分特徴の数lで割ることによって正規化してから用いてもよい。このようにすることにより、複数の合成部分特徴間で、含まれる部分特徴にばらつきがある場合でも、各合成部分特徴の評価値のレベルを一定にすることができる。
本実施形態の本質は、部分特徴の数量nに応じて合成部分特徴の評価値が定められることにある。実際の合成部分特徴の評価関数は、識別したいカテゴリに応じて最適なものを選択すればよく、ここでの説明に用いた関数形に限定するものではない。
合成部分特徴が複数ある場合は、これらを統合し、1つの値として出力する。統合の方法としては、最も単純には、それらの平均が考えられる。式7や式8などで求められた評価値の平均を最終的な出力値とする。また、尤度の高いものだけを用いるようにしてもよい。また、平均を取る前に、各合成部分特徴の尤度が高いものだけを選択し、それらだけで平均を取るようにしてもよい。
<部分特徴および合成部分特徴の学習方法について>
次に、部分特徴を組み合わせて合成部分特徴を生成するためのパラメータの学習に、AdaBoostを用いた場合の手順について説明する。なお、この処理は予めオフラインで行うことができるので、必ずしも画像処理装置内で行う必要はない。そして何れにせよ、学習されたパラメータは、部分特徴合成パラメータ保持部72に格納される。また、ここで説明する処理は、概ね公知の技術に関するものなので、本実施形態に係る部分(本質に関連する部分)以外は、適宜省略する。
先ず、部分領域の学習処理の一例について、図8(c)を用いて説明する。なお、上述の通り、係る処理の主体は画像処理装置であっても良いし、他の装置であっても良い。まず、ステップS1901では、学習データを取得する。人物の顔を扱う場合は、学習データとして、個人の識別子を表すラベルのついた顔を含む画像を多数用意する。その際、1人あたりの画像数が十分用意されていることが望ましい。照明変動や、表情の変動に頑健な部分特徴および特徴ベクトルの変換方法を学習するためには、学習データに上記変動を十分含んだサンプルを用意することが重要である。これにより、ラベルつきの顔画像から、個人の顔の変動を表すデータ(intra-classに属するデータ)と、他人間の顔の変動を表すデータ(extra-classに属するデータ)の2種類のデータを生成することができる。即ち、同じラベルが付いた顔画像同士からintra-classのデータ、異なるラベルが付いた顔画像同士からは、extra-classのデータを作ることができる。
次に、ステップS1902では、弱仮説の選択処理を行う。弱仮説は、本実施形態における部分特徴の組み合わせ(合成部分特徴)に対応付けることができる。即ち、空間的な位置や、大きさ、特徴ベクトルの変換方法、次元削減数等、部分特徴に関するパラメータが異なる部分特徴を予め多数用意しておく。そして、それらパラメータの異なる部分特徴の組み合わせを、弱仮説に対応付け、AdaBoostのフレームワークで選択する。また、部分特徴の組み合わせの他に、合成部分特徴の評価方法も1つのパラメータとして考えることもできる。すなわち、合成部分特徴が同じ部分特徴で構成されていても、式7や式8に代表される評価関数が異なれば、違う弱仮説として扱うこともできる。
そして、部分特徴と評価に関するパラメータの組み合わせの数だけ、弱仮説を用意しておき、ステップS1901で取得した学習データに対して、AdaBoostの枠組みに沿って、もっとも性能のよい弱仮説を選択する。すなわち、部分特徴の組み合わせとその評価方法が、学習データに対して最適なものを選択する。性能評価を行うための具体的な手順は、合成部分特徴評価部64に係る説明で述べた例のようにするとよい。同一ラベルの人物間(画像は異なる)と、異なるラベルの人物間とで、それぞれ正しい識別結果になっているか判定し、学習データの重み付き誤り率を求める。
そして、ステップS1903では、もっとも性能のよい弱仮説を選択した後、その弱仮説の学習データに関する識別結果をもとに、学習データの重み付けを更新する。そして次に、弱仮説数が所定数に達しているか否かを判定する。係る判定の結果、所定数に達していると判定した場合、本処理は終了する。一方、所定数に達していないと判定した場合には、処理はステップS1902に戻り、新たな弱仮説の選択を行う。
なお、重みつき誤り率の算出や、学習データの重み付けの更新方法など、AdaBoostによる学習の詳細な手順は、下記の文献等に記載されている方法を適宜参照すればよい。
Viola & Jones (2001) "Rapid Object Detection using a Boosted Cascade of Simple Features", Computer Vision and Pattern Recognition.
また、複数部分特徴の組み合わせを作る際に、遺伝的アルゴリズム(GA)などの最適化手法を適用するようにしてもよい。この場合、弱仮説を、AdaBoostの手続きに入る前に予め全て用意するのではなく、弱仮説を選択しながら、動的に候補を構築していく。すなわち、予め一部用意された弱仮説の候補(例えば、ランダムに部分特徴を組み合わせるなどして生成しておく)から、性能の良いものを選択しておくようにする。そして、その性能の良いもの同士を組み合わせながら、新しい弱仮説の候補を生成し、性能を評価していく。このようにすることにより、弱仮説の候補を効率的に絞り込むことが出来る。以上のようにして、学習時間の増加を抑えるようにするとよい。
部分特徴のみを弱仮説にして、AdaBoostで選択し、部分特徴の組み合わせは、別の枠組みで選択するようにしてもよい。例えば、部分領域の組み合わせを多数作り、合成部分特徴尤度算出処理の例で説明した方法で尤度を評価し、尤度の高いものを選択するようにするとよい。また、それらを尤度の高いものを、新たな弱仮説として、AdaBoostの枠組みで選択してもよい。このようにすることにより、組み合わせ数の爆発で学習時間が膨大になってしまう問題に対処することができる。これにより、部分特徴に関するパラメータとそれらの組み合わせ、および評価方法に関するパラメータを、学習データを評価して決定することができる。
[第2の実施形態]
本実施形態は、第1の実施形態と比して、パターン登録部5、入力パターン識別部6のそれぞれにおける処理内容が異なる。具体的には、第1の実施形態では、パターンの属性は考えなかったのに対し、本実施形態では、パターンの属性を推定し、パターンの属性に応じた合成部分特徴の設定を行う。
なお、以下では、本実施形態が第1の実施形態と異なる点のみについて説明する。本実施形態に係る画像処理装置は、図1(a)に示した構成において、パターン登録部5、入力パターン識別部6をそれぞれ、パターン登録部105、入力パターン識別部106に置き換えた構成を有する。然るに、以下では、このパターン登録部105、入力パターン識別部106について説明する。また、以下では説明の便宜上、識別対象となるパターンを、画像中の人物の顔としているが、以下の説明が人物の顔以外のパターンに適用可能であることは言うまでもない。
<パターン登録部105について>
先ず、本実施形態に係るパターン登録部としてのパターン登録部105について、図9(a)を用いて説明する。図9(a)に示す如く、パターン登録部105は、図1(b)に示した構成に、登録パターン属性推定部114を加えた構成を有する。
登録パターン属性推定部114は、画像記録部4から取得した画像データから、パターンの属性を推定する処理を行う。推定を行う具体的な属性は、パターンが特定のオブジェクトである場合、そのオブジェクトの大きさ、姿勢・向き、照明条件などが含まれる。パターンが特定のオブジェクト、より具体的には人物の顔である場合、顔の器官位置を検出する。具体的には、目、口、鼻等の構成要素の端点を検出する。端点を検出するアルゴリズムは、例えば、特許第3078166号に記載の畳み込み神経回路網を用いた方法などを用いることができる。端点は、左右の目、口の両端点、鼻等、個人の特徴を現すと考えられる部位を予め選択しておく。顔器官の端点の位置関係を、その属性として検出する。また、他の属性として、人物の年齢、性別、表情、などの属性を推定してもよい。これらの属性推定には公知の技術を用いることが出来る。例えば、特開2003−242486号公報に開示されているような方法を用いることで、人物の属性を推定することができる。
学習データを変えることによって、上記の方法で、人物だけでなく、一般の物体についても検出することができる。それによって、人物の顔にある顔器官以外の要素、例えば、メガネや、マスク、手など、オクリュージョンとなる物体を検出することもできる。上記のようなオクリュージョンがある人物の顔として、その属性に含めて考えることができる。
属性推定に、カメラパラメータを用いるようにしても良い。例えば、撮像制御部3から、撮像制御用のAE(自動露出)、AF(自動焦点)に関するパラメータを取得することによって、照明条件などの属性を精度良く推定することが可能になる。ここで、カメラパラメータの具体例として、露出条件、ホワイトバランス、ピント、オブジェクトの大きさなどがあげられる。たとえば、露出条件およびホワイトバランスと、肌色成分領域に対応する色成分の対応表を予め作成し、ルックアップテーブルとして保持しておくことで、撮影条件に影響されないオブジェクトの色属性を推定することができる。また、被写体であるオブジェクトまでの距離をAFなどの距離測定技術を用いることによって測定し、オブジェクトの大きさを推定することが出来る。より詳細には、以下の式に従ってオブジェクトの大きさを推定することができる。
Figure 0005424819
ここで、sはオブジェクトの画像上での大きさ(ピクセル数)、fは焦点距離、dは撮像部2からオブジェクトまでの距離、Sはオブジェクトの実際の大きさ、である。ただし、d>fであるとする。このように、撮影条件に影響されないオブジェクトの大きさを属性として推定することが可能になる。
登録パターン属性推定部114で推定されたパターンの属性を示す属性情報は、登録パターン辞書生成部21から出力される登録パターン辞書データと共に、登録パターン辞書データ保持部22に格納される。
登録パターン辞書データ生成部21が行う処理も、第1の実施形態とは若干異なる。ここで、本実施形態に係る登録パターン辞書データ生成部21が行う処理について、図10(a)を用いて説明する。
先ず、ステップS2101では、登録パターン属性推定部114から属性情報を取得する。取得する属性情報は、パターンが人物の顔である場合、典型的には、人物の顔の器官位置およびその端点の情報である。
次に、ステップS2202では、ステップS2101で取得した属性情報を用いて、顔画像に対して、特徴ベクトル取得位置を設定する。特徴ベクトルの取得位置設定は、具体的には以下のようにする。
まず、属性情報として取得した顔器官の複数端点のうち、所定の1点を基準点として設定する。さらに他の少なくとも2つの端点間の距離を測り、その2点間距離の所定倍の長さだけ基準点から離れた所に部分領域を設定する。基準点からの方向も予め定められた値を用いる。ここで、基準点となる端点、距離の基準となる2点、2点間距離の何倍かを決める定数、基準点からの方向などは、予め学習によって決めることができる。これらのパラメータの学習は、部分特徴のパラメータの中に含めることによって、第1の実施形態で説明したAdaBoostを用いた部分領域の選択方法によって実現することができる。ステップS2103、S2104はそれぞれ、図3(a)に示したステップS502、S503と同じであるので、係る説明は省略する。
<入力パターン識別部106について>
次に、入力パターン識別部106について、図9(b)を用いて説明する。図9(b)に示す如く、入力パターン識別部106は、図4(a)に示した構成において、入力パターン識別演算部43を入力パターン識別演算部123に置き換えると共に、入力パターン属性推定部124を加えた構成を有する。入力パターン属性推定部124は、登録パターン属性推定部114と同様の処理を行う。
入力パターン識別用データ生成部41は、画像記録部4から画像データを取得すると共に、入力パターン属性推定部124からの推定結果を用いて、特徴ベクトルおよびその変換処理を行う。パターン登録部105側での処理とほぼ同じになるので、その説明は省略する。
入力パターン識別演算部123は、入力パターン識別用データ生成部41、登録パターン辞書データ取得部42、入力パターン属性推定部124、からの入力を元に、入力パターンの識別処理を行う。本実施形態に係る入力パターン識別演算部123が行う処理の詳細については後述する。
登録パターン辞書データ取得部42は、入力パターン識別演算部43からのリクエストに基づいて、パターン登録部105中の登録パターン辞書データ保持部22より、登録パターン辞書データを取得する。
<入力パターン識別演算部123>
次に、入力パターン識別演算部123について、図11を用いて説明する。入力パターン識別演算部123は、図4(c)に示した構成において、部分特徴合成部63、合成部分特徴評価部64をそれぞれ部分特徴合成部133、合成部分特徴評価部134に置き換えると共に、入力パターン属性取得部137を加えた構成となっている。入力パターン属性取得部137は、入力パターン属性推定部124から属性情報を取得する。部分特徴合成部133、合成部分特徴評価部134のそれぞれの構成については第1の実施形態と同様であるが、実行する処理が若干異なる。
<部分特徴合成部133が行う処理について>
次に、部分特徴合成部133が行う処理について、図10(b)を用いて説明する。先ず、ステップS2401では、第1の実施形態と同様にして、登録パターン辞書データまたは入力パターン識別用データから、部分特徴ベクトルを取得する。
次に、ステップS2402では、第1の実施形態と同様にして、部分特徴合成パラメータを取得する。ここで取得するパラメータは、後段の部分特徴ベクトルを連結する処理に関するパラメータと、同じく後段で取得する入力パターンの属性を用いた処理に関するパラメータである。
次に、ステップS2403では、属性情報を取得する。この取得する属性情報は、パターンが人物の顔である場合、典型的には、顔の向きや、大きさ、表情、または撮像時の照明条件、などである。
次に、ステップS2404では、取得した属性情報を用いて、連結する対象の特徴ベクトルを決定する。そしてステップS2405では、この決定した特徴ベクトルを連結して最終的な合成部分特徴として出力する。
連結対象の特徴ベクトルを決定する際に属性情報を用いる方法としては、予めパターンの属性別にパラメータを決めておき、それに応じて決定する方法が挙げられる。例えば、人物の顔の例で説明すると、顔が真横を向いている場合には、片方の目しか見えないので、見えていない部分の切り出し位置に対応する特徴ベクトルは連結対象からはずせばよい。
入力パターンと登録パターンとで、属性が大きく異なるような場合に対応するため、その属性の変化に影響を受けにくい特徴ベクトルの組み合わせを作るようにするとよい。属性の変化に影響を受けにくい特徴ベクトルは、学習によって予め定めることができる。典型的には、以下のような手順で行う。
すなわち、第1の実施形態のAdaBoostを用いたパラメータの学習方法において、予め学習データを、属性別、例えば、同じ顔の向きや、同じ表情をしたものに分類しておく。顔の向き別にいくつか学習サンプルを用意し、AdaBoostで特徴ベクトルを選択し、複数の顔向きで共通な特徴ベクトルが選択された場合、その特徴ベクトルは属性変化に影響を受けにくいと言える。また、予め属性別に学習データを用意しておいて、部分特徴の組み合わせをAdaBoostで選択するようにしておいてもよい。
<合成部分特徴評価部134について>
次に、合成部分特徴評価部134について説明する。合成部分特徴評価部134が行う合成部分特徴評価処理は、合成部分特徴尤度算出処理と合成部分特徴評価値算出処理において、パターンの属性情報を用いる点が第1の実施形態と異なる。以下、それぞれの処理について、主に第1の実施形態と異なる点について説明する。
<合成部分特徴尤度算出処理について>
合成部分特徴の尤度を算出する際に、パターンの属性情報を利用する方法について説明する。第1の実施形態では、合成部分特徴の尤度を、合成部分特徴内に含まれる部分特徴の統計量、より具体的には、位置や大きさなどのパラメータの分散を用いた。これに、パターンの属性情報を組み合わせると、より尤度そのものの信頼性を向上できると期待される。
これを実現する1つの方法として、登録パターンと入力パターンとの属性情報の差異を利用するとよい。より具体的には、例えば人物の顔において、属性として顔の向きがわかった場合、尤度ηを以下の式のように定義する。
Figure 0005424819
ここで、σは、式6で求められるような、パターンの属性情報以外の情報から求められる尤度である。A、Aは、それぞれ登録パターンの顔向き角度、入力パターンの顔向き角度を表わす。式10に従って尤度を求めることにより、登録パターンと入力パターンとの間の属性の差が大きい場合、合成部分特徴の尤度を低くすることができる。顔向きだけでなく、表情の差を数値化し、式10のように計算してもよい。
一般に、登録パターンと入力パターンの条件(属性)が大きく異なると、対応する部分特徴の信頼性は下がると考えられる。属性情報を数値化し、その差が大きくなると尤度が下がるようにすると、より尤度に妥当性を持たせることができる。
また、属性情報に応じて、部分特徴ごとに尤度を予め求めておき、それら尤度の平均を合成部分特徴の尤度としてもよい。この場合、予め同じ属性をもつ学習サンプルで部分特徴を性能評価し、属性情報と部分特徴の尤度の関係を求めておく。
<合成部分特徴評価値算出処理>
合成部分特徴評価値を算出する際に、パターンの属性情報を利用する方法について説明する。第1の実施形態では、1つの合成部分特徴の評価値を、以下の手順で求めた。即ち、合成部分特徴に属する部分特徴のうち、所定の基準を満たすものの数量を計測し、その数量を所定の評価関数、具体的には、指数関数や多項式などで変換した値を、評価値とした。さらに、複数ある合成部分特徴の評価値を、上記のようにして求めた評価値の平均や、所定の基準を超えたものだけでの平均として、最終的な出力としていた。
これに対し、本実施形態では、パターンの属性情報に応じて、最終的な評価値の算出に用いる合成部分特徴を変える。どの合成部分特徴の値を使うかは、予め学習で決めておくことができる。パターンの属性別に学習サンプルを分類しておき、判定に有効な合成部分特徴をAdaBoostなどの手法を用いて、選択しておく。このようにすることにより、パターンの属性と判定に有効な合成部分特徴の対応関係を求めることができる。選択するのではなく、重みを求めておいて、合成部分特徴の評価値の重み付き和を求めてもよいが、その際の重みは、合成部分特徴尤度算出部より取得した、パターンの属性による尤度を用いるとよい。

Claims (15)

  1. 入力パターンと、予め登録されているパターンとしての登録パターンと、で対応する部分特徴を抽出する抽出手段と、
    前記部分特徴の組み合わせを合成部分特徴として複数、生成する合成手段と、
    前記複数の合成部分特徴を用いて、前記入力パターンが、それぞれの登録パターンが属するクラスの、どのクラスに対応するかを識別する識別手段と
    を備え、
    前記識別手段は、
    前記合成部分特徴に属し且つ前記入力パターンと前記登録パターンとで対応する前記部分特徴を評価する評価手段を備え、
    前記評価手段は、前記合成部分特徴の尤度を算出する算出手段を備え、
    前記算出手段は、前記尤度を、前記合成部分特徴に含まれる、前記部分特徴間の統計量を基準に算出し、
    前記識別手段は、前記評価手段による評価結果としての前記尤度に基づいて前記識別を行う
    ことを特徴とする画像処理装置。
  2. 前記基準は、前記入力パターンと前記登録パターンとで対応する部分特徴間の類似性における基準であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記統計量は、前記抽出手段が抽出した前記部分特徴の少なくとも空間的な位置、空間的な大きさを示すパラメータの分散であることを特徴とする請求項に記載の画像処理装置。
  4. 更に、
    前記入力パターンおよび前記登録パターンの属性を推定する推定手段を備え、
    少なくとも、前記抽出手段、前記合成手段、前記評価手段、のいずれか1つは、前記推定手段が推定した属性を用いて処理を行うことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  5. 前記入力パターン、前記登録パターンは何れも、画像中のオブジェクトであって、前記推定手段が推定する属性は、前記オブジェクトの大きさ、向き、照明条件、の何れかを含むことを特徴とする請求項に記載の画像処理装置。
  6. 前記合成手段は、前記部分特徴の空間的な位置、空間的な大きさ、のいずれかを基準にして、前記複数の合成部分特徴を生成することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  7. 前記識別手段は、異なるクラスに属するパターン間の差異を表す特徴のクラスと、同じクラスに属するパターンの変動による差異を表す特徴のクラスとを識別する方法を用いることによって、前記入力パターンの属するクラスを識別することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  8. 前記オブジェクトは人物の顔であり、前記推定手段が推定する属性は、当該人物の性別、年齢、表情、のうち少なくとも1つを含むことを特徴とする請求項に記載の画像処理装置。
  9. 前記オブジェクトは人物の顔であり、前記推定手段が推定する属性は、当該人物の顔器官の位置情報を含み、前記抽出手段は、前記顔器官の位置情報に基づいて前記部分特徴を抽出することを特徴とする請求項に記載の画像処理装置。
  10. 前記合成手段は、前記部分特徴の組み合わせ方に関するパラメータを用いて前記複数の合成部分特徴を生成し、
    前記部分特徴の組み合わせ方に関するパラメータは、予め用意された画像のサンプルから、異なるクラスに属するオブジェクトの間の差異を表す特徴のクラスに属する学習サンプルと、同じクラスに属するオブジェクトの変動による差異を表すクラスに属する学習のサンプルと、を生成し、前記学習サンプルに対して、予め用意した部分特徴の組み合わせを機械学習によって選択することによって定められる
    ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  11. 前記学習は、AdaBoostによって行うことを特徴とする請求項10に記載の画像処理装置。
  12. 前記推定手段は、前記オブジェクトを撮像した際のカメラパラメータを用いて前記オブジェクトの属性を推定することを特徴とする、請求項に記載の画像処理装置。
  13. 前記カメラパラメータは、自動露出、自動焦点、の何れかに係るパラメータであることを特徴とする請求項12に記載の画像処理装置。
  14. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の抽出手段が、入力パターンと、予め登録されているパターンとしての登録パターンと、で対応する部分特徴を抽出する抽出工程と、
    前記画像処理装置の合成手段が、前記部分特徴の組み合わせを合成部分特徴として複数、生成する合成工程と、
    前記画像処理装置の識別手段が、前記複数の合成部分特徴を用いて、前記入力パターンが、それぞれの登録パターンが属するクラスの、どのクラスに対応するかを識別する識別工程と
    を備え、
    前記識別工程は、
    前記合成部分特徴に属し且つ前記入力パターンと前記登録パターンとで対応する前記部分特徴を評価する評価工程を備え、
    前記評価工程は、前記合成部分特徴の尤度を算出する算出工程を備え、
    前記算出工程では、前記尤度を、前記合成部分特徴に含まれる、前記部分特徴間の統計量を基準に算出し、
    前記識別工程では、前記評価工程での評価結果としての前記尤度に基づいて前記識別を行う
    ことを特徴とする画像処理方法。
  15. コンピュータを、請求項1乃至13の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2009253521A 2009-11-04 2009-11-04 画像処理装置、画像処理方法 Expired - Fee Related JP5424819B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009253521A JP5424819B2 (ja) 2009-11-04 2009-11-04 画像処理装置、画像処理方法
US12/914,439 US9070041B2 (en) 2009-11-04 2010-10-28 Image processing apparatus and image processing method with calculation of variance for composited partial features

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009253521A JP5424819B2 (ja) 2009-11-04 2009-11-04 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2011100229A JP2011100229A (ja) 2011-05-19
JP2011100229A5 JP2011100229A5 (ja) 2012-12-20
JP5424819B2 true JP5424819B2 (ja) 2014-02-26

Family

ID=43925509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009253521A Expired - Fee Related JP5424819B2 (ja) 2009-11-04 2009-11-04 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US9070041B2 (ja)
JP (1) JP5424819B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4624889B2 (ja) * 2005-08-30 2011-02-02 富士フイルム株式会社 顔検出方法および装置並びにプログラム
US9554111B2 (en) 2010-03-08 2017-01-24 Magisto Ltd. System and method for semi-automatic video editing
US9189137B2 (en) * 2010-03-08 2015-11-17 Magisto Ltd. Method and system for browsing, searching and sharing of personal video by a non-parametric approach
US9502073B2 (en) 2010-03-08 2016-11-22 Magisto Ltd. System and method for semi-automatic video editing
US8948515B2 (en) * 2010-03-08 2015-02-03 Sightera Technologies Ltd. Method and system for classifying one or more images
JP5671928B2 (ja) * 2010-10-12 2015-02-18 ソニー株式会社 学習装置、学習方法、識別装置、識別方法、およびプログラム
US9183429B2 (en) * 2012-08-15 2015-11-10 Qualcomm Incorporated Method and apparatus for facial recognition
JP6132490B2 (ja) 2012-08-20 2017-05-24 キヤノン株式会社 認証装置、認証方法、およびプログラム
WO2016127218A1 (en) * 2015-02-13 2016-08-18 National Ict Australia Limited Learning from distributed data
CN104866829B (zh) * 2015-05-25 2019-02-19 苏州大学 一种基于特征学习的跨年龄人脸验证方法
US10860887B2 (en) * 2015-11-16 2020-12-08 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognition model
JP6622124B2 (ja) 2016-03-17 2019-12-18 株式会社東芝 算出装置及び認識装置
US10402689B1 (en) 2017-04-04 2019-09-03 Snap Inc. Generating an image mask using machine learning
US10757319B1 (en) * 2017-06-15 2020-08-25 Snap Inc. Scaled perspective zoom on resource constrained devices
US11210498B2 (en) * 2017-06-26 2021-12-28 Nec Corporation Facial authentication device, facial authentication method, and program recording medium
CN112272945A (zh) * 2018-06-11 2021-01-26 松下知识产权经营株式会社 摄像控制装置、摄像控制方法以及程序
TWI669616B (zh) * 2018-08-13 2019-08-21 行政院原子能委員會核能研究所 圓柱狀和圓餅狀數位模型之模擬切割方法
US10956719B2 (en) * 2018-11-30 2021-03-23 Qualcomm Incorporated Depth image based face anti-spoofing
US11475239B2 (en) * 2019-11-21 2022-10-18 Paypal, Inc. Solution to end-to-end feature engineering automation

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0378166A (ja) 1989-08-22 1991-04-03 Nippon Hoso Kyokai <Nhk> データ記録方式
JPH03252782A (ja) * 1990-03-02 1991-11-12 Nec Corp パターン学習装置
JP3298072B2 (ja) * 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
US6463176B1 (en) 1994-02-02 2002-10-08 Canon Kabushiki Kaisha Image recognition/reproduction method and apparatus
JP3078166B2 (ja) 1994-02-02 2000-08-21 キヤノン株式会社 物体認識方法
JPH07249124A (ja) * 1994-03-11 1995-09-26 Dainippon Printing Co Ltd Idカード及びidカードシステム
US5909543A (en) 1994-11-30 1999-06-01 Canon Kabushiki Kaisha Communication conference system and communication conference apparatus
JPH08294100A (ja) 1995-04-20 1996-11-05 Canon Inc 通信端末及び監視システム
JP3658087B2 (ja) 1995-07-04 2005-06-08 キヤノン株式会社 端末装置及び端末装置の制御方法
JPH10336705A (ja) 1997-06-02 1998-12-18 Canon Inc 複眼カメラ
US6704042B2 (en) 1998-12-10 2004-03-09 Canon Kabushiki Kaisha Video processing apparatus, control method therefor, and storage medium
JP4478296B2 (ja) 2000-06-16 2010-06-09 キヤノン株式会社 パターン検出装置及び方法、画像入力装置及び方法、ニューラルネットワーク回路
US7054850B2 (en) 2000-06-16 2006-05-30 Canon Kabushiki Kaisha Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
JP2003242486A (ja) 2002-02-21 2003-08-29 Japan Science & Technology Corp 人物属性推定装置
JP4161659B2 (ja) 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
JP4161766B2 (ja) * 2003-03-28 2008-10-08 松下電器産業株式会社 模様識別装置
JP4537097B2 (ja) * 2004-03-19 2010-09-01 キヤノン株式会社 パターン検出方法及び装置
KR100601957B1 (ko) * 2004-07-07 2006-07-14 삼성전자주식회사 얼굴 인식을 위한 영상간 대응 결정 방법 및 장치, 이를이루기위한 영상 보정 방법 및 장치
US7894666B2 (en) 2004-07-30 2011-02-22 Canon Kabushiki Kaisha Image processing method and apparatus, image sensing apparatus, and program
US20060193520A1 (en) 2005-02-28 2006-08-31 Takeshi Mita Object detection apparatus, learning apparatus, object detection system, object detection method and object detection program
JP2006268825A (ja) 2005-02-28 2006-10-05 Toshiba Corp オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム
JP2006287749A (ja) 2005-04-01 2006-10-19 Canon Inc 撮像装置、及びその制御方法
EP1748378B1 (en) 2005-07-26 2009-09-16 Canon Kabushiki Kaisha Image capturing apparatus and image capturing method
JP4696857B2 (ja) 2005-11-02 2011-06-08 オムロン株式会社 顔照合装置
JP4264663B2 (ja) * 2006-11-21 2009-05-20 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
KR100825756B1 (ko) * 2006-12-05 2008-04-29 한국전자통신연구원 얼굴 특징 추출 방법 및 그 장치
JP4781248B2 (ja) * 2006-12-12 2011-09-28 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム及び記録媒体
JP4845755B2 (ja) 2007-01-30 2011-12-28 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
US20080232696A1 (en) * 2007-03-23 2008-09-25 Seiko Epson Corporation Scene Classification Apparatus and Scene Classification Method
JP4974788B2 (ja) 2007-06-29 2012-07-11 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP4946730B2 (ja) * 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム

Also Published As

Publication number Publication date
US20110103695A1 (en) 2011-05-05
JP2011100229A (ja) 2011-05-19
US9070041B2 (en) 2015-06-30

Similar Documents

Publication Publication Date Title
JP5424819B2 (ja) 画像処理装置、画像処理方法
JP5554987B2 (ja) オブジェクト識別装置及びその制御方法
US8254645B2 (en) Image processing apparatus and method, and program
JP6664163B2 (ja) 画像識別方法、画像識別装置及びプログラム
JP5247480B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
JP5385759B2 (ja) 画像処理装置及び画像処理方法
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
KR20220150868A (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
WO2010004958A1 (ja) 個人認証システム、個人認証方法
JP2013178816A (ja) 画像処理装置、撮像装置、画像処理方法
JP2005056387A (ja) 画像処理装置、撮像装置、画像処理方法
JP5241606B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
JP5787686B2 (ja) 顔認識装置、及び顔認識方法
WO2019111550A1 (ja) 人物照合装置、方法、及び非一時的なコンピュータ可読媒体
JP2012221061A (ja) 画像認識装置、画像認識方法、及びプログラム
JP6166981B2 (ja) 表情解析装置及び表情解析プログラム
JP5653003B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
JP5791361B2 (ja) パターン識別装置、パターン識別方法およびプログラム
JP2012221053A (ja) 画像認識装置、画像認識方法、及びプログラム
JP2012234497A (ja) オブジェクト識別装置、オブジェクト識別方法、及びプログラム
KR101306576B1 (ko) 차분 성분을 고려한 조명 변화에 강인한 얼굴 인식 시스템
JP3841482B2 (ja) 顔画像認識装置
Ren et al. Real-time head pose estimation on mobile platforms
JP2019106111A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131126

R151 Written notification of patent or utility model registration

Ref document number: 5424819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees