JP2014203132A - 情報処理装置、情報処理方法 - Google Patents
情報処理装置、情報処理方法 Download PDFInfo
- Publication number
- JP2014203132A JP2014203132A JP2013076448A JP2013076448A JP2014203132A JP 2014203132 A JP2014203132 A JP 2014203132A JP 2013076448 A JP2013076448 A JP 2013076448A JP 2013076448 A JP2013076448 A JP 2013076448A JP 2014203132 A JP2014203132 A JP 2014203132A
- Authority
- JP
- Japan
- Prior art keywords
- similarity
- images
- target
- information processing
- partial region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】 画像中に写っているオブジェクトをより高精度に識別するための技術を提供すること。
【解決手段】 統合類似度をθ(N)に応じて減少させ、該減少後の類似度を出力する。θ(N)は、N枚の画像中の対象オブジェクトの識別処理を行った場合に、FARとFRRとの比が予め定められた比となるように、該識別処理において対象オブジェクトの特徴ベクトルとの類似度判定に用いる閾値である。
【選択図】 図1
【解決手段】 統合類似度をθ(N)に応じて減少させ、該減少後の類似度を出力する。θ(N)は、N枚の画像中の対象オブジェクトの識別処理を行った場合に、FARとFRRとの比が予め定められた比となるように、該識別処理において対象オブジェクトの特徴ベクトルとの類似度判定に用いる閾値である。
【選択図】 図1
Description
本発明は、オブジェクト識別技術に関するものである。
パターン認識における識別技術、典型的には、画像データ中の被写体であるオブジェクトが、別の画像中の被写体であるオブジェクトと同一のものであると識別する技術として、個人の顔を識別する顔識別技術がある。以下、本明細書では、オブジェクトの識別とは、オブジェクトの個体の違い(例えば、個人としての人物の違い)を判定することを意味する。一方、オブジェクトの検出とは、個体を区別せず同じ範疇に入るものを判定する(例えば、個人を区別せず、顔を検出する)ことを意味するものとする。顔識別における従来の技術例として、特許文献1がある。
上記のような、パターン(具体的には画像中のオブジェクト、より具体的には、人物の顔)の識別を行う装置および方法において、識別性能を低下させる要因として、登録用パターンと認証用パターン間の変動が挙げられる。即ち、識別対象であるオブジェクト(人物の顔)の変動、具体的には、照明条件、向き・姿勢、他のオブジェクトによる隠れや、表情による変動などである。登録用パターンと認証用パターンとで変動が大きくなると、識別性能が大幅に低下してしまう。
この問題に対して、一般的に、予め登録用パターンに十分な変動を含ませることが有効と考えられている。例えば人物の顔の場合、登録人物ごとに、照明条件、向き・姿勢、隠れや表情などによる変動をもつ画像を登録しておけばよい。撮影時に起こりうる条件を予め登録画像に含めておけば、認識精度の向上が期待できる。
しかしながら、予め多数の登録画像を準備することは実用上難しい上に、さらに以下のような問題がある。即ち、登録人物1人当たりの登録画像を増やすと、他人と類似する登録画像が増える確率が高まり、平均的に類似度スコアが高くなってしまう。特に、登録人物ごとに登録画像の枚数にばらつきがあると、登録画像の枚数が多い人物との類似度スコアが平均的に高くなってしまう問題がある。
上記問題に対して、特許文献1では、登録人物の人数に応じて、類似度スコアを調整する方法を提案している。しかしながら、上記のようにした場合、類似度スコアを登録人数に応じて一括で変換するため、上記のように、登録人物で登録画像数にばらつきがある場合には、有効に働かない可能性がある、という課題があった。
本発明はこのような問題に鑑みてなされたものであり、画像中に写っているオブジェクトをより高精度に識別するための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の情報処理装置は、着目オブジェクトのN(Nは自然数)枚の画像のそれぞれから予め抽出された、該画像中の該着目オブジェクトの部分領域ごとの特徴ベクトル、を保持する手段と、前記N枚の画像のそれぞれに対し、該画像から予め抽出されている前記着目オブジェクトの部分領域ごとの特徴ベクトルと、入力画像中のオブジェクトの部分領域ごとの特徴ベクトルと、で対応する部分領域の特徴ベクトル間の類似度を求める算出手段と、前記算出手段が求めた類似度群から1つの類似度を求め、該求めた1つの類似度を、前記N枚の画像中の対象オブジェクトの識別処理の誤り率に基づいて予め設定されている値に応じて減少させ、該減少後の類似度を、前記入力画像中のオブジェクトと、前記着目オブジェクトと、の類似度として出力する出力手段とを備えることを特徴とする。
本発明の構成により、画像中に写っているオブジェクトをより高精度に識別することができる。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
<オブジェクト識別装置の概要について>
本実施形態では、情報処理装置として機能するオブジェクト識別装置は、撮像機能を有し、該撮像機能により撮像した画像中のオブジェクトを識別する撮像装置であるものとして説明する。しかし、以下に説明するオブジェクト識別処理を実現することができるのであれば、オブジェクト識別装置は撮像装置以外の機器であっても良い。先ず、このオブジェクト識別装置の構成例について、図1のブロック図を用いて説明する。
<オブジェクト識別装置の概要について>
本実施形態では、情報処理装置として機能するオブジェクト識別装置は、撮像機能を有し、該撮像機能により撮像した画像中のオブジェクトを識別する撮像装置であるものとして説明する。しかし、以下に説明するオブジェクト識別処理を実現することができるのであれば、オブジェクト識別装置は撮像装置以外の機器であっても良い。先ず、このオブジェクト識別装置の構成例について、図1のブロック図を用いて説明する。
結像光学系1は、ズーム機構を備えた光学レンズで構成され、外界の光は、結像光学系1を介して撮像部2に入光する。なお、結像光学系1は、パン・チルト軸方向の駆動機構を備えてもよい。
撮像部2は、典型的にはCCDやCMOSイメージセンサにより構成され、不図示のセンサ駆動回路からの読出制御信号により、結像光学系1を介して入光した光に応じた映像信号(例えば、サブサンプリング、ブロック読み出しして得られる信号)を出力する。
撮像制御部3は、撮像部2の動作制御を行うものであり、本装置の操作者(撮影者)による操作指示(画角調整指示、シャッター押下など)、オブジェクト登録部5や入力オブジェクト識別部6から得られる情報、を元に、撮像部2の撮影タイミングを制御する。
画像記録部4は、半導体メモリ等で構成され、撮像制御部3によって制御された撮影タイミングで撮像部2から出力された映像信号に基づく画像を撮像画像として記録するためのメモリである。画像記録部4に記録されている画像のデータは、オブジェクト登録部5や入力オブジェクト識別部6からの要求に応じてこれらの機能部に適宜転送される。
オブジェクト登録部5は、画像記録部4に記録されている画像から、該画像中に写っているオブジェクトを識別するための係る各種の情報を抽出し、該抽出した情報を該オブジェクトの辞書データとして記録・保持する。入力オブジェクト識別部6は、オブジェクト登録部5に登録されている辞書データを用いて、画像記録部4に記録されている画像中のオブジェクトを識別する。
なお、オブジェクト登録部5及び入力オブジェクト識別部6は、それぞれ専用回路(ASIC)、プロセッサ(リコンフィギュラブルプロセッサ、DSP、CPUなど)であってもよい。また、単一の専用回路および汎用回路(PC用CPU)内部において実行されるコンピュータプログラムとして実装してもよい。
外部出力部7は、典型的には、CRTやTFT液晶などのモニタであり、撮像部2からの映像信号に基づく映像や、画像記録部4から読み出した撮像画像を表示する。また、この外部出力部7には、オブジェクト登録部5や入力オブジェクト識別部6による処理結果を重畳させて表示してもよい。なお、外部出力部7は、モニタ以外の出力機器であってもよく、外部の機器に対してデータ転送を行う機器であってもよい。
上記の撮像部2、撮像制御部3、画像記録部4、オブジェクト登録部5、入力オブジェクト識別部6、外部出力部7はいずれも、接続バス8に接続されており、これらの機能部はこの接続バス8を介して互いに通信することができる。
次に、オブジェクト識別装置が行う処理の概要について、図2のフローチャートを用いて説明する。以下の説明では、画像中のオブジェクトを識別する処理の一例として、画像中に写っている人の顔が誰の顔であるのかを識別する処理を実行するケースについて説明する。
ステップS200では、入力オブジェクト識別部6は、画像記録部4から処理対象となる画像を読み出す。そしてステップS201では、入力オブジェクト識別部6は、読み出した画像から人の顔を検出する処理を行う。画像から人の顔を検出する処理では、公知の技術を用いればよい。例えば、以下の文献に記されている技術が適用可能である。
P. Viola and M. Jones,“Robust real-time face detection”, pp.747, Eighth International Conference on Computer Vision (ICCV’01) − Volume 2, 2001.
画像から人の顔を検出することができた場合には、処理はステップS202を介してステップS203に進み、検出することができなかった場合には、処理はステップS202を介して終了する。ステップS203では、入力オブジェクト識別部6は、検出した人の顔のうちまだ識別していない顔を1つ選択し、該選択した顔を識別する処理を実行する。
画像から人の顔を検出することができた場合には、処理はステップS202を介してステップS203に進み、検出することができなかった場合には、処理はステップS202を介して終了する。ステップS203では、入力オブジェクト識別部6は、検出した人の顔のうちまだ識別していない顔を1つ選択し、該選択した顔を識別する処理を実行する。
ステップS204では、入力オブジェクト識別部6は、ステップS203で識別した顔が、オブジェクト登録部5に登録済みの人の顔の何れかに該当するか否か(例えば登録済みの顔との類似度が規定値以上か否か)を判断する。この判断結果、オブジェクト登録部5に登録済みのそれぞれの顔のうち、ステップS203で識別した顔に該当するものがあったと判断した場合には、処理はステップS207に進み、該当する顔がなかったと判断した場合には、処理はステップS205に進む。
ステップS205では、オブジェクト登録部5は、ステップS203で識別した顔を登録するか否かを判断する。登録するか否かは予め定められていてもよいし、本装置の操作者が外部インターフェースやGUIなどを操作して、登録するか否かを指示してもよい。いずれにせよ、登録する場合には、処理はステップS206に進み、登録しない場合には、処理はステップS207に進む。ステップS206では、オブジェクト登録部5は、ステップS203で識別した顔を登録する。
ステップS207では、入力オブジェクト識別部6は、ステップS201で検出したすべての顔について識別処理を行ったか否かを判断する。この判断の結果、すべての顔について識別処理を行った場合には、処理はステップS208に進み、まだ識別していない顔が残っている場合には、処理はステップS203に戻る。
ステップS208では、入力オブジェクト識別部6は、すべての顔の識別結果を外部出力部7に対して出力する。出力先はこれに限るものではなく、例えば、適当なメモリであってもよい。
<オブジェクト登録部5>
オブジェクト登録部5の機能構成例について、図3のブロック図を用いて説明する。登録オブジェクト辞書データ生成部21は画像記録部4から読み出した画像から、オブジェクトの個体を識別する為に必要な情報を登録オブジェクト辞書データとして生成し、該登録オブジェクト辞書データを登録オブジェクト辞書データ保持部22に登録する。
オブジェクト登録部5の機能構成例について、図3のブロック図を用いて説明する。登録オブジェクト辞書データ生成部21は画像記録部4から読み出した画像から、オブジェクトの個体を識別する為に必要な情報を登録オブジェクト辞書データとして生成し、該登録オブジェクト辞書データを登録オブジェクト辞書データ保持部22に登録する。
例えば、上記の非特許文献1にあるようなintra-classおよびextra-classの2クラス問題を判別する場合、典型的には、人の顔画像を登録オブジェクト辞書データとすればよい。顔検出処理によって検出された人の顔画像を、大きさや向き(面内回転方向)などを正規化したのち、登録オブジェクト辞書データ保持部22に格納するようにしてもよい。
また、画像そのものではなく、識別時に必要なデータのみを登録オブジェクト辞書データとして保持するようにすることによって、辞書データ量を削減することも出来る。該オブジェクトの部分領域のベクトル相関をとって識別演算を行う場合、予めその部分領域のみを切り出しておけばよい。
このように、適宜必要な情報を画像から抽出し、後述する所定の変換を行った後、オブジェクトの識別を行うための特徴ベクトルを、登録オブジェクト辞書データとして登録オブジェクト辞書データ保持部22に格納する。登録オブジェクト辞書データ生成部21のより詳細な構成及びその動作については、後述する。
登録オブジェクト辞書データ選択部23は、登録オブジェクト辞書データ保持部22から、入力オブジェクト識別部6からの要求に応じた登録オブジェクト辞書データを読み出し、読み出した登録オブジェクト辞書データを入力オブジェクト識別部6に転送する。
<登録オブジェクト辞書データ生成部21>
登録オブジェクト辞書データ生成部21の機能構成例について、図4のブロック図を用いて説明する。部分特徴抽出部30は、画像記録部4から読み出した画像から特徴ベクトルを抽出する処理を行う機能部である。部分領域設定部31は、この読み出した画像に対して、特徴ベクトル抽出部32が特徴ベクトルを抽出する部分領域(より詳しくは部分領域の位置及び範囲)を設定する。部分領域の位置と範囲は、機械学習の方法を用いて予め決めておくとよい。例えば、部分領域の候補を複数設定しておき、該複数候補から、AdaBoostを用いて選択するようにしてもよい。また、部分領域の数は、処理時間などに応じて予め所定の数を決めておくとよい。また、予め用意した学習用サンプルに対して、十分な識別性能を得られる数を計測して決める、などとしてもよい。
登録オブジェクト辞書データ生成部21の機能構成例について、図4のブロック図を用いて説明する。部分特徴抽出部30は、画像記録部4から読み出した画像から特徴ベクトルを抽出する処理を行う機能部である。部分領域設定部31は、この読み出した画像に対して、特徴ベクトル抽出部32が特徴ベクトルを抽出する部分領域(より詳しくは部分領域の位置及び範囲)を設定する。部分領域の位置と範囲は、機械学習の方法を用いて予め決めておくとよい。例えば、部分領域の候補を複数設定しておき、該複数候補から、AdaBoostを用いて選択するようにしてもよい。また、部分領域の数は、処理時間などに応じて予め所定の数を決めておくとよい。また、予め用意した学習用サンプルに対して、十分な識別性能を得られる数を計測して決める、などとしてもよい。
特徴ベクトル抽出部32は、部分領域設定部31が設定した部分領域から、該部分領域内のオブジェクトの特徴ベクトル(部分特徴)を抽出する。該オブジェクトが画像中の人の顔である場合、典型的には、顔を含む画像から、識別に必要なデータを取り出す処理を行う。識別に必要なデータは、部分領域設定部31によって設定された部分領域から、その輝度値を特徴ベクトルの1つとして抽出する。輝度値の特徴ベクトル以外に、オブジェクトの部分領域の位置に対して不変な特徴量もしくは位置の変動に頑健な特徴量、例えば、輝度の頻度分布などを特徴ベクトルとして抽出してもよい。部分領域の位置の変動に不変、もしくは頑健な特徴量として、オブジェクトが含まれる画像をフーリエ変換した位相情報を特徴ベクトルとすることも考えられる。上記のような位置の変動に対してロバストな特徴の他に、画像のエッジ情報を抽出するような、フィルタ演算結果を特徴ベクトルとして抽出してもよい。具体的には、ゾーベルフィルタやガボアフィルタなど代表的な空間フィルタ演算を課した結果を特徴ベクトルとして抽出するとよい。さらに、上記のような空間フィルタによるエッジ情報の頻度分布をとり、それを特徴ベクトルとすることも出来る。頻度分布は、位置の変動に対して比較的頑健であり、エッジ情報に由来する特徴を位置ずれに対して頑健にする効果がある。
特徴ベクトル変換部33は、特徴ベクトル抽出部32によって抽出された特徴ベクトルに所定の変換を施す。特徴ベクトルの変換では、例えば、主成分分析(PCA)による次元圧縮や、独立成分分析(ICA)による次元圧縮などが行われる。また、局所性保存射影(LPP)や、局所フィッシャー判別分析(LFDA)による次元圧縮を行ってもよい。
特徴ベクトルの変換方法にPCAなどを用いた場合、その基底数(特徴ベクトルの次元削減数)や、どの基底を用いるか、などのパラメータが存在する。基底数の代わりに、基底ベクトルに対応する固有値の和、すなわち累積寄与率を指標としてもよい。これらのパラメータを、部分領域ごとに異なったものにすることもできる。実際にどのようなパラメータを設定するかは、予め機械学習によって、精度と処理時間を調整することによって決めることができる。そして特徴ベクトル変換部33は、1つのオブジェクトの各部分領域から抽出した特徴ベクトル群をこのように変換したものを、該オブジェクトの登録オブジェクト辞書データとして、上記の登録オブジェクト辞書データ保持部22に登録する。
特徴ベクトル変換用データ保持部34は、特徴ベクトル変換部33において、特徴ベクトルの変換を行う際に必要なデータや変換パラメータを保持している。ここで、特徴ベクトルの変換に必要なデータや変換パラメータとは、上述のような、基底数(次元削減数)などの設定情報や、予め学習によって求めておいた基底ベクトルの数値データなどである。
次に、特徴ベクトル抽出部32および特徴ベクトル変換部33で行われる処理の一例について、同処理のフローチャートを示す図5を用いて説明する。ステップS10では、特徴ベクトル抽出部32は、部分領域設定部31が設定した部分領域の情報(位置及び範囲を示す情報)を部分領域設定情報として、部分領域設定部31から取得する。
ステップS11では、特徴ベクトル抽出部32は、画像記録部4から画像を読み出す。そしてステップS12では、特徴ベクトル抽出部32は、この読み出した画像中の、部分領域設定情報が示す部分領域から、エッジ情報に関する特徴ベクトルを取得する。ステップS13では、特徴ベクトル抽出部32は、エッジ情報に関する頻度分布を計測し、特徴ベクトルとして取得する。
ここで、エッジ情報とその頻度分布に関する特徴ベクトルは、複数種類のものを抽出するとよい。上述のように、画像に対して複数のフィルタ演算した結果から取得した特徴ベクトルと、その頻度分布を特徴ベクトルとしたものを取得する。典型的には、LBP(Local Binary Pattern)変換や微分エッジ検出などを行う。さらに、LBP変換後の各要素での値の頻度分布(ヒストグラム)を算出し、特徴ベクトルとして取得する。また、輝度勾配画像のヒストグラムをとっても良い。これはHOG(Histogram of Oriented Gradient)と等価になる。このように、エッジ情報とその頻度分布など、性質の異なる複数の特徴量を取得するとよい。後述するように、大きく性質の異なる特徴量を組み合わせて、識別に用いることで、登録オブジェクトと入力オブジェクト間に変動がある場合にも、頑健に対応することが可能になる。
ステップS14では、特徴ベクトル変換部33は、ステップS12及びステップS13で取得した特徴ベクトルに対し、特徴ベクトル変換用データ保持部34から取得した設定に従って所定の変換を行う。すでに述べたように、典型的には、PCAによる次元削減や、ICAによる次元削減、などを特徴ベクトルに対して行う。この際、取得した特徴ベクトルに対して、所定の統計値、典型的には、平均ベクトルや、要素の最大値などを求めておいてもよい。また、部分特徴として、画像から切り出した位置の情報を記録するようにしてもよい。後述するように、辞書として登録されているオブジェクトの部分特徴と、入力画像から抽出したオブジェクトの部分特徴と、の間で対応する部分特徴の比較・評価を行うために、対応関係を示す識別子を記録するようにしてもよい。これらの情報は、登録オブジェクト辞書データ生成部21の出力として、特徴ベクトルとともに出力するようにするとよい。
以上のような処理を行って、部分領域を設定し、該部分領域から特徴ベクトルを抽出した後に、該特徴ベクトルを変換したデータを、登録オブジェクト辞書データ生成部21の出力として、登録オブジェクト辞書データ保持部22に格納する。これにより登録オブジェクト辞書データ保持部22には、画像中のオブジェクトから抽出された特徴ベクトル群(該オブジェクトのそれぞれの部分領域から抽出された特徴ベクトルの集合)を該オブジェクトの登録オブジェクト辞書データとして登録することができる。
<入力オブジェクト識別部6>
入力オブジェクト識別部6の機能構成例について、図6のブロック図を用いて説明する。入力オブジェクト識別用データ生成部41は、画像記録部4から読み出した画像から、オブジェクトの識別に必要な情報の抽出を行う。登録オブジェクト辞書データ取得部42は、オブジェクト登録部5から登録オブジェクト辞書データを取得する。
入力オブジェクト識別部6の機能構成例について、図6のブロック図を用いて説明する。入力オブジェクト識別用データ生成部41は、画像記録部4から読み出した画像から、オブジェクトの識別に必要な情報の抽出を行う。登録オブジェクト辞書データ取得部42は、オブジェクト登録部5から登録オブジェクト辞書データを取得する。
入力オブジェクト識別演算部43は、入力オブジェクト識別用データ生成部41が抽出した情報(識別用データ)と、登録オブジェクト辞書データ取得部42が取得した登録オブジェクト辞書データと、を用いて、画像中のオブジェクトの識別を行う。
次に、入力オブジェクト識別部6が行う識別処理について、同処理のフローチャートを示す図7を用いて説明する。
ステップS20では、登録オブジェクト辞書データ取得部42は、オブジェクト登録部5から登録オブジェクト辞書データを取得する。ステップS21では、入力オブジェクト識別用データ生成部41は、画像記録部4から画像を読み出す。
ステップS22では、入力オブジェクト識別用データ生成部41は、読み出した画像中のオブジェクトから、該オブジェクトの識別に必要なデータ(入力オブジェクト識別用データ)を生成(抽出)する。即ち、入力オブジェクト識別用データ生成部41は、読み出した画像中のオブジェクトのそれぞれの部分領域から特徴ベクトルを抽出し、抽出した特徴ベクトルの集合を、該オブジェクトの入力オブジェクト識別用データとする。このデータ生成処理は、登録オブジェクト辞書データ生成部21が、画像からオブジェクトの個体を識別する為に必要な辞書データを生成する処理と同様である。
ステップS23では、入力オブジェクト識別演算部43は、ステップS22で抽出した入力オブジェクト識別用データと、ステップS20で取得した登録オブジェクト辞書データと、を用いて、画像中のオブジェクトの識別を行う。該識別の結果、出力として、登録済みデータ(辞書データ)との一致/不一致をバイナリ(0もしくは1)で出力する場合と、正規化した出力値を尤度(例えば0〜1の実数値)として出力する場合が考えられる。さらに、登録オブジェクト(登録者)が複数(複数人)ある場合には、それぞれの登録オブジェクト(登録者)に対して尤度を出力しても良いが、最も良く一致した登録オブジェクトに対する結果だけを出力しても良い。また、登録オブジェクトに対する尤度ではなく、登録オブジェクトが属するクラスに対しての尤度を出力してもよい。すなわち、人物の場合には、個々の登録顔画像への結果ではなく、人物のID(名前)に対する尤度を出力するようにする。
<入力オブジェクト識別用データ生成部41>
入力オブジェクト識別用データ生成部41の機能構成例について、図8のブロック図を用いて説明する。参照番号50〜54が付されたそれぞれの機能部は、参照番号30〜34が付された機能部と同様の動作を行うものであるため、これらに関する説明は省略する。
入力オブジェクト識別用データ生成部41の機能構成例について、図8のブロック図を用いて説明する。参照番号50〜54が付されたそれぞれの機能部は、参照番号30〜34が付された機能部と同様の動作を行うものであるため、これらに関する説明は省略する。
<入力オブジェクト識別演算部43>
入力オブジェクト識別演算部43の機能構成例について、図9のブロック図を用いて説明する。ここでは一例として、次のようなケースについて説明する。即ち画像記録部4から読み出した画像中のオブジェクト(入力オブジェクト)の識別をオブジェクト登録部5中の辞書データに対応するオブジェクト(登録オブジェクト)と入力オブジェクトとで対応する部分特徴間の類似性を基に判定する場合について説明する。図9に示した各部により行う処理について、同処理のフローチャートを示す図10を用いて説明する。
入力オブジェクト識別演算部43の機能構成例について、図9のブロック図を用いて説明する。ここでは一例として、次のようなケースについて説明する。即ち画像記録部4から読み出した画像中のオブジェクト(入力オブジェクト)の識別をオブジェクト登録部5中の辞書データに対応するオブジェクト(登録オブジェクト)と入力オブジェクトとで対応する部分特徴間の類似性を基に判定する場合について説明する。図9に示した各部により行う処理について、同処理のフローチャートを示す図10を用いて説明する。
ステップS30では、入力オブジェクト識別用データ取得部61は、入力オブジェクト識別用データ生成部41から入力オブジェクト識別用データを取得する。ステップS31では、登録オブジェクト辞書データ取得部62は、登録オブジェクト辞書データ取得部42から登録オブジェクト辞書データを取得する。
次に、ステップS32では、部分特徴類似度算出部63は、登録オブジェクト辞書データと、入力オブジェクト識別用データと、を比較し、対応する部分領域ごとに特徴ベクトル間の類似度を算出する。類似度は、次のようにして求める。先ず、登録オブジェクト辞書データに登録されているオブジェクトの各特徴ベクトルと、入力オブジェクト識別用データ中の各特徴ベクトルと、で対応する部分領域ごとに特徴ベクトル間のユークリッド距離を求める。そして、求めたユークリッド距離の逆数を類似度とする。また、ユークリッド距離ではなく、特徴ベクトル間の内積を求め、そのなす角を類似度としてもよい。さらに一般的な距離として、以下の数で表されるミンコフスキー距離の逆数を採用してもよい。
d=b√(|x1−y1|a+|x2−y2|a+…+|xn−yn|a ) (1)
ここで、2つの特徴ベクトルx、yはそれぞれn次元であるとする。この際、必要な2つのパラメータa,bは予め、評価用のサンプルで、最も識別性能が良くなるように定めておけばよい。
ここで、2つの特徴ベクトルx、yはそれぞれn次元であるとする。この際、必要な2つのパラメータa,bは予め、評価用のサンプルで、最も識別性能が良くなるように定めておけばよい。
ステップS33で部分特徴類似度算出部63は、次のような判断を行う。即ち、ステップS31で取得した登録オブジェクト辞書データに対応するオブジェクトと同じオブジェクト(同一ID)について登録されている全ての登録オブジェクト辞書データに対して部分領域ごとの類似度を求めたか否かを判断する。例えば、ステップS31で取得した登録オブジェクト辞書データがID=1のオブジェクトの辞書データである場合、ステップS33では、ID=1のオブジェクトの全ての登録オブジェクト辞書データに対して、部分領域ごとの類似度を求めたか否かを判断する。
この判断の結果、求めたと判断した場合には、処理はステップS34に進む。一方、求めていないと判断した場合には、処理はステップS31に戻り、登録オブジェクト辞書データ取得部62は、先に取得した登録オブジェクト辞書データに対応するオブジェクトと同じオブジェクトの未取得登録オブジェクト辞書データを取得する。
ステップS34では、部分特徴類似度統合部64は、ステップS32で求めた類似度群を、部分領域ごとに統合する。例えば、1つのオブジェクトに対して、3つの登録画像(登録オブジェクト辞書データ)があった場合、入力オブジェクトと登録オブジェクトに関して、1つの部分領域について、3つの類似度が求められることになる。この同一部分領域に対する3つの類似度の平均値、最大値、中央値のうち何れか1つを求め、求めた値を該3つの類似度を統合した値とすることで、部分領域類似度単位で類似度を統合することが出来る。さらに、部分特徴類似度統合部64は、部分特徴ごとに統合した類似度を、同様にして1つの類似度に統合し、これを統合類似度として求める。
統合の方法は、例えば、上記のように単純な平均でもよいし、最大値や中央値を取るようにしてもよい。また、類似度が大きい値が上位に来るようにソートして、全体に対して所定の割合で上位にある類似度だけを平均(以下、降順ソート上位平均と呼ぶ)して、統合類似度としてもよい。このようにすることによって、複数枚の登録画像がある場合に、より類似度が高いところだけを用いて統合することが可能になり、認識性能を向上させることができる。
ステップS35では、統合類似度変換部65は、ステップS34で最終的に統合した1つの統合類似度を変換する。ここで、統合類似度の変換は以下のようにして行う。例えばID=1のオブジェクトに対してN枚の登録画像(N個の登録オブジェクト辞書データ)がある場合に、以下の式によって統合類似度から登録画像の枚数に応じた所定値を減じる。
S’=S−θ(N) (2)
ここで、Sは変換前の統合類似度、S’は変換後の統合類似度、θ(N)は、登録画像数(登録オブジェクト辞書データ数)Nに応じて変わる所定値である。統合類似度の変換は以下の式に従って行ってもよい。
ここで、Sは変換前の統合類似度、S’は変換後の統合類似度、θ(N)は、登録画像数(登録オブジェクト辞書データ数)Nに応じて変わる所定値である。統合類似度の変換は以下の式に従って行ってもよい。
S’=S/θ(N) (3)
このように、統合類似度は、θ(N)の値が大きいほどより小さい値に変換される。θ(N)はNが決まると一意に値が決まる関数(テーブル)であり、このθ(N)の決定方法については後述する。
このように、統合類似度は、θ(N)の値が大きいほどより小さい値に変換される。θ(N)はNが決まると一意に値が決まる関数(テーブル)であり、このθ(N)の決定方法については後述する。
ステップS31〜S35の処理が、オブジェクト登録部5に登録されている全ての登録オブジェクト辞書データについて行われた場合(すべての登録オブジェクト辞書データについて統合類似度を求めた場合)には、処理はステップS36を介して終了する。一方、ステップS31〜S35の処理が、オブジェクト登録部5に登録されている全ての登録オブジェクト辞書データについて行われていない場合には、処理はステップS36を介してステップS31に戻る。そして登録オブジェクト辞書データ取得部62は、未取得の登録オブジェクト辞書データをオブジェクト登録部5から取得し、以降の処理を行う。
以上の処理により、オブジェクト登録部5に登録されているそれぞれの登録オブジェクト(実際には該登録オブジェクトに対する1以上の辞書データ)に対して変換済み統合類似度を求めることができる。
また、上記のように、同一オブジェクトに対する登録画像数に応じて変換を行うことによって、登録画像数のばらつきがある場合に、類似度も登録画像数に依存して、ばらついてしまうことを防ぐことが出来る。
一般的に、登録画像が多いオブジェクトの類似度は、それと異なるオブジェクトであっても、たまたま似てしまう確率が高まり、結果的に他の登録画像が少ないオブジェクトより類似度が高めに出てしまう確率も高まる。さらに、上記例で説明したように、部分領域ごとの類似度を、複数登録画像をまたいで最大値をとって統合する方式を用いた場合、この傾向はより顕著となる。即ち、登録画像の多いオブジェクトの方が、より大きい類似度をもつ部分領域を用いて判定する確率が高まり、登録枚数の少ないオブジェクトとの類似度より、値が高めになる傾向が強まる。
このような現象を防ぐために、上記のように登録枚数に応じて、類似度を適切に変換することによって、登録枚数が多いオブジェクトでも、少ないオブジェクトでも公平な比較が可能になる。
<θ(N)の決定方法>
以下で説明するθ(N)の決定処理は、オブジェクト識別装置内で行うこともできるが、典型的には、予めオフラインで行う。いずれにせよ、θ(N)は予め求めておき、使用時にはオブジェクト識別装置にすでに格納されている。以下の式は、θ(N)の決定に関係する式である。
以下で説明するθ(N)の決定処理は、オブジェクト識別装置内で行うこともできるが、典型的には、予めオフラインで行う。いずれにせよ、θ(N)は予め求めておき、使用時にはオブジェクト識別装置にすでに格納されている。以下の式は、θ(N)の決定に関係する式である。
FAR:FRR = 1:(α+βNa) (4)
ここで、α、βは任意の係数であり、Naは、登録画像枚数Nのa乗(aは任意の実数)を意味する。FARは入力オブジェクトに対応する登録オブジェクトとは異なる登録オブジェクトを、入力オブジェクトと同一オブジェクトであると誤って受け入れてしまう誤り率(False Acceptance Rate)を意味する。FRRは入力オブジェクトに対応する登録オブジェクトを、入力オブジェクトとは異なるオブジェクトであると誤って拒否する誤り率(False Reject Rate)を意味する。
ここで、α、βは任意の係数であり、Naは、登録画像枚数Nのa乗(aは任意の実数)を意味する。FARは入力オブジェクトに対応する登録オブジェクトとは異なる登録オブジェクトを、入力オブジェクトと同一オブジェクトであると誤って受け入れてしまう誤り率(False Acceptance Rate)を意味する。FRRは入力オブジェクトに対応する登録オブジェクトを、入力オブジェクトとは異なるオブジェクトであると誤って拒否する誤り率(False Reject Rate)を意味する。
上記の式(2)や式(3)で用いるθ(N)は、予め評価用の画像に対して、式(4)を満たすように定めると良い。θ(N)を決定するための処理について、同処理のフローチャートを示す図11を用いて説明する。この処理をオブジェクト識別装置が実行する場合には、該オブジェクト識別装置が有するCPUなどの実行部がこの処理を実行することになる。また、この処理をオブジェクト識別装置以外の他装置が実行する場合には、該他装置が有するCPUなどの実行部がこの処理を実行することになる。
ステップS40では、オブジェクトが写っている評価用の画像を取得する。ステップS41では、目標となるFARとFRRとを設定する。これは、式(4)で登場した係数α、β、aを定めることに相当する。一般に、これらの適切な値は、認識対象や、使用目的(セキュリティ向けや検索向けなど)によって異なる。例えば人の顔による個人認証を、セキュリティ目的で使用することを考える場合は、FRR、即ち本人拒否誤りに対して、FAR、即ち他人受け入れ誤りを出来るだけ小さくする必要があるので、αは比較的大きい値に設定する。セキュリティ用途では、αを100程度にするとよい。βとaは登録画像数に応じてFARとFRRの比率を変動させる度合いを決めるパラメータなので、典型的には、βの絶対値はαに比べて小さく(αの百分の1程度)し、aは1.0や0.5など比較的小さな値にすると良い。また、登録画像数Nが増加すると、一般に類似度が増加する傾向があり、したがってFARが増加し、FRRが減少することになるので、βをマイナスの値にするとよい。
ステップS42では、評価用の画像群のうち、登録画像数を設定する。例えば、評価用の画像群を、登録用の画像と入力用の画像に分けた場合、登録用の画像を、実際に何枚登録するか設定する。この際、複数種類のオブジェクト(人間の顔の場合は、異なる人物)の画像を登録する場合、全て登録画像数を統一する(人物が異なっても、全て同じ数の画像を登録する)。
次に、ステップS43では、評価用の画像に対してFARとFRRを計測し、θ(N)を探索する。これは、以下のようにして行う。例えば、ステップS42で登録画像数をMと設定した場合、M毎の評価用画像のそれぞれに対し、既に説明した手順で識別評価を行って、類似度を計測する。その際、類似度変換は行わないようにする。
そして、登録画像数がMの登録オブジェクト(オブジェクトAとする)との類似度が、ある値(φとする)より大きければ、入力オブジェクトはオブジェクトA、小さければオブジェクトAではない、など判定を行い、FARとFRRを計算する。このφをさまざまな値に設定して、同様にFAR、FRRを計測し、φとFAR、FRRの対応表をつくる。その対応表から、ステップS41で設定したFAR、FRRの比率を満たすφに対応するものをθ(M)とする。
次に、ステップS44では、予定した登録画像数に達したか判定する。例えば、ステップS42の処理を最初に行った場合には、登録画像数を1とし、2回目に行った場合には登録画像数を2とし、N回目に行った場合には登録画像数をNとする。ここで、予定した登録画像数をNとすると、上記の処理によれば、θ(1)、θ(2)、…、θ(N)を生成することができる。
予定数に達した場合、処理を終了し、そうでない場合、ステップS42以降の処理を繰り返す。登録画像数の上限は、一般にいくつでもよいが、典型的には100程度まで行えば十分である。それ以上の場合はθ(N)を一定値にすればよい。
上記の処理例では、予めα、β、aを定め、登録画像数Nに関わらず、一定としてθ(N)を求めたが、変形例として、登録画像数Nに応じて、α、β、aを変えながら、θ(N)を探索するようにしてもよい。
なお、以上で説明した構成は、次のような第1の構成の一例に過ぎず、第1の構成の一例には様々な構成が考え得る。第1の構成では、着目オブジェクトのN(Nは自然数)枚の画像のそれぞれから予め抽出された、該画像中の該着目オブジェクトの部分領域ごとの特徴ベクトル、を保持しておく。そして、N枚の画像のそれぞれに対し、該画像から予め抽出されている着目オブジェクトの部分領域ごとの特徴ベクトルと、入力画像中のオブジェクトの部分領域ごとの特徴ベクトルと、で対応する部分領域の特徴ベクトル間の類似度を求める(算出)。そして、該求めた類似度群から1つの類似度を求め、該求めた1つの類似度を、上記N枚の画像中の対象オブジェクトの識別処理の誤り率に基づいて予め設定されている値に応じて減少させる。そして、該減少後の類似度を、入力画像中のオブジェクトと、着目オブジェクトと、の類似度として出力する。ここで、予め設定されている値は、次のような条件を満たす値である。
・ N枚の画像中の対象オブジェクトの識別処理を行った場合に、該対象オブジェクトとは異なるオブジェクトを該対象オブジェクトとして識別する率と、該対象オブジェクトと同一のオブジェクトを該対象オブジェクトは異なるオブジェクトとして識別する率と、の比が予め定められた比となるように、該識別処理において対象オブジェクトの特徴ベクトルとの類似度判定に用いる閾値
[第2の実施形態]
第1の実施形態では、部分特徴ごとに統合した類似度をさらに1つの類似度に統合し、該1つの類似度に対して、登録画像数に応じた変換を行っていたが、本実施形態では、統合前のそれぞれの類似度に対して変換を行う点が第1の実施形態と異なる。以下では、第1の実施形態との差分のみについて説明し、以下で特にふれない限りは、第1の実施形態と同様であるとする。また、本実施形態で使用するオブジェクト識別装置の構成については第1の実施形態で説明したものと同様であるため、これに係る説明は省略する。
[第2の実施形態]
第1の実施形態では、部分特徴ごとに統合した類似度をさらに1つの類似度に統合し、該1つの類似度に対して、登録画像数に応じた変換を行っていたが、本実施形態では、統合前のそれぞれの類似度に対して変換を行う点が第1の実施形態と異なる。以下では、第1の実施形態との差分のみについて説明し、以下で特にふれない限りは、第1の実施形態と同様であるとする。また、本実施形態で使用するオブジェクト識別装置の構成については第1の実施形態で説明したものと同様であるため、これに係る説明は省略する。
以下では、第1の実施形態との大きな差分である、入力オブジェクト識別部6の動作について説明する。本実施形態に係る入力オブジェクト識別部6が行う処理について、同処理のフローチャートを示す図12を用いて説明する。なお、本実施形態では、入力オブジェクト識別演算部43において、部分特徴類似度統合部64及び統合類似度変換部65の配置が逆となり、且つそれぞれの機能部における処理は第1の実施形態と若干異なる。
ステップS130では、入力オブジェクト識別用データ取得部61は、入力オブジェクト識別用データ生成部41から入力オブジェクト識別用データを取得する。ステップS131では、登録オブジェクト辞書データ取得部62は、登録オブジェクト辞書データ取得部42から登録オブジェクト辞書データを取得する。
次に、ステップS132では、部分特徴類似度算出部63は、登録オブジェクト辞書データと、入力オブジェクト識別用データと、を比較して、対応する部分領域ごとに特徴ベクトルの類似度を算出する。類似度の算出方法は第1の実施形態で説明したとおりである。
ステップS133では、統合類似度変換部65は、ステップS132で求めたそれぞれの類似度を変換する。類似度の変換方法については第1の実施形態と同様、所定値を減じる方法や所定値で除算する方法がある。
ここで、所定値の決め方は、第1の実施形態で説明した手順と同じ手順を部分領域ごとに行うことで実現できる。しかし、処理量が増大するので、部分領域ごとに所定値を決定する場合に適した方法を取るのが望ましい。この部分領域ごとに所定値を決める場合に適した方法については後述する。
ステップS134で部分特徴類似度算出部63は、次のような判断を行う。即ち、ステップS131で取得した登録オブジェクト辞書データに対応するオブジェクトと同じオブジェクト(同一ID)について登録されている全ての登録オブジェクト辞書データに対して部分領域ごとの類似度を求めたか否かを判断する。この判断の結果、求めたと判断した場合には、処理はステップS135に進む。一方、求めていないと判断した場合には、処理はステップS131に戻り、登録オブジェクト辞書データ取得部62は、先に取得した登録オブジェクト辞書データに対応するオブジェクトと同じオブジェクトの未取得登録オブジェクト辞書データを取得する。
ステップS135では、部分特徴類似度統合部64は、ステップS133で変換した類似度群を、部分領域ごとに統合する。そして部分特徴類似度統合部64は、部分領域ごとに統合した類似度を1つの類似度に統合し、これを統合類似度とする。類似度の統合方法は第1の実施形態と同様である。
ステップS131〜S135の処理が、オブジェクト登録部5に登録されている全ての登録オブジェクト辞書データについて行われた場合には、処理はステップS136を介して終了する。一方、ステップS131〜S135の処理が、オブジェクト登録部5に登録されている全ての登録オブジェクト辞書データについて行われていない場合には、処理はステップS136を介してステップS131に戻る。
本実施形態では、部分特徴の類似度ごとに登録画像数に応じて、類似度変換を行ったが、これにより、よりきめ細かい類似度変換の制御が可能になり、登録画像数のばらつきによる認識性能への影響を抑えることが可能になる。具体的には、登録画像数に依存しやすい部分領域とそうでない部分領域とで、変換方法を変えることが出来るので、より好適に類似度変換を制御することが可能になると考えられる。
<θ(N)の決定方法>
以下では、登録画像数に応じて、部分領域間における特徴ベクトルの類似度を変換するために用いるθ(N)を決定する方法について説明する。本実施形態にように、部分領域ごとにθ(N)を決定する場合でも、第1の実施形態と同じように、予め性能評価用の画像群を用意し、部分領域ごとにFARとFRRを計測することによって、θ(N)を決定することも可能である。しかし、部分領域ごと、さらに登録画像枚数ごとにFARとFRRを求めると、処理量が大幅に増加するので、ここでは違う方法について説明する。具体的には、θ(N)の決定に必要な性能測定を少数の条件で行い、残りは補間、ないし、補外によって求める。
以下では、登録画像数に応じて、部分領域間における特徴ベクトルの類似度を変換するために用いるθ(N)を決定する方法について説明する。本実施形態にように、部分領域ごとにθ(N)を決定する場合でも、第1の実施形態と同じように、予め性能評価用の画像群を用意し、部分領域ごとにFARとFRRを計測することによって、θ(N)を決定することも可能である。しかし、部分領域ごと、さらに登録画像枚数ごとにFARとFRRを求めると、処理量が大幅に増加するので、ここでは違う方法について説明する。具体的には、θ(N)の決定に必要な性能測定を少数の条件で行い、残りは補間、ないし、補外によって求める。
θ(N)を決定するための処理について、同処理のフローチャートを示す図13を用いて説明する。この処理をオブジェクト識別装置が実行する場合には、該オブジェクト識別装置が有するCPUなどの実行部がこの処理を実行することになる。また、この処理をオブジェクト識別装置以外の他装置が実行する場合には、該他装置が有するCPUなどの実行部がこの処理を実行することになる。
ステップS140では、対象となる全部分領域のうち未選択の部分領域を選択する。この選択処理では、ユーザが適当なユーザインターフェースを操作することで指定した部分領域を選択してもよいし、予め定められた部分領域を選択してもよい。
ステップS141では、オブジェクトが写っている評価用の画像を取得する。ステップS142では、1枚の評価用画像において、ステップS140で選択した部分領域について求めた類似度のヒストグラムを作成する。ここでは、入力オブジェクトと同じオブジェクトが写っている1枚の評価用画像からのヒストグラムHS1、入力オブジェクトと異なるオブジェクトが写っている1枚の評価用画像からのヒストグラムHD1、の2つを作成することができる。同様に、N枚の評価用画像において、ステップS140で選択した部分領域について求めた類似度のヒストグラムを作成する。ここでは、入力オブジェクトと同じオブジェクトが写っているN枚の評価用画像からのヒストグラムHSN、入力オブジェクトと異なるオブジェクトが写っているN枚の評価用画像からのヒストグラムHDN、の2つを作成することができる。
ヒストグラムの計測条件として、登録画像数があるが、典型的には、上記のように、登録画像数が1枚である場合と、θ(N)を求めたい最大の登録画像数(ここではN)の2つの場合を計測する。後述するように、この2つの場合の類似度ヒストグラムを評価することによって、部分領域の類似度変換式に関するθ(N)を推定することができる。
ステップS143では、評価用画像群のうち、登録画像数を設定する。例えば、評価用の画像群を、登録用の画像と入力用の画像に分けた場合、登録用の画像を、実際に何枚登録するか設定する。この際、複数種類のオブジェクト(人間の顔の場合は、異なる人物)の画像を登録する場合、全て登録画像数を統一する(人物が異なっても、全て同じ数の画像を登録する)。
次に、ステップS144では、ステップS142で作成したヒストグラムからFARとFRRを推定し、θ(1)、θ(N)を探索する。ヒストグラムからFARおよびFRRを推定する為には様々な手法が考えられるが、最も単純には、以下のような手法がある。以下、これを説明する。
まず、HS1,HD1,HSN,HDNの4つのヒストグラムに対して、ある値(φとする)を閾値として判定を行う。例えば、HD1,HDNで、φ以上になっているビンの値は全てFARになる。同様に、HS1,HSNでφ以下の類似度になっている場合は、全てFRRになる。このように計測済みの全てのヒストグラムから閾値がφである場合のFARとFRRをそれぞれ求める。そして、このφをさまざまな値に設定して、同様にFAR、FRRを推定し、φとFAR、FRRの対応表をつくる。このように、登録画像数とφ、FAR、FRRの組合せを取得することが出来るので、この組合せから、第1の実施形態と同様に、式(4)の関係を持つようにθ(1)、θ(N)を決定することが出来る。本実施形態では、θ(1)とθ(N)とを求めることができるので、θ(2)〜θ(N−1)は、θ(1)とθ(N)とを用いた線形補間で求めることができる。ステップS42で登録画像数をMと設定した場合、本ステップではこのような線形補間により、θ(M)を求める。
次に、ステップS145では、予定した登録画像数に達したか判定する。予定数に達した場合、処理を終了し、そうでない場合、ステップS143以降の処理を繰り返す。登録画像数の上限は、一般にいくつでもよいが、典型的には100程度まで行えば十分である。それ以上の場合はθ(N)を一定値にすればよい。
ステップS146では、全ての部分領域を選択したのか否かを判断する。この判断の結果、全ての部分領域を選択したのであれば、本処理は終了し、未選択の部分領域が残っている場合には、処理はステップS140に戻る。このように、本実施形態では、θ(N)は、着目部分領域及びNに対して予め設定されている値であり、以下のような性質を有する値である。
・ N枚の画像中の対象オブジェクトの識別処理を行った場合に、着目部分領域に関し、該対象オブジェクトとは異なるオブジェクトを該対象オブジェクトとして識別する率と、該対象オブジェクトと同一のオブジェクトを該対象オブジェクトは異なるオブジェクトとして識別する率と、の比が予め定められた比となるように、該識別処理において対象オブジェクトの特徴ベクトルとの類似度判定に用いる閾値
このように、第1,2の実施形態によれば、辞書画像と評価画像との比較結果である類似度スコアに対して、登録枚数に応じた所定の変換を施すことによって、登録人物によって登録画像のばらつきがある場合でも高精度な識別を行うことができる。
このように、第1,2の実施形態によれば、辞書画像と評価画像との比較結果である類似度スコアに対して、登録枚数に応じた所定の変換を施すことによって、登録人物によって登録画像のばらつきがある場合でも高精度な識別を行うことができる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (13)
- 着目オブジェクトのN(Nは自然数)枚の画像のそれぞれから予め抽出された、該画像中の該着目オブジェクトの部分領域ごとの特徴ベクトル、を保持する手段と、
前記N枚の画像のそれぞれに対し、該画像から予め抽出されている前記着目オブジェクトの部分領域ごとの特徴ベクトルと、入力画像中のオブジェクトの部分領域ごとの特徴ベクトルと、で対応する部分領域の特徴ベクトル間の類似度を求める算出手段と、
前記算出手段が求めた類似度群から1つの類似度を求め、該求めた1つの類似度を、前記N枚の画像中の対象オブジェクトの識別処理の誤り率に基づいて予め設定されている値に応じて減少させ、該減少後の類似度を、前記入力画像中のオブジェクトと、前記着目オブジェクトと、の類似度として出力する出力手段と
を備えることを特徴とする情報処理装置。 - 前記予め設定されている値は、
N枚の画像中の対象オブジェクトの識別処理を行った場合に、該対象オブジェクトとは異なるオブジェクトを該対象オブジェクトとして識別する率と、該対象オブジェクトと同一のオブジェクトを該対象オブジェクトは異なるオブジェクトとして識別する率と、の比が予め定められた比となるように、該識別処理において前記対象オブジェクトの特徴ベクトルとの類似度判定に用いる閾値
であることを特徴とする請求項1に記載の情報処理装置。 - 前記出力手段は、
部分領域ごとに、該部分領域について求めた類似度群から1つの類似度を求める手段と、
部分領域ごとに求めた前記1つの類似度から1つの類似度を統合類似度として求める手段と、
前記統合類似度を、前記予め設定されている値に応じて減少させ、該減少後の類似度を、前記入力画像中のオブジェクトと、前記着目オブジェクトと、の類似度として出力する手段と
を備えることを特徴とする請求項1又は2に記載の情報処理装置。 - 前記出力手段は、
部分領域ごとに、該部分領域について求めた類似度群の、平均値、最大値、中央値の何れか1つを求め、部分領域ごとに求めた該1つのうち、平均値、最大値、中央値を前記統合類似度として求めることを特徴とする請求項3に記載の情報処理装置。 - 着目オブジェクトのN(Nは自然数)枚の画像のそれぞれから予め抽出された、該画像中の該着目オブジェクトの部分領域ごとの特徴ベクトル、を保持する手段と、
前記N枚の画像のそれぞれに対し、該画像から予め抽出されている前記着目オブジェクトの部分領域ごとの特徴ベクトルと、入力画像中のオブジェクトの部分領域ごとの特徴ベクトルと、で対応する部分領域の特徴ベクトル間の類似度を求める算出手段と、
前記算出手段が求めたそれぞれの類似度を、該類似度を求めた部分領域及び前記N枚の画像中の対象オブジェクトの識別処理の誤り率に基づいて予め設定されている値に応じて減少させ、該減少後のそれぞれの類似度から1つの類似度を求め、該求めた1つの類似度を、前記入力画像中のオブジェクトと、前記着目オブジェクトと、の類似度として出力する出力手段と
を備えることを特徴とする情報処理装置。 - 着目部分領域及び前記予め設定されている値は、
N枚の画像中の対象オブジェクトの識別処理を行った場合に、前記着目部分領域に関し、該対象オブジェクトとは異なるオブジェクトを該対象オブジェクトとして識別する率と、該対象オブジェクトと同一のオブジェクトを該対象オブジェクトは異なるオブジェクトとして識別する率と、の比が予め定められた比となるように、該識別処理において前記対象オブジェクトの特徴ベクトルとの類似度判定に用いる閾値
であることを特徴とする請求項5に記載の情報処理装置。 - 前記出力手段は、
部分領域ごとに、該部分領域について求めた前記減少後の類似度群から1つの類似度を求める手段と、
部分領域ごとに求めた前記1つの類似度から1つの類似度を統合類似度として求める手段と、
前記統合類似度を、前記入力画像中のオブジェクトと、前記着目オブジェクトと、の類似度として出力する手段と
を備えることを特徴とする請求項5に記載の情報処理装置。 - 前記出力手段は、
部分領域ごとに、該部分領域について求めた前記減少後の類似度群の、平均値、最大値、中央値の何れか1つを求め、部分領域ごとに求めた該1つのうち、平均値、最大値、中央値を前記統合類似度として求めることを特徴とする請求項7に記載の情報処理装置。 - 着目オブジェクトのN(Nは自然数)枚の画像のそれぞれから予め抽出された、該画像中の該着目オブジェクトの部分領域ごとの特徴ベクトル、を保持する情報処理装置が行う情報処理方法であって、
前記情報処理装置の算出手段が、前記N枚の画像のそれぞれに対し、該画像から予め抽出されている前記着目オブジェクトの部分領域ごとの特徴ベクトルと、入力画像中のオブジェクトの部分領域ごとの特徴ベクトルと、で対応する部分領域の特徴ベクトル間の類似度を求める算出工程と、
前記情報処理装置の出力手段が、前記算出工程で求めた類似度群から1つの類似度を求め、該求めた1つの類似度を、前記N枚の画像中の対象オブジェクトの識別処理の誤り率に基づいて予め設定されている値に応じて減少させ、該減少後の類似度を、前記入力画像中のオブジェクトと、前記着目オブジェクトと、の類似度として出力する出力工程と
を備えることを特徴とする情報処理方法。 - 前記予め設定されている値は、
N枚の画像中の対象オブジェクトの識別処理を行った場合に、該対象オブジェクトとは異なるオブジェクトを該対象オブジェクトとして識別する率と、該対象オブジェクトと同一のオブジェクトを該対象オブジェクトは異なるオブジェクトとして識別する率と、の比が予め定められた比となるように、該識別処理において前記対象オブジェクトの特徴ベクトルとの類似度判定に用いる閾値
であることを特徴とする請求項9に記載の情報処理方法。 - 着目オブジェクトのN(Nは自然数)枚の画像のそれぞれから予め抽出された、該画像中の該着目オブジェクトの部分領域ごとの特徴ベクトル、を保持する情報処理装置が行う情報処理方法であって、
前記情報処理装置の算出手段が、前記N枚の画像のそれぞれに対し、該画像から予め抽出されている前記着目オブジェクトの部分領域ごとの特徴ベクトルと、入力画像中のオブジェクトの部分領域ごとの特徴ベクトルと、で対応する部分領域の特徴ベクトル間の類似度を求める算出工程と、
前記情報処理装置の出力手段が、前記算出工程で求めたそれぞれの類似度を、該類似度を求めた部分領域及び前記N枚の画像中の対象オブジェクトの識別処理の誤り率に基づいて予め設定されている値に応じて減少させ、該減少後のそれぞれの類似度から1つの類似度を求め、該求めた1つの類似度を、前記入力画像中のオブジェクトと、前記着目オブジェクトと、の類似度として出力する出力工程と
を備えることを特徴とする情報処理方法。 - 着目部分領域及び前記予め設定されている値は、
N枚の画像中の対象オブジェクトの識別処理を行った場合に、前記着目部分領域に関し、該対象オブジェクトとは異なるオブジェクトを該対象オブジェクトとして識別する率と、該対象オブジェクトと同一のオブジェクトを該対象オブジェクトは異なるオブジェクトとして識別する率と、の比が予め定められた比となるように、該識別処理において前記対象オブジェクトの特徴ベクトルとの類似度判定に用いる閾値
であることを特徴とする請求項11に記載の情報処理方法。 - コンピュータを、請求項1ないし8の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013076448A JP2014203132A (ja) | 2013-04-01 | 2013-04-01 | 情報処理装置、情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013076448A JP2014203132A (ja) | 2013-04-01 | 2013-04-01 | 情報処理装置、情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014203132A true JP2014203132A (ja) | 2014-10-27 |
Family
ID=52353552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013076448A Pending JP2014203132A (ja) | 2013-04-01 | 2013-04-01 | 情報処理装置、情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014203132A (ja) |
-
2013
- 2013-04-01 JP JP2013076448A patent/JP2014203132A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6544900B2 (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
JP5247480B2 (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
JP5424819B2 (ja) | 画像処理装置、画像処理方法 | |
US20090185746A1 (en) | Image recognition | |
JP5241606B2 (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
JP6071002B2 (ja) | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム | |
US9633284B2 (en) | Image processing apparatus and image processing method of identifying object in image | |
JP2011096136A (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
JP2015197708A (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
JP2017058833A (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
Guo et al. | Palmprint recognition by a two-phase test sample sparse representation | |
JP5791361B2 (ja) | パターン識別装置、パターン識別方法およびプログラム | |
TW202211157A (zh) | 個體辨識系統、個體辨識程式及記錄媒體 | |
JP2014199519A (ja) | 物体識別装置、物体識別方法及びプログラム | |
JP2012234497A (ja) | オブジェクト識別装置、オブジェクト識別方法、及びプログラム | |
Almaddah et al. | Face relighting using discriminative 2D spherical spaces for face recognition | |
JP2014203132A (ja) | 情報処理装置、情報処理方法 | |
TWI632509B (zh) | 人臉辨識裝置及方法、提升影像辨識率的方法、及電腦可讀儲存介質 | |
JP7377161B2 (ja) | 個体識別システム | |
JP7377163B2 (ja) | 個体識別システム | |
WO2021220827A1 (ja) | 個体識別システム | |
Pawar et al. | Normalization method for misaligned face samples in non-cooperative biometrics | |
Savitha et al. | Image segmentation based face recognition using enhanced SPCA-KNN method | |
TW202201271A (zh) | 個體識別系統 | |
Neto et al. | 3D Face Recognition Using Kinect |