JP2012234500A - Pattern identification device, pattern identification method and program - Google Patents
Pattern identification device, pattern identification method and program Download PDFInfo
- Publication number
- JP2012234500A JP2012234500A JP2011104621A JP2011104621A JP2012234500A JP 2012234500 A JP2012234500 A JP 2012234500A JP 2011104621 A JP2011104621 A JP 2011104621A JP 2011104621 A JP2011104621 A JP 2011104621A JP 2012234500 A JP2012234500 A JP 2012234500A
- Authority
- JP
- Japan
- Prior art keywords
- partial feature
- image
- similarity
- partial
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、識別対象のパターンが照明条件の違いによる影響を受けた場合であっても高精度かつ効率的に識別を行うことができるパターン識別装置等に関する。 The present invention relates to a pattern identification device and the like that can perform identification with high accuracy and efficiency even when a pattern to be identified is affected by a difference in illumination conditions.
パターン認識における識別技術、典型的には、画像データ中の被写体であるオブジェクトが、別の画像中の被写体であるオブジェクトと同一のものであると識別する技術として、例えば個人の顔を識別する顔識別技術がある。以下、パターン識別とは、パターンの個体の違い(例えば、個人としての人物の違い)を判定することを意味する。一方、パターンの検出は、個体を区別せず同じ範疇に入るものを判定する(例えば、個人を区別せず、顔を検出する)ことを意味するものとする。 As an identification technique in pattern recognition, typically, a technique for identifying that an object that is a subject in image data is the same as an object that is a subject in another image, for example, a face that identifies an individual's face There is identification technology. Hereinafter, pattern identification means determining differences between individual patterns (for example, differences between individuals as individuals). On the other hand, the detection of the pattern means that an object that falls within the same category is determined without distinguishing between individuals (for example, a face is detected without distinguishing between individuals).
顔識別技術として、例えば非特許文献1のような方法がある。
このような、パターン(具体的には人物の顔)の識別を行う装置および方法において、識別性能を低下させる要因として、入力パターンと登録パターン間における照明条件の違いが挙げられる。照明条件が異なることで、顔全体の明暗の変化や顔の陰影の付き方が変化することで、識別性能が大幅に低下してしまう。
As a face identification technique, for example, there is a method as described in Non-Patent Document 1.
In such an apparatus and method for identifying a pattern (specifically, a human face), a difference in illumination conditions between the input pattern and the registered pattern can be cited as a factor that degrades the identification performance. Different lighting conditions change the brightness of the entire face and how the shadow of the face changes, which greatly reduces the identification performance.
特許文献1では、明示的な照明条件検出手段を設けることで照明変動に対応している。すなわち、入力画像と登録画像間の照明条件のずれを検出し、そのずれ量に応じた前処理を入力画像または登録画像あるいはその両方に行い、両者の照明条件を近づけた上で、顔認証を行うことで、照明条件にロバストな顔認証を行っている。 In patent document 1, it respond | corresponds to illumination fluctuation | variation by providing an explicit illumination condition detection means. In other words, a deviation in lighting conditions between the input image and the registered image is detected, pre-processing corresponding to the amount of deviation is performed on the input image and / or the registered image, and face authentication is performed after both lighting conditions are brought close to each other. By doing so, face recognition that is robust to lighting conditions is performed.
また、特許文献2では、照明条件の差を吸収するための部分空間を事前に用意しておき、識別の際に、入力画像および登録画像のパターンをその部分空間に射影した上で、顔認証を行っている。これにより照明条件にロバストな顔認証を行っている。
In
しかしながら、これらの方法は実用上の問題があると考えられる。例えば、特許文献1のように、明示的な照明条件検出手段を設けた場合には、その計算量が大きいだけでなく、照明条件検出手段を事前に大量の顔画像等を準備して学習しておかなければならない。また、特許文献2のように、部分空間を用いる方法でも同様に、事前に照明変動を吸収するような部分空間を、大量の顔画像等を準備して学習し、空間の基底データを記憶していなければならない。これは実用上の障害となってしまう。
However, these methods are considered to have practical problems. For example, when an explicit illumination condition detection unit is provided as in Patent Document 1, not only is the amount of calculation large, but the illumination condition detection unit prepares and learns a large number of face images in advance. I have to keep it. Similarly, as in
また、これらの方法だけでは実環境における照明変動に十分に対応できていないと考えられる。例えば、顔全体にわたる照明変動ではなく、部分的な陰影を生じるような照明変動のような場合には、画像の部分領域を考慮していない、上述の方法だけでは対応が難しい。 In addition, it is considered that these methods alone cannot sufficiently cope with illumination fluctuation in the real environment. For example, in the case of illumination variation that causes partial shading rather than illumination variation over the entire face, it is difficult to cope with only the above-described method that does not consider the partial region of the image.
本発明は、入力された画像のパターンが属するカテゴリを識別するパターン識別装置であって、所定の変動を加えた変動入力画像および変動登録画像を生成する変動画像生成手段と、前記変動入力画像から入力部分特徴を抽出し、前記変動登録画像の前記入力部分特徴に対応する登録部分特徴を抽出する部分特徴抽出手段と、前記入力部分特徴と前記登録部分特徴の部分特徴の類似度を、前記変動画像の所定の組み合わせ毎に算出する部分特徴類似度算出手段と、前記部分特徴類似度算出手段で計算された、少なくとも1つ以上の前記部分特徴類似度を所定の基準で統合した統合部分特徴類似度を算出する部分特徴類似度統合手段と、前記統合部分特徴類似度を部分領域毎に所定の基準で統合し、前記入力画像および前記登録画像間の識別類似度を算出する識別類似度算出手段と、を有することを特徴とする。 The present invention relates to a pattern identification device for identifying a category to which an input image pattern belongs, a variation image generating means for generating a variation input image and a variation registration image to which a predetermined variation is added, and the variation input image. A partial feature extraction unit that extracts an input partial feature and extracts a registered partial feature corresponding to the input partial feature of the variation registration image; and the similarity between the input partial feature and the partial feature of the registered partial feature A partial feature similarity calculating unit that calculates each predetermined combination of images, and an integrated partial feature similarity obtained by integrating at least one of the partial feature similarities calculated by the partial feature similarity calculating unit according to a predetermined criterion A partial feature similarity integrating unit for calculating a degree, and the integrated partial feature similarity is integrated for each partial region according to a predetermined standard, and an identification class between the input image and the registered image Identification similarity calculation means for calculating a degree, and having a.
本発明によれば、入力画像と登録画像に所定の前処理を部分領域毎に行うことにより、明示的な照明条件検出や事前の部分空間の学習を必要とせずに、全体的な照明変動および部分的な陰影の変動に対して、精度の高いパターン識別を行うことができる。 According to the present invention, by performing predetermined pre-processing on the input image and the registered image for each partial region, it is possible to perform the overall illumination variation and the detection without requiring explicit illumination condition detection or prior partial space learning. It is possible to perform pattern identification with high accuracy against partial variations in shadows.
以下、図面を参照して本実施形態に係るパターン識別装置について説明する。
(第1の実施形態)
図1は、本実施形態に係るパターン識別装置100の構成を示すブロック図である。パターン識別装置100は、結像光学系1、撮像部2、撮像制御部3、画像記録部4、パターン登録部5、入力パターン識別部6、パターン識別結果を出力する外部出力部7、各構成要素の制御・データ接続を行うための接続バス8を含んで構成されている。なお、パターン登録部5および入力パターン識別部6は、典型的には、それぞれ専用回路(ASIC)、プロセッサ(リコンフィギュラブルプロセッサ、DSP、CPUなど)であってもよい。また、単一の専用回路および汎用回路(PC用CPU)内部において実行されるプログラムとして存在してもよい。
Hereinafter, a pattern identification device according to the present embodiment will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a
結像光学系1は、ズーム機構を備えた光学レンズで構成される。また、結像光学系1は、パン・チルト軸方向の駆動機構を備えていてもよい。
撮像部2の映像センサとしては、典型的にはCCDまたはCMOSイメージセンサが用いられる。撮像部2は、不図示のセンサ駆動回路からの読み出し制御信号により所定の映像信号(例えば、サブサンプリング、ブロック読み出しして得られる信号)を画像データとして出力する。
撮像制御部3は、撮影者からの指示(画角調整指示、シャッター押下など)およびパターン登録部5または入力パターン識別部6からの情報に基づいて、実際に撮影が行われるタイミングを制御する。
The imaging optical system 1 includes an optical lens having a zoom mechanism. Further, the imaging optical system 1 may include a driving mechanism in the pan / tilt axis direction.
As the image sensor of the
The
画像記録部4は、半導体メモリ等で構成され、撮像部2から転送された画像データを保持し、パターン登録部5、入力パターン識別部6からの要求に応じて所定のタイミングで画像データを転送する。
パターン登録部5は、画像データから識別の対象とするオブジェクトの情報を抽出し、記録・保持する。パターン登録部5のより詳細な構成および実際に行われる処理の具体的な内容については、後述する。
入力パターン識別部6は、画像データおよびパターン登録部5から取得したデータに基づいて、パターン、より典型的には、画像データ中のオブジェクトの識別を行う。入力パターン識別部6に関して、具体的な構成および行われる処理の詳細については、後述する。
The image recording unit 4 is configured by a semiconductor memory or the like, holds the image data transferred from the
The
The input
外部出力部7は、典型的には、CRTやTFT液晶などのモニタであり、撮像部2および画像記録部4から取得した画像データを表示、または、画像データにパターン登録部5および入力パターン識別部6の結果出力を重畳表示する。また、パターン登録部5および入力パターン識別部6の結果出力を電子データとして、外部メモリなどに出力する形式をとってもよい。
接続バス8は、上記構成要素間の制御・データ接続を行うためのバスである。
The
The connection bus 8 is a bus for performing control and data connection between the above components.
<全体フロー>
図2は、本実施形態に係るパターン識別装置の全体処理の一例を示すフローチャートである。図2を参照しながら、パターン識別装置100が、入力パターンの識別を行う実際の処理について説明する。なお、以下では、識別するパターンが人物の顔である場合について説明するが、本発明の対象はこれに限るものではない。
始めに、入力パターン識別部6は、画像記録部4から画像データを取得する(S1)。続いて、入力パターン識別部6は、取得した画像データに対して、人の顔の検出処理を行う(S02)。画像中から、人物の顔を検出する方法については、公知の技術を用いればよい。例えば、「特許3078166号公報」や「特開2002−8032号公報」で提案されているような技術を用いることができる。
<Overall flow>
FIG. 2 is a flowchart showing an example of the overall processing of the pattern identification apparatus according to the present embodiment. With reference to FIG. 2, an actual process in which the
First, the input
入力パターン識別部6は、対象オブジェクトである人物の顔の検出処理をした後、画像中に人の顔が存在するか否かを判定する(S3)。存在する場合(S3でYesの場合)、入力パターン識別部6は、入力パターン識別処理、即ち個人の識別処理を行う(S4)。画像中に人の顔が存在しない場合(S3でNoの場合)、入力パターン識別部6は、処理を終了する。入力パターン識別処理(S4)の具体的な処理内容については、後述する。
入力パターン識別部6は、入力パターン識別処理の結果から、登録済みの人物に該当する顔があるか判定する(S5)。入力パターン識別部6はS1で検出された顔と同一人物が、登録済みの人物の中にあるか否かを判定し(S4)、ある場合(S5でYesの場合)、S8の処理に進む。検出された顔が登録済み人物の誰とも一致しない場合(S5でNoの場合)、入力パターン識別部6は、その人物を登録するかを判定する(S6)。これは、予め設定されている場合もあるが、例えばユーザが外部インターフェースやGUIなどを通じて、その場で登録するかどうか決定するようにしても良い。
After performing the process of detecting the face of the person who is the target object, the input
The input
登録すると判定された場合(S6でYesの場合)、入力パターン識別部6は、後述するパターン(人物の顔)の登録処理を行う(S7)。登録を行わない場合(S6でNoの場合)、そのまま処理を続行する。
パターン登録処理(S7)の後およびS6で登録を行わない場合、入力パターン識別部6は、検出されたパターン全てについて処理が終了したか否かを判定する(S8)。未処理のパターンがある場合(S8でNoの場合)、S4に戻る。検出された全てのパターンについて処理が終了した場合(S8でYesの場合)入力パターン識別部6は、一連の入力パターン識別処理の結果を外部出力部7に出力する。
以上が、本実施形態に係るパターン識別装置100の全体の処理フローである。
If it is determined to be registered (Yes in S6), the input
After the pattern registration process (S7) and when registration is not performed in S6, the input
The above is the overall processing flow of the
<パターン登録部>
パターン登録処理について説明する。図3は、パターン登録部5の構成の一例を示すブロック図である。図3に示すように、パターン登録部5は、登録パターン辞書データ生成部21、登録パターン辞書データ保持部22、登録パターン辞書データ選択部23を含んで構成されている。
<Pattern registration part>
The pattern registration process will be described. FIG. 3 is a block diagram illustrating an example of the configuration of the
登録パターン辞書データ生成部21は、画像記録部4から取得した画像データから、パターンの個体を識別するために必要な登録パターン辞書データを生成する。ここでは、顔画像が同一のカテゴリであるか、別のカテゴリであるかの問題を判別するため、人物の顔画像から生成したデータを辞書データとして登録する。同一人物の複数枚の画像で登録することも考えられるが、本実施形態では一人につき1枚の画像を用いることとする。よって登録パターン辞書データは登録した人数の分だけ生成されることになる。画像を登録する際は、顔検出処理によって検出された人物の顔画像データを、大きさや向き(面内回転方向)などを正規化した後、登録パターン辞書データ保持部22に格納するようにしてもよい。画像データそのものではなく、識別時に必要なデータのみを保持するようにすることによって、辞書データ量を削減することもできる。当該パターンの部分領域のベクトル相関をとって識別演算を行う場合、予めその部分領域のみを切り出しておけばよい。
The registered pattern dictionary
以上のように、登録パターン辞書データ生成部21では、適宜必要な情報を画像から抽出し、後述する所定の変換を行った後、パターンの識別を行うための特徴ベクトルとして、登録パターン辞書データ保持部22に格納する。登録パターン辞書データ生成部21で行われる具体的な処理の内容については、後述する。登録パターン辞書データ選択部23は、後述する入力パターン識別部6の要求に応じて、登録パターン辞書データ保持部22から必要な登録パターン辞書データを読み出して、入力パターン識別部6に登録パターン辞書データを転送する。
As described above, the registered pattern dictionary
<登録パターン辞書データ生成部>
図4は、登録パターン辞書データ生成部21の構成の一例を示すブロック図である。図4に示すように、登録パターン辞書データ生成部21は、変動画像生成部30、画像変換用パラメタ保持部31、部分領域設定部32、特徴ベクトル抽出部33、特徴ベクトル変換部34、特徴ベクトル変換用データ保持部35を含んで構成されている。図5は、登録パターン辞書データ生成部21における処理の模式図を示しており、説明の補助として合わせて用いる。
<Registered pattern dictionary data generation unit>
FIG. 4 is a block diagram illustrating an example of the configuration of the registered pattern dictionary
変動画像生成部30は、画像データに対して画像変換用パラメタ保持部31から変換用パラメタを取得し、画像変換を行い、変動登録画像を生成する(図5の画像取得および変動画像生成)。ここで用いる変換用パラメタは1種類だけでなく、複数種類用意しておき、変動登録画像を複数種類生成しておく。この処理の詳細は、後述する。部分領域設定部32は、画像データおよび変動画像データに対して、特徴ベクトル抽出部33が特徴ベクトルを抽出する位置と範囲を設定する(図5の部分領域設定)。
The variation
部分領域の位置と範囲は、識別の対象が人の顔である場合には、顔の器官位置を基準とした領域を機械学習の方法を用いて予め決めておくとよい。例えば、部分領域の候補を複数設定しておいて、上記複数候補から、AdaBoostを用いて選択するようにしてもよい。また、後述するように、上記部分領域の組み合わせを多数用意しておいて、その組み合わせを1つの候補として、AdaBoostで選択するようにしてもよい。実際にAdaBoostを適用して、部分領域やその組み合わせを決める方法については、後述する入力パターン識別部6の説明で詳述する。部分領域の数は、処理時間などに応じて予め所定の数を決めておくとよい。また、予め用意した学習用サンプルに対して、十分な識別性能を得られる数を計測して決めるなどとしてもよい。
When the identification target is a human face, the position and range of the partial area may be determined in advance by using a machine learning method for the area based on the facial organ position. For example, a plurality of partial area candidates may be set and selected from the plurality of candidates using AdaBoost. Further, as will be described later, a large number of combinations of the partial areas may be prepared, and the combinations may be selected as one candidate by AdaBoost. A method of determining a partial region and a combination thereof by actually applying AdaBoost will be described in detail in the description of the input
本実施形態では、変動画像生成部30の後に部分領域設定部32という順番に構成されているが、これは逆の順番でもよい。すなわち、先に部分領域設定部32が部分領域を設定した上で、その部分領域に対して、変動画像生成部30が変動画像を生成してもよい。
In the present embodiment, the partial
特徴ベクトル抽出部33は、変動登録画像から部分特徴抽出を行う。ここでは登録変動画像からの抽出であるため登録部分特徴の抽出(図5の「特徴ベクトル抽出、変換」のうちの抽出の処理)となる。本実施形態ではLBP(Local Binary Pattern)特徴量を部分領域から抽出し、特徴ベクトルとしている。この部分領域とは画像中の一定の大きさの矩形領域を指す。特徴ベクトルとしては、この他に、画像の輝度値やその他の特徴量を特徴ベクトルとして抽出してもよい。上述の通り、変動画像は複数種類あるため、変動画像の種類毎に特徴ベクトルを抽出する。また、特徴ベクトルを抽出する際には、輝度値を直接取得するのではなく、ガボアフィルタなど何らかのフィルタ演算を施した結果から特徴ベクトルを抽出してもよい。特徴ベクトル抽出部33で行われる処理の内容については後述する。また、本実施形態のように、変動画像から特徴ベクトルを抽出せずに、元の画像データ(登録画像)から抽出した特徴ベクトルを、あたかも変動画像から抽出した特徴ベクトルとなるような変換を行う変動特徴生成器を設けてもよい。こうすることにより、変動画像を生成し、記憶しておく必要がなくなる。ただし、変動画像生成部30で行う画像変換の種類によっては、変動特徴生成器で行う変換は非線形変換となることがあるため、近似計算等が必要な場合がある。
The feature vector extraction unit 33 performs partial feature extraction from the variation registration image. In this case, since it is extraction from the registration variation image, it is extraction of the registered partial feature (extraction processing of “feature vector extraction, conversion” in FIG. 5). In this embodiment, an LBP (Local Binary Pattern) feature amount is extracted from a partial region and used as a feature vector. This partial area refers to a rectangular area of a certain size in the image. In addition to this, the brightness value of the image and other feature quantities may be extracted as the feature vector. As described above, since there are a plurality of types of variation images, a feature vector is extracted for each type of variation image. Further, when extracting the feature vector, the feature vector may be extracted from the result of performing some filter operation such as a Gabor filter instead of directly acquiring the luminance value. The contents of the process performed by the feature vector extraction unit 33 will be described later. Further, as in the present embodiment, the feature vector extracted from the original image data (registered image) is converted into the feature vector extracted from the variation image without extracting the feature vector from the variation image. A variation feature generator may be provided. In this way, it is not necessary to generate and store a fluctuation image. However, depending on the type of image conversion performed by the variation
特徴ベクトル変換部34は、特徴ベクトル抽出部33によって抽出された特徴ベクトルに所定の変換を施す(図5の特徴ベクトル抽出、変換のうちの変換)。特徴ベクトルの変換は、例えば、主成分分析(PCA)による次元圧縮や、独立成分分析(ICA)による次元圧縮などが行われる。また、局所性保存射影(LPP)や、局所フィッシャー判別分析(LFDA)による次元圧縮を行ってもよい。
特徴ベクトルの変換方法にPCAを用いた場合、その基底数(特徴ベクトルの次元削減数)や、どの基底を用いるか、などのパラメタが存在する。基底数の代わりに、基底ベクトルに対応する固有値の和、すなわち累積寄与率を指標としてもよい。これらのパラメタを部分領域毎に異なったものにしてもよいし、変動画像毎に異なったものにしてもよい。実際にどのようなパラメタを設定するかは、予め機械学習によって決めることができる。
The feature
When PCA is used as a feature vector conversion method, there are parameters such as the number of bases (the number of feature vector dimensions to be reduced) and which base to use. Instead of the basis number, a sum of eigenvalues corresponding to the basis vector, that is, a cumulative contribution rate may be used as an index. These parameters may be different for each partial region, or may be different for each variation image. What parameters are actually set can be determined in advance by machine learning.
特徴ベクトル変換用データ保持部35は、特徴ベクトル変換部34において、特徴ベクトルの変換を行う際に必要なデータを保持している。ここで、特徴ベクトルの変換に必要なデータとは、上述のような基底数(次元削減数)などの設定情報や、予め学習によって求めておいた基底ベクトルの数値データなどである。
The feature vector conversion data holding unit 35 holds data necessary for the feature
図6は、変動画像生成部30および画像変換用パラメタ保持部31で行われる処理の一例を示すフローチャートである。このフローチャートでは、始めに、変動画像生成部30は、入力された画像データを取得する(S10)。次に、変動画像生成部30は、取得した画像に対して行う画像変換のパラメタを画像変換用パラメタ保持部31から取得する(S11)。このパラメタは画像変換方法および、その変換パラメタから構成される。続いて、変動画像生成部30は、これらの取得した画像データおよび画像変換のパラメタを用いて、画像変換を行う(S12)。画像変換として画像ボケ(ガウシアン)フィルタを用いた場合の変換式を以下に示す。
FIG. 6 is a flowchart illustrating an example of processing performed by the fluctuation
x,yは、それぞれ画素位置のx座標、y座標を表し、Aは(式2)を満たすための正規化項を表わす。σは画像ボケ(ガウシアン)フィルタのパラメタで、これが大きいほど輝度の低周波成分の抽出度合いが強くなり、小さいほど弱くなる。このような画像変換により変動登録画像を生成する。ここで行う処理は、この他にエッジ強調フィルタ、コントラストフィルタといった公知の空間フィルタなどを用いることができるが、その他の画像変換手法を用いてもよい。また、画像変換を行っていない元画像も、変動登録画像として含めてもよい。 x and y represent the x-coordinate and y-coordinate of the pixel position, respectively, and A represents a normalization term for satisfying (Expression 2). σ is a parameter of an image blur (Gaussian) filter. The larger this is, the stronger the degree of extraction of the low frequency component of the luminance, and the smaller the value, the weaker. A variation registration image is generated by such image conversion. In addition to the above processing, a known spatial filter such as an edge enhancement filter or a contrast filter can be used, but other image conversion methods may be used. Further, an original image that has not been subjected to image conversion may also be included as a variation registration image.
図6に示すフローチャートに戻り、変動画像生成部30は、所定のパラメタによる変換が全て終了したか否かの判定を行う(S13)。終了していなければ(S13でNoの場合)、S11に戻り、変動画像生成部30は、残りの変換パラメタで変換を行う。終了しているならば(S13でYesの場合)、変動画像生成部30は、画像変換した変動画像データおよび画像変換に用いたパラメタを関連付けて保持し(S14)、処理を完了する。
Returning to the flowchart shown in FIG. 6, the fluctuation
図7は、特徴ベクトル抽出部33および特徴ベクトル変換部34等で行われる処理の一例を示すフローチャートである。始めに、部分領域設定部32が部分領域の設定情報を取得する(S20)。続いて、部分領域設定部32は、画像記録部4から対象パターンの登録変動画像データを取得する(S21)。部分領域設定部32は、取得した登録変動画像データからS20で取得した部分領域の情報に基づいて部分領域画像データを切り出し(S22)、特徴ベクトル抽出部33は、部分領域画像データから特徴量を取得する(S23)。ここでは1種類の特徴量を抽出する。
FIG. 7 is a flowchart illustrating an example of processing performed by the feature vector extraction unit 33, the feature
上述した通り、特徴ベクトル抽出部33は、LBP特徴量を抽出し、特徴ベクトルとするが、典型的には、輝度画像の画素値をそのまま特徴ベクトルとして抽出してもよいし、その他の特徴量抽出手法を用いてもよい。特徴ベクトル変換部34は、S23で取得した特徴ベクトルに対して、特徴ベクトル変換用データ保持部35から取得した設定に従って、所定の変換を行う(S24)。上述したように、典型的には、PCAによる次元削減や、ICAによる次元削減などを特徴ベクトルに対して行う。この際、取得した特徴ベクトルに対して、所定の統計値、典型的には、平均ベクトルや、要素の最大値などを求めておいてもよい。また、部分特徴として、画像から切り出した位置の情報を記録するようにしてもよい。後述するように、登録パターンと入力パターン間で対応する部分特徴の比較・評価を行うために、対応関係を示す識別子を記録するようにしてもよい。これらの情報は、登録パターン辞書データ生成部21の出力として、特徴ベクトルと共に出力するようにするとよい。以上が、特徴ベクトル抽出部33および特徴ベクトル変換部34等で行われる処理の一例の説明である。
以上のような処理を行って、部分領域を設定し、特徴ベクトルを抽出した後に、特徴ベクトルを変換したデータを、登録パターン辞書データ生成部21の出力として、登録パターン辞書データ保持部22に格納する。
As described above, the feature vector extraction unit 33 extracts the LBP feature quantity and sets it as the feature vector. Typically, however, the pixel value of the luminance image may be extracted as it is as a feature vector, or other feature quantities. An extraction method may be used. The feature
After performing the above processing, setting a partial region, extracting a feature vector, storing the data obtained by converting the feature vector in the registered pattern dictionary
<入力パターン識別部>
次に、入力パターン識別処理について説明する。図8は、入力パターン識別部6の構成の一例を示すブロック図である。図8に示すように、入力パターン識別部6は、入力パターン識別用データ生成部41、登録パターン辞書データ取得部42、入力パターン識別演算部43を含んで構成されている。
入力パターン識別用データ生成部41は、画像記録部4から取得した画像データから対象パターンの識別に必要な情報の抽出を行う。
登録パターン辞書データ取得部42は、パターン登録部5から入力パターンの識別に必要な辞書データを取得する。
入力パターン識別演算部43は、入力パターン識別用データ生成部41から取得した識別用データと、登録パターン辞書データ取得部42から取得した辞書データとから入力パターンの識別処理を行う。ここで行われる処理については、後述する。
<Input pattern identification unit>
Next, the input pattern identification process will be described. FIG. 8 is a block diagram illustrating an example of the configuration of the input
The input pattern identification
The registered pattern dictionary
The input pattern
図9は、入力パターン識別部6で行われる識別処理の一例を示すフローチャートである。まず、登録パターン辞書データ取得部42は、パターン登録部5から登録パターン辞書データを取得する(S30)。次に、入力パターン識別用データ生成部41は、画像記録部4より入力パターンの画像データを取得する(S31)。続いて、入力パターン識別演算部43は、入力パターン識別用データ生成処理を行う(S32)。ここで行われる処理については、後述する。次に、入力パターン識別演算部43は、入力パターン識別演算処理を行う(S33)。入力パターン識別演算処理の出力として、登録済みデータ(辞書データ)との一致をバイナリ(0or1)で出力する場合と、正規化した出力値を(0〜1の実数値)尤度として出力する場合が考えられる。さらに登録パターン(登録者)が複数(複数人)ある場合には、それぞれの登録パターン(登録者)に対して、尤度を出力しても良いが、最も良く一致した登録パターンに対する結果だけを出力しても良い。また、登録パターンに対する尤度ではなく、登録パターンが属するカテゴリに対しての尤度を出力してもよい。すなわち、人物の場合には、個々の登録顔画像への結果ではなく、人物のID(名前)に対する尤度を出力するようにする。なお、入力パターン識別演算処理の具体的な内容についても、後述する。以上が、入力パターン識別部6における処理の一例を示すフローチャートの説明である。
FIG. 9 is a flowchart illustrating an example of identification processing performed by the input
<入力パターン識別用データ生成部>
図10は、入力パターン識別用データ生成部41の構成の一例を示すブロック図である。図10に示すように、入力パターン識別用データ生成部41は、変動画像生成部50、画像変換用パラメタ保持部51、部分領域設定部52、特徴ベクトル抽出部53、特徴ベクトル変換部54、特徴ベクトル変換用データ保持部55を含んで構成されている。入力パターン識別用データ生成部41の構成およびそこで行われる処理は、登録パターン辞書データ生成部21とほぼ同じであるので、詳細の説明は割愛する。相違点として、変動画像生成部30で生成される画像を変動入力画像と呼び、特徴ベクトル抽出部53で抽出される特徴ベクトルを入力部分特徴と呼ぶ点が異なる。
<Data generation unit for input pattern identification>
FIG. 10 is a block diagram illustrating an example of the configuration of the input pattern identification
<入力パターン識別演算処理>
入力パターン識別演算処理について説明する。ここでは、一例として、入力パターンの識別を対応する部分特徴間の類似性に基づいて判定する場合について説明する。図11は、入力パターン識別演算部43の構成の一例を示すブロック図である。入力パターン識別演算部43は、入力パターン識別用データ取得部61、登録パターン辞書データ取得部62、部分特徴類似度算出部63、部分特徴類似度統合部64、識別結果算出部65を含んで構成されている。
<Input pattern identification calculation processing>
The input pattern identification calculation process will be described. Here, as an example, a case will be described in which input pattern identification is determined based on the similarity between corresponding partial features. FIG. 11 is a block diagram illustrating an example of the configuration of the input pattern
図12は、入力パターン識別演算処理の一例を示すフローチャートである。以下、このフローチャートを用いて説明する。
まず、入力パターン識別用データ取得部61は、入力パターン識別用データを取得する(S40)。次に、登録パターン辞書データ取得部62は、登録パターンの辞書データを取得する(S41)。続いて、部分特徴類似度算出部63は、S40およびS41で取得した入力パターン識別用データと登録パターン辞書データとのそれぞれの特徴ベクトルから、部分特徴類似度を算出する(S42)。この特徴ベクトルは上述の通り、変動画像の部分領域から抽出した特徴量に変換を施したベクトルである。ここでは、類似度算出の方法として特徴ベクトル間の内積に基づくコサイン類似度を使用する。すなわち、入力パターン識別用データの特徴ベクトルをVI、登録パターン辞書データの特徴ベクトルをVR、VIとVRがなす角をθとすると、コサイン類似度Sは、以下の式で表わされる。
FIG. 12 is a flowchart illustrating an example of the input pattern identification calculation process. Hereinafter, this flowchart will be described.
First, the input pattern identification
ただし、VI・VRはそれぞれVIとVRの内積、|VI|と|VR|は、それぞれのベクトルのノルムを表わす。本実施形態では、このコサイン類似度を使用したが、その他の方法を用いてもよい。続いて、部分特徴類似度算出部63は、変動画像の全組み合わせについて、演算が終了したか否かを判定する(S43)。これについても、変動画像の全組み合わせ以外にも、事前に定めておいた組み合わせについてのみ演算する方法などが考えられる。全組み合わせの演算が終了した場合(S43でYesの場合)、部分特徴類似度統合部64は、組み合わせの数だけ算出された部分特徴類似度の統合を行う(S44)。統合方法の詳細は後述する。
However, V I · V R represents the inner product of V I and V R , and | V I | and | V R | represent the norm of each vector. In this embodiment, this cosine similarity is used, but other methods may be used. Subsequently, the partial feature
次に、部分特徴類似度統合部64は、S44で統合した部分特徴類似度を、さらに部分領域全体にわたって統合し、識別結果算出部65は、入力パターンと登録パターンの識別類似度算出を行う(S45)。本実施形態では、統合の方法として、部分特徴類似度の高い順に上位から所定個数を平均する方法を用いているが、その他の手法を用いてもよい。
最後に、識別結果算出部65は、全ての辞書データについて識別の演算が終了したか否かを判定する(S46)。演算が終了していない登録パターン辞書データがある場合(S46でNoの場合)、S41に戻り、登録パターン辞書データ取得部62は、まだ処理の完了していない人物の登録パターン辞書データに対して処理を行う。全ての人物の登録パターン辞書データの処理が終了している場合(S46でYesの場合)、識別結果算出部65は、識別類似度を保持する(S47)。ここでは、入力パターン識別用データと各登録パターン辞書データ間の類似度を類似度最大のものを識別結果として保持する。他にも、全ての類似度をリストで保持する方法が考えられる。以上が、パターン識別演算処理の説明である。
Next, the partial feature
Finally, the identification
<部分特徴類似度統合>
次に、部分特徴類似度統合処理について説明する。図13は、部分特徴類似度統合部64で行われる処理(S44)の一例を示すフローチャートである。
まず、部分特徴類似度統合部64は、部分特徴類似度データを取得する(S51)。
次に、部分特徴類似度統合部64は、複数ある部分特徴類似度を一つの値に統合する処理を行う(S52)。ここでは、類似度最大基準での統合を行う。すなわち、取得した複数の部分特徴類似度の中から類似度最大のものを選択し、部分特徴類似度統合部64は、それを統合結果として出力する。一般に、顔認証のような画像の詳細をマッチングする処理の場合には、他人同士の類似度が偶然高くなることは考えにくい。そのため、統合処理として、この類似度最大の選択を行うことにより、入力画像と登録画像間の照明変動差を軽減するような変換を施した上で、本当に本人同士ならば高い類似度、他人同士ならば低い類似度が得られることが期待できる。
最後に、部分特徴類似度統合部64は、統合した部分特徴類似度のデータを保持する(S53)。以上が、部分類似度統合処理の説明である。
<Partial feature similarity integration>
Next, the partial feature similarity integration process will be described. FIG. 13 is a flowchart illustrating an example of the process (S44) performed by the partial feature
First, the partial feature
Next, the partial feature
Finally, the partial feature
このように、本実施形態では、登録画像および入力画像の複数の変動画像から、部分領域毎に、特徴ベクトルを抽出し、複数の変動画像の総当たりで算出した類似度の最大のものを選択し、部分領域毎の類似度を統合している。これにより、登録パターンと入力パターンの照明条件を明示的に算出することなく、両者の照明条件差を軽減した変動画像同士の類似度を得ることができる。また、部分領域毎の処理により、画像の部分的な照明条件差に対するロバスト性も期待できる。 As described above, in the present embodiment, feature vectors are extracted for each partial region from a plurality of variation images of the registered image and the input image, and the one having the maximum similarity calculated for the brute force of the plurality of variation images is selected. The similarity for each partial area is integrated. Thereby, it is possible to obtain the similarity between the fluctuation images in which the difference between the illumination conditions is reduced without explicitly calculating the illumination conditions of the registered pattern and the input pattern. In addition, robustness against partial illumination condition differences of images can be expected by processing for each partial region.
(第2の実施形態)
本実施形態は、第1の実施形態の特徴ベクトル抽出部33、入力パターン識別用データ生成部41、入力パターン識別演算部43および部分特徴類似度統合部64が異なる。具体的には、第1の実施形態の特徴ベクトル抽出部33は、抽出する特徴ベクトルの種類は1種類だけであったのに対して、第2の実施形態では複数種類の特徴ベクトルを抽出する点が異なる。また、複数種類の特徴ベクトルに応じた入力パターン識別演算および部分特徴類似度統合を行う点も第1の実施形態とは異なる。
(Second Embodiment)
This embodiment differs from the first embodiment in the feature vector extraction unit 33, the input pattern identification
以下、本実施形態について詳細に説明する。なお、重複を避けるため、以下の説明において、第1の実施形態と同じ部分は省略する。本実施形態に係るパターン識別装置100全体のハードウェア構成は、第1の実施形態と同じであるので、説明を省略する。以下の説明では、第1の実施形態と区別するため、処理内容が異なる登録パターン辞書データ生成部を、複数特徴の登録パターン辞書データ生成部70と呼ぶことにする。
また、本実施形態においても便宜上、識別対象のパターンを、画像中の人物の顔としているが、識別対象をその他のオブジェクトとしてもよい。
Hereinafter, this embodiment will be described in detail. In addition, in order to avoid duplication, the same part as 1st Embodiment is abbreviate | omitted in the following description. Since the hardware configuration of the entire
Also in this embodiment, for the sake of convenience, the pattern to be identified is the face of a person in the image, but the identification target may be another object.
<複数特徴の登録パターン辞書データ生成>
図14は、複数特徴の登録パターン辞書データ生成部70の構成の一例を示すブロック図である。複数特徴の登録パターン辞書データ生成部70は、変動画像生成部71、画像変換パラメタ保持部72、部分領域設定部73、複数特徴ベクトル抽出部74、特徴ベクトル変換部75、特徴ベクトル変換用データ保持部76を含んで構成されている。図15は、複数特徴の登録パターン辞書データ生成部70における処理を説明するための模式図であり、合わせて説明に用いる。変動画像生成部71における処理は、第1の実施形態とほぼ同じであるため、省略する(図15に示す「画像取得」および「変動画像生成」)。
<Generation of registered pattern dictionary data for multiple features>
FIG. 14 is a block diagram illustrating an example of the configuration of a registered pattern dictionary data generation unit 70 having a plurality of features. The registered pattern dictionary data generation unit 70 for multiple features includes a variation
図16は、部分領域設定部73、複数特徴ベクトル抽出部74および特徴ベクトル変換部75における処理を示すフローチャートである。以下、このフローチャートを用いて説明する。始めに、部分領域設定部73は、部分領域の設定情報を取得し(S60)、特徴ベクトルを抽出する対象である変動画像データを取得する(S61)。部分領域設定部73は、取得した変動画像データに部分領域を設定し(図15に示す部分領域設定)、設定した部分領域から、複数特徴ベクトル抽出部74は、複数の特徴ベクトルを抽出する(S62)。ここでは、特徴ベクトルの種類として第1の実施形態でも使用したLBP特徴量とHOG特徴量、SIFT特徴量を抽出する(図15に示す「特徴ベクトル抽出、変換」のうちの抽出の処理)。ここで、HOGは、Histogram of Oriented Gradientsを表し、SIFTはScale−Invariant Feature Transformを表す。なお、特徴ベクトルの抽出は、その他の公知の手法を用いることができる。特徴ベクトル変換部75は、抽出した複数の特徴ベクトルを、特徴ベクトル変換用データ保持部76から取得した変換用データを用いて変換を行う(S63および図15に示す「特徴ベクトル抽出、変換」のうちの変換の処理)。この変換用データは、変換する対象の特徴ベクトルの種類毎に用意しておく。
FIG. 16 is a flowchart showing processing in the partial
最後に、特徴ベクトル変換部75は、所定の種類の特徴ベクトルを全て取得したか否かの判定を行う(S64)。抽出していない特徴ベクトルが存在する場合(S64でNoの場合)、S62の処理に戻る。特徴ベクトルを全て取得している場合(S64でYesの場合)、特徴ベクトル変換部75は、抽出した全ての特徴ベクトルについて、特徴ベクトルの種類、抽出元の変動画像生成に用いたパラメタを関連づけて記憶し、保持する(S65)。
以上が、複数特徴の登録パターン辞書データ生成部70の説明である。
Finally, the feature
The above is the description of the registered pattern dictionary data generation unit 70 having a plurality of features.
<複数特徴の入力パターン生成>
図17は、複数特徴の入力パターン生成部80の構成の一例を示すブロック図である。ここでの処理は<複数特徴の登録パターン辞書データ生成>とほぼ同じであるため詳細の説明は省略する。
<Multiple feature input pattern generation>
FIG. 17 is a block diagram illustrating an example of the configuration of the multi-feature input pattern generation unit 80. Since the processing here is almost the same as <Generation of multiple feature registration pattern dictionary data>, detailed description thereof is omitted.
<複数特徴の入力パターン識別演算>
図18は、複数特徴の入力パターン識別演算部90の構成の一例を示すブロック図である。複数特徴の入力パターン識別演算部90は、入力パターン識別用データ取得部91、登録パターン辞書データ取得部92、同種部分特徴類似度算出部93、特徴量別類似度統合部94、部分特徴類似度統合部95、識別結果算出部96を含んで構成される。入力パターン識別用データ取得部91と登録パターン辞書データ取得部92の処理は、第1の実施形態と同様の処理であるため、省略する。
<Multi-feature input pattern identification calculation>
FIG. 18 is a block diagram illustrating an example of the configuration of the multi-feature input pattern identification calculation unit 90. The multi-feature input pattern identification calculation unit 90 includes an input pattern identification
図19は、複数特徴の入力パターン識別演算部90の処理の一例を示すフローチャートである。以下、このフローチャートを用いて説明する。
まず、入力パターン識別用データ取得部91は、入力パターン識別用データを取得する(S70)。次に、登録パターン辞書データ取得部92は、登録パターンの辞書データを取得する(S71)。これらのデータは上述の通り、特徴ベクトルおよび特徴ベクトルの種類、抽出元の変動画像生成に用いたパラメタ、抽出した部分領域の情報、およびそれらの組み合わせ毎に抽出した特徴ベクトルを関連づけて記憶したデータである。同種部分特徴類似度算出部93は、部分特徴類似度を算出する(S72)。このとき、同種部分特徴類似度算出部93は、異なる種類の特徴ベクトル間では計算できないため、同種類の特徴ベクトル間でのみ演算を行う。具体的には、同種部分特徴類似度算出部93は、まず、登録パターン辞書データおよび入力パターン識別用データから処理を行う部分領域を選択し、その部分領域において同種類の特徴ベクトル間の類似度を算出する。そして、全ての部分領域ついてこの処理を行う。
FIG. 19 is a flowchart illustrating an example of processing of the input pattern identification calculation unit 90 having a plurality of features. Hereinafter, this flowchart will be described.
First, the input pattern identification
次に、同種部分特徴類似度算出部93は、所定の全ての変動画像の組み合わせについて演算が終了したか否かを判定する(S73)。終了した場合(S73でYesの場合)、S74の処理に進み、終了していない場合(S73でNoの場合)、S72に戻る。
S72では部分特徴類似度が変動画像の数だけ算出されるため、特徴量別類似度統合部94は、これらの複数の値を一つの値にまとめる統合を行う(S74)。ここでは、第1の実施形態と同じように、類似度の最大値を選択することで統合する。統合により、特徴ベクトルの種類の数だけ類似度が算出されるので、これをさらに次の処理で統合する。
Next, the same-type partial feature
In S72, since the partial feature similarity is calculated by the number of the varying images, the feature-by-feature
特徴ベクトルの種類を表わすインデックスをi、特徴ベクトルの種類数をN、類似度の最大値選択により統合された特徴量毎の類似度をSiと表わすと、Siは特徴量毎に算出された類似度であるため、その値を単純に統合することはできない。なぜなら、特徴量は、その種類によって、高い類似度が出やすいもの、その逆の傾向を持つものなど傾向が異なるためである。そこで、部分特徴類似度統合部95は、変動画像を生成した際の変動量の和の逆数を重み係数として、統合を行う(S75)。統合の計算式は以下の通りである。
Denoting i an index representing the kind of feature vectors, the number of types of feature vector N, the maximum similarity feature quantity integrated by the selection of the similarity between S i, S i is calculated for each feature quantity Because of the similarities, the values cannot be simply integrated. This is because the feature amount has a different tendency depending on the type, such as a feature having a high degree of similarity and a feature having the opposite tendency. Therefore, the partial feature
ただし、DR,DIはそれぞれ、登録パターン辞書データおよび入力パターン識別用データにおける変動画像生成の際の、変動画像の元の画像からの変動量である。このような重み付けの統合をすることにより、以下のような効果が期待できる。すなわち、変動画像生成の際の変動量が大きい際には、人の顔のような詳細を識別するのに必要な情報量は失われていると考えられるので、その変動画像間で算出された類似度の寄与を低くすることができる。逆に変動量が少ない場合には、元画像からのかい離が少ないため、情報量が残されていると考えられるため、その変動画像間での類似度の寄与を大きくすることができる。この統合方法以外にも、単純に類似度の和ΣNiSiを用いる方法なども考えられる。変動量DR,DIの算出方法としては、変動画像を生成する際に用いたパラメタ、(式1)におけるσを用いる。他の算出方法として、変動画像と元画像について画素毎の差分平均をとってもよい。 However, D R and D I are the fluctuation amounts of the fluctuation image from the original image when the fluctuation image is generated in the registered pattern dictionary data and the input pattern identification data, respectively. By integrating such weighting, the following effects can be expected. That is, when the amount of variation when generating a variation image is large, it is considered that the amount of information necessary to identify details such as a human face is lost. The contribution of similarity can be reduced. On the other hand, when the variation amount is small, since the separation from the original image is small, it is considered that the information amount remains, so that the contribution of the similarity between the variation images can be increased. In addition to this integration method, it is simply considered also a method of using the sum sigma NiSi similarity. As a calculation method of the fluctuation amounts D R and D I , the parameter used when generating the fluctuation image, σ in (Expression 1), is used. As another calculation method, a difference average for each pixel may be taken for the fluctuation image and the original image.
この統合により算出された統合部分特徴類似度を、識別結果算出部96が、画像全体にわたって統合を行い、最終的な識別結果を得る(S76)。この処理は、第1の実施形態と同様であるため省略する。最後に、識別結果算出部96は、全辞書データについて演算が終了したか否かの判定を行い(S77)、終了していない場合(S77でNoの場合)、S71に戻り処理を行う。終了している場合(S77でYesの場合)、識別結果算出部96は、登録辞書パターンの数だけある識別類似度を第1の実施形態と同様に、リストとして出力するか、最も類似度の高いパターンを識別結果として出力し、結果を保持する(S78)。以上が、複数特徴の入力パターン識別演算の説明である。
The identification
第2の実施形態では、第1の実施形態と比べ、複数の変動画像から、一種類ではなく、複数種類の特徴ベクトルを抽出することで、ある特徴量では頑健ではない照明条件の差を他の特徴量で対応することができる、という効果を期待できる。また、特徴量の種類毎に算出される類似度を、変動画像とその元画像との変動量の逆数で重み付けして統合することにより、変動画像の変動量が大きい場合は、そこから算出される類似度の寄与を小さく、逆に変動量が小さい場合には大きくすることができる。これにより、極端に大きな変動を与えられたことにより算出された、異常な類似度(例えば、極端に高い強度でかけたぼかしフィルタの変動画像同士の類似度は非常に高い数値になる)の影響を受けない、という効果を期待できる。 Compared to the first embodiment, the second embodiment extracts a plurality of types of feature vectors instead of a single type from a plurality of variation images, so that differences in lighting conditions that are not robust with a certain feature amount can be obtained. The effect that it can respond with the feature-value of can be expected. In addition, the similarity calculated for each type of feature amount is integrated by weighting the reciprocal of the variation amount between the variation image and its original image, and if the variation amount of the variation image is large, it is calculated from there. If the contribution of similarity is small, and conversely the variation is small, it can be increased. As a result, the influence of the abnormal similarity (for example, the similarity between the fluctuation images of the blur filter applied with extremely high intensity becomes a very high value) calculated by giving an extremely large variation. The effect of not receiving can be expected.
以上、本発明を種々の実施形態と共に説明したが、本発明はこれらの実施形態にのみ限定されるものではなく、本発明の範囲内で変更等が可能である。上述した本発明の実施形態におけるパターン識別装置を構成する各手段、並びにパターン識別方法の各工程は、コンピュータのRAMやROM等に記憶されたプログラムが動作することによって実現できる。このプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。 As mentioned above, although this invention was demonstrated with various embodiment, this invention is not limited only to these embodiment, A change etc. are possible within the scope of the present invention. Each means constituting the pattern identification apparatus and each step of the pattern identification method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM or ROM of a computer. This program and a computer-readable recording medium on which this program is recorded are included in the present invention.
1:結像光学系 2:撮像部 3:撮像制御部 4:画像記録部 5:パターン登録部 6:入力パターン識別部 7:外部出力部 8:接続バス 21:登録パターン辞書生成部 22:登録パターン辞書データ保持部 23:登録パターン辞書データ選択部 30:変動画像生成部 31:画像変換用パラメタ保持部 32:部分領域設定部 33:特徴ベクトル抽出部 34:特徴ベクトル変換部 35:特徴ベクトル変換用データ保持部 41:入力パターン識別用データ生成部 42:登録パターン辞書データ取得部 43:入力パターン識別演算部 50:変動画像生成部 51:画像変換用パラメタ保持部 52:部分領域設定部 53:特徴ベクトル抽出部 54:特徴ベクトル変換部 55:特徴ベクトル変換用データ保持部 61:入力パターン識別用データ取得部 62:登録パターン辞書データ取得部 63:部分特徴類似度算出部 64:部分特徴類似度統合部 65:識別結果算出部 70:複数特徴の登録パターン辞書データ生成部 71:変動画像生成部 72:画像変換用パラメタ保持部 73:部分領域設定部 74:複数特徴ベクトル抽出部 75:特徴ベクトル変換部 76:特徴ベクトル変換用データ保持部 80:複数特徴の入力パターンデータ生成部 81:変動画像生成部 82:画像変換用パラメタ保持部 83:部分領域設定部 84:複数特徴ベクトル抽出部 85:特徴ベクトル変換部 86:特徴ベクトル変換用データ保持部 90:複数特徴入力パターン識別演算部 91:入力パターン識別用データ取得部 92:登録パターン辞書データ取得部 93:同種部分特徴類似度算出部 94:特徴量別類似度統合部 95:部分特徴類似度統合部 96:識別結果算出部 1: Imaging optical system 2: Imaging unit 3: Imaging control unit 4: Image recording unit 5: Pattern registration unit 6: Input pattern identification unit 7: External output unit 8: Connection bus 21: Registration pattern dictionary generation unit 22: Registration Pattern dictionary data holding unit 23: Registered pattern dictionary data selection unit 30: Fluctuating image generation unit 31: Image conversion parameter holding unit 32: Partial region setting unit 33: Feature vector extraction unit 34: Feature vector conversion unit 35: Feature vector conversion Data storage unit 41: Input pattern identification data generation unit 42: Registered pattern dictionary data acquisition unit 43: Input pattern identification calculation unit 50: Fluctuation image generation unit 51: Image conversion parameter storage unit 52: Partial region setting unit 53: Feature vector extraction unit 54: Feature vector conversion unit 55: Feature vector conversion data holding unit 61: Input parameter Turn identification data acquisition unit 62: Registration pattern dictionary data acquisition unit 63: Partial feature similarity calculation unit 64: Partial feature similarity integration unit 65: Identification result calculation unit 70: Multiple feature registration pattern dictionary data generation unit 71: Variation Image generation unit 72: Image conversion parameter holding unit 73: Partial region setting unit 74: Multiple feature vector extraction unit 75: Feature vector conversion unit 76: Feature vector conversion data storage unit 80: Multiple feature input pattern data generation unit 81 : Fluctuating image generation unit 82: Image conversion parameter holding unit 83: Partial region setting unit 84: Multiple feature vector extraction unit 85: Feature vector conversion unit 86: Feature vector conversion data holding unit 90: Multiple feature input pattern identification calculation unit 91: Input pattern identification data acquisition unit 92: Registered pattern dictionary data acquisition unit 3: homologous partial feature similarity calculation unit 94: feature-amount similarity integration section 95: part feature similarity integration section 96: identification result calculation unit
Claims (6)
所定の変動を加えた変動入力画像および変動登録画像を生成する変動画像生成手段と、
前記変動入力画像から入力部分特徴を抽出し、前記変動登録画像の前記入力部分特徴に対応する登録部分特徴を抽出する部分特徴抽出手段と、
前記入力部分特徴と前記登録部分特徴の部分特徴の類似度を、前記変動画像の所定の組み合わせ毎に算出する部分特徴類似度算出手段と、
前記部分特徴類似度算出手段で計算された、少なくとも1つ以上の前記部分特徴類似度を所定の基準で統合した統合部分特徴類似度を算出する部分特徴類似度統合手段と、
前記統合部分特徴類似度を部分領域毎に所定の基準で統合し、前記入力画像および前記登録画像間の識別類似度を算出する識別類似度算出手段と、を有することを特徴とするパターン識別装置。 A pattern identification device for identifying a category to which an input image pattern belongs,
A fluctuation image generating means for generating a fluctuation input image and a fluctuation registration image to which a predetermined fluctuation is applied;
Partial feature extraction means for extracting an input partial feature from the variable input image and extracting a registered partial feature corresponding to the input partial feature of the variable registered image;
Partial feature similarity calculating means for calculating the similarity between the input partial feature and the partial feature of the registered partial feature for each predetermined combination of the variation images;
Partial feature similarity integration means for calculating an integrated partial feature similarity calculated by the partial feature similarity calculation means and integrating at least one of the partial feature similarities according to a predetermined standard;
An identification similarity calculating unit that integrates the integrated partial feature similarity for each partial area on a predetermined basis and calculates an identification similarity between the input image and the registered image; .
所定の変動を加えた変動入力画像および変動登録画像を生成する変動画像生成工程と、
前記変動入力画像から入力部分特徴を抽出し、前記変動登録画像の前記入力部分特徴に対応する登録部分特徴を抽出する部分特徴抽出工程と、
前記入力部分特徴と前記登録部分特徴の部分特徴の類似度を、前記変動画像の所定の組み合わせ毎に算出する部分特徴類似度算出工程と、
前記部分特徴類似度算出工程で計算された、少なくとも1つ以上の前記部分特徴類似度を所定の基準で統合した統合部分特徴類似度を算出する部分特徴類似度統合工程と、
前記統合部分特徴類似度を部分領域毎に所定の基準で統合し、前記入力画像および前記登録画像間の識別類似度を算出する識別類似度算出工程と、を有することを特徴とするパターン識別方法。 A pattern identification method for identifying a category to which an input image pattern belongs,
A variation image generation step of generating a variation input image and a variation registration image to which a predetermined variation is added;
A partial feature extraction step of extracting an input partial feature from the variable input image and extracting a registered partial feature corresponding to the input partial feature of the variable registration image;
A partial feature similarity calculating step of calculating the similarity of the partial features of the input partial features and the registered partial features for each predetermined combination of the variation images;
A partial feature similarity integrating step of calculating an integrated partial feature similarity calculated by integrating the at least one or more partial feature similarities calculated in the partial feature similarity calculating step;
An identification similarity calculating step of integrating the integrated partial feature similarity for each partial region on a predetermined basis and calculating an identification similarity between the input image and the registered image .
所定の変動を加えた変動入力画像および変動登録画像を生成する変動画像生成工程と、
前記変動入力画像から入力部分特徴を抽出し、前記変動登録画像の前記入力部分特徴に対応する登録部分特徴を抽出する部分特徴抽出工程と、
前記入力部分特徴と前記登録部分特徴の部分特徴の類似度を、前記変動画像の所定の組み合わせ毎に算出する部分特徴類似度算出工程と、
前記部分特徴類似度算出工程で計算された、少なくとも1つ以上の前記部分特徴類似度を所定の基準で統合した統合部分特徴類似度を算出する部分特徴類似度統合工程と、
前記統合部分特徴類似度を部分領域毎に所定の基準で統合し、前記入力画像および前記登録画像間の識別類似度を算出する識別類似度算出工程と、をコンピュータに実行させるためのプログラム。 A program for identifying a pattern that identifies a category to which an input image pattern belongs,
A variation image generation step of generating a variation input image and a variation registration image to which a predetermined variation is added;
A partial feature extraction step of extracting an input partial feature from the variable input image and extracting a registered partial feature corresponding to the input partial feature of the variable registration image;
A partial feature similarity calculating step of calculating the similarity of the partial features of the input partial features and the registered partial features for each predetermined combination of the variation images;
A partial feature similarity integrating step of calculating an integrated partial feature similarity calculated by integrating the at least one or more partial feature similarities calculated in the partial feature similarity calculating step;
A program for causing a computer to execute an identification similarity calculation step of integrating the integrated partial feature similarity for each partial area on a predetermined basis and calculating an identification similarity between the input image and the registered image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011104621A JP5791361B2 (en) | 2011-05-09 | 2011-05-09 | PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011104621A JP5791361B2 (en) | 2011-05-09 | 2011-05-09 | PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012234500A true JP2012234500A (en) | 2012-11-29 |
JP5791361B2 JP5791361B2 (en) | 2015-10-07 |
Family
ID=47434731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011104621A Active JP5791361B2 (en) | 2011-05-09 | 2011-05-09 | PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5791361B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015007975A (en) * | 2013-06-24 | 2015-01-15 | 富士通株式会社 | Image tagging device and image tagging method on the basis of multi modality |
JP2018142074A (en) * | 2017-02-27 | 2018-09-13 | 三菱重工業株式会社 | Feature quantity calculation device, image similarity determination device, image retrieval device, feature quantity calculation method, and program |
JP2020071876A (en) * | 2018-10-30 | 2020-05-07 | 富士通株式会社 | Personnel search method and device and image processing device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011022994A (en) * | 2009-06-16 | 2011-02-03 | Canon Inc | Pattern processing device, method therefor, and program |
-
2011
- 2011-05-09 JP JP2011104621A patent/JP5791361B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011022994A (en) * | 2009-06-16 | 2011-02-03 | Canon Inc | Pattern processing device, method therefor, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015007975A (en) * | 2013-06-24 | 2015-01-15 | 富士通株式会社 | Image tagging device and image tagging method on the basis of multi modality |
JP2018142074A (en) * | 2017-02-27 | 2018-09-13 | 三菱重工業株式会社 | Feature quantity calculation device, image similarity determination device, image retrieval device, feature quantity calculation method, and program |
JP2020071876A (en) * | 2018-10-30 | 2020-05-07 | 富士通株式会社 | Personnel search method and device and image processing device |
Also Published As
Publication number | Publication date |
---|---|
JP5791361B2 (en) | 2015-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6544900B2 (en) | Object identification device, object identification method and program | |
JP5247480B2 (en) | Object identification device and object identification method | |
JP5174045B2 (en) | Illumination detection using a classifier chain | |
JP5424819B2 (en) | Image processing apparatus and image processing method | |
US10146992B2 (en) | Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type | |
JP5361524B2 (en) | Pattern recognition system and pattern recognition method | |
US9727585B2 (en) | Image processing apparatus and method for controlling the same | |
JP6456031B2 (en) | Image recognition apparatus, image recognition method, and program | |
JP6071002B2 (en) | Reliability acquisition device, reliability acquisition method, and reliability acquisition program | |
JP2012038106A (en) | Information processor, information processing method and program | |
JP5241606B2 (en) | Object identification device and object identification method | |
JP6410450B2 (en) | Object identification device, object identification method, and program | |
JP6157165B2 (en) | Gaze detection device and imaging device | |
JP5971712B2 (en) | Monitoring device and method | |
JP5791361B2 (en) | PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM | |
JP5653003B2 (en) | Object identification device and object identification method | |
JP7269897B2 (en) | Data registration device, biometric authentication device, and data registration program | |
Goswami et al. | Kernel group sparse representation based classifier for multimodal biometrics | |
JP2012234497A (en) | Object identification device, object identification method, and program | |
JP6950376B2 (en) | Image processing device, training image processing device, image identification device, training image processing method, image identification method, and program | |
JP7103443B2 (en) | Information processing equipment, information processing methods, and programs | |
JP2014203132A (en) | Information processing device and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140509 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150217 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150804 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5791361 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |