JP2012234500A - Pattern identification device, pattern identification method and program - Google Patents

Pattern identification device, pattern identification method and program Download PDF

Info

Publication number
JP2012234500A
JP2012234500A JP2011104621A JP2011104621A JP2012234500A JP 2012234500 A JP2012234500 A JP 2012234500A JP 2011104621 A JP2011104621 A JP 2011104621A JP 2011104621 A JP2011104621 A JP 2011104621A JP 2012234500 A JP2012234500 A JP 2012234500A
Authority
JP
Japan
Prior art keywords
partial feature
image
similarity
partial
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011104621A
Other languages
Japanese (ja)
Other versions
JP5791361B2 (en
Inventor
Atsuo Nomoto
敦夫 野本
Kotaro Yano
光太郎 矢野
Hiroshi Sato
博 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011104621A priority Critical patent/JP5791361B2/en
Publication of JP2012234500A publication Critical patent/JP2012234500A/en
Application granted granted Critical
Publication of JP5791361B2 publication Critical patent/JP5791361B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a pattern identification device, a pattern identification method and a program capable of precisely identifying a pattern regardless of variation in entire illumination and partial shading.SOLUTION: The pattern identification device includes: variation image generating means that generates a variation input image in which a predetermined variation is made and a variation registration image; partial feature extraction means that extracts an input partial feature from the variation input image and extracts a registration partial feature corresponding to the input partial feature of the variation registration image; partial feature similarity degree calculating means that calculates the degree of similarity of a partial feature between the input partial feature and the registration partial feature for each predetermined combination of variation images; partial feature similarity degree integrating means that calculates an integrated partial feature degree similarity in which at least one or more partial feature similarities calculated by the partial feature similarity calculating means are integrated based on a predetermined standard; and identification similarity degree calculating means that integrates the integrated partial feature similarities based on a predetermined standard for each partial area and calculates identification similarity degree between the input image and the registered image.

Description

本発明は、識別対象のパターンが照明条件の違いによる影響を受けた場合であっても高精度かつ効率的に識別を行うことができるパターン識別装置等に関する。   The present invention relates to a pattern identification device and the like that can perform identification with high accuracy and efficiency even when a pattern to be identified is affected by a difference in illumination conditions.

パターン認識における識別技術、典型的には、画像データ中の被写体であるオブジェクトが、別の画像中の被写体であるオブジェクトと同一のものであると識別する技術として、例えば個人の顔を識別する顔識別技術がある。以下、パターン識別とは、パターンの個体の違い(例えば、個人としての人物の違い)を判定することを意味する。一方、パターンの検出は、個体を区別せず同じ範疇に入るものを判定する(例えば、個人を区別せず、顔を検出する)ことを意味するものとする。   As an identification technique in pattern recognition, typically, a technique for identifying that an object that is a subject in image data is the same as an object that is a subject in another image, for example, a face that identifies an individual's face There is identification technology. Hereinafter, pattern identification means determining differences between individual patterns (for example, differences between individuals as individuals). On the other hand, the detection of the pattern means that an object that falls within the same category is determined without distinguishing between individuals (for example, a face is detected without distinguishing between individuals).

顔識別技術として、例えば非特許文献1のような方法がある。
このような、パターン(具体的には人物の顔)の識別を行う装置および方法において、識別性能を低下させる要因として、入力パターンと登録パターン間における照明条件の違いが挙げられる。照明条件が異なることで、顔全体の明暗の変化や顔の陰影の付き方が変化することで、識別性能が大幅に低下してしまう。
As a face identification technique, for example, there is a method as described in Non-Patent Document 1.
In such an apparatus and method for identifying a pattern (specifically, a human face), a difference in illumination conditions between the input pattern and the registered pattern can be cited as a factor that degrades the identification performance. Different lighting conditions change the brightness of the entire face and how the shadow of the face changes, which greatly reduces the identification performance.

特許文献1では、明示的な照明条件検出手段を設けることで照明変動に対応している。すなわち、入力画像と登録画像間の照明条件のずれを検出し、そのずれ量に応じた前処理を入力画像または登録画像あるいはその両方に行い、両者の照明条件を近づけた上で、顔認証を行うことで、照明条件にロバストな顔認証を行っている。   In patent document 1, it respond | corresponds to illumination fluctuation | variation by providing an explicit illumination condition detection means. In other words, a deviation in lighting conditions between the input image and the registered image is detected, pre-processing corresponding to the amount of deviation is performed on the input image and / or the registered image, and face authentication is performed after both lighting conditions are brought close to each other. By doing so, face recognition that is robust to lighting conditions is performed.

また、特許文献2では、照明条件の差を吸収するための部分空間を事前に用意しておき、識別の際に、入力画像および登録画像のパターンをその部分空間に射影した上で、顔認証を行っている。これにより照明条件にロバストな顔認証を行っている。   In Patent Document 2, a partial space for absorbing the difference in illumination conditions is prepared in advance, and the pattern of the input image and the registered image is projected onto the partial space at the time of identification, and then face authentication is performed. It is carried out. This makes face recognition robust to lighting conditions.

特開2006−53774号公報JP 2006-53774 A 特開2007−79710号公報JP 2007-79710 A

"Learning Patch Correspondences for Improved Viewpoint Invariant Face Recognition", A. B. Ashraf, S. Lucey, T. Chen, Carnegie Mellon University, IEEE International Conference on Computer Vision and Pattern Recognition (CVPR), June, 2008."Learning Patch Correspondences for Improved Viewpoint Invariant Face Recognition", A. B. Ashraf, S. Lucey, T. Chen, Carnegie Mellon University, IEEE International Conference on Computer Vision and Pattern Recognition (CVPR), June, 2008.

しかしながら、これらの方法は実用上の問題があると考えられる。例えば、特許文献1のように、明示的な照明条件検出手段を設けた場合には、その計算量が大きいだけでなく、照明条件検出手段を事前に大量の顔画像等を準備して学習しておかなければならない。また、特許文献2のように、部分空間を用いる方法でも同様に、事前に照明変動を吸収するような部分空間を、大量の顔画像等を準備して学習し、空間の基底データを記憶していなければならない。これは実用上の障害となってしまう。   However, these methods are considered to have practical problems. For example, when an explicit illumination condition detection unit is provided as in Patent Document 1, not only is the amount of calculation large, but the illumination condition detection unit prepares and learns a large number of face images in advance. I have to keep it. Similarly, as in Patent Document 2, a method using a partial space similarly learns a partial space that absorbs illumination fluctuations in advance by preparing a large amount of face images and the like, and stores the base data of the space. Must be. This becomes a practical obstacle.

また、これらの方法だけでは実環境における照明変動に十分に対応できていないと考えられる。例えば、顔全体にわたる照明変動ではなく、部分的な陰影を生じるような照明変動のような場合には、画像の部分領域を考慮していない、上述の方法だけでは対応が難しい。   In addition, it is considered that these methods alone cannot sufficiently cope with illumination fluctuation in the real environment. For example, in the case of illumination variation that causes partial shading rather than illumination variation over the entire face, it is difficult to cope with only the above-described method that does not consider the partial region of the image.

本発明は、入力された画像のパターンが属するカテゴリを識別するパターン識別装置であって、所定の変動を加えた変動入力画像および変動登録画像を生成する変動画像生成手段と、前記変動入力画像から入力部分特徴を抽出し、前記変動登録画像の前記入力部分特徴に対応する登録部分特徴を抽出する部分特徴抽出手段と、前記入力部分特徴と前記登録部分特徴の部分特徴の類似度を、前記変動画像の所定の組み合わせ毎に算出する部分特徴類似度算出手段と、前記部分特徴類似度算出手段で計算された、少なくとも1つ以上の前記部分特徴類似度を所定の基準で統合した統合部分特徴類似度を算出する部分特徴類似度統合手段と、前記統合部分特徴類似度を部分領域毎に所定の基準で統合し、前記入力画像および前記登録画像間の識別類似度を算出する識別類似度算出手段と、を有することを特徴とする。   The present invention relates to a pattern identification device for identifying a category to which an input image pattern belongs, a variation image generating means for generating a variation input image and a variation registration image to which a predetermined variation is added, and the variation input image. A partial feature extraction unit that extracts an input partial feature and extracts a registered partial feature corresponding to the input partial feature of the variation registration image; and the similarity between the input partial feature and the partial feature of the registered partial feature A partial feature similarity calculating unit that calculates each predetermined combination of images, and an integrated partial feature similarity obtained by integrating at least one of the partial feature similarities calculated by the partial feature similarity calculating unit according to a predetermined criterion A partial feature similarity integrating unit for calculating a degree, and the integrated partial feature similarity is integrated for each partial region according to a predetermined standard, and an identification class between the input image and the registered image Identification similarity calculation means for calculating a degree, and having a.

本発明によれば、入力画像と登録画像に所定の前処理を部分領域毎に行うことにより、明示的な照明条件検出や事前の部分空間の学習を必要とせずに、全体的な照明変動および部分的な陰影の変動に対して、精度の高いパターン識別を行うことができる。   According to the present invention, by performing predetermined pre-processing on the input image and the registered image for each partial region, it is possible to perform the overall illumination variation and the detection without requiring explicit illumination condition detection or prior partial space learning. It is possible to perform pattern identification with high accuracy against partial variations in shadows.

本実施形態のパターン識別装置の構成を示すブロック図である。It is a block diagram which shows the structure of the pattern identification apparatus of this embodiment. 本実施形態のパターン識別装置の処理を示すフローチャートである。It is a flowchart which shows the process of the pattern identification device of this embodiment. パターン登録部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of a pattern registration part. 登録パターン辞書データ生成部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of a registration pattern dictionary data generation part. 登録パターン辞書データ生成部の処理を説明するための模式図である。It is a schematic diagram for demonstrating the process of a registration pattern dictionary data generation part. 変動画像生成部および画像変換用パラメタ保持部の処理を示すフローチャートである。It is a flowchart which shows the process of the fluctuation | variation image generation part and the parameter holding | maintenance part for image conversion. 特徴ベクトル抽出部および特徴ベクトル変換部の処理を示すフローチャートである。It is a flowchart which shows the process of a feature vector extraction part and a feature vector conversion part. 入力パターン識別部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of an input pattern identification part. 入力パターン識別処理を示すフローチャートである。It is a flowchart which shows an input pattern identification process. 入力パターン識別用データ生成部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the data generation part for input pattern identification. 入力パターン識別演算部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of an input pattern identification calculating part. 入力パターン識別演算処理を示すフローチャートである。It is a flowchart which shows an input pattern identification calculation process. 部分特徴類似度統合部の処理を示すフローチャートである。It is a flowchart which shows the process of a partial feature similarity integration part. 複数特徴の登録パターン辞書データ生成部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the registration pattern dictionary data generation part of multiple features. 複数特徴の登録パターン辞書データ生成部の処理を説明するための模式図である。It is a schematic diagram for demonstrating the process of the registration pattern dictionary data generation part of multiple features. 複数特徴ベクトル抽出処理を示すフローチャートである。It is a flowchart which shows a multiple feature vector extraction process. 複数特徴の入力パターン生成部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the input pattern production | generation part of multiple features. 複数特徴の入力パターン識別演算部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the input pattern identification calculating part of multiple features. 複数特徴の入力パターン識別演算部の処理を示すフローチャートである。It is a flowchart which shows the process of the input pattern identification calculating part of multiple features.

以下、図面を参照して本実施形態に係るパターン識別装置について説明する。
(第1の実施形態)
図1は、本実施形態に係るパターン識別装置100の構成を示すブロック図である。パターン識別装置100は、結像光学系1、撮像部2、撮像制御部3、画像記録部4、パターン登録部5、入力パターン識別部6、パターン識別結果を出力する外部出力部7、各構成要素の制御・データ接続を行うための接続バス8を含んで構成されている。なお、パターン登録部5および入力パターン識別部6は、典型的には、それぞれ専用回路(ASIC)、プロセッサ(リコンフィギュラブルプロセッサ、DSP、CPUなど)であってもよい。また、単一の専用回路および汎用回路(PC用CPU)内部において実行されるプログラムとして存在してもよい。
Hereinafter, a pattern identification device according to the present embodiment will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a pattern identification apparatus 100 according to this embodiment. The pattern identification device 100 includes an imaging optical system 1, an imaging unit 2, an imaging control unit 3, an image recording unit 4, a pattern registration unit 5, an input pattern identification unit 6, an external output unit 7 that outputs a pattern identification result, and each configuration It includes a connection bus 8 for controlling elements and connecting data. The pattern registration unit 5 and the input pattern identification unit 6 may typically be a dedicated circuit (ASIC) and a processor (reconfigurable processor, DSP, CPU, etc.), respectively. Further, it may exist as a program executed in a single dedicated circuit and general-purpose circuit (PC CPU).

結像光学系1は、ズーム機構を備えた光学レンズで構成される。また、結像光学系1は、パン・チルト軸方向の駆動機構を備えていてもよい。
撮像部2の映像センサとしては、典型的にはCCDまたはCMOSイメージセンサが用いられる。撮像部2は、不図示のセンサ駆動回路からの読み出し制御信号により所定の映像信号(例えば、サブサンプリング、ブロック読み出しして得られる信号)を画像データとして出力する。
撮像制御部3は、撮影者からの指示(画角調整指示、シャッター押下など)およびパターン登録部5または入力パターン識別部6からの情報に基づいて、実際に撮影が行われるタイミングを制御する。
The imaging optical system 1 includes an optical lens having a zoom mechanism. Further, the imaging optical system 1 may include a driving mechanism in the pan / tilt axis direction.
As the image sensor of the imaging unit 2, a CCD or a CMOS image sensor is typically used. The imaging unit 2 outputs a predetermined video signal (for example, a signal obtained by subsampling or block reading) as image data in response to a read control signal from a sensor drive circuit (not shown).
The imaging control unit 3 controls the timing of actual shooting based on an instruction from the photographer (viewing angle adjustment instruction, shutter pressing, etc.) and information from the pattern registration unit 5 or the input pattern identification unit 6.

画像記録部4は、半導体メモリ等で構成され、撮像部2から転送された画像データを保持し、パターン登録部5、入力パターン識別部6からの要求に応じて所定のタイミングで画像データを転送する。
パターン登録部5は、画像データから識別の対象とするオブジェクトの情報を抽出し、記録・保持する。パターン登録部5のより詳細な構成および実際に行われる処理の具体的な内容については、後述する。
入力パターン識別部6は、画像データおよびパターン登録部5から取得したデータに基づいて、パターン、より典型的には、画像データ中のオブジェクトの識別を行う。入力パターン識別部6に関して、具体的な構成および行われる処理の詳細については、後述する。
The image recording unit 4 is configured by a semiconductor memory or the like, holds the image data transferred from the imaging unit 2, and transfers the image data at a predetermined timing in response to a request from the pattern registration unit 5 and the input pattern identification unit 6. To do.
The pattern registration unit 5 extracts information on an object to be identified from the image data, and records and holds it. A more detailed configuration of the pattern registration unit 5 and specific contents of the processing actually performed will be described later.
The input pattern identification unit 6 identifies a pattern, more typically an object in the image data, based on the image data and the data acquired from the pattern registration unit 5. With regard to the input pattern identification unit 6, a specific configuration and details of processing performed will be described later.

外部出力部7は、典型的には、CRTやTFT液晶などのモニタであり、撮像部2および画像記録部4から取得した画像データを表示、または、画像データにパターン登録部5および入力パターン識別部6の結果出力を重畳表示する。また、パターン登録部5および入力パターン識別部6の結果出力を電子データとして、外部メモリなどに出力する形式をとってもよい。
接続バス8は、上記構成要素間の制御・データ接続を行うためのバスである。
The external output unit 7 is typically a monitor such as a CRT or a TFT liquid crystal, and displays the image data acquired from the imaging unit 2 and the image recording unit 4 or identifies the pattern registration unit 5 and the input pattern in the image data. The result output of the unit 6 is displayed in a superimposed manner. Further, the results output from the pattern registration unit 5 and the input pattern identification unit 6 may be output as electronic data to an external memory or the like.
The connection bus 8 is a bus for performing control and data connection between the above components.

<全体フロー>
図2は、本実施形態に係るパターン識別装置の全体処理の一例を示すフローチャートである。図2を参照しながら、パターン識別装置100が、入力パターンの識別を行う実際の処理について説明する。なお、以下では、識別するパターンが人物の顔である場合について説明するが、本発明の対象はこれに限るものではない。
始めに、入力パターン識別部6は、画像記録部4から画像データを取得する(S1)。続いて、入力パターン識別部6は、取得した画像データに対して、人の顔の検出処理を行う(S02)。画像中から、人物の顔を検出する方法については、公知の技術を用いればよい。例えば、「特許3078166号公報」や「特開2002−8032号公報」で提案されているような技術を用いることができる。
<Overall flow>
FIG. 2 is a flowchart showing an example of the overall processing of the pattern identification apparatus according to the present embodiment. With reference to FIG. 2, an actual process in which the pattern identifying apparatus 100 identifies an input pattern will be described. In the following, a case where the pattern to be identified is a human face will be described, but the subject of the present invention is not limited to this.
First, the input pattern identification unit 6 acquires image data from the image recording unit 4 (S1). Subsequently, the input pattern identification unit 6 performs a human face detection process on the acquired image data (S02). A known technique may be used as a method for detecting a human face from an image. For example, a technique proposed in “Patent 3078166” or “JP 2002-8032” can be used.

入力パターン識別部6は、対象オブジェクトである人物の顔の検出処理をした後、画像中に人の顔が存在するか否かを判定する(S3)。存在する場合(S3でYesの場合)、入力パターン識別部6は、入力パターン識別処理、即ち個人の識別処理を行う(S4)。画像中に人の顔が存在しない場合(S3でNoの場合)、入力パターン識別部6は、処理を終了する。入力パターン識別処理(S4)の具体的な処理内容については、後述する。
入力パターン識別部6は、入力パターン識別処理の結果から、登録済みの人物に該当する顔があるか判定する(S5)。入力パターン識別部6はS1で検出された顔と同一人物が、登録済みの人物の中にあるか否かを判定し(S4)、ある場合(S5でYesの場合)、S8の処理に進む。検出された顔が登録済み人物の誰とも一致しない場合(S5でNoの場合)、入力パターン識別部6は、その人物を登録するかを判定する(S6)。これは、予め設定されている場合もあるが、例えばユーザが外部インターフェースやGUIなどを通じて、その場で登録するかどうか決定するようにしても良い。
After performing the process of detecting the face of the person who is the target object, the input pattern identification unit 6 determines whether or not a person's face exists in the image (S3). If it exists (Yes in S3), the input pattern identification unit 6 performs an input pattern identification process, that is, an individual identification process (S4). If no human face is present in the image (No in S3), the input pattern identification unit 6 ends the process. Specific processing contents of the input pattern identification processing (S4) will be described later.
The input pattern identification unit 6 determines whether there is a face corresponding to the registered person from the result of the input pattern identification process (S5). The input pattern identification unit 6 determines whether the same person as the face detected in S1 is among the registered persons (S4). If there is (Yes in S5), the process proceeds to S8. . If the detected face does not match any registered person (No in S5), the input pattern identification unit 6 determines whether to register the person (S6). Although this may be set in advance, for example, the user may determine whether to register on the spot through an external interface or a GUI.

登録すると判定された場合(S6でYesの場合)、入力パターン識別部6は、後述するパターン(人物の顔)の登録処理を行う(S7)。登録を行わない場合(S6でNoの場合)、そのまま処理を続行する。
パターン登録処理(S7)の後およびS6で登録を行わない場合、入力パターン識別部6は、検出されたパターン全てについて処理が終了したか否かを判定する(S8)。未処理のパターンがある場合(S8でNoの場合)、S4に戻る。検出された全てのパターンについて処理が終了した場合(S8でYesの場合)入力パターン識別部6は、一連の入力パターン識別処理の結果を外部出力部7に出力する。
以上が、本実施形態に係るパターン識別装置100の全体の処理フローである。
If it is determined to be registered (Yes in S6), the input pattern identification unit 6 performs a pattern (person face) registration process described later (S7). When registration is not performed (No in S6), the process is continued as it is.
After the pattern registration process (S7) and when registration is not performed in S6, the input pattern identification unit 6 determines whether or not the process has been completed for all detected patterns (S8). If there is an unprocessed pattern (No in S8), the process returns to S4. When the processing is completed for all the detected patterns (Yes in S8), the input pattern identification unit 6 outputs a series of input pattern identification processing results to the external output unit 7.
The above is the overall processing flow of the pattern identification apparatus 100 according to the present embodiment.

<パターン登録部>
パターン登録処理について説明する。図3は、パターン登録部5の構成の一例を示すブロック図である。図3に示すように、パターン登録部5は、登録パターン辞書データ生成部21、登録パターン辞書データ保持部22、登録パターン辞書データ選択部23を含んで構成されている。
<Pattern registration part>
The pattern registration process will be described. FIG. 3 is a block diagram illustrating an example of the configuration of the pattern registration unit 5. As shown in FIG. 3, the pattern registration unit 5 includes a registration pattern dictionary data generation unit 21, a registration pattern dictionary data holding unit 22, and a registration pattern dictionary data selection unit 23.

登録パターン辞書データ生成部21は、画像記録部4から取得した画像データから、パターンの個体を識別するために必要な登録パターン辞書データを生成する。ここでは、顔画像が同一のカテゴリであるか、別のカテゴリであるかの問題を判別するため、人物の顔画像から生成したデータを辞書データとして登録する。同一人物の複数枚の画像で登録することも考えられるが、本実施形態では一人につき1枚の画像を用いることとする。よって登録パターン辞書データは登録した人数の分だけ生成されることになる。画像を登録する際は、顔検出処理によって検出された人物の顔画像データを、大きさや向き(面内回転方向)などを正規化した後、登録パターン辞書データ保持部22に格納するようにしてもよい。画像データそのものではなく、識別時に必要なデータのみを保持するようにすることによって、辞書データ量を削減することもできる。当該パターンの部分領域のベクトル相関をとって識別演算を行う場合、予めその部分領域のみを切り出しておけばよい。   The registered pattern dictionary data generation unit 21 generates registered pattern dictionary data necessary for identifying an individual pattern from the image data acquired from the image recording unit 4. Here, in order to determine whether the face image is in the same category or a different category, data generated from the person's face image is registered as dictionary data. Although registration with a plurality of images of the same person is conceivable, in this embodiment, one image is used per person. Accordingly, registered pattern dictionary data is generated for the number of registered persons. When registering an image, the face image data of the person detected by the face detection process is normalized in size and orientation (in-plane rotation direction) and then stored in the registered pattern dictionary data holding unit 22. Also good. It is possible to reduce the amount of dictionary data by holding only the data necessary for identification, not the image data itself. When performing the discrimination calculation by taking the vector correlation of the partial area of the pattern, it is sufficient to cut out only the partial area in advance.

以上のように、登録パターン辞書データ生成部21では、適宜必要な情報を画像から抽出し、後述する所定の変換を行った後、パターンの識別を行うための特徴ベクトルとして、登録パターン辞書データ保持部22に格納する。登録パターン辞書データ生成部21で行われる具体的な処理の内容については、後述する。登録パターン辞書データ選択部23は、後述する入力パターン識別部6の要求に応じて、登録パターン辞書データ保持部22から必要な登録パターン辞書データを読み出して、入力パターン識別部6に登録パターン辞書データを転送する。   As described above, the registered pattern dictionary data generation unit 21 appropriately stores necessary information from the image, performs predetermined conversion described later, and then stores the registered pattern dictionary data as a feature vector for pattern identification. Stored in the unit 22. Details of specific processing performed by the registered pattern dictionary data generation unit 21 will be described later. The registered pattern dictionary data selecting unit 23 reads necessary registered pattern dictionary data from the registered pattern dictionary data holding unit 22 in response to a request from the input pattern identifying unit 6 described later, and stores the registered pattern dictionary data in the input pattern identifying unit 6. Forward.

<登録パターン辞書データ生成部>
図4は、登録パターン辞書データ生成部21の構成の一例を示すブロック図である。図4に示すように、登録パターン辞書データ生成部21は、変動画像生成部30、画像変換用パラメタ保持部31、部分領域設定部32、特徴ベクトル抽出部33、特徴ベクトル変換部34、特徴ベクトル変換用データ保持部35を含んで構成されている。図5は、登録パターン辞書データ生成部21における処理の模式図を示しており、説明の補助として合わせて用いる。
<Registered pattern dictionary data generation unit>
FIG. 4 is a block diagram illustrating an example of the configuration of the registered pattern dictionary data generation unit 21. As shown in FIG. 4, the registered pattern dictionary data generation unit 21 includes a variation image generation unit 30, an image conversion parameter holding unit 31, a partial region setting unit 32, a feature vector extraction unit 33, a feature vector conversion unit 34, a feature vector. The conversion data holding unit 35 is included. FIG. 5 shows a schematic diagram of processing in the registered pattern dictionary data generation unit 21, which is also used as an aid for explanation.

変動画像生成部30は、画像データに対して画像変換用パラメタ保持部31から変換用パラメタを取得し、画像変換を行い、変動登録画像を生成する(図5の画像取得および変動画像生成)。ここで用いる変換用パラメタは1種類だけでなく、複数種類用意しておき、変動登録画像を複数種類生成しておく。この処理の詳細は、後述する。部分領域設定部32は、画像データおよび変動画像データに対して、特徴ベクトル抽出部33が特徴ベクトルを抽出する位置と範囲を設定する(図5の部分領域設定)。   The variation image generation unit 30 acquires a conversion parameter from the image conversion parameter holding unit 31 for the image data, performs image conversion, and generates a variation registration image (image acquisition and variation image generation in FIG. 5). The conversion parameters used here are not only one type, but a plurality of types are prepared, and a plurality of types of variable registration images are generated. Details of this processing will be described later. The partial area setting unit 32 sets the position and range from which the feature vector extraction unit 33 extracts feature vectors for the image data and the fluctuation image data (partial area setting in FIG. 5).

部分領域の位置と範囲は、識別の対象が人の顔である場合には、顔の器官位置を基準とした領域を機械学習の方法を用いて予め決めておくとよい。例えば、部分領域の候補を複数設定しておいて、上記複数候補から、AdaBoostを用いて選択するようにしてもよい。また、後述するように、上記部分領域の組み合わせを多数用意しておいて、その組み合わせを1つの候補として、AdaBoostで選択するようにしてもよい。実際にAdaBoostを適用して、部分領域やその組み合わせを決める方法については、後述する入力パターン識別部6の説明で詳述する。部分領域の数は、処理時間などに応じて予め所定の数を決めておくとよい。また、予め用意した学習用サンプルに対して、十分な識別性能を得られる数を計測して決めるなどとしてもよい。   When the identification target is a human face, the position and range of the partial area may be determined in advance by using a machine learning method for the area based on the facial organ position. For example, a plurality of partial area candidates may be set and selected from the plurality of candidates using AdaBoost. Further, as will be described later, a large number of combinations of the partial areas may be prepared, and the combinations may be selected as one candidate by AdaBoost. A method of determining a partial region and a combination thereof by actually applying AdaBoost will be described in detail in the description of the input pattern identification unit 6 described later. The number of partial areas may be determined in advance according to the processing time or the like. In addition, the number of learning samples prepared in advance may be measured and determined so that sufficient identification performance can be obtained.

本実施形態では、変動画像生成部30の後に部分領域設定部32という順番に構成されているが、これは逆の順番でもよい。すなわち、先に部分領域設定部32が部分領域を設定した上で、その部分領域に対して、変動画像生成部30が変動画像を生成してもよい。   In the present embodiment, the partial image setting unit 32 is arranged after the variation image generating unit 30, but this may be reversed. That is, after the partial area setting unit 32 sets a partial area first, the fluctuation image generation unit 30 may generate a fluctuation image for the partial area.

特徴ベクトル抽出部33は、変動登録画像から部分特徴抽出を行う。ここでは登録変動画像からの抽出であるため登録部分特徴の抽出(図5の「特徴ベクトル抽出、変換」のうちの抽出の処理)となる。本実施形態ではLBP(Local Binary Pattern)特徴量を部分領域から抽出し、特徴ベクトルとしている。この部分領域とは画像中の一定の大きさの矩形領域を指す。特徴ベクトルとしては、この他に、画像の輝度値やその他の特徴量を特徴ベクトルとして抽出してもよい。上述の通り、変動画像は複数種類あるため、変動画像の種類毎に特徴ベクトルを抽出する。また、特徴ベクトルを抽出する際には、輝度値を直接取得するのではなく、ガボアフィルタなど何らかのフィルタ演算を施した結果から特徴ベクトルを抽出してもよい。特徴ベクトル抽出部33で行われる処理の内容については後述する。また、本実施形態のように、変動画像から特徴ベクトルを抽出せずに、元の画像データ(登録画像)から抽出した特徴ベクトルを、あたかも変動画像から抽出した特徴ベクトルとなるような変換を行う変動特徴生成器を設けてもよい。こうすることにより、変動画像を生成し、記憶しておく必要がなくなる。ただし、変動画像生成部30で行う画像変換の種類によっては、変動特徴生成器で行う変換は非線形変換となることがあるため、近似計算等が必要な場合がある。   The feature vector extraction unit 33 performs partial feature extraction from the variation registration image. In this case, since it is extraction from the registration variation image, it is extraction of the registered partial feature (extraction processing of “feature vector extraction, conversion” in FIG. 5). In this embodiment, an LBP (Local Binary Pattern) feature amount is extracted from a partial region and used as a feature vector. This partial area refers to a rectangular area of a certain size in the image. In addition to this, the brightness value of the image and other feature quantities may be extracted as the feature vector. As described above, since there are a plurality of types of variation images, a feature vector is extracted for each type of variation image. Further, when extracting the feature vector, the feature vector may be extracted from the result of performing some filter operation such as a Gabor filter instead of directly acquiring the luminance value. The contents of the process performed by the feature vector extraction unit 33 will be described later. Further, as in the present embodiment, the feature vector extracted from the original image data (registered image) is converted into the feature vector extracted from the variation image without extracting the feature vector from the variation image. A variation feature generator may be provided. In this way, it is not necessary to generate and store a fluctuation image. However, depending on the type of image conversion performed by the variation image generation unit 30, the conversion performed by the variation feature generator may be non-linear conversion, and thus approximate calculation or the like may be necessary.

特徴ベクトル変換部34は、特徴ベクトル抽出部33によって抽出された特徴ベクトルに所定の変換を施す(図5の特徴ベクトル抽出、変換のうちの変換)。特徴ベクトルの変換は、例えば、主成分分析(PCA)による次元圧縮や、独立成分分析(ICA)による次元圧縮などが行われる。また、局所性保存射影(LPP)や、局所フィッシャー判別分析(LFDA)による次元圧縮を行ってもよい。
特徴ベクトルの変換方法にPCAを用いた場合、その基底数(特徴ベクトルの次元削減数)や、どの基底を用いるか、などのパラメタが存在する。基底数の代わりに、基底ベクトルに対応する固有値の和、すなわち累積寄与率を指標としてもよい。これらのパラメタを部分領域毎に異なったものにしてもよいし、変動画像毎に異なったものにしてもよい。実際にどのようなパラメタを設定するかは、予め機械学習によって決めることができる。
The feature vector conversion unit 34 performs predetermined conversion on the feature vector extracted by the feature vector extraction unit 33 (the conversion of the feature vector extraction and conversion in FIG. 5). For the feature vector conversion, for example, dimensional compression by principal component analysis (PCA), dimensional compression by independent component analysis (ICA), or the like is performed. Further, dimensional compression by locality preserving projection (LPP) or local Fisher discriminant analysis (LFDA) may be performed.
When PCA is used as a feature vector conversion method, there are parameters such as the number of bases (the number of feature vector dimensions to be reduced) and which base to use. Instead of the basis number, a sum of eigenvalues corresponding to the basis vector, that is, a cumulative contribution rate may be used as an index. These parameters may be different for each partial region, or may be different for each variation image. What parameters are actually set can be determined in advance by machine learning.

特徴ベクトル変換用データ保持部35は、特徴ベクトル変換部34において、特徴ベクトルの変換を行う際に必要なデータを保持している。ここで、特徴ベクトルの変換に必要なデータとは、上述のような基底数(次元削減数)などの設定情報や、予め学習によって求めておいた基底ベクトルの数値データなどである。   The feature vector conversion data holding unit 35 holds data necessary for the feature vector conversion unit 34 to convert feature vectors. Here, the data necessary for the feature vector conversion includes setting information such as the number of bases (dimension reduction number) as described above, and numerical data of base vectors obtained in advance by learning.

図6は、変動画像生成部30および画像変換用パラメタ保持部31で行われる処理の一例を示すフローチャートである。このフローチャートでは、始めに、変動画像生成部30は、入力された画像データを取得する(S10)。次に、変動画像生成部30は、取得した画像に対して行う画像変換のパラメタを画像変換用パラメタ保持部31から取得する(S11)。このパラメタは画像変換方法および、その変換パラメタから構成される。続いて、変動画像生成部30は、これらの取得した画像データおよび画像変換のパラメタを用いて、画像変換を行う(S12)。画像変換として画像ボケ(ガウシアン)フィルタを用いた場合の変換式を以下に示す。   FIG. 6 is a flowchart illustrating an example of processing performed by the fluctuation image generation unit 30 and the image conversion parameter holding unit 31. In this flowchart, first, the fluctuation image generation unit 30 acquires input image data (S10). Next, the fluctuation image generation unit 30 acquires the image conversion parameters for the acquired image from the image conversion parameter holding unit 31 (S11). This parameter comprises an image conversion method and its conversion parameters. Subsequently, the fluctuation image generation unit 30 performs image conversion using the acquired image data and image conversion parameters (S12). A conversion formula when an image blur (Gaussian) filter is used as image conversion is shown below.

Figure 2012234500
Figure 2012234500

x,yは、それぞれ画素位置のx座標、y座標を表し、Aは(式2)を満たすための正規化項を表わす。σは画像ボケ(ガウシアン)フィルタのパラメタで、これが大きいほど輝度の低周波成分の抽出度合いが強くなり、小さいほど弱くなる。このような画像変換により変動登録画像を生成する。ここで行う処理は、この他にエッジ強調フィルタ、コントラストフィルタといった公知の空間フィルタなどを用いることができるが、その他の画像変換手法を用いてもよい。また、画像変換を行っていない元画像も、変動登録画像として含めてもよい。   x and y represent the x-coordinate and y-coordinate of the pixel position, respectively, and A represents a normalization term for satisfying (Expression 2). σ is a parameter of an image blur (Gaussian) filter. The larger this is, the stronger the degree of extraction of the low frequency component of the luminance, and the smaller the value, the weaker. A variation registration image is generated by such image conversion. In addition to the above processing, a known spatial filter such as an edge enhancement filter or a contrast filter can be used, but other image conversion methods may be used. Further, an original image that has not been subjected to image conversion may also be included as a variation registration image.

図6に示すフローチャートに戻り、変動画像生成部30は、所定のパラメタによる変換が全て終了したか否かの判定を行う(S13)。終了していなければ(S13でNoの場合)、S11に戻り、変動画像生成部30は、残りの変換パラメタで変換を行う。終了しているならば(S13でYesの場合)、変動画像生成部30は、画像変換した変動画像データおよび画像変換に用いたパラメタを関連付けて保持し(S14)、処理を完了する。   Returning to the flowchart shown in FIG. 6, the fluctuation image generation unit 30 determines whether or not the conversion by the predetermined parameter is completed (S13). If not completed (No in S13), the process returns to S11, and the fluctuation image generation unit 30 performs conversion using the remaining conversion parameters. If it has been completed (Yes in S13), the fluctuation image generation unit 30 holds the fluctuation image data subjected to the image conversion and the parameters used for the image conversion in association with each other (S14), and the processing is completed.

図7は、特徴ベクトル抽出部33および特徴ベクトル変換部34等で行われる処理の一例を示すフローチャートである。始めに、部分領域設定部32が部分領域の設定情報を取得する(S20)。続いて、部分領域設定部32は、画像記録部4から対象パターンの登録変動画像データを取得する(S21)。部分領域設定部32は、取得した登録変動画像データからS20で取得した部分領域の情報に基づいて部分領域画像データを切り出し(S22)、特徴ベクトル抽出部33は、部分領域画像データから特徴量を取得する(S23)。ここでは1種類の特徴量を抽出する。   FIG. 7 is a flowchart illustrating an example of processing performed by the feature vector extraction unit 33, the feature vector conversion unit 34, and the like. First, the partial area setting unit 32 acquires partial area setting information (S20). Subsequently, the partial area setting unit 32 acquires registered variation image data of the target pattern from the image recording unit 4 (S21). The partial region setting unit 32 cuts out the partial region image data from the acquired registered variation image data based on the partial region information acquired in S20 (S22), and the feature vector extraction unit 33 extracts the feature amount from the partial region image data. Obtain (S23). Here, one type of feature amount is extracted.

上述した通り、特徴ベクトル抽出部33は、LBP特徴量を抽出し、特徴ベクトルとするが、典型的には、輝度画像の画素値をそのまま特徴ベクトルとして抽出してもよいし、その他の特徴量抽出手法を用いてもよい。特徴ベクトル変換部34は、S23で取得した特徴ベクトルに対して、特徴ベクトル変換用データ保持部35から取得した設定に従って、所定の変換を行う(S24)。上述したように、典型的には、PCAによる次元削減や、ICAによる次元削減などを特徴ベクトルに対して行う。この際、取得した特徴ベクトルに対して、所定の統計値、典型的には、平均ベクトルや、要素の最大値などを求めておいてもよい。また、部分特徴として、画像から切り出した位置の情報を記録するようにしてもよい。後述するように、登録パターンと入力パターン間で対応する部分特徴の比較・評価を行うために、対応関係を示す識別子を記録するようにしてもよい。これらの情報は、登録パターン辞書データ生成部21の出力として、特徴ベクトルと共に出力するようにするとよい。以上が、特徴ベクトル抽出部33および特徴ベクトル変換部34等で行われる処理の一例の説明である。
以上のような処理を行って、部分領域を設定し、特徴ベクトルを抽出した後に、特徴ベクトルを変換したデータを、登録パターン辞書データ生成部21の出力として、登録パターン辞書データ保持部22に格納する。
As described above, the feature vector extraction unit 33 extracts the LBP feature quantity and sets it as the feature vector. Typically, however, the pixel value of the luminance image may be extracted as it is as a feature vector, or other feature quantities. An extraction method may be used. The feature vector conversion unit 34 performs predetermined conversion on the feature vector acquired in S23 according to the setting acquired from the feature vector conversion data holding unit 35 (S24). As described above, typically, dimension reduction by PCA, dimension reduction by ICA, and the like are performed on feature vectors. At this time, a predetermined statistical value, typically an average vector, a maximum value of elements, or the like may be obtained for the acquired feature vector. Further, information on a position cut out from an image may be recorded as a partial feature. As will be described later, in order to compare / evaluate the corresponding partial features between the registered pattern and the input pattern, an identifier indicating the correspondence may be recorded. These pieces of information may be output together with the feature vector as an output of the registered pattern dictionary data generation unit 21. The above is an example of the process performed by the feature vector extraction unit 33, the feature vector conversion unit 34, and the like.
After performing the above processing, setting a partial region, extracting a feature vector, storing the data obtained by converting the feature vector in the registered pattern dictionary data holding unit 22 as an output of the registered pattern dictionary data generating unit 21 To do.

<入力パターン識別部>
次に、入力パターン識別処理について説明する。図8は、入力パターン識別部6の構成の一例を示すブロック図である。図8に示すように、入力パターン識別部6は、入力パターン識別用データ生成部41、登録パターン辞書データ取得部42、入力パターン識別演算部43を含んで構成されている。
入力パターン識別用データ生成部41は、画像記録部4から取得した画像データから対象パターンの識別に必要な情報の抽出を行う。
登録パターン辞書データ取得部42は、パターン登録部5から入力パターンの識別に必要な辞書データを取得する。
入力パターン識別演算部43は、入力パターン識別用データ生成部41から取得した識別用データと、登録パターン辞書データ取得部42から取得した辞書データとから入力パターンの識別処理を行う。ここで行われる処理については、後述する。
<Input pattern identification unit>
Next, the input pattern identification process will be described. FIG. 8 is a block diagram illustrating an example of the configuration of the input pattern identification unit 6. As shown in FIG. 8, the input pattern identification unit 6 includes an input pattern identification data generation unit 41, a registered pattern dictionary data acquisition unit 42, and an input pattern identification calculation unit 43.
The input pattern identification data generation unit 41 extracts information necessary for identifying the target pattern from the image data acquired from the image recording unit 4.
The registered pattern dictionary data acquisition unit 42 acquires dictionary data necessary for identifying an input pattern from the pattern registration unit 5.
The input pattern identification calculation unit 43 performs input pattern identification processing from the identification data acquired from the input pattern identification data generation unit 41 and the dictionary data acquired from the registered pattern dictionary data acquisition unit 42. The processing performed here will be described later.

図9は、入力パターン識別部6で行われる識別処理の一例を示すフローチャートである。まず、登録パターン辞書データ取得部42は、パターン登録部5から登録パターン辞書データを取得する(S30)。次に、入力パターン識別用データ生成部41は、画像記録部4より入力パターンの画像データを取得する(S31)。続いて、入力パターン識別演算部43は、入力パターン識別用データ生成処理を行う(S32)。ここで行われる処理については、後述する。次に、入力パターン識別演算部43は、入力パターン識別演算処理を行う(S33)。入力パターン識別演算処理の出力として、登録済みデータ(辞書データ)との一致をバイナリ(0or1)で出力する場合と、正規化した出力値を(0〜1の実数値)尤度として出力する場合が考えられる。さらに登録パターン(登録者)が複数(複数人)ある場合には、それぞれの登録パターン(登録者)に対して、尤度を出力しても良いが、最も良く一致した登録パターンに対する結果だけを出力しても良い。また、登録パターンに対する尤度ではなく、登録パターンが属するカテゴリに対しての尤度を出力してもよい。すなわち、人物の場合には、個々の登録顔画像への結果ではなく、人物のID(名前)に対する尤度を出力するようにする。なお、入力パターン識別演算処理の具体的な内容についても、後述する。以上が、入力パターン識別部6における処理の一例を示すフローチャートの説明である。   FIG. 9 is a flowchart illustrating an example of identification processing performed by the input pattern identification unit 6. First, the registered pattern dictionary data acquisition unit 42 acquires registered pattern dictionary data from the pattern registration unit 5 (S30). Next, the input pattern identification data generation unit 41 acquires image data of the input pattern from the image recording unit 4 (S31). Subsequently, the input pattern identification calculation unit 43 performs input pattern identification data generation processing (S32). The processing performed here will be described later. Next, the input pattern identification calculation unit 43 performs an input pattern identification calculation process (S33). When outputting a match with registered data (dictionary data) in binary (0 or 1) and outputting a normalized output value as a (0-1 real value) likelihood as the output of the input pattern identification calculation process Can be considered. In addition, when there are a plurality of registration patterns (registrants), the likelihood may be output for each registration pattern (registrant), but only the result for the best matching registration pattern is displayed. It may be output. Also, the likelihood for the category to which the registered pattern belongs may be output instead of the likelihood for the registered pattern. That is, in the case of a person, the likelihood for the person ID (name) is output instead of the result for each registered face image. The specific contents of the input pattern identification calculation process will also be described later. The above is the description of the flowchart showing an example of processing in the input pattern identification unit 6.

<入力パターン識別用データ生成部>
図10は、入力パターン識別用データ生成部41の構成の一例を示すブロック図である。図10に示すように、入力パターン識別用データ生成部41は、変動画像生成部50、画像変換用パラメタ保持部51、部分領域設定部52、特徴ベクトル抽出部53、特徴ベクトル変換部54、特徴ベクトル変換用データ保持部55を含んで構成されている。入力パターン識別用データ生成部41の構成およびそこで行われる処理は、登録パターン辞書データ生成部21とほぼ同じであるので、詳細の説明は割愛する。相違点として、変動画像生成部30で生成される画像を変動入力画像と呼び、特徴ベクトル抽出部53で抽出される特徴ベクトルを入力部分特徴と呼ぶ点が異なる。
<Data generation unit for input pattern identification>
FIG. 10 is a block diagram illustrating an example of the configuration of the input pattern identification data generation unit 41. As illustrated in FIG. 10, the input pattern identification data generation unit 41 includes a variation image generation unit 50, an image conversion parameter holding unit 51, a partial region setting unit 52, a feature vector extraction unit 53, a feature vector conversion unit 54, a feature. A vector conversion data holding unit 55 is included. The configuration of the input pattern identification data generation unit 41 and the processing performed there are almost the same as those of the registered pattern dictionary data generation unit 21, and thus detailed description thereof is omitted. The difference is that an image generated by the variation image generation unit 30 is called a variation input image, and a feature vector extracted by the feature vector extraction unit 53 is called an input partial feature.

<入力パターン識別演算処理>
入力パターン識別演算処理について説明する。ここでは、一例として、入力パターンの識別を対応する部分特徴間の類似性に基づいて判定する場合について説明する。図11は、入力パターン識別演算部43の構成の一例を示すブロック図である。入力パターン識別演算部43は、入力パターン識別用データ取得部61、登録パターン辞書データ取得部62、部分特徴類似度算出部63、部分特徴類似度統合部64、識別結果算出部65を含んで構成されている。
<Input pattern identification calculation processing>
The input pattern identification calculation process will be described. Here, as an example, a case will be described in which input pattern identification is determined based on the similarity between corresponding partial features. FIG. 11 is a block diagram illustrating an example of the configuration of the input pattern identification calculation unit 43. The input pattern identification calculation unit 43 includes an input pattern identification data acquisition unit 61, a registered pattern dictionary data acquisition unit 62, a partial feature similarity calculation unit 63, a partial feature similarity integration unit 64, and an identification result calculation unit 65. Has been.

図12は、入力パターン識別演算処理の一例を示すフローチャートである。以下、このフローチャートを用いて説明する。
まず、入力パターン識別用データ取得部61は、入力パターン識別用データを取得する(S40)。次に、登録パターン辞書データ取得部62は、登録パターンの辞書データを取得する(S41)。続いて、部分特徴類似度算出部63は、S40およびS41で取得した入力パターン識別用データと登録パターン辞書データとのそれぞれの特徴ベクトルから、部分特徴類似度を算出する(S42)。この特徴ベクトルは上述の通り、変動画像の部分領域から抽出した特徴量に変換を施したベクトルである。ここでは、類似度算出の方法として特徴ベクトル間の内積に基づくコサイン類似度を使用する。すなわち、入力パターン識別用データの特徴ベクトルをVI、登録パターン辞書データの特徴ベクトルをVR、VIとVRがなす角をθとすると、コサイン類似度Sは、以下の式で表わされる。
FIG. 12 is a flowchart illustrating an example of the input pattern identification calculation process. Hereinafter, this flowchart will be described.
First, the input pattern identification data acquisition unit 61 acquires input pattern identification data (S40). Next, the registered pattern dictionary data acquisition unit 62 acquires dictionary data of registered patterns (S41). Subsequently, the partial feature similarity calculating unit 63 calculates the partial feature similarity from the feature vectors of the input pattern identification data and the registered pattern dictionary data acquired in S40 and S41 (S42). As described above, this feature vector is a vector obtained by converting the feature amount extracted from the partial region of the fluctuation image. Here, cosine similarity based on the inner product between feature vectors is used as a method for calculating similarity. That is, if the feature vector of the input pattern identification data is V I , the feature vector of the registered pattern dictionary data is V R , and the angle formed by V I and V R is θ, the cosine similarity S is expressed by the following equation. .

Figure 2012234500
Figure 2012234500

ただし、VI・VRはそれぞれVIとVRの内積、|VI|と|VR|は、それぞれのベクトルのノルムを表わす。本実施形態では、このコサイン類似度を使用したが、その他の方法を用いてもよい。続いて、部分特徴類似度算出部63は、変動画像の全組み合わせについて、演算が終了したか否かを判定する(S43)。これについても、変動画像の全組み合わせ以外にも、事前に定めておいた組み合わせについてのみ演算する方法などが考えられる。全組み合わせの演算が終了した場合(S43でYesの場合)、部分特徴類似度統合部64は、組み合わせの数だけ算出された部分特徴類似度の統合を行う(S44)。統合方法の詳細は後述する。 However, V I · V R represents the inner product of V I and V R , and | V I | and | V R | represent the norm of each vector. In this embodiment, this cosine similarity is used, but other methods may be used. Subsequently, the partial feature similarity calculation unit 63 determines whether or not the calculation has been completed for all combinations of the variation images (S43). In this case, in addition to all the combinations of the fluctuation images, a method of calculating only a predetermined combination may be considered. When the calculation for all the combinations is completed (Yes in S43), the partial feature similarity integration unit 64 integrates the partial feature similarities calculated by the number of combinations (S44). Details of the integration method will be described later.

次に、部分特徴類似度統合部64は、S44で統合した部分特徴類似度を、さらに部分領域全体にわたって統合し、識別結果算出部65は、入力パターンと登録パターンの識別類似度算出を行う(S45)。本実施形態では、統合の方法として、部分特徴類似度の高い順に上位から所定個数を平均する方法を用いているが、その他の手法を用いてもよい。
最後に、識別結果算出部65は、全ての辞書データについて識別の演算が終了したか否かを判定する(S46)。演算が終了していない登録パターン辞書データがある場合(S46でNoの場合)、S41に戻り、登録パターン辞書データ取得部62は、まだ処理の完了していない人物の登録パターン辞書データに対して処理を行う。全ての人物の登録パターン辞書データの処理が終了している場合(S46でYesの場合)、識別結果算出部65は、識別類似度を保持する(S47)。ここでは、入力パターン識別用データと各登録パターン辞書データ間の類似度を類似度最大のものを識別結果として保持する。他にも、全ての類似度をリストで保持する方法が考えられる。以上が、パターン識別演算処理の説明である。
Next, the partial feature similarity integration unit 64 further integrates the partial feature similarity integrated in S44 over the entire partial area, and the identification result calculation unit 65 calculates the identification similarity of the input pattern and the registered pattern ( S45). In the present embodiment, as a method of integration, a method of averaging a predetermined number from the top in descending order of partial feature similarity is used, but other methods may be used.
Finally, the identification result calculation unit 65 determines whether or not the identification calculation has been completed for all dictionary data (S46). If there is registered pattern dictionary data that has not been calculated (No in S46), the process returns to S41, and the registered pattern dictionary data acquisition unit 62 applies to registered pattern dictionary data of a person that has not been processed yet. Process. When the processing of the registered pattern dictionary data for all persons has been completed (Yes in S46), the identification result calculation unit 65 holds the identification similarity (S47). Here, the maximum similarity between the input pattern identification data and each registered pattern dictionary data is stored as the identification result. In addition, a method of holding all similarities in a list is conceivable. The above is the description of the pattern identification calculation process.

<部分特徴類似度統合>
次に、部分特徴類似度統合処理について説明する。図13は、部分特徴類似度統合部64で行われる処理(S44)の一例を示すフローチャートである。
まず、部分特徴類似度統合部64は、部分特徴類似度データを取得する(S51)。
次に、部分特徴類似度統合部64は、複数ある部分特徴類似度を一つの値に統合する処理を行う(S52)。ここでは、類似度最大基準での統合を行う。すなわち、取得した複数の部分特徴類似度の中から類似度最大のものを選択し、部分特徴類似度統合部64は、それを統合結果として出力する。一般に、顔認証のような画像の詳細をマッチングする処理の場合には、他人同士の類似度が偶然高くなることは考えにくい。そのため、統合処理として、この類似度最大の選択を行うことにより、入力画像と登録画像間の照明変動差を軽減するような変換を施した上で、本当に本人同士ならば高い類似度、他人同士ならば低い類似度が得られることが期待できる。
最後に、部分特徴類似度統合部64は、統合した部分特徴類似度のデータを保持する(S53)。以上が、部分類似度統合処理の説明である。
<Partial feature similarity integration>
Next, the partial feature similarity integration process will be described. FIG. 13 is a flowchart illustrating an example of the process (S44) performed by the partial feature similarity integration unit 64.
First, the partial feature similarity integration unit 64 acquires partial feature similarity data (S51).
Next, the partial feature similarity integration unit 64 performs a process of integrating a plurality of partial feature similarities into one value (S52). Here, integration is performed based on the maximum similarity criterion. That is, the one with the maximum similarity is selected from the acquired plurality of partial feature similarities, and the partial feature similarity integrating unit 64 outputs it as an integration result. In general, in the process of matching image details such as face authentication, it is unlikely that the similarity between others will increase accidentally. Therefore, as integration processing, by selecting this maximum degree of similarity, after performing conversion that reduces the difference in illumination fluctuation between the input image and the registered image, the person who is really the person is highly similar, If so, it can be expected that a low degree of similarity is obtained.
Finally, the partial feature similarity integration unit 64 holds the integrated partial feature similarity data (S53). The above is the description of the partial similarity integration process.

このように、本実施形態では、登録画像および入力画像の複数の変動画像から、部分領域毎に、特徴ベクトルを抽出し、複数の変動画像の総当たりで算出した類似度の最大のものを選択し、部分領域毎の類似度を統合している。これにより、登録パターンと入力パターンの照明条件を明示的に算出することなく、両者の照明条件差を軽減した変動画像同士の類似度を得ることができる。また、部分領域毎の処理により、画像の部分的な照明条件差に対するロバスト性も期待できる。   As described above, in the present embodiment, feature vectors are extracted for each partial region from a plurality of variation images of the registered image and the input image, and the one having the maximum similarity calculated for the brute force of the plurality of variation images is selected. The similarity for each partial area is integrated. Thereby, it is possible to obtain the similarity between the fluctuation images in which the difference between the illumination conditions is reduced without explicitly calculating the illumination conditions of the registered pattern and the input pattern. In addition, robustness against partial illumination condition differences of images can be expected by processing for each partial region.

(第2の実施形態)
本実施形態は、第1の実施形態の特徴ベクトル抽出部33、入力パターン識別用データ生成部41、入力パターン識別演算部43および部分特徴類似度統合部64が異なる。具体的には、第1の実施形態の特徴ベクトル抽出部33は、抽出する特徴ベクトルの種類は1種類だけであったのに対して、第2の実施形態では複数種類の特徴ベクトルを抽出する点が異なる。また、複数種類の特徴ベクトルに応じた入力パターン識別演算および部分特徴類似度統合を行う点も第1の実施形態とは異なる。
(Second Embodiment)
This embodiment differs from the first embodiment in the feature vector extraction unit 33, the input pattern identification data generation unit 41, the input pattern identification calculation unit 43, and the partial feature similarity integration unit 64. Specifically, the feature vector extraction unit 33 of the first embodiment extracts only one type of feature vector, whereas the second embodiment extracts a plurality of types of feature vectors. The point is different. Moreover, the point which performs the input pattern identification calculation according to several types of feature vectors, and partial feature similarity integration also differs from 1st Embodiment.

以下、本実施形態について詳細に説明する。なお、重複を避けるため、以下の説明において、第1の実施形態と同じ部分は省略する。本実施形態に係るパターン識別装置100全体のハードウェア構成は、第1の実施形態と同じであるので、説明を省略する。以下の説明では、第1の実施形態と区別するため、処理内容が異なる登録パターン辞書データ生成部を、複数特徴の登録パターン辞書データ生成部70と呼ぶことにする。
また、本実施形態においても便宜上、識別対象のパターンを、画像中の人物の顔としているが、識別対象をその他のオブジェクトとしてもよい。
Hereinafter, this embodiment will be described in detail. In addition, in order to avoid duplication, the same part as 1st Embodiment is abbreviate | omitted in the following description. Since the hardware configuration of the entire pattern identification apparatus 100 according to this embodiment is the same as that of the first embodiment, description thereof is omitted. In the following description, in order to distinguish from the first embodiment, a registration pattern dictionary data generation unit having different processing contents will be referred to as a multi-feature registration pattern dictionary data generation unit 70.
Also in this embodiment, for the sake of convenience, the pattern to be identified is the face of a person in the image, but the identification target may be another object.

<複数特徴の登録パターン辞書データ生成>
図14は、複数特徴の登録パターン辞書データ生成部70の構成の一例を示すブロック図である。複数特徴の登録パターン辞書データ生成部70は、変動画像生成部71、画像変換パラメタ保持部72、部分領域設定部73、複数特徴ベクトル抽出部74、特徴ベクトル変換部75、特徴ベクトル変換用データ保持部76を含んで構成されている。図15は、複数特徴の登録パターン辞書データ生成部70における処理を説明するための模式図であり、合わせて説明に用いる。変動画像生成部71における処理は、第1の実施形態とほぼ同じであるため、省略する(図15に示す「画像取得」および「変動画像生成」)。
<Generation of registered pattern dictionary data for multiple features>
FIG. 14 is a block diagram illustrating an example of the configuration of a registered pattern dictionary data generation unit 70 having a plurality of features. The registered pattern dictionary data generation unit 70 for multiple features includes a variation image generation unit 71, an image conversion parameter holding unit 72, a partial region setting unit 73, a multiple feature vector extraction unit 74, a feature vector conversion unit 75, and feature vector conversion data holding. A portion 76 is included. FIG. 15 is a schematic diagram for explaining the processing in the registered pattern dictionary data generation unit 70 of multiple features, and is also used for explanation. Since the processing in the fluctuation image generation unit 71 is almost the same as that in the first embodiment, it is omitted ("image acquisition" and "fluctuation image generation" shown in FIG. 15).

図16は、部分領域設定部73、複数特徴ベクトル抽出部74および特徴ベクトル変換部75における処理を示すフローチャートである。以下、このフローチャートを用いて説明する。始めに、部分領域設定部73は、部分領域の設定情報を取得し(S60)、特徴ベクトルを抽出する対象である変動画像データを取得する(S61)。部分領域設定部73は、取得した変動画像データに部分領域を設定し(図15に示す部分領域設定)、設定した部分領域から、複数特徴ベクトル抽出部74は、複数の特徴ベクトルを抽出する(S62)。ここでは、特徴ベクトルの種類として第1の実施形態でも使用したLBP特徴量とHOG特徴量、SIFT特徴量を抽出する(図15に示す「特徴ベクトル抽出、変換」のうちの抽出の処理)。ここで、HOGは、Histogram of Oriented Gradientsを表し、SIFTはScale−Invariant Feature Transformを表す。なお、特徴ベクトルの抽出は、その他の公知の手法を用いることができる。特徴ベクトル変換部75は、抽出した複数の特徴ベクトルを、特徴ベクトル変換用データ保持部76から取得した変換用データを用いて変換を行う(S63および図15に示す「特徴ベクトル抽出、変換」のうちの変換の処理)。この変換用データは、変換する対象の特徴ベクトルの種類毎に用意しておく。   FIG. 16 is a flowchart showing processing in the partial region setting unit 73, the multiple feature vector extraction unit 74, and the feature vector conversion unit 75. Hereinafter, this flowchart will be described. First, the partial region setting unit 73 acquires partial region setting information (S60), and acquires variable image data that is a target for extracting feature vectors (S61). The partial region setting unit 73 sets a partial region in the acquired variation image data (partial region setting shown in FIG. 15), and the multiple feature vector extraction unit 74 extracts a plurality of feature vectors from the set partial region ( S62). Here, the LBP feature value, the HOG feature value, and the SIFT feature value used in the first embodiment are extracted as the types of feature vectors (extraction processing of “feature vector extraction / conversion” shown in FIG. 15). Here, HOG stands for Histogram of Oriented Gradients, and SIFT stands for Scale-Invariant Feature Transform. Note that other known methods can be used to extract feature vectors. The feature vector conversion unit 75 converts the extracted plurality of feature vectors using the conversion data acquired from the feature vector conversion data holding unit 76 (S63 and “feature vector extraction and conversion” shown in FIG. 15). Our conversion process). This conversion data is prepared for each type of feature vector to be converted.

最後に、特徴ベクトル変換部75は、所定の種類の特徴ベクトルを全て取得したか否かの判定を行う(S64)。抽出していない特徴ベクトルが存在する場合(S64でNoの場合)、S62の処理に戻る。特徴ベクトルを全て取得している場合(S64でYesの場合)、特徴ベクトル変換部75は、抽出した全ての特徴ベクトルについて、特徴ベクトルの種類、抽出元の変動画像生成に用いたパラメタを関連づけて記憶し、保持する(S65)。
以上が、複数特徴の登録パターン辞書データ生成部70の説明である。
Finally, the feature vector conversion unit 75 determines whether or not all predetermined types of feature vectors have been acquired (S64). If there is an unextracted feature vector (No in S64), the process returns to S62. When all the feature vectors have been acquired (Yes in S64), the feature vector conversion unit 75 associates the types of feature vectors and the parameters used for generating the variation image of the extraction source with respect to all the extracted feature vectors. Store and hold (S65).
The above is the description of the registered pattern dictionary data generation unit 70 having a plurality of features.

<複数特徴の入力パターン生成>
図17は、複数特徴の入力パターン生成部80の構成の一例を示すブロック図である。ここでの処理は<複数特徴の登録パターン辞書データ生成>とほぼ同じであるため詳細の説明は省略する。
<Multiple feature input pattern generation>
FIG. 17 is a block diagram illustrating an example of the configuration of the multi-feature input pattern generation unit 80. Since the processing here is almost the same as <Generation of multiple feature registration pattern dictionary data>, detailed description thereof is omitted.

<複数特徴の入力パターン識別演算>
図18は、複数特徴の入力パターン識別演算部90の構成の一例を示すブロック図である。複数特徴の入力パターン識別演算部90は、入力パターン識別用データ取得部91、登録パターン辞書データ取得部92、同種部分特徴類似度算出部93、特徴量別類似度統合部94、部分特徴類似度統合部95、識別結果算出部96を含んで構成される。入力パターン識別用データ取得部91と登録パターン辞書データ取得部92の処理は、第1の実施形態と同様の処理であるため、省略する。
<Multi-feature input pattern identification calculation>
FIG. 18 is a block diagram illustrating an example of the configuration of the multi-feature input pattern identification calculation unit 90. The multi-feature input pattern identification calculation unit 90 includes an input pattern identification data acquisition unit 91, a registered pattern dictionary data acquisition unit 92, a similar partial feature similarity calculation unit 93, a feature amount similarity integration unit 94, and a partial feature similarity. An integration unit 95 and an identification result calculation unit 96 are included. The processes of the input pattern identification data acquisition unit 91 and the registered pattern dictionary data acquisition unit 92 are the same as those in the first embodiment, and thus are omitted.

図19は、複数特徴の入力パターン識別演算部90の処理の一例を示すフローチャートである。以下、このフローチャートを用いて説明する。
まず、入力パターン識別用データ取得部91は、入力パターン識別用データを取得する(S70)。次に、登録パターン辞書データ取得部92は、登録パターンの辞書データを取得する(S71)。これらのデータは上述の通り、特徴ベクトルおよび特徴ベクトルの種類、抽出元の変動画像生成に用いたパラメタ、抽出した部分領域の情報、およびそれらの組み合わせ毎に抽出した特徴ベクトルを関連づけて記憶したデータである。同種部分特徴類似度算出部93は、部分特徴類似度を算出する(S72)。このとき、同種部分特徴類似度算出部93は、異なる種類の特徴ベクトル間では計算できないため、同種類の特徴ベクトル間でのみ演算を行う。具体的には、同種部分特徴類似度算出部93は、まず、登録パターン辞書データおよび入力パターン識別用データから処理を行う部分領域を選択し、その部分領域において同種類の特徴ベクトル間の類似度を算出する。そして、全ての部分領域ついてこの処理を行う。
FIG. 19 is a flowchart illustrating an example of processing of the input pattern identification calculation unit 90 having a plurality of features. Hereinafter, this flowchart will be described.
First, the input pattern identification data acquisition unit 91 acquires input pattern identification data (S70). Next, the registered pattern dictionary data acquisition unit 92 acquires dictionary data of registered patterns (S71). As described above, these data are stored in association with the feature vector and the type of the feature vector, the parameters used for generating the variation image of the extraction source, the extracted partial region information, and the feature vector extracted for each combination thereof. It is. The same type partial feature similarity calculation unit 93 calculates the partial feature similarity (S72). At this time, since the same-type partial feature similarity calculation unit 93 cannot calculate between different types of feature vectors, it calculates only between the same type of feature vectors. Specifically, the same-type partial feature similarity calculating unit 93 first selects a partial area to be processed from the registered pattern dictionary data and the input pattern identification data, and the similarity between the same type of feature vectors in the partial area. Is calculated. Then, this process is performed for all partial areas.

次に、同種部分特徴類似度算出部93は、所定の全ての変動画像の組み合わせについて演算が終了したか否かを判定する(S73)。終了した場合(S73でYesの場合)、S74の処理に進み、終了していない場合(S73でNoの場合)、S72に戻る。
S72では部分特徴類似度が変動画像の数だけ算出されるため、特徴量別類似度統合部94は、これらの複数の値を一つの値にまとめる統合を行う(S74)。ここでは、第1の実施形態と同じように、類似度の最大値を選択することで統合する。統合により、特徴ベクトルの種類の数だけ類似度が算出されるので、これをさらに次の処理で統合する。
Next, the same-type partial feature similarity calculation unit 93 determines whether or not the calculation has been completed for all predetermined combinations of fluctuation images (S73). When the process is completed (Yes in S73), the process proceeds to S74. When the process is not completed (No in S73), the process returns to S72.
In S72, since the partial feature similarity is calculated by the number of the varying images, the feature-by-feature similarity integration unit 94 performs integration to combine these multiple values into one value (S74). Here, as in the first embodiment, integration is performed by selecting the maximum value of similarity. Since the degree of similarity is calculated by the number of types of feature vectors by the integration, this is further integrated in the next process.

特徴ベクトルの種類を表わすインデックスをi、特徴ベクトルの種類数をN、類似度の最大値選択により統合された特徴量毎の類似度をSiと表わすと、Siは特徴量毎に算出された類似度であるため、その値を単純に統合することはできない。なぜなら、特徴量は、その種類によって、高い類似度が出やすいもの、その逆の傾向を持つものなど傾向が異なるためである。そこで、部分特徴類似度統合部95は、変動画像を生成した際の変動量の和の逆数を重み係数として、統合を行う(S75)。統合の計算式は以下の通りである。 Denoting i an index representing the kind of feature vectors, the number of types of feature vector N, the maximum similarity feature quantity integrated by the selection of the similarity between S i, S i is calculated for each feature quantity Because of the similarities, the values cannot be simply integrated. This is because the feature amount has a different tendency depending on the type, such as a feature having a high degree of similarity and a feature having the opposite tendency. Therefore, the partial feature similarity integration unit 95 performs integration using the reciprocal of the sum of the fluctuation amounts when the fluctuation image is generated as a weighting coefficient (S75). The formula for integration is as follows.

Figure 2012234500
Figure 2012234500

ただし、DR,DIはそれぞれ、登録パターン辞書データおよび入力パターン識別用データにおける変動画像生成の際の、変動画像の元の画像からの変動量である。このような重み付けの統合をすることにより、以下のような効果が期待できる。すなわち、変動画像生成の際の変動量が大きい際には、人の顔のような詳細を識別するのに必要な情報量は失われていると考えられるので、その変動画像間で算出された類似度の寄与を低くすることができる。逆に変動量が少ない場合には、元画像からのかい離が少ないため、情報量が残されていると考えられるため、その変動画像間での類似度の寄与を大きくすることができる。この統合方法以外にも、単純に類似度の和ΣNiSiを用いる方法なども考えられる。変動量DR,DIの算出方法としては、変動画像を生成する際に用いたパラメタ、(式1)におけるσを用いる。他の算出方法として、変動画像と元画像について画素毎の差分平均をとってもよい。 However, D R and D I are the fluctuation amounts of the fluctuation image from the original image when the fluctuation image is generated in the registered pattern dictionary data and the input pattern identification data, respectively. By integrating such weighting, the following effects can be expected. That is, when the amount of variation when generating a variation image is large, it is considered that the amount of information necessary to identify details such as a human face is lost. The contribution of similarity can be reduced. On the other hand, when the variation amount is small, since the separation from the original image is small, it is considered that the information amount remains, so that the contribution of the similarity between the variation images can be increased. In addition to this integration method, it is simply considered also a method of using the sum sigma NiSi similarity. As a calculation method of the fluctuation amounts D R and D I , the parameter used when generating the fluctuation image, σ in (Expression 1), is used. As another calculation method, a difference average for each pixel may be taken for the fluctuation image and the original image.

この統合により算出された統合部分特徴類似度を、識別結果算出部96が、画像全体にわたって統合を行い、最終的な識別結果を得る(S76)。この処理は、第1の実施形態と同様であるため省略する。最後に、識別結果算出部96は、全辞書データについて演算が終了したか否かの判定を行い(S77)、終了していない場合(S77でNoの場合)、S71に戻り処理を行う。終了している場合(S77でYesの場合)、識別結果算出部96は、登録辞書パターンの数だけある識別類似度を第1の実施形態と同様に、リストとして出力するか、最も類似度の高いパターンを識別結果として出力し、結果を保持する(S78)。以上が、複数特徴の入力パターン識別演算の説明である。   The identification result calculation unit 96 integrates the integrated partial feature similarity calculated by the integration over the entire image to obtain a final identification result (S76). Since this process is the same as that in the first embodiment, a description thereof will be omitted. Finally, the identification result calculation unit 96 determines whether or not the calculation has been completed for all dictionary data (S77). If the calculation has not been completed (No in S77), the process returns to S71 for processing. When the processing is completed (Yes in S77), the identification result calculation unit 96 outputs the identification similarities as many as the number of registered dictionary patterns as a list, as in the first embodiment, A high pattern is output as an identification result, and the result is held (S78). This completes the description of the multi-feature input pattern identification calculation.

第2の実施形態では、第1の実施形態と比べ、複数の変動画像から、一種類ではなく、複数種類の特徴ベクトルを抽出することで、ある特徴量では頑健ではない照明条件の差を他の特徴量で対応することができる、という効果を期待できる。また、特徴量の種類毎に算出される類似度を、変動画像とその元画像との変動量の逆数で重み付けして統合することにより、変動画像の変動量が大きい場合は、そこから算出される類似度の寄与を小さく、逆に変動量が小さい場合には大きくすることができる。これにより、極端に大きな変動を与えられたことにより算出された、異常な類似度(例えば、極端に高い強度でかけたぼかしフィルタの変動画像同士の類似度は非常に高い数値になる)の影響を受けない、という効果を期待できる。   Compared to the first embodiment, the second embodiment extracts a plurality of types of feature vectors instead of a single type from a plurality of variation images, so that differences in lighting conditions that are not robust with a certain feature amount can be obtained. The effect that it can respond with the feature-value of can be expected. In addition, the similarity calculated for each type of feature amount is integrated by weighting the reciprocal of the variation amount between the variation image and its original image, and if the variation amount of the variation image is large, it is calculated from there. If the contribution of similarity is small, and conversely the variation is small, it can be increased. As a result, the influence of the abnormal similarity (for example, the similarity between the fluctuation images of the blur filter applied with extremely high intensity becomes a very high value) calculated by giving an extremely large variation. The effect of not receiving can be expected.

以上、本発明を種々の実施形態と共に説明したが、本発明はこれらの実施形態にのみ限定されるものではなく、本発明の範囲内で変更等が可能である。上述した本発明の実施形態におけるパターン識別装置を構成する各手段、並びにパターン識別方法の各工程は、コンピュータのRAMやROM等に記憶されたプログラムが動作することによって実現できる。このプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。   As mentioned above, although this invention was demonstrated with various embodiment, this invention is not limited only to these embodiment, A change etc. are possible within the scope of the present invention. Each means constituting the pattern identification apparatus and each step of the pattern identification method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM or ROM of a computer. This program and a computer-readable recording medium on which this program is recorded are included in the present invention.

1:結像光学系 2:撮像部 3:撮像制御部 4:画像記録部 5:パターン登録部 6:入力パターン識別部 7:外部出力部 8:接続バス 21:登録パターン辞書生成部 22:登録パターン辞書データ保持部 23:登録パターン辞書データ選択部 30:変動画像生成部 31:画像変換用パラメタ保持部 32:部分領域設定部 33:特徴ベクトル抽出部 34:特徴ベクトル変換部 35:特徴ベクトル変換用データ保持部 41:入力パターン識別用データ生成部 42:登録パターン辞書データ取得部 43:入力パターン識別演算部 50:変動画像生成部 51:画像変換用パラメタ保持部 52:部分領域設定部 53:特徴ベクトル抽出部 54:特徴ベクトル変換部 55:特徴ベクトル変換用データ保持部 61:入力パターン識別用データ取得部 62:登録パターン辞書データ取得部 63:部分特徴類似度算出部 64:部分特徴類似度統合部 65:識別結果算出部 70:複数特徴の登録パターン辞書データ生成部 71:変動画像生成部 72:画像変換用パラメタ保持部 73:部分領域設定部 74:複数特徴ベクトル抽出部 75:特徴ベクトル変換部 76:特徴ベクトル変換用データ保持部 80:複数特徴の入力パターンデータ生成部 81:変動画像生成部 82:画像変換用パラメタ保持部 83:部分領域設定部 84:複数特徴ベクトル抽出部 85:特徴ベクトル変換部 86:特徴ベクトル変換用データ保持部 90:複数特徴入力パターン識別演算部 91:入力パターン識別用データ取得部 92:登録パターン辞書データ取得部 93:同種部分特徴類似度算出部 94:特徴量別類似度統合部 95:部分特徴類似度統合部 96:識別結果算出部   1: Imaging optical system 2: Imaging unit 3: Imaging control unit 4: Image recording unit 5: Pattern registration unit 6: Input pattern identification unit 7: External output unit 8: Connection bus 21: Registration pattern dictionary generation unit 22: Registration Pattern dictionary data holding unit 23: Registered pattern dictionary data selection unit 30: Fluctuating image generation unit 31: Image conversion parameter holding unit 32: Partial region setting unit 33: Feature vector extraction unit 34: Feature vector conversion unit 35: Feature vector conversion Data storage unit 41: Input pattern identification data generation unit 42: Registered pattern dictionary data acquisition unit 43: Input pattern identification calculation unit 50: Fluctuation image generation unit 51: Image conversion parameter storage unit 52: Partial region setting unit 53: Feature vector extraction unit 54: Feature vector conversion unit 55: Feature vector conversion data holding unit 61: Input parameter Turn identification data acquisition unit 62: Registration pattern dictionary data acquisition unit 63: Partial feature similarity calculation unit 64: Partial feature similarity integration unit 65: Identification result calculation unit 70: Multiple feature registration pattern dictionary data generation unit 71: Variation Image generation unit 72: Image conversion parameter holding unit 73: Partial region setting unit 74: Multiple feature vector extraction unit 75: Feature vector conversion unit 76: Feature vector conversion data storage unit 80: Multiple feature input pattern data generation unit 81 : Fluctuating image generation unit 82: Image conversion parameter holding unit 83: Partial region setting unit 84: Multiple feature vector extraction unit 85: Feature vector conversion unit 86: Feature vector conversion data holding unit 90: Multiple feature input pattern identification calculation unit 91: Input pattern identification data acquisition unit 92: Registered pattern dictionary data acquisition unit 3: homologous partial feature similarity calculation unit 94: feature-amount similarity integration section 95: part feature similarity integration section 96: identification result calculation unit

Claims (6)

入力された画像のパターンが属するカテゴリを識別するパターン識別装置であって、
所定の変動を加えた変動入力画像および変動登録画像を生成する変動画像生成手段と、
前記変動入力画像から入力部分特徴を抽出し、前記変動登録画像の前記入力部分特徴に対応する登録部分特徴を抽出する部分特徴抽出手段と、
前記入力部分特徴と前記登録部分特徴の部分特徴の類似度を、前記変動画像の所定の組み合わせ毎に算出する部分特徴類似度算出手段と、
前記部分特徴類似度算出手段で計算された、少なくとも1つ以上の前記部分特徴類似度を所定の基準で統合した統合部分特徴類似度を算出する部分特徴類似度統合手段と、
前記統合部分特徴類似度を部分領域毎に所定の基準で統合し、前記入力画像および前記登録画像間の識別類似度を算出する識別類似度算出手段と、を有することを特徴とするパターン識別装置。
A pattern identification device for identifying a category to which an input image pattern belongs,
A fluctuation image generating means for generating a fluctuation input image and a fluctuation registration image to which a predetermined fluctuation is applied;
Partial feature extraction means for extracting an input partial feature from the variable input image and extracting a registered partial feature corresponding to the input partial feature of the variable registered image;
Partial feature similarity calculating means for calculating the similarity between the input partial feature and the partial feature of the registered partial feature for each predetermined combination of the variation images;
Partial feature similarity integration means for calculating an integrated partial feature similarity calculated by the partial feature similarity calculation means and integrating at least one of the partial feature similarities according to a predetermined standard;
An identification similarity calculating unit that integrates the integrated partial feature similarity for each partial area on a predetermined basis and calculates an identification similarity between the input image and the registered image; .
前記部分特徴類似度統合手段は、前記部分特徴類似度の最大値を前記統合部分特徴類似度とすることを特徴とする請求項1に記載のパターン識別装置。   The pattern identification apparatus according to claim 1, wherein the partial feature similarity integration unit sets the maximum value of the partial feature similarity as the integrated partial feature similarity. 前記部分特徴類似度統合手段は、前記変動画像生成手段で加えた変動の大きさを基準として前記部分特徴類似度を統合することを特徴とする請求項1に記載のパターン識別装置。   The pattern identification apparatus according to claim 1, wherein the partial feature similarity integrating unit integrates the partial feature similarity based on a magnitude of variation applied by the variation image generating unit. 前記部分特徴類似度算出手段が前記部分特徴類似度を算出する際に用いる、前記変動画像の所定の組み合わせは、前記変動画像の総当たりであることを特徴とする請求項1に記載のパターン識別装置。   The pattern identification according to claim 1, wherein the predetermined combination of the variation images used when the partial feature similarity calculation unit calculates the partial feature similarity is a round robin of the variation images. apparatus. 入力された画像のパターンが属するカテゴリを識別するパターン識別方法であって、
所定の変動を加えた変動入力画像および変動登録画像を生成する変動画像生成工程と、
前記変動入力画像から入力部分特徴を抽出し、前記変動登録画像の前記入力部分特徴に対応する登録部分特徴を抽出する部分特徴抽出工程と、
前記入力部分特徴と前記登録部分特徴の部分特徴の類似度を、前記変動画像の所定の組み合わせ毎に算出する部分特徴類似度算出工程と、
前記部分特徴類似度算出工程で計算された、少なくとも1つ以上の前記部分特徴類似度を所定の基準で統合した統合部分特徴類似度を算出する部分特徴類似度統合工程と、
前記統合部分特徴類似度を部分領域毎に所定の基準で統合し、前記入力画像および前記登録画像間の識別類似度を算出する識別類似度算出工程と、を有することを特徴とするパターン識別方法。
A pattern identification method for identifying a category to which an input image pattern belongs,
A variation image generation step of generating a variation input image and a variation registration image to which a predetermined variation is added;
A partial feature extraction step of extracting an input partial feature from the variable input image and extracting a registered partial feature corresponding to the input partial feature of the variable registration image;
A partial feature similarity calculating step of calculating the similarity of the partial features of the input partial features and the registered partial features for each predetermined combination of the variation images;
A partial feature similarity integrating step of calculating an integrated partial feature similarity calculated by integrating the at least one or more partial feature similarities calculated in the partial feature similarity calculating step;
An identification similarity calculating step of integrating the integrated partial feature similarity for each partial region on a predetermined basis and calculating an identification similarity between the input image and the registered image .
入力された画像のパターンが属するカテゴリを識別するパターン識別するためのプログラムであって、
所定の変動を加えた変動入力画像および変動登録画像を生成する変動画像生成工程と、
前記変動入力画像から入力部分特徴を抽出し、前記変動登録画像の前記入力部分特徴に対応する登録部分特徴を抽出する部分特徴抽出工程と、
前記入力部分特徴と前記登録部分特徴の部分特徴の類似度を、前記変動画像の所定の組み合わせ毎に算出する部分特徴類似度算出工程と、
前記部分特徴類似度算出工程で計算された、少なくとも1つ以上の前記部分特徴類似度を所定の基準で統合した統合部分特徴類似度を算出する部分特徴類似度統合工程と、
前記統合部分特徴類似度を部分領域毎に所定の基準で統合し、前記入力画像および前記登録画像間の識別類似度を算出する識別類似度算出工程と、をコンピュータに実行させるためのプログラム。
A program for identifying a pattern that identifies a category to which an input image pattern belongs,
A variation image generation step of generating a variation input image and a variation registration image to which a predetermined variation is added;
A partial feature extraction step of extracting an input partial feature from the variable input image and extracting a registered partial feature corresponding to the input partial feature of the variable registration image;
A partial feature similarity calculating step of calculating the similarity of the partial features of the input partial features and the registered partial features for each predetermined combination of the variation images;
A partial feature similarity integrating step of calculating an integrated partial feature similarity calculated by integrating the at least one or more partial feature similarities calculated in the partial feature similarity calculating step;
A program for causing a computer to execute an identification similarity calculation step of integrating the integrated partial feature similarity for each partial area on a predetermined basis and calculating an identification similarity between the input image and the registered image.
JP2011104621A 2011-05-09 2011-05-09 PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM Active JP5791361B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011104621A JP5791361B2 (en) 2011-05-09 2011-05-09 PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011104621A JP5791361B2 (en) 2011-05-09 2011-05-09 PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2012234500A true JP2012234500A (en) 2012-11-29
JP5791361B2 JP5791361B2 (en) 2015-10-07

Family

ID=47434731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011104621A Active JP5791361B2 (en) 2011-05-09 2011-05-09 PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP5791361B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015007975A (en) * 2013-06-24 2015-01-15 富士通株式会社 Image tagging device and image tagging method on the basis of multi modality
JP2018142074A (en) * 2017-02-27 2018-09-13 三菱重工業株式会社 Feature quantity calculation device, image similarity determination device, image retrieval device, feature quantity calculation method, and program
JP2020071876A (en) * 2018-10-30 2020-05-07 富士通株式会社 Personnel search method and device and image processing device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022994A (en) * 2009-06-16 2011-02-03 Canon Inc Pattern processing device, method therefor, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022994A (en) * 2009-06-16 2011-02-03 Canon Inc Pattern processing device, method therefor, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015007975A (en) * 2013-06-24 2015-01-15 富士通株式会社 Image tagging device and image tagging method on the basis of multi modality
JP2018142074A (en) * 2017-02-27 2018-09-13 三菱重工業株式会社 Feature quantity calculation device, image similarity determination device, image retrieval device, feature quantity calculation method, and program
JP2020071876A (en) * 2018-10-30 2020-05-07 富士通株式会社 Personnel search method and device and image processing device

Also Published As

Publication number Publication date
JP5791361B2 (en) 2015-10-07

Similar Documents

Publication Publication Date Title
JP6544900B2 (en) Object identification device, object identification method and program
JP5247480B2 (en) Object identification device and object identification method
JP5174045B2 (en) Illumination detection using a classifier chain
JP5424819B2 (en) Image processing apparatus and image processing method
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP5361524B2 (en) Pattern recognition system and pattern recognition method
US9727585B2 (en) Image processing apparatus and method for controlling the same
JP6456031B2 (en) Image recognition apparatus, image recognition method, and program
JP6071002B2 (en) Reliability acquisition device, reliability acquisition method, and reliability acquisition program
JP2012038106A (en) Information processor, information processing method and program
JP5241606B2 (en) Object identification device and object identification method
JP6410450B2 (en) Object identification device, object identification method, and program
JP6157165B2 (en) Gaze detection device and imaging device
JP5971712B2 (en) Monitoring device and method
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM
JP5653003B2 (en) Object identification device and object identification method
JP7269897B2 (en) Data registration device, biometric authentication device, and data registration program
Goswami et al. Kernel group sparse representation based classifier for multimodal biometrics
JP2012234497A (en) Object identification device, object identification method, and program
JP6950376B2 (en) Image processing device, training image processing device, image identification device, training image processing method, image identification method, and program
JP7103443B2 (en) Information processing equipment, information processing methods, and programs
JP2014203132A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150804

R151 Written notification of patent or utility model registration

Ref document number: 5791361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151