JP2012234497A - Object identification device, object identification method, and program - Google Patents

Object identification device, object identification method, and program Download PDF

Info

Publication number
JP2012234497A
JP2012234497A JP2011104533A JP2011104533A JP2012234497A JP 2012234497 A JP2012234497 A JP 2012234497A JP 2011104533 A JP2011104533 A JP 2011104533A JP 2011104533 A JP2011104533 A JP 2011104533A JP 2012234497 A JP2012234497 A JP 2012234497A
Authority
JP
Japan
Prior art keywords
partial feature
partial
unit
feature
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011104533A
Other languages
Japanese (ja)
Inventor
Hiroshi Sato
博 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011104533A priority Critical patent/JP2012234497A/en
Publication of JP2012234497A publication Critical patent/JP2012234497A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance accuracy of identifying an object included in an image.SOLUTION: An object identification device comprises: objects variation amount detection means for detecting variation amounts between objects which are an input object included in an input image and registered objects included in registered images; partial feature extraction means for extracting at least one or more corresponding partial feature amounts between the input object and the registered objects; partial feature amount composition unit for determining a composition method for combining the partial feature amounts extracted by the partial feature extraction means according to magnitude of each variation amount between the objects to generate composition partial feature amounts by compositing the partial feature amounts by the respective determined composition methods; and input object identification means for identifying which registration object corresponds to the input object by using the composition partial feature amounts.

Description

本発明は、オブジェクト識別装置、オブジェクト識別方法、及びプログラムに関する。   The present invention relates to an object identification device, an object identification method, and a program.

パターン認識における識別技術、典型的には、画像データ中の被写体であるオブジェクトが、別の画像中の被写体であるオブジェクトと同一のものであると識別する技術として、個人の顔を識別する顔識別技術がある。以下では、オブジェクトの識別とは、オブジェクトの個体の違い(例えば、個人としての人物の違い)を判定することを意味するものとする。一方、オブジェクトの検出は、個体を区別せず同じ範疇に入るものを判定する(例えば、個人を区別せず、顔を検出する)ことを意味するものとする。
顔識別技術としては、例えば非特許文献1のような方法がある。これは、顔による個人の識別問題を、差分顔と呼ばれる特徴クラスの2クラスの識別問題に置き換えることによって、顔の登録・追加学習をリアルタイムに行うことを可能にしたアルゴリズムである。
Face recognition that identifies an individual's face as an identification technique in pattern recognition, typically a technique that identifies an object that is a subject in image data as being the same as an object that is a subject in another image There is technology. In the following, identification of an object means that a difference between individual objects (for example, a difference between persons as individuals) is determined. On the other hand, the detection of an object means that an object that falls within the same category without distinguishing between individuals is determined (for example, a face is detected without distinguishing between individuals).
As a face identification technique, there is a method as described in Non-Patent Document 1, for example. This is an algorithm that makes it possible to perform face registration and additional learning in real time by replacing an individual identification problem by a face with an identification problem of two classes of feature classes called differential faces.

例えば、一般によく知られているサポートベクターマシン(SVM)を用いた顔識別では、n人分の人物の顔を識別するために、登録された人物の顔とそれ以外の顔とを識別するn個のSVM識別器が必要になる。人物の顔を登録する際には、SVMの学習が必要となる。SVMの学習には、登録したい人物の顔データと、既に登録されている人物とその他の人物との顔データとが大量に必要であり、非常に計算時間がかかるため、予め計算しておく手法が一般的であった。
しかしながら、非特許文献1の方法によれば、個人の識別問題を次に挙げる2クラスの識別問題に置き換えることよって、追加学習を実質的に不要にすることができる。即ち、
intra-personal class:同一人物の画像間の照明変動、表情・向きなどの変動特徴クラス
extra-personal class:異なる人物の画像間の変動特徴クラス
の2クラスである。
For example, in the face identification using a well-known support vector machine (SVM), in order to identify the faces of n persons, n faces that are registered and other faces are identified. SVM discriminators are required. When registering a person's face, SVM learning is required. SVM learning requires a large amount of face data of a person to be registered and face data of already registered persons and other persons, and takes a very long calculation time. Was common.
However, according to the method of Non-Patent Document 1, additional learning can be substantially eliminated by replacing the individual identification problem with the following two classes of identification problems. That is,
intra-personal class: Fluctuation feature class such as lighting variation, facial expression and orientation between images of the same person
extra-personal class: Two classes of variation feature classes between images of different persons.

上記2クラスの分布では、特定の個人によらず一定であると仮定して、個人の顔識別問題を上記2クラスの識別問題に帰着させて識別器を構成する。予め、大量の画像を準備し、同一人物間の変動特徴クラスと異なる人物間の変動特徴クラスとの識別を行う識別器を学習する。新たな登録者については、顔の画像(若しくは必要な特徴を抽出した結果)のみを保持すればよい。識別する際には、2枚の画像から差分特徴が取り出され、上記識別器で、同一人物であるか異なる人物であるかが判定される。これにより、個人の顔登録の際にSVMなどの学習が不要になり、リアルタイムで登録処理を行うことができる。
また、顔識別における従来の技術としては、特許文献1の技術が開示されている。
Assuming that the distribution of the two classes is constant regardless of a specific individual, the classifier is configured by reducing the face identification problem of the individual to the classification problem of the two classes. A large number of images are prepared in advance, and a discriminator for discriminating between a variation feature class between the same persons and a variation feature class between different persons is learned. For new registrants, only the face image (or the result of extracting the necessary features) need be retained. When discriminating, the difference feature is extracted from the two images, and the discriminator determines whether the person is the same person or a different person. This eliminates the need for learning such as SVM at the time of personal face registration, and registration processing can be performed in real time.
Moreover, as a conventional technique in face identification, the technique of Patent Document 1 is disclosed.

特開2009−031991号公報JP 2009-031991

Baback Moghaddam, Beyond Eigenfaces :Probabilistic Matching for Face Recognition(M.I.T Media Laboratory Perceptual Computing Section Technical Report No.433), ProbabilisticVisual Learning for Object Representation(IEEE Transactions on PatternAnalysis and Machine Intelligence, Vol. 19, No. 7, JULY 1997)Baback Moghaddam, Beyond Eigenfaces: Probabilistic Matching for Face Recognition (M.I.T Media Laboratory Perceptual Computing Section Technical Report No.433), ProbabilisticVisual Learning for Object Representation (IEEE Transactions on PatternAnalysis and Machine Intelligence, Vol. 19, No. 7, JULY 1997) Lior Wolf, Tal Hassner, and Yaniv Taigman, Descriptor Based Methods in the Wild. Faces in Real-Life Images Workshop in European Conference on Computer Vision (ECCV), 2008.Lior Wolf, Tal Hassner, and Yaniv Taigman, Descriptor Based Methods in the Wild.Faces in Real-Life Images Workshop in European Conference on Computer Vision (ECCV), 2008.

上記のようなパターン(画像中のオブジェクト、より具体的には、人物の顔)の識別を行う装置および方法において、識別性能を低下させる要因として、登録用パターンと認証用パターンとの間の変動が挙げられる。即ち、識別の対象であるオブジェクト(人物の顔)の変動、より具体的には、照明条件、向き・姿勢、他のオブジェクトによる隠れ、表情による変動などである。故に、登録用パターンと認証用パターンとで、上記のような変動が大きくなると、識別性能が大幅に低下してしまう。
この問題に対して、特許文献1では、顔画像から取得した特徴ベクトルを、個人差を表す成分と撮影条件を表す成分との2つに分離する。後者の撮影条件を表す成分を特徴空間内で変換し、変換後の成分を、個人差を表す成分に加えることによって、1つの画像から様々な撮影条件に対応する特徴ベクトルを取得できる。様々な撮影条件の特徴ベクトルを疑似的に生成することによって、変動に頑健な識別を実現可能としている。
しかしながら、この方法では、特徴ベクトルが個人差の成分と撮影条件の成分との重ね合わせによって表現できることが前提となっており、全ての特徴量について適用できるわけではない。
In the apparatus and method for identifying a pattern (an object in an image, more specifically, a human face) as described above, fluctuation between a registration pattern and an authentication pattern is a factor that degrades the identification performance. Is mentioned. That is, there are fluctuations in the object (person's face) to be identified, more specifically, lighting conditions, orientation / posture, hiding by other objects, fluctuation due to facial expressions, and the like. Therefore, when the above-described fluctuation increases between the registration pattern and the authentication pattern, the identification performance is greatly deteriorated.
With respect to this problem, in Patent Document 1, a feature vector acquired from a face image is separated into two components, a component representing individual differences and a component representing imaging conditions. By converting the component representing the latter imaging condition in the feature space and adding the converted component to the component representing the individual difference, it is possible to obtain feature vectors corresponding to various imaging conditions from one image. By artificially generating feature vectors of various shooting conditions, it is possible to realize identification robust to fluctuations.
However, this method is based on the premise that the feature vector can be expressed by superimposing the individual difference component and the imaging condition component, and is not applicable to all feature amounts.

また、非特許文献2の技術では、Gabor特徴、LBP(Local Binary Pattern)特徴など、性質の異なる複数の特徴量を組み合わせ、2つのパターン間の様々な変動に対応しようとしている。
しかしながら、予め定められた組み合わせ方に限定されており、現実の環境での大きな変動に対して有効に作用しない場合があり得る。
さらに、別の問題として、顔の認証を行う場合、顔の器官の位置を予め検出し、その器官の位置を基準に比較を行う方法が一般的に用いられる。上記2つの文献も、顔の目の位置、口の位置などが、登録用の画像(登録画像)と認証用の画像(認証画像)とで、予めある程度揃えられていることが前提になっている。
しかしながら、現実の環境では、表情変化と撮影条件とが、複合的に現れる場合があり、顔の器官の位置を高精度に検出することは難しい。よって、登録画像と認証画像との間での顔器官の位置のずれも認識精度を劣化させる大きな要因である。
In the technique of Non-Patent Document 2, a plurality of feature amounts having different properties such as a Gabor feature and an LBP (Local Binary Pattern) feature are combined to cope with various fluctuations between two patterns.
However, it is limited to a predetermined combination method, and may not work effectively against a large variation in an actual environment.
Furthermore, as another problem, when face authentication is performed, a method of detecting the position of a facial organ in advance and performing comparison based on the position of the organ is generally used. The above two documents are also premised on the fact that the positions of the eyes of the face, the position of the mouth, etc. are preliminarily aligned to some extent between the registration image (registration image) and the authentication image (authentication image). Yes.
However, in an actual environment, facial expression changes and imaging conditions may appear in combination, and it is difficult to detect the position of the facial organ with high accuracy. Therefore, a shift in the position of the facial organ between the registered image and the authentication image is also a major factor that deteriorates the recognition accuracy.

本発明はこのような問題点に鑑みなされたもので、画像に含まれるオブジェクトの識別の精度をより高めることを目的とする。   The present invention has been made in view of such problems, and an object thereof is to further increase the accuracy of identifying an object included in an image.

そこで、本発明に係るオブジェクト識別装置は、入力画像に含まれる入力オブジェクトおよび登録画像に含まれる登録オブジェクトのオブジェクト間の変動量を検出するオブジェクト間変動量検出手段と、前記入力オブジェクトと前記登録オブジェクトとで、少なくとも1つ以上の対応する部分特徴量を抽出する部分特徴抽出手段と、前記オブジェクト間の変動量の大きさに応じて前記部分特徴抽出手段で抽出された部分特徴量を組み合わせる合成方法を決定し、決定した合成方法で前記部分特徴量を合成して合成部分特徴量を生成する部分特徴量合成手段と、前記合成部分特徴量を用いて、前記入力オブジェクトがどの登録オブジェクトに対応するかを識別する入力オブジェクト識別手段と、を有することを特徴とする。   Therefore, the object identification device according to the present invention includes an inter-object variation amount detecting means for detecting a variation amount between the input object included in the input image and the registered object included in the registered image, the input object, and the registered object. A combination method of combining the partial feature extraction means for extracting at least one or more corresponding partial feature quantities, and the partial feature quantities extracted by the partial feature extraction means in accordance with the amount of variation between the objects And the partial feature amount combining means for generating the combined partial feature amount by combining the partial feature amounts by the determined combining method, and the registered object to which the input object corresponds using the combined partial feature amount Input object identifying means for identifying the above.

本発明によれば、画像に含まれるオブジェクトの識別の精度をより高めることができる。   According to the present invention, the accuracy of identifying an object included in an image can be further increased.

オブジェクト識別装置の構成の一例を示す図である。It is a figure which shows an example of a structure of an object identification device. 全体処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on the whole process. オブジェクト登録部の構成の一例を示す図である。It is a figure which shows an example of a structure of an object registration part. 登録オブジェクト辞書データ生成部の構成の一例を示す図である。It is a figure which shows an example of a structure of a registration object dictionary data generation part. 特徴ベクトル抽出変換処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a feature vector extraction conversion process. 入力オブジェクト識別部の構成の一例を示す図である。It is a figure which shows an example of a structure of an input object identification part. 入力オブジェクトの識別処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on the identification process of an input object. 入力オブジェクト識別用データ生成部の構成の一例を示す図である。It is a figure which shows an example of a structure of the data generation part for input object identification. 入力オブジェクト識別演算部の構成の一例を示す図である。It is a figure which shows an example of a structure of an input object identification calculating part. 入力オブジェクト識別演算処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on an input object identification calculation process. 部分特徴合成部の構成の一例を示す図である。It is a figure which shows an example of a structure of a partial feature synthetic | combination part. 部分特徴合成処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a partial feature synthetic | combination process. 合成部分特徴評価部の構成の一例を示す図である。It is a figure which shows an example of a structure of a synthetic | combination partial feature evaluation part. 合成部分特徴評価処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a synthetic | combination partial feature evaluation process. 合成部分特徴評価値算出処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a synthetic | combination partial feature evaluation value calculation process. 部分領域の学習処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on the learning process of a partial region. 合成部分特徴評価部の構成の一例を示す図である。It is a figure which shows an example of a structure of a synthetic | combination partial feature evaluation part. 合成部分特徴評価処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a synthetic | combination partial feature evaluation process. 部分特徴数量計測処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a partial feature quantity measurement process. 合成部分特徴尤度算出部の構成の一例を示す図である。It is a figure which shows an example of a structure of a synthetic | combination partial feature likelihood calculation part. 合成部分特徴尤度算出処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a synthetic partial feature likelihood calculation process. 合成部分特徴評価値算出処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a synthetic | combination partial feature evaluation value calculation process.

以下、本発明の実施形態について図面に基づいて説明する。なお、実施形態は、本発明を限定するものではなく、また、実施形態で説明されている全ての構成が本発明の課題を解決するための手段に必須であるとは限らない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments do not limit the present invention, and all the configurations described in the embodiments are not necessarily essential to the means for solving the problems of the present invention.

<第1の実施形態>
本実施形態は、識別の対象であるオブジェクトが様々な変動(画像である場合は、照明変動、向き・姿勢の変動など)を受けた状態にあっても、高精度かつ高速に識別を行うことができるオブジェクト識別装置、オブジェクト識別方法、そのプログラム等に関する。
図1は、本実施形態に係るオブジェクト識別装置100の構成の一例を示す図である。オブジェクト識別装置100は、結像光学系1、撮像部2、撮像制御部3、画像記録部4、オブジェクト登録部5、入力オブジェクト識別部6、オブジェクトの識別結果を出力する外部出力部7、及び各構成要素の制御・データ接続を行うための接続バス8を有する。
なお、オブジェクト登録部5および入力オブジェクト識別部6は、典型的には、それぞれ専用回路(ASICなど)、プロセッサ(リコンフィギュラブルプロセッサ、DSP、CPUなど)であってもよい。また、オブジェクト登録部5および入力オブジェクト識別部6は、単一の専用回路および汎用回路(PC用CPU)内部において実行されるプログラムにより実現されてもよい。
<First Embodiment>
In the present embodiment, even when the object to be identified is subject to various changes (in the case of an image, illumination fluctuation, orientation / posture fluctuation, etc.), the identification is performed with high accuracy and high speed. The present invention relates to an object identification device, an object identification method, and a program for the same.
FIG. 1 is a diagram illustrating an example of a configuration of an object identification device 100 according to the present embodiment. The object identification device 100 includes an imaging optical system 1, an imaging unit 2, an imaging control unit 3, an image recording unit 4, an object registration unit 5, an input object identification unit 6, an external output unit 7 that outputs an object identification result, and It has a connection bus 8 for controlling and data connection of each component.
Note that the object registration unit 5 and the input object identification unit 6 may typically be dedicated circuits (such as ASIC) and processors (such as reconfigurable processors, DSPs, and CPUs), respectively. Further, the object registration unit 5 and the input object identification unit 6 may be realized by a program executed in a single dedicated circuit and a general-purpose circuit (PC CPU).

結像光学系1は、ズーム機構を備えた光学レンズで構成される。また、パン・チルト軸方向の駆動機構を備えてもよい。撮像部2の映像センサとしては、典型的にはCCDまたはCMOSイメージセンサが用いられる。また、撮像部2では、不図示のセンサ駆動回路からの読み出し制御信号により、所定の映像信号(例えば、サブサンプリング、ブロック読み出しにて得られる信号)が画像データとして出力される。
撮像制御部3は、撮影者からの指示(画角調整指示、シャッター押下など)、及びオブジェクト登録部5または入力オブジェクト識別部6からの情報をもとに、実際に撮影が行われるタイミングを制御する。画像記録部4は、半導体メモリ等で構成され、撮像部2から転送された画像データを記録(保持)し、オブジェクト登録部5、入力オブジェクト識別部6等からの要求に応じて所定のタイミングで画像データを転送する。
The imaging optical system 1 includes an optical lens having a zoom mechanism. Further, a drive mechanism in the pan / tilt axis direction may be provided. As the image sensor of the imaging unit 2, a CCD or a CMOS image sensor is typically used. The imaging unit 2 outputs a predetermined video signal (for example, a signal obtained by subsampling or block reading) as image data in response to a read control signal from a sensor drive circuit (not shown).
The imaging control unit 3 controls the timing at which actual shooting is performed based on instructions from the photographer (viewing angle adjustment instruction, shutter pressing, etc.) and information from the object registration unit 5 or the input object identification unit 6. To do. The image recording unit 4 is composed of a semiconductor memory or the like, records (holds) the image data transferred from the imaging unit 2, and at a predetermined timing in response to a request from the object registration unit 5, the input object identification unit 6, and the like. Transfer image data.

オブジェクト登録部5は、画像データから識別の対象とするオブジェクトの情報を抽出し、記録(保持)する。オブジェクト登録部5のより詳細な構成および実際に行われる処理の内容については後述する。入力オブジェクト識別部6は、画像データおよびオブジェクト登録部5から取得した画像データをもとにオブジェクトの識別を行う。入力オブジェクト識別部6のより詳細な構成および実際に行われる処理の内容については後述する。
外部出力部7は、典型的には、CRTやTFT液晶などのモニタであり、撮像部2および画像記録部4から取得した画像データを表示し、またはオブジェクト登録部5および入力オブジェクト識別部6の結果出力を画像データに重畳して表示する。また、オブジェクト登録部5および入力オブジェクト識別部6の結果出力を電子データとして外部メモリなどに出力する構成を採用してもよい。接続バス8は、オブジェクト識別装置100の構成要素間の制御・データ接続を行うためのバスである。
The object registration unit 5 extracts information of an object to be identified from the image data and records (holds) the information. A more detailed configuration of the object registration unit 5 and the contents of the processing actually performed will be described later. The input object identification unit 6 identifies an object based on the image data and the image data acquired from the object registration unit 5. A more detailed configuration of the input object identification unit 6 and the contents of the processing actually performed will be described later.
The external output unit 7 is typically a monitor such as a CRT or a TFT liquid crystal, and displays image data acquired from the imaging unit 2 and the image recording unit 4 or the object registration unit 5 and the input object identification unit 6. The result output is displayed superimposed on the image data. Further, a configuration may be adopted in which results output from the object registration unit 5 and the input object identification unit 6 are output as electronic data to an external memory or the like. The connection bus 8 is a bus for performing control / data connection between the components of the object identification device 100.

<全体処理>
図2は、オブジェクト識別装置100の全体処理に係るフローチャートの一例を示す図である。図2を参照し、オブジェクト識別装置100が、入力オブジェクトの識別を行う実際の処理について説明する。なお、以下では、入力画像中のオブジェクトが人物の顔である場合について説明するが、この場合に限られるものでない。
はじめに、オブジェクト識別装置100は、画像記録部4から画像データを取得する(S0)。続いて、オブジェクト識別装置100は、取得した画像データに対して人の顔の検出処理を行う(S1)。なお、画像中から人物の顔を検出する方法については、公知の技術を用いることができる。例えば、特許3078166号公報、特開2002−8032号公報で提案されているような技術を用いることができる。
<Overall processing>
FIG. 2 is a diagram illustrating an example of a flowchart relating to the overall processing of the object identification device 100. With reference to FIG. 2, an actual process in which the object identification device 100 identifies an input object will be described. In the following, a case where the object in the input image is a human face will be described, but the present invention is not limited to this case.
First, the object identification device 100 acquires image data from the image recording unit 4 (S0). Subsequently, the object identification device 100 performs a human face detection process on the acquired image data (S1). As a method for detecting a human face from an image, a known technique can be used. For example, a technique proposed in Japanese Patent No. 3078166 and Japanese Patent Laid-Open No. 2002-8032 can be used.

続いてオブジェクト識別装置100は、登録画像および入力画像から対象のオブジェクトである人物の顔の検出処理をし、画像中に人の顔が存在すると判断した場合(S2でYESの場合)、入力オブジェクトの識別処理、この例では個人の識別処理を行う(S3)。他方、オブジェクト識別装置100は、画像中に人の顔が存在しないと判断した場合(S2でNOの場合)には処理を終了する。なお、入力オブジェクトの識別処理の具体的な内容については後述する。
続いて、オブジェクト識別装置100は、入力オブジェクトの識別処理の結果から、登録済みの人物に該当する顔があるかを判定する(S4)。このとき、オブジェクト識別装置100は、S1で検出した顔と同一人物が、登録済みの人物の中にあると判断した場合(S4でYESの場合)、続いてS7の処理の処理を行う。他方、オブジェクト識別装置100は、検出した顔が登録済み人物の誰とも一致しないと判断した場合(S4でNOの場合)には、その人物を登録するかを判定する(S5)。
Subsequently, the object identification device 100 performs a process of detecting a human face as a target object from the registered image and the input image, and determines that a human face exists in the image (YES in S2), the input object In this example, an individual identification process is performed (S3). On the other hand, when the object identification device 100 determines that no human face is present in the image (NO in S2), the process ends. The specific contents of the input object identification process will be described later.
Subsequently, the object identification device 100 determines whether there is a face corresponding to the registered person from the result of the identification process of the input object (S4). At this time, if the object identification device 100 determines that the same person as the face detected in S1 is among the registered persons (YES in S4), the object identification apparatus 100 subsequently performs the process of S7. On the other hand, when it is determined that the detected face does not match any registered person (NO in S4), the object identification device 100 determines whether to register the person (S5).

判定の基準については、予め設定されている場合もあるが、例えばユーザが外部インターフェースやGUIなどを通じて、その場で登録するかどうか決定するようにしてもよい。このとき、オブジェクト識別装置100は、登録すると判断した場合(S5でYESの場合)、後述するオブジェクト(人物の顔など)の登録処理を行う(S6)。他方、オブジェクト識別装置100は、登録を行わないと判断した場合(S5でNOの場合)、そのまま処理を続行する。
続いて、オブジェクト識別装置100は、S4で該当オブジェクトがある場合、S6のオブジェクトの登録処理後、或いはS5で登録を行わない場合、検出した全てのオブジェクトについて処理が終わったかどうかを判定する(S7)。このとき、オブジェクト識別装置100は、未処理のオブジェクトがあると判断した場合(S7でNOの場合)、S3の処理を行う。他方、オブジェクト識別装置100は、検出された全てのオブジェクトについて処理が終わったと判断した場合(S7でYESの場合)、一連の入力オブジェクトの識別処理の結果を外部出力部7に出力する(S8)。
以上が、オブジェクト識別装置100の全体処理の説明である。
The determination criterion may be set in advance, but for example, the user may determine whether to register on the spot through an external interface or a GUI. At this time, if the object identification device 100 determines to register (YES in S5), the object identification device 100 performs registration processing of an object (such as a person's face) described later (S6). On the other hand, when the object identification device 100 determines not to register (in the case of NO in S5), it continues the process as it is.
Subsequently, when there is a corresponding object in S4, the object identification device 100 determines whether or not the processing has been completed for all detected objects after the object registration processing in S6 or when registration is not performed in S5 (S7). ). At this time, if the object identification device 100 determines that there is an unprocessed object (NO in S7), it performs the process of S3. On the other hand, when the object identification device 100 determines that the processing has been completed for all the detected objects (YES in S7), it outputs a series of input object identification processing results to the external output unit 7 (S8). .
The above is the description of the overall processing of the object identification device 100.

<オブジェクト登録部>
次に、オブジェクトの登録処理について説明する。図3は、オブジェクト登録部5の構成の一例を示す図である。図3に示すように、オブジェクト登録部5は、登録オブジェクト辞書データ生成部21、登録オブジェクト辞書データ保持部22、及び登録オブジェクト辞書データ選択部23を有する。
登録オブジェクト辞書データ生成部21は、画像記録部4から取得した画像データから、オブジェクトの個体を識別するために必要な登録オブジェクトの辞書データ(以下では、辞書データと適宜称する。)を生成する。例えば、非特許文献1に示されるようなintra-classおよびextra-classの2クラスの識別問題を判別する場合、典型的には、人物の顔画像を辞書データとすればよい。また、顔の検出処理によって検出された人物の顔画像データを、大きさや向き(面内回転方向)などを正規化し、登録オブジェクト辞書データ保持部22に格納するようにしてもよい。
<Object registration part>
Next, object registration processing will be described. FIG. 3 is a diagram illustrating an example of the configuration of the object registration unit 5. As illustrated in FIG. 3, the object registration unit 5 includes a registration object dictionary data generation unit 21, a registration object dictionary data holding unit 22, and a registration object dictionary data selection unit 23.
The registered object dictionary data generation unit 21 generates registered object dictionary data (hereinafter referred to as dictionary data as appropriate) necessary for identifying an individual object from the image data acquired from the image recording unit 4. For example, when discriminating two-class identification problems such as intra-class and extra-class as shown in Non-Patent Document 1, typically, a human face image may be used as dictionary data. Further, the face image data of the person detected by the face detection process may be normalized in size and orientation (in-plane rotation direction) and stored in the registered object dictionary data holding unit 22.

また、画像データそのものではなく、識別のときに必要なデータのみを保持するようにすることによって、辞書データ量を削減することもできる。また、当該オブジェクトの部分領域のベクトル相関をとって識別演算を行う場合、予めその部分領域のみを切り出しておくとよい。
以上のように、登録オブジェクト辞書データ生成部21は、必要な情報を画像から適宜抽出し、後述する所定の変換を行った後、オブジェクトの識別を行うための特徴ベクトルとし、登録オブジェクト辞書データ保持部22に格納する。登録オブジェクト辞書データ生成部21で行われる具体的な処理の内容については後述する。
登録オブジェクト辞書データ選択部23は、入力オブジェクト識別部6の要求に応じて、登録オブジェクト辞書データ保持部22から必要な登録オブジェクトの辞書データを読み出し、入力オブジェクト識別部6に登録オブジェクトの辞書データを転送する。
In addition, it is possible to reduce the amount of dictionary data by holding only data necessary for identification, not image data itself. In addition, when the identification calculation is performed by taking the vector correlation of the partial area of the object, it is preferable to cut out only the partial area in advance.
As described above, the registered object dictionary data generation unit 21 appropriately extracts necessary information from the image, performs predetermined conversion described later, and uses it as a feature vector for identifying an object, and holds registered object dictionary data. Stored in the unit 22. Details of specific processing performed by the registered object dictionary data generation unit 21 will be described later.
In response to a request from the input object identifying unit 6, the registered object dictionary data selecting unit 23 reads out necessary registered object dictionary data from the registered object dictionary data holding unit 22, and stores the registered object dictionary data in the input object identifying unit 6. Forward.

<登録オブジェクト辞書データ生成部>
図4は、登録オブジェクト辞書データ生成部21の構成の一例を示す図である。図4に示すように、登録オブジェクト辞書データ生成部21は、部分特徴抽出部30、特徴ベクトル変換部33、及び特徴ベクトル変換用データ保持部34を有する。
部分特徴抽出部30は、対象となるオブジェクトを含んだ画像から特徴ベクトルを抽出する処理を行う。より具体的には、部分特徴抽出部30は、部分領域設定部31および特徴ベクトル抽出部32を含んで構成される。
<Registered object dictionary data generator>
FIG. 4 is a diagram illustrating an example of the configuration of the registered object dictionary data generation unit 21. As illustrated in FIG. 4, the registered object dictionary data generation unit 21 includes a partial feature extraction unit 30, a feature vector conversion unit 33, and a feature vector conversion data holding unit 34.
The partial feature extraction unit 30 performs a process of extracting a feature vector from an image including a target object. More specifically, the partial feature extraction unit 30 includes a partial region setting unit 31 and a feature vector extraction unit 32.

部分領域設定部31は、画像データに対して、特徴ベクトル抽出部32が特徴ベクトルを抽出する位置と範囲とを設定する。部分領域の位置および範囲については、機械学習の方法を用いて予め決めておくことができる。
例えば、部分領域の候補を複数設定しておいて、上記複数の候補から、AdaBoostを用いて選択するようにしてもよい。また、後述するように、上記部分領域の組み合わせを多数用意しておいて、その組み合わせを1つの候補として、AdaBoostで選択するようにしてもよい。実際にAdaBoostを適用して、部分領域やその組み合わせを決める方法については後述する。
また、部分領域の数については、処理時間などに応じて予め所定の数を決めておくとよい。また、予め用意した学習用サンプルに対して、十分な識別性能を得られる数を計測して決めるなどとしてもよい。
The partial area setting unit 31 sets a position and a range from which the feature vector extraction unit 32 extracts feature vectors for image data. The position and range of the partial area can be determined in advance using a machine learning method.
For example, a plurality of partial area candidates may be set and selected from the plurality of candidates using AdaBoost. Further, as will be described later, a large number of combinations of the partial areas may be prepared, and the combinations may be selected as one candidate by AdaBoost. A method of determining a partial region and its combination by actually applying AdaBoost will be described later.
Further, the number of partial areas may be determined in advance according to the processing time or the like. In addition, the number of learning samples prepared in advance may be measured and determined so that sufficient identification performance can be obtained.

特徴ベクトル抽出部32は、登録用のオブジェクトのデータから特徴ベクトルを抽出する。対象のオブジェクトが画像中の人物の顔である場合、特徴ベクトル抽出部32は、典型的には、顔を含む画像から識別に必要なデータを取り出す処理を行う。より具体的には、特徴ベクトル抽出部32は、識別に必要なデータとして、部分領域設定部31によって設定された部分領域から、その輝度値を特徴ベクトルの1つとして抽出する。
なお、特徴ベクトル抽出部32は、輝度値の特徴ベクトル以外に、オブジェクトの部分領域の位置に対して不変な特徴量もしくは位置の変動に頑健な特徴量、例えば輝度の頻度分布などを特徴ベクトルとして抽出してもよい。
The feature vector extraction unit 32 extracts feature vectors from registration object data. When the target object is the face of a person in the image, the feature vector extraction unit 32 typically performs a process of extracting data necessary for identification from the image including the face. More specifically, the feature vector extraction unit 32 extracts the luminance value as one of the feature vectors from the partial region set by the partial region setting unit 31 as data necessary for identification.
In addition to the feature vector of the brightness value, the feature vector extraction unit 32 uses a feature amount that is invariant to the position of the partial region of the object or a feature amount that is robust to the position change, for example, a luminance frequency distribution as a feature vector It may be extracted.

また、部分領域の位置の変動に不変な特徴量もしくは頑健な特徴量として、オブジェクトが含まれる画像をフーリエ変換した位相情報を特徴ベクトルとすることも考えられる。また、上記のような位置の変動に対してロバストな特徴の他に、画像のエッジ情報を抽出するようなフィルタ演算結果を特徴ベクトルとして抽出してもよい。例えば、ゾーベルフィルタ、ガボアフィルタなど代表的な空間フィルタ演算を課した結果を特徴ベクトルとして抽出するとよい。
さらに、上記のような空間フィルタによるエッジ情報の頻度分布をとり、それを特徴ベクトルとすることもできる。頻度分布は、位置の変動に対して比較的頑健であり、エッジ情報に由来する特徴ベクトルを位置ずれに対して頑健にする効果がある。特徴ベクトル抽出部32で行われる具体的な処理の内容については後述する。
It is also conceivable to use, as a feature vector, phase information obtained by Fourier transforming an image including an object as a feature quantity that is invariant to a change in position of a partial region or a robust feature quantity. Further, in addition to features that are robust against position fluctuations as described above, a filter calculation result that extracts edge information of an image may be extracted as a feature vector. For example, a result obtained by applying a typical spatial filter operation such as a Sobel filter or a Gabor filter may be extracted as a feature vector.
Furthermore, the frequency distribution of the edge information by the spatial filter as described above can be taken and used as a feature vector. The frequency distribution is relatively robust against position fluctuations, and has an effect of making feature vectors derived from edge information robust against positional deviation. Details of specific processing performed by the feature vector extraction unit 32 will be described later.

特徴ベクトル変換部33は、特徴ベクトル抽出部32によって抽出された特徴ベクトルに所定の変換を施す。特徴ベクトルの変換では、例えば、主成分分析(PCA)による次元圧縮、独立成分分析(ICA)による次元圧縮などが行われる。また、局所性保存射影(LPP)、局所フィッシャー判別分析(LFDA)などによる次元圧縮が行われてもよい。
特徴ベクトルの変換方法にPCAなどを用いた場合、その基底数(特徴ベクトルの次元削減数)、どの基底を用いるかなどのパラメータが存在する。基底数の代わりに、基底ベクトルに対応する固有値の和、即ち累積寄与率を指標としてもよい。また、これらのパラメータについては、部分領域ごとに異なったものにすることもできる。実際にどのようなパラメータを設定するかは、予め機械学習によって、精度と処理時間とを調整することによって決めることができる。
特徴ベクトル変換用データ保持部34は、特徴ベクトル変換部33が特徴ベクトルの変換を行う際に必要なデータ、変換パラメータ等の設定情報を保持している。ここで、特徴ベクトルの変換に必要なデータおよび変換パラメータとは、上述のような、基底数(次元削減数)などの設定情報、予め機械学習によって求めておいた基底ベクトルの数値データなどである。
The feature vector conversion unit 33 performs a predetermined conversion on the feature vector extracted by the feature vector extraction unit 32. In the feature vector conversion, for example, dimensional compression by principal component analysis (PCA), dimensional compression by independent component analysis (ICA), or the like is performed. Further, dimension compression by locality preserving projection (LPP), local Fisher discriminant analysis (LFDA), or the like may be performed.
When PCA or the like is used as a feature vector conversion method, there are parameters such as the number of bases (the number of feature vector dimensions to be reduced) and which base to use. Instead of the basis number, a sum of eigenvalues corresponding to the basis vector, that is, a cumulative contribution rate may be used as an index. Also, these parameters can be different for each partial region. What parameters are actually set can be determined by adjusting accuracy and processing time by machine learning in advance.
The feature vector conversion data holding unit 34 holds setting information such as data and conversion parameters necessary when the feature vector conversion unit 33 converts feature vectors. Here, the data and conversion parameters necessary for the feature vector conversion are the setting information such as the base number (dimension reduction number) as described above, the numerical data of the base vector previously obtained by machine learning, and the like. .

図5は、特徴ベクトル抽出部32および特徴ベクトル変換部33で行われる処理(特徴ベクトル抽出変換処理)に係るフローチャートの一例を示す図である。以下、図5を用いて説明する。
はじめに、特徴ベクトル抽出部32は、部分領域設定部31より部分領域の設定情報を取得する(S10)。続いて、特徴ベクトル抽出部32は、画像記録部4から対象のオブジェクトの画像データを取得する(S11)。続いて、特徴ベクトル抽出部32は、取得した画像データから、S10で取得した部分領域の設定情報をもとに、エッジ情報に関する特徴ベクトルを取得する(S12)。続いて、特徴ベクトル抽出部32は、エッジ情報に関する頻度分布を計測し、特徴ベクトルとして取得する(S13)。
FIG. 5 is a diagram illustrating an example of a flowchart relating to processing (feature vector extraction / conversion processing) performed by the feature vector extraction unit 32 and the feature vector conversion unit 33. Hereinafter, a description will be given with reference to FIG.
First, the feature vector extraction unit 32 acquires partial region setting information from the partial region setting unit 31 (S10). Subsequently, the feature vector extraction unit 32 acquires image data of the target object from the image recording unit 4 (S11). Subsequently, the feature vector extraction unit 32 acquires a feature vector related to edge information from the acquired image data based on the setting information of the partial region acquired in S10 (S12). Subsequently, the feature vector extraction unit 32 measures a frequency distribution related to edge information and acquires it as a feature vector (S13).

ここで、エッジ情報とその頻度分布とに関する特徴ベクトルについては、複数種類のものを抽出するとよい。上述のように、特徴ベクトル抽出部32は、画像に対して複数のフィルタ演算した結果から取得した特徴ベクトルと、その頻度分布を特徴ベクトルとしたものとを取得する。典型的には、特徴ベクトル抽出部32は、LBP(Local Binary Pattern)変換、微分エッジ検出などを行う。
さらに、特徴ベクトル抽出部32は、LBP変換後の各要素での値の頻度分布(ヒストグラム)を算出し、特徴ベクトルとして取得する。また、輝度勾配画像のヒストグラムをとってもよい。これは、HOG(Histogram of Oriented Gradient)と等価になる。
このように、エッジ情報、その頻度分布など、性質の異なる複数の特徴量を取得するとよい。後述するように、大きく性質の異なる特徴量を組み合わせて識別に用いることで、登録オブジェクトと入力オブジェクトとの間に変動がある場合にも、頑健に対応することが可能になる。
Here, it is preferable to extract a plurality of types of feature vectors related to edge information and its frequency distribution. As described above, the feature vector extraction unit 32 acquires a feature vector acquired from a result of performing a plurality of filter operations on an image and a frequency vector having the frequency distribution as a feature vector. Typically, the feature vector extraction unit 32 performs LBP (Local Binary Pattern) conversion, differential edge detection, and the like.
Further, the feature vector extraction unit 32 calculates a frequency distribution (histogram) of values at each element after the LBP conversion, and obtains it as a feature vector. Further, a histogram of the luminance gradient image may be taken. This is equivalent to HOG (Histogram of Oriented Gradient).
In this way, it is preferable to acquire a plurality of feature quantities having different properties such as edge information and frequency distribution thereof. As will be described later, it is possible to robustly cope with the case where there is a change between the registered object and the input object by using a combination of feature quantities having greatly different properties for identification.

続いて、特徴ベクトル変換部33は、S12およびS13で取得された特徴ベクトルに対して、特徴ベクトル変換用データ保持部34から取得した設定情報に従って、所定の変換を行う(S14)。上述のように、典型的には、特徴ベクトル変換部33は、PCAによる次元削減、ICAによる次元削減などを特徴ベクトルに対して行う。この際、取得した特徴ベクトルに対して、所定の統計値、典型的には、平均ベクトル、要素の最大値などを求めておいてもよい。また、部分特徴として、画像から切り出した位置の情報を記録するようにしてもよい。
また、後述するように、登録オブジェクト(登録パターン)と入力オブジェクト(入力パターン)との間で対応する部分特徴の比較・評価を行うために、対応関係を示す識別子を記録するようにしてもよい。これらの情報は、登録オブジェクト辞書データ生成部21の出力として特徴ベクトルとともに出力するようにするとよい。
以上が、特徴ベクトル抽出部32および特徴ベクトル変換部33で行われる処理の説明である。
登録オブジェクト辞書データ生成部21は、以上のような処理を行って、部分領域を設定し、特徴ベクトルを抽出した後に、特徴ベクトルを変換したデータを登録オブジェクト辞書データ生成部21の出力とし、登録オブジェクト辞書データ保持部22に格納する。
Subsequently, the feature vector conversion unit 33 performs predetermined conversion on the feature vectors acquired in S12 and S13 according to the setting information acquired from the feature vector conversion data holding unit 34 (S14). As described above, the feature vector conversion unit 33 typically performs dimension reduction by PCA, dimension reduction by ICA, and the like on the feature vector. At this time, a predetermined statistical value, typically an average vector, a maximum value of elements, or the like may be obtained for the acquired feature vector. Further, information on a position cut out from an image may be recorded as a partial feature.
Further, as will be described later, an identifier indicating a correspondence relationship may be recorded in order to compare / evaluate corresponding partial features between a registered object (registered pattern) and an input object (input pattern). . These pieces of information may be output together with the feature vector as an output of the registered object dictionary data generation unit 21.
The above is the description of the processing performed by the feature vector extraction unit 32 and the feature vector conversion unit 33.
The registered object dictionary data generation unit 21 performs the processing as described above, sets a partial area, extracts a feature vector, and then uses the data obtained by converting the feature vector as an output of the registered object dictionary data generation unit 21 for registration. The data is stored in the object dictionary data holding unit 22.

<入力オブジェクト識別部>
次に、入力オブジェクトの識別処理について説明する。図6は、入力オブジェクト識別部6の構成の一例を示す図である。図6に示すように、入力オブジェクト識別部6は、入力オブジェクト識別用データ生成部41、登録オブジェクト辞書データ取得部42、及び入力オブジェクト識別演算部43を有する。
入力オブジェクト識別用データ生成部41は、画像記録部4から取得した画像データから、対象のオブジェクトの識別に必要な情報の抽出を行う。登録オブジェクト辞書データ取得部42は、オブジェクト登録部5より入力オブジェクトの識別に必要な辞書データを取得する。
入力オブジェクト識別演算部43は、入力オブジェクト識別用データ生成部41から取得した識別用データと、登録オブジェクト辞書データ取得部42から得た辞書データとから、入力オブジェクトの識別処理を行う。ここで行われる識別処理については後述する。
<Input object identification unit>
Next, input object identification processing will be described. FIG. 6 is a diagram illustrating an example of the configuration of the input object identification unit 6. As illustrated in FIG. 6, the input object identification unit 6 includes an input object identification data generation unit 41, a registered object dictionary data acquisition unit 42, and an input object identification calculation unit 43.
The input object identification data generation unit 41 extracts information necessary for identifying the target object from the image data acquired from the image recording unit 4. The registered object dictionary data acquisition unit 42 acquires dictionary data necessary for identifying the input object from the object registration unit 5.
The input object identification calculation unit 43 performs input object identification processing from the identification data acquired from the input object identification data generation unit 41 and the dictionary data acquired from the registered object dictionary data acquisition unit 42. The identification process performed here will be described later.

図7は、入力オブジェクト識別部6で行われる入力オブジェクトの識別処理に係るフローチャートの一例を示す図である。
まず、登録オブジェクト辞書データ取得部42は、オブジェクト登録部5から登録オブジェクトの辞書データを取得する(S20)。続いて、入力オブジェクト識別用データ生成部41は、画像記録部4より入力オブジェクトの画像データを取得する(S21)。続いて、入力オブジェクト識別用データ生成部41は、入力オブジェクト識別用データ生成処理を行う(S22)。なお、入力オブジェクト識別用データ生成部41の構成については後述する。
続いて、入力オブジェクト識別演算部43は、入力オブジェクト識別演算処理を行う(S23)。入力オブジェクト識別演算処理の出力として、登録済みデータ(辞書データ)との一致をバイナリ(0or1)で出力する場合と、正規化した出力値を尤度(0〜1の実数値)として出力する場合とが考えられる。さらに、登録オブジェクト(登録者)が複数(複数人)ある場合には、それぞれの登録オブジェクト(登録者)に対して、尤度を出力してもよいが、最もよく一致した登録オブジェクトに対する結果だけを出力してもよい。
また、登録オブジェクトに対する尤度ではなく、登録オブジェクトが属するクラスに対しての尤度を出力してもよい。即ち、人物の場合には、個々の登録顔画像への結果ではなく、人物のID(名前)に対する尤度を出力するようにする。なお、入力オブジェクト識別演算処理の具体的な内容については後述する。
以上が、入力オブジェクト識別部6における処理の説明である。
FIG. 7 is a diagram illustrating an example of a flowchart relating to the input object identification processing performed by the input object identification unit 6.
First, the registered object dictionary data acquisition unit 42 acquires dictionary data of registered objects from the object registration unit 5 (S20). Subsequently, the input object identification data generation unit 41 acquires the image data of the input object from the image recording unit 4 (S21). Subsequently, the input object identification data generation unit 41 performs an input object identification data generation process (S22). The configuration of the input object identification data generation unit 41 will be described later.
Subsequently, the input object identification calculation unit 43 performs an input object identification calculation process (S23). When outputting a match with registered data (dictionary data) in binary (0 or 1), and outputting a normalized output value as a likelihood (a real value between 0 and 1) as an output of the input object identification calculation process You could think so. Furthermore, when there are a plurality of registered objects (registrants), the likelihood may be output for each registered object (registrant), but only the result for the registered object that most closely matches. May be output.
Further, the likelihood for the class to which the registered object belongs may be output instead of the likelihood for the registered object. That is, in the case of a person, the likelihood for the person's ID (name) is output instead of the result of each registered face image. The specific contents of the input object identification calculation process will be described later.
The above is the description of the processing in the input object identification unit 6.

<入力オブジェクト識別用データ生成部>
図8は、入力オブジェクト識別用データ生成部41の構成の一例を示す図である。図8に示すように、入力オブジェクト識別用データ生成部41は、部分特徴抽出部50、特徴ベクトル変換部53、及び特徴ベクトル変換用データ保持部54を有する。部分特徴抽出部50は、部分領域設定部51、特徴ベクトル抽出部52を含んで構成される。入力オブジェクト識別用データ生成部41の構成およびそこで行われる処理は、登録オブジェクト辞書データ生成部21での構成および処理と同様であるので、その詳細は省略する。
<Input Object Identification Data Generation Unit>
FIG. 8 is a diagram illustrating an example of the configuration of the input object identification data generation unit 41. As illustrated in FIG. 8, the input object identification data generation unit 41 includes a partial feature extraction unit 50, a feature vector conversion unit 53, and a feature vector conversion data holding unit 54. The partial feature extraction unit 50 includes a partial region setting unit 51 and a feature vector extraction unit 52. The configuration of the input object identification data generation unit 41 and the processing performed there are the same as the configuration and processing in the registered object dictionary data generation unit 21, and therefore the details thereof are omitted.

<入力オブジェクト識別演算処理>
次に、入力オブジェクト識別演算処理について説明する。ここでは、一例として、入力オブジェクトの識別を、登録オブジェクトと入力オブジェクトとで対応する部分特徴間の類似性をもとに判定する場合について説明する。
図9は、入力オブジェクト識別演算部43の構成の一例を示す図である。入力オブジェクト識別演算部43は、入力オブジェクト識別用データ取得部61、登録オブジェクト辞書データ取得部62、オブジェクト間変動量検出部63、部分特徴合成部64、合成部分特徴評価部65、評価結果保持部66、及び評価結果統合部67を有する。
<Input object identification calculation processing>
Next, the input object identification calculation process will be described. Here, as an example, a case will be described in which the identification of the input object is determined based on the similarity between the partial features corresponding to the registered object and the input object.
FIG. 9 is a diagram illustrating an example of the configuration of the input object identification calculation unit 43. The input object identification calculation unit 43 includes an input object identification data acquisition unit 61, a registered object dictionary data acquisition unit 62, an inter-object variation detection unit 63, a partial feature synthesis unit 64, a synthesized partial feature evaluation unit 65, and an evaluation result holding unit. 66 and an evaluation result integration unit 67.

図10は、入力オブジェクト識別演算処理に係るフローチャートの一例を示す図である。以下、図を10用いて説明する。
はじめに、入力オブジェクト識別用データ取得部61は、入力オブジェクト識別用データ生成部41から入力オブジェクトの識別用データを取得する(S30)。続いて、登録オブジェクト辞書データ取得部62は、登録オブジェクト辞書データ取得部42から登録オブジェクトの辞書データを取得する(S31)。続いて、オブジェクト間変動量検出部63は、S30およびS31で取得されたデータをもとに、入力オブジェクトおよび登録オブジェクト間の変動量を検出する(S32)。
ここで、検出する具体的な変動量としては、オブジェクト間変動量検出部63は、対象のオブジェクトが人物の顔である場合、顔に関する属性を検出し、その変動量を算出する。また、具体的な属性検出器の検出としては、顔の表情を検出する表情検出が挙げられる。登録オブジェクトと入力オブジェクトとでそれぞれ表情検出を行い、その程度の差を求めることによって変動量を算出することができる。
FIG. 10 is a diagram illustrating an example of a flowchart according to the input object identification calculation process. Hereinafter, description will be made with reference to FIG.
First, the input object identification data acquisition unit 61 acquires input object identification data from the input object identification data generation unit 41 (S30). Subsequently, the registration object dictionary data acquisition unit 62 acquires dictionary data of the registration object from the registration object dictionary data acquisition unit 42 (S31). Subsequently, the inter-object variation amount detection unit 63 detects the variation amount between the input object and the registered object based on the data acquired in S30 and S31 (S32).
Here, as a specific variation amount to be detected, when the target object is a human face, the inter-object variation amount detection unit 63 detects an attribute relating to the face and calculates the variation amount. Further, specific detection by the attribute detector includes facial expression detection for detecting facial expressions. The amount of variation can be calculated by performing facial expression detection for each of the registered object and the input object and obtaining the difference between the detected facial expressions.

また、人物の表情検出については、公知の技術を用いることができる。例えば、表情を喜怒哀楽の4つにカテゴリ分けしておいて、4つのクラス分類器と、それぞれの表情について、その程度を出力できるように検出器を学習すればよい。そして、登録オブジェクトと入力オブジェクトとで表情が異なる場合、変動量を大きくし、表情が同じでも、その程度の差を変動量とすることによって、オブジェクト間の変動量とすることができる。
この表情の検出器と実際の変動量との出力の関係は、何らかのモデルで定式化してもよいが、予めルックアップテーブル(LUT)に保持しておいてもよい。LUTについては、学習データを実際に識別し、後段の認識処理が最大の性能を発揮するように調整することによって、事前に決定することができる。
In addition, a known technique can be used for detecting a human facial expression. For example, the facial expressions may be classified into four categories of emotions, and the detector may be learned so that four class classifiers and the degree of each facial expression can be output. When the registered object and the input object have different facial expressions, the variation amount is increased, and even if the facial expressions are the same, the variation amount between them can be obtained as the variation amount between objects.
The relationship between the output of the expression detector and the actual variation may be formulated by some model, but may be held in advance in a look-up table (LUT). The LUT can be determined in advance by actually identifying the learning data and adjusting so that the subsequent recognition process exhibits the maximum performance.

また、表情以外にも、人物の年齢、顔の特徴点の位置、即ち目口などの顔器官の位置、顔の向き、顔の影のつき方(陰影パターン)、照明条件等についても、それぞれ事前にこれらを検出する検出器を学習しておくことによって、同様に変動量を求めることができる。他にも、肌質、化粧、眼鏡の有無、マスクの有無などを属性として用いることができる。これらを検出する方法として公知の技術を用いることができる。
例えば、サポートベクターマシン(SVM)を使った検出器を作る場合、検出対象となる実際のデータとそれ以外のデータ、その状態を記録したタグをもとにSVMの学習を行うことによって、所望の検出器を作ることができる。
In addition to facial expressions, the age of the person, the position of the facial feature points, that is, the position of the facial organs such as the eyes, the orientation of the face, how to cast shadows (shadow patterns), lighting conditions, etc. By learning a detector that detects these in advance, the amount of variation can be similarly obtained. In addition, skin quality, makeup, presence / absence of glasses, presence / absence of a mask, and the like can be used as attributes. A known technique can be used as a method for detecting these.
For example, when making a detector using a support vector machine (SVM), learning of SVM is performed by learning SVM based on actual data to be detected, other data, and a tag in which the state is recorded. A detector can be made.

また、変動量の対象を、撮影条件を決めるカメラパラメータとすることもできる。オブジェクト識別装置100(例えば撮像装置)が有する、自動露出パラメータ(AEパラメータ)、合焦(自動焦点)の状態(AFパラメータ)を単純に登録時と入力時との設定値の差をとって変動量とすることができる。
また、変動量の測定に、撮影時の照明条件を用いてもよい。この場合、照明条件の推定にカメラパラメータを用いることができる。例えば、撮像制御部3から制御用のAE、AFに関するパラメータを取得することによって、照明条件を精度よく推定することが可能になる。ここで、カメラパラメータの具体例として、露出条件、ホワイトバランス、ピント(合焦条件)、オブジェクトの大きさなどが挙げられる。例えば、露出条件およびホワイトバランスと、肌色成分領域に対応する色成分の対応表を予め作成し、ルックアップテーブルとして保持しておくことで、撮影条件に影響されないオブジェクトの色属性を推定することができるようになる。
Further, the target of the fluctuation amount can be a camera parameter that determines the shooting condition. The object identification device 100 (for example, an imaging device) has an automatic exposure parameter (AE parameter) and a focus (automatic focus) state (AF parameter) that varies simply by taking a difference in setting values between registration and input. It can be an amount.
In addition, the illumination condition at the time of photographing may be used for measuring the fluctuation amount. In this case, camera parameters can be used for estimation of illumination conditions. For example, it is possible to accurately estimate the illumination condition by acquiring the control AE and AF parameters from the imaging control unit 3. Here, specific examples of camera parameters include exposure conditions, white balance, focus (focusing condition), and object size. For example, it is possible to estimate the color attribute of an object that is not affected by shooting conditions by creating a correspondence table of color components corresponding to the exposure condition and white balance and the skin color component area in advance and holding it as a lookup table. become able to.

また、同様に変動量の測定にオブジェクトの大きさを用いることが可能である。被写体であるオブジェクトまでの距離をAFなどの距離測定部を用いることによって測定し、オブジェクトの大きさを推定することができる。より詳細には、以下の式(1)に従ってオブジェクトの大きさを推定することができる。
s = ( f/d − f )・S (1)
ここで、sはオブジェクトの画像上での大きさ(ピクセル数)であり、fは焦点距離であり、dは装置からオブジェクトまでの距離であり、Sはオブジェクトの実際の大きさである。ただし、(d>f)であるとする。このように、撮影条件に影響されないオブジェクトの大きさを属性として推定することが可能になる。
Similarly, the size of the object can be used for measuring the amount of variation. The distance to the object that is the subject can be measured by using a distance measuring unit such as AF, and the size of the object can be estimated. More specifically, the size of the object can be estimated according to the following equation (1).
s = (f / d−f) · S (1)
Here, s is the size (number of pixels) of the object on the image, f is the focal length, d is the distance from the device to the object, and S is the actual size of the object. However, it is assumed that (d> f). In this way, it is possible to estimate the size of an object that is not affected by the shooting conditions as an attribute.

また、画像から取得したオブジェクトのテクスチャ情報を属性としてもよい。テクスチャ分析としては公知の技術を用いることができる。分析結果であるテクスチャ情報(例えばエッジの量や輝度パターンの分類結果)の差を、変動量として定義し、検出することができる。
また、顔の器官の位置を変動量の測定に用いてもよい。より具体的には、目、口、鼻など構成要素の端点を検出して用いる。端点を検出するアルゴリズムとしては、例えば、特許3078166号公報に記載の畳み込み神経回路網を用いた方法などを用いることができる。端点としては、左右の目、口の両端点、鼻、など個人の特徴を現すと考えられる部位を予め選択しておく。顔器官の端点の位置関係がその属性として検出される。
また、他の属性として、人物の年齢、性別、表情などの属性が推定されてもよい。これらの属性推定には公知の技術を用いることができる。例えば、特開2003−242486号公報のような方法を用いることで、人物の属性を推定することができる。学習データを変えることによって、上記の方法で、人物だけでなく、一般の物体についても検出することができる。これによって、人物の顔にある顔器官以外の要素、例えば、メガネ、マスク、手など、オクリュージョンとなる物体を検出することもできる。上記のようなオクリュージョンがある人物の顔として、その属性に含めて考えることができる。
The texture information of the object acquired from the image may be used as an attribute. A known technique can be used for texture analysis. Differences in texture information (for example, the amount of edges and the result of classification of luminance patterns) that are analysis results can be defined and detected as fluctuation amounts.
Further, the position of the facial organ may be used for measuring the amount of variation. More specifically, the end points of components such as eyes, mouth, and nose are detected and used. As an algorithm for detecting the end point, for example, a method using a convolutional neural network described in Japanese Patent No. 3078166 can be used. As the end points, parts that are considered to show individual characteristics such as left and right eyes, both end points of the mouth, and the nose are selected in advance. The positional relationship between the end points of the facial organ is detected as the attribute.
Further, as other attributes, attributes such as a person's age, sex, and facial expression may be estimated. A known technique can be used for the attribute estimation. For example, a person's attribute can be estimated by using a method like Unexamined-Japanese-Patent No. 2003-242486. By changing the learning data, not only a person but also a general object can be detected by the above method. This makes it possible to detect elements other than the facial organs on the human face, such as glasses, masks, hands, and other objects that become occlusions. It can be considered as a face of a person who has the occlusion as described above.

以上のように、オブジェクトの様々な属性を検出し、登録オブジェクトおよび入力オブジェクト間の変動量を算出可能であるが、ここに示したのは、あくまでその一例である。即ち、本実施形態は、登録オブジェクトおよび入力オブジェクト間の変動量を何らかの方法で検出し、その変動量を、後述する識別に用いる合成特徴量の合成に反映させるものである。したがって、変動量の検出に用いる属性が、上記以外のものであってもよい。
このように、登録オブジェクトおよび入力オブジェクト間の変動量を求め、その値を、後述する部分特徴量合成の際のパラメータとして用いる。典型的には、変動が大きいときは、識別能力はやや劣るがロバストな特徴量の割合を高くし、変動が小さいときは、ロバスト性は低いがピークの識別性能が高い特徴量の割合を高くするなどの制御が可能になる。この合成方法については後述する。
また、オブジェクト間の変動量を用いて、特徴ベクトルの変換パラメータを変えるように構成してもよい。例えば、照明変動を検出している場合、照明変動量が大きいとされたときは、照明変動にロバストとされる次元圧縮方法(例えばLFDA)を用いるとよい。照明変動量が小さい場合は、照明変動以外の変動に比較的頑健な次元圧縮方法(例えばPCA、ICA)を用いる。このようにすることで、より変動量に適切な対処が可能になり、識別性能の向上が期待される。
As described above, various attributes of an object can be detected and the amount of variation between the registered object and the input object can be calculated, but the example shown here is only an example. That is, in the present embodiment, the amount of change between the registered object and the input object is detected by some method, and the amount of change is reflected in the synthesis of the composite feature amount used for identification described later. Therefore, the attribute used for detecting the variation may be other than the above.
In this way, the amount of variation between the registered object and the input object is obtained, and the value is used as a parameter for partial feature amount synthesis described later. Typically, when the variation is large, the ratio of features that are slightly inferior but robust is high, and when the variation is small, the proportion of features that have low robustness but high peak recognition performance is increased. It is possible to control such as. This synthesis method will be described later.
Further, the feature vector conversion parameter may be changed using the amount of variation between objects. For example, when the illumination variation is detected, if the illumination variation amount is large, a dimension compression method (for example, LFDA) that is robust to the illumination variation may be used. When the amount of illumination variation is small, a dimension compression method (for example, PCA, ICA) that is relatively robust against variations other than illumination variation is used. By doing in this way, it becomes possible to cope with the amount of variation more appropriately, and an improvement in identification performance is expected.

次に、部分特徴合成部64は、S30、S31、およびS32で取得された入力オブジェクトの識別用データと登録オブジェクトの辞書データと、両者のオブジェクト間の変動量とから、部分特徴の合成処理を行い、合成部分特徴量を生成する(S33)。ここで、合成部分特徴量とは、同一の部分領域において、複数の特徴量から構成される部分特徴量のことである。
合成部分特徴量は、登録オブジェクトおよび入力オブジェクトの部分特徴量をそれぞれ組み合わせ、登録オブジェクトと入力オブジェクトとで対応が取れるように生成される。典型的には、部分特徴合成部64は、空間フィルタに由来するエッジ情報を主とする特徴量と、それらの頻度分布に由来する特徴ベクトルとを連結し、1つの特徴ベクトルとする。部分特徴合成処理の詳細については後述する。
Next, the partial feature synthesis unit 64 performs partial feature synthesis processing based on the input object identification data acquired in S30, S31, and S32, the dictionary data of the registered object, and the amount of variation between the two objects. To generate a synthesized partial feature amount (S33). Here, the combined partial feature amount is a partial feature amount composed of a plurality of feature amounts in the same partial region.
The combined partial feature amount is generated so that the registered object and the input object can be matched by combining the partial feature amounts of the registered object and the input object. Typically, the partial feature synthesis unit 64 concatenates feature amounts mainly including edge information derived from the spatial filter and feature vectors derived from their frequency distributions into one feature vector. Details of the partial feature synthesis processing will be described later.

続いて、合成部分特徴評価部65は、S33で生成された合成部分特徴量の評価を行う(S34)。合成部分特徴評価部65は、複数の合成部分特徴量について、登録オブジェクトと入力オブジェクトとの類似性を表す数値を算出し、それらを統合した1つの値として出力する。合成部分特徴評価処理の詳細については後述する。続いて、評価結果保持部66は、S34で取得された合成部分特徴量の評価結果を保持する(S35)。
続いて、登録オブジェクト辞書データ取得部62は、全ての登録オブジェクトの辞書データについて、識別演算が終わったかどうかを判定する(S36)。このとき、登録オブジェクト辞書データ取得部62は、まだ辞書データがあると判定した場合(S36でNOの場合)には、S31の処理を行う。他方、登録オブジェクト辞書データ取得部62が全ての辞書データについて識別演算が終わったと判定した場合(S36でYESの場合)、評価結果統合部67が評価結果統合処理を行う(S37)。
評価結果統合処理としては、例えば、最も単純には、合成部分特徴評価処理の出力値が最も大きかった登録オブジェクトの辞書データを、識別結果として出力するような処理が考えられる。また、一致度の高かった辞書データ(上位登録オブジェクト辞書データ)の結果をリストとして出力してもよい。
以上が、入力オブジェクト識別演算処理の説明である。
Subsequently, the combined partial feature evaluation unit 65 evaluates the combined partial feature amount generated in S33 (S34). The combined partial feature evaluation unit 65 calculates a numerical value representing the similarity between the registered object and the input object for a plurality of combined partial feature amounts, and outputs the calculated value as one integrated value. Details of the combined partial feature evaluation processing will be described later. Subsequently, the evaluation result holding unit 66 holds the evaluation result of the combined partial feature acquired in S34 (S35).
Subsequently, the registered object dictionary data acquisition unit 62 determines whether or not the identification calculation has been completed for the dictionary data of all the registered objects (S36). At this time, if the registered object dictionary data acquisition unit 62 determines that there is still dictionary data (NO in S36), it performs the process of S31. On the other hand, when the registered object dictionary data acquisition unit 62 determines that the identification calculation has been completed for all dictionary data (YES in S36), the evaluation result integration unit 67 performs an evaluation result integration process (S37).
As the evaluation result integration process, for example, the process of outputting the dictionary data of the registered object having the largest output value of the combined partial feature evaluation process as the identification result can be considered most simply. Further, the result of dictionary data (higher level registration object dictionary data) having a high degree of coincidence may be output as a list.
The above is the description of the input object identification calculation process.

<部分特徴合成処理>
部分特徴合成処理について説明する。図11は、部分特徴合成部64の構成の一例を示す図である。図11に示すように、部分特徴合成部64は、特徴ベクトル取得部71、オブジェクト間変動量取得部72、特徴ベクトル結合部73、及び部分特徴合成パラメータ保持部74を有する。
特徴ベクトル取得部71は、登録パターンの辞書データと入力パターンの識別用データとから特徴ベクトルおよびその付帯情報を取得し、一時的に保持する。ここで付帯情報とは、例えば、特徴ベクトルとして画像から切り出された際の位置情報、PCAなど切り出しベクトルに対して行われた変換のパラメータ、若しくはそれらを文字列として表現した識別子などである。
<Partial feature synthesis processing>
The partial feature synthesis process will be described. FIG. 11 is a diagram illustrating an example of the configuration of the partial feature synthesis unit 64. As illustrated in FIG. 11, the partial feature synthesis unit 64 includes a feature vector acquisition unit 71, an inter-object variation acquisition unit 72, a feature vector combination unit 73, and a partial feature synthesis parameter holding unit 74.
The feature vector acquisition unit 71 acquires a feature vector and its accompanying information from the dictionary data of the registered pattern and the input pattern identification data, and temporarily holds them. Here, the supplementary information is, for example, position information when the image is cut out from the image as a feature vector, parameters for conversion performed on the cut-out vector such as PCA, or an identifier representing these as a character string.

オブジェクト間変動量取得部72は、オブジェクト間変動量検出部63で検出されたオブジェクト間の変動量を取得し、一時的に保持する。特徴ベクトル結合部73は、部分特徴合成パラメータ保持部74から取得したパラメータおよびオブジェクト間変動量取得部72から取得したオブジェクト間の変動量を参照し、特徴ベクトル取得部71に保持されている特徴ベクトルの結合を行う。この結合処理については後述する。
部分特徴合成パラメータ保持部74は、特徴ベクトル結合部73で参照される合成部分特徴を生成するためのパラメータを保持する。ここでのパラメータとは、複数の特徴ベクトルを結合・合成するための設定情報、対象となる特徴ベクトルの切り出し位置の座標情報、前述のような特徴ベクトルの識別子などである。このパラメータについては、前述のように予め用意した学習データに対して、機械学習の方法を用いて最適な値を決めておくことで決定できる。
The inter-object variation amount acquisition unit 72 acquires the inter-object variation amount detected by the inter-object variation amount detection unit 63 and temporarily holds it. The feature vector combining unit 73 refers to the parameters acquired from the partial feature synthesis parameter holding unit 74 and the inter-object variation acquired from the inter-object variation acquiring unit 72, and the feature vector stored in the feature vector acquiring unit 71 To combine. This combining process will be described later.
The partial feature synthesis parameter holding unit 74 holds parameters for generating a synthesized partial feature referenced by the feature vector combining unit 73. Here, the parameters include setting information for combining and synthesizing a plurality of feature vectors, coordinate information of a cutout position of a target feature vector, an identifier of the feature vector as described above, and the like. This parameter can be determined by determining an optimal value for the learning data prepared in advance as described above using a machine learning method.

図12は、部分特徴合成部64で行われる部分特徴合成処理に係るフローチャートの一例を示す図である。以下、図12を用いて処理の内容を説明する。
まず、特徴ベクトル取得部71は、登録オブジェクトの辞書データまたは入力オブジェクトの識別用データから部分特徴ベクトルを取得する(S40)。続いて、オブジェクト間変動量取得部72は、オブジェクト間の変動量を取得する(S41)。続いて、特徴ベクトル結合部73は、部分特徴合成パラメータ保持部74からパラメータを取得する(S42)。
続いて、特徴ベクトル結合部73は、取得したオブジェクト間の変動量と、部分特徴量合成パラメータとを参照し、特徴ベクトルの合成方法(割合など)を決定する(S43)。
FIG. 12 is a diagram illustrating an example of a flowchart relating to the partial feature synthesis process performed by the partial feature synthesis unit 64. Hereinafter, the contents of the processing will be described with reference to FIG.
First, the feature vector acquisition unit 71 acquires a partial feature vector from dictionary data of a registered object or identification data of an input object (S40). Subsequently, the inter-object variation obtaining unit 72 obtains the inter-object variation (S41). Subsequently, the feature vector combining unit 73 acquires parameters from the partial feature synthesis parameter holding unit 74 (S42).
Subsequently, the feature vector combining unit 73 refers to the obtained variation between objects and the partial feature amount synthesis parameter to determine a feature vector synthesis method (such as a ratio) (S43).

ここで、具体的に決定される項目は、1つの部分領域に対して複数ある特徴ベクトルを、オブジェクト間の変動量に応じて連結する際の割合である。前述のように、予め取得した特徴ベクトルの性質とオブジェクト間の変動量との兼ね合いで、識別に適切な特徴ベクトルの割合が決まる。
例えば、LBP特徴のようなエッジ情報に比較的近い特徴量では、画像に近い情報が直接比較されることになるため、個体を識別するための記述力が高く、部分領域の一致度が高い場合、よい識別性能を示すことが知られている。反面、オブジェクト間の部分領域の位置ずれに敏感であり、位置が正しく合っていない場合、精度の劣化が大きい。そのため、表情変動、照明変動などが小さい場合は、合成の割合を大きくした方がよいが、変動が大きく、オブジェクト間の部分領域の位置ずれも大きくなると予想される場合は、その割合を相対的に小さくした方がよいと考えられる。
Here, the item to be specifically determined is a ratio when a plurality of feature vectors for one partial region are linked according to the amount of variation between objects. As described above, the proportion of feature vectors suitable for identification is determined based on the balance between the characteristics of feature vectors acquired in advance and the amount of variation between objects.
For example, when the feature amount is relatively close to edge information such as LBP feature, information close to the image is directly compared, so that the descriptive power for identifying the individual is high and the degree of coincidence of the partial regions is high It is known to show good discrimination performance. On the other hand, it is sensitive to the displacement of the partial area between the objects, and if the position is not correct, the accuracy is greatly degraded. For this reason, if facial expression fluctuations, illumination fluctuations, etc. are small, it is better to increase the composition ratio.However, if the fluctuation is large and the displacement of the partial area between objects is expected to increase, the ratio should be It is considered better to make it smaller.

一方、HOG特徴のように、エッジ情報の頻度分布に由来する特徴量では、分布がみられているため、位置ずれに比較的ロバストであるが、個体を識別するための記述力がエッジ情報に由来する特徴量より劣る傾向がある。そのため、エッジ情報に由来する特徴量とは逆に、オブジェクト間の変動が小さく、位置ずれも小さいと期待される場合は、その割合を小さくした方がよい。他方、オブジェクト間の変動が大きく、位置ずれが大きいと予想される場合は、エッジ情報に由来する特徴量よりもその割合を大きくした方がよいと考えられる。
実際の特徴ベクトルの合成比率(合成割合)は、学習によって決めることができる。よって、幾つかのオブジェクト間の変動量と仮に決めた合成比率と認識性能との関係を、事前に学習データで観測し、最も良好な性能を示す合成比率を定め、LUTとして部分特徴合成パラメータ保持部74に格納しておくとよい。
On the other hand, since the feature amount derived from the frequency distribution of edge information, such as the HOG feature, is distributed, it is relatively robust against positional deviation, but the descriptive power for identifying an individual is included in the edge information. There is a tendency to be inferior to the derived feature amount. Therefore, contrary to the feature amount derived from the edge information, when it is expected that the variation between objects is small and the positional deviation is also small, it is better to reduce the ratio. On the other hand, when the variation between the objects is large and the positional deviation is expected to be large, it is considered that the ratio should be larger than the feature amount derived from the edge information.
The actual feature vector composition ratio (composition ratio) can be determined by learning. Therefore, the relationship between the amount of variation between several objects, the temporarily determined composition ratio and the recognition performance is observed in advance with learning data, the composition ratio showing the best performance is determined, and the partial feature composition parameter is retained as an LUT It may be stored in the unit 74.

続いて、特徴ベクトル結合部73は、S40で取得したエッジ情報に由来する特徴ベクトルとエッジ情報の頻度分布に由来する特徴ベクトルとをS42およびS43で取得した合成方法(連結方法)およびパラメータを用いて連結処理を行う(S44)。連結処理としては、複数のベクトルを1つのベクトルとして結合すればよい。
この際、合成比率は、合成前の各特徴ベクトルの次元によって測られる。例えば、特徴ベクトル結合部73は、LBP特徴を50%、LBPヒストグラム特徴を50%で結合する場合は、両者を同じ次元数で結合する。また、特徴ベクトル結合部73は、エッジ情報に由来する特徴量については、その部分領域の大きさを変えることによって次元数を調節(コントロール)する。また、特徴ベクトル結合部73は、エッジ情報の頻度分布に由来する特徴量については、頻度を測る範囲(ビンの大きさ)を変えることによって、次元を調節する。
また、特徴ベクトルを次元圧縮して用いる場合、次元圧縮後の次元を調節することによって、合成比率に応じた特徴ベクトルの連結を行うこともできる。このようにすることで、エッジ情報に由来する特徴量でもヒストグラム系の特徴量でも、部分領域の大きさや頻度範囲を変えずに、特徴ベクトルの次元を調節することができる。
以上が、部分特徴合成処理の説明である。
Subsequently, the feature vector combining unit 73 uses the combination method (concatenation method) and parameters obtained in S42 and S43, which are feature vectors derived from the edge information acquired in S40 and feature vectors derived from the frequency distribution of the edge information. The connection process is performed (S44). As the concatenation process, a plurality of vectors may be combined as one vector.
At this time, the composition ratio is measured by the dimension of each feature vector before composition. For example, when combining the LBP feature with 50% and the LBP histogram feature with 50%, the feature vector combining unit 73 combines the two with the same number of dimensions. Further, the feature vector combining unit 73 adjusts (controls) the number of dimensions of the feature amount derived from the edge information by changing the size of the partial region. In addition, the feature vector combining unit 73 adjusts the dimension of the feature amount derived from the frequency distribution of the edge information by changing the frequency measurement range (bin size).
When feature vectors are used after being dimensionally compressed, the feature vectors can be connected in accordance with the composition ratio by adjusting the dimension after dimension compression. By doing so, it is possible to adjust the dimension of the feature vector without changing the size or frequency range of the partial region, regardless of the feature amount derived from the edge information or the feature amount of the histogram system.
The above is the description of the partial feature synthesis process.

<合成部分特徴評価処理>
次に、合成部分特徴評価処理の内容について説明する。図13は、合成部分特徴評価部65の構成の一例を示す図である。図13に示すように、合成部分特徴評価部65は、合成部分特徴ベクトル取得部81、合成部分特徴評価パラメータ保持部82、及び合成部分特徴評価値算出部83を有する。
合成部分特徴ベクトル取得部81は、部分特徴合成部64から合成部分特徴(合成部分特徴ベクトル)を取得する。合成部分特徴評価パラメータ保持部82は、合成部分特徴評価値算出部83で用いるパラメータ群を保持している。パラメータの詳細については後述する。合成部分特徴評価値算出部83は、合成部分特徴ベクトル取得部81で取得された登録オブジェクトの合成部分特徴ベクトル(登録合成部分特徴ベクトル)および入力オブジェクトの合成部分特徴ベクトル(入力合成部分特徴ベクトル)の評価値を算出する。合成部分特徴評価値算出部83で行われる処理の内容については後述する。
合成部分特徴は、複数あってもよいので、合成部分特徴評価処理では、複数ある合成部分特徴の評価値を1つの値に統合する処理も行われる。例えば、合成部分特徴評価部65は、全ての合成部分特徴の評価値の平均、評価値の高いものの所定の個数での平均などを最終的な評価値として出力する。
<Synthetic partial feature evaluation processing>
Next, the contents of the combined partial feature evaluation process will be described. FIG. 13 is a diagram illustrating an example of the configuration of the combined partial feature evaluation unit 65. As illustrated in FIG. 13, the combined partial feature evaluation unit 65 includes a combined partial feature vector acquisition unit 81, a combined partial feature evaluation parameter holding unit 82, and a combined partial feature evaluation value calculation unit 83.
The synthesized partial feature vector acquisition unit 81 acquires a synthesized partial feature (synthesized partial feature vector) from the partial feature synthesis unit 64. The combined partial feature evaluation parameter holding unit 82 holds a parameter group used by the combined partial feature evaluation value calculating unit 83. Details of the parameters will be described later. The combined partial feature evaluation value calculation unit 83 includes a combined partial feature vector (registered combined partial feature vector) of the registered object acquired by the combined partial feature vector acquisition unit 81 and a combined partial feature vector (input combined partial feature vector) of the input object. The evaluation value of is calculated. Details of the processing performed by the combined partial feature evaluation value calculation unit 83 will be described later.
Since there may be a plurality of synthesized partial features, in the synthesized partial feature evaluation process, a process of integrating evaluation values of a plurality of synthesized partial features into one value is also performed. For example, the synthesized partial feature evaluation unit 65 outputs the average of the evaluation values of all the synthesized partial features, the average of a predetermined number of high evaluation values, and the like as the final evaluation value.

図14は、合成部分特徴評価部65で行われる合成部分特徴評価処理に係るフローチャートの一例を示す図である。以下、図14を用いて処理の内容を説明する。
はじめに、合成部分特徴ベクトル取得部81は、部分特徴合成部64から合成部分特徴ベクトルを取得する(S50)。なお、合成部分特徴ベクトルには、登録パターンから生成されたものと、入力パターンから生成されたものとがあるが、ここでは、登録と入力とで対応する合成部分特徴をそれぞれ取得する。
続いて、合成部分特徴評価値算出部83は、合成部分特徴評価パラメータ保持部82から評価用のパラメータを取得する(S51)。評価用のパラメータとしては、後段の処理で使われるパラメータであり、例えば、閾値などの数値データ、登録パターンの部分特徴と、対応する入力パターンの部分特徴とを評価するための評価関数などがある。なお、これらパラメータは、部分特徴ごとに設定されていてもよいし、同一の合成部分特徴に属する部分特徴で共通のものであってもよい。
FIG. 14 is a diagram illustrating an example of a flowchart relating to a combined partial feature evaluation process performed by the combined partial feature evaluation unit 65. Hereinafter, the contents of the processing will be described with reference to FIG.
First, the synthesized partial feature vector acquisition unit 81 acquires a synthesized partial feature vector from the partial feature synthesis unit 64 (S50). In addition, although there exist what was produced | generated from the registration pattern and the thing produced | generated from the input pattern in a synthetic | combination partial feature vector, the synthetic | combination partial feature corresponding by registration and input is each acquired here.
Subsequently, the combined partial feature evaluation value calculation unit 83 acquires an evaluation parameter from the combined partial feature evaluation parameter holding unit 82 (S51). The evaluation parameters are parameters used in subsequent processing, and include, for example, numerical data such as threshold values, evaluation functions for evaluating partial features of registered patterns, and partial features of corresponding input patterns, and the like. . Note that these parameters may be set for each partial feature, or may be common to partial features belonging to the same composite partial feature.

続いて、合成部分特徴評価値算出部83は、S50で取得された部分特徴ベクトル及びS51で取得した評価用のパラメータを用いて合成部分特徴の評価値を算出する(S52)。評価値の算出方法については後述する。続いて、合成部分特徴ベクトル取得部81は、全ての合成部分特徴について評価を行ったかを判定する(S53)。このとき、合成部分特徴ベクトル取得部81は、評価を行っていないものがあると判断した場合(S53でNOの場合)、S50の処理を行う。他方、合成部分特徴ベクトル取得部81は、全ての合成部分特徴の評価を終えたと判断した場合(S53でYESの場合)、合成部分特徴評価部65の処理が終了する。
以上が、合成部分特徴評価処理の説明である。
Subsequently, the combined partial feature evaluation value calculation unit 83 calculates an evaluation value of the combined partial feature using the partial feature vector acquired in S50 and the evaluation parameter acquired in S51 (S52). A method for calculating the evaluation value will be described later. Subsequently, the combined partial feature vector acquisition unit 81 determines whether all the combined partial features have been evaluated (S53). At this time, if the synthesized partial feature vector acquisition unit 81 determines that there is an item that has not been evaluated (NO in S53), it performs the process of S50. On the other hand, if the synthesized partial feature vector acquisition unit 81 determines that all the synthesized partial features have been evaluated (YES in S53), the process of the synthesized partial feature evaluation unit 65 ends.
The above is the description of the combined partial feature evaluation process.

<合成部分特徴評価値算出処理>
次に、合成部分特徴評価値算出処理について説明する。図15は、合成部分特徴評価値算出部83で行われる合成部分特徴評価値算出処理に係るフローチャートの一例を示す図である。以下、図15を用いて処理の内容を説明する。
まず、合成部分特徴評価値算出部83は、合成部分特徴ベクトルを取得する(S60)。続いて、合成部分特徴評価値算出部83は、取得した特徴ベクトルから登録オブジェクトおよび入力オブジェクト間の距離を求める。
ここで、距離は、単純なユークリッド距離でもよいし、ベクトル間の内積をとってベクトルの大きさで割ったもの、例えばcosine類似度であってもよい。
<Composite partial feature evaluation value calculation processing>
Next, the composite partial feature evaluation value calculation process will be described. FIG. 15 is a diagram illustrating an example of a flowchart relating to a combined partial feature evaluation value calculation process performed by the combined partial feature evaluation value calculation unit 83. Hereinafter, the contents of the processing will be described with reference to FIG.
First, the composite partial feature evaluation value calculation unit 83 acquires a composite partial feature vector (S60). Subsequently, the combined partial feature evaluation value calculation unit 83 obtains the distance between the registered object and the input object from the acquired feature vector.
Here, the distance may be a simple Euclidean distance, or an inner product between vectors divided by the magnitude of the vector, for example, a cosine similarity.

また、登録と入力との2つのベクトルを、SVM(サポートベクターマシン)に投入するようにしてもよい。このSVMについては、予め、同じ人物から取得した2つのベクトルを正例、異なる人物から取得した2つのベクトルを負例として学習することにより、構築することができる。その際、2つのベクトルを単純に連結してもよいし、2つのベクトルの差分をとってもよい。一般に、差分の方が投入ベクトルの次元が小さくなって学習時間が少なくて済む。学習したSVMのパラメータ等については、合成部分特徴評価パラメータ保持部82に格納しておく。
続いて、合成部分特徴評価値算出部83は、計算した距離をもとに評価値を算出する(S62)。評価値としては、典型的にはS61で取得した距離をそのまま用いてもよいが、実数ではなく「0」か「1」の2値で出力してもよい。その場合、合成部分特徴評価値算出部83は、S61で取得した登録オブジェクトおよび入力オブジェクト間の距離を、閾値より大きいか否かで判定し、閾値を上回った場合は「1」、下回った場合は「0」にする。
以上が、合成部分特徴評価値算出処理の説明である。
Further, two vectors of registration and input may be input to an SVM (support vector machine). This SVM can be constructed by learning in advance two vectors acquired from the same person as positive examples and two vectors acquired from different persons as negative examples. At that time, the two vectors may be simply connected, or the difference between the two vectors may be taken. In general, the difference is smaller in input vector dimension and less learning time. The learned SVM parameters and the like are stored in the combined partial feature evaluation parameter holding unit 82.
Subsequently, the combined partial feature evaluation value calculation unit 83 calculates an evaluation value based on the calculated distance (S62). Typically, the distance acquired in S61 may be used as it is as the evaluation value, but it may be output as a binary value of “0” or “1” instead of a real number. In that case, the composite partial feature evaluation value calculation unit 83 determines whether the distance between the registered object and the input object acquired in S61 is larger than the threshold value, and “1” when the threshold value is exceeded, and when the value is below the threshold value Is set to “0”.
The above is the description of the combined partial feature evaluation value calculation process.

<部分特徴および合成部分特徴の学習方法>
次に、部分特徴を組み合わせて合成部分特徴を生成するためのパラメータの学習に、AdaBoostを用いた場合の処理について説明する。なお、この処理は、予めオフラインで行うことができるので、必ずしもオブジェクト識別装置100内で行う必要はない。また、ここで説明する処理には、公知の技術を適用可能であり、必要に応じてその説明を省略する。
図16は、部分領域の学習処理に係るフローチャートの一例を示す図である。
<Learning method of partial features and composite partial features>
Next, processing when AdaBoost is used for learning parameters for generating a combined partial feature by combining partial features will be described. Since this process can be performed offline in advance, it is not necessarily performed in the object identification apparatus 100. Moreover, a well-known technique is applicable to the process demonstrated here, The description is abbreviate | omitted as needed.
FIG. 16 is a diagram illustrating an example of a flowchart relating to the learning process of the partial region.

まず、オブジェクト識別装置100は、学習データを取得する(S70)。人物の顔を扱う場合は、学習データとして、個人の識別子を表すラベルのついた顔を含む画像を多数用意する。この際、1人あたりの画像数が十分用意されていることが望ましい。また、照明変動、表情変動に頑健な部分特徴および特徴ベクトルの合成方法を学習するためには、学習データに上記変動を十分含んだサンプルを用意することが重要である。
ラベルつきの顔画像から、個人の顔の変動による差異を表す特徴クラス(intra-class)に属するデータと、他人間の顔の変動による差異を表す特徴クラス(extra-class)に属するデータとの2種類を生成することができる。即ち、同一クラスのラベルが付いた顔画像同士からintra-classのデータ、異なるクラスのラベルが付いた顔画像同士からextra-classのデータを作ることができる。
上記のように、学習データの1サンプルは、必ず画像(またはオブジェクト)のペアから生成される。このペアを作る際に、ペア画像間の変動量を検出しておくとよい。
First, the object identification device 100 acquires learning data (S70). When dealing with a human face, a large number of images including a face with a label representing an individual identifier are prepared as learning data. At this time, it is desirable that a sufficient number of images per person is prepared. In addition, in order to learn a method for synthesizing partial features and feature vectors that are robust against illumination fluctuations and facial expression fluctuations, it is important to prepare a sample that sufficiently includes the fluctuations in the learning data.
From the labeled face image, data belonging to a feature class (intra-class) representing a difference due to a variation in an individual's face and data belonging to a feature class (extra-class) representing a difference due to a variation in another human face Kinds can be generated. That is, intra-class data can be created from face images with the same class label, and extra-class data can be created from face images with different class labels.
As described above, one sample of learning data is always generated from a pair of images (or objects). When making this pair, it is preferable to detect the amount of variation between the pair images.

続いて、オブジェクト識別装置100は、弱仮説の選択処理を行う(S71)。ここで、弱仮説は、本実施形態における部分特徴のパラメータに対応付けることができる。即ち、空間的な位置、大きさ、特徴ベクトルの種類(エッジ系、ヒストグラム系など)、次元削減数(PCA、LPP、ICAなど)などの部分特徴に関するパラメータの異なる部分特徴を予め多数用意しておく。オブジェクト識別装置100は、それらパラメータの異なる部分特徴の組み合わせ、及び上記特徴ベクトルを合成する際の合成比率を変えた合成部分特徴ベクトルを弱仮説に対応付ける。
これら用意した弱仮説を学習で選択するにあたって、extra-classとintra-classとの2クラスの識別を行う2クラス識別器の学習として、AdaBoostを使って学習することができる。即ち、オブジェクト識別装置100は、部分特徴(場所、大きさ等)のパラメータ、及びそれらを合成する際の合成比率が学習データに対して最適なものを選択する。
Subsequently, the object identification device 100 performs weak hypothesis selection processing (S71). Here, the weak hypothesis can be associated with the parameter of the partial feature in the present embodiment. In other words, a large number of partial features having different parameters related to partial features such as spatial position, size, feature vector type (edge system, histogram system, etc.), dimension reduction number (PCA, LPP, ICA, etc.) are prepared in advance. deep. The object identification device 100 associates a combination of partial features having different parameters and a combined partial feature vector in which the combination ratio when combining the feature vectors is changed with the weak hypothesis.
When these prepared weak hypotheses are selected by learning, AdaBoost can be used as learning of a two-class classifier that identifies two classes of extra-class and intra-class. In other words, the object identification device 100 selects parameters with partial features (location, size, etc.), and the composition ratio when combining them is optimal for the learning data.

性能評価を行うための具体的な手順としては、合成部分特徴評価部65の説明で述べたように、実際の識別処理の例にならって学習データの評価を行うとよい。この際、学習データを予め検出しておいた画像間の変動量に応じて分割しておくと、その変動量に最適な弱仮説、即ち特徴量のパラメータや合成比率を求めていることになる。そして、オブジェクト識別装置100は、評価を行った後、同一ラベルの人物間のデータと異なるラベルの人物間のデータとで、それぞれ正しい識別結果になっているかを判定し、学習データの重み付き誤り率を求める。
オブジェクト識別装置100は、最も性能のよい弱仮説を選択した場合、その弱仮説の学習データに関する識別結果をもとに学習データの重み付けを更新する(S72)。続いて、オブジェクト識別装置100は、弱仮説数が所定数に達しているか判定する(S73)。このとき、オブジェクト識別装置100は、所定数に達していると判断した場合(S73でYESの場合)、学習処理を終了する。他方、オブジェクト識別装置100は、所定数に達していないと判断した場合(S73でNOの場合)、新たな弱仮説の選択を行う。
As a specific procedure for performing the performance evaluation, as described in the description of the combined partial feature evaluation unit 65, it is preferable to evaluate the learning data according to an example of an actual identification process. At this time, if the learning data is divided according to the amount of variation between the images detected in advance, the optimum weak hypothesis for the amount of variation, that is, the feature parameter and the composition ratio are obtained. . Then, after performing the evaluation, the object identification device 100 determines whether the correct identification result is obtained between the data between persons with the same label and the data between persons with different labels, and the weighted error of the learning data Find the rate.
When selecting the weak hypothesis with the best performance, the object identification device 100 updates the weighting of the learning data based on the identification result regarding the learning data of the weak hypothesis (S72). Subsequently, the object identification device 100 determines whether the number of weak hypotheses has reached a predetermined number (S73). At this time, when it is determined that the predetermined number has been reached (YES in S73), the object identification device 100 ends the learning process. On the other hand, when it is determined that the predetermined number has not been reached (NO in S73), the object identification device 100 selects a new weak hypothesis.

また、複数の部分特徴を学習する際に、遺伝的アルゴリズム(GA)などの最適化手法を適用するようにしてもよい。この場合、オブジェクト識別装置100は、弱仮説を、AdaBoostの手続きに入る前に予め全て用意するのではなく、弱仮説を選択しながら動的に候補を構築していく。即ち、予め一部用意された弱仮説の候補から、性能のよいものを選択しておくようにする。
そして、オブジェクト識別装置100は、その性能のよいもの同士を組み合わせながら、新しい弱仮説の候補を生成し、性能を評価していく。このようにすることで、弱仮説の候補を効率的に絞り込むことができる。以上の構成によれば、学習時間の増加を抑えることができる。
Further, when learning a plurality of partial features, an optimization method such as a genetic algorithm (GA) may be applied. In this case, the object identification apparatus 100 does not prepare all weak hypotheses before entering the AdaBoost procedure, but dynamically constructs candidates while selecting weak hypotheses. That is, one having a good performance is selected from weak hypothesis candidates partially prepared in advance.
Then, the object identification device 100 generates new weak hypothesis candidates while combining those having good performance, and evaluates the performance. In this way, weak hypothesis candidates can be narrowed down efficiently. According to the above configuration, an increase in learning time can be suppressed.

また、オブジェクト識別装置100としては、部分特徴(場所、大きさなど)のみを弱仮説にして、AdaBoostで選択し、部分特徴の合成比率を別の枠組みで選択するようにしてもよい。例えば、オブジェクト識別装置100は、AdaBoostでは、様々な画像間の変動量を含むデータで学習し、部分特徴の場所や大きさを決める。次に、オブジェクト識別装置100は、画像間の変動量を固定した学習データで合成比率を変えながら、学習データを評価し、最も好適な合成比率を求める。
このように構成することで、特徴量のパラメータと合成比率との組み合わせの増加で学習時間が膨大になってしまう問題に対処できる。
以上のようにして、部分特徴に関するパラメータとそれらの組み合わせ、及び評価方法に関するパラメータを決定することができる。
以上が、合成部分特徴に関するパラメータを学習する手順の説明である。
Further, the object identification device 100 may select only partial features (location, size, etc.) as weak hypotheses, select them with AdaBoost, and select a combination ratio of partial features with another framework. For example, in AdaBoost, the object identification device 100 learns from data including fluctuation amounts between various images, and determines the location and size of the partial feature. Next, the object identification device 100 evaluates the learning data while obtaining the most suitable composition ratio while changing the composition ratio with the learning data in which the amount of variation between images is fixed.
With this configuration, it is possible to cope with the problem that the learning time becomes enormous due to an increase in the combination of the feature parameter and the composition ratio.
As described above, it is possible to determine parameters relating to partial features, combinations thereof, and parameters relating to an evaluation method.
The above is the description of the procedure for learning the parameters related to the combined partial feature.

上述のように、オブジェクト識別装置100は、登録パターンと入力パターンとの変動量を検出し、それぞれに対応する部分特徴を複数種類抽出し、それら部分特徴を変動量に応じて合成する。このように、変動量に応じて適切に合成された特徴を評価することで、登録と入力とのパターン間の変動に頑健で高精度な識別を行うことができる。
換言するならば、オブジェクト識別装置100は、登録オブジェクトおよび入力オブジェクト間の撮影条件などの変動量を検出する。オブジェクト識別装置100は、検出した変動量に応じて、オブジェクト間の変動にやや弱いが絶対的な識別性能が高い特徴量と、変動に強いが識別の絶対性能はやや劣る特徴量とを動的に組み合わせることによって、識別性能を高める。
以上が、第1の実施形態の説明である。
As described above, the object identification device 100 detects a variation amount between the registered pattern and the input pattern, extracts a plurality of types of partial features corresponding to each, and synthesizes the partial features according to the variation amount. As described above, by evaluating the feature appropriately synthesized according to the variation amount, it is possible to perform robust and high-precision identification with respect to the variation between the pattern of registration and input.
In other words, the object identification device 100 detects a fluctuation amount such as a shooting condition between the registered object and the input object. In accordance with the detected amount of variation, the object identification device 100 dynamically selects a feature amount that is slightly weak in variation between objects but has high absolute identification performance, and a feature amount that is strong in variation but slightly inferior in identification absolute performance. In combination, the identification performance is improved.
The above is the description of the first embodiment.

<第2の実施形態>
本実施形態は、第1の実施形態の入力オブジェクト識別部6の処理の内容が異なる。より具体的には、第1の実施形態では、部分特徴の合成方法が特徴ベクトルの連結処理であったの対して、第2の実施形態では、複数の部分特徴の共起性を考量して合成する点が異なる。より具体的には、第1の実施形態の合成部分特徴評価部65の処理の内容が異なる。
以下、より詳細に説明する。なお、本実施形態では、第1の実施形態と同一の構成については同一の符号を用いてその説明を適宜省略する。
なお、本実施形態に係わるオブジェクト識別装置100全体のハードウェア構成は、第1の実施形態と同じであるので、説明を省略する。また、第1の実施形態と区別するため、本実施形態では、処理の内容が異なる合成部分特徴評価部65を合成部分特徴評価部165と表記することにする。なお、説明の便宜上、識別する対象となるオブジェクトを画像中の人物の顔としているが、人物の顔以外のオブジェクトにも適用可能である。
<Second Embodiment>
The present embodiment is different in the contents of the processing of the input object identifying unit 6 of the first embodiment. More specifically, in the first embodiment, the method for synthesizing partial features is a feature vector concatenation process, whereas in the second embodiment, the co-occurrence of a plurality of partial features is considered. The point of synthesis is different. More specifically, the processing contents of the composite partial feature evaluation unit 65 of the first embodiment are different.
This will be described in more detail below. In the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted as appropriate.
Note that the hardware configuration of the entire object identification apparatus 100 according to the present embodiment is the same as that of the first embodiment, and a description thereof will be omitted. Further, in order to distinguish from the first embodiment, in this embodiment, the combined partial feature evaluation unit 65 having different processing contents is referred to as a combined partial feature evaluation unit 165. For convenience of explanation, the object to be identified is the face of a person in the image, but it can also be applied to objects other than the face of the person.

<合成部分特徴評価部>
図17は、合成部分特徴評価部165の構成の一例を示す図である。合成部分特徴評価部165は、合成部分特徴ベクトル取得部181、合成部分特徴評価パラメータ保持部182、合成部分特徴評価値算出部183、合成部分特徴尤度算出部184、及び部分特徴数量計測部185を有する。第1の実施形態とは、合成部分特徴尤度算出部184および部分特徴数量計測部185が追加されている点が異なる。
合成部分特徴ベクトル取得部181は、部分特徴合成部64から合成部分特徴を取得する。合成部分特徴ベクトル取得部181は、入力ベクトルおよび登録ベクトル間の変動量も共に取得する。合成部分特徴評価パラメータ保持部182は、合成部分特徴尤度算出部184および部分特徴数量計測部185で用いられるパラメータ群を保持している。パラメータの詳細については後述する。
<Synthesized partial feature evaluation unit>
FIG. 17 is a diagram illustrating an example of the configuration of the combined partial feature evaluation unit 165. The combined partial feature evaluation unit 165 includes a combined partial feature vector acquisition unit 181, a combined partial feature evaluation parameter storage unit 182, a combined partial feature evaluation value calculation unit 183, a combined partial feature likelihood calculation unit 184, and a partial feature quantity measurement unit 185. Have The difference from the first embodiment is that a combined partial feature likelihood calculating unit 184 and a partial feature quantity measuring unit 185 are added.
The synthesized partial feature vector acquisition unit 181 acquires a synthesized partial feature from the partial feature synthesis unit 64. The combined partial feature vector acquisition unit 181 also acquires the amount of variation between the input vector and the registered vector. The combined partial feature evaluation parameter holding unit 182 holds a parameter group used in the combined partial feature likelihood calculating unit 184 and the partial feature quantity measuring unit 185. Details of the parameters will be described later.

合成部分特徴評価値算出部183は、合成部分特徴尤度算出部184による合成部分特徴の尤度と部分特徴数量計測部185の計測結果とを用いて、合成部分特徴の評価値を算出する。合成部分特徴評価値算出部183で行われる処理の内容については後述する。合成部分特徴尤度算出部184は、合成部分特徴の尤度を算出する。合成部分特徴の尤度の算出方法については後述する。
部分特徴数量計測部185は、1つの合成部分特徴に含まれる部分特徴が所定の基準を満たしているかどうかを判定し、前記所定の条件を満たしている部分特徴の数量を計測する。部分特徴数量計測部185で行われる処理の詳細については後述する。
合成部分特徴は、複数であってもよいので、合成部分特徴評価処理では、複数ある合成部分特徴の評価値を1つの値に統合する処理も行われる。例えば、合成部分特徴評価部165は、全ての合成部分特徴の評価値の平均、評価値の高いものの所定の個数での平均などを最終的な評価値として出力する。
The combined partial feature evaluation value calculation unit 183 calculates the evaluation value of the combined partial feature using the likelihood of the combined partial feature by the combined partial feature likelihood calculation unit 184 and the measurement result of the partial feature quantity measurement unit 185. Details of processing performed by the combined partial feature evaluation value calculation unit 183 will be described later. The combined partial feature likelihood calculating unit 184 calculates the likelihood of the combined partial feature. A method of calculating the likelihood of the combined partial feature will be described later.
The partial feature quantity measuring unit 185 determines whether or not a partial feature included in one composite partial feature satisfies a predetermined criterion, and measures the quantity of partial features that satisfy the predetermined condition. Details of processing performed by the partial feature quantity measuring unit 185 will be described later.
Since there may be a plurality of composite partial features, in the composite partial feature evaluation process, a process of integrating evaluation values of a plurality of composite partial features into one value is also performed. For example, the composite partial feature evaluation unit 165 outputs an average of evaluation values of all composite partial features, an average of a predetermined number of high evaluation values, and the like as a final evaluation value.

図18は、合成部分特徴評価部165で行われる合成部分特徴評価処理に係るフローチャートの一例を示す図である。以下、図18を用いて合成部分特徴評価処理の内容を説明する。
はじめに、合成部分特徴ベクトル取得部181は、部分特徴合成部64から合成部分特徴ベクトルを取得する(S80)。なお、合成部分特徴ベクトルには、登録パターンから生成されたものと入力パターンから生成されたものとがあるが、ここでは、登録と入力とで対応する合成部分特徴をそれぞれ取得する。
続いて、合成部分特徴尤度算出部184は、合成部分特徴評価パラメータ保持部182から評価用のパラメータを取得する(S81)。評価用のパラメータは、後段の処理で使われるパラメータであり、例えば、閾値などの数値データ、登録パターンの部分特徴と、対応する入力パターンの部分特徴とを評価するための評価関数などがある。なお、これらのパラメータは、部分特徴ごとに設定されていてもよいし、同一の合成部分特徴に属する部分特徴で共通のものであってもよい。
FIG. 18 is a diagram illustrating an example of a flowchart relating to a combined partial feature evaluation process performed by the combined partial feature evaluation unit 165. Hereinafter, the contents of the combined partial feature evaluation process will be described with reference to FIG.
First, the synthesized partial feature vector acquisition unit 181 acquires a synthesized partial feature vector from the partial feature synthesis unit 64 (S80). In addition, although there exist what was produced | generated from the registration pattern and what was produced | generated from the input pattern in a synthetic | combination partial feature vector, the synthetic | combination partial feature corresponding by registration and input is each acquired here.
Subsequently, the combined partial feature likelihood calculating unit 184 obtains an evaluation parameter from the combined partial feature evaluation parameter holding unit 182 (S81). The evaluation parameters are parameters used in subsequent processing, and include, for example, numerical data such as a threshold value, an evaluation function for evaluating a partial feature of a registered pattern and a partial feature of a corresponding input pattern. Note that these parameters may be set for each partial feature, or may be common to partial features belonging to the same composite partial feature.

S82において、部分特徴数量計測部185は、合成部分特徴ベクトルに属する部分特徴の評価を行い、所定の条件を満たす部分特徴の数量を計測する。部分特徴数量計測処理の内容については後述する。続いて、合成部分特徴尤度算出部184は、合成部分特徴の尤度を算出する(S83)。合成部分特徴の尤度については、予め機械学習を用いて定めることもできるが、入力パターンと登録パターンとの対応する合成部分特徴に応じて動的に算出することもできる。合成部分特徴の尤度の求め方については後述する。
続いて、合成部分特徴評価値算出部183は、S82で求められた部分特徴の数量およびS83で算出された合成部分特徴の尤度を用いて、合成部分特徴の評価値を算出する(S84)。評価値の算出方法については後述する。
In S82, the partial feature quantity measuring unit 185 evaluates the partial features belonging to the combined partial feature vector, and measures the quantity of partial features that satisfy a predetermined condition. The contents of the partial feature quantity measurement process will be described later. Subsequently, the combined partial feature likelihood calculating unit 184 calculates the likelihood of the combined partial feature (S83). The likelihood of the combined partial feature can be determined in advance using machine learning, but can also be dynamically calculated according to the combined partial feature corresponding to the input pattern and the registered pattern. A method of obtaining the likelihood of the combined partial feature will be described later.
Subsequently, the composite partial feature evaluation value calculation unit 183 calculates an evaluation value of the composite partial feature using the quantity of partial features obtained in S82 and the likelihood of the composite partial feature calculated in S83 (S84). . A method for calculating the evaluation value will be described later.

続いて、合成部分特徴ベクトル取得部181は、全ての合成部分特徴について評価を行ったかを判定する(S85)。このとき、合成部分特徴ベクトル取得部181は、評価を行っていないものがあると判断した場合(S85でNOの場合)、S80の処理を行う。他方、合成部分特徴ベクトル取得部181は、全ての合成部分特徴の評価を終えたと判断した場合(S85でYESの場合)、合成部分特徴評価部165の処理が終了する。
以上が、合成部分特徴評価処理の説明である。
Subsequently, the combined partial feature vector acquisition unit 181 determines whether all the combined partial features have been evaluated (S85). At this time, if the synthesized partial feature vector acquisition unit 181 determines that there is an item that has not been evaluated (NO in S85), it performs the process of S80. On the other hand, if the combined partial feature vector acquisition unit 181 determines that all the combined partial features have been evaluated (YES in S85), the processing of the combined partial feature evaluation unit 165 ends.
The above is the description of the combined partial feature evaluation process.

<部分特徴数量計測処理>
次に、部分特徴数量計測処理の内容について説明する。図19は、部分特徴数量計測処理に係るフローチャートの一例を示す図である。以下、図19を用いて処理の内容を説明する。
まず、部分特徴数量計測部185は、部分特徴の評価を行う(S90)。ここでは、評価の一例として、登録パターンの部分特徴と対応する入力パターンの部分特徴との類似度を用いる方法を説明する。ここで、類似度θについては、例えば部分特徴ベクトル間の内積によって求めることができる。より具体的には、部分特徴数量計測部185は、以下の式(2)を用いて類似度θを計算する。
<Partial feature quantity measurement processing>
Next, the content of the partial feature quantity measurement process will be described. FIG. 19 is a diagram illustrating an example of a flowchart according to the partial feature quantity measurement process. Hereinafter, the contents of the processing will be described with reference to FIG.
First, the partial feature quantity measuring unit 185 evaluates partial features (S90). Here, as an example of evaluation, a method of using the similarity between the partial feature of the registered pattern and the partial feature of the corresponding input pattern will be described. Here, the degree of similarity θ can be obtained by an inner product between partial feature vectors, for example. More specifically, the partial feature quantity measuring unit 185 calculates the similarity θ using the following equation (2).

Figure 2012234497
Figure 2012234497

ここで、u(h)およびv(h)は、それぞれ特徴量hの登録パターンおよび入力パターンから生成された部分特徴ベクトルを表わす。lは、特徴ベクトルの次元数、Nは特徴量の種類を表し、whは特徴量hの重みを表す。上記は、特徴ベクトル間の内積をとったものであるが、それ以外に、例えば特徴ベクトル間の正規化相関を類似度として用いてもよいし、特徴ベクトル間の距離の逆数を類似度として用いてもよい。
また、特徴量hの重み付けwhについては、登録ベクトルおよび入力ベクトル間の変動量によって決めることができる。第1の実施形態で説明したように、変動量が小さい場合は、エッジ情報に由来する特徴量(LBP特徴、Gabor特徴など)の重みが大きくなるようにするとよい。また、変動量が大きい場合は、ヒストグラム系の特徴量(HOG特徴、SIFT特徴など)の重みが大きくなるようにするとよい。この重み付けとしては、予め学習データを評価することによって適切な値を設定しておく。
また、第1の実施形態で説明したように、重み付けパラメータを弱仮説の1つととらえ、AdaBoostを用いて決めてもよい。
Here, u (h) and v (h) represent partial feature vectors generated from the registered pattern and the input pattern of the feature amount h, respectively. l is the number of dimensions of feature vectors, N is the represents the types of features, w h represents the weight of the feature quantity h. The above is an inner product between feature vectors. In addition to this, for example, a normalized correlation between feature vectors may be used as a similarity, or an inverse of a distance between feature vectors is used as a similarity. May be.
The weighting w h of the feature amount h can be determined by the amount of change between the registered vector and the input vector. As described in the first embodiment, when the variation amount is small, it is preferable to increase the weight of the feature amount (LBP feature, Gabor feature, etc.) derived from the edge information. When the variation amount is large, it is preferable that the weight of the histogram type feature amount (HOG feature, SIFT feature, etc.) is increased. As this weighting, an appropriate value is set in advance by evaluating learning data.
Further, as described in the first embodiment, the weighting parameter may be regarded as one of weak hypotheses and determined using AdaBoost.

そして、部分特徴数量計測部185は、このようにして得られた登録パターンと入力パターンとの対応する部分特徴間の類似度を評価する(S91)。例えば、部分特徴数量計測部185は、S90で求めた類似度が所定の閾値を超えているかどうかで判定する。
続いて、部分特徴数量計測部185は、同一の合成部分特徴に含まれる部分特徴を全て判定したかのチェックを行う(S92)。このとき、部分特徴数量計測部185は、判定を終えていない場合(S92でNOの場合)、S90の処理を行う。他方、部分特徴数量計測部185は、全ての部分特徴について判定を終えた場合(S92でYESの場合)、類似度が所定の基準を超えた部分特徴の数量を計測する(S93)。典型的には、部分特徴数量計測部185は、閾値を超えた部分特徴の個数を計数する。また、S93における数量nの計測処理において、部分特徴の集計関数を以下のように定義することもできる。
Then, the partial feature quantity measuring unit 185 evaluates the similarity between the corresponding partial features of the registered pattern and the input pattern obtained in this way (S91). For example, the partial feature quantity measuring unit 185 determines whether the similarity obtained in S90 exceeds a predetermined threshold.
Subsequently, the partial feature quantity measuring unit 185 checks whether all partial features included in the same composite partial feature have been determined (S92). At this time, the partial feature quantity measuring unit 185 performs the process of S90 when the determination has not been completed (NO in S92). On the other hand, the partial feature quantity measuring unit 185 measures the quantity of partial features whose similarity exceeds a predetermined standard when the determination is completed for all the partial features (YES in S92) (S93). Typically, the partial feature quantity measuring unit 185 counts the number of partial features exceeding the threshold. Further, in the measurement process of the quantity n in S93, the partial feature aggregation function can be defined as follows.

Figure 2012234497
Figure 2012234497

ここで、mは同一の合成部分特徴内にある部分特徴の個数とし、ωは閾値とする。このように構成することにより、閾値の近傍にある部分特徴を考慮して部分特徴の数量を測定することができる。
以上が、部分特徴数量計測処理の説明である。
Here, m is the number of partial features in the same composite partial feature, and ω is a threshold value. With this configuration, the quantity of partial features can be measured in consideration of partial features in the vicinity of the threshold.
The above is the description of the partial feature quantity measurement process.

<合成部分特徴尤度算出処理>
次に、合成部分特徴尤度算出処理について説明する。図20は、合成部分特徴尤度算出部184の構成の一例を示す図である。合成部分特徴尤度算出部184は、部分特徴ベクトル情報取得部191、部分特徴ベクトル統計情報取得部192、統計情報保持部193、及び尤度算出部194を有する。
部分特徴ベクトル情報取得部191は、合成部分特徴ベクトル取得部181から取得した合成部分特徴ベクトルの構成要素である部分特徴ベクトルの情報を取得する。より具体的には、部分特徴ベクトル情報取得部191は、部分特徴ベクトルの次元数、切り出しもとのパターン上での空間的な位置、大きさ、特徴ベクトルの変換方法、付随するパラメータ情報などである。パラメータ情報としては、特徴ベクトルの変換方式がPCAである場合、次元削減数、累積寄与率、PCAの学習に用いたデータ数などが挙げられる。
部分特徴ベクトル統計情報取得部192は、部分特徴ベクトル情報取得部191で取得した情報をもとにその統計情報を取得する。具体的な処理の内容については後述する。統計情報保持部193は、部分特徴ベクトル統計情報取得部192で取得された統計情報を保持する。なお、予め装置外で求められた統計情報を保持するようにしてもよい。尤度算出部194は、部分特徴ベクトル統計情報取得部192から得られた情報をもとに、合成部分特徴ベクトルの尤度を算出する。具体的な処理の内容については後述する。
<Combined partial feature likelihood calculation process>
Next, the combined partial feature likelihood calculation process will be described. FIG. 20 is a diagram illustrating an example of the configuration of the combined partial feature likelihood calculating unit 184. The combined partial feature likelihood calculation unit 184 includes a partial feature vector information acquisition unit 191, a partial feature vector statistical information acquisition unit 192, a statistical information holding unit 193, and a likelihood calculation unit 194.
The partial feature vector information acquisition unit 191 acquires information on partial feature vectors that are constituent elements of the combined partial feature vector acquired from the combined partial feature vector acquisition unit 181. More specifically, the partial feature vector information acquisition unit 191 uses the number of dimensions of the partial feature vector, the spatial position on the original pattern, the size, the method of converting the feature vector, the accompanying parameter information, and the like. is there. As the parameter information, when the feature vector conversion method is PCA, the number of dimension reductions, the cumulative contribution rate, the number of data used for PCA learning, and the like can be cited.
The partial feature vector statistical information acquisition unit 192 acquires the statistical information based on the information acquired by the partial feature vector information acquisition unit 191. Details of the processing will be described later. The statistical information holding unit 193 holds the statistical information acquired by the partial feature vector statistical information acquisition unit 192. Note that statistical information obtained in advance outside the apparatus may be held. The likelihood calculation unit 194 calculates the likelihood of the combined partial feature vector based on the information obtained from the partial feature vector statistical information acquisition unit 192. Details of the processing will be described later.

図21は、合成部分特徴尤度算出処理に係るフローチャートの一例を示す図である。以下、図21を用いて処理の内容を説明する。
まず、部分特徴ベクトル情報取得部191は、合成部分特徴ベクトルの構成要素である部分特徴ベクトルの情報を取得する(S100)。ここで、部分特徴ベクトルの情報としては、上述したような部分特徴ベクトルの切り出し元であるパターン上での空間的な位置、大きさなど、様々な情報が考えられる。
続いて、部分特徴ベクトル統計情報取得部192は、取得された部分特徴ベクトルの情報をもとに、それらの統計情報を取得する(S101)。続いて、尤度算出部194は、取得された統計情報をもとに合成部分特徴の尤度を算出する(S102)。ここでは、一例として、部分特徴ベクトルの情報が切り出しもとのパターン上での空間的な位置および大きさであり、取得する統計情報がその分散である場合について説明する。尤度算出部194は、部分特徴ベクトルの位置および大きさの各々について、以下の式(5)および式(6)に従って分散を求める。
FIG. 21 is a diagram illustrating an example of a flowchart according to the combined partial feature likelihood calculation process. Hereinafter, the contents of the process will be described with reference to FIG.
First, the partial feature vector information acquisition unit 191 acquires partial feature vector information that is a component of the combined partial feature vector (S100). Here, as the partial feature vector information, various information such as the spatial position and size on the pattern from which the partial feature vector is cut out as described above can be considered.
Subsequently, the partial feature vector statistical information acquisition unit 192 acquires the statistical information based on the acquired partial feature vector information (S101). Subsequently, the likelihood calculating unit 194 calculates the likelihood of the combined partial feature based on the acquired statistical information (S102). Here, as an example, a case will be described in which partial feature vector information is a spatial position and size on a cut-out original pattern, and statistical information to be acquired is its variance. The likelihood calculating unit 194 obtains a variance according to the following formulas (5) and (6) for each position and size of the partial feature vector.

Figure 2012234497
Figure 2012234497

ここで、lは合成部分特徴に含まれる部分特徴の数を表し、νおよびオーバーラインが付されたνは部分特徴の切り出し位置およびその平均を表し、sおよびオーバーラインが付されたsは部分特徴の大きさおよびその平均を表す。また、尤度算出部194は、上記の統計情報から、合成部分特徴の尤度を以下の式(7)で求める。   Here, l represents the number of partial features included in the composite partial feature, ν and ν with an overline represent the cut-out positions of the partial features and their averages, and s and s with an overline are partial It represents the feature size and its average. In addition, the likelihood calculating unit 194 obtains the likelihood of the combined partial feature from the above statistical information by the following equation (7).

Figure 2012234497
Figure 2012234497

このように、部分特徴の位置と大きさの分散の平均を、合成部分特徴の尤度とすることによって、以下のような効果が期待できる。即ち、合成部分特徴を構成する部分特徴の付帯情報(位置、大きさ)の分散が大きいほど、さまざまな尺度で識別の対象のパターンを観測していることになり、その合成部分特徴の妥当性が高いことを直接的に表現できる。例えば、識別の対象のパターンが画像中の人物の顔である場合、目の近傍だけで判定するよりも、口や鼻などの近傍も同時に判定に用いたほうが妥当性が高いと考えられる。
また、部分特徴ベクトルの空間的な情報ではなく、特徴ベクトルの変換に関するパラメータの分散を尤度にしてもよい。より具体的には、部分特徴ごとに次元圧縮率(PCAの累積寄与率)が異なる場合、その次元圧縮率の分散を尤度にしてもよい。
Thus, the following effects can be expected by setting the average of the variance of the position and size of the partial feature as the likelihood of the combined partial feature. In other words, the greater the variance of the incidental information (position, size) of the partial features that make up the composite partial feature, the more the pattern to be identified is observed on various scales. Can be expressed directly. For example, when the pattern to be identified is the face of a person in the image, it is considered more appropriate to use the vicinity of the mouth and nose at the same time for the determination than to determine only the vicinity of the eyes.
Further, instead of the spatial information of the partial feature vectors, the variance of the parameters related to the feature vector conversion may be used as the likelihood. More specifically, when the dimensional compression ratio (PCA cumulative contribution ratio) is different for each partial feature, the variance of the dimensional compression ratio may be used as the likelihood.

また、特徴ベクトルの抽出方法の違いを尤度にしてもよい。もっとも単純には、抽出方法の種類をそのまま尤度として用いる。例えば、合成部分特徴内の部分特徴がすべて輝度画像から抽出されている場合は、尤度を「1」とし、複数の方法、例えば、輝度画像とガボアフィルタをかけた画像から抽出している場合は、尤度を「2」などとするとよい。
また、尤度を予め学習データから定めておいてもよい。部分特徴ごとの学習データに対する識別性能を予め計測して統計情報保持部193に格納し、それらの平均を合成部分特徴の尤度とすることもできる。また、部分特徴の分散から求めた尤度と、学習データから求めた尤度とをあわせ、合成部分特徴の尤度として算出してもよい。
以上が、合成部分特徴尤度算出処理の説明である。
Further, the difference between the feature vector extraction methods may be the likelihood. Most simply, the type of extraction method is used as the likelihood as it is. For example, when all the partial features in the combined partial feature are extracted from the luminance image, the likelihood is set to “1”, and when extracted from a plurality of methods, for example, an image obtained by applying the luminance image and the Gabor filter The likelihood may be “2”.
The likelihood may be determined in advance from learning data. The discrimination performance for the learning data for each partial feature can be measured in advance and stored in the statistical information holding unit 193, and the average of these can be used as the likelihood of the combined partial feature. Further, the likelihood obtained from the variance of the partial features and the likelihood obtained from the learning data may be combined and calculated as the likelihood of the combined partial feature.
The above is the description of the combined partial feature likelihood calculation process.

<合成部分特徴評価値算出処理>
次に、合成部分特徴評価値算出処理について説明する。図22は、合成部分特徴評価値算出部183で行われる合成部分特徴評価値算出処理に係るフローチャートの一例を示す図である。以下、図22を用いて処理の内容を説明する。
まず、合成部分特徴評価値算出部183は、合成部分特徴ベクトルを取得する(S110)。続いて、合成部分特徴評価値算出部183は、部分特徴数量計測部185から部分特徴数量計測処理の結果を取得する(S111)。続いて、合成部分特徴評価値算出部183は、合成部分特徴尤度算出部184から合成部分特徴の尤度を取得する(S112)。続いて、合成部分特徴評価値算出部183は、取得した値をもとに、合成部分特徴の評価値を算出する(S113)。合成部分特徴評価値算出部183は、評価値Vgを以下の式(8)を用いて求める。
<Composite partial feature evaluation value calculation processing>
Next, the composite partial feature evaluation value calculation process will be described. FIG. 22 is a diagram illustrating an example of a flowchart relating to a combined partial feature evaluation value calculation process performed by the combined partial feature evaluation value calculation unit 183. Hereinafter, the contents of the process will be described with reference to FIG.
First, the composite partial feature evaluation value calculation unit 183 acquires a composite partial feature vector (S110). Subsequently, the combined partial feature evaluation value calculation unit 183 acquires the result of the partial feature quantity measurement process from the partial feature quantity measurement unit 185 (S111). Subsequently, the combined partial feature evaluation value calculation unit 183 acquires the likelihood of the combined partial feature from the combined partial feature likelihood calculation unit 184 (S112). Subsequently, the combined partial feature evaluation value calculation unit 183 calculates an evaluation value of the combined partial feature based on the acquired value (S113). The combined partial feature evaluation value calculation unit 183 obtains the evaluation value V g using the following equation (8).

Figure 2012234497
Figure 2012234497

ここで、nは部分特徴数量計測処理の結果であり、σは合成部分特徴の尤度である。このように算出することにより、合成部分特徴に属する部分特徴が所定の基準を満たす数量の違いで、評価値を大きく変化させることができる。部分特徴の組み合わせで識別を行う効果としては、複数の部分特徴が基準を満たしている状態の評価値を、1つだけが満たしている状態の評価値と大きく差をつけることにある。
人物の顔識別の例で説明すると、他人同士でも、照明条件、表情変動などで偶然に部分特徴が一致する場合は考えられるが、それが同時に複数の部分特徴で一致する確率は低いと考えられる。言い換えると、複数の部分領域が同時に一致している場合は、1つ一致している場合よりも、登録パターンと入力パターンとが同じクラスに属している可能性がより高まる。このような期待から、複数の部分特徴が基準を満たしている状態をその数量で代表させ、識別に用いる。
また、評価に数量を用いることで、変動に対してよりロバストな識別が行える可能性がある。例えば、式(8)の代わりに、以下の式(9)のような評価関数を用いることもできる。
Here, n is the result of the partial feature quantity measurement process, and σ is the likelihood of the combined partial feature. By calculating in this way, the evaluation value can be changed greatly depending on the difference in quantity in which the partial features belonging to the combined partial feature satisfy a predetermined criterion. As an effect of performing identification by combining partial features, an evaluation value in a state where a plurality of partial features satisfy a criterion is greatly different from an evaluation value in a state where only one partial feature is satisfied.
In the example of human face identification, it is considered that the partial features coincide with each other by chance due to lighting conditions, facial expression variations, etc., but it is considered that there is a low probability that the partial features coincide at the same time. . In other words, when a plurality of partial areas match at the same time, the possibility that the registered pattern and the input pattern belong to the same class is higher than when one matches. From such an expectation, a state where a plurality of partial features satisfy the standard is represented by the quantity and used for identification.
In addition, by using quantities for evaluation, there is a possibility that more robust identification can be performed against fluctuations. For example, instead of the equation (8), an evaluation function such as the following equation (9) can be used.

Figure 2012234497
Figure 2012234497

ここで、rは登録パターンと入力パターンとで対応する部分特徴の類似度であり、wは重み付き和を取るための各類似度の重みである。この式(9)によれば、重みの大きい類似度が照明変動などの影響で期待される値と異なった場合、評価値への影響も大きくなる。これに対して、式(8)のように数量で代表させることによって、特定の部分特徴の重みが大きくなることが回避され、結果として、変動に対してロバストになると期待される。
また、合成部分特徴の尤度を乗じることで、複数ある合成部分特徴間に重みづけを行うことができる。
また、式(8)や式(9)による評価値の算出は、あくまで一例であり、これ以外の表現も当然考えられる。例えば、部分特徴の数量nの多項式でもよい。また、直接部分特徴の数量nを用いるのではなく、合成部分特徴に含まれる部分特徴の数lで割ることによって正規化してから用いてもよい。このようにすることにより、複数の合成部分特徴間で、含まれる部分特徴にばらつきがある場合でも、各合成部分特徴の評価値のレベルを一定にすることができる。
Here, r is the similarity of the partial features corresponding to the registered pattern and the input pattern, and w is the weight of each similarity for obtaining a weighted sum. According to this equation (9), when the similarity with a large weight is different from the expected value due to the influence of illumination fluctuation or the like, the influence on the evaluation value is also increased. On the other hand, it is expected that the weight of a specific partial feature is increased by representing the quantity as in Expression (8), and as a result, it is expected to be robust against variation.
Moreover, weighting can be performed between a plurality of synthesized partial features by multiplying the likelihood of the synthesized partial features.
Moreover, the calculation of the evaluation value according to the equations (8) and (9) is merely an example, and other expressions are naturally conceivable. For example, it may be a polynomial having a quantity n of partial features. Further, instead of using the partial feature quantity n directly, it may be used after normalization by dividing by the number of partial features 1 included in the composite partial feature. By doing so, the level of the evaluation value of each synthesized partial feature can be made constant even if the contained partial features vary among a plurality of synthesized partial features.

また、本実施形態では、部分特徴の数量nに応じて合成部分特徴の評価値が定められることにも大きな価値がある。よって、実際の合成部分特徴の評価関数としては、識別したいカテゴリに応じて最適なものを選択すればよく、ここでの説明に用いた関数形に限定されるものではない。
また、合成部分特徴評価値算出部183は、合成部分特徴が複数ある場合は、これらを統合し、1つの値として出力する。統合の方法としては、最も単純には、それらの平均が考えられる。合成部分特徴評価値算出部183は、式(8)、式(9)などで求めた評価値の平均を最終的な出力値とする。
また、尤度の高いものだけを用いるようにしてもよい。また、平均をとる前に、各合成部分特徴の尤度が高いものだけを選択し、それらだけで平均をとるようにしてもよい。
Further, in the present embodiment, it is also significant that the evaluation value of the combined partial feature is determined according to the partial feature quantity n. Therefore, an optimum evaluation function of the combined partial feature may be selected according to the category to be identified, and is not limited to the function form used in the description here.
Further, when there are a plurality of synthesized partial features, the synthesized partial feature evaluation value calculation unit 183 integrates these and outputs them as one value. The simplest possible method of integration is the average of them. The combined partial feature evaluation value calculation unit 183 sets an average of the evaluation values obtained by the equations (8) and (9) as a final output value.
Moreover, you may make it use only a thing with high likelihood. In addition, before taking the average, only those having a high likelihood of each synthesized partial feature may be selected, and the average may be taken only by them.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

上述した実施形態の構成によれば、画像に含まれるオブジェクトの識別の精度をより高めることができる。   According to the configuration of the above-described embodiment, it is possible to further improve the accuracy of identifying an object included in an image.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

1 結像光学系、2 撮像部、3 撮像制御部、4 画像記録部、5 オブジェクト登録部、6 入力オブジェクト識別部、7 外部出力部、8 接続バス   1 imaging optical system, 2 imaging unit, 3 imaging control unit, 4 image recording unit, 5 object registration unit, 6 input object identification unit, 7 external output unit, 8 connection bus

Claims (9)

入力画像に含まれる入力オブジェクトおよび登録画像に含まれる登録オブジェクトのオブジェクト間の変動量を検出するオブジェクト間変動量検出手段と、
前記入力オブジェクトと前記登録オブジェクトとで、少なくとも1つ以上の対応する部分特徴量を抽出する部分特徴抽出手段と、
前記オブジェクト間の変動量の大きさに応じて前記部分特徴抽出手段で抽出された部分特徴量を組み合わせる合成方法を決定し、決定した合成方法で前記部分特徴量を合成して合成部分特徴量を生成する部分特徴量合成手段と、
前記合成部分特徴量を用いて、前記入力オブジェクトがどの登録オブジェクトに対応するかを識別する入力オブジェクト識別手段と、
を有することを特徴とするオブジェクト識別装置。
An inter-object variation amount detecting means for detecting a variation amount between objects of the input object included in the input image and the registered object included in the registered image;
Partial feature extraction means for extracting at least one or more corresponding partial feature amounts between the input object and the registered object;
A synthesis method for combining the partial feature amounts extracted by the partial feature extraction unit according to the amount of variation between the objects is determined, and the partial feature amounts are synthesized by combining the partial feature amounts using the determined synthesis method. A partial feature amount synthesis means to be generated;
Input object identifying means for identifying which registered object the input object corresponds to using the synthesized partial feature amount;
An object identification device comprising:
前記部分特徴抽出手段は、少なくとも部分領域の位置の変動に不変な部分特徴量、もしくは位置の変動に頑健な部分特徴量を抽出することを特徴とする請求項1記載のオブジェクト識別装置。   The object identification apparatus according to claim 1, wherein the partial feature extraction unit extracts at least a partial feature quantity that is invariant to a change in position of a partial area or a partial feature quantity that is robust to a change in position. 前記部分特徴抽出手段は、少なくとも画像から取得した情報を頻度分布で表現した部分特徴量を抽出することを特徴とする請求項1記載のオブジェクト識別装置。   The object identification device according to claim 1, wherein the partial feature extraction unit extracts a partial feature amount expressing at least information acquired from an image by a frequency distribution. 前記オブジェクト間変動量検出手段は、撮影条件をもとに前記オブジェクト間の変動量を算出することを特徴とする請求項1記載のオブジェクト識別装置。   The object identifying apparatus according to claim 1, wherein the inter-object variation detecting unit calculates the inter-object variation based on a shooting condition. 前記撮影条件は、自動露出および自動焦点のいずれかにかかわるパラメータであることを特徴とする請求項4記載のオブジェクト識別装置。   5. The object identification device according to claim 4, wherein the photographing condition is a parameter related to either automatic exposure or automatic focus. 前記オブジェクト間変動量検出手段は、前記入力オブジェクトおよび前記登録オブジェクトの属性を検出する属性検出器をさらに具備し、前記入力オブジェクトおよび前記登録オブジェクトの属性の変動量を検出することを特徴とする請求項1記載のオブジェクト識別装置。   The inter-object variation amount detection unit further includes an attribute detector that detects attributes of the input object and the registered object, and detects a variation amount of an attribute of the input object and the registered object. Item 1. The object identification device according to Item 1. 前記部分特徴抽出手段は、抽出した部分特徴量を、変換パラメータを用いて変換する変換手段をさらに具備し、
前記部分特徴量合成手段は、前記登録オブジェクトと前記入力オブジェクトとで同一の位置関係にある複数の部分特徴量を合成する際に、前記オブジェクト間の変動量が大きい場合、画像から取得した情報を頻度分布で表現した部分特徴量の比率が大きくなるように、前記変換パラメータを制御することを特徴とする請求項2記載のオブジェクト識別装置。
The partial feature extraction means further comprises conversion means for converting the extracted partial feature value using a conversion parameter,
The partial feature amount combining means, when combining a plurality of partial feature amounts in the same positional relationship between the registered object and the input object, if the amount of variation between the objects is large, information acquired from the image The object identification device according to claim 2, wherein the conversion parameter is controlled so that a ratio of partial feature amounts expressed by a frequency distribution is increased.
入力画像に含まれる入力オブジェクトおよび登録画像に含まれる登録オブジェクトのオブジェクト間の変動量を検出するオブジェクト間変動量検出工程と、
前記入力オブジェクトと前記登録オブジェクトとで、少なくとも1つ以上の対応する部分特徴量を抽出する部分特徴抽出工程と、
前記オブジェクト間の変動量の大きさに応じて前記部分特徴抽出工程で抽出された部分特徴量を組み合わせる合成方法を決定し、決定した合成方法で前記部分特徴量を合成して合成部分特徴量を生成する部分特徴量合成工程と、
前記合成部分特徴量を用いて、前記入力オブジェクトがどの登録オブジェクトに対応するかを識別する入力オブジェクト識別工程と、
を有することを特徴とするオブジェクト識別方法。
An inter-object variation amount detecting step for detecting a variation amount between objects of the input object included in the input image and the registered object included in the registered image;
A partial feature extraction step of extracting at least one or more corresponding partial feature quantities between the input object and the registered object;
A synthesis method for combining the partial feature values extracted in the partial feature extraction step according to the magnitude of the amount of variation between the objects is determined, and the partial feature value is synthesized by combining the partial feature values using the determined synthesis method. A partial feature amount synthesis step to be generated; and
An input object identification step for identifying which registered object the input object corresponds to using the synthesized partial feature amount;
An object identification method characterized by comprising:
請求項8記載のオブジェクト識別方法の各工程をコンピュータに実行させるプログラム。   The program which makes a computer perform each process of the object identification method of Claim 8.
JP2011104533A 2011-05-09 2011-05-09 Object identification device, object identification method, and program Withdrawn JP2012234497A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011104533A JP2012234497A (en) 2011-05-09 2011-05-09 Object identification device, object identification method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011104533A JP2012234497A (en) 2011-05-09 2011-05-09 Object identification device, object identification method, and program

Publications (1)

Publication Number Publication Date
JP2012234497A true JP2012234497A (en) 2012-11-29

Family

ID=47434728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011104533A Withdrawn JP2012234497A (en) 2011-05-09 2011-05-09 Object identification device, object identification method, and program

Country Status (1)

Country Link
JP (1) JP2012234497A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014168141A (en) * 2013-02-28 2014-09-11 Nikon Corp Image processing device, imaging device, and image processing program
JP2015185034A (en) * 2014-03-25 2015-10-22 キヤノン株式会社 Image recognition apparatus, image recognition method, and program
WO2017150899A1 (en) * 2016-02-29 2017-09-08 광주과학기술원 Object reidentification method for global multi-object tracking
JP2020106966A (en) * 2018-12-26 2020-07-09 株式会社日立製作所 Object recognition device and object recognition method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014168141A (en) * 2013-02-28 2014-09-11 Nikon Corp Image processing device, imaging device, and image processing program
JP2015185034A (en) * 2014-03-25 2015-10-22 キヤノン株式会社 Image recognition apparatus, image recognition method, and program
WO2017150899A1 (en) * 2016-02-29 2017-09-08 광주과학기술원 Object reidentification method for global multi-object tracking
JP2020106966A (en) * 2018-12-26 2020-07-09 株式会社日立製作所 Object recognition device and object recognition method
JP7049983B2 (en) 2018-12-26 2022-04-07 株式会社日立製作所 Object recognition device and object recognition method

Similar Documents

Publication Publication Date Title
US8819015B2 (en) Object identification apparatus and method for identifying object
JP5424819B2 (en) Image processing apparatus and image processing method
US10699102B2 (en) Image identification apparatus and image identification method
US11222222B2 (en) Methods and apparatuses for liveness detection, electronic devices, and computer readable storage media
US10558851B2 (en) Image processing apparatus and method of generating face image
US9626553B2 (en) Object identification apparatus and object identification method
JP5588180B2 (en) Pattern identification apparatus and control method therefor
JP2011138387A (en) Object identification apparatus and control method thereof
JP5241606B2 (en) Object identification device and object identification method
US9471979B2 (en) Image recognizing apparatus and method
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
CN113011450B (en) Training method, training device, recognition method and recognition system for glaucoma recognition
JP2012234497A (en) Object identification device, object identification method, and program
JP5653003B2 (en) Object identification device and object identification method
JP2018194346A (en) Image processor, method for processing image, and image processing program
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM
JP6202938B2 (en) Image recognition apparatus and image recognition method
JP2012027617A (en) Pattern identification device, pattern identification method and program
Zhang Perception System: Object and Landmark Detection for Visually Impaired Users
Nguyen et al. Automated conformance testing for ISO/IEC 19794-5 Standard on facial photo specifications
Janahiram et al. Detecting Occluded Faces in Unconstrained Crowd Digital Pictures
CN117456576A (en) Micro expression recognition method based on space-time characteristics and attention mechanism
JP2019096073A (en) Image processor, method for processing image, and program
Chandra et al. An Enhanced Technique for Red-Eye Detection and Correction Using Neural Network
JP2014203132A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805