JP2016062249A - Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program - Google Patents

Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program Download PDF

Info

Publication number
JP2016062249A
JP2016062249A JP2014189099A JP2014189099A JP2016062249A JP 2016062249 A JP2016062249 A JP 2016062249A JP 2014189099 A JP2014189099 A JP 2014189099A JP 2014189099 A JP2014189099 A JP 2014189099A JP 2016062249 A JP2016062249 A JP 2016062249A
Authority
JP
Japan
Prior art keywords
learning
class
identification
optimization index
identification dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014189099A
Other languages
Japanese (ja)
Inventor
利憲 細井
Toshinori Hosoi
利憲 細井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2014189099A priority Critical patent/JP2016062249A/en
Publication of JP2016062249A publication Critical patent/JP2016062249A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an identification dictionary learning device that can shorten identification time while suppressing a decrease of identification accuracy.SOLUTION: An identification dictionary learning device includes: learning means for learning multiple classifiers for classifying a data value belonging to any of multiple classes in any of multiple classes by using the data value; index calculation means 113 for calculating each optimization index of the multiple classifiers, based on multiple optimization index coefficients each representing the size of contribution to the optimization index representing identification accuracy of classification of combination between the class where a learning sample in the wrong classification belongs to and the classified class; determination means 114 for selecting the classifier among the classifiers representing that the identification accuracy of the optimization index is the highest as a weak classifier, and adding the weak classifier to the identification dictionary being aggregation of the weak classifiers stored in identification dictionary memory means 122; and coefficient update means 116 for performing the update of the optimization index coefficient based on the rule according to the addition.SELECTED DRAWING: Figure 11

Description

本発明は、認識辞書を学習する技術に関する。   The present invention relates to a technique for learning a recognition dictionary.

物体検出においてよく利用される統計的パターン識別技術の1つに、Boostingと呼ばれる手法がある。Boostingは、多数の単純な識別器を組み合わせることによって、識別の精度を向上させる技術である。Boostingにおいて、単純な識別器は弱識別器と呼ばれる。弱識別器を組み合わせることによって作られる高精度な識別器は、強識別器と呼ばれる。Boostingに基づく技術の例が、例えば、非特許文献1乃至4に記載されている。   One of the statistical pattern identification techniques often used in object detection is a technique called Boosting. Boosting is a technique for improving the accuracy of identification by combining a large number of simple classifiers. In Boosting, a simple classifier is called a weak classifier. A high-accuracy classifier made by combining weak classifiers is called a strong classifier. Examples of techniques based on Boosting are described in Non-Patent Documents 1 to 4, for example.

非特許文献1には、Boostingの一つであるAdaBoostを物体検出に利用する例が記載されている。非特許文献2には、AdaBoostを改良したRealAdaBoostと呼ばれるBoosting手法が記載されている。非特許文献3には、AdaBoostを改良した手法の1つであるGentleAdaBoostが記載されている。非特許文献1、非特許文献2、及び非特許文献3に記載されている技術は、例えば、画像における、例えば顔や車などの特定の物体の検出に適用することが可能である。例えば、画像の部分領域がその特定の物体の像であるか否かを、非特許文献1、非特許文献2、又は非特許文献3に記載されている技術を使用して識別することができる。   Non-Patent Document 1 describes an example in which AdaBoost, which is one of Boosting, is used for object detection. Non-Patent Document 2 describes a boosting method called RealAdaBoost that is an improvement of AdaBoost. Non-Patent Document 3 describes GentleAdaBoost, which is one of the improved methods of AdaBoost. The techniques described in Non-Patent Document 1, Non-Patent Document 2, and Non-Patent Document 3 can be applied to, for example, detection of a specific object such as a face or a car in an image. For example, whether or not the partial region of the image is an image of the specific object can be identified using the technique described in Non-Patent Document 1, Non-Patent Document 2, or Non-Patent Document 3. .

非特許文献4には、例えば方向などの違いによる外観の変動が大きい物体を識別する技術の例が記載されている。非特許文献4に記載されている技術では、識別の対象である1つの物体に対して、外観のバリエーションに応じた複数のカテゴリ(すなわちクラス)と、識別の対象である物体以外の対象のカテゴリとが生成される。   Non-Patent Document 4 describes an example of a technique for identifying an object having a large change in appearance due to a difference in direction, for example. In the technique described in Non-Patent Document 4, for one object that is an identification target, a plurality of categories (that is, classes) according to appearance variations and a category of a target other than the object that is the identification target And are generated.

特許文献1には、オブジェクトを複数のクラスのいずれかに分類する、マルチクラスの判別を行う判別器を生成する判別器生成装置が記載されている。特許文献1の判別器生成装置は、複数の弱判別器を組み合わせることによって判別器を生成する。特許文献1の判別器生成装置は、複数のクラス間における弱判別器に、特徴量のみを共有する学習を行う。   Patent Document 1 describes a discriminator generating device that generates a discriminator that performs multi-class discrimination, in which an object is classified into one of a plurality of classes. The discriminator generation device of Patent Document 1 generates a discriminator by combining a plurality of weak discriminators. The discriminator generation device of Patent Literature 1 performs learning to share only the feature amount with weak discriminators between a plurality of classes.

特許文献2には、学習モデルのパラメータを最適化する学習モデル生成装置が記載されている。特許文献2の学習モデル生成装置は、認識対象毎に分類器を生成する。   Patent Document 2 describes a learning model generation device that optimizes parameters of a learning model. The learning model generation device of Patent Literature 2 generates a classifier for each recognition target.

特開2011−181016号公報JP 2011-181016 A 特開2012−038244号公報JP 2012-038244 A

P. Viola and M. Jones, ”Robust real-time object detection”, IJCV, 57(2), pp. 137-154, 2004P. Viola and M. Jones, “Robust real-time object detection”, IJCV, 57 (2), pp. 137-154, 2004 R. Schapire, Y. Singer, ”Improved boosting algorithms using confidence-rated predictions”, Proc. of 11th conference on Computational Learning Theory, 1998R. Schapire, Y. Singer, “Improved boosting algorithms using confidence-rated predictions”, Proc. Of 11th conference on Computational Learning Theory, 1998 J.Friedman, T. Hastie, R. Tibshirani, ”Additive logistic regression: a statistical view of boosting”, Annals of statistics, 28(2), pp. 337-374, 2000J. Friedman, T. Hastie, R. Tibshirani, “Additive logistic regression: a statistical view of boosting”, Annals of statistics, 28 (2), pp. 337-374, 2000 A. Torralba, K. P. Murphy, W. T. Freeman, ”Sharing visual features for multiclass and multiview object detection”, PAMI2006A. Torralba, K. P. Murphy, W. T. Freeman, “Sharing visual features for multiclass and multiview object detection”, PAMI2006

非特許文献1乃至3に記載されている技術では、識別したい物体の外観のバリエーションが大きい場合、識別したい物体から得られる学習サンプルのばらつきも大きい。すなわち、識別したい物体のクラスに分類される学習サンプルのばらつきが大きい。そのため、非特許文献1乃至3に記載されている技術では、学習の結果として生成される識別器によって高い識別精度が得られない。   In the techniques described in Non-Patent Documents 1 to 3, when the variation of the appearance of the object to be identified is large, the variation of the learning sample obtained from the object to be identified is large. That is, the variation of the learning sample classified into the class of the object to be identified is large. Therefore, in the techniques described in Non-Patent Documents 1 to 3, high discrimination accuracy cannot be obtained by a discriminator generated as a result of learning.

外観のバリエーションが大きい、識別したい物体に複数のクラスを割り当てる場合、識別したい物体に割り当てられる複数のクラスと、識別したい物体以外の対象に割り当てられるクラスとを識別できれば、その物体を識別できる。すなわち、物体の識別のために識別することが必要なクラスの組み合わせは限られる。しかし、非特許文献4、特許文献1及び特許文献2に記載されている技術では、検出したい物体の外観のバリエーションに応じて生成されるクラスと、検出したい物体でない対象のクラスとが区別されずに、学習が行われる。従って、非特許文献4、特許文献1及び特許文献2の技術によって学習された識別辞書に基づく識別では、上述のように識別が必要なクラスの組み合わせが限られる場合であっても、その識別辞書に伴う全ての計算を完了させる必要がある。例えば、その計算を途中で打ち切った場合、識別精度が低下する可能性がある。すなわち、非特許文献4、特許文献1及び特許文献2に記載されている技術では、識別対象の外観のバリエーションが大きい場合、識別精度の低下を抑制しながら、例えば識別処理を打ち切ることによって識別時間を短縮させることができる識別辞書は得られない。なお、識別辞書は、例えば、学習の結果として得られる、識別器を表す、例えば識別子及びパラメータなどのデータ値の集合である。   When assigning a plurality of classes to an object to be identified that has a large variation in appearance, the object can be identified if a plurality of classes assigned to the object to be identified and a class assigned to a target other than the object to be identified can be identified. That is, the combinations of classes that need to be identified for object identification are limited. However, in the techniques described in Non-Patent Document 4, Patent Document 1 and Patent Document 2, there is no distinction between a class generated according to a variation in the appearance of an object to be detected and a target class that is not an object to be detected. Learning is performed. Therefore, in the identification based on the identification dictionary learned by the techniques of Non-Patent Document 4, Patent Document 1, and Patent Document 2, even if the combinations of classes that need to be identified are limited as described above, the identification dictionary It is necessary to complete all calculations associated with. For example, if the calculation is interrupted halfway, the identification accuracy may be reduced. That is, in the techniques described in Non-Patent Document 4, Patent Document 1, and Patent Document 2, when the variation in the appearance of the identification target is large, the identification time is reduced by, for example, terminating the identification process while suppressing a decrease in identification accuracy. It is not possible to obtain an identification dictionary that can shorten the above. Note that the identification dictionary is a set of data values such as identifiers and parameters representing the classifiers obtained as a result of learning, for example.

本発明の目的の一つは、外観のバリエーションが大きい物体が識別の対象である場合における、外観のバリエーションが小さい場合と比較した、識別精度の低下を抑制しながら、識別時間を短縮できる識別辞書を作成できる識別辞書学習装置を提供することにある。   One of the objects of the present invention is an identification dictionary that can shorten the identification time while suppressing a decrease in identification accuracy compared with a case where an object with a large appearance variation is a target of identification compared to a case where the appearance variation is small. Is to provide an identification dictionary learning apparatus capable of generating

本発明の一態様に係る識別辞書学習装置は、複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習手段と、誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、を備える。   An identification dictionary learning device according to an aspect of the present invention performs class classification for classifying a data value belonging to any of a plurality of classes into any of the plurality of classes, including a plurality of classifiers, a plurality of the data An optimization index representing the classification accuracy of the class classification of a combination of a learning means that learns using a learning sample that is a value, the class to which the learning sample belongs in the incorrect class classification, and the classified class Index calculating means for calculating the optimization index of each of the plurality of discriminators based on a plurality of optimization index coefficients each representing the magnitude of contribution to each of the discriminators learned, the optimal The classification indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is a set of the weak classifiers stored in the identification dictionary storage unit Comprising a determining means for adding in the book, in response to the weak classifier is added, and a coefficient updating means for performing, based updating of the optimization metrics coefficient rules.

本発明の一態様に係る識別辞書学習方法は、複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習し、誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算し、学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加し、前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う。   An identification dictionary learning method according to an aspect of the present invention includes: classifying a data value belonging to any of a plurality of classes into any of the plurality of classes; Contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class learned using the learning sample that is a value The optimization index of each of the plurality of classifiers is calculated based on a plurality of optimization index coefficients each representing the size of the classifier, and among the learned classifiers, the optimization index has an identification accuracy. The classifier representing the highest is selected as a weak classifier, and the weak classifier is added to an identification dictionary that is a set of weak classifiers stored in an identification dictionary storage unit, and the weak classifier But In response to the pressure, it performed on the basis of the updating of the optimization metrics coefficient rules.

本発明の一態様に係る識別辞書学習プログラムは、コンピュータを、複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習手段と、誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、して動作させる。   An identification dictionary learning program according to an aspect of the present invention performs classification of a computer that classifies a data value belonging to any of a plurality of classes into any of the plurality of classes. Represents the classification accuracy of the class classification of the combination of the learning means that learns using the learning sample that is the data value, the class to which the learning sample belongs in the incorrect class classification, and the classified class. Based on a plurality of optimization index coefficients each representing the magnitude of contribution to the optimization index, index calculation means for calculating the optimization index of each of the plurality of classifiers, and among the learned classifiers The optimization indicator selects the discriminator indicating that the discrimination accuracy is the highest as the weak discriminator, and the weak discriminator is stored in the identification dictionary storage unit, the weak discriminator A decision means for adding to an identification dictionary which is a set of separate devices; and a coefficient updating means for updating the optimization index coefficient based on a rule in accordance with the addition of the weak classifier. .

本発明には、外観のバリエーションが大きい物体が識別の対象である場合における、外観のバリエーションが小さい場合と比較した、識別精度の低下を抑制しながら、識別時間を短縮できる識別辞書を作成できるという効果がある。   According to the present invention, it is possible to create an identification dictionary that can shorten the identification time while suppressing a decrease in identification accuracy as compared with a case where an object having a large variation in appearance is a target of identification compared to a case where the variation in appearance is small. effective.

図1は、本発明の第1の実施形態に係る識別辞書学習システム100の構成の例を表すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of an identification dictionary learning system 100 according to the first embodiment of the present invention. 図2は、重み記憶部123が記憶する重みの例を模式的に表す図である。FIG. 2 is a diagram schematically illustrating an example of weights stored in the weight storage unit 123. 図3は、サンプル記憶部124が記憶するラベルの例を模式的に表す図である。FIG. 3 is a diagram schematically illustrating an example of a label stored in the sample storage unit 124. 図4Aは、ヒストグラムの例を表す第1の図である。FIG. 4A is a first diagram illustrating an example of a histogram. 図4Bは、ヒストグラムの例を表す第2の図である。FIG. 4B is a second diagram illustrating an example of a histogram. 図5Aは、最適化指標テーブルの例を表す第1の図である。FIG. 5A is a first diagram illustrating an example of an optimization index table. 図5Bは、最適化指標テーブルの例を表す第2の図である。FIG. 5B is a second diagram illustrating an example of the optimization index table. 図6は、更新に伴う最適化指標係数の変化を模式的に表す図である。FIG. 6 is a diagram schematically illustrating a change in the optimization index coefficient associated with the update. 図7は、本発明の第1の実施形態に係る識別辞書学習装置110の動作の例を表すフローチャートである。FIG. 7 is a flowchart showing an example of operation of the identification dictionary learning device 110 according to the first exemplary embodiment of the present invention. 図8は、階層的な多クラスに分類される、識別の対象の例を模式的に表す図である。FIG. 8 is a diagram schematically illustrating an example of identification targets classified into hierarchical multiclasses. 図9は、本発明の第2の実施形態に係る物体検出システム300の構成を表すブロック図である。FIG. 9 is a block diagram showing a configuration of an object detection system 300 according to the second embodiment of the present invention. 図10は、本発明の第2の実施形態の物体検出装置310の動作の例を表すフローチャートである。FIG. 10 is a flowchart illustrating an example of the operation of the object detection device 310 according to the second embodiment of this invention. 図11は、本発明の第3の実施形態の識別辞書学習装置100Aの構成を表すブロック図である。FIG. 11 is a block diagram showing a configuration of an identification dictionary learning device 100A according to the third exemplary embodiment of the present invention. 図12は、本発明の各実施形態に係る装置を実現することができる、コンピュータ1000のハードウェア構成の一例を表す図である。FIG. 12 is a diagram illustrating an example of a hardware configuration of a computer 1000 that can implement the apparatus according to each embodiment of the present invention.

以下では、まず、本発明との比較のために、画像において物体を検出する技術について説明する。   In the following, first, a technique for detecting an object in an image will be described for comparison with the present invention.

画像において、特定の種類の物体を検出し、その物体の像が存在する領域の位置を決める技術として、テンプレートマッチングと呼ばれる技術が古くから利用されている。テンプレートマッチングは、画像中に設定された探索窓と、あらかじめ用意されたテンプレート画像とのマッチング計算を、探索窓を変更しながら多数回繰り返すことによって、テンプレート画像と類似している領域を特定する探索手法である。テンプレート画像は、例えば、検出される物体のみの画像である。この際、単純にテンプレート画像の画素値と画像中の画素値を利用してマッチングした場合、マッチングの精度は低い。マッチングの精度を高めるために、周辺画素との勾配情報や2次微分情報等を計算することによって、画素値を、よりマッチングしやすい、特徴量と呼ばれる数値列に変換する手法がよく利用される。さらに、精度を高めるために、統計的パターン識別技術を用いて、識別処理に使用されるパラメータ群を最適化し(すなわち学習し)、その辞書を用いてマッチングの計算を行う手法がよく利用される。識別処理に使用されるパラメータ群は、一般に、「辞書」とも呼ばれる。この場合の辞書は、検出したい特定の物体のクラスである物体クラス(ポジティブクラス)と、検出したい特定の物体以外のクラスである非物体クラス(ネガティブクラス)の2クラス識別をすることができるように、ある決められた指標について最適化される。この指標は、利用される統計的パターン識別技術によって異なる。   A technique called template matching has long been used as a technique for detecting a specific type of object in an image and determining the position of an area where the image of the object exists. Template matching is a search that identifies a region similar to a template image by repeating matching calculations between a search window set in the image and a template image prepared in advance many times while changing the search window. It is a technique. The template image is an image of only the detected object, for example. At this time, when matching is simply performed using the pixel value of the template image and the pixel value in the image, the matching accuracy is low. In order to increase the accuracy of matching, a technique of converting pixel values into numerical sequences called feature values that are more easily matched by calculating gradient information with secondary pixels, second-order differential information, and the like is often used. . Furthermore, in order to improve accuracy, a method of optimizing (that is, learning) a parameter group used for identification processing by using a statistical pattern identification technique and calculating a matching using the dictionary is often used. . The parameter group used for the identification process is generally called a “dictionary”. The dictionary in this case is capable of classifying two classes: an object class (positive class) which is a class of a specific object to be detected and a non-object class (negative class) which is a class other than the specific object to be detected. Then, it is optimized for a certain index. This index depends on the statistical pattern identification technique used.

物体検出においてよく利用される統計的パターン識別技術の1つに、Boostingと呼ばれる手法がある。Boostingは、多数の単純な識別器(弱識別器)を組み合わせることによって、高精度な識別器(強識別器)を構成する手法の1つである。よく使われるAdaBoostと呼ばれる手法による識別処理では、多数の弱識別器を順に実行することによって得られる、個々の弱識別器の出力スコアを、重み付きで足し合わせた値が、強識別器の出力スコアとして導出される。AdaBoostによる学習処理では、弱識別器を1つずつ学習し、学習した弱識別器を強識別器に使用される弱識別器に追加していくことにより、1つの強識別器を構築する。弱識別器を学習する際、既に追加されている弱識別器が誤識別しやすい学習データ(学習サンプル)に対して、大きな重みを付与することによって、その学習サンプルを重視した学習が行われる。   One of the statistical pattern identification techniques often used in object detection is a technique called Boosting. Boosting is one of the techniques for constructing a highly accurate classifier (strong classifier) by combining a large number of simple classifiers (weak classifiers). In a classification process using a commonly used method called AdaBoost, the value obtained by sequentially executing a number of weak classifiers and adding the output scores of the individual weak classifiers with weights is the output of the strong classifiers. Derived as a score. In the learning process by AdaBoost, one weak classifier is learned one by one, and one weak classifier is constructed by adding the learned weak classifier to the weak classifier used for the strong classifier. When learning a weak discriminator, learning that emphasizes the learning sample is performed by assigning a large weight to learning data (learning sample) that is easily misidentified by an already added weak discriminator.

なお、学習サンプルは、例えば、既知の識別対象を観測することによって得られるデータ値のうち、学習部112による学習に使用されるデータである。また、識別データは、例えば、属するクラスを識別しようとする識別対象が観測されることによって得られたデータ値である。以下の説明において、識別データは、単に「サンプル」とも表記される。識別対象は、あらかじめ定められたいずれかのクラスに属する。以下の説明において、「学習サンプルが属するクラス」は、観測によってその学習サンプルが得られた識別対象が属するクラスを指す。同様に、「識別データ(サンプル)が属するクラス」は、観測によってその識別データ(サンプル)が得られた識別対象が属するクラスを指す。例えば、観測によって学習サンプルAが得られた識別対象がクラスBに属する場合、「学習サンプルAがクラスBに属する」と表記する。   The learning sample is, for example, data used for learning by the learning unit 112 among data values obtained by observing a known identification target. The identification data is, for example, a data value obtained by observing an identification target for identifying a class to which the identification data belongs. In the following description, the identification data is also simply referred to as “sample”. The identification target belongs to one of predetermined classes. In the following description, the “class to which the learning sample belongs” refers to the class to which the identification target from which the learning sample is obtained by observation belongs. Similarly, “the class to which the identification data (sample) belongs” refers to the class to which the identification target from which the identification data (sample) is obtained by observation belongs. For example, when the identification target from which the learning sample A is obtained by observation belongs to the class B, it is described as “the learning sample A belongs to the class B”.

上述のように、非特許文献1によって、Boostingを物体検出に効果的に利用した例が開示されている。非特許文献1に開示されている手法は、広く知られている手法である。特徴量として、RectangleFilterを利用することによって高速に計算できるHaarウェーブレットが採用されている。Boostingの弱識別器として、特徴量の1つに対して単純に閾値処理を行うだけの処理(Decision−Stump)が採用されている。そのため、弱識別器の学習処理では、1つの特徴量が選択され、選択された特徴量に対して適切な閾値が1つ決定される。強識別器の生成にはAdaBoostが採用されている。非特許文献2によって、AdaBoostが改良された、RealAdaBoostと呼ばれるBoosting手法が開示されている。この手法では、単純なDecision−Stumpではなく、ポジティブクラスの特徴量の出現確率とネガティブクラスの特徴量の出現確率に基づいた弱識別が行われる。そのため、学習データさえ大量にあれば、高精度な物体検出が実現される。また、非特許文献3によって、GentleAdaBoostと呼ばれる、AdaBoostが改良した手法の1つが開示されている。この手法は、学習処理において最適化する指標(損失)の定義を修正することによって、安定的に学習ができ、そして、RealAdaBoostと同等以上の精度を得られることで知られている。前述の非特許文献1に開示されている技術によって、特定の物体(例:顔や車)を画像から高精度に検出することが可能である。また、非特許文献1に開示されている技術と非特許文献2または非特許文献3に開示されている技術とを組み合わせることで、特定の物体(例:顔や車)を画像から高精度に検出することが可能である。しかし、これらの場合、検出したい物体の見た目のバリエーションが大きい場合には、高い検出精度を得られない。   As described above, Non-Patent Document 1 discloses an example in which Boosting is effectively used for object detection. The technique disclosed in Non-Patent Document 1 is a widely known technique. As a feature quantity, a Haar wavelet that can be calculated at high speed by using a RectangleFilter is adopted. As a boosting weak classifier, a process (Decision-Stamp) that simply performs threshold processing on one of feature values is employed. Therefore, in the weak classifier learning process, one feature value is selected, and one appropriate threshold is determined for the selected feature value. AdaBoost is used to generate the strong classifier. Non-Patent Document 2 discloses a boosting method called RealAdaBoost, in which AdaBoost is improved. In this method, weak classification based on the appearance probability of the positive class feature quantity and the appearance probability of the negative class feature quantity is performed instead of simple Decision-Stamp. Therefore, if there is a large amount of learning data, highly accurate object detection can be realized. Non-Patent Document 3 discloses one of the methods improved by AdaBoost called GentleAdaBoost. This technique is known to be able to learn stably by correcting the definition of an index (loss) to be optimized in the learning process, and to obtain an accuracy equal to or higher than that of RealAdaBoost. With the technique disclosed in Non-Patent Document 1 described above, it is possible to detect a specific object (for example, a face or a car) from an image with high accuracy. Further, by combining the technique disclosed in Non-Patent Document 1 with the technique disclosed in Non-Patent Document 2 or Non-Patent Document 3, a specific object (eg, face or car) can be accurately identified from an image. It is possible to detect. However, in these cases, a high detection accuracy cannot be obtained when the appearance variation of the object to be detected is large.

画像上で見た目のバリエーションが大きい物体を検出する場合、見た目のバリエーションの種類毎に識別辞書を1つ用意し、それぞれの見た目のバリエーションの種類について検出処理を行う方式がよく利用される。しかし、この方式では見た目の種類の数だけ処理時間が増加してしまう問題がある。これに対して、非特許文献4には、見た目のバリエーションを分類して別々のカテゴリ(クラス)とみなし、複数のクラス間で特徴量と弱識別器を共有できるように学習する枠組みが開示されている。この手法では、弱識別器を共有できるため、処理時間が単純にクラス数倍には増加せず、比較的高速な処理を実現できる。しかし、見た目が1つの場合と比較して、弱識別器の個数が増加する傾向があるため、高速化の度合いは大きくない。   When detecting an object having a large appearance variation on an image, a method of preparing one identification dictionary for each type of appearance variation and performing a detection process for each type of appearance variation is often used. However, this method has a problem that the processing time increases by the number of types of appearance. On the other hand, Non-Patent Document 4 discloses a framework for learning so that appearance variations can be classified into different categories (classes) and feature quantities and weak classifiers can be shared among a plurality of classes. ing. In this method, since weak classifiers can be shared, the processing time does not simply increase to the number of classes, and relatively high-speed processing can be realized. However, since the number of weak classifiers tends to increase as compared with the case of one appearance, the degree of speedup is not large.

統計的パターン識別分野において多クラス識別手法は多数存在する。見た目のバリエーションが大きい、例えば物体等の識別対象を検出する多クラス識別では、識別対象のクラス構成が、階層的な多クラス構成である点において、特殊である。識別対象は、その識別対象がどのクラスに属するかが判定される対象である。階層的な多クラス構成は、例えば、識別対象の全体がポジティブ系のクラスとネガティブ系のクラスとに分類され、さらに、ポジティブ系のクラスは複数のサブクラスに分けられる多クラス構成である(図8参照)。以下の説明において、ポジティブ系のクラス(すなわち、上述のサブクラス)の各々を、「ポジティブクラス」、「ポジティブ系クラス」又は「物体クラス」とも表記する。ポジティブ系のクラスを、「ネガティブクラス」、「ネガティブ系クラス」又は「非物体クラス」とも表記する。   There are many multi-class identification methods in the field of statistical pattern identification. In multi-class identification that detects an identification target such as an object having a large variation in appearance, for example, the class configuration of the identification target is special in that it is a hierarchical multi-class configuration. The identification object is an object for which the class to which the identification object belongs is determined. The hierarchical multi-class configuration is, for example, a multi-class configuration in which the entire identification target is classified into a positive class and a negative class, and the positive class is further divided into a plurality of subclasses (FIG. 8). reference). In the following description, each positive class (that is, the above-described subclass) is also referred to as a “positive class”, a “positive class”, or an “object class”. The positive class is also referred to as “negative class”, “negative class”, or “non-object class”.

図8は、階層的な多クラスに分類される、識別対象の例を模式的に表す図である。図8において、同じクラスに含まれる識別対象は、同じ図形によって表されている。図形の位置は、その図形によって表される識別対象の画像から抽出された特徴量の、特徴空間内の位置を模式的に表す。特徴空間は、特徴量の空間を表す。図8に示す例では、識別対象は、検出される物体のクラスであるポジティブクラスと、検出される物体ではない対象のクラスであるネガティブクラスとのいずれかに分類される。図8に示す例では、ポジティブ系のクラスは、さらに、3つのサブクラス(ポジティブクラス)に分かれている。そして、3つのポジティブクラスは、「Pos1」、「Pos2」、及び「Pos3」と名付けられている。検出対象の物体が顔である場合、例えば、Pos1に正面顔が割り当てられ、Pos2に斜め顔が割り当てられ、Pos3に横顔が割り当てられるように、ポジティブクラスの各々に、撮影の方向が異なる顔が割り当てられる。他にも、検出対象が顔である場合、Pos1に人間の正面顔が割り当てられ、Pos2に人形の正面顔が割り当てられるといった割り当てもあり得る。このような方式を評価するには、2種類の精度が考えられる。1つは見た目に関わらずとにかく物体を検出できる精度(以下、第1の精度)である。第1の精度は、ポジティブ系のクラス全体とネガティブクラスとの間の識別する能力に関わる。もう1つは物体の見た目を正しく分類できる精度(以下、第2の精度)である。第2の精度は、ポジティブ系のクラス間を識別する能力に関わる。物体検出では、前述の第1の精度が高いことは必須である。そして、用途によっては、第2の精度も重要である。なお、図8に示すポジティブ系のクラスとネガティブクラスとの境界は、概念的に物体と非物体の境界を示す。   FIG. 8 is a diagram schematically illustrating an example of identification objects classified into hierarchical multi-classes. In FIG. 8, identification objects included in the same class are represented by the same graphic. The position of the figure schematically represents the position in the feature space of the feature quantity extracted from the image to be identified represented by the figure. The feature space represents a feature amount space. In the example illustrated in FIG. 8, the identification target is classified into one of a positive class that is a class of a detected object and a negative class that is a target class that is not a detected object. In the example shown in FIG. 8, the positive class is further divided into three subclasses (positive class). The three positive classes are named “Pos1”, “Pos2”, and “Pos3”. When the object to be detected is a face, for example, a front face is assigned to Pos1, an oblique face is assigned to Pos2, and a side face is assigned to Pos3. Assigned. In addition, when the detection target is a face, a human front face may be assigned to Pos1, and a doll front face may be assigned to Pos2. Two types of accuracy can be considered to evaluate such a method. One is accuracy (hereinafter referred to as first accuracy) that can detect an object regardless of appearance. The first accuracy relates to the ability to discriminate between the entire positive class and the negative class. The other is accuracy (hereinafter referred to as second accuracy) that can correctly classify the appearance of the object. The second accuracy relates to the ability to discriminate between positive classes. In the object detection, it is essential that the first accuracy described above is high. The second accuracy is also important depending on the application. Note that the boundary between the positive class and the negative class shown in FIG. 8 conceptually indicates the boundary between the object and the non-object.

非特許文献4では、個々のポジティブ系クラスとネガティブクラスとを分類できるように学習が行われ、各ポジティブ系クラスのスコアが出力される。そのため、結果的に階層的なクラスの分類が可能である。さらに、学習時にポジティブ系クラスのラベルの一部をポジティブでもネガティブでもないラベルに設定することによって、ポジティブ系クラス全体とネガティブクラスとの間の識別を特に優先させることが可能である。しかし、その優先の度合いは固定であり任意には調整できない。   In Non-Patent Document 4, learning is performed so that each positive class and negative class can be classified, and the score of each positive class is output. As a result, hierarchical class classification is possible. Further, by setting a part of the label of the positive class as a label that is neither positive nor negative during learning, it is possible to give priority to the discrimination between the entire positive class and the negative class. However, the priority is fixed and cannot be adjusted arbitrarily.

次に、以下の説明の便宜上、本実施の形態により作成された識別辞書を用いた多クラス識別処理の枠組みについて先に説明する。識別辞書には学習された多数の弱識別器の情報が記憶されている。それらの弱識別器を1つずつ順に実行することによって、全体的な識別結果が得られる。上述のように、このように弱識別器を組み合わせた処理は機械学習・パターン認識分野では強識別器と呼ばれる。この枠組みはBoostingと呼ばれる枠組みの一変種である。弱識別器それぞれは1つまたは複数のポジティブ系クラスをサポートしている。弱識別器は、入力データに対して、その弱識別器がサポートしているポジティブ系クラスのスコアと、その弱識別器がサポートしていないポジティブ系クラスのスコアの、2種類のスコアが出力するよう設計されていてもよい。その場合、1つの弱識別器によって計算されるスコアの値は、その弱識別器がサポートしているポジティブ系クラスについては同一の値であり、残りのポジティブ系クラスについては別の同一の値である。言い換えると、各弱識別器は、入力データに対して、その弱識別器がサポートするポジティブ系クラスのスコアとして、同一の値を出力する。各弱識別器は、さらに、その入力データに対して、その弱識別器がサポートするポジティブ系クラス以外のクラスのスコアとして、他の同一の値を出力する。弱識別器が、その弱識別器がサポートするポジティブ系クラスのスコアとして出力するスコアは、例えば、入力データによって表される識別対象が、その弱識別器がサポートするポジティブ系クラスのいずれかに属する可能性の程度を表す。弱識別器が、その弱識別器がサポートするポジティブ系クラス以外のクラスのスコアとして出力するスコアは、例えば、入力データによって表される識別対象が、その弱識別器がサポートするポジティブ系クラスのいずれにも属しない可能性の程度を表す。   Next, for the convenience of the following description, a multi-class identification processing framework using the identification dictionary created according to the present embodiment will be described first. Information on a number of learned weak classifiers is stored in the identification dictionary. By executing these weak classifiers one by one in order, an overall discrimination result is obtained. As described above, the process combining the weak classifiers is called a strong classifier in the field of machine learning / pattern recognition. This framework is a variant of the framework called Boosting. Each weak classifier supports one or more positive classes. The weak classifier outputs two types of scores for the input data, that is, a positive class score supported by the weak classifier and a positive class score not supported by the weak classifier. It may be designed as follows. In that case, the score value calculated by one weak classifier is the same value for the positive class supported by the weak classifier, and another same value for the remaining positive class. is there. In other words, each weak classifier outputs the same value as the score of the positive class supported by the weak classifier with respect to the input data. Each weak classifier further outputs another identical value as the score of a class other than the positive class supported by the weak classifier for the input data. The score that the weak classifier outputs as the score of the positive class supported by the weak classifier is, for example, the identification target represented by the input data belongs to one of the positive class supported by the weak classifier Represents the degree of possibility. The score output by the weak classifier as a score of a class other than the positive class supported by the weak classifier is, for example, any of the positive classes supported by the weak classifier represented by the input data. The degree of possibility that it does not belong to.

そして、弱識別器の各々が出力するスコアの、ポジティブ系クラス毎の累積和が計算される。計算された累積和が、強識別器の出力(強識別スコア)である。つまり、強識別スコアはポジティブ系クラス毎に求まる。従って、入力データを、強識別スコアの最大値をとるポジティブ系クラスに分類することができる。以下では、個々の弱識別器がサポートしているポジティブ系クラスを簡潔に表現するために、1つまたは複数のポジティブ系クラスからなる、ポジティブ系クラスの集合を、単集合Sと表記する(n=1,…,集合の数)。 Then, the cumulative sum for each positive class of the score output from each weak classifier is calculated. The calculated cumulative sum is the output (strong discrimination score) of the strong discriminator. That is, a strong discrimination score is obtained for each positive class. Therefore, the input data can be classified into a positive class that takes the maximum value of the strong discrimination score. In the following, for the sake of brevity the positive type classes each weak classifier supports consists of one or more positive system class, a set of positive system classes, referred to as a single set S n ( n = 1, ..., number of sets).

前記強識別器の出力は数1に示す式を使用して計算される。数1に示す式において、cはポジティブ系クラスに付与される番号を表す。H及びh は、それぞれ、ポジティブ系クラスcらしさを表す、強識別器の出力値及びm番目の弱識別器の出力値を表す。Nは弱識別器の個数であり、mは弱識別器番号である。強識別器は、各ポジティブ系クラスcに関して、個別に出力値(H)を出力する。また、各弱識別器mも、各ポジティブ系クラスcに関して、個別に出力値(h )を出力する。すべてのポジティブ系クラス(c=1, ... , NC)分だけ出力する。NCは、ポジティブ系クラスの数(ポジティブ系クラス数)である。つまり、ポジティブ系クラス数個の数値が出力される。 The output of the strong classifier is calculated using the equation shown in Equation 1. In the formula shown in Equation 1, c represents a number assigned to the positive class. H c and h m c represent the output value of the strong discriminator and the output value of the m-th weak discriminator, respectively, indicating the likelihood of a positive class c. N M is the number of weak classifiers, m is a weak classifier ID. The strong classifier outputs an output value (H c ) individually for each positive class c. Each weak classifier m also outputs an output value (h m c ) individually for each positive class c. Output for all positive classes (c = 1, ..., N C ). N C is the number of positive classes (number of positive classes). That is, several positive class numerical values are output.

Figure 2016062249
Figure 2016062249

なお、このような強識別器を用いて識別処理を行う際には、必ずしも全ての弱識別器の出力値の計算を行う必要はない。弱識別器の一部(例えば、付与されている弱識別器番号mが1からNM’ (NM’ < NM)までの弱識別器)のみの出力値を計算して得られる中間出力値を取り出してもよい。例えば、弱識別器の出力値を順次計算する過程において、取り出された中間出力値を閾値処理することによって識別器への入力がネガティブクラスであることを判定できれば、残りの計算を省略できる。特に物体検出を行う場合には、識別器への入力がネガティブクラス(非物体クラス)である確率が非常に高い。そのため、少ない弱識別器が計算されている段階で、識別器への入力がネガティブクラスだと判定することができれば、計算コストが非常に小さくなるので、高速な物体の検出が可能になる。 Note that when performing the classification process using such a strong classifier, it is not always necessary to calculate the output values of all weak classifiers. Intermediate output obtained by calculating the output value of only a part of weak classifiers (for example, weak classifiers whose weak classifier number m is 1 to N M '(N M '<N M )) The value may be retrieved. For example, in the process of sequentially calculating the output value of the weak classifier, if the input to the classifier can be determined to be a negative class by thresholding the extracted intermediate output value, the remaining calculations can be omitted. In particular, when performing object detection, the probability that the input to the discriminator is a negative class (non-object class) is very high. Therefore, if it can be determined that the input to the discriminator is a negative class at a stage where a few weak discriminators are being calculated, the calculation cost becomes very low, and thus high-speed object detection is possible.

<第1の実施形態>
次に、本発明の第1の実施形態である識別辞書学習システム100について添付図面を参照して説明する。
<First Embodiment>
Next, the identification dictionary learning system 100 which is the 1st Embodiment of this invention is demonstrated with reference to an accompanying drawing.

図1は、本発明の第1の実施形態に係る識別辞書学習システム100の構成の例を表すブロック図である。   FIG. 1 is a block diagram showing an example of the configuration of an identification dictionary learning system 100 according to the first embodiment of the present invention.

図1を参照すると、本実施形態に係る識別辞書学習システム100は、識別辞書学習装置110と、記憶装置120とを備える。   Referring to FIG. 1, an identification dictionary learning system 100 according to the present embodiment includes an identification dictionary learning device 110 and a storage device 120.

識別辞書学習装置110は、初期化部111と、学習部112と、指標計算部113と、決定部114と、重み更新部115と、係数更新部116とを有する。識別辞書学習装置110は、さらに、係数記憶部121と、重み記憶部123と、を有していてもよい。識別辞書学習装置110は、さらに、サンプル記憶部124を有していてもよい。   The identification dictionary learning device 110 includes an initialization unit 111, a learning unit 112, an index calculation unit 113, a determination unit 114, a weight update unit 115, and a coefficient update unit 116. The identification dictionary learning device 110 may further include a coefficient storage unit 121 and a weight storage unit 123. The identification dictionary learning device 110 may further include a sample storage unit 124.

記憶装置120は、識別辞書記憶部122を有する。識別辞書学習装置110ではなく記憶装置120が、さらに、係数記憶部121と、重み記憶部123と、を有していてもよい。識別辞書学習装置110ではなく記憶装置120が、さらに、サンプル記憶部124を有していてもよい。識別辞書学習装置110が、記憶装置120を含んでいてもよい。   The storage device 120 includes an identification dictionary storage unit 122. The storage device 120 instead of the identification dictionary learning device 110 may further include a coefficient storage unit 121 and a weight storage unit 123. The storage device 120 instead of the identification dictionary learning device 110 may further include a sample storage unit 124. The identification dictionary learning device 110 may include a storage device 120.

前述の各記憶部には、それぞれ以下のデータが記憶される。   The following data is stored in each storage unit described above.

係数記憶部121には、本実施形態の識別辞書学習装置110の動作中に利用される最適化指標係数の数値群が記憶される。最適化指標係数は、0.0以上の数値である。係数記憶部121は、最適化指標係数の数値群を、最適化指標係数テーブルとして、テーブルの形態で記憶してもよい。この最適化指標係数テーブルには、学習サンプルが属するクラスと、その学習サンプルが分類されたポジティブ系クラスとの組み合わせに対して適用される最適化指標係数が記憶される。それら組み合わせに対して、それぞれ1つの最適化指標係数が記憶される。学習サンプルは、複数のポジティブ系クラス及びネガティブ系クラスのいずれかに属する。そのため、テーブル中の最適化指標係数の個数は、「総クラス数×ポジティブ系クラス数」個である。総クラス数は、ポジティブ系クラス数とネガティブクラス数との和のことである。ネガティブクラス数は、必ず1である。この最適化指標係数テーブルに格納されている最適化指標係数の値は、学習処理の繰り返し応じて変化する。すなわち、最適化指標係数の値は、学習処理の繰り返し回数tに応じて変化する。   The coefficient storage unit 121 stores a numerical value group of optimization index coefficients used during the operation of the identification dictionary learning device 110 of the present embodiment. The optimization index coefficient is a numerical value of 0.0 or more. The coefficient storage unit 121 may store a numerical value group of optimization index coefficients as an optimization index coefficient table in the form of a table. In this optimization index coefficient table, optimization index coefficients applied to a combination of a class to which a learning sample belongs and a positive class into which the learning sample is classified are stored. One optimization index coefficient is stored for each combination. The learning sample belongs to one of a plurality of positive class and negative class. Therefore, the number of optimization index coefficients in the table is “total number of classes × number of positive classes”. The total number of classes is the sum of the number of positive classes and the number of negative classes. The number of negative classes is always 1. The value of the optimization index coefficient stored in this optimization index coefficient table changes according to the repetition of the learning process. That is, the value of the optimization index coefficient changes according to the number of repetitions t of the learning process.

重み記憶部123は、本実施形態の識別辞書学習装置110の動作中に利用される学習用データ(学習サンプル)の重みを表す数値を記憶する。重み記憶部123が記憶する重みは、「サンプル重み」とも表記される。この重みは、個々の学習サンプルについて、ポジティブ系クラス別に設定される。重み記憶部123は、1つの学習サンプルに対して、1つの重みではなく、ポジティブ系クラス数個の重みを記憶する。このため、重み記憶部123が記憶する重みの個数は、「全ての学習サンプルの個数×ポジティブ系クラス数」である。この重みは、個々のポジティブ系クラスに関する分類の失敗しやすさを表す。重視して学習すべき学習サンプルほど、その学習サンプルに設定される重みは大きな値となる。サンプル重みの例を図2に示す。   The weight storage unit 123 stores a numerical value representing the weight of learning data (learning sample) used during the operation of the identification dictionary learning device 110 of the present embodiment. The weight stored in the weight storage unit 123 is also expressed as “sample weight”. This weight is set for each positive learning class for each learning sample. The weight storage unit 123 stores the weights of several positive classes instead of one weight for one learning sample. For this reason, the number of weights stored in the weight storage unit 123 is “the number of all learning samples × the number of positive classes”. This weight represents the likelihood of classification failure for each positive class. The more the learning sample that should be learned with greater importance, the greater the weight set for the learning sample. An example of sample weight is shown in FIG.

図2は、重み記憶部123が記憶する重みの例を模式的に表す図である。図2に示す例では、3つのポジティブ系クラスが存在する。それらのポジティブ系クラスは、「Pos1」、「Pos2」、及び「Pos3」によって表される。そして、重み記憶部123には、1から8までのサンプル番号が付与されている学習サンプルに設定されている重みが格納されている。図2の2行目は、学習サンプルが属するクラスを表す。   FIG. 2 is a diagram schematically illustrating an example of weights stored in the weight storage unit 123. In the example shown in FIG. 2, there are three positive classes. These positive classes are represented by “Pos1”, “Pos2”, and “Pos3”. The weight storage unit 123 stores the weights set for the learning samples to which the sample numbers 1 to 8 are assigned. The second line in FIG. 2 represents the class to which the learning sample belongs.

識別辞書記憶部122は、本発明を実行することによって得られる強識別器のパラメータである識別辞書を記憶する。識別辞書学習装置110によって得られる強識別器のパラメータが、識別辞書として、識別辞書記憶部122に格納される。強識別器は弱識別器の集合である。そのため、強識別器のパラメータは、実質的には複数の弱識別器のパラメータと同等である。識別辞書記憶部122は、弱識別器1個分のパラメータとして、例えば、以下を記憶する。   The identification dictionary storage unit 122 stores an identification dictionary that is a parameter of a strong classifier obtained by executing the present invention. The parameters of the strong classifier obtained by the identification dictionary learning device 110 are stored in the identification dictionary storage unit 122 as an identification dictionary. A strong classifier is a set of weak classifiers. Therefore, the parameters of the strong classifier are substantially equivalent to the parameters of a plurality of weak classifiers. The identification dictionary storage unit 122 stores, for example, the following as parameters for one weak classifier.

(1)弱識別器に使われる特徴量として選択された特徴量の種類を特定する情報、
(2)学習サンプルの特徴値に基づく、後述する弱識別器の出力値の計算に使用できるルックアップテーブル、
(3)弱識別器がサポートするポジティブ系クラスの集合Snを特定する情報。
(1) Information specifying the type of feature quantity selected as the feature quantity used for the weak classifier;
(2) a look-up table that can be used to calculate an output value of a weak classifier to be described later, based on a feature value of a learning sample
(3) information weak classifiers to identify the set S n of positive system classes to support.

特徴量は、学習サンプルの特徴を表す値である。学習サンプルは、識別対象を観測することによって得られるデータ値である。学習サンプルは、特徴量を含んでいてもよい。学習サンプルが特徴量であってもよい。なお、以下の説明において、特徴量は、「特徴の値」又は「特徴の数値」とも表記される。特徴量は、例えば色、画素値、勾配(画素値の1次微分)、画素値の2次微分等である。特徴量の種類を特定する情報は、例えば、弱識別器において使われる特徴量としてどの種類の特徴量が選択されたかを特定するデータ値である。例えば、学習サンプルから複数の種類の特徴量が抽出され、抽出される特徴量の種類の各々に通し番号等が付与されている場合、特徴量の種類を特定するデータ値は、その通し番号等であってもよい。特徴量の種類を特定するデータ値は、その特徴量を抽出するために使用されるパラメータであってもよい。上述のルックアップテーブルは、学習サンプルの特徴量に基づく、弱識別器の出力値の計算に使用できる参照表である。識別辞書記憶部122は、例えば、特徴量の種類と、ポジティブ系クラスの集合とに応じた、特徴量に基づいて出力値を計算するのに使用されるパラメータを、上述のルックアップテーブルとして記憶していればよい。ルックアップテーブルについての詳細な説明は後述する。識別辞書記憶部122は、ルックアップテーブルの代わりに、特徴量の種類と、ポジティブ系クラスの集合とに応じた、特徴量に基づいて出力値を計算するのに使用されるパラメータを、ルックアップテーブルではない形態で記憶していてもよい。   The feature amount is a value representing the feature of the learning sample. The learning sample is a data value obtained by observing the identification target. The learning sample may include a feature amount. The learning sample may be a feature amount. In the following description, the feature amount is also expressed as “feature value” or “feature value”. The feature amount is, for example, color, pixel value, gradient (primary differentiation of pixel value), secondary differentiation of pixel value, or the like. The information that specifies the type of feature quantity is, for example, a data value that specifies which type of feature quantity has been selected as the feature quantity used in the weak classifier. For example, when a plurality of types of feature quantities are extracted from the learning sample and a serial number is assigned to each of the extracted feature quantity types, the data value specifying the type of feature quantity is the serial number or the like. May be. The data value that specifies the type of feature quantity may be a parameter used to extract the feature quantity. The lookup table described above is a reference table that can be used to calculate the output value of the weak classifier based on the feature amount of the learning sample. The identification dictionary storage unit 122 stores, for example, the parameters used to calculate the output value based on the feature amount according to the type of feature amount and the set of positive classes as the above-described lookup table. If you do. A detailed description of the lookup table will be described later. Instead of the lookup table, the identification dictionary storage unit 122 looks up the parameters used to calculate the output value based on the feature amount according to the type of feature amount and the set of positive classes. You may memorize | store in the form which is not a table.

弱識別器がサポートするポジティブクラスは、例えば、ポジティブ系クラスの集合Snによって表される。弱識別器がサポートするポジティブクラスを特定する情報は、例えば、ポジティブ系クラスの集合Snを特定するデータ値によって表される。弱識別器がサポートするポジティブクラスを特定する情報は、例えば、ポジティブ系クラスの集合Snに付与されている、集合の番号nであってもよい。   The positive class supported by the weak classifier is represented by a set Sn of positive class, for example. The information specifying the positive class supported by the weak classifier is represented by, for example, a data value specifying the set Sn of the positive class. The information specifying the positive class supported by the weak classifier may be, for example, the set number n assigned to the set Sn of the positive class.

上述のように、本実施形態では、各弱識別器は、入力データに基づいて、その弱識別器がサポートするポジティブ系クラスについてのスコアと、その弱識別器がサポートするポジティブ系クラス以外のクラスについてのスコアとを計算する。本実施形態では、弱識別器がサポートするポジティブ系クラスについてのスコアを計算する計算式は、その弱識別器がサポートするポジティブ系クラス以外のクラスについてのスコアを計算する計算式と異なる。本実施形態において、弱識別器は、クラスについてのスコアを、その弱識別子がサポートするポジティブ系クラスを表すSnに、そのクラスが含まれるか否かに応じて、異なる計算式に基づいて計算する。本実施形態に係る識別辞書学習装置110によって得られた識別辞書に基づいて動作する強識別器の一部である弱識別器は、スコアを算出する際、例えば、その弱識別子がサポートするSnを特定する情報を、識別辞書記憶部122から読み出せばよい。そして、その弱識別器は、識別辞書記憶部122から読み出した、その弱識別器がサポートするSnを特定する情報によって特定されるSnにクラスが含まれるか否かに応じて定まる計算式に基づく計算方法に従って、クラス毎にスコアを計算すればよい。識別辞書記憶部122には、決定部114が弱識別器を繰り返し決定する度に、決定部114によって、決定された弱識別器に関するパラメータが、順次格納される。識別辞書学習装置110による、弱識別器の決定及びパラメータの格納の動作が完了すると、全てのパラメータが記録された識別辞書が完成する。 As described above, in the present embodiment, each weak classifier is based on input data, the score for the positive class supported by the weak classifier, and the class other than the positive class supported by the weak classifier. Calculate the score for and. In the present embodiment, the calculation formula for calculating the score for the positive class supported by the weak classifier is different from the calculation formula for calculating the score for a class other than the positive class supported by the weak classifier. In this embodiment, the weak classifier calculates a score for a class based on a different calculation formula depending on whether or not the class is included in Sn representing a positive class supported by the weak identifier. . Weak classifier is a part of the strong classifier which operates on the basis of the obtained identification dictionary by identifying dictionary learning device 110 according to this embodiment, when calculating the score, for example, S n of the weak identifier is supported Information for identifying the information may be read from the identification dictionary storage unit 122. Then, the weak classifier is read from the identification dictionary storage unit 122, a calculation formula which is determined depending on whether the weak discriminator includes class Sn specified by the information specifying the S n to support The score may be calculated for each class in accordance with the calculation method based on it. Each time the determination unit 114 repeatedly determines weak classifiers, the parameters related to the weak classifiers determined by the determination unit 114 are sequentially stored in the identification dictionary storage unit 122. When the operation of determining the weak classifier and storing the parameters by the identification dictionary learning apparatus 110 is completed, the identification dictionary in which all the parameters are recorded is completed.

サンプル記憶部124は、学習サンプルを記憶する。学習サンプルは、例えば、既知の検出対象の画像から抽出された特徴量の集合である。サンプル記憶部124は、さらに、後述されるラベルを記憶していてもよい。例えば、識別辞書学習装置110の管理者が、学習サンプルをあらかじめサンプル記憶部124に格納しておけばよい。例えば、識別辞書学習装置110の管理者は、さらに、ラベルを、あらかじめサンプル記憶部124に格納しておけばよい。   The sample storage unit 124 stores learning samples. The learning sample is, for example, a set of feature amounts extracted from known detection target images. The sample storage unit 124 may further store a label described later. For example, the administrator of the identification dictionary learning device 110 may store the learning sample in the sample storage unit 124 in advance. For example, the administrator of the identification dictionary learning device 110 may store the label in the sample storage unit 124 in advance.

次に、本実施形態の詳細についての理解を容易にするため、学習時におけるラベルの設定について先に説明する。   Next, in order to facilitate understanding of details of the present embodiment, label setting during learning will be described first.

本実施形態では、1つの学習サンプルが属するクラスは1つである。しかし、1つの学習サンプルに、全ポジティブ系クラス数分のラベルが設定される。ラベルは、後述されるように、学習時に用いられる。ラベルの値は、+1または−1である。ラベルは、学習サンプルが属するクラスの情報に基づいて、一意に決定される。ラベルは、学習サンプルの各々について、あらかじめ、決定されていればよい。ラベルは、学習サンプルの各々に、あらかじめ付与されていればよい。そして、学習サンプルの各々に付与されたラベルは、あらかじめ、例えばサンプル記憶部124に格納されていればよい。   In the present embodiment, one learning sample belongs to one class. However, labels for the number of all positive classes are set for one learning sample. The label is used during learning, as will be described later. The value of the label is +1 or −1. The label is uniquely determined based on the information of the class to which the learning sample belongs. The label may be determined in advance for each of the learning samples. The label may be given in advance to each learning sample. And the label provided to each learning sample should just be stored in the sample memory | storage part 124 beforehand, for example.

図3は、サンプル記憶部124が記憶するラベルの例を模式的に表す図である。図3に示す例のように、例えば、学習サンプルには、その学習サンプルが属するクラスのラベルとして、+1が設定される。また、学習サンプルには、その学習サンプルが属さないクラスのラベルとして、−1が設定される。図8に示す例では、例えば、サンプル番号が1及び2である学習サンプルは、ポジティブ系クラスであるクラス「Pos1」に属する。
図3に示す例では、サンプル番号が1及び2である学習サンプルは、ポジティブ系クラスの1つである、クラス「Pos1」に属する。サンプル番号が1及び2である学習サンプルに対して、それらの学習サンプルが属するクラス「Pos1」のラベルとして、+1のラベルが設定されている。その他のポジティブ系のクラス(「Pos2」と「Pos3」)及びネガティブクラス(「Neg」)に属する学習サンプルには、それらの学習サンプルが属しないクラス「Pos1」のラベルとして、−1のラベルが設定されている。
FIG. 3 is a diagram schematically illustrating an example of a label stored in the sample storage unit 124. As in the example shown in FIG. 3, for example, +1 is set as the label of the class to which the learning sample belongs in the learning sample. Moreover, -1 is set to the learning sample as a label of a class to which the learning sample does not belong. In the example illustrated in FIG. 8, for example, the learning samples whose sample numbers are 1 and 2 belong to the class “Pos1” that is a positive class.
In the example shown in FIG. 3, the learning samples whose sample numbers are 1 and 2 belong to the class “Pos1”, which is one of the positive classes. For learning samples whose sample numbers are 1 and 2, a label of +1 is set as the label of the class “Pos1” to which these learning samples belong. The learning samples belonging to other positive classes (“Pos2” and “Pos3”) and the negative class (“Neg”) have a label of −1 as a label of the class “Pos1” to which those learning samples do not belong. Is set.

初期化部111は、最適化指標係数テーブル記憶部121に保持される最適化指標係数の初期値を設定する。前述のように、学習サンプルが属するクラスと、その学習サンプルが分類されるポジティブ系クラスとの組み合わせに対して、1つの最適化指標係数が設定される。すなわち、2つのクラスの組み合わせに対して、1つの最適化指標係数が設定される。2つのクラスの組み合わせは、異なる2つのポジティブ系クラスの組み合わせ、ネガティブ系クラスとポジティブ系クラスとの組み合わせ、又は、同じポジティブ系クラスの組み合わせである。以下の説明において、異なる2つのポジティブ系クラスの組み合わせに対して設定される最適化指標係数を、「異なるポジティブ系クラス間の係数」とも表記する。また、2つのポジティブ系クラスの組み合わせを、「同系セット」とも表記する。ネガティブ系クラスとポジティブ系クラスとの組み合わせに対して設定される最適化指標係数を、「ポジティブ系クラス−ネガティブクラス間の係数」とも表記する。ポジティブ系クラスとネガティブクラスとの組み合わせを、「異系セット」とも表記する。同じポジティブ系クラスの組み合わせに対して設定される最適化指標係数を、「同じポジティブ系クラス間の係数」とも表記する。異なるポジティブ系クラス間の係数は、学習サンプルをいずれかのクラスに分類するクラス分類の誤りにおいて、学習サンプルが属するポジティブ系クラスと学習サンプルが分類されたポジティブ系クラスとの組み合わせの、最適化指標への寄与の大きさを表す。異なるポジティブ系クラス間の係数には、ポジティブ系クラス‐ネガティブクラス間の係数より小さい値が設定される。初期化部111は、異なるポジティブ系クラス間の係数の初期値として、例えば、0.0を設定すればよい。初期化部111は、ポジティブ系クラス‐ネガティブクラス間の係数として、例えば、1.0を設定すればよい。初期化部111は、同じポジティブ系クラス間の係数の初期値として、例えば、1.0を設定すればよい。   The initialization unit 111 sets initial values of optimization index coefficients held in the optimization index coefficient table storage unit 121. As described above, one optimization index coefficient is set for the combination of the class to which the learning sample belongs and the positive class into which the learning sample is classified. That is, one optimization index coefficient is set for a combination of two classes. The combination of the two classes is a combination of two different positive classes, a combination of a negative class and a positive class, or a combination of the same positive classes. In the following description, an optimization index coefficient set for a combination of two different positive class is also referred to as “coefficient between different positive classes”. A combination of two positive classes is also referred to as “same set”. The optimization index coefficient set for the combination of the negative class and the positive class is also referred to as “a coefficient between the positive class and the negative class”. A combination of a positive class and a negative class is also referred to as “different set”. The optimization index coefficient set for the combination of the same positive class is also referred to as “coefficient between the same positive class”. The coefficient between different positive classes is the optimization index of the combination of the positive class to which the learning sample belongs and the positive class to which the learning sample is classified in the case of class classification error that classifies the learning sample into any class Represents the size of the contribution to The coefficient between different positive classes is set to a value smaller than the coefficient between the positive class and the negative class. For example, the initialization unit 111 may set 0.0 as the initial value of the coefficient between different positive classes. For example, the initialization unit 111 may set 1.0 as the coefficient between the positive class and the negative class. The initialization unit 111 may set, for example, 1.0 as the initial value of the coefficient between the same positive classes.

学習部112は、弱識別器の候補として、1つのポジティブ系クラスの集合Snをサポートし、1つの特徴量が入力である識別器を学習(すなわち作成)する。学習部112は、ポジティブ系クラスの集合Snと特徴量との組み合わせの各々について、弱識別器の候補として識別器を学習する。以下の説明において、弱識別器の候補としての識別器を学習することを、「弱識別器を学習する」とも表記する。学習部112が、ポジティブ系クラスの集合Snと特徴量との組み合わせの数と同じ回数、識別器の学習を繰り返すことによって、ポジティブ系クラスの集合Snと特徴量との組み合わせの数と同じ数の、弱識別器の候補が作成される。前述のように、弱識別器の学習は、弱識別器の候補として識別器を作成することである。具体的には、弱識別器の学習は、例えば、入力された学習サンプルの特徴量に基づいて出力値を計算するのに使用される、識別器のパラメータを求めることである。本実施形態の弱識別器として、ポジティブ系クラス毎に値を出力するさまざまな識別器を採用することができる。本実施形態の弱識別器は、例えば、以下の数2に示す計算式に従って出力値を計算する識別器であってもよい。以下では、数2に示す計算式に基づく弱識別器の候補の学習について説明する。   The learning unit 112 supports one positive class set Sn as a weak classifier candidate, and learns (that is, creates) a classifier having one feature amount as an input. The learning unit 112 learns a classifier as a weak classifier candidate for each combination of the positive class set Sn and the feature amount. In the following description, learning a classifier as a weak classifier candidate is also referred to as “learning a weak classifier”. The learning unit 112 repeats the learning of the discriminator the same number of times as the number of combinations of the positive class set Sn and the feature amount, so that the same number as the number of combinations of the positive class set Sn and the feature amount is obtained. A weak classifier candidate is created. As described above, weak classifier learning is to create a classifier as a candidate for a weak classifier. Specifically, the learning of the weak classifier is, for example, obtaining a parameter of the classifier used for calculating an output value based on the feature amount of the input learning sample. As the weak classifier of this embodiment, various classifiers that output a value for each positive class can be employed. The weak classifier of the present embodiment may be a classifier that calculates an output value according to a calculation formula shown in the following formula 2, for example. In the following, learning of weak classifier candidates based on the calculation formula shown in Equation 2 will be described.

Figure 2016062249
Figure 2016062249

数2に示す式において、c(c=1, ... , NC)はポジティブ系クラスの番号であり、j(j = 1, ... , NJ)は特徴量が取りうる値の範囲が区切られた区間(ビン)の番号であり、hj cは弱識別器の出力値である。NCはポジティブ系クラスの数であり、NJはビンの数である。ポジティブ系クラスの数は、ポジティブ系クラスの集合Snに応じて定まる。ビンの構成は、特徴量の種類に応じてあらかじめ定められていればよい。ビンの数NJは、特徴量の種類によって異なっていてもよい。入力である特徴量が、番号がjであるビンに含まれる場合、弱識別器は、ポジティブ系クラスcに関する出力値として、hj cを出力する。関数δ(・)は、引数として与えた数式が真である場合、値が1であり、引数として与えた数式が偽である場合、値が0である関数である。記号iは、学習サンプルの番号であり、zi cは学習サンプルiに付与されている、ポジティブ系クラスcに関するラベルであり、xiは、弱識別器に入力される、学習サンプルiの特徴量を表す。Di cは、i番目の学習サンプルの、クラスcに関する重みである。Xjは、番号がjである、前述の、特徴量が取りうる値の範囲が区切られた区間(ビン)を表す。Snは、前述のように、番号がnであるクラスの集合を表し、εは小さな定数値である。数2及び後述される数3において、重みと関数δ(・)との間、及び、2つの関数δ(・)の間にある記号「・」は、掛け算を表す演算子である。 In the formula shown in Equation 2, c (c = 1,..., N C ) is a positive class number, and j (j = 1,..., N J ) is a value that the feature quantity can take. This is the number of the section (bin) into which the range is divided, and h j c is the output value of the weak classifier. N C is the number of positive classes and N J is the number of bins. The number of positive system class, determined in accordance with the set S n of positive system class. The bin configuration may be determined in advance according to the type of feature amount. The number N J of bins may be different depending on the type of feature amount. If the input feature quantity is included in the bin numbered j, the weak classifier outputs h j c as an output value for the positive class c. The function δ (·) is a function whose value is 1 when the mathematical expression given as an argument is true, and whose value is 0 when the mathematical expression given as the argument is false. The symbol i is the number of the training sample, z i c is a label for the positive class c assigned to the training sample i, and x i is a feature of the training sample i that is input to the weak classifier Represents an amount. D i c is a weight related to class c of the i-th learning sample. X j represents the section (bin) in which the range of values that can be taken by the feature amount is divided, the number being j. As described above, S n represents a set of classes whose number is n, and ε is a small constant value. In the equation 2 and the equation 3 described later, the symbol “·” between the weight and the function δ (•) and between the two functions δ (•) is an operator representing multiplication.

学習部112は、与えられた学習サンプル(すなわち、例えばサンプル記憶部124に格納されている全ての学習サンプル)を使用して、数2に示す式に従って、hj cを計算する。その場合、学習部112は、ポジティブ系クラスの集合Snに含まれるポジティブ系クラスに関する出力値hj cを、数2の上段の式に従って導出する。その結果、それぞれのビンについて、hj cが得られる。学習部112が算出する出力値hj cは、ポジティブ系クラスの集合Snに含まれるポジティブ系クラスにおいて共通である。従って、ポジティブ系クラスの集合Snに含まれるポジティブ系クラスに関して、NJ個のhj cが得られる。ポジティブ系クラスの集合Snに含まれるポジティブ系クラスに関する出力値hj cは、クラスに依存しないので、以下の説明において、「hj」とも表記される。以下の説明において、出力値hj cは、「スコア」又は「スコアhj c」とも表記される。また、学習部112は、数2の下段に示す式に従って、ポジティブ系クラスの集合Snに含まれないポジティブ系クラスの各々について、スコアhj cを計算する。集合Snに含まれないポジティブ系クラスのスコアhj cは、各ビンで共通である。従って、集合Snに含まれないポジティブ系クラス毎に、1つのスコアhj cが得られる。集合Snに含まれないポジティブ系クラスのスコアhj cとして、集合Snに含まれないポジティブ系クラスの数と同じ数のスコアhj cが得られる。集合Snに含まれないポジティブ系クラスに関する出力値hj cは、特徴量の区間に依存しない(ビンに依存しない)ので、以下の説明において、「hc」とも表記される。 The learning unit 112 calculates h j c according to the equation shown in Equation 2 using the given learning sample (that is, for example, all the learning samples stored in the sample storage unit 124). In that case, the learning unit 112, the output value h j c about positive system classes included in the set S n of positive system class is derived in accordance with the number 2 of the upper equation. As a result, h j c is obtained for each bin. Output value h j c of the learning unit 112 is calculated, it is common in positive systems classes included in the set S n of positive system class. Thus, for positive-based classes included in the set S n of positive-based classes, N J-number of h j c is obtained. Output value h j c about positive system classes included in the set S n of positive system class does not depend on the class, in the following description, it is referred to as "h j". In the following description, the output value h j c is also expressed as “score” or “score h j c ”. Also, the learning unit 112, according to the equations shown in the lower part of the number 2, for each of the positive type classes that are not included in the set S n of positive system classes, calculates a score h j c. Score h j c Positive system classes that are not included in the set S n is common in each bin. Therefore, the positive type each class that is not included in the set S n, 1 single score h j c is obtained. As a score h j c Positive system classes that are not included in the set S n, score h j c in the same number as the number of positive system classes that are not included in the set S n is obtained. Output value h j c about positive system classes that are not included in the set S n does not depend on the characteristics of the section (not dependent on the bottle), in the following description, are referred to as "h c".

以上のように、特徴量の種類と集合Snとの組み合わせについて、学習サンプルを使用してhj cを計算することが、前述の、弱識別器の候補としての、識別器の学習(すなわち生成)である。学習された識別器は、特徴量の種類を特定する情報と、集合Snを特定する情報と、計算された上述のhj cによって表される。 As described above, the combination of the set S n and types of features, using the learning samples to calculate the h j c, above, as a candidate of the weak classifier, learned classifier (i.e. Generation). The learned discriminator is represented by information for specifying the type of feature quantity, information for specifying the set Sn, and the above-described calculated h j c .

学習部112は、学習サンプルにおいて得られるいずれかの特徴量の種類と、ポジティブ系クラスの集合Snとの組合せの各々について、上述のように、例えば数2に示す式に従って、hj cを計算する。すなわち、学習部112は、特徴量の種類及びポジティブ系クラスの集合Snの組み合わせを順次選択しながら、選択された組み合わせについてのスコアhj cの計算を、可能な全ての組み合わせが選択されるまで繰り返せばよい。なお、後述されるように、指標計算部113は、学習サンプルにおいて得られる特徴量の種類のいずれかと、ポジティブ系クラスの集合Snとの組合せの各々について、スコアhj cを使用して、最適化指標を計算する。さらに、後述されるように、決定部114は、計算された最適化指標が最小である、特徴量と集合Snとの組み合わせを選択する。そして、決定部114は、選択した特徴量の種類を特定する情報と、選択した集合Snを特定する情報と、選択した特徴量の種類と集合Snとの組み合わせについて計算されたhj cとを、弱識別器を表すパラメータとして、識別辞書記憶部122に格納する。その際、決定部114は、集合Snに含まれるポジティブ系クラスについての、NJ個の、それぞれビンの番号jに関連付けられたスコアhj cを、例えば上述のルックアップテーブルの一部として、識別辞書記憶部122に格納すればよい。決定部114は、さらに、集合Snに含まれないポジティブ系クラスの各々について、ポジティブ系クラスの番号cに関連付けられたスコアhj cを、例えば上述のルックアップテーブルの一部として、識別辞書記憶部122に格納すればよい。 Learning unit 112, the type of any of the feature amount obtained in the learning samples, for each of combinations of a set S n of positive-based classes, as described above, for example according to the formula shown in Equation 2, a h j c calculate. That is, the learning unit 112, while sequentially selecting the combinations of the set S n type and positive type class of the feature amount, the calculation of the score h j c, all possible combinations are selected for the combination selected Repeat until. As described later, the index calculation unit 113, and any kind of feature amount obtained in the learning samples, for each of combinations of a set S n of positive-based classes, using a score h j c, Calculate optimization metrics. Furthermore, as will be described later, determination unit 114, the calculated optimized index is the smallest, selecting a combination of said quantity and the set S n. Then, determination unit 114, information specifying the type of the selected feature quantity, and information specifying a set S n selected, h j c calculated for the combination of the set S n and the type of the selected characteristic quantity Are stored in the identification dictionary storage unit 122 as parameters representing a weak classifier. At that time, determination unit 114, for positive system classes that are included in the set S n, the N J pieces, a score h j c associated with the number j of the bin, respectively, for example as part of the above-mentioned look-up table And stored in the identification dictionary storage unit 122. Determination unit 114, In addition, for each of the positive type classes that are not included in the set S n, a score h j c associated with the number c of the positive type class, for example, as part of the above-mentioned look-up table, identification dictionary What is necessary is just to store in the memory | storage part 122. FIG.

参考までに、以下では、本実施形態の識別辞書学習装置110による識別辞書の学習の結果を用いた、識別処理における弱識別について説明する。クラス集合Snに含まれるポジティブ系クラスのスコアを導出する際、弱識別器として動作する装置は、識別対象を観測することによって得られるサンプル(すなわち上述の識別データ)に基づいて導出される特徴量が含まれるビンを特定する。その装置は、例えば、前述の参照表(ルックアップテーブル)を参照することによって、特定したビンの番号jに関連付けられている、数2に示す上段の式に基づいて算出されたスコアを特定する。そのスコアが、前述のサンプルの弱識別の結果である、クラス集合Snに含まれる各ポジティブ系クラスのスコアである。その装置は、Snに含まれないポジティブ系クラスのスコアを、例えば、数2に示す下段の式に基づいて算出されたスコアを、前述の参照表において特定すればよい。このように、識別処理において、学習時に識別辞書記憶部122に格納した参照表を参照することによって、1つの弱識別の結果として各ポジティブ系クラスのスコアを求めることが出来る。 For reference, the weak classification in the identification process using the result of learning of the identification dictionary by the identification dictionary learning device 110 of the present embodiment will be described below. When deriving the score of the positive class included in the class set Sn, the device operating as a weak classifier is derived based on a sample obtained by observing the identification target (that is, the above-described identification data). Identify the bin that contains. The apparatus specifies the score calculated based on the upper expression shown in Formula 2 that is associated with the specified bin number j by referring to the reference table (lookup table) described above, for example. . The score is a score of each positive class included in the class set Sn, which is a result of the weak identification of the sample. The device, a score positive system classes that are not included in the S n, for example, a score calculated based on the lower of the formula shown in Equation 2, may be specified in the above reference table. As described above, in the identification process, by referring to the reference table stored in the identification dictionary storage unit 122 at the time of learning, the score of each positive class can be obtained as a result of one weak identification.

以下では、数2に示す式に基づいてスコアを計算する具体的な処理の例について、詳しく説明する。集合Snに含まれるポジティブ系クラスについてのスコアを導出する際、学習部112は、特徴量の出現頻度を、サンプル重み付きでカウントすることによって、ラベル+1のヒストグラムとラベル−1のヒストグラムとを作成する。「ラベル+1のヒストグラム」は、集合Snに含まれるポジティブ系クラスに関するラベルが+1である学習サンプルの特徴量の、特徴量の区間毎の重み付き出現頻度を表すヒストグラムである。ラベル+1のヒストグラムは、「ラベル+1の重み付きヒストグラム」とも表記される。「ラベル−1のヒストグラム」は、集合Snに含まれるポジティブ系クラスに関するラベルが−1である学習サンプルの特徴量の、特徴量の区間毎の重み付き出現頻度を表すヒストグラムである。ラベル−1のヒストグラムは、「ラベル−1の重み付きヒストグラム」とも表記される。重み付き出現頻度は、特徴量の区間毎の、その特徴量の区間に特徴量が含まれる学習サンプルに付与されている重みの和である。ヒストグラムを作成する際、学習部112は、学習サンプルに付与されている重みを、重み記憶部123から読み出す。学習部112は、これらの2つのヒストグラムにおいて、特徴量の区間の設定を同じにする。学習部112は、これらの2つのヒストグラムを作成する際、特徴量を同じ範囲で区切る。さらに、学習部112は、これらの2つのヒストグラムの、特徴量の範囲が同じビンにおいて、カウントされた出現頻度の比の対数を、識別対象の特徴量がそのビンに含まれる場合の出力値として計算する。学習部112は、全ての特徴量の区間(例えば、ビンの番号jが1からNJまで)の出力値(すなわちスコア)を計算する。集合Snに含まれないポジティブ系クラスのスコアを導出する際、学習部112は、ラベルが+1である学習サンプルの重み付き個数と、ラベルが−1である学習サンプルの重み付き個数を計算する。学習部112は、さらに、前述の2種類のラベルの各々について計算した重み付き個数の比の対数を、出力値として計算する。集合Snに含まれないポジティブ系クラスのスコアは特徴量の区間には依存しない。 Below, the example of the specific process which calculates a score based on the formula shown in Formula 2 is demonstrated in detail. Deriving a score for positive system classes that are included in the set S n, the learning unit 112, the frequency of occurrence of the feature amount, by counting with a sample weight, and a histogram of the histogram and label -1 label +1 create. "Histogram of the label +1" is a histogram representing the feature amount of the learning samples labeled relates positive system class is +1 in the set S n, the weighted frequency of occurrence of each section of the feature. The histogram with label +1 is also expressed as “weighted histogram with label +1”. "Histogram Labels -1" is a histogram representing the feature amount of the learning samples labeled relates positive system class is -1 in the set S n, the weighted frequency of occurrence of each section of the feature. The histogram with label-1 is also referred to as “weighted histogram with label-1”. The weighted appearance frequency is the sum of the weights assigned to the learning samples in which the feature amount is included in the feature amount section for each feature amount section. When creating the histogram, the learning unit 112 reads the weights assigned to the learning samples from the weight storage unit 123. The learning unit 112 makes the setting of the feature amount sections the same in these two histograms. When the learning unit 112 creates these two histograms, the learning unit 112 divides the feature amount into the same range. Further, the learning unit 112 uses the logarithm of the ratio of the appearance frequencies counted in the bins having the same feature amount range in these two histograms as an output value when the feature amount to be identified is included in the bin. calculate. The learning unit 112 calculates output values (that is, scores) of all feature amount sections (for example, bin numbers j are 1 to N J ). Deriving a score positive system classes that are not included in the set S n, the learning unit 112 calculates the weighted number of learning samples labeled is +1, the weighted number of learning samples label is -1 . The learning unit 112 further calculates a logarithm of the ratio of the weighted numbers calculated for each of the two types of labels as an output value. The score of the positive class not included in the set Sn does not depend on the feature amount interval.

図4A及び図4Bは、前述のヒストグラムの例を表す図である。図4Aは、は、ラベル+1の重み付きヒストグラムである。図4Bは、ラベル−1の重み付きヒストグラムである。通常のヒストグラムはサンプル1つにつき1を加算することによって計算されるのに対し、重み付きヒストグラムは、サンプル1つにつきそのサンプルに付与されている重みの値を加算することによって計算されるヒストグラムである。図4A及び図4Bに示すヒストグラムの縦軸は、重み付きの出現頻度を表す。図4A及び図4Bに示すヒストグラムの横軸は、特徴の値すなわち特徴量を表す。例えば、特徴量が0から255までの整数値であり、ヒストグラムのビン幅が5である場合、特徴量の区間は、0〜4、5〜9、…、245〜249、250以上、のように設定される。特徴量の区間の番号jは、例えば、特徴量の大きさに応じた昇順で付与される。上述の例では、特徴量の区間は、特徴量の大きさが小さい方から、X1、X2、X3、...、Xj、...、XJのように表される。ビンの番号はそのビンが表す特徴量の区間と同じ番号に設定される。 4A and 4B are diagrams illustrating examples of the above-described histogram. FIG. 4A is a weighted histogram with label +1. FIG. 4B is a weighted histogram for label-1. A normal histogram is calculated by adding 1 for each sample, whereas a weighted histogram is a histogram calculated by adding the weight values assigned to that sample for each sample. is there. The vertical axes of the histograms shown in FIGS. 4A and 4B represent weighted appearance frequencies. The horizontal axes of the histograms shown in FIGS. 4A and 4B represent feature values, that is, feature amounts. For example, when the feature value is an integer value from 0 to 255 and the bin width of the histogram is 5, the feature value interval is 0 to 4, 5 to 9, 245 to 249, 250 or more. Set to The number j of the feature amount section is given in ascending order according to the size of the feature amount, for example. In the above example, the feature of the section from the smaller size of the feature quantity, X 1, X 2, X 3, ..., X j, ..., are represented as X J. The bin number is set to the same number as the section of the feature amount represented by the bin.

学習部112は、例えば図4A及び図4Bに示すようなヒストグラムにおいて、番号jが同じビンの出現頻度の値の比の対数を計算することによって、出力値hを算出すればよい。数2に従って計算される出力値hj cは、ラベルが+1である学習サンプルの出現頻度が高く、ラベルが−1である学習サンプルの出現頻度が低いほど、大きい。言い換えると、あるサンプルの特徴量が区間jの中に含まれる場合、集合Snに含まれるポジティブ系クラスに関する出力値hj cの値が大きければ、そのサンプルは、集合Snに含まれるいずれかのポジティブ系クラスに属する確率が高いといえる。 The learning unit 112 may calculate the output value h j by calculating the logarithm of the ratio of the appearance frequency values of bins having the same number j in the histograms as shown in FIGS. 4A and 4B, for example. The output value h j c calculated according to Equation 2 is larger as the appearance frequency of the learning sample whose label is +1 is higher and the appearance frequency of the learning sample whose label is −1 is lower. In other words, if the characteristic quantity of a sample is included in the section j, the larger the value of the output values h j c about positive system classes that are included in the set S n, the sample is either included in the set Sn It can be said that there is a high probability of belonging to a positive class.

補足として、数2の意味についてさらに詳しく説明する。数2の上段の式は、学習サンプルの特徴量が得られている条件の下で、その学習サンプルがラベル+1クラスに属するらしい確率とラベル−1のクラスに属するらしい確率との比を計算する式に相当する。そして、数2の上段の式を計算することによって得られる値は、ラベル+1クラスに属するらしい学習サンプルほど高い値になる。なお、「ラベル+1クラス」は、学習サンプル付与されているラベルが+1であるポジティブ系クラスを表す。「ラベル−1クラス」は、学習サンプル付与されているラベルが−1であるクラスを表す。以下では、数2の上段の式が確率の比であると解釈できる理由を説明する。前述のラベル+1のヒストグラムのビンにおける重み付き出現頻度を、学習サンプルの重みの総和で除算することによって、ラベルが+1であるサンプルが、そのビンが割り当てられている区間に含まれる特徴値をとりうる尤度が得られる。同様に、前述のラベル−1のヒストグラムのビンにおける重み付き出現頻度を、学習サンプルの重みの総和で除算することによって、ラベルが−1であるサンプルが、そのビンが割り当てられている区間に含まれる特徴値をとりうる尤度が得られる。事前確率がどのラベルでも均しいと仮定した場合、統計学のベイズの公式より、以下が成り立つ。ラベル+1のヒストグラムの、学習サンプルの特徴量が含まれる区間に割り当てられているビンについて得られる尤度を、そのビンについての尤度の総和で除算することによって、その学習サンプルがラベル+1のクラスに属するらしい確率が得られる。同様に、ラベル−1のヒストグラムの、学習サンプルの特徴量が含まれる区間に割り当てられているビンについて得られる尤度を、そのビンについての尤度の総和で除算することによって、その学習サンプルがラベル−1のクラスに属するらしい確率が得られる。さらに、これらの確率の比を計算する場合、これらの確率の比を表す式において、分母側と分子側それぞれにある、前述の尤度の総和による除算がキャンセルされる。従って、これらの確率の比を表す式は、数2によって表される。   As a supplement, the meaning of Equation 2 will be described in more detail. The upper equation of Equation 2 calculates the ratio between the probability that the learning sample belongs to the label + 1 class and the probability that the learning sample belongs to the class of the label-1 under the condition that the feature amount of the learning sample is obtained. It corresponds to the formula. Then, the value obtained by calculating the upper expression of Equation 2 is higher for the learning sample that seems to belong to the label + 1 class. Note that “label + 1 class” represents a positive class in which the label assigned to the learning sample is +1. “Label-1 class” represents a class in which the label assigned to the learning sample is −1. In the following, the reason why the upper equation of Equation 2 can be interpreted as a probability ratio will be described. By dividing the weighted appearance frequency in the bin of the histogram with the label +1 described above by the sum of the weights of the learning samples, the sample with the label +1 takes the feature value included in the section to which the bin is assigned. A likelihood is obtained. Similarly, by dividing the weighted appearance frequency in the bin of the histogram of the label-1 described above by the sum of the weights of the learning samples, the sample with the label of -1 is included in the section to which the bin is assigned. The likelihood that a characteristic value can be obtained is obtained. Assuming that the prior probabilities are uniform for all labels, the following holds from the Bayesian formula of statistics: By dividing the likelihood obtained for the bin assigned to the section containing the feature value of the learning sample in the histogram of label +1 by the sum of the likelihoods for that bin, the learning sample is in the class of label +1. Probability that seems to belong to. Similarly, the learning sample is obtained by dividing the likelihood obtained for the bin assigned to the section including the feature amount of the learning sample in the histogram of label-1 by the sum of the likelihoods for the bin. The probability that it belongs to the class of label-1 is obtained. Further, when the ratio of these probabilities is calculated, the above-described division by the sum of likelihoods in the denominator side and the numerator side is canceled in the equation representing the ratio of these probabilities. Therefore, the expression expressing the ratio of these probabilities is expressed by Equation 2.

実用上は、学習サンプルの個数やバリエーションが十分でない場合、前記の重み付き出現頻度が数値的に0になる恐れがある。近接するビンの値から補間、または平滑化することによって、値が0になるリスクを低減できる。   In practice, when the number and variation of learning samples are not sufficient, the weighted appearance frequency may become numerically zero. By interpolating or smoothing from adjacent bin values, the risk of zero values can be reduced.

本実施形態の弱識別器は、前述の数2の代わりに、数3に示す計算式に従って出力値を計算する識別器であってもよい。数2は確率の比の対数を計算することに相当するのに対し、数3は確率の差分を計算することに相当する。数2に示す出力値hj cと同様に、数3に示す出力値hj cも、ラベルが+1であるサンプルの出現頻度が高く、ラベルが−1であるサンプルの出現頻度が低いほど、大きい。サンプルの特徴量が区間jに含まれる場合、出力値hj cの値が大きければ、そのサンプルの、クラスcに関するラベルが+1である確率が高いといえる。 The weak classifier of the present embodiment may be a classifier that calculates an output value according to the calculation formula shown in Formula 3 instead of Formula 2 described above. Equation 2 corresponds to calculating the logarithm of the probability ratio, while Equation 3 corresponds to calculating the difference in probability. Similar to the output value h j c shown in Equation 2, the output value h j c shown in Equation 3 also has a higher appearance frequency of the sample whose label is +1 and a lower appearance frequency of the sample whose label is −1. large. When the feature amount of the sample is included in the section j, if the value of the output value h j c is large, it can be said that the probability that the label relating to the class c of the sample is +1 is high.

Figure 2016062249
Figure 2016062249

指標計算部113は、弱識別器の候補の出力値に基づいて、その弱識別器の候補に関する最適化指標を計算する。指標計算部113は、弱識別器の候補の各々について、最適化指標を計算する。前述のように、入力として使用される特徴量と、サポートされるポジティブ系クラスの集合Snとの組み合わせ1つに対して、1つの弱識別器の候補が学習される。すなわち、弱識別器の候補は、入力として使用される特徴量と、サポートされるポジティブ系クラスの集合Snとの組み合わせに、一意に関連付けられる。最適化指標は、学習によって得られる弱識別器の候補の性能の程度を表す指標である。数4は、最適化指標の例を表す式である。指標計算部113は、例えば、数4に従って、最適化指標Lを計算する。最適化指標は、パターン認識の分野において、損失、又は交差エントロピー損失、等と呼ばれる指標に相当する。最適化指標Lが数4によって計算される場合、最適化指標Lが小さいほど、識別の精度が高い。
The index calculation unit 113 calculates an optimization index related to the weak classifier candidate based on the output value of the weak classifier candidate. The index calculation unit 113 calculates an optimization index for each candidate weak classifier. As described above, a feature quantity to be used as input for one combination of the set S n of positive system classes supported, the candidate one weak classifier is learned. That is, the candidate weak classifiers comprises a feature quantity to be used as an input, the combination of the set S n of positive system classes supported, is uniquely associated. The optimization index is an index representing the degree of performance of the weak classifier candidate obtained by learning. Equation 4 is an expression representing an example of the optimization index. The index calculation unit 113 calculates the optimization index L according to Equation 4, for example. The optimization index corresponds to an index called loss, loss of cross entropy, or the like in the field of pattern recognition. When the optimization index L is calculated by Equation 4, the smaller the optimization index L, the higher the identification accuracy.

Figure 2016062249
Figure 2016062249

数4において、前述のように、cはポジティブ系クラスの番号であり、iは学習サンプルの番号である。NCはポジティブ系クラスの数であり、Nxは学習サンプルの数である。数4における値hi cは、サンプルiの特徴量が含まれる区間に割り当てられているビンjについての、弱識別器の候補による出力値hj cを表す。Ri cは、最適化指標係数である。最適化指標係数は、例えば、「弱識別器の候補が学習サンプルiをクラスcに分類すること」が、その弱識別器の候補の最適化指標に対して与える影響の大きさを表す。最適化指標係数Ri cは、係数記憶部121に格納されている。本実施形態では、最適化指標係数は、学習サンプルiが属するクラスと、その学習サンプルiが分類されたポジティブ系クラスcとによって定まる。以下の説明において、学習サンプルが属するクラスを「正しいクラス」と表記する。さらに、学習サンプルが分類されるクラスを、「分類クラス」または「分類結果のクラス」と表記する。係数記憶部121は、正しいクラスと分類クラスとの組み合わせの各々について、正しいクラスと分類クラスとの組み合わせに関連付けられている最適化指標係数Ri cを記憶していればよい。係数記憶部121は、例えば最適化指標係数テーブルの形態で、最適化指標係数Ri cを記憶していればよい。 In Equation 4, as described above, c is a positive class number and i is a learning sample number. N C is the number of positive classes, and N x is the number of learning samples. The value h i c in Equation 4 represents the output value h j c by the weak classifier candidate for the bin j assigned to the section including the feature quantity of the sample i. R i c is an optimization index coefficient. The optimization index coefficient represents, for example, the magnitude of the influence that “a weak classifier candidate classifies the learning sample i into class c” has on the optimization index of the weak classifier candidate. The optimization index coefficient R i c is stored in the coefficient storage unit 121. In this embodiment, the optimization index coefficient is determined by the class to which the learning sample i belongs and the positive class c into which the learning sample i is classified. In the following description, the class to which the learning sample belongs is denoted as “correct class”. Furthermore, the class into which the learning sample is classified is denoted as “classification class” or “classification result class”. Coefficient storage unit 121, for each combination of the correct class and classification class, it is sufficient to store the optimization metrics coefficients R i c associated with the combination of the correct class and classification class. Coefficient storage unit 121, for example in the form of optimization metrics coefficient table, it is sufficient to store the optimization metrics coefficients R i c.

図5A及び図5Bは、上述の最適化指標係数テーブルの例を表す図である。図5Aは、最適化指標係数テーブルの初期値の例を表す。図5Bに示すテーブルは、後述されるように更新された最適化指標係数テーブルの例である。図5Bは、最適化指標係数テーブルに含まれる最適化指標係数の各々の最大値の例を表す。   5A and 5B are diagrams illustrating examples of the above-described optimization index coefficient table. FIG. 5A shows an example of initial values of the optimization index coefficient table. The table shown in FIG. 5B is an example of an optimized index coefficient table updated as described later. FIG. 5B shows an example of the maximum value of each optimization index coefficient included in the optimization index coefficient table.

指標計算部113は、最適化指標Lを算出する際、例えば、最適化指標係数テーブルと学習サンプルが属するクラスとクラスcとに基づいて、最適化指標係数テーブルにおいて、最適化指標係数Ri cを特定すればよい。指標計算部113は、特定した最適化指標係数を係数記憶部121から読み出し、読み出した最適化指標係数を使用して、最適化指標を計算すればよい。 When calculating the optimization index L, the index calculation unit 113 calculates the optimization index coefficient R i c in the optimization index coefficient table based on, for example, the optimization index coefficient table, the class to which the learning sample belongs, and the class c. Should be specified. The index calculation unit 113 may read the specified optimization index coefficient from the coefficient storage unit 121 and calculate the optimization index using the read optimization index coefficient.

指標計算部113は、例えば、特徴量とポジティブ系クラスの集合Snとの組み合わせから、1つの組み合わせを選択すればよい。そして、指標計算部113は、選択した組み合わせについて最適化指標Lを計算すればよい。指標計算部113は、特徴量とポジティブ系クラスの集合Snとの組み合わせの全てが選択されるまで、組み合わせの選択、及び、最適化指標Lの計算を繰り返せばよい。以上により、弱識別器の候補の各々について、最適化指標Lが計算される。 Index calculation unit 113, for example, a combination of a set S n of feature amounts and positive system classes, may be selected one combination. Then, the index calculation unit 113 may calculate the optimization index L for the selected combination. Index calculation unit 113, until all combinations of the set S n of feature amounts and positive system class is selected, the selection of the combination, and may be repeated to calculate the optimization index L. As described above, the optimization index L is calculated for each of the weak classifier candidates.

決定部114は、化指標計算部113が計算した最適化指標値Lが最も小さい、ポジティブ系クラスの集合Snと特徴量との組み合わせを特定する。決定部114は、特定した組み合わせに含まれる特徴量が入力であり、特定した組み合わせに含まれるポジティブ系クラスの集合Snをサポートする弱識別器の候補を、弱識別器として決定する。以下の説明において、弱識別器として決定された、弱識別器の候補(識別器)を、「決定された弱識別器」とも表記する。決定部114は、決定した弱識別器を、強識別器を構成する複数の弱識別器の集合を表す識別辞書に追加する。すなわち、決定部114は、弱識別器のパラメータを、識別辞書記憶部122に格納する。前述のように、弱識別器のパラメータは、前述のように、特徴量の種類を特定する情報と、特徴量に基づいて出力値を計算するのに使用されるパラメータと、ポジティブ系クラスの集合Snを特定する情報とを含む。決定部114は、前述のように、特徴量に基づいて出力値を計算するのに使用されるパラメータを、ルックアップテーブルとして、識別辞書記憶部122に格納してもよい。決定部114は、弱識別器のパラメータを識別辞書記憶部122に格納する際、識別辞書記憶部122に格納されている弱識別器のパラメータを上書きせずに、弱識別器のパラメータを識別辞書記憶部122内に追加する。 The determination unit 114 identifies a combination of the positive class set Sn and the feature quantity that has the smallest optimization index value L calculated by the conversion index calculation unit 113. Determination unit 114, an input feature amount included in the specified combination, the candidate weak classifiers that supports a set S n of positive system classes included in the identified combination is determined as a weak classifier. In the following description, a weak classifier candidate (classifier) determined as a weak classifier is also referred to as a “determined weak classifier”. The determination unit 114 adds the determined weak classifier to an identification dictionary representing a set of a plurality of weak classifiers constituting the strong classifier. That is, the determination unit 114 stores the parameters of the weak classifier in the identification dictionary storage unit 122. As described above, the parameters of the weak classifier include, as described above, information specifying the type of feature quantity, parameters used to calculate an output value based on the feature quantity, and a set of positive classes. Information specifying S n . As described above, the determination unit 114 may store the parameters used to calculate the output value based on the feature amount in the identification dictionary storage unit 122 as a lookup table. When the determination unit 114 stores the parameters of the weak classifier in the identification dictionary storage unit 122, the determination unit 114 does not overwrite the parameters of the weak classifier stored in the identification dictionary storage unit 122, and the parameters of the weak classifier are identified. It is added in the storage unit 122.

重み更新部115は、重み記憶部123に格納されている、学習サンプルに付与されている重みを、決定部114によって決定された弱識別器が出力する出力値hi cを使って更新する。重み更新部114は、例えば、数5に従って、各学習サンプルに付与されている重みを更新すればよい。具体的には、学習サンプルiの重みを更新する際、重み更新部115は、例えば、学習サンプルiの特徴量に基づいて計算される、決定部114によって決定された弱識別器の出力値hj cを計算する。重み更新部115は、計算されたhj cと、重み記憶部123に格納されている、学習サンプルiの重みDi cと、例えばサンプル記憶部124に格納されている、学習サンプルiに付与されているラベルzi cとに基づいて数5の左辺の値を計算する。重み更新部115は、重み記憶部123に格納されている、学習サンプルiの重みDi cを、計算した、数5の左辺の値によって上書きする。数4における記号eは、自然対数の底(すなわちネイピア数)である。 The weight update unit 115 updates the weight assigned to the learning sample stored in the weight storage unit 123 using the output value h i c output from the weak classifier determined by the determination unit 114. For example, the weight update unit 114 may update the weight given to each learning sample according to Equation 5. Specifically, when updating the weight of the learning sample i, the weight updating unit 115 calculates the output value h of the weak classifier determined by the determination unit 114, which is calculated based on the feature amount of the learning sample i, for example. j c is calculated. The weight update unit 115 gives the calculated h j c , the weight D i c of the learning sample i stored in the weight storage unit 123, and the learning sample i stored in the sample storage unit 124, for example. The value of the left side of Equation 5 is calculated based on the label z i c that has been set. Weight updating unit 115 is stored in the weight storage unit 123, a weighting D i c of the learning sample i, was calculated is overwritten by the value of the left-hand side of Equation 5. The symbol e in Equation 4 is the base of the natural logarithm (ie, the Napier number).

Figure 2016062249
Figure 2016062249

係数更新部116は、係数記憶部121に保持されている最適化指標係数を、例えば次の条件が満たされるように更新する。まず、1つ目の条件は、異なるポジティブ系クラス間の係数は、ポジティブ系クラス−ネガティブクラス間の係数を超えないことである。「異なるポジティブ系クラス間の係数」は、関連付けられている「正しいクラス」と「分類クラス」とが、異なる2つのポジティブ系クラスである、最適化指標係数である。「ポジティブ系クラス−ネガティブクラス間の係数」は、ネガティブクラスである正しいクラスと、ポジティブ系クラスである分類されたクラスとに関連付けられている最適化指標係数である。さらに、2つ目の条件は、異なるポジティブ系クラス間の係数は、係数更新部116による更新の度に、単調増加することである。係数更新部116は、異なるポジティブ系クラス間の係数が広義の単調増加(すなわち単調非減少)するように、更新を行ってもよい。係数更新部116は、異なるポジティブ系クラス間の係数を、例えばあらかじめ定められた規則(すなわちルール)に従って増加させればよい。識別辞書学習装置110ユーザは、異なるポジティブ系クラス間の係数が、1回の更新において増加する量(更新の大きさ)を設定することが可能であってもよい。   The coefficient updating unit 116 updates the optimization index coefficient held in the coefficient storage unit 121 so that, for example, the following condition is satisfied. First, the first condition is that the coefficient between different positive classes does not exceed the coefficient between the positive class and the negative class. The “coefficient between different positive classes” is an optimization index coefficient in which the associated “correct class” and “classification class” are two different positive classes. “Coefficient between positive class and negative class” is an optimization index coefficient associated with a correct class that is a negative class and a classified class that is a positive class. Furthermore, the second condition is that the coefficient between different positive classes increases monotonously with each update by the coefficient updating unit 116. The coefficient updating unit 116 may perform updating so that the coefficient between different positive classes increases monotonously (that is, monotonously non-decrease) in a broad sense. The coefficient updating unit 116 may increase the coefficient between different positive classes according to, for example, a predetermined rule (that is, rule). The user of the identification dictionary learning apparatus 110 may be able to set an amount (a magnitude of the update) by which the coefficient between different positive classes increases in one update.

図6は、更新に伴う最適化指標係数の変化を模式的に表す図である。図6に示すグラフの横軸は、更新の回数(すなわち学習の繰り返しの回数t)を表す。図6に示すグラフの縦軸は、最適化指標係数の値を表す。図6に示すグラフ中の破線は、ポジティブ系クラス−ネガティブクラス間の最適化指標係数の推移を表す。図6に示すグラフにおいて、実線によって描かれている曲線は、異なるポジティブ系クラス間の最適化指標係数の推移を表す。異なるポジティブ系クラス間の最適化指標係数の初期値は、例えば0であればよい。係数更新部116は、学習の繰り返しによって、図6に示すように、異なるポジティブ系クラス間の最適化指標係数が極限値に漸近するように異なるポジティブ系クラス間の最適化指標係数を更新してもよい。係数更新部116は、学習の繰り返しによって、異なるポジティブ系クラス間の最適化指標係数が最大値に達するように、異なるポジティブ系クラス間の最適化指標係数を更新してもよい。図6に示す例は、係数更新部116が、ポジティブ系クラス間の係数が、シグモイド関数従って単調増加するよう更新した場合の、異なるポジティブ系クラス間の最適化指標係数の推移の例を表す。シグモイド関数は、例えば以下の数6によって表される関数である。   FIG. 6 is a diagram schematically illustrating a change in the optimization index coefficient associated with the update. The horizontal axis of the graph shown in FIG. 6 represents the number of updates (that is, the number of learning repetitions t). The vertical axis of the graph shown in FIG. 6 represents the value of the optimization index coefficient. The broken line in the graph shown in FIG. 6 represents the transition of the optimization index coefficient between the positive class and the negative class. In the graph shown in FIG. 6, a curve drawn by a solid line represents the transition of the optimization index coefficient between different positive classes. The initial value of the optimization index coefficient between different positive classes may be 0, for example. As shown in FIG. 6, the coefficient updating unit 116 updates the optimization index coefficient between the different positive classes so that the optimization index coefficient between the different positive classes gradually approaches the limit value, as shown in FIG. Also good. The coefficient updating unit 116 may update the optimization index coefficient between the different positive classes so that the optimization index coefficient between the different positive classes reaches the maximum value by repeating learning. The example shown in FIG. 6 represents an example of transition of optimization index coefficients between different positive classes when the coefficient updating unit 116 updates the coefficients between positive classes so as to monotonically increase according to the sigmoid function. The sigmoid function is a function represented by the following equation 6, for example.

Figure 2016062249
Figure 2016062249

係数更新部116は、学習の繰り返し(すなわち更新の回数)に応じて、tを所定量ずつ増加させればよい。係数更新部116は、そのtを使用して、最適化指標係数を算出すればよい。ユーザは、例えば、数6のa及びbを、例えば独立に、増加又は減少させることによって、増加の度合いなどを設定すればよい。異なるポジティブ系クラス間の最適化指標係数は、異なる2つのポジティブ系クラスの組み合わせによらず同一であってもよい。異なるポジティブ系クラス間の最適化指標係数は、異なる2つのポジティブ系クラスの組み合わせに応じて異なっていてもよい。例えば、それぞれのポジティブ系クラスが物体(例えば顔)の異なる姿勢に割り当てられている場合、異なる2つのポジティブ系クラスの間の、物体の姿勢の角度の差が大きいほど、大きな最適化指標係数を割り当てられていればよい。その場合、顔の姿勢について大きく誤った分類が起きにくいように学習を行うことができる。例えば、図6において実線によって描かれている3本の曲線は、顔の姿勢の角度差に応じた係数の推移の例を表す。   The coefficient updating unit 116 may increase t by a predetermined amount according to repetition of learning (that is, the number of updates). The coefficient updating unit 116 may calculate an optimization index coefficient using the t. For example, the user may set the degree of increase by increasing or decreasing a and b in Equation 6 independently, for example. The optimization index coefficient between different positive classes may be the same regardless of the combination of two different positive classes. The optimization index coefficient between different positive classes may be different depending on the combination of two different positive classes. For example, when each positive class is assigned to a different posture of an object (for example, a face), the larger the difference in the angle of the posture of the object between two different positive classes, the larger the optimization index coefficient. It only has to be assigned. In that case, learning can be performed so that a large erroneous classification of the face posture is unlikely to occur. For example, three curves drawn by solid lines in FIG. 6 represent an example of transition of coefficients according to the angle difference of the face posture.

更新設定部117は、異なるポジティブ系クラス間の係数を増加させる規則(すなわちルール)を、例えば、端末装置140から受信する。更新設定部117は、異なるポジティブ系クラス間の係数を増加させる規則(ルール)を表すパラメータを、端末装置140から受信すればよい。異なるポジティブ系クラス間の係数を増加させる規則(ルール)を表すパラメータは、例えば、上述の、シグモイド関数のパラメータである、a及びbの少なくともいずれかである。識別辞書学習装置110のユーザは、端末装置140を操作することによって、異なるポジティブ系クラス間の係数を増加させる規則(ルール)を表すパラメータを入力すればよい。   The update setting unit 117 receives, from the terminal device 140, for example, a rule (that is, a rule) that increases the coefficient between different positive classes. The update setting unit 117 may receive a parameter representing a rule that increases the coefficient between different positive classes from the terminal device 140. The parameter representing the rule that increases the coefficient between different positive classes is, for example, at least one of a and b, which are the parameters of the sigmoid function described above. The user of the identification dictionary learning device 110 may input parameters representing rules that increase the coefficient between different positive classes by operating the terminal device 140.

次に、本実施形態の識別辞書学習装置110の動作について、図面を参照して詳細に説明する。   Next, the operation of the identification dictionary learning device 110 of this embodiment will be described in detail with reference to the drawings.

図7は、識別辞書学習装置110の動作の例を表すフローチャートである。   FIG. 7 is a flowchart illustrating an example of the operation of the identification dictionary learning device 110.

以下の説明では、前述のようにNCはポジティブ系クラスの個数を表し、Nfは特徴量の数を表す。本発明の各実施形態では、特徴量は、特定の特徴量に限定されない。 In the following description, as described above, N C represents the number of positive classes, and N f represents the number of features. In each embodiment of the present invention, the feature amount is not limited to a specific feature amount.

はじめに、初期化部111が、最適化指標係数テーブルを初期化する(ステップS111)。初期化部111は、図5Aに示す例のように、異なるポジティブ系クラスの組み合わせに関連付けられている最適化指標係数の初期値として、例えば0を設定すればよい。初期化部111は、異なるポジティブ系クラスの組み合わせに関連付けられている最適化指標係数の初期値として、十分小さい値(すなわち、ほぼ0である値)を設定してもよい。初期化部111は、他の最適化指標係数の初期値として、例えば1を設定すればよい。このあとの処理では、可能な全てのポジティブ系クラスの集合Snについて、後述する最適化指標が良好なものが探索される。全てのSnを特定する情報が、あらかじめ学習部112に与えられていてもよい。学習部112が、サンプル記憶部124に格納されている学習サンプルが属するクラスに基づいて、全てのSnを特定してもよい。 First, the initialization unit 111 initializes an optimization index coefficient table (step S111). The initialization unit 111 may set, for example, 0 as an initial value of the optimization index coefficient associated with a different combination of positive classes as in the example illustrated in FIG. 5A. The initialization unit 111 may set a sufficiently small value (that is, a value that is substantially 0) as an initial value of an optimization index coefficient associated with a combination of different positive classes. For example, the initialization unit 111 may set 1 as an initial value of another optimization index coefficient. Occurs at a later stage, for the set S n of all positive-based classes available, those optimization index for later good are searched. Information specifying all S n may also be given in advance to the learning unit 112. Learning unit 112, learning samples stored in the sample storage unit 124 based on the belonging class may identify all S n.

次に、学習部112は、ポジティブ系クラスの集合から、選択されていない、ポジティブ系クラスの集合Snを1つ選択する(ステップS112−1)。学習部112は、さらに、あらかじめ定められている特徴量の種類全てから、ステップS112−1において選択された集合Snに関して選択されていない、1つの特徴量の種類を選択する(ステップS112−2)。そして、学習部112は、上述のように、弱識別器の候補を学習する(ステップS112−3)。 Then, the learning unit 112, from a set of positive type class, not selected, selects one set S n of positive type class (step S112-1). The learning unit 112 further selects one type of feature value that has not been selected for the set Sn selected in step S112-1 from all of the predetermined feature value types (step S112-2). . Then, as described above, the learning unit 112 learns weak classifier candidates (step S112-3).

次に、最適化指標計算部113は、ステップS112−3において学習された弱識別器の候補に関する最適化指標Lを計算する(ステップS113−1)。   Next, the optimization index calculation unit 113 calculates the optimization index L related to the weak classifier candidate learned in step S112-3 (step S113-1).

例えば学習部112は、全ての特徴量が選択されたか判定する(ステップS113−2)。全ての特徴量が選択されていない場合(ステップS113−2においてNo)、ステップS112−2からステップS113−2までの動作が繰り返される。全ての特徴量が選択された場合(ステップS113−2においてYes)、例えば学習部112は、全ての集合Snが選択されたか判定する(ステップS113−3)。選択されていない集合Snが存在すれば(ステップS113−3においてNo)、ステップS112−1からステップS113−3までの動作が繰り返される。ステップS112−1からステップS113−3までの動作は、全ての集合Snが選択されるまで(ステップS113−3においてYes)繰り返される。 For example, the learning unit 112 determines whether all feature amounts have been selected (step S113-2). If all the feature values have not been selected (No in step S113-2), the operations from step S112-2 to step S113-2 are repeated. If all feature amounts have been selected (Yes in step S113-2), for example, the learning unit 112 determines whether all sets Sn have been selected (step S113-3). If there is a set S n which are not selected (in step S113-3 No), the operation from step S112-1 to step S113-3 is repeated. Operation from step S112-1 to step S113-3, until all of the set S n is selected (Yes in step S113-3) are repeated.

以上の動作では、ステップS112−2からS113−2までの動作は、特徴量の数Nfと同じ回数繰り返される。ステップS112−2からS113−2までの動作の繰り返しが、さらにポジティブ系クラスの集合Snの数と同じ回数繰り返される。これにより、特徴量と、ポジティブ系クラスの集合Snとの組み合わせ各々に関連付けられている弱識別器候補の、最適化指標値Lが計算される。 In the above operation, the operation from step S112-2 to S113-2 is repeated as many times as the number N f of the feature. Repeating operations in steps S112-2 to S113-2 is repeated more times as the number of sets S n positive system class. Thus, a feature quantity, a positive type of weak classifier candidates associated with each combination of the set S n classes, optimization index value L is calculated.

また、集合Snの数は、NC個から重複しないように選ばれる任意の個数の組合せの数である。そのため、ポジティブ系クラス数が多い場合、集合Snの数は膨大な数になる。従って、集合Sn全てについてステップS112−1からステップS113−3までの動作を繰り返す場合、特にステップS112−3及びステップS113−1の動作を繰り返す回数は膨大な数になる。そのため、すべてのSnについて上述の動作を繰り返すのではなく、以下のように、弱識別器の候補の探索範囲を限定してもよい。例えば、まず、学習部112は、1つの特徴量を選択してもよい。そして、学習部112は、1つのポジティブ系クラスからなる集合Snについて、弱識別器の候補の学習を行えばよい。指標計算部113は、学習部112によって学習された弱識別器の候補について、最適化指標の計算を行えばよい。学習部112は、1つのポジティブ系クラスからなる集合Snの中で、関連する弱識別器の候補の最も最適化指標Lが良好な(小さい)集合Snを特定すればよい。学習部112は、特定した集合Snに含まれるクラスを、集合Sを構成するクラスとして確定すればよい。学習部112は、同様に、確定したクラスと他の1つのポジティブ系クラスとによって構成される集合Snについて、弱識別器の候補の学習と、前述の、集合Snの特定と、集合Snを構成するクラスの確定とを繰り返せばよい。その場合、繰り返し回数はポジティブ系クラスの数NCにほぼ比例する。そのため、識別辞書学習装置110は、少ない繰り返し回数で、近似解(すなわち近似的な最小の最適化指標を持つ弱識別器の候補)を見つけることができる。 Further, the number of sets S n is the number of combinations of any number that is selected so as not to overlap the N C-number. Therefore, if positive system the number of classes is large, the number of sets S n is a huge number. Thus, if the repeated operation of all the set S n from step S112-1 to step S113-3, the number becomes huge number, especially repeats the operations of steps S112-3 and step S113-1. Therefore, instead of the above-described operation is repeated for all S n, as follows, may be limited to search range of candidate weak classifiers. For example, first, the learning unit 112 may select one feature amount. Then, the learning unit 112 for the set S n of one of the positive type classes, may be performed to learn the candidate weak classifiers. The index calculation unit 113 may calculate an optimization index for the weak classifier candidates learned by the learning unit 112. Learning unit 112 in the set S n of one of the positive type classes, the most optimized index L candidates associated weak classifiers is good (small) may specify a set S n. Learning unit 112, a class included in the specified set S n, it may be determined as the classes that make up the set S n. Learning unit 112, similarly, for a set S n made definite class and another one positive system class by learning the candidate weak classifiers, described above, and specific set Sn, the set S n What is necessary is just to repeat the determination of the class which comprises. In that case, the repeat count is approximately proportional to the number N C of positive system class. Therefore, the identification dictionary learning device 110 can find an approximate solution (that is, a weak classifier candidate having an approximate minimum optimization index) with a small number of iterations.

次に、決定部114が、弱識別器の候補の中で、ステップS114の動作において求められた最適化指標値Lが最も小さい弱識別器の候補を、弱識別器として決定する(ステップS114)。決定部114は、決定した弱識別器を、識別辞書記憶部122に格納されている識別辞書(すなわち、決定した弱識別器の集合)に追加する。最適化指標値Lが最も小さい弱識別器の候補の選択は、最適化指標値Lが最も小さい、特徴量の種類とポジティブ系クラスの組合せSnとを選択することである。決定された弱識別器は、その弱識別器がサポートする集合Snに含まれるポジティブ系クラスの各々について、入力である、選択された種類の特徴量に基づいて同一の出力値を出力する。これは、言い換えれば、ポジティブ系クラスの組み合わせSnに属するクラス間では、弱識別器(と特徴量)が共有されていると解釈することもできる。決定部114は、採用された弱識別器のパラメータを、識別辞書記憶部122に格納されている、識別辞書(すなわち、決定された弱識別器のパラメータの集合)に追加する。具体的には、決定部114は、学習サンプルの特徴量を特定する情報と、弱識別器の出力値を得るのに使用する参照表と、弱識別器がサポートするポジティブ系クラスの集合とを、識別辞書記憶部122に格納されている識別辞書に追加する。   Next, the determination unit 114 determines the weak classifier candidate having the smallest optimization index value L obtained in the operation of step S114 as the weak classifier among the weak classifier candidates (step S114). . The determination unit 114 adds the determined weak classifier to the identification dictionary (that is, the determined set of weak classifiers) stored in the identification dictionary storage unit 122. The selection of the weak classifier candidate having the smallest optimization index value L is to select the combination Sn of the feature quantity type and the positive class having the smallest optimization index value L. The determined weak classifier outputs the same output value for each positive class included in the set Sn supported by the weak classifier based on the selected type of feature quantity. In other words, it can also be interpreted that the weak classifier (and the feature amount) are shared between the classes belonging to the positive class combination Sn. The determination unit 114 adds the adopted weak classifier parameters to the identification dictionary (that is, the determined set of weak classifier parameters) stored in the identification dictionary storage unit 122. Specifically, the determination unit 114 includes information for specifying the feature amount of the learning sample, a reference table used for obtaining the output value of the weak classifier, and a set of positive classes supported by the weak classifier. And added to the identification dictionary stored in the identification dictionary storage unit 122.

次に、重み更新部115は、学習サンプルにクラス別に付与されている重みを更新する(ステップS115)。   Next, the weight update unit 115 updates the weights assigned to the learning samples by class (step S115).

次に、係数更新部116は、例えば最適化指標係数テーブルの形態で係数記憶部121に格納されている最適化指標係数を更新する(ステップS116)。   Next, the coefficient updating unit 116 updates the optimization index coefficient stored in the coefficient storage unit 121, for example, in the form of an optimization index coefficient table (step S116).

次に、学習部112は、学習を終了するか判定する終了判定を行う(ステップS117)。ステップS117における終了判定において学習部112が学習処理を終了すると判定する条件は、例えば、収容判定の回数が所定の回数を超えることであってもよい。学習部112が学習処理を終了すると判定する条件は、決定された弱識別器に基づく強識別器の最適化指標Lの、最後に決定された弱識別器が追加されない強識別器の最適化指標からの減少量が所定の閾値を下回ることであってもよい。また、学習部112が学習処理を終了すると判定する条件は、あらかじめ用意された、学習用データを含まない、評価用サンプルの集合である評価用データセットに対する、強識別器の識別の精度が、所定の基準に達することであってもよい。学習部112は、評価用データセットを、決定された弱識別器に基づく強識別器に識別させることによって得られる、最適化指標Lの絶対値または識別誤り率によって、識別の精度を判定してもよい。学習処理の終了が判定されない場合(ステップS117−1においてNo)、識別辞書学習装置110は、ステップS111からS117−1までの動作をさらに繰り返す。学習処理の終了が判定された場合(ステップS117−1においてYes)、図7に示す識別辞書学習装置110の動作は終了する。   Next, the learning unit 112 performs end determination for determining whether to end learning (step S117). The condition for determining that the learning unit 112 ends the learning process in the end determination in step S117 may be, for example, that the number of times of accommodation determination exceeds a predetermined number. The condition that the learning unit 112 determines to end the learning process is that the strong classifier optimization index L based on the determined weak classifier is the strong classifier optimization index to which the last determined weak classifier is not added. The amount of decrease from may be less than a predetermined threshold. The condition for determining that the learning unit 112 finishes the learning process is that the identification accuracy of the strong classifier for the evaluation data set, which is a set of evaluation samples prepared in advance and does not include learning data, It may be that a predetermined standard is reached. The learning unit 112 determines the accuracy of identification based on the absolute value or the identification error rate of the optimization index L obtained by causing the strong classifier based on the determined weak classifier to identify the evaluation data set. Also good. When the end of the learning process is not determined (No in step S117-1), the identification dictionary learning device 110 further repeats the operations from step S111 to S117-1. When the end of the learning process is determined (Yes in step S117-1), the operation of the identification dictionary learning device 110 illustrated in FIG. 7 ends.

次に、本実施の形態の効果について説明する。   Next, the effect of this embodiment will be described.

本実施形態には、外観のバリエーションが大きい物体が識別の対象である場合における、外観のバリエーションが小さい場合と比較した、識別精度の低下を抑制しながら、識別時間を短縮できる識別辞書を作成できるという効果がある。   In this embodiment, it is possible to create an identification dictionary that can shorten the identification time while suppressing a decrease in identification accuracy as compared with a case where an object having a large appearance variation is a target of identification compared to a case where the appearance variation is small. There is an effect.

その理由は、係数更新部116が、弱識別器が追加されるのに応じて、最適化指標係数を更新するからである。最適化指標係数は、学習サンプルが属するクラスと、その学習サンプルが分類されたクラスとの組み合わせの、最適化指標への寄与の大きさを表す。学習時において、最適化指標に基づいて識別の精度が最も高い弱識別子が選択される。従って、最適化指標係数は、その最適化指標係数が付与される、2つのクラスの組み合わせにおいて、その2つのクラス間の識別の精度の向上が、学習時において重視される度合いを表す。係数更新部116は、弱識別器を順次選択する過程において、2つのクラス間の識別の精度を重視する度合いに応じて、その2つのクラスに付与される最適化指標係数を更新することができる。従って、係数更新部116による最適化指標係数の更新によって、例えば、序盤では、ネガティブクラスに属する学習サンプルとそれ以外の学習サンプルとを識別する精度が、他の弱識別器の候補と比較して高い識別器の候補を、弱識別器に決定することができる。同様に、係数更新部116による最適化指標係数の更新によって、後の段階では、異なるポジティブ系クラス間の識別精度が、他の弱識別器の候補より高い弱識別器の候補を、弱識別器に決定することができる。本実施形態の識別辞書学習装置110によって以上のようにして得られた識別辞書を使用する、物体を検出する処理において、決定された順に弱識別器を使用することによって、次の効果が得られる。識別処理の序盤では、ネガティブクラスに属するサンプルと他のサンプルとを精度よく識別できる。すなわち、外観のバリエーションが小さい場合と比較した、外観のバリエーションが大きい物体の識別精度の低下を抑制することが可能である。さらに、サンプルがネガティブクラスに属すると識別された場合、残りの識別処理を省略することができる。従って、残りの識別処理を省略しない場合と比較して、物体を検出する処理(すなわち、サンプルが物体を観測することによって得られたサンプルであるか否かを判定する処理)を高速化することができる。すなわち、識別処理を省略しない場合と比較して、識別処理に要する時間を削減することができる。上述の場合、さらに、識別処理が進むに従って、異なるポジティブクラスに属するサンプルの識別精度が向上する。   The reason is that the coefficient updating unit 116 updates the optimization index coefficient as the weak classifier is added. The optimization index coefficient represents the magnitude of contribution to the optimization index of the combination of the class to which the learning sample belongs and the class into which the learning sample is classified. At the time of learning, the weak identifier with the highest identification accuracy is selected based on the optimization index. Therefore, the optimization index coefficient represents the degree to which the improvement of the accuracy of identification between the two classes is emphasized during learning in the combination of two classes to which the optimization index coefficient is given. In the process of sequentially selecting weak classifiers, the coefficient updating unit 116 can update the optimization index coefficients given to the two classes in accordance with the degree of importance placed on the accuracy of identification between the two classes. . Therefore, by updating the optimization index coefficient by the coefficient updating unit 116, for example, in the early stage, the accuracy of discriminating between the learning sample belonging to the negative class and the other learning sample is higher than that of other weak classifier candidates. High classifier candidates can be determined to be weak classifiers. Similarly, by updating the optimization index coefficient by the coefficient updating unit 116, at a later stage, weak discriminator candidates whose discrimination accuracy between different positive class is higher than other weak classifier candidates are weak classifiers. Can be determined. In the object detection process using the identification dictionary obtained as described above by the identification dictionary learning device 110 of the present embodiment, the following effects can be obtained by using the weak classifiers in the determined order. . In the early stage of identification processing, samples belonging to the negative class and other samples can be accurately identified. That is, it is possible to suppress a decrease in identification accuracy of an object having a large appearance variation compared to a case where the appearance variation is small. Furthermore, if the sample is identified as belonging to the negative class, the remaining identification processing can be omitted. Therefore, compared with the case where the remaining identification processing is not omitted, the processing for detecting the object (that is, the processing for determining whether or not the sample is a sample obtained by observing the object) is accelerated. Can do. That is, the time required for the identification process can be reduced as compared with the case where the identification process is not omitted. In the case described above, the identification accuracy of samples belonging to different positive classes is further improved as the identification process proceeds.

上述の、各特許文献及び各非特許文献に記載されている技術では、上述の本実施形態の効果を得ることはできない。それらの技術では、ポジティブ系クラスとネガティブクラスとの分類と、ポジティブ系クラス間のそれぞれの分類について、どれの精度をどの程度重視して学習するかという優先度合いを設定することが困難である。または、それらの技術では、その優先度合いが固定である。上述のように、例えば最適化指標係数により、分類精度の優先度合いを設定することによって、上述の本実施形態の効果が得られる。分類精度の優先度合いを設定することができない場合、上述の本実施形態の効果を得ることは困難である。   With the techniques described in each of the above-mentioned patent documents and non-patent documents, the effect of the above-described embodiment cannot be obtained. With these techniques, it is difficult to set a priority level for which accuracy is to be learned and how much importance is assigned to the classification between the positive class and the negative class and the classification between the positive classes. Or in those techniques, the priority is fixed. As described above, for example, by setting the priority of the classification accuracy by the optimization index coefficient, the effect of the above-described embodiment can be obtained. When the priority of classification accuracy cannot be set, it is difficult to obtain the effect of the above-described embodiment.

以下では、本実施形態の効果について、さらに詳しく説明する。   Below, the effect of this embodiment is demonstrated in more detail.

本実施形態の識別辞書学習装置110は、ネガティブクラスとポジティブ系クラスとの分類の優先度合いを設定できる初期化部111を備える。本実施形態の識別辞書学習装置110は、さらに、最適化指標係数を学習の繰り返し番号mの値が大きくなるにつれて変化させる係数更新部116を備える。本実施形態の識別辞書学習装置110は、さらに、更新された最適化指標係数に応じて強識別器を学習できる学習部112、指標計算部113、決定部114、及び、重み更新部115を備える。そのため、識別辞書学習装置110が学習した識別辞書を用いることによって、高い検出率かつ高速な物体検出処理を実現できる。   The identification dictionary learning device 110 according to the present embodiment includes an initialization unit 111 that can set the priority of classification between a negative class and a positive class. The identification dictionary learning device 110 of the present embodiment further includes a coefficient updating unit 116 that changes the optimization index coefficient as the value of the learning repetition number m increases. The identification dictionary learning device 110 of the present embodiment further includes a learning unit 112 that can learn a strong classifier according to the updated optimization index coefficient, an index calculation unit 113, a determination unit 114, and a weight update unit 115. . Therefore, by using the identification dictionary learned by the identification dictionary learning device 110, a high detection rate and high-speed object detection process can be realized.

以下では、この効果が得られる理由について説明する。   Hereinafter, the reason why this effect is obtained will be described.

本実施形態では、最適化指標係数を用いることで、ポジティブ系クラス−ネガティブクラス間の識別と、ポジティブ系クラス間のそれぞれの識別と、について精度の優先度合いを自由に設計できる。異なるポジティブ系クラス間の係数にポジティブ系クラス−ネガティブクラス間の係数より小さい値が設定される場合、ポジティブ系クラスのサンプルを他のポジティブ系クラスに誤分類した場合の最適化指標(損失)が小さくなる。そして、その場合、ポジティブ系クラス−ネガティブクラス間の識別を重視した学習が行われる。   In the present embodiment, by using the optimization index coefficient, it is possible to freely design the accuracy priority for the identification between the positive class and the negative class and the identification between each positive class. When the coefficient between different positive classes is set to a value smaller than the coefficient between positive class and negative class, the optimization index (loss) when misclassifying a positive class sample into another positive class Get smaller. In this case, learning is performed with an emphasis on discrimination between positive class and negative class.

例えば、異なるポジティブ系クラス間の係数を単調増加するように更新を繰り返すことによって、更新の回数が増加するのに応じて、ポジティブ系クラス間の識別も重視した学習が行われるようになる。その学習の結果を使用して識別処理を行う装置等は、学習において決定された順で、弱識別器の出力値を算出すればよい。そして、その装置等は、弱識別器の出力値を算出する度に、算出した弱識別器の出力値を強識別器の出力値に加算する、強識別器の出力値の更新を行えばよい。その装置等は、強識別器の出力値を更新する度に、更新した、強識別器の出力値に基づいて、サンプルがいずれのクラスに属するか識別する識別処理を行えばよい。   For example, by repeating the update so as to monotonously increase the coefficient between different positive classes, learning with an emphasis on identification between positive classes is performed as the number of updates increases. An apparatus that performs identification processing using the learning result may calculate the output value of the weak classifier in the order determined in the learning. Then, each time the device or the like calculates the output value of the weak classifier, the device or the like may update the output value of the strong classifier by adding the calculated output value of the weak classifier to the output value of the strong classifier. . Each time the device or the like updates the output value of the strong classifier, the device or the like may perform identification processing for identifying which class the sample belongs to based on the updated output value of the strong classifier.

このように学習及び識別処理が行われる場合、識別処理における序盤(例えば、数1のmが小さい時)では、ポジティブ系クラス全体とネガティブクラスとの間の識別が優先される。そのため、mが小さい段階における強識別器の出力値に基づいて、サンプルがいずれのクラスに属するかを識別する識別処理を行う場合、ネガティブクラスに属するサンプルの識別精度が高くなる。この場合、識別処理を行う上述の装置は、例えば、強識別器の出力値を更新する度に、あらかじめ定められた基準に基づいて、サンプルがネガティブクラスに属するか否かを判定すればよい。上述の装置は、識別の対象であるサンプルがネガティブクラスに属すると判定した場合、残りの識別処理を省略すればよい。上述のように学習を行うことによって、mが小さい段階であっても、サンプルがネガティブクラスに属するか否かを判定する識別処理において、高い精度が得られる。従って、識別処理を行う装置等を、以上のように設計することによって、検出率の低下を低く抑えつつ、検出処理を大幅に高速にすることができる。しかも、識別処理が、mが大きい段階まで実行されれば、ポジティブ系クラス間の識別精度も高くなる。   When learning and identification processing are performed in this way, at the beginning of the identification processing (for example, when m in Formula 1 is small), identification between the entire positive class and the negative class is prioritized. Therefore, when the identification process for identifying which class the sample belongs to is performed based on the output value of the strong classifier at the stage where m is small, the identification accuracy of the sample belonging to the negative class is increased. In this case, for example, the above-described apparatus that performs the identification process may determine whether or not the sample belongs to the negative class based on a predetermined criterion every time the output value of the strong classifier is updated. When the above-described apparatus determines that the sample to be identified belongs to the negative class, the remaining identification process may be omitted. By performing learning as described above, high accuracy can be obtained in the identification process for determining whether or not a sample belongs to the negative class even when m is small. Therefore, by designing the apparatus for performing the identification process as described above, the detection process can be greatly speeded up while suppressing a decrease in the detection rate. In addition, if the identification process is executed up to a stage where m is large, the accuracy of identification between the positive classes is also increased.

なお、本実施形態では、2つのポジティブ系クラスの組み合わせ毎に、ポジティブ系クラス間の識別の優先度合いもそれぞれ設定できる。そのため、最終的に得られるポジティブ系クラス間の識別精度の調整も可能である。例えば、ポジティブ系クラスとして顔の方向(正面方向、斜め方向、横方向)がそれぞれ割り当てられている場合、本来の顔の向きは連続的な変化であるので、正面方向と斜め方向の境界は曖昧である。そのため、正面方向クラスと斜め方向クラス間の優先度合いが下がるように最適化指標係数を調整することによって、顔向きの大まかな分類に適した識別器を実現できる。例えば、識別器が、運転中における人物の脇見の検知に使用される場合、顔の方向が正面方向である場合に、顔の方向が斜め方向であると判定することは、顔の方向が横方向である場合に、顔の方向が正面方向であると判定する程の大きな誤りでない。そのため、以上のように調整できることには利点がある。   In the present embodiment, for each combination of two positive classes, the priority of identification between positive classes can also be set. Therefore, it is possible to adjust the discrimination accuracy between the positive classes finally obtained. For example, if the face direction (front direction, diagonal direction, horizontal direction) is assigned as a positive class, the original face direction is a continuous change, so the boundary between the front direction and the diagonal direction is ambiguous. It is. Therefore, by adjusting the optimization index coefficient so that the priority between the front direction class and the diagonal direction class is lowered, a discriminator suitable for rough classification of the face direction can be realized. For example, when the discriminator is used to detect a person's looking aside while driving, determining that the face direction is diagonal when the face direction is the front direction is that the face direction is horizontal. In the case of the direction, the error is not so large as to determine that the face direction is the front direction. Therefore, there is an advantage in being able to adjust as described above.

<第2の実施形態>
次に、本発明の第2の実施の形態について、図面を参照して詳細に説明する。本実施形態に係る物体検出システムは、本発明の第1の実施の形態に係る識別辞書学習装置110によって学習された識別辞書を用いた物体検出システムの例である。
<Second Embodiment>
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. The object detection system according to the present embodiment is an example of an object detection system using an identification dictionary learned by the identification dictionary learning device 110 according to the first embodiment of the present invention.

図9は、本実施形態に係る物体検出システム300の構成を表すブロック図である。   FIG. 9 is a block diagram showing the configuration of the object detection system 300 according to this embodiment.

図9を参照すると、本実施形態の物体検出システム300は、物体検出装置310と記憶装置120徒を含む。物体検出システム300は、さらに、識別辞書学習装置110を含んでいてもよい。本実施形態の識別辞書学習装置110及び記憶装置120は、第1の実施形態の識別辞書学習装置110及び記憶装置120と同じである。従って、識別辞書学習装置110及び記憶装置120に関する詳細な説明は省略する。なお、記憶装置120が含む識別辞書記憶部122は、識別辞書学習装置110によって学習された識別辞書を記憶する。本実施形態において、物体検出システム300は、識別システム300とも表記される。   Referring to FIG. 9, the object detection system 300 according to the present embodiment includes an object detection device 310 and a storage device 120. The object detection system 300 may further include an identification dictionary learning device 110. The identification dictionary learning device 110 and the storage device 120 of the present embodiment are the same as the identification dictionary learning device 110 and the storage device 120 of the first embodiment. Therefore, the detailed description regarding the identification dictionary learning device 110 and the storage device 120 is omitted. Note that the identification dictionary storage unit 122 included in the storage device 120 stores the identification dictionary learned by the identification dictionary learning device 110. In the present embodiment, the object detection system 300 is also referred to as an identification system 300.

物体検出装置310は設定部311と、抽出部312と、弱識別部313と、識別スコア計算部314と、判定部315とを有する。図9において、識別辞書学習装置110及び物体検出装置310は、別の装置として描かれている。しかし、同じ装置が、識別辞書学習装置110及び物体検出装置310として動作してもよい。さらにその同じ装置が、記憶装置120を含んでいてもよい。   The object detection device 310 includes a setting unit 311, an extraction unit 312, a weak identification unit 313, an identification score calculation unit 314, and a determination unit 315. In FIG. 9, the identification dictionary learning device 110 and the object detection device 310 are depicted as separate devices. However, the same device may operate as the identification dictionary learning device 110 and the object detection device 310. Further, the same device may include the storage device 120.

設定部311には、物体が撮影された画像が入力される。設定部311は、その画像を受信する。そして、設定部311は、受信した画像の、探索窓として設定されていない部分を含む一部分に、探索窓を設定する。設定部311は、受信した画像の全ての部分が少なくとも1回探索窓に設定されるまで、探索窓として設定する部分を変えながら、探索窓の設定を繰り返せばよい。探索窓に含まれる部分画像が、前述のサンプルである。   An image obtained by photographing an object is input to the setting unit 311. The setting unit 311 receives the image. Then, the setting unit 311 sets a search window in a part of the received image including a part that is not set as the search window. The setting unit 311 may repeat setting of the search window while changing the part to be set as the search window until all parts of the received image are set as the search window at least once. The partial image included in the search window is the above-described sample.

抽出部312は、探索窓に設定された部分画像において、特徴量を抽出する。抽出部312は、少なくともいずれかの弱識別器によって使用される、全ての特徴量を抽出すればよい。弱識別器の各々が使用する特徴量は、識別辞書記憶部122が記憶する識別辞書に記録されている。抽出部312は、例えば、決定された順番が早い弱識別器から順に、弱識別器を選択してもよい。そして、抽出部312は、選択した弱識別器が使用する特徴量が抽出されていない場合、その特徴量を抽出してもよい。   The extraction unit 312 extracts a feature amount from the partial image set in the search window. The extraction unit 312 may extract all feature amounts used by at least one of the weak classifiers. The feature amount used by each weak classifier is recorded in the identification dictionary stored in the identification dictionary storage unit 122. For example, the extraction unit 312 may select weak classifiers in order from the weak classifier having the determined order. Then, when the feature amount used by the selected weak classifier has not been extracted, the extraction unit 312 may extract the feature amount.

弱識別部313は、抽出された特徴量を使用して、識別辞書に記録されている弱識別器の出力値を計算する。弱識別部313は、抽出された特徴量を使用して、識別辞書に記録されている弱識別器の各々の出力値を計算してもよい。弱識別部313は、抽出された特徴量を使用して、識別辞書に記録されている弱識別器のうち、抽出部312によって選択された弱識別器の出力値を計算してもよい。   The weak classifier 313 uses the extracted feature value to calculate the output value of the weak classifier recorded in the identification dictionary. The weak classifier 313 may calculate the output value of each weak classifier recorded in the identification dictionary using the extracted feature quantity. The weak classifier 313 may calculate the output value of the weak classifier selected by the extraction unit 312 among the weak classifiers recorded in the identification dictionary using the extracted feature amount.

スコア計算部314は、計算された、弱識別器の各々の出力値に基づいて、強識別器の出力値を計算してもよい。スコア計算部314は、計算された、弱識別器の各々の出力値に基づいて、強識別器の出力値(すなわち識別スコア)を計算してもよい。   The score calculation unit 314 may calculate the output value of the strong classifier based on the calculated output value of each weak classifier. The score calculation unit 314 may calculate the output value (that is, the identification score) of the strong classifier based on the calculated output value of each weak classifier.

判定部315は、探索窓に含まれる画像の領域に含まれる部分画像が、物体であるか非物体であるかを判定する。すなわち、判定部315は、識別スコアに基づいて、探索窓に含まれる部分画像が、ネガティブクラスに属するか否かを判定する。判定部315は、探索窓に含まれる部分画像が、ネガティブクラスに属すると判定した場合、その探索窓に関する識別を打ち切ると判定する。   The determination unit 315 determines whether the partial image included in the region of the image included in the search window is an object or a non-object. That is, the determination unit 315 determines whether the partial image included in the search window belongs to the negative class based on the identification score. If the determination unit 315 determines that the partial image included in the search window belongs to the negative class, the determination unit 315 determines that the identification regarding the search window is terminated.

図10は、本実施形態の物体検出装置310の動作の例を表すフローチャートである。   FIG. 10 is a flowchart showing an example of the operation of the object detection apparatus 310 of the present embodiment.

まず、設定部311は、画像中の一部分に探索窓を設定する(ステップS311)。設定部311は、探索窓として設定されていない部分を含む、画像の、例えば所定サイズである一部を、探索窓に設定する。設定部311は、図10に示すステップS311からステップS316−2までの動作の繰り返しにおいて、例えば、画像中をラスタスキャンするように探索窓を移動させながら、探索窓を設定すればよい。設定部311は、探索窓が、前に設定した探索窓と重ならないように、所定の間隔で探索窓を設定してもよい。設定部311は、探索窓が、前に設定した探索窓と重なるように、所定の間隔で探索窓を設定してもよい。以下の説明において、物体検出装置310は、設定した探索窓に含まれる部分画像が、物体の画像であるか否かを判定する。物体の画像のクラスが、ポジティブ系クラスである、物体の画像ではない画像(非物体の画像)のクラスが、ネガティブクラスである。   First, the setting unit 311 sets a search window in a part of the image (step S311). The setting unit 311 sets, for example, a part of an image including a part not set as a search window, for example, having a predetermined size, as a search window. The setting unit 311 may set the search window while moving the search window so as to perform raster scan in the image, for example, in the repetition of the operations from step S311 to step S316-2 shown in FIG. The setting unit 311 may set the search window at a predetermined interval so that the search window does not overlap with the previously set search window. The setting unit 311 may set the search window at a predetermined interval so that the search window overlaps the previously set search window. In the following description, the object detection device 310 determines whether or not the partial image included in the set search window is an object image. The class of the image of the object is a positive class, and the class of an image that is not an image of the object (non-object image) is a negative class.

物体検出装置310は、後述のステップS312−1からステップS315までの動作を通して、探索窓が設定された部分の画像が、特定の物体であるか否かを識別する。特にステップS312−3及びステップS313は、1つの弱識別器による弱識別の処理に相当する。選択された弱識別器による出力値を計算する、ステップS312−3及びステップS313の動作は、選択される弱識別器を変更しながら、繰り返される。得られる弱識別器の出力値は、ステップS314において、順次、強識別器の出力値に足される。結果として強識別器の出力値(識別スコア)が計算される。数1が、この識別スコアの計算式である。以下では、以上についてさらに詳しく説明する。   The object detection device 310 identifies whether or not the image of the portion where the search window is set is a specific object through operations from step S312-1 to step S315 described later. In particular, step S312-3 and step S313 correspond to weak classification processing by one weak classifier. The operation of step S312-3 and step S313 for calculating the output value by the selected weak classifier is repeated while changing the selected weak classifier. The output value of the weak classifier obtained is sequentially added to the output value of the strong classifier in step S314. As a result, the output value (identification score) of the strong classifier is calculated. Equation 1 is a formula for calculating this identification score. Hereinafter, the above will be described in more detail.

抽出部312は、選択されていない弱識別器の中で、決定された順番が最も早い弱識別器を選択する(ステップS312−1)。抽出部312は、選択された弱識別器の入力である特徴量が抽出されているか判定する(ステップS312−2)。選択された弱識別器の入力である特徴量が抽出されている場合(ステップS312−2においてYes)、抽出部312は、その特徴量を抽出しなくてよい。選択された弱識別器の入力である特徴量が抽出されていない場合(ステップS312−2においてNo)、抽出部312は、その特徴量を抽出する(ステップS312−3)。弱識別器の入力である特徴量の種類を特定する情報は、識別辞書記憶部122に格納されている。   The extraction unit 312 selects the weak classifier that is determined in the earliest order among the unselected weak classifiers (step S312-1). The extraction unit 312 determines whether or not a feature amount that is an input of the selected weak classifier has been extracted (step S312-2). When the feature quantity that is the input of the selected weak classifier has been extracted (Yes in step S312-2), the extraction unit 312 does not have to extract the feature quantity. If the feature quantity that is the input of the selected weak classifier has not been extracted (No in step S312-2), the extraction unit 312 extracts the feature quantity (step S312-3). Information that identifies the type of feature quantity that is input to the weak classifier is stored in the identification dictionary storage unit 122.

次に、弱識別部313が弱識別の計算を行う(ステップS313)。すなわち、弱識別部313は、選択された弱識別器の出力値を計算する。その際、弱識別部313は、選択された弱識別器の入力である特徴量に基づいて、識別辞書記憶部122に格納されている、弱識別器の出力値の計算に使用される上述のルックアップテーブルを用いて、選択された弱識別器の出力値を求めればよい。なお、弱識別部313は、弱識別器の出力値として、ポジティブ系クラス別の出力値を計算する。   Next, the weak identification unit 313 calculates weak identification (step S313). In other words, the weak classifier 313 calculates the output value of the selected weak classifier. At this time, the weak classifier 313 is used to calculate the output value of the weak classifier stored in the identification dictionary storage unit 122 based on the feature quantity that is the input of the selected weak classifier. The output value of the selected weak classifier may be obtained using a lookup table. Note that the weak classifier 313 calculates an output value for each positive class as an output value of the weak classifier.

次に、スコア計算部314は、計算した、選択された弱識別器の出力値を、強識別器の出力値に加算する(ステップS314)。全ての弱識別器が選択されている場合、ステップS314において、数1に示す総和(すなわち最終的な識別スコア)Hcが、各ポジティブ系クラスcについて計算される。選択されていない弱識別器が存在する場合、ステップS314において、数1に示す識別スコアの演算の中間結果Hcが、各ポジティブ系クラスcについて計算される。識別スコアの演算の中間結果は、弱識別器の一部の出力値の和を表す。 Next, the score calculation unit 314 adds the calculated output value of the selected weak classifier to the output value of the strong classifier (step S314). If all weak classifiers have been selected, in step S314, the sum (ie, the final identification score) H c shown in Equation 1 is calculated for each positive class c. If there is a weak classifier that has not been selected, in step S314, the intermediate result H c of the calculation of the identification score shown in Equation 1 is calculated for each positive class c. The intermediate result of the calculation of the identification score represents the sum of the output values of some of the weak classifiers.

次に、判定部315は、探索窓に含まれる部分画像に関する識別処理を打ち切るか否かを判定する打ち切り判定を行う(ステップS315)。判定部315は、計算したHcの値に基づいて、探索窓に含まれる部分画像がネガティブクラスに属するか否かを判定する。例えば、Hcの値が大きいほど、探索窓に含まれる部分画像が物体の画像らしい場合、判定部315は、Hcの値が所定の閾値より小さい場合、探索窓に含まれる部分画像がネガティブクラスに属すると判定すればよい。探索窓に含まれる部分画像がネガティブクラスに属すると判断された場合、識別処理をそれ以上続行する必要はない。判定部315は、探索窓に含まれる部分画像がネガティブクラスに属すると判定した場合、その探索窓に関する識別処理を打ち切る(すなわち「打ち切り」)と判定する(ステップS316−1においてYes)。その場合、画像の全ての部分が探索窓として設定されていなければ(ステップS316−2においてNo)、物体検出装置310は、再び、ステップS311以降の動作を行う。すなわち、物体検出装置310による処理は、次の探索窓についての処理に移る。「打切り」と判定されなかった場合(ステップS316−1においてNo)、物体検出装置310は、再び、ステップS312−1以降の動作を行う。すなわち、物体検出装置310は、次の弱識別器についての計算を行う。なお、前述のようにHcはクラスc毎に計算される。従って、S315において、判定部315は、ステップS314において計算されたHcの最大値maxc(Hc)と、所定の閾値とを比較すればよい。また、S315において使用される閾値は、クラスc毎に、あらかじめ実験的に求められた、部分画像が明らかにネガティブクラスに属すると判断できる値が設定されていてもよい。その場合、判定部315は、ステップS314において計算されたHcの最大値maxc(Hc)と、クラスcに関して実験的に求められた閾値とを比較すればよい。そして、判定部315は、比較の結果、探索窓に含まれる部分画像がネガティブクラスに属すると判定した場合、その探索窓に関する識別処理を打ち切ると判定すればよい。 Next, the determination unit 315 performs an abort determination to determine whether or not to terminate the identification process regarding the partial image included in the search window (step S315). Determination unit 315, based on the value of the calculated H c, partial images included in the search window is equal to or belongs to the negative class. For example, if the partial image included in the search window is likely to be an object image as the value of H c increases, the determination unit 315 determines that the partial image included in the search window is negative when the value of H c is smaller than a predetermined threshold. What is necessary is just to determine with belonging to a class. When it is determined that the partial image included in the search window belongs to the negative class, it is not necessary to continue the identification process. If the determination unit 315 determines that the partial image included in the search window belongs to the negative class, the determination unit 315 determines that the identification process related to the search window is to be terminated (ie, “canceled”) (Yes in step S316-1). In this case, if all the parts of the image are not set as search windows (No in step S316-2), the object detection device 310 performs the operation from step S311 again. That is, the processing by the object detection device 310 proceeds to processing for the next search window. If it is not determined to be “censored” (No in step S316-1), the object detection device 310 performs the operation from step S312-1 again. That is, the object detection device 310 performs calculation for the next weak classifier. As described above, H c is calculated for each class c. Therefore, in S315, the determination unit 315 may compare the maximum value c c (H c ) of H c calculated in step S314 with a predetermined threshold value. Further, the threshold value used in S315 may be set to a value that can be determined experimentally beforehand for each class c so that the partial image clearly belongs to the negative class. In that case, the determination unit 315 may compare the maximum value c c (H c ) of H c calculated in step S314 with a threshold experimentally obtained for class c. If the determination unit 315 determines that the partial image included in the search window belongs to the negative class as a result of the comparison, the determination unit 315 may determine that the identification process related to the search window is terminated.

また、判定部315は、「打ち切り」と判定されず、かつ、Hcの値が、ポジティブ系クラスの閾値としてあらかじめ設定されている閾値より大きい場合、判定部315は、探索窓に含まれる部分画像がポジティブ系クラスに属すると判定すればよい。すなわち、判定部315は、設定されている探索窓に物体が検出されたと判定すればよい。複数のポジティブ系クラスが存在する場合、複数のクラスcのHcがポジティブ系クラスの閾値を越えた場合、判定部315は、探索窓に含まれる部分画像は、Hcの値が最も大きいクラスcに属すると判定すればよい。Hcがポジティブ系クラスの閾値を越えたポジティブ系クラスが存在しない場合、判定部315は、探索窓に含まれる部分画像がネガティブクラスに属すると判定すればよい。すなわち、判定部315は、探索窓に物体は検出されないと判定すればよい。 In addition, when the determination unit 315 is not determined to be “censored” and the value of H c is larger than a threshold set in advance as a positive class threshold, the determination unit 315 includes a portion included in the search window. It may be determined that the image belongs to the positive class. That is, the determination unit 315 may determine that an object is detected in the set search window. When there are a plurality of positive classes, and when H c of a plurality of classes c exceeds the threshold of the positive class, the determination unit 315 determines that the partial image included in the search window has the largest H c value. What is necessary is just to determine with belonging to c. When there is no positive class in which H c exceeds the threshold of the positive class, the determination unit 315 may determine that the partial image included in the search window belongs to the negative class. That is, the determination unit 315 may determine that no object is detected in the search window.

<第3の実施形態>
次に、本発明の第3の実施形態について、図面を参照して詳細に説明する。第3の実施形態は、上述した各実施形態に共通する概念を表す。
<Third Embodiment>
Next, a third embodiment of the present invention will be described in detail with reference to the drawings. The third embodiment represents a concept common to the above-described embodiments.

図11は、本実施形態の識別辞書学習装置100Aの構成を表すブロック図である。   FIG. 11 is a block diagram showing the configuration of the identification dictionary learning device 100A of the present embodiment.

図11を参照すると、本実施形態の識別辞書学習装置100Aは、複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習部112と、誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算部113と、学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定部114と、前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新部116と、を備える。   Referring to FIG. 11, the identification dictionary learning device 100A of the present embodiment includes a plurality of classifiers that perform class classification that classifies data values belonging to any of a plurality of classes into any of the plurality of classes. The classification accuracy of the class classification of the combination of the learning unit 112 that learns using the learning sample that is the data value, the class to which the learning sample in the wrong class classification belongs, and the classified class An index calculation unit 113 that calculates the optimization index of each of the plurality of classifiers based on a plurality of optimization index coefficients each representing the magnitude of the contribution to the optimization index that represents Among the classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. A decision unit 114 that adds to the identification dictionary that is a set of weak classifiers, a coefficient update unit 116 that updates the optimization index coefficient based on a rule in accordance with the addition of the weak classifiers, Is provided.

<他の実施形態>
識別辞書学習システム100、識別辞書学習装置110、識別辞書学習装置100A、記憶装置120、物体検出システム300、及び物体検出装置310は、それぞれ、コンピュータ及びコンピュータを制御するプログラム、専用のハードウェア、又は、コンピュータ及びコンピュータを制御するプログラムと専用のハードウェアの組合せにより実現することができる。
<Other embodiments>
The identification dictionary learning system 100, the identification dictionary learning device 110, the identification dictionary learning device 100A, the storage device 120, the object detection system 300, and the object detection device 310 are respectively a computer and a program for controlling the computer, dedicated hardware, or It can be realized by a combination of a computer and a program for controlling the computer and dedicated hardware.

図12は、識別辞書学習システム100、識別辞書学習装置110、識別辞書学習装置100A、記憶装置120、物体検出システム300、及び物体検出装置310を実現することができる、コンピュータ1000のハードウェア構成の一例を表す図である。図12を参照すると、コンピュータ1000は、プロセッサ1001と、メモリ1002と、記憶装置1003と、I/O(Input/Output)インタフェース1004とを含む。また、コンピュータ1000は、記録媒体1005にアクセスすることができる。メモリ1002と記憶装置1003は、例えば、RAM(Random Access Memory)、ハードディスクなどの記憶装置である。記録媒体1005は、例えば、RAM、ハードディスクなどの記憶装置、ROM(Read Only Memory)、可搬記録媒体である。記憶装置1003が記録媒体1005であってもよい。プロセッサ1001は、メモリ1002と、記憶装置1003に対して、データやプログラムの読み出しと書き込みを行うことができる。プロセッサ1001は、I/Oインタフェース1004を介して、例えば、端末装置140などにアクセスすることができる。プロセッサ1001は、記録媒体1005にアクセスすることができる。記録媒体1005には、コンピュータ1000を、識別辞書学習装置110、識別辞書学習装置100A、又は物体検出装置310として動作させるプログラムが格納されている。   FIG. 12 shows a hardware configuration of a computer 1000 that can realize the identification dictionary learning system 100, the identification dictionary learning device 110, the identification dictionary learning device 100A, the storage device 120, the object detection system 300, and the object detection device 310. It is a figure showing an example. Referring to FIG. 12, a computer 1000 includes a processor 1001, a memory 1002, a storage device 1003, and an I / O (Input / Output) interface 1004. The computer 1000 can access the recording medium 1005. The memory 1002 and the storage device 1003 are storage devices such as a RAM (Random Access Memory) and a hard disk, for example. The recording medium 1005 is, for example, a storage device such as a RAM or a hard disk, a ROM (Read Only Memory), or a portable recording medium. The storage device 1003 may be the recording medium 1005. The processor 1001 can read and write data and programs from and to the memory 1002 and the storage device 1003. The processor 1001 can access the terminal device 140, for example, via the I / O interface 1004. The processor 1001 can access the recording medium 1005. The recording medium 1005 stores a program that causes the computer 1000 to operate as the identification dictionary learning device 110, the identification dictionary learning device 100A, or the object detection device 310.

プロセッサ1001は、記録媒体1005に格納されている、コンピュータ1000を、識別辞書学習装置110、識別辞書学習装置100A、又は物体検出装置310として動作させるプログラムを、メモリ1002にロードする。そして、プロセッサ1001が、メモリ1002にロードされたプログラムを実行することにより、コンピュータ1000は、識別辞書学習装置110、識別辞書学習装置100A、又は物体検出装置310として動作する。   The processor 1001 loads a program stored in the recording medium 1005 that causes the computer 1000 to operate as the identification dictionary learning device 110, the identification dictionary learning device 100A, or the object detection device 310 into the memory 1002. When the processor 1001 executes the program loaded in the memory 1002, the computer 1000 operates as the identification dictionary learning device 110, the identification dictionary learning device 100A, or the object detection device 310.

初期化部111、学習部112、指標計算部113、決定部114、重み更新部115、係数更新部116、更新設定部117、設定部311、抽出部312、弱識別部313、スコア計算部314、及び、判定部315は、例えば、プログラムを記憶する記録媒体1005からメモリ1002に読み込まれた、各部の機能を実現することができる専用のプログラムと、そのプログラムを実行するプロセッサ1001により実現することができる。また、係数記憶部121、識別辞書記憶部122、重み記憶部123、及び、サンプル記憶部124は、コンピュータ1000が含むメモリ1002やハードディスク装置等の記憶装置1003により実現することができる。あるいは、初期化部111、学習部112、指標計算部113、決定部114、重み更新部115、係数更新部116、更新設定部117、係数記憶部121、識別辞書記憶部122、重み記憶部123、サンプル記憶部124、設定部311、抽出部312、弱識別部313、スコア計算部314、及び、判定部315の一部又は全部を、各部の機能を実現する専用の回路によって実現することもできる。   Initialization unit 111, learning unit 112, index calculation unit 113, determination unit 114, weight update unit 115, coefficient update unit 116, update setting unit 117, setting unit 311, extraction unit 312, weak identification unit 313, score calculation unit 314 The determination unit 315 is realized by, for example, a dedicated program that can be read from a recording medium 1005 that stores the program into the memory 1002 and that can realize the function of each unit, and a processor 1001 that executes the program. Can do. The coefficient storage unit 121, the identification dictionary storage unit 122, the weight storage unit 123, and the sample storage unit 124 can be realized by a memory 1002 included in the computer 1000 or a storage device 1003 such as a hard disk device. Alternatively, the initialization unit 111, the learning unit 112, the index calculation unit 113, the determination unit 114, the weight update unit 115, the coefficient update unit 116, the update setting unit 117, the coefficient storage unit 121, the identification dictionary storage unit 122, and the weight storage unit 123. Also, part or all of the sample storage unit 124, the setting unit 311, the extraction unit 312, the weak identification unit 313, the score calculation unit 314, and the determination unit 315 may be realized by a dedicated circuit that realizes the function of each unit. it can.

また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。   Moreover, although a part or all of said embodiment can be described also as the following additional remarks, it is not restricted to the following.

(付記1)
複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習手段と、
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、
を備える識別辞書学習装置。
(Appendix 1)
Learning means for learning a plurality of discriminators by using a plurality of learning samples that are the data values for classifying data values belonging to any of the plurality of classes into any of the plurality of classes. When,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class An index calculation means for calculating the optimization index of each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Determining means for adding to an identification dictionary which is a set of weak classifiers;
Coefficient updating means for updating the optimization index coefficient based on a rule in response to the addition of the weak classifier;
An identification dictionary learning device comprising:

(付記2)
前記クラス分類は、前記認識対象から得られる前記データ値がいずれかに属する前記クラスである、複数のポジティブ系クラス、及び、前記認識対象から得られない前記データ値が属する前記クラスであるネガティブ系クラスのいずれかに、前記データ値を分類することであり、
前記識別辞書学習装置は、さらに、
異なる2つの前記ポジティブ系クラスの前記組み合わせである同系セットの前記最適化指標への寄与の大きさが、前記ポジティブ系クラス及び前記ネガティブ系クラスの前記組み合わせである異系セットの前記最適化指標への寄与の大きさより小さくなるよう、前記複数の最適化指標係数の各々の、前記更新が行われる前に前記最適化指標の導出に使用される値である初期値を設定する初期化を行う初期化手段
を備える付記1に記載の識別辞書学習装置。
(Appendix 2)
The class classification includes a plurality of positive classes to which the data value obtained from the recognition target belongs, and a negative system to which the data value not obtained from the recognition target belongs. Classifying the data values into one of the classes,
The identification dictionary learning device further includes:
The magnitude of the contribution to the optimization index of the in-kind set that is the combination of two different positive class is the optimization index of the different set that is the combination of the positive class and the negative class. Initialization is performed to set an initial value of each of the plurality of optimization index coefficients, which is a value used for deriving the optimization index, before the update is performed so as to be smaller than the magnitude of the contribution of The identification dictionary learning device according to attachment 1, further comprising:

(付記3)
前記初期化手段は、前記同系セットの各々の前記最適化指標への寄与が、無くなる又はほぼ無くなるように、前記初期化を行う
付記2に記載の識別辞書学習装置。
(Appendix 3)
The identification dictionary learning device according to claim 2, wherein the initialization unit performs the initialization so that the contribution to the optimization index of each of the related sets is eliminated or substantially eliminated.

(付記4)
前記係数更新手段は、前記同系セットの各々の前記最適化指標への寄与の大きさが増加するように、前記更新を行う
付記1乃至3のいずれかに記載の識別辞書学習装置。
(Appendix 4)
The identification dictionary learning device according to any one of supplementary notes 1 to 3, wherein the coefficient updating unit performs the update so that a magnitude of contribution to the optimization index of each of the related sets increases.

(付記5)
前記係数更新手段は、前記同系セットの各々の前記最適化指標への寄与の大きさが、前記異系セットの前記最適化指標への寄与の大きさに近づくように前記更新を行う
付記1乃至4のいずれかに記載の識別辞書学習装置。
(Appendix 5)
The coefficient updating means performs the updating so that the magnitude of the contribution of each of the related sets to the optimization index approaches the magnitude of the contribution of the different set to the optimization index. 4. The identification dictionary learning device according to any one of 4 above.

(付記6)
少なくともいずれかの前記同系セットの前記最適化指標の更新における前記ルールを受信する更新設定手段を備え、
前記係数更新手段は、受信された前記ルールに従って前記更新を行う、
付記1乃至5のいずれかに記載の識別辞書学習装置。
(Appendix 6)
An update setting means for receiving the rule in updating the optimization index of at least one of the related sets;
The coefficient update means performs the update according to the received rule.
The identification dictionary learning device according to any one of appendices 1 to 5.

(付記7)
前記学習手段は、1つ以上の前記クラスを含むクラス集合と、前記学習サンプルに基づき導出される特徴量の種類との、異なる複数の組み合わせの各々について、当該組み合わせと前記複数の学習サンプルとに基づいて前記弱識別器の学習を行う
付記1乃至6のいずれかに記載の識別辞書学習装置。
(Appendix 7)
The learning means includes, for each of a plurality of different combinations of a class set including one or more classes and a type of feature amount derived based on the learning sample, the combination and the plurality of learning samples. The identification dictionary learning device according to any one of supplementary notes 1 to 6, wherein learning of the weak classifier is performed based on the identification classifier.

(付記8)
識別装置と、付記1乃至7のいずれかに記載の識別辞書学習装置と、を含み、
前記識別辞書学習装置は、
前記識別辞書記憶手段をさらに備え、
前記決定手段は、選択された前記弱識別器を前記識別辞書に追加し、
前記識別装置は、
前記データ値である識別サンプルを受信する設定手段と、
前記識別辞書に含まれる複数の前記弱識別器による前記識別サンプルの前記クラス分類の結果の各々を統合することにより、前記識別サンプルの前記クラス分類を行う判定手段と、
を備える、
識別システム。
(Appendix 8)
Including an identification device and the identification dictionary learning device according to any one of appendices 1 to 7,
The identification dictionary learning device includes:
Further comprising the identification dictionary storage means,
The determining means adds the selected weak classifier to the identification dictionary,
The identification device includes:
Setting means for receiving an identification sample which is the data value;
Determining means for classifying the classification sample by integrating each of the classification results of the classification sample by the plurality of weak classifiers included in the identification dictionary;
Comprising
Identification system.

(付記9)
複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習し、
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算し、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加し、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う、
識別辞書学習方法。
(Appendix 9)
A plurality of classifiers that perform classification that classifies data values belonging to any of a plurality of classes into any of the plurality of classes, and learning using a plurality of learning samples that are the data values,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class And calculating the optimization index for each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Adding to an identification dictionary which is a set of weak classifiers;
In response to the addition of the weak classifier, the optimization index coefficient is updated based on a rule.
Identification dictionary learning method.

(付記10)
前記クラス分類は、前記認識対象から得られる前記データ値がいずれかに属する前記クラスである、複数のポジティブ系クラス、及び、前記認識対象から得られない前記データ値が属する前記クラスであるネガティブ系クラスのいずれかに、前記データ値を分類することであり、
さらに、
異なる2つの前記ポジティブ系クラスの前記組み合わせである同系セットの前記最適化指標への寄与の大きさが、前記ポジティブ系クラス及び前記ネガティブ系クラスの前記組み合わせである異系セットの前記最適化指標への寄与の大きさより小さくなるよう、前記複数の最適化指標係数の各々の、前記更新が行われる前に前記最適化指標の導出に使用される値である初期値を設定する初期化を行う
付記9に記載の識別辞書学習方法。
(Appendix 10)
The class classification includes a plurality of positive classes to which the data value obtained from the recognition target belongs, and a negative system to which the data value not obtained from the recognition target belongs. Classifying the data values into one of the classes,
further,
The magnitude of the contribution to the optimization index of the in-kind set that is the combination of two different positive class is the optimization index of the different set that is the combination of the positive class and the negative class. An initialization is performed to set an initial value of each of the plurality of optimization index coefficients, which is a value used for deriving the optimization index, before the update is performed so as to be smaller than the magnitude of the contribution of 9. The identification dictionary learning method according to 9.

(付記11)
前記同系セットの各々の前記最適化指標への寄与が、無くなる又はほぼ無くなるように、前記初期化を行う
付記10に記載の識別辞書学習方法。
(Appendix 11)
The identification dictionary learning method according to claim 10, wherein the initialization is performed so that the contribution of each of the related sets to the optimization index is eliminated or substantially eliminated.

(付記12)
前記同系セットの各々の前記最適化指標への寄与の大きさが増加するように、前記更新を行う
付記9乃至12のいずれかに記載の識別辞書学習方法。
(Appendix 12)
The identification dictionary learning method according to any one of appendices 9 to 12, wherein the update is performed so that the magnitude of contribution of each of the related sets to the optimization index increases.

(付記13)
前記同系セットの各々の前記最適化指標への寄与の大きさが、前記異系セットの前記最適化指標への寄与の大きさに近づくように前記更新を行う
付記9乃至12のいずれかに記載の識別辞書学習方法。
(Appendix 13)
The update is performed such that the magnitude of the contribution to the optimization index of each of the related sets approaches the magnitude of the contribution to the optimization index of the heterogeneous set. Identification dictionary learning method.

(付記14)
少なくともいずれかの前記同系セットの前記最適化指標の更新における前記ルールを受信し、
受信された前記ルールに従って前記更新を行う、
付記9乃至13のいずれかに記載の識別辞書学習方法。
(Appendix 14)
Receiving the rules in updating the optimization index of at least any of the cognate sets;
Performing the update according to the received rules;
The identification dictionary learning method according to any one of appendices 9 to 13.

(付記15)
1つ以上の前記クラスを含むクラス集合と、前記学習サンプルに基づき導出される特徴量の種類との、異なる複数の組み合わせの各々について、当該組み合わせと前記複数の学習サンプルとに基づいて前記弱識別器の学習を行う
付記9乃至14のいずれかに記載の識別辞書学習方法。
(Appendix 15)
For each of a plurality of different combinations of a class set including one or more classes and a type of feature amount derived based on the learning sample, the weak identification is performed based on the combination and the plurality of learning samples. The identification dictionary learning method according to any one of supplementary notes 9 to 14, wherein learning of a vessel is performed.

(付記16)
コンピュータを、
複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習手段と、
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、
して動作させる識別辞書学習プログラム。
(Appendix 16)
Computer
Learning means for learning a plurality of discriminators by using a plurality of learning samples that are the data values for classifying data values belonging to any of the plurality of classes into any of the plurality of classes. When,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class An index calculation means for calculating the optimization index of each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Determining means for adding to an identification dictionary which is a set of weak classifiers;
Coefficient updating means for updating the optimization index coefficient based on a rule in response to the addition of the weak classifier;
Identification dictionary learning program to be operated.

(付記17)
前記クラス分類は、前記認識対象から得られる前記データ値がいずれかに属する前記クラスである、複数のポジティブ系クラス、及び、前記認識対象から得られない前記データ値が属する前記クラスであるネガティブ系クラスのいずれかに、前記データ値を分類することであり、
コンピュータを、
異なる2つの前記ポジティブ系クラスの前記組み合わせである同系セットの前記最適化指標への寄与の大きさが、前記ポジティブ系クラス及び前記ネガティブ系クラスの前記組み合わせである異系セットの前記最適化指標への寄与の大きさより小さくなるよう、前記複数の最適化指標係数の各々の、前記更新が行われる前に前記最適化指標の導出に使用される値である初期値を設定する初期化を行う初期化手段と
して動作させる付記16に記載の識別辞書学習プログラム。
(Appendix 17)
The class classification includes a plurality of positive classes to which the data value obtained from the recognition target belongs, and a negative system to which the data value not obtained from the recognition target belongs. Classifying the data values into one of the classes,
Computer
The magnitude of the contribution to the optimization index of the in-kind set that is the combination of two different positive class is the optimization index of the different set that is the combination of the positive class and the negative class. Initialization is performed to set an initial value of each of the plurality of optimization index coefficients, which is a value used for deriving the optimization index, before the update is performed so as to be smaller than the magnitude of the contribution of The identification dictionary learning program according to supplementary note 16, which is operated as a conversion means.

(付記18)
コンピュータを、
前記同系セットの各々の前記最適化指標への寄与が、無くなる又はほぼ無くなるように、前記初期化を行う前記初期化手段と、
して動作させる付記17に記載の識別辞書学習プログラム。
(Appendix 18)
Computer
The initialization means for performing the initialization so that the contribution to the optimization index of each of the cognate sets is eliminated or substantially eliminated;
The identification dictionary learning program according to appendix 17, which is operated as described above.

(付記19)
コンピュータを、
前記同系セットの各々の前記最適化指標への寄与の大きさが増加するように、前記更新を行う前記係数更新手段と、
して動作させる付記9乃至18のいずれかに記載の識別辞書学習プログラム。
(Appendix 19)
Computer
The coefficient updating means for performing the updating so that the magnitude of contribution to the optimization index of each of the cognate sets increases;
The identification dictionary learning program according to any one of appendices 9 to 18 that is operated as described above.

(付記20)
コンピュータを、
前記同系セットの各々の前記最適化指標への寄与の大きさが、前記異系セットの前記最適化指標への寄与の大きさに近づくように前記更新を行う前記係数更新手段と、
して動作させる付記9乃至19のいずれかに記載の識別辞書学習プログラム。
(Appendix 20)
Computer
The coefficient updating means for performing the updating so that the magnitude of the contribution to the optimization index of each of the related sets approaches the magnitude of the contribution of the heterogeneous set to the optimization index;
The identification dictionary learning program according to any one of appendices 9 to 19 that is operated as described above.

(付記21)
コンピュータを、
少なくともいずれかの前記同系セットの前記最適化指標の更新における前記ルールを受信する更新設定手段と、
受信された前記ルールに従って前記更新を行う前記係数更新手段と、
して動作させる付記9乃至20のいずれかに記載の識別辞書学習プログラム。
(Appendix 21)
Computer
Update setting means for receiving the rule in updating the optimization index of at least one of the related sets;
The coefficient updating means for performing the updating according to the received rule;
The identification dictionary learning program according to any one of appendices 9 to 20 that is operated as described above.

(付記22)
コンピュータを、
1つ以上の前記クラスを含むクラス集合と、前記学習サンプルに基づき導出される特徴量の種類との、異なる複数の組み合わせの各々について、当該組み合わせと前記複数の学習サンプルとに基づいて前記弱識別器の学習を行う前記学習手段と、
して動作させる付記9乃至21のいずれかに記載の識別辞書学習プログラム。
(Appendix 22)
Computer
For each of a plurality of different combinations of a class set including one or more classes and a type of feature amount derived based on the learning sample, the weak identification is performed based on the combination and the plurality of learning samples. The learning means for learning the vessel;
The identification dictionary learning program according to any one of appendices 9 to 21 that is operated as described above.

以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。   The present invention has been described above with reference to the embodiments, but the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

本発明によれば、映像から特定の物体を検出する用途に適用できる。特に画像上での見た目のバリエーションが大きな物体である、例えば、人物の頭部、顔、人体、自動車等に関する検出用途に、実用的に適用できる。   INDUSTRIAL APPLICABILITY According to the present invention, the present invention can be applied to use for detecting a specific object from an image. In particular, the present invention can be applied practically to detection applications relating to objects that have large variations in appearance on images, for example, human heads, faces, human bodies, automobiles, and the like.

100 識別辞書学習システム
110 識別辞書学習装置
110A 識別辞書学習装置
111 初期化部
112 学習部
113 指標計算部
114 決定部
115 重み更新部
116 係数更新部
117 更新設定部
120 記憶装置
121 係数記憶部
122 識別辞書記憶部
123 重み記憶部
124 サンプル記憶部
140 端末装置
300 物体検出システム
310 物体検出装置
311 設定部
312 抽出部
313 弱識別部
314 スコア計算部
315 判定部
1000 コンピュータ
1001 プロセッサ
1002 メモリ
1003 記憶装置
1004 I/Oインタフェース
1005 記録媒体
DESCRIPTION OF SYMBOLS 100 Identification dictionary learning system 110 Identification dictionary learning apparatus 110A Identification dictionary learning apparatus 111 Initialization part 112 Learning part 113 Index calculation part 114 Determination part 115 Weight update part 116 Coefficient update part 117 Update setting part 120 Storage apparatus 121 Coefficient storage part 122 Identification Dictionary storage unit 123 Weight storage unit 124 Sample storage unit 140 Terminal device 300 Object detection system 310 Object detection device 311 Setting unit 312 Extraction unit 313 Weak identification unit 314 Score calculation unit 315 Determination unit 1000 Computer 1001 Processor 1002 Memory 1003 Storage device 1004 I / O interface 1005 Recording medium

Claims (10)

複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習手段と、
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、
を備える識別辞書学習装置。
Learning means for learning a plurality of discriminators by using a plurality of learning samples that are the data values for classifying data values belonging to any of the plurality of classes into any of the plurality of classes. When,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class An index calculation means for calculating the optimization index of each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Determining means for adding to an identification dictionary which is a set of weak classifiers;
Coefficient updating means for updating the optimization index coefficient based on a rule in response to the addition of the weak classifier;
An identification dictionary learning device comprising:
前記クラス分類は、前記認識対象から得られる前記データ値がいずれかに属する前記クラスである、複数のポジティブ系クラス、及び、前記認識対象から得られない前記データ値が属する前記クラスであるネガティブ系クラスのいずれかに、前記データ値を分類することであり、
前記識別辞書学習装置は、さらに、
異なる2つの前記ポジティブ系クラスの前記組み合わせである同系セットの前記最適化指標への寄与の大きさが、前記ポジティブ系クラス及び前記ネガティブ系クラスの前記組み合わせである異系セットの前記最適化指標への寄与の大きさより小さくなるよう、前記複数の最適化指標係数の各々の、前記更新が行われる前に前記最適化指標の導出に使用される値である初期値を設定する初期化を行う初期化手段
を備える請求項1に記載の識別辞書学習装置。
The class classification includes a plurality of positive classes to which the data value obtained from the recognition target belongs, and a negative system to which the data value not obtained from the recognition target belongs. Classifying the data values into one of the classes,
The identification dictionary learning device further includes:
The magnitude of the contribution to the optimization index of the in-kind set that is the combination of two different positive class is the optimization index of the different set that is the combination of the positive class and the negative class. Initialization is performed to set an initial value of each of the plurality of optimization index coefficients, which is a value used for deriving the optimization index, before the update is performed so as to be smaller than the magnitude of the contribution of The identification dictionary learning device according to claim 1, further comprising:
前記初期化手段は、前記同系セットの各々の前記最適化指標への寄与が、無くなる又はほぼ無くなるように、前記初期化を行う
請求項2に記載の識別辞書学習装置。
The identification dictionary learning device according to claim 2, wherein the initialization unit performs the initialization so that the contribution to the optimization index of each of the related sets is eliminated or almost eliminated.
前記係数更新手段は、前記同系セットの各々の前記最適化指標への寄与の大きさが増加するように、前記更新を行う
請求項1乃至3のいずれかに記載の識別辞書学習装置。
4. The identification dictionary learning device according to claim 1, wherein the coefficient updating unit performs the updating so that a magnitude of contribution to the optimization index of each of the related sets is increased.
前記係数更新手段は、前記同系セットの各々の前記最適化指標への寄与の大きさが、前記異系セットの前記最適化指標への寄与の大きさに近づくように前記更新を行う
請求項1乃至4のいずれかに記載の識別辞書学習装置。
2. The coefficient updating unit performs the updating so that the magnitude of contribution of each of the related sets to the optimization index approaches the magnitude of contribution of the heterogeneous set to the optimization index. 5. The identification dictionary learning device according to any one of 1 to 4.
少なくともいずれかの前記同系セットの前記最適化指標の更新における前記ルールを受信する更新設定手段を備え、
前記係数更新手段は、受信された前記ルールに従って前記更新を行う、
請求項1乃至5のいずれかに記載の識別辞書学習装置。
An update setting means for receiving the rule in updating the optimization index of at least one of the related sets;
The coefficient update means performs the update according to the received rule.
The identification dictionary learning device according to claim 1.
前記学習手段は、1つ以上の前記クラスを含むクラス集合と、前記学習サンプルに基づき導出される特徴量の種類との、異なる複数の組み合わせの各々について、当該組み合わせと前記複数の学習サンプルとに基づいて前記弱識別器の学習を行う
請求項1乃至6のいずれかに記載の識別辞書学習装置。
The learning means includes, for each of a plurality of different combinations of a class set including one or more classes and a type of feature amount derived based on the learning sample, the combination and the plurality of learning samples. The identification dictionary learning device according to claim 1, wherein learning of the weak classifier is performed based on the identification dictionary learning device.
識別装置と、請求項1乃至7のいずれかに記載の識別辞書学習装置と、を含み、
前記識別辞書学習装置は、
前記識別辞書記憶手段をさらに備え、
前記決定手段は、選択された前記弱識別器を前記識別辞書に追加し、
前記識別装置は、
前記データ値である識別サンプルを受信する設定手段と、
前記識別辞書に含まれる複数の前記弱識別器による前記識別サンプルの前記クラス分類の結果の各々を統合することにより、前記識別サンプルの前記クラス分類を行う判定手段と、
を備える、
識別システム。
An identification device, and an identification dictionary learning device according to any one of claims 1 to 7,
The identification dictionary learning device includes:
Further comprising the identification dictionary storage means,
The determining means adds the selected weak classifier to the identification dictionary,
The identification device includes:
Setting means for receiving an identification sample which is the data value;
Determining means for classifying the classification sample by integrating each of the classification results of the classification sample by the plurality of weak classifiers included in the identification dictionary;
Comprising
Identification system.
複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習し、
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算し、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加し、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う、
識別辞書学習方法。
A plurality of classifiers that perform classification that classifies data values belonging to any of a plurality of classes into any of the plurality of classes, and learning using a plurality of learning samples that are the data values,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class And calculating the optimization index for each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Adding to an identification dictionary which is a set of weak classifiers;
In response to the addition of the weak classifier, the optimization index coefficient is updated based on a rule.
Identification dictionary learning method.
コンピュータを、
複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習手段と、
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、
して動作させる識別辞書学習プログラム。
Computer
Learning means for learning a plurality of discriminators by using a plurality of learning samples that are the data values for classifying data values belonging to any of the plurality of classes into any of the plurality of classes. When,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class An index calculation means for calculating the optimization index of each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Determining means for adding to an identification dictionary which is a set of weak classifiers;
Coefficient updating means for updating the optimization index coefficient based on a rule in response to the addition of the weak classifier;
Identification dictionary learning program to be operated.
JP2014189099A 2014-09-17 2014-09-17 Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program Pending JP2016062249A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014189099A JP2016062249A (en) 2014-09-17 2014-09-17 Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014189099A JP2016062249A (en) 2014-09-17 2014-09-17 Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program

Publications (1)

Publication Number Publication Date
JP2016062249A true JP2016062249A (en) 2016-04-25

Family

ID=55796039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014189099A Pending JP2016062249A (en) 2014-09-17 2014-09-17 Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program

Country Status (1)

Country Link
JP (1) JP2016062249A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10482157B2 (en) 2017-01-17 2019-11-19 Fujitsu Limited Data compression apparatus and data compression method and storage medium
WO2021005653A1 (en) * 2019-07-05 2021-01-14 日本電気株式会社 Learning device, learning method, and recording medium
US10915799B2 (en) 2017-01-10 2021-02-09 Fujitsu Limited Image processing apparatus and image recognition apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10915799B2 (en) 2017-01-10 2021-02-09 Fujitsu Limited Image processing apparatus and image recognition apparatus
US10482157B2 (en) 2017-01-17 2019-11-19 Fujitsu Limited Data compression apparatus and data compression method and storage medium
WO2021005653A1 (en) * 2019-07-05 2021-01-14 日本電気株式会社 Learning device, learning method, and recording medium
JPWO2021005653A1 (en) * 2019-07-05 2021-01-14
JP7184195B2 (en) 2019-07-05 2022-12-06 日本電気株式会社 LEARNING DEVICE, LEARNING METHOD AND PROGRAM

Similar Documents

Publication Publication Date Title
US9002101B2 (en) Recognition device, recognition method, and computer program product
JP6897749B2 (en) Learning methods, learning systems, and learning programs
JP5570629B2 (en) Classifier learning method and apparatus, and processing apparatus
US7958070B2 (en) Parameter learning method, parameter learning apparatus, pattern classification method, and pattern classification apparatus
US10395136B2 (en) Image processing apparatus, image processing method, and recording medium
JP2020501238A (en) Face detection training method, apparatus and electronic equipment
WO2016037300A1 (en) Method and system for multi-class object detection
CN107633226B (en) Human body motion tracking feature processing method
JP5214716B2 (en) Identification device
JP2005284487A (en) Information processor and method, recording medium, and program
US9842279B2 (en) Data processing method for learning discriminator, and data processing apparatus therefor
JP2011013732A (en) Information processing apparatus, information processing method, and program
US20160335521A1 (en) Method and apparatus for generating, updating classifier, detecting objects and image processing device
US11295240B2 (en) Systems and methods for machine classification and learning that is robust to unknown inputs
JP4553044B2 (en) Group learning apparatus and method
CN110008844B (en) KCF long-term gesture tracking method fused with SLIC algorithm
Freytag et al. Labeling examples that matter: Relevance-based active learning with gaussian processes
US20190311258A1 (en) Data dependent model initialization
JP2017102906A (en) Information processing apparatus, information processing method, and program
CN110689044A (en) Target detection method and system combining relationship between targets
CN110827327B (en) Fusion-based long-term target tracking method
JP2016062249A (en) Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program
WO2015087148A1 (en) Classifying test data based on a maximum margin classifier
JP2017033175A (en) Image processing apparatus, image processing method, and program
KR101704736B1 (en) Apparatus and Method of Support Vector Machine Classifier Using Multistage Sub-Classifier