JP2011113360A - Object identification apparatus - Google Patents

Object identification apparatus Download PDF

Info

Publication number
JP2011113360A
JP2011113360A JP2009270049A JP2009270049A JP2011113360A JP 2011113360 A JP2011113360 A JP 2011113360A JP 2009270049 A JP2009270049 A JP 2009270049A JP 2009270049 A JP2009270049 A JP 2009270049A JP 2011113360 A JP2011113360 A JP 2011113360A
Authority
JP
Japan
Prior art keywords
partial
feature
combination
partial feature
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009270049A
Other languages
Japanese (ja)
Inventor
Hiroaki Shimizu
宏明 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009270049A priority Critical patent/JP2011113360A/en
Publication of JP2011113360A publication Critical patent/JP2011113360A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object identification apparatus that improves accuracy in identification. <P>SOLUTION: The object identification apparatus 1 is used for identifying objects to be identified form determined images. The object identification apparatus includes a partial feature evaluation value calculation unit 32, that evaluates feature amount of the decision images based on the partial features, calculates an evaluation value for each partial feature, and acquires weight of reliability associated with the partial features based on the evaluation value; a partial feature weight calculating unit 33 that calculates the total weight that is the total weight of acquired reliability; a unit 34 for calculating a combination pattern matching that calculates a combination matching degree that is the matching degree in the partial features whose evaluation value is determined as being a predetermined one or higher, and in the partial features related to the objects preliminarily learned to be identified; and an identified result decision unit 35 that determines the objects to be identified from the determined images, when the total weight is the predetermined value or larger, and the combined matching degree is the predetermined value or larger. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、物体識別装置に関するものである。   The present invention relates to an object identification device.

従来、識別対象物体を識別する装置として、画像情報を用いるものが知られている(例えば、特許文献1参照)。特許文献1に記載の物体識別装置は、アダブーストアルゴリズム(AdaBoost Algorithm)を採用し、判定画像の局所的な複数の部分特徴を評価することで、判定画像内の識別対象物体を識別する。具体的には、学習データ内の物体の部分特徴に基づいて物体検出に適した弱識別器を学習しながら複数個生成するとともに、生成した弱識別器それぞれを信頼度(識別対象物体らしさの度合い)で重み付けする。そして、判定画像を弱識別器で評価し、複数の弱識別器の評価結果を線形結合させて識別対象物体の識別を行う。   Conventionally, an apparatus that uses image information is known as an apparatus for identifying an object to be identified (see, for example, Patent Document 1). The object identification device described in Patent Literature 1 employs an AdaBoost Algorithm and evaluates a plurality of local partial features of a determination image, thereby identifying an identification target object in the determination image. Specifically, a plurality of weak classifiers suitable for object detection are generated while learning based on the partial features of the objects in the learning data, and each of the generated weak classifiers is represented with a reliability (degree of identification target object-like degree). ). Then, the determination image is evaluated by the weak classifier, and the identification target object is identified by linearly combining the evaluation results of the plurality of weak classifiers.

特開2008−140230号公報JP 2008-140230 A

ところで、アダブーストアルゴリズムを採用した従来の物体識別装置にあっては、部分特徴を検出した弱識別器に付与された重みの和が閾値を超えたか否かのみを判定することで、識別対象物体を識別している。このため、従来の物体識別装置にあっては、例えば、局所的な部分特徴のみが似ている他の物体を識別対象物体として識別したり、重みの和が閾値にわずかに足りない識別対象物体を識別できなかったりするおそれがある。   By the way, in the conventional object identification device adopting the AdaBoost algorithm, it is determined only whether the sum of the weights assigned to the weak classifier that has detected the partial feature exceeds the threshold, thereby identifying the object to be identified. Has been identified. For this reason, in the conventional object identification device, for example, another object having only similar local partial features is identified as an identification target object, or the identification target object whose sum of weights is slightly less than the threshold value May not be identified.

そこで、本発明はこのような技術課題を解決するためになされたものであって、識別精度の向上を図ることができる物体識別装置を提供することを目的とする。   Accordingly, the present invention has been made to solve such a technical problem, and an object thereof is to provide an object identification device capable of improving identification accuracy.

すなわち、本発明に係る物体識別装置は、学習画像を用いて予め学習された複数の部分特徴の特徴量及び前記部分特徴それぞれに関連付けされた信頼度の重みに基づいて、判定画像から識別対象物体を識別する物体識別装置であって、前記判定画像の特徴量を前記部分特徴の特徴量に基づいて評価し、前記部分特徴ごとの評価値を算出する評価値算出手段と、前記評価値に基づいて、前記部分特徴に関連付けされた信頼度の重みを取得する取得手段と、前記取得手段により取得された前記信頼度の重みの和である重み和を算出する重み和算出手段と、前記評価値が所定値以上であると判定された前記部分特徴の組合せと、予め学習された前記識別対象物体に係る前記部分特徴の組合せとの一致度である組合せ一致度を算出する一致度算出手段と、前記重み和が所定値以上、及び前記組合せ一致度が所定値以上の場合には、前記判定画像から前記識別対象物体を識別したと判定する識別結果判定手段と、を備えて構成される。   In other words, the object identification device according to the present invention can identify an object to be identified from a determination image based on feature amounts of a plurality of partial features learned in advance using a learning image and reliability weights associated with the partial features. An evaluation value calculating means for evaluating a feature amount of the determination image based on the feature amount of the partial feature and calculating an evaluation value for each partial feature, and based on the evaluation value Acquisition means for acquiring reliability weights associated with the partial features, weight sum calculation means for calculating a weight sum that is a sum of the reliability weights acquired by the acquisition means, and the evaluation value A degree of coincidence calculating means for calculating a degree of coincidence of matching between the combination of the partial features determined to be equal to or greater than a predetermined value and the combination of the partial features related to the identification target object learned in advance , The weight sum is equal to or higher than a predetermined value, and wherein when the combination coincidence degree is equal to or higher than the predetermined value, configured and a determining identification result determining means and identified the identification object from the determination image.

本発明に係る物体識別装置では、評価値算出手段により、判定画像の特徴量が部分特徴の特徴量に基づいて評価されて部分特徴ごとの評価値が算出され、取得手段により、評価値に基づいて部分特徴に関連付けされた信頼度の重みが取得され、重み和算出手段により、取得手段により取得された信頼度の重みの和である重み和が算出される。さらに、一致度算出手段により、評価値が所定値以上であると判定された部分特徴の組合せと、予め学習された識別対象物体に係る部分特徴の組合せとの一致度である組合せ一致度が算出される。そして、識別結果判定手段により、重み和が所定値以上、及び組合せ一致度が所定値以上の場合には、判定画像から識別対象物体を識別したと判定される。このように、部分特徴の重みの和による識別判定に加えて、部分特徴の組合せの一致度による識別判定を実施することができる。このため、例えば、識別対象物体とは別の物体の局所的な部分特徴のみが識別対象物体と似ていることにより重み和が所定値以上となった場合であっても、部分特徴の組合せの一致度を用いて別の物体を識別対象物体であると識別することを回避することが可能となる。よって、識別精度を向上させることができる。   In the object identification device according to the present invention, the evaluation value calculation unit evaluates the feature amount of the determination image based on the feature amount of the partial feature to calculate the evaluation value for each partial feature, and the acquisition unit calculates the evaluation value based on the evaluation value. Thus, the reliability weight associated with the partial feature is acquired, and the weight sum calculation means calculates a weight sum that is the sum of the reliability weights acquired by the acquisition means. Further, the degree of coincidence of the partial features determined to have an evaluation value equal to or greater than a predetermined value and the degree of coincidence between the combination of the partial features related to the identification target object learned in advance is calculated by the degree of coincidence calculation means. Is done. Then, when the sum of weights is equal to or greater than the predetermined value and the combination matching degree is equal to or greater than the predetermined value, it is determined by the identification result determination means that the identification target object has been identified from the determination image. Thus, in addition to the identification determination based on the sum of the weights of the partial features, the identification determination based on the matching degree of the partial feature combinations can be performed. For this reason, for example, even when the weight sum becomes a predetermined value or more because only the local partial feature of an object different from the identification target object is similar to the identification target object, It is possible to avoid identifying another object as an identification target object using the degree of coincidence. Therefore, identification accuracy can be improved.

ここで、前記一致度算出手段は、前記評価値が所定値以上であると判定された前記部分特徴のうち、予め学習された前記識別対象物体の前記部分特徴の組合せに含まれる前記部分特徴と特徴量が同一な前記部分特徴の数を一致数として算出し、当該組合せに含まれる前記部分特徴の数に対する前記一致数の割合を算出し、算出された前記割合に基づいて、前記組合せ一致度を算出することが好適である。   Here, the degree-of-match calculation means includes the partial features included in a combination of the partial features of the identification target object learned in advance among the partial features determined that the evaluation value is equal to or greater than a predetermined value. The number of the partial features having the same feature amount is calculated as the number of matches, the ratio of the number of matches to the number of the partial features included in the combination is calculated, and the combination matching degree is calculated based on the calculated ratio Is preferably calculated.

このように構成することで、予め学習された識別対象物体に係る部分特徴の組合せの中に、評価値が所定値以上であると判定された部分特徴と同一な部分特徴がどの程度含まれているかを示す割合を算出することができる。これにより、学習された部分特徴と一致すると評価された判定画像の部分特徴の組合せと、学習された識別対象物体の部分特徴の組合せとの一致度を評価することが可能となる。   With this configuration, the combination of partial features related to the identification target object learned in advance includes how many partial features are the same as the partial features determined to have an evaluation value equal to or greater than a predetermined value. It is possible to calculate a ratio indicating whether or not. Accordingly, it is possible to evaluate the degree of coincidence between the combination of the partial features of the determination image evaluated to match the learned partial features and the combination of the partial features of the learned identification target object.

あるいは、前記一致度算出手段は、前記評価値が所定値以上であると判定された前記識別対象物体の前記部分特徴のうち、予め学習された前記識別対象物体の前記部分特徴の組合せに含まれる前記部分特徴と特徴量が同一又は類似する前記部分特徴の数を一致数として算出し、当該組合せに含まれる前記部分特徴の数に対する前記一致数の割合を算出し、算出された前記割合に基づいて、前記組合せ一致度を算出することが好適である。   Alternatively, the degree-of-match calculation means is included in a combination of the partial features of the identification target object learned in advance among the partial features of the identification target object determined that the evaluation value is equal to or greater than a predetermined value. The number of the partial features having the same or similar feature quantity as the partial feature is calculated as the number of matches, the ratio of the number of matches to the number of the partial features included in the combination is calculated, and based on the calculated ratio It is preferable to calculate the combination matching degree.

このように構成することで、予め学習された識別対象物体に係る部分特徴の組合せの中に、評価値が所定値以上であると判定された部分特徴と同一又は類似する部分特徴がどの程度含まれているかを示す割合を算出することができる。これにより、評価値が所定値以上であると判定された部分特徴が、組合せの中に含まれる部分特徴とは同一ではないが類似する場合には、予め学習された識別対象物体に係る部分特徴の組合せの中に含まれるものとすることができる。一致するか否かの判定に幅を持たせることにより、学習された部分特徴と一致すると評価された判定画像の部分特徴の組合せと、学習された識別対象物体の部分特徴の組合せとの一致度を、誤差を含めて算出することが可能となる。よって、厳格な判定によって識別対象物体を未識別とすることを回避することができる。   With this configuration, the combination of partial features related to the identification target object learned in advance includes how much partial features are the same or similar to the partial features determined to have an evaluation value equal to or greater than a predetermined value. It is possible to calculate a ratio indicating whether or not As a result, when the partial feature determined to have an evaluation value equal to or greater than the predetermined value is not the same as the partial feature included in the combination but is similar, the partial feature related to the identification target object learned in advance Can be included in the combination. The degree of coincidence between the combination of the partial feature of the determination image evaluated to match the learned partial feature and the combination of the partial feature of the learned identification target object by providing a range for determining whether or not they match Can be calculated including an error. Therefore, it is possible to avoid making the identification target object unidentified by strict determination.

また、物体識別装置は、前記組合せ一致度に基づいて前記重み和を加減修正する重み和修正手段を備え、前記識別結果判定手段は、前記重み和修正手段により前記重み和が修正された場合には、前記重み和修正手段により修正された前記重み和が所定値以上、及び前記組合せ一致度が所定値以上の場合には、前記判定画像から前記識別対象物体を識別したと判定することが好適である。   In addition, the object identification device includes weight sum correction means for adding and subtracting the weight sum based on the combination matching degree, and the identification result determination means is configured when the weight sum is corrected by the weight sum correction means. Preferably, when the weight sum corrected by the weight sum correcting means is a predetermined value or more and the combination matching degree is a predetermined value or more, it is determined that the identification target object is identified from the determination image. It is.

このように構成することで、重み和修正手段により、組合せ一致度に基づいて重み和が加減修正することができるとともに、修正された重み和を用いて識別判定を行うことが可能となる。これにより、例えば、重みの和が閾値にわずかに足りない識別対象物体を識別できないことを回避することが可能となる。よって、識別精度を向上させることができる。   With this configuration, the weight sum correction means can adjust the weight sum based on the combination matching degree, and can also perform identification determination using the corrected weight sum. Thereby, for example, it is possible to avoid that an identification target object whose sum of weights is slightly less than the threshold value cannot be identified. Therefore, identification accuracy can be improved.

さらに、前記部分特徴の特徴量は、形状、位置及び大きさの少なくとも1つを含んでもよい。   Furthermore, the feature amount of the partial feature may include at least one of a shape, a position, and a size.

本発明によれば、識別精度の向上を図ることができる。   According to the present invention, it is possible to improve the identification accuracy.

実施形態に係る物体識別装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object identification apparatus which concerns on embodiment. 第1実施形態に係る物体識別装置が抽出する部分特徴を説明するための概要図である。It is a schematic diagram for demonstrating the partial feature which the object identification device which concerns on 1st Embodiment extracts. 第1実施形態に係る物体識別装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the object identification device which concerns on 1st Embodiment. 第1実施形態に係る物体識別装置の動作を説明するための概要図である。It is a schematic diagram for demonstrating operation | movement of the object identification device which concerns on 1st Embodiment. 第1実施形態に係る物体識別装置の組合せ学習動作を示すフローチャートである。It is a flowchart which shows the combination learning operation | movement of the object identification device which concerns on 1st Embodiment. 第1実施形態に係る物体識別装置の学習動作を説明するための概要図である。It is a schematic diagram for demonstrating learning operation | movement of the object identification device which concerns on 1st Embodiment. 第1実施形態に係る物体識別装置の組合せ一致度算出動作を示すフローチャートである。It is a flowchart which shows combination combination degree calculation operation | movement of the object identification device which concerns on 1st Embodiment. 第1実施形態に係る物体識別装置の識別判定動作を示すフローチャートである。It is a flowchart which shows the identification determination operation | movement of the object identification device which concerns on 1st Embodiment. 第2実施形態に係る物体識別装置の組合せ一致度算出動作を示すフローチャートである。It is a flowchart which shows combination matching degree calculation operation | movement of the object identification device which concerns on 2nd Embodiment. 第3実施形態に係る物体識別装置の識別判定動作を示すフローチャートである。It is a flowchart which shows the identification determination operation | movement of the object identification device which concerns on 3rd Embodiment.

以下、添付図面を参照して本発明の実施形態について説明する。なお、各図において同一又は相当部分には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in each figure, the same code | symbol is attached | subjected to the same or an equivalent part, and the overlapping description is abbreviate | omitted.

(第1実施形態)
本実施形態に係る物体識別装置は、学習画像を学習した結果に基づいて、判定画像内に含まれる物体を識別する装置であって、例えば、車両の運転支援等に好適に採用されるものである。
(First embodiment)
The object identification device according to the present embodiment is a device that identifies an object included in a determination image based on a result of learning a learning image, and is suitably used for driving assistance of a vehicle, for example. is there.

最初に、本実施形態に係る物体識別装置の構成を説明する。図1は、本実施形態に係る物体識別装置の構成を示すブロック図である。図1に示すように、物体識別装置1は、記録装置2及び演算装置3を備えている。   First, the configuration of the object identification device according to the present embodiment will be described. FIG. 1 is a block diagram showing the configuration of the object identification device according to the present embodiment. As shown in FIG. 1, the object identification device 1 includes a recording device 2 and an arithmetic device 3.

記録装置2は、情報を記録する装置であって、演算装置3により読み書き可能に構成されている。記録装置2として、例えばHDD(Hard Disk Drive)が用いられる。この記録装置2は、学習画像保存部20、部分特徴モデル保存部21及び組合せパターン保存部22を備えている。   The recording device 2 is a device for recording information, and is configured to be readable and writable by the arithmetic device 3. For example, an HDD (Hard Disk Drive) is used as the recording device 2. The recording device 2 includes a learning image storage unit 20, a partial feature model storage unit 21, and a combination pattern storage unit 22.

学習画像保存部20には、演算装置3が識別対象物体を識別するために学習する学習画像が複数保存されている。学習画像としては、識別の対象となる識別対象物体が含まれる画像のみならず、識別対象物体が含まれない画像も用いられる。また、部分特徴モデル保存部21には、演算装置3が学習により取得した部分特徴の特徴量が複数保存されている。部分特徴とは、画像の一部を構成する部分画像であって、例えば識別対象物体が人間であれば頭、手、足等の人であるという識別性を発揮する部分的な特徴を示すものである。特徴量とは、特徴を評価するための評価値であって部分特徴の画像情報に基づいて算出されるものである。例えば、Haarウェーブレット(Haar wavelets)の特徴量が用いられ、詳細については後述する。また、組合せパターン保存部22には、演算装置3により学習された部分特徴組合せパターンが複数保存されている。部分特徴組合せパターンは、識別対象物体に係る複数の部分特徴の組合せであり、詳細については後述する。   The learning image storage unit 20 stores a plurality of learning images that the arithmetic device 3 learns to identify the identification target object. As the learning image, not only an image including an identification target object to be identified but also an image including no identification target object is used. The partial feature model storage unit 21 stores a plurality of feature amounts of partial features acquired by the arithmetic device 3 through learning. A partial feature is a partial image that constitutes a part of an image, and indicates a partial feature that exhibits distinctiveness such as a person such as a head, hand, or foot if the object to be identified is a human being, for example. It is. The feature amount is an evaluation value for evaluating the feature and is calculated based on the image information of the partial feature. For example, feature values of Haar wavelets are used, and details will be described later. The combination pattern storage unit 22 stores a plurality of partial feature combination patterns learned by the arithmetic device 3. The partial feature combination pattern is a combination of a plurality of partial features related to the identification target object, and details will be described later.

演算装置3は、演算処理を行う装置であって、記録装置2、判定画像を入力する判定画像入力部4、判定結果を表示する判定結果表示部5に接続されている。演算装置3として、例えばECU(Electronic Control Unit)が用いられる。ECUは、電子制御するコンピュータであり、CPU(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random AccessMemory)等のメモリ、及び入出力インターフェイスなどを備えて構成されている。なお、判定画像入力部4として、例えばCCD(Charge CoupledDevice)カメラ等の撮像装置、判定結果表示部5として、例えばディスプレイ等の表示装置が用いられる。   The arithmetic device 3 is a device that performs arithmetic processing, and is connected to a recording device 2, a determination image input unit 4 that inputs a determination image, and a determination result display unit 5 that displays a determination result. For example, an ECU (Electronic Control Unit) is used as the arithmetic device 3. The ECU is a computer that is electronically controlled and includes a CPU (Central Processing Unit), a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory), an input / output interface, and the like. Note that an imaging device such as a CCD (Charge Coupled Device) camera, for example, is used as the determination image input unit 4, and a display device such as a display is used as the determination result display unit 5, for example.

演算装置3は、部分特徴学習部30、組合せパターン学習部31、部分特徴評価値算出部(評価値算出手段、取得手段)32、部分特徴重み和算出部(重み和算出手段)33、組合せパターン一致度算出部(一致度算出手段)34及び識別結果判定部(識別結果判定手段)35を備えている。   The arithmetic device 3 includes a partial feature learning unit 30, a combination pattern learning unit 31, a partial feature evaluation value calculation unit (evaluation value calculation unit, acquisition unit) 32, a partial feature weight sum calculation unit (weight sum calculation unit) 33, a combination pattern A coincidence calculation unit (coincidence calculation unit) 34 and an identification result determination unit (identification result determination unit) 35 are provided.

部分特徴学習部30は、学習画像の部分特徴を学習する機能を有している。部分特徴学習部30は、学習画像保存部20に保存された学習画像を参照し、学習画像の部分特徴を学習する。例えば、部分特徴学習部30は、アダブーストアルゴリズムを用いて学習する。アダブーストアルゴリズムは、逐次的に例題に関する信頼度の重みを変化させながら異なる弱識別器を生成し、それらを組合せて高精度な識別器を構成する学習アルゴリズムである。部分特徴学習部30は、数種類のフィルタを用いてHaarウェーブレットの特徴量を学習画像から取得する。図2(a)は、特徴量を抽出するフィルタF1〜F4の例である。図2(a)に示すように、フィルタF1,F2は、エッジ部に現れる特徴を抽出するものであり、フィルタF3,F4は、線部に現れる特徴を抽出するものである。フィルタF1〜F4は、±1の2値矩形フィルタであり、+1の白領域内の画素値(輝度値)の和から−1の黒領域内の画素値の和を減じた値を特徴量の評価値として算出する。また、フィルタF1〜F4は、任意の位置及び大きさに変更され、学習画像から適切に部分特徴を抽出する。すなわち抽出された部分特徴は、位置、大きさ及び形状の情報を含む特徴量で表現される。図2(b)は、画像G1内の部分特徴の位置及び大きさを説明する概要図である。図2(b)に示すように、部分特徴の位置は、例えば学習画像G1の左上を基準としたフィルタの左上の位置(u1,v1)によって表現される。また、部分特徴の大きさは、領域の横及び縦の長さ(W1,H1)によって部分特徴の大きさが表現される。さらに、形状については、例えばフィルタF1〜F4で示す形状パターンで表現される。このように、部分特徴は、位置、大きさ及び形状で表現され、評価値で評価される。   The partial feature learning unit 30 has a function of learning partial features of a learning image. The partial feature learning unit 30 refers to the learning image stored in the learning image storage unit 20 and learns the partial feature of the learning image. For example, the partial feature learning unit 30 learns using the Adaboost algorithm. The Adaboost algorithm is a learning algorithm that generates different weak classifiers while sequentially changing the weights of reliability regarding examples and combines them to form a high-precision classifier. The partial feature learning unit 30 acquires the feature amount of the Haar wavelet from the learning image using several types of filters. FIG. 2A is an example of the filters F1 to F4 that extract feature amounts. As shown in FIG. 2A, the filters F1 and F2 extract features that appear in the edge portion, and the filters F3 and F4 extract features that appear in the line portion. Filters F1 to F4 are binary rectangular filters of ± 1, and a value obtained by subtracting the sum of pixel values in a black region of −1 from the sum of pixel values (luminance values) in a white region of +1 Calculated as an evaluation value. The filters F1 to F4 are changed to arbitrary positions and sizes, and appropriately extract partial features from the learning image. In other words, the extracted partial features are expressed by feature amounts including information on position, size, and shape. FIG. 2B is a schematic diagram for explaining the positions and sizes of the partial features in the image G1. As shown in FIG. 2B, the position of the partial feature is expressed by, for example, the upper left position (u1, v1) of the filter with the upper left of the learning image G1 as a reference. The size of the partial feature is expressed by the horizontal and vertical lengths (W1, H1) of the region. Further, the shape is expressed by a shape pattern indicated by the filters F1 to F4, for example. As described above, the partial feature is expressed by the position, size, and shape, and is evaluated by the evaluation value.

部分特徴学習部30は、図2(c)に示すように、複数のフィルタを用いて、学習画像G1に含まれる部分特徴を複数個抽出する。なお、図2(c)は、識別対象物体を人とした場合の学習画像の一例であり、点線で囲む部分特徴A〜Hが検出されていることを示している。そして、部分特徴学習部30は、抽出した部分特徴ごとに弱識別器を用意する。この弱識別器は、後述する部分特徴評価値算出部32に用いられる識別器であって、例えば、部分特徴の位置、大きさ、形状に対応した判定画像の領域において、上述した評価値を算出して、判定画像内に学習画像の部分特徴に対応する特徴が存在するか否かを判定する機能を有している。   As illustrated in FIG. 2C, the partial feature learning unit 30 extracts a plurality of partial features included in the learning image G1 using a plurality of filters. Note that FIG. 2C is an example of a learning image when the identification target object is a person, and shows that partial features A to H surrounded by dotted lines are detected. Then, the partial feature learning unit 30 prepares a weak classifier for each extracted partial feature. This weak classifier is a classifier used in the partial feature evaluation value calculation unit 32 described later. For example, the above-described evaluation value is calculated in the determination image region corresponding to the position, size, and shape of the partial feature. Thus, the determination image has a function of determining whether or not a feature corresponding to the partial feature of the learning image exists.

部分特徴学習部30は、多数の学習画像を入力して、識別対象物体の識別に有効な弱識別器を学習する機能を有している。具体的には、部分特徴学習部30は、識別対象物体に共通する部分特徴を学習することで、識別対象物体の識別に最適な弱識別器を複数個選択する。その際、選択した弱識別器ごとに、識別に必要な所定値を設定するとともに、エラー値や画像の重み等に基づいて弱識別器の重みを算出して弱識別器ごとに関連付けする。この重みは、弱識別器の識別の信頼度を示すものであるとともに、当該弱識別器と対応する部分特徴の信頼度を示すものである。すなわち、この重みは、部分特徴に関連付けされているともいえる。そして、部分特徴学習部30は、識別に用いる部分特徴、関連付けされた重み及び弱識別器を、部分特徴モデルとして部分特徴モデル保存部21に保存する。   The partial feature learning unit 30 has a function of inputting a large number of learning images and learning a weak classifier that is effective in identifying a classification target object. Specifically, the partial feature learning unit 30 selects a plurality of weak classifiers that are optimal for identifying the identification target object by learning partial features common to the identification target object. At this time, a predetermined value necessary for identification is set for each selected weak classifier, and the weight of the weak classifier is calculated based on the error value, the weight of the image, and the like, and is associated with each weak classifier. This weight indicates the reliability of identification of the weak classifier and also indicates the reliability of the partial feature corresponding to the weak classifier. That is, it can be said that this weight is associated with the partial feature. Then, the partial feature learning unit 30 stores the partial feature used for identification, the associated weight and the weak classifier in the partial feature model storage unit 21 as a partial feature model.

組合せパターン学習部31は、識別対象物体の複数の部分特徴の組合せを学習する機能を有している。組合せパターン学習部31は、学習画像保存部20に保存された学習画像、及び部分特徴モデル保存部21に保存された部分特徴モデルを参照し、識別対象物体の複数の部分特徴の組合せを学習する。例えば、組合せパターン学習部31は、部分特徴学習部30により学習された識別に用いる部分特徴を部分特徴モデル保存部21から取得し、識別対象物体が含まれる学習画像に適用する。そして、当該学習画像において部分特徴に対応する特徴が存在すると判定した複数の部分特徴の組合せを、部分特徴組合せパターンとして出力する。部分特徴に対応する特徴が存在するか否かの判定は、学習された部分特徴の位置、大きさ及び形状に対応した当該学習画像の領域において上述した特徴量の評価値を算出し、算出した評価値を用いて判定される。この処理を複数の学習画像において実行することにより、複数の部分特徴組合せパターンを出力する。組合せパターン学習部31は、学習した部分特徴組合せパターンを組合せパターン保存部22に保存する。   The combination pattern learning unit 31 has a function of learning a combination of a plurality of partial features of the identification target object. The combination pattern learning unit 31 refers to the learning image stored in the learning image storage unit 20 and the partial feature model stored in the partial feature model storage unit 21, and learns a combination of a plurality of partial features of the identification target object. . For example, the combination pattern learning unit 31 acquires the partial feature used for identification learned by the partial feature learning unit 30 from the partial feature model storage unit 21 and applies it to the learning image including the identification target object. Then, a combination of a plurality of partial features determined to have a feature corresponding to the partial feature in the learning image is output as a partial feature combination pattern. Whether or not a feature corresponding to the partial feature exists is determined by calculating the evaluation value of the feature amount described above in the region of the learned image corresponding to the position, size, and shape of the learned partial feature. It is determined using the evaluation value. By executing this process on a plurality of learning images, a plurality of partial feature combination patterns are output. The combination pattern learning unit 31 stores the learned partial feature combination pattern in the combination pattern storage unit 22.

部分特徴評価値算出部32は、判定画像に識別対象物体が存在するか否か、弱識別器を用いて判定する機能を有している。部分特徴評価値算出部32は、判定画像入力部4が入力した判定画像に対して、部分特徴モデル保存部21に保存した弱識別器の全てを適用する。具体的には、部分特徴評価値算出部32は、学習された部分特徴の位置、大きさ及び形状に対応した判定画像の領域において、上述した特徴量の評価値を算出する。そして、部分特徴学習部30により弱識別器ごとに設定された所定値と比較して、判定画像内に学習画像の部分特徴に対応する特徴が存在するか否かを判定する。また、判定に用いた弱識別器に関連付けされた重みを部分特徴モデル保存部21から取得する。弱識別器は、判定画像内に学習画像の部分特徴に対応する特徴が存在すると判定した場合には1、判定画像内に学習画像の部分特徴に対応する特徴が存在しないと判定した場合には0を出力する機能を有している。部分特徴評価値算出部32は、弱識別器の出力値と当該弱識別器に関連付けされた重みとを積算し、積算値を出力する機能を有している。   The partial feature evaluation value calculation unit 32 has a function of determining whether or not an identification target object exists in the determination image using a weak classifier. The partial feature evaluation value calculation unit 32 applies all weak classifiers stored in the partial feature model storage unit 21 to the determination image input by the determination image input unit 4. Specifically, the partial feature evaluation value calculation unit 32 calculates the evaluation value of the feature amount described above in the determination image region corresponding to the learned position, size, and shape of the partial feature. Then, it is compared with a predetermined value set for each weak classifier by the partial feature learning unit 30 to determine whether or not a feature corresponding to the partial feature of the learning image exists in the determination image. The weight associated with the weak classifier used for the determination is acquired from the partial feature model storage unit 21. The weak classifier is 1 when it is determined that the feature corresponding to the partial feature of the learning image exists in the determination image, and when it is determined that the feature corresponding to the partial feature of the learning image does not exist in the determination image. It has a function of outputting 0. The partial feature evaluation value calculation unit 32 has a function of integrating the output value of the weak classifier and the weight associated with the weak classifier and outputting the integrated value.

部分特徴重み和算出部33は、部分特徴評価値算出部32により算出された積算値を加算して重み和として出力する機能を有している。   The partial feature weight sum calculation unit 33 has a function of adding the integrated values calculated by the partial feature evaluation value calculation unit 32 and outputting the sum as a weight sum.

組合せパターン一致度算出部34は、判定画像を用いて抽出された部分特徴パターンと、学習した識別対象物体の部分特徴パターンとの一致度を算出する機能を有している。組合せパターン一致度算出部34は、組合せパターン保存部22に保存された部分特徴組合せパターン、及び、部分特徴評価値算出部32により判定画像内に存在すると判定された部分特徴すなわち評価値が所定値以上であると判定された部分特徴を用いて、組合せパターンの一致度を算出する。例えば、組合せパターン一致度算出部34は、学習した部分特徴組合せパターンの1つを選択し、選択された部分特徴組合せパターンに含まれる部分特徴の特徴量の全てと、判定画像を用いて抽出された部分特徴の特徴量の全てとを比較して一致するか否かを判定する。これにより、部分特徴組合せパターンにおいて、判定画像を用いて抽出された部分特徴が占める割合(一致割合)を算出する。この一致割合が、組合せパターン一致度となる。そして、学習済みの部分特徴組合せパターンの全てに同一の処理を繰り返し、学習済みの部分特徴組合せパターンのうち最大となる一致割合を出力する。   The combination pattern coincidence degree calculation unit 34 has a function of calculating the degree of coincidence between the partial feature pattern extracted using the determination image and the learned partial feature pattern of the identification target object. The combination pattern coincidence calculation unit 34 is configured so that the partial feature combination pattern stored in the combination pattern storage unit 22 and the partial feature determined by the partial feature evaluation value calculation unit 32 to be present in the determination image, that is, the evaluation value are predetermined values. Using the partial features determined as above, the matching degree of the combination pattern is calculated. For example, the combination pattern matching degree calculation unit 34 selects one of the learned partial feature combination patterns, and is extracted using all of the feature amounts of the partial features included in the selected partial feature combination pattern and the determination image. All the feature values of the partial features are compared to determine whether or not they match. Thereby, in the partial feature combination pattern, the ratio (matching ratio) occupied by the partial features extracted using the determination image is calculated. This matching ratio is the combination pattern matching degree. Then, the same processing is repeated for all of the learned partial feature combination patterns, and the maximum matching ratio among the learned partial feature combination patterns is output.

識別結果判定部35は、判定画像から識別対象物体を識別することができたか否かを判定する機能を有している。識別結果判定部35は、部分特徴重み和算出部33の識別結果である重み和、及び、組合せパターン一致度算出部34の識別結果である一致割合を用いて判定する。識別結果判定部35は、例えば、重み和が所定値より小さい場合、あるいは、一致割合が所定値より小さい場合には、識別対象物体を識別していないと判定する。一方、識別結果判定部35は、例えば、重み和が所定値以上の場合、かつ、一致割合が所定値以上の場合には、識別対象物体を識別したと判定する。そして、識別結果判定部35は、判定結果を判定結果表示部5に出力する。判定結果表示部5は、出力に応じて判定結果を表示する。   The identification result determination unit 35 has a function of determining whether or not the identification target object can be identified from the determination image. The identification result determination unit 35 performs determination using the weight sum that is the identification result of the partial feature weight sum calculation unit 33 and the matching ratio that is the identification result of the combination pattern matching degree calculation unit 34. For example, when the weight sum is smaller than a predetermined value or when the matching ratio is smaller than the predetermined value, the identification result determination unit 35 determines that the identification target object is not identified. On the other hand, for example, when the sum of weights is equal to or greater than a predetermined value and the matching ratio is equal to or greater than a predetermined value, the identification result determination unit 35 determines that the identification target object has been identified. Then, the identification result determination unit 35 outputs the determination result to the determination result display unit 5. The determination result display unit 5 displays the determination result according to the output.

次に、本実施形態に係る物体識別装置1の動作について説明する。図3は、本実施形態に係る物体識別装置1の重み和を算出する動作を示すフローチャートである。図3に示す制御処理は、例えば、判定画像を入力したタイミングで開始される。   Next, the operation of the object identification device 1 according to this embodiment will be described. FIG. 3 is a flowchart showing an operation of calculating the weight sum of the object identification device 1 according to the present embodiment. The control process shown in FIG. 3 is started at the timing when the determination image is input, for example.

図3に示すように、最初に、学習済みの部分特徴モデルの読込処理を実行する(S10)。S10の処理では、部分特徴評価値算出部32が学習済みの部分特徴モデルを入力する。部分特徴評価値算出部32は、部分特徴モデル保存部21を参照して、学習済みの弱識別器及び弱識別器に関連付けされた重みを入力する。例えば、図2(c)に示す部分特徴A〜Hに対応した弱識別器及び重みを入力する。S10の処理が終了すると、選択処理へ移行する(S12)。   As shown in FIG. 3, first, a learned partial feature model is read (S10). In the process of S10, the partial feature evaluation value calculation unit 32 inputs a learned partial feature model. The partial feature evaluation value calculation unit 32 refers to the partial feature model storage unit 21 and inputs a learned weak classifier and a weight associated with the weak classifier. For example, weak classifiers and weights corresponding to the partial features A to H shown in FIG. When the process of S10 ends, the process proceeds to a selection process (S12).

S12の処理では、部分特徴評価値算出部32が判定画像と比較する部分特徴を選択する。部分特徴評価値算出部32は、S10の処理で入力された弱識別器の中から評価する弱識別器を任意に1つ選択する。S12の処理が終了すると、評価値算出処理へ移行する(S14)。   In the process of S12, the partial feature evaluation value calculation unit 32 selects a partial feature to be compared with the determination image. The partial feature evaluation value calculation unit 32 arbitrarily selects one weak classifier to be evaluated from the weak classifiers input in the process of S10. When the process of S12 ends, the process proceeds to an evaluation value calculation process (S14).

S14の処理では、部分特徴評価値算出部32が判定画像の評価値を算出する。部分特徴評価値算出部32は、S12の処理で選択された弱識別器を判定画像に当てはめて、部分特徴の位置、大きさ、形状に対応した判定画像の領域において、+1の白領域内の画素値の和から−1の黒領域内の画素値の和を減じた値を特徴量の評価値として算出する。例えば、図4(a)に示す判定画像1を入力したとする。部分特徴評価値算出部32は、S12の処理で選択された弱識別器を判定画像1に当てはめて、当該弱識別器に係る部分特徴と対応する領域において評価値を算出する。S14の処理が終了すると、重み決定処理へ移行する(S16)。   In the process of S14, the partial feature evaluation value calculation unit 32 calculates the evaluation value of the determination image. The partial feature evaluation value calculation unit 32 applies the weak classifier selected in the process of S12 to the determination image, and in the determination image region corresponding to the position, size, and shape of the partial feature, the partial feature evaluation value calculation unit 32 A value obtained by subtracting the sum of the pixel values in the black region of −1 from the sum of the pixel values is calculated as the evaluation value of the feature amount. For example, it is assumed that the determination image 1 shown in FIG. The partial feature evaluation value calculation unit 32 applies the weak classifier selected in the process of S12 to the determination image 1, and calculates an evaluation value in an area corresponding to the partial feature related to the weak classifier. When the process of S14 ends, the process proceeds to a weight determination process (S16).

S16の処理では、部分特徴評価値算出部32が加算する重みを決定する。部分特徴評価値算出部32は、S14の処理で算出された評価値とS14の処理で用いた弱識別器に事前に設定された所定値とを比較する。S14の処理で算出された評価値の方が、S14の処理で用いた弱識別器に事前に設定された所定値よりも大きい場合には、弱識別器の機能により1が出力される。他方、S14の処理で算出された評価値の方が、S14の処理で用いた弱識別器に事前に設定された所定値以下の場合には、弱識別器の機能により0が出力される。部分特徴評価値算出部32は、S10の処理で入力された弱識別器に関連付けされた重みを参照し、弱識別器の出力値と当該弱識別器に関連付けされた重みとを積算し、積算値を加算する重みとして出力する。S16の処理が終了すると、完了判定処理へ移行する(S18)。   In the process of S16, the weight to be added by the partial feature evaluation value calculation unit 32 is determined. The partial feature evaluation value calculation unit 32 compares the evaluation value calculated in the process of S14 with a predetermined value set in advance in the weak classifier used in the process of S14. When the evaluation value calculated in the process of S14 is larger than a predetermined value set in advance in the weak classifier used in the process of S14, 1 is output by the function of the weak classifier. On the other hand, if the evaluation value calculated in the process of S14 is less than or equal to a predetermined value set in advance in the weak classifier used in the process of S14, 0 is output by the function of the weak classifier. The partial feature evaluation value calculation unit 32 refers to the weight associated with the weak classifier input in the process of S10, integrates the output value of the weak classifier and the weight associated with the weak classifier, and performs integration. Output as a weight to add values. When the process of S16 ends, the process proceeds to a completion determination process (S18).

S18の処理では、部分特徴評価値算出部32が全ての部分特徴について評価を行ったか否かを判定する。部分特徴評価値算出部32は、S10の処理で入力された全ての部分特徴A〜Hについて、S12〜S16の処理を実行したか否かを判定する。S18の処理において、全ての部分特徴について評価を行っていないと判定した場合には、選択処理へ再度移行する(S12)。このように、全ての部分特徴について評価を行うまで、S12〜S18の処理を繰り返し実行する。一方、S18の処理において、全ての部分特徴について評価が完了したと判定した場合には、加算処理へ移行する(S20)。   In the processing of S18, it is determined whether or not the partial feature evaluation value calculation unit 32 has evaluated all the partial features. The partial feature evaluation value calculation unit 32 determines whether or not the processing of S12 to S16 has been executed for all the partial features A to H input in the processing of S10. If it is determined in the process of S18 that all partial features have not been evaluated, the process proceeds to the selection process again (S12). In this way, the processes of S12 to S18 are repeatedly executed until all partial features are evaluated. On the other hand, if it is determined in the process of S18 that the evaluation has been completed for all the partial features, the process proceeds to an addition process (S20).

S20の処理では、部分特徴重み和算出部33が重み和を算出する。部分特徴重み和算出部33は、S16の処理で算出された重みを全て加算する。S20の処理が終了すると、図3に示す制御処理を終了する。以上で図3に示す制御処理を終了する。図3に示す制御処理を実行することにより、学習画像を用いて学習された全ての部分特徴を用いて判定画像を評価した重み和が算出される。   In the process of S20, the partial feature weight sum calculation unit 33 calculates the weight sum. The partial feature weight sum calculation unit 33 adds all the weights calculated in the process of S16. When the process of S20 ends, the control process shown in FIG. 3 ends. Thus, the control process shown in FIG. 3 is finished. By executing the control process shown in FIG. 3, a weight sum obtained by evaluating the determination image using all the partial features learned using the learning image is calculated.

次に、本実施形態に係る物体識別装置1の部分特徴組合せパターンの学習動作について説明する。図5は、本実施形態に係る物体識別装置1の部分特徴組合せパターンの学習動作を示すフローチャートである。図5に示す制御処理は、例えば、図3に示す制御処理終了後に開始される。   Next, the learning operation of the partial feature combination pattern of the object identification device 1 according to the present embodiment will be described. FIG. 5 is a flowchart showing the learning operation of the partial feature combination pattern of the object identification device 1 according to this embodiment. The control process shown in FIG. 5 is started after the end of the control process shown in FIG. 3, for example.

図5に示すように、最初に、学習画像の読込処理を実行する(S30)。S30の処理では、組合せパターン学習部31が学習画像を入力する。組合せパターン学習部31は、学習画像保存部20を参照して学習画像を複数入力する。この学習画像は、識別対象物体が撮像されたものを用いる。例えば、図6に示す学習画像Gn(n:自然数)を入力する。S30の処理が終了すると、部分特徴読込処理へ移行する(S32)。   As shown in FIG. 5, first, a learning image reading process is executed (S30). In the process of S30, the combination pattern learning unit 31 inputs a learning image. The combination pattern learning unit 31 inputs a plurality of learning images with reference to the learning image storage unit 20. As the learning image, an image obtained by capturing an object to be identified is used. For example, the learning image Gn (n: natural number) shown in FIG. 6 is input. When the processing of S30 ends, the process proceeds to partial feature reading processing (S32).

S32の処理では、組合せパターン学習部31が学習済みの部分特徴モデルを入力する。組合せパターン学習部31は、部分特徴モデル保存部21を参照して、学習済みの弱識別器を入力する。S32の処理が終了すると、選択処理へ移行する(S34)。   In the process of S32, the combination pattern learning unit 31 inputs a learned partial feature model. The combination pattern learning unit 31 refers to the partial feature model storage unit 21 and inputs a learned weak classifier. When the process of S32 is completed, the process proceeds to a selection process (S34).

S34の処理では、組合せパターン学習部31が学習画像を選択する。組合せパターン学習部31は、S30の処理で入力された学習画像Gnの中から学習する学習画像を任意に1つ選択する。例えば、学習画像G1を選択する。S34の処理が終了すると、評価値算出処理へ移行する(S36)。   In the process of S34, the combination pattern learning unit 31 selects a learning image. The combination pattern learning unit 31 arbitrarily selects one learning image to be learned from the learning images Gn input in the process of S30. For example, the learning image G1 is selected. When the process of S34 ends, the process proceeds to an evaluation value calculation process (S36).

S36の処理では、組合せパターン学習部31が学習画像の評価値を算出する。組合せパターン学習部31は、S32の処理で選択された全ての弱識別器をS34の処理で選択した学習画像G1に当てはめる。そして、部分特徴の位置、大きさ及び形状に対応した学習画像G1の領域において、+1の白領域内の画素値の和から−1の黒領域内の画素値の和を減じた値を特徴量の評価値として算出する。S36の処理が終了すると、部分特徴選択処理へ移行する(S38)。   In the process of S36, the combination pattern learning unit 31 calculates the evaluation value of the learning image. The combination pattern learning unit 31 applies all weak classifiers selected in the process of S32 to the learning image G1 selected in the process of S34. Then, in the region of the learning image G1 corresponding to the position, size, and shape of the partial feature, a value obtained by subtracting the sum of the pixel values in the -1 black region from the sum of the pixel values in the +1 white region is a feature amount. Calculated as the evaluation value. When the processing of S36 ends, the process proceeds to partial feature selection processing (S38).

S38の処理では、組合せパターン学習部31が組合せパターンに含まれる部分特徴を選択する。組合せパターン学習部31は、S36の処理で算出された評価値と弱識別器に事前に設定された所定値とを比較する。S36の処理で算出された評価値の方が、弱識別器に事前に設定された所定値よりも大きい場合には、弱識別器の機能により1が出力される。他方、S36の処理で算出された評価値の方が、弱識別器に事前に設定された所定値以下の場合には、弱識別器の機能により0が出力される。組合せパターン学習部31は、弱識別器の出力値に基づいて、評価値が所定値より大きい部分特徴を全て選択する。例えば、学習画像G1において部分特徴A,B,C,Dに対応する弱識別器が1、その他の部分特徴に対応する弱識別器が0を出力したとする。この場合、組合せパターン学習部31は、部分特徴A,B,C,Dを選択する。S38の処理が終了すると、保存処理へ移行する(S40)。   In the process of S38, the combination pattern learning unit 31 selects a partial feature included in the combination pattern. The combination pattern learning unit 31 compares the evaluation value calculated in the process of S36 with a predetermined value set in advance in the weak classifier. When the evaluation value calculated in the process of S36 is larger than a predetermined value set in advance in the weak classifier, 1 is output by the function of the weak classifier. On the other hand, when the evaluation value calculated in the process of S36 is less than or equal to a predetermined value set in advance in the weak classifier, 0 is output by the function of the weak classifier. The combination pattern learning unit 31 selects all the partial features whose evaluation value is greater than a predetermined value based on the output value of the weak classifier. For example, assume that the weak classifier corresponding to partial features A, B, C, and D in the learning image G1 outputs 1 and the weak classifiers corresponding to other partial features output 0. In this case, the combination pattern learning unit 31 selects partial features A, B, C, and D. When the process of S38 is completed, the process proceeds to a storage process (S40).

S40の処理では、組合せパターン学習部31が組合せパターンに含まれる部分特徴を保存する。組合せパターン学習部31は、S38の処理で選択した部分特徴A,B,C,Dを部分特徴組合せパターンP1(A−B−C−D)として保存する。S40の処理が終了すると、完了判定処理へ移行する(S42)。   In the process of S40, the combination pattern learning unit 31 stores the partial features included in the combination pattern. The combination pattern learning unit 31 stores the partial features A, B, C, and D selected in the process of S38 as a partial feature combination pattern P1 (ABCDD). When the process of S40 ends, the process proceeds to a completion determination process (S42).

S42の処理では、組合せパターン学習部31が全ての学習画像について学習を行ったか否かを判定する。組合せパターン学習部31は、S30の処理で入力された全ての学習画像Gnについて、S34〜S40の処理を実行したか否かを判定する。S42の処理において、全ての学習画像について学習を行っていないと判定した場合には、選択処理へ再度移行する(S34)。このように、全ての学習画像Gnについて学習を行うまで、S34〜S42の処理を繰り返し実行する。一方、S42の処理において、全ての学習画像Gnについて学習が完了したと判定した場合には、図5に示す制御処理を終了する。以上で図5に示す制御処理を終了する。図5に示す制御処理を実行することにより、識別対象物体に係る複数の部分特徴の組合せが学習され、複数の部分特徴組合せパターンPn(n:自然数)が取得される。   In the process of S42, it is determined whether the combination pattern learning unit 31 has learned all the learning images. The combination pattern learning unit 31 determines whether or not the processes of S34 to S40 have been executed for all the learning images Gn input in the process of S30. If it is determined in step S42 that learning has not been performed for all learning images, the process proceeds to selection processing again (S34). As described above, the processes of S34 to S42 are repeatedly executed until learning is performed for all the learning images Gn. On the other hand, if it is determined in step S42 that learning has been completed for all learning images Gn, the control processing shown in FIG. 5 is terminated. This is the end of the control process shown in FIG. By executing the control process shown in FIG. 5, a combination of a plurality of partial features related to the identification target object is learned, and a plurality of partial feature combination patterns Pn (n: natural number) are acquired.

次に、本実施形態に係る物体識別装置1の部分特徴組合せパターンの比較動作について説明する。図7は、本実施形態に係る物体識別装置1の部分特徴組合せパターンの比較動作を示すフローチャートである。図7に示す制御処理は、例えば、図3,5に示す制御処理終了後に開始される。なお、説明理解の容易性を考慮して、図7では、図3における判定画像、図5における学習画像を用いて処理を実行するものとする。   Next, a comparison operation of partial feature combination patterns of the object identification device 1 according to the present embodiment will be described. FIG. 7 is a flowchart showing the comparison operation of the partial feature combination patterns of the object identification device 1 according to this embodiment. The control process shown in FIG. 7 is started after the control process shown in FIGS. In consideration of the ease of understanding the explanation, in FIG. 7, the process is executed using the determination image in FIG. 3 and the learning image in FIG.

図7に示すように、最初に、学習済みの部分特徴組合せパターンの読込処理を実行する(S50)。S50の処理では、組合せパターン一致度算出部34が学習済みの部分特徴組合せパターンを入力する。組合せパターン一致度算出部34は、組合せパターン保存部22を参照して、学習済みの部分特徴組合せパターンを入力する。例えば、図6に示す部分特徴組合せパターンPnを入力する。S50の処理が終了すると、選択処理へ移行する(S52)。   As shown in FIG. 7, first, a learned partial feature combination pattern reading process is executed (S50). In the process of S50, the combination pattern matching degree calculation unit 34 inputs a learned partial feature combination pattern. The combination pattern matching degree calculation unit 34 refers to the combination pattern storage unit 22 and inputs a learned partial feature combination pattern. For example, the partial feature combination pattern Pn shown in FIG. 6 is input. When the processing of S50 ends, the process proceeds to selection processing (S52).

S52の処理では、組合せパターン一致度算出部34が比較する部分特徴組合せパターンPnを選択する。組合せパターン一致度算出部34は、S50の処理で入力された部分特徴組合せパターンPnを任意に1つ選択する。S52の処理が終了すると、評価値算出処理へ移行する(S54)。   In the process of S52, the partial feature combination pattern Pn to be compared is selected by the combination pattern matching degree calculation unit 34. The combination pattern matching degree calculation unit 34 arbitrarily selects one partial feature combination pattern Pn input in the process of S50. When the process of S52 ends, the process proceeds to an evaluation value calculation process (S54).

S54の処理では、組合せパターン一致度算出部34が部分特徴組合せパターンの一致割合(組合せ一致度)を算出する。組合せパターン一致度算出部34は、図3のS14,16の処理で所定値よりも大きいと判定された部分特徴、すなわち判定画像に含まれていると判定された部分特徴を入力し、入力された部分特徴の特徴量と、S52の処理で選択された部分特徴組合せパターンPnに含まれる部分特徴の特徴量とが一致するか判定し、一致したと判定した部分特徴の数をカウントする。例えば、形状、位置及び大きさが同一であるか否かを判定する。一致した部分特徴の数をN、部分特徴組合せパターンに含まれる部分特徴の数をNとすると、一致割合Kは以下の式1を用いて算出される。

Figure 2011113360

例えば、S52の処理で図6に示す部分特徴組合せパターンP1(A−B−C−D)を入力したとし、判定画像で所定値よりも大きいと判定された部分特徴が部分特徴A,C,D,Gであるとする。この場合、式1を用いて、一致割合Kは0.75とされる。S54の処理が終了すると、完了判定処理へ移行する(S56)。 In the process of S54, the combination pattern matching degree calculation unit 34 calculates the matching ratio (combination matching degree) of the partial feature combination patterns. The combination pattern coincidence degree calculation unit 34 inputs and receives the partial features determined to be larger than the predetermined value in the processes of S14 and S16 in FIG. 3, that is, the partial features determined to be included in the determination image. It is determined whether the feature amount of the partial feature matches the feature amount of the partial feature included in the partial feature combination pattern Pn selected in the process of S52, and the number of partial features determined to match is counted. For example, it is determined whether the shape, position, and size are the same. When the number of matching partial features is N A and the number of partial features included in the partial feature combination pattern is N, the matching ratio K A is calculated using the following Equation 1.
Figure 2011113360

For example, if the partial feature combination pattern P1 (ABCD) shown in FIG. 6 is input in the process of S52, the partial features determined to be larger than a predetermined value in the determination image are the partial features A, C, Assume that D and G. In this case, using equation 1, match percentage K A is set to 0.75. When the processing of S54 ends, the process proceeds to completion determination processing (S56).

S56の処理では、組合せパターン一致度算出部34が全ての部分特徴組合せパターンについて評価を行ったか否かを判定する。組合せパターン一致度算出部34は、S50の処理で入力された全ての部分特徴組合せパターンPnについて、S52,S54の処理を実行したか否かを判定する。S56の処理において、全ての部分特徴組合せパターンについて評価を行っていないと判定した場合には、選択処理へ再度移行する(S52)。このように、全ての部分特徴組合せパターンについて評価を行うまで、S52〜S56の処理を繰り返し実行する。一方、S56の処理において、全ての部分特徴について評価が完了したと判定した場合には、一致割合決定処理へ移行する(S58)。   In the process of S56, it is determined whether the combination pattern matching degree calculation unit 34 has evaluated all the partial feature combination patterns. The combination pattern matching degree calculation unit 34 determines whether or not the processes of S52 and S54 have been executed for all the partial feature combination patterns Pn input in the process of S50. In the process of S56, when it is determined that all the partial feature combination patterns have not been evaluated, the process proceeds to the selection process again (S52). In this way, the processes of S52 to S56 are repeatedly executed until all partial feature combination patterns are evaluated. On the other hand, if it is determined in the process of S56 that the evaluation has been completed for all the partial features, the process proceeds to a matching ratio determination process (S58).

S58の処理では、組合せパターン一致度算出部34が全ての部分特徴組合せパターンのうち最も大きい一致割合を選択する。S58の処理が終了すると、図7に示す制御処理を終了する。以上で図7に示す制御処理を終了する。図7に示す制御処理を実行することにより、判定画像で識別対象物体の特徴部分と似ていると判定した部分特徴が、学習画像での識別対象物体の部分特徴の組合せにどの程度含まれているかを示す一致割合Kが算出される。これにより、判定画像に含まれる部分特徴の組合せが、学習した識別対象物体の組合せにどの程度一致するのかを評価することができる。 In the process of S58, the combination pattern matching degree calculation unit 34 selects the largest matching ratio among all the partial feature combination patterns. When the process of S58 ends, the control process shown in FIG. 7 ends. The control process shown in FIG. By executing the control process shown in FIG. 7, how many partial features determined to be similar to the characteristic portion of the identification target object in the determination image are included in the combination of partial features of the identification target object in the learning image A matching ratio KA indicating whether or not Thereby, it is possible to evaluate to what extent the combination of partial features included in the determination image matches the learned combination of identification target objects.

次に、本実施形態に係る物体識別装置1の識別判定動作について説明する。図8は、本実施形態に係る物体識別装置1の識別判定動作を示すフローチャートである。図8に示す制御処理は、例えば、図3,5,7に示す制御処理終了後に開始される。なお、説明理解の容易性を考慮して、図8では、図3における処理結果、図7における処理結果を用いて処理を実行するものとする。   Next, the identification determination operation of the object identification device 1 according to the present embodiment will be described. FIG. 8 is a flowchart showing the identification determination operation of the object identification device 1 according to the present embodiment. The control process shown in FIG. 8 is started after the control process shown in FIGS. In consideration of the ease of understanding the explanation, in FIG. 8, it is assumed that the processing is executed using the processing result in FIG. 3 and the processing result in FIG.

図8に示すように、最初に、重み和を用いた識別判定処理を実行する(S60)。S60の処理では、識別結果判定部35が図3に示す制御処理により算出された重み和を入力する。そして、識別結果判定部35は、重み和が所定値以上であるか否かを判定する。重み和が所定値以上であると判定した場合、識別対象物体である可能性があるとして、一致割合判定処理へ移行する(S62)。   As shown in FIG. 8, first, identification determination processing using a weight sum is executed (S60). In the process of S60, the identification result determination unit 35 inputs the weight sum calculated by the control process shown in FIG. And the identification result determination part 35 determines whether a weight sum is more than predetermined value. If it is determined that the sum of weights is equal to or greater than the predetermined value, it is determined that there is a possibility that the object is an identification target object, and the process proceeds to a match ratio determination process (S62).

S62の処理では、識別結果判定部35が図7に示す制御処理により算出された一致割合Kを入力する。そして、識別結果判定部35は、一致割合Kが所定値以上であるか否かを判定する。一致割合Kが所定値以上であると判定した場合、識別対象物体であると判定する(S64)。S64の処理が終了すると、図8に示す制御処理を終了する。 In the processing of S62, the identification result determining section 35 inputs the coincidence ratio K A calculated by the control process shown in FIG. The identification result determining section 35 matches the ratio K A is equal to or greater than a predetermined value. If a match percentage K A is equal to or more than the predetermined value, determines that the identification object (S64). When the process of S64 ends, the control process shown in FIG. 8 ends.

一方、S60の処理において、重み和が所定値より小さいと判定した場合、識別対象物体である可能性がないとして、識別対象物体でないと判定する(S66)。また、S62の処理において、一致割合Kが所定値より小さいと判定した場合、識別対象物体である可能性がないとして、識別対象物体でないと判定する(S66)。S66の処理が終了すると、図8に示す制御処理を終了する。 On the other hand, in the process of S60, when it is determined that the weight sum is smaller than the predetermined value, it is determined that the object is not the identification target object because there is no possibility of being the identification target object (S66). Further, it is determined in the process of S62, if the matching ratio K A is determined to be smaller than the predetermined value, as there is no possibility that the identification object, not the identification target object (S66). When the process of S66 ends, the control process shown in FIG. 8 ends.

以上で図8に示す制御処理を終了する。図8に示す制御処理を実行することにより、重み和を用いて識別対象物体の可能性が判定され、さらに、部分特徴組合せパターンに含まれる部分特徴との一致割合Kを用いて識別対象物体の可能性が判定される。このように2つの判定処理を実行することで識別精度を向上させることができる。 Thus, the control process shown in FIG. 8 ends. By executing the control process shown in FIG. 8, the possibility of the identification target object is determined using the weight sum, and further, the identification target object is determined using the matching ratio K A with the partial feature included in the partial feature combination pattern. Is determined. Thus, identification accuracy can be improved by performing two determination processes.

例えば、判定画像の部分特徴のみが識別対象物体と一致する場合を説明する。識別対象物体を人とすると、図4(b)に示す電柱及び背後に写る家屋の画像は、識別対象物体ではないと判定する必要がある。しかし、電柱及び背後に写る家屋等の配置によっては、特徴部分のみが一致する場合もある。この場合、重み和だけで判定した場合には、判定画像2において識別対象物体があると誤判定するおそれがある。   For example, a case where only the partial feature of the determination image matches the identification target object will be described. If the object to be identified is a person, it is necessary to determine that the utility pole shown in FIG. 4B and the image of the house in the back are not objects to be identified. However, depending on the arrangement of the utility pole and the house in the back, only the characteristic part may match. In this case, if it is determined only by the weight sum, there is a risk of erroneous determination that there is an identification target object in the determination image 2.

これに対して、本実施形態に係る物体識別装置1によれば、部分特徴評価値算出部32により、判定画像の特徴量が部分特徴の特徴量に基づいて評価されて部分特徴ごとの評価値が算出され、評価値に基づいて部分特徴に関連付けされた信頼度の重みが取得され、重み部分特徴重み和算出部33により、重みの和である重み和が算出される。さらに、組合せパターン一致度算出部34により、評価値が所定値以上であると判定された部分特徴の組合せと、予め学習された識別対象物体に係る部分特徴の組合せとの一致度である一致割合Kが算出される。そして、識別結果判定部35により、重み和が所定値以上、及び一致割合Kが所定値以上の場合には、判定画像から識別対象物体を識別したと判定される。このように、部分特徴の重みの和による識別判定に加えて、部分特徴の組合せの一致割合Kによる識別判定を実施することができる。このため、例えば、識別対象物体とは別の物体の局所的な部分特徴のみが識別対象物体と似ていることにより重み和が所定値以上となった場合であっても、部分特徴の組合せの一致割合Kを用いて別の物体を識別対象物体であると識別することを回避することが可能となる。すなわち、予め学習時に部分特徴の組合せを学習しておき、学習時とは異なる組合せで誤判定しそうな場合に、事前に学習した組合せとの一致割合Kに応じて判定結果を変更することができる。よって、識別精度を向上させることができる。 On the other hand, according to the object identification device 1 according to the present embodiment, the partial feature evaluation value calculation unit 32 evaluates the feature amount of the determination image based on the feature amount of the partial feature, and the evaluation value for each partial feature. Is calculated, the reliability weight associated with the partial feature is acquired based on the evaluation value, and the weighted partial feature weight sum calculation unit 33 calculates the weight sum that is the sum of the weights. Further, the combination pattern coincidence degree calculation unit 34 is a coincidence ratio that is the degree of coincidence between the combination of partial features determined to have an evaluation value equal to or greater than a predetermined value and the combination of partial features related to the identification target object learned in advance. K A is calculated. Then, the identification result determining section 35, the weighting sum is greater than a predetermined value, and if matching percentage K A is a predetermined value or more is determined to have identified the identification object from the determination image. Thus, in addition to the identification judgment by the sum of the weights of the partial feature can be implemented identification determination by matching the ratio K A combination of the partial features. For this reason, for example, even when the weight sum becomes a predetermined value or more because only the local partial feature of an object different from the identification target object is similar to the identification target object, it is possible to avoid be identified as being the identification target object to another object using the matching ratio K a. In other words, leave learning a combination of partial features advance the learning time, when the learning-time and likely erroneous determination in different combinations, to change the determination result according to the matching ratio K A of the combination learned beforehand it can. Therefore, identification accuracy can be improved.

また、本実施形態に係る物体識別装置1によれば、一致割合Kを算出することができるので、予め学習された識別対象物体に係る部分特徴の組合せの中に、評価値が所定値以上であると判定された部分特徴と同一な部分特徴がどの程度含まれているかを示す一致割合Kを算出することができる。これにより、学習された部分特徴と一致すると評価された判定画像の部分特徴の組合せと、学習された識別対象物体の部分特徴の組合せとの一致する度合いを評価することが可能となる。 Further, according to the object identification device 1 according to the present embodiment, it is possible to calculate the matching ratio K A, in the combination of the partial features of the pre-learned identified target object, the evaluation value is equal to or higher than a predetermined value it is possible to calculate the matching rate K a that indicates the determined partial feature identical parts characterized as being is included extent. Accordingly, it is possible to evaluate the degree of coincidence between the combination of the partial features of the determination image evaluated to match the learned partial features and the combination of the partial features of the learned identification target object.

(第2実施形態)
第2実施形態に係る物体識別装置は、第1実施形態に係る物体識別装置1とほぼ同様に構成されており、組合せパターン一致度算出部34の動作のみが相違する。よって、第2実施形態では第1実施形態との相違点を中心に説明し、重複する説明は省略する。
(Second Embodiment)
The object identification device according to the second embodiment is configured in substantially the same manner as the object identification device 1 according to the first embodiment, and only the operation of the combination pattern matching degree calculation unit 34 is different. Therefore, the second embodiment will be described with a focus on differences from the first embodiment, and a duplicate description will be omitted.

第2実施形態に係る物体識別装置の構成は、第1実施形態に係る物体識別装置1と同様である。また、第2実施形態に係る物体識別装置の動作は、図7に示す部分特徴組合せパターンの比較動作以外は同様である。   The configuration of the object identification device according to the second embodiment is the same as that of the object identification device 1 according to the first embodiment. The operation of the object identification device according to the second embodiment is the same except for the partial feature combination pattern comparison operation shown in FIG.

第2実施形態に係る物体識別装置の部分特徴組合せパターンの比較動作を説明する。図9は、本実施形態に係る物体識別装置の部分特徴組合せパターンの比較動作を示すフローチャートである。図9に示す制御処理は、例えば、図3,5に示す制御処理終了後に開始される。なお、説明理解の容易性を考慮して、図9では、図3における判定画像、図5における学習画像を用いて処理を実行するものとする。   A comparison operation of partial feature combination patterns of the object identification device according to the second embodiment will be described. FIG. 9 is a flowchart showing a comparison operation of partial feature combination patterns of the object identification device according to the present embodiment. The control process shown in FIG. 9 is started after the control process shown in FIGS. In consideration of the ease of understanding the description, in FIG. 9, the process is executed using the determination image in FIG. 3 and the learning image in FIG.

図9に示すように、最初に、学習済みの部分特徴組合せパターンの読込処理を実行する(S70)。この処理は図7のS50の処理と同様である。S70の処理が終了すると、選択処理へ移行する(S72)。   As shown in FIG. 9, first, a learned partial feature combination pattern reading process is executed (S70). This process is the same as the process of S50 of FIG. When the processing of S70 ends, the process proceeds to selection processing (S72).

S72の処理では、組合せパターン一致度算出部34が比較する部分特徴組合せパターンPnを選択する。この処理は図7のS52の処理と同様である。S72の処理が終了すると、評価値算出処理へ移行する(S74)。   In the process of S72, the combination pattern matching degree calculation unit 34 selects a partial feature combination pattern Pn to be compared. This process is the same as the process of S52 of FIG. When the processing of S72 ends, the process proceeds to evaluation value calculation processing (S74).

S74の処理では、組合せパターン一致度算出部34が部分特徴組合せパターンの特徴量の一致度を算出する。組合せパターン一致度算出部34は、図3のS14,16の処理で所定値よりも大きいと判定された部分特徴、すなわち判定画像に含まれていると判定された部分特徴を入力する。そして、入力された部分特徴の特徴量と、S52の処理で選択された部分特徴組合せパターンPnに含まれる部分特徴の特徴量とが同一又は類似するか否かを判定するために、部分特徴の形状、位置及び大きさを評価する。   In the process of S74, the combination pattern matching degree calculation unit 34 calculates the matching degree of the feature amounts of the partial feature combination patterns. The combination pattern coincidence degree calculation unit 34 inputs the partial features determined to be larger than the predetermined value in the processes of S14 and S16 in FIG. 3, that is, the partial features determined to be included in the determination image. Then, in order to determine whether the feature quantity of the input partial feature and the feature quantity of the partial feature included in the partial feature combination pattern Pn selected in the process of S52 are the same or similar, Evaluate shape, position and size.

最初に、形状についての評価について説明する。例えば、図2(a)に示すように、4種類の形状の部分特徴について説明する。図2(a)に示すように、形状については、フィルタF1〜F4に応じて4種類存在する。このため、図3の処理で弱識別器が1とした部分特徴(以下、部分特徴U1とする。)と、部分特徴組合せパターンに含まれる部分特徴(以下、部分特徴U2とする。)とがフィルタF1〜F4に応じた4種類の形状として一致した場合には一致度Kshapeを1、一致しない場合には一致度Kshapeを0とする。なお、上記の4種類の形状は全く異なるため0又は1の選択としたが、例えば、フィルタを回転させただけの場合等、フィルタ同士が似た形状を用いている場合には、類似する程度に応じて一致度Kshapeを0〜1の範囲の値としてもよい。このように、一致度Kshapeを用いて形状についての評価を行う。 First, the evaluation of the shape will be described. For example, as shown in FIG. 2A, partial features of four types of shapes will be described. As shown in FIG. 2A, there are four types of shapes depending on the filters F1 to F4. For this reason, the partial feature (hereinafter referred to as partial feature U1) set to 1 by the weak classifier in the process of FIG. 3 and the partial feature included in the partial feature combination pattern (hereinafter referred to as partial feature U2). When the four shapes corresponding to the filters F1 to F4 match, the matching degree K shape is set to 1, and when they do not match, the matching degree K shape is set to zero. Note that the four types of shapes are completely different, so 0 or 1 was selected. However, when the filters have similar shapes, for example, when the filters are just rotated, the degree of similarity is similar. The matching degree K shape may be set to a value in the range of 0 to 1. In this way, the shape is evaluated using the degree of coincidence K shape .

次に、位置及び大きさについての評価について説明する。例えば、上記2つの部分特徴U1,U2の矩形が重なる面積を算出し、それぞれの部分特徴における重なり領域の割合R(U1),R(U2)を算出する。例えば、重なり領域の面積をS、部分特徴U1の面積をSU1、部分特徴U2の面積をSU2とすると、割合R(U1),R(U2)は以下の式2,3で表すことができる。

Figure 2011113360

Figure 2011113360

上記式2、3を用いて算出された割合R(U1),R(U2)に基づいて、一致度Kpos&sizeを以下の式4を用いて算出する。
Figure 2011113360

このように、一致度Kpos&sizeを用いて位置及び大きさについての評価を行う。以上でS74の処理を終了する。S74の処理が終了すると、一致割合算出処理へ移行する(S76)。 Next, evaluation on the position and size will be described. For example, the area where the rectangles of the two partial features U1 and U2 overlap is calculated, and the ratios R (U1) and R (U2) of the overlapping regions in the partial features are calculated. For example, assuming that the area of the overlapping region is S W , the area of the partial feature U 1 is S U 1 , and the area of the partial feature U 2 is S U 2 , the ratios R (U 1) and R (U 2) are expressed by the following equations 2 and 3. Can do.
Figure 2011113360

Figure 2011113360

Based on the ratios R (U1) and R (U2) calculated using the above formulas 2 and 3, the degree of coincidence K pos & size is calculated using the following formula 4.
Figure 2011113360

In this way, the position and size are evaluated using the degree of coincidence K pos & size . Thus, the process of S74 is completed. When the process of S74 ends, the process proceeds to a coincidence ratio calculation process (S76).

S76の処理では、組合せパターン一致度算出部34が部分特徴組合せパターンの一致割合を算出する。組合せパターン一致度算出部34は、図3のS14,16の処理で所定値よりも大きいと判定された部分特徴、すなわち判定画像に含まれていると判定された部分特徴を入力し、入力された部分特徴の特徴量と、S52の処理で選択された部分特徴組合せパターンPnに含まれる部分特徴の特徴量とが一致するか判定し、一致したと判定した部分特徴の数をカウントする。一致するか否かの特徴量に関する判定を、S74の処理で算出した一致度Kshape,Kpos&sizeを用いて行う。例えば、一致度Kshape,Kpos&sizeの積算値を総合一致度Kallとし、総合一致度Kallがある所定値以上である場合に、一致したと判定する。このように、完全同一でないが、類似する特徴量を有する部分特徴同士は一致すると判定する。その後、組合せパターン一致度算出部34は、図7のS54の処理と同様に、式1を用いて一致割合Kを算出する。S76の処理が終了すると、完了判定処理へ移行する(S78)。 In the process of S76, the combination pattern matching degree calculation unit 34 calculates the matching ratio of the partial feature combination patterns. The combination pattern coincidence degree calculation unit 34 inputs and receives the partial features determined to be larger than the predetermined value in the processes of S14 and S16 in FIG. 3, that is, the partial features determined to be included in the determination image. It is determined whether the feature amount of the partial feature matches the feature amount of the partial feature included in the partial feature combination pattern Pn selected in the process of S52, and the number of partial features determined to match is counted. Judgment regarding whether or not they match is performed using the matching degrees K shape , K pos & size calculated in the process of S74. For example, the integrated value of the coincidence degrees K shape , K pos & size is set as the total coincidence degree K all, and when the total coincidence degree K all is equal to or greater than a predetermined value, it is determined that the coincidence is achieved. In this way, it is determined that partial features that are not completely identical but have similar feature quantities match. Thereafter, the combination pattern match degree calculating section 34, similarly to the processing in S54 in FIG. 7, to calculate a coincidence rate K A using Equation 1. When the process of S76 ends, the process proceeds to a completion determination process (S78).

S78の処理では、組合せパターン一致度算出部34が全ての部分特徴組合せパターンについて評価を行ったか否かを判定する。この処理は図7のS56の処理と同様である。すなわち、全ての部分特徴組合せパターンについて評価を行っていないと判定した場合には、全ての部分特徴組合せパターンについて評価を行うまで、S72〜S78の処理を繰り返し実行する。一方、S78の処理において、全ての部分特徴について評価が完了したと判定した場合には、一致割合決定処理へ移行する(S80)。   In the process of S78, it is determined whether the combination pattern matching degree calculation unit 34 has evaluated all the partial feature combination patterns. This process is the same as the process of S56 of FIG. That is, if it is determined that all partial feature combination patterns have not been evaluated, the processes of S72 to S78 are repeatedly executed until all partial feature combination patterns are evaluated. On the other hand, if it is determined in the process of S78 that the evaluation has been completed for all the partial features, the process proceeds to a match ratio determination process (S80).

S80の処理では、組合せパターン一致度算出部34が全ての部分特徴組合せパターンのうち最も大きい一致割合を選択する。この処理は、図7のS58の処理と同様である。S80の処理が終了すると、図9に示す制御処理を終了する。以上で図9に示す制御処理を終了する。図9に示す制御処理を実行することにより、判定画像で識別対象物体の特徴部分と似ていると判定した部分特徴が、学習画像での識別対象物体の部分特徴の組合せにどの程度含まれているかを示す一致割合が算出される。そして、その一致割合については、第1実施形態とは異なり、完全一致した部分特徴ではなく、類似する部分特徴も一致したものとして算出される。   In the process of S80, the combination pattern matching degree calculation unit 34 selects the largest matching ratio among all the partial feature combination patterns. This process is the same as the process of S58 of FIG. When the process of S80 ends, the control process shown in FIG. 9 ends. Thus, the control process shown in FIG. 9 ends. By executing the control process shown in FIG. 9, how many partial features determined to be similar to the characteristic part of the identification target object in the determination image are included in the combination of the partial characteristics of the identification target object in the learning image The matching ratio indicating whether or not The matching ratio is calculated not as a completely matched partial feature but as a similar partial feature, unlike the first embodiment.

以上、第2実施形態に係る物体識別装置によれば、第1実施形態に係る物体識別装置1と同様の効果を奏するとともに、予め学習された識別対象物体に係る部分特徴の組合せの中に、評価値が所定値以上であると判定された部分特徴と同一又は類似する部分特徴がどの程度含まれているかを示す一致割合Kを算出することができる。これにより、評価値が所定値以上であると判定された部分特徴が、組合せの中に含まれる部分特徴とは同一ではないが類似する場合には、予め学習された識別対象物体に係る部分特徴の組合せの中に含まれるものとすることができる。さらに、一致するか否かの判定に幅を持たせることにより、学習された部分特徴と一致すると評価された判定画像の部分特徴の組合せと、学習された識別対象物体の部分特徴の組合せとの一致度を、誤差を含めて算出することが可能となる。よって、厳格な判定によって識別対象物体を未識別とすることを回避することができる。 As described above, according to the object identification device according to the second embodiment, while having the same effect as the object identification device 1 according to the first embodiment, among the combinations of partial features related to the identification target object learned in advance, evaluation value can be calculated coincidence rate K a indicating that it contains what extent the determined portion, wherein the same or similar parts, wherein a predetermined value or more. As a result, when the partial feature determined to have an evaluation value equal to or greater than the predetermined value is not the same as the partial feature included in the combination but is similar, the partial feature related to the identification target object learned in advance Can be included in the combination. Further, by providing a range for the determination of whether or not they match, the combination of the partial features of the determination image evaluated to match the learned partial features and the combination of the partial features of the learned identification target object The degree of coincidence can be calculated including an error. Therefore, it is possible to avoid making the identification target object unidentified by strict determination.

(第3実施形態)
第3実施形態に係る物体識別装置は、第1実施形態に係る物体識別装置1とほぼ同様に構成されており、識別結果判定部(重み和修正手段)35の動作のみが相違する。よって、第3実施形態では第1実施形態との相違点を中心に説明し、重複する説明は省略する。
(Third embodiment)
The object identification device according to the third embodiment is configured in substantially the same manner as the object identification device 1 according to the first embodiment, and only the operation of the identification result determination unit (weight sum correction means) 35 is different. Therefore, the third embodiment will be described with a focus on differences from the first embodiment, and a duplicate description will be omitted.

第3実施形態に係る物体識別装置の構成は、第1実施形態に係る物体識別装置1と同様である。また、第3実施形態に係る物体識別装置の動作は、図8に示す識別判定動作以外は同様である。   The configuration of the object identification device according to the third embodiment is the same as that of the object identification device 1 according to the first embodiment. The operation of the object identification device according to the third embodiment is the same except for the identification determination operation shown in FIG.

第3実施形態に係る物体識別装置の識別判定動作を説明する。図10は、本実施形態に係る物体識別装置の識別判定動作を示すフローチャートである。図10に示す制御処理は、例えば、図3,5,7に示す制御処理終了後に開始される。なお、説明理解の容易性を考慮して、図10では、図3における処理結果、図7における処理結果を用いて処理を実行するものとする。   An identification determination operation of the object identification device according to the third embodiment will be described. FIG. 10 is a flowchart showing an identification determination operation of the object identification device according to the present embodiment. The control process shown in FIG. 10 is started after the control process shown in FIGS. In consideration of the ease of understanding the explanation, in FIG. 10, it is assumed that the processing is executed using the processing result in FIG. 3 and the processing result in FIG.

図10に示すように、最初に、一致割合を用いて、重み和を修正する処理を実行する(S90)。S90の処理では、例えば、識別結果判定部35が、図3に示す制御処理により算出された重み和、及び図7もしくは図9に示す制御処理により算出された一致割合Kを入力する。そして、一致割合Kに基づいて重み和を修正する。修正後の重み和SrSUMは、図3に示す制御処理により算出された重み和をSSUMとすると、以下の式5を用いて表現できる。

Figure 2011113360

S90の処理が終了すると、修正重み和判定処理へ移行する(S92)。 As shown in FIG. 10, first, a process of correcting the weight sum is executed using the matching ratio (S90). In the processing of S90, for example, the identification result determining section 35 inputs the weight sum calculated by the control processing shown in FIG. 3, and the match rate K A calculated by the control process shown in FIG. 7 or FIG. Then, to correct the weight sum based on matching ratio K A. The corrected weight sum Sr SUM can be expressed by using the following Equation 5, where S SUM is the weight sum calculated by the control process shown in FIG.
Figure 2011113360

When the process of S90 ends, the process proceeds to a correction weight sum determination process (S92).

S92の処理では、識別結果判定部35は、修正重み和SrSUMが所定値以上であるか否かを判定する。修正重み和SrSUMが所定値以上であると判定した場合、識別対象物体であると判定する(S94)。S94の処理が終了すると、図10に示す制御処理を終了する。一方、一方、S92の処理において、修正重み和SrSUMが所定値より小さいと判定した場合、識別対象物体でないと判定する(S96)。S96の処理が終了すると、図10に示す制御処理を終了する。 In the process of S92, the identification result determination unit 35 determines whether or not the correction weight sum Sr SUM is greater than or equal to a predetermined value. When it is determined that the correction weight sum Sr SUM is greater than or equal to a predetermined value, it is determined that the object is an identification target object (S94). When the process of S94 ends, the control process shown in FIG. 10 ends. On the other hand, in the process of S92, when it is determined that the correction weight sum SrSUM is smaller than the predetermined value, it is determined that the object is not an identification target object (S96). When the process of S96 ends, the control process shown in FIG. 10 ends.

以上で図10に示す制御処理を終了する。図10に示す制御処理を実行することにより、一致割合Kを用いて修正重み和SrSUMが算出され、修正重み和SrSUMを用いて識別対象物体であるか否かが判定される。アダブーストアルゴリズムにより、「識別対象物体でない」と評価する部分特徴が学習された場合に、当該弱識別器には負の重みが付与される。このため、このような弱識別器を用いた場合には、重み和SSUMが低下し、識別対象物体であっても識別できない場合も想定される。 This is the end of the control process shown in FIG. By executing the control processing shown in FIG. 10, matching ratio K is calculated corrected weighting sum Sr SUM with A, whether the identification target object using the corrected weights sum Sr SUM is determined. When a partial feature evaluated as “not an object to be identified” is learned by the Adaboost algorithm, a negative weight is given to the weak classifier. For this reason, when such a weak discriminator is used, the weight sum SSUM is reduced, and it may be assumed that even if it is a discrimination target object, it cannot be discriminated.

しかしながら、第3実施形態に係る物体識別装置によれば、識別結果判定部35により、組合せの一致割合Kに基づいて重み和SSUMが加減修正することができるとともに、修正された修正重み和SrSUMを用いて識別判定を行うことが可能となる。これにより、例えば、例えば、識別対象物体ではあるが、重みの和SSUMが閾値にわずかに足りない場合に、高い一致割合Kを積算することにより修正重み和SrSUMを重み和SSUMよりも大きくすることができるので、未識別を回避することが可能となる。また、想定外の組合せで重み和SSUMが大きくなった場合に、低い一致割合Kを積算することにより修正重み和SrSUMを重み和SSUMよりも小さくすることができるので、誤判定を回避することが可能となる。 However, according to the object identification device according to the third embodiment, the identification result by the determination unit 35, it is possible to weight the sum S SUM is acceleration corrected based on matching ratio K A combination, modifications weights sum Fixed Identification determination can be performed using Sr SUM . Thus, for example, for example, albeit at identifying the object, if the sum S SUM of weights is not slight enough to the threshold, than the weight sum S SUM corrective weighting sum Sr SUM by integrating the high concordance rate K A Therefore, it is possible to avoid unidentification. Further, when the weight sum S SUM is increased in unexpected combinations, since the correction weights sum Sr SUM by integrating a low matching ratio K A can be smaller than the weight sum S SUM, misjudgment It can be avoided.

なお、上述した各実施形態は本発明に係る物体識別装置の一例を示すものである。本発明に係る物体識別装置は、各実施形態に係る物体識別装置に限られるものではなく、各請求項に記載した要旨を変更しない範囲で、各実施形態に係る物体識別装置を変形し、又は他のものに適用したものであってもよい。   Each of the above-described embodiments shows an example of the object identification device according to the present invention. The object identification device according to the present invention is not limited to the object identification device according to each embodiment, and the object identification device according to each embodiment is modified or changed without changing the gist described in each claim, or It may be applied to other things.

例えば、上述した実施形態では、部分特徴は、位置、大きさ及び形状で表現されることを説明したが、位置、大きさ及び形状の少なくとも一つで表現してもよい。すなわち、上述した第2実施形態では、部分特徴の特徴量が同一又は類似するか否かを判定するために、部分特徴の形状、位置及び大きさを評価することを説明したが、これらの少なくとも一つで評価してもよい。   For example, in the above-described embodiment, it has been described that the partial feature is expressed by the position, size, and shape. However, the partial feature may be expressed by at least one of the position, size, and shape. That is, in the second embodiment described above, it has been described that the shape, position, and size of the partial feature are evaluated in order to determine whether or not the feature amount of the partial feature is the same or similar. You may evaluate by one.

また、上述した第2実施形態では、部分特徴の特徴量が同一又は類似するか否かを判定する際に、位置及び大きさを式2〜式4を用いる例を説明したが、この手法に限られるわけではなく、2つの部分特徴U1,U2が良く似た位置で良く似た大きさになるほど一致度が高くなるような適当な評価方法を用いればよい。例えば、2つの部分特徴U1,U2の中心位置の差と大きさの差の和を一致度Kpos&sizeとする場合であってもよい。 Further, in the second embodiment described above, the example in which the position and the size are used in Expression 2 to Expression 4 when determining whether or not the feature amounts of the partial features are the same or similar has been described. There is no limitation, and an appropriate evaluation method may be used in which the degree of coincidence increases as the two partial features U1 and U2 become similar in size at similar positions. For example, the sum of the difference between the center positions of the two partial features U1 and U2 and the difference in size may be used as the degree of matching K pos & size .

また、上述した各実施形態において、記録装置2、部分特徴学習部30及び組合せパターン学習部31については、要求される性能に応じて備えれば良い。例えば、物体識別装置1が、記録装置2が保存する情報、部分特徴学習部30及び組合せパターン学習部31が出力する情報等を取得可能なインターフェイスを備える場合には、記録装置2、部分特徴学習部30及び組合せパターン学習部31を備える必要はない。   In each of the above-described embodiments, the recording device 2, the partial feature learning unit 30, and the combination pattern learning unit 31 may be provided according to required performance. For example, when the object identification device 1 includes an interface capable of acquiring information stored in the recording device 2, information output from the partial feature learning unit 30 and the combination pattern learning unit 31, the recording device 2, partial feature learning It is not necessary to include the unit 30 and the combination pattern learning unit 31.

1…物体識別装置、30…部分特徴学習部、31…組合せパターン学習部、32…部分特徴評価値算出部(評価値算出手段、取得手段)、33…部分特徴重み和算出部(重み和算出手段)、34…組合せパターン一致度算出部(一致度算出手段)、35…識別結果判定部(重み和修正手段、識別結果判定手段)。   DESCRIPTION OF SYMBOLS 1 ... Object identification apparatus, 30 ... Partial feature learning part, 31 ... Combination pattern learning part, 32 ... Partial feature evaluation value calculation part (evaluation value calculation means, acquisition means), 33 ... Partial feature weight sum calculation part (weight sum calculation) Means), 34... Combination pattern coincidence calculating unit (matching degree calculating unit), 35... Identification result determining unit (weight sum correcting unit, identification result determining unit).

Claims (5)

学習画像を用いて予め学習された複数の部分特徴の特徴量及び前記部分特徴それぞれに関連付けされた信頼度の重みに基づいて、判定画像から識別対象物体を識別する物体識別装置であって、
前記判定画像の特徴量を前記部分特徴の特徴量に基づいて評価し、前記部分特徴ごとの評価値を算出する評価値算出手段と、
前記評価値に基づいて、前記部分特徴に関連付けされた信頼度の重みを取得する取得手段と、
前記取得手段により取得された前記信頼度の重みの和である重み和を算出する重み和算出手段と、
前記評価値が所定値以上であると判定された前記部分特徴の組合せと、予め学習された前記識別対象物体に係る前記部分特徴の組合せとの一致度である組合せ一致度を算出する一致度算出手段と、
前記重み和が所定値以上、及び前記組合せ一致度が所定値以上の場合には、前記判定画像から前記識別対象物体を識別したと判定する識別結果判定手段と、
を備えることを特徴とする物体識別装置。
An object identification device that identifies an identification target object from a determination image based on feature amounts of a plurality of partial features learned in advance using a learning image and reliability weights associated with each of the partial features,
Evaluation value calculating means for evaluating the feature amount of the determination image based on the feature amount of the partial feature and calculating an evaluation value for each partial feature;
Obtaining means for obtaining a weight of reliability associated with the partial feature based on the evaluation value;
A weight sum calculating means for calculating a weight sum that is a sum of the weights of the reliability obtained by the obtaining means;
A degree of coincidence calculation that calculates a degree of coincidence of matching that is a degree of coincidence between the combination of the partial features determined that the evaluation value is equal to or greater than a predetermined value and the combination of the partial features related to the identification target object learned in advance. Means,
An identification result determination unit that determines that the identification target object has been identified from the determination image when the weight sum is a predetermined value or more and the combination matching degree is a predetermined value or more;
An object identification device comprising:
前記一致度算出手段は、前記評価値が所定値以上であると判定された前記部分特徴のうち、予め学習された前記識別対象物体の前記部分特徴の組合せに含まれる前記部分特徴と特徴量が同一な前記部分特徴の数を一致数として算出し、当該組合せに含まれる前記部分特徴の数に対する前記一致数の割合を算出し、算出された前記割合に基づいて、前記組合せ一致度を算出する請求項1に記載の物体識別装置。   The degree-of-match calculation means includes the partial feature and the feature amount included in the partial feature combination of the identification target object learned in advance among the partial features determined that the evaluation value is equal to or greater than a predetermined value. The number of identical partial features is calculated as the number of matches, the ratio of the number of matches to the number of partial features included in the combination is calculated, and the combination matching degree is calculated based on the calculated ratio The object identification device according to claim 1. 前記一致度算出手段は、前記評価値が所定値以上であると判定された前記識別対象物体の前記部分特徴のうち、予め学習された前記識別対象物体の前記部分特徴の組合せに含まれる前記部分特徴と特徴量が同一又は類似する前記部分特徴の数を一致数として算出し、当該組合せに含まれる前記部分特徴の数に対する前記一致数の割合を算出し、算出された前記割合に基づいて、前記組合せ一致度を算出する請求項1に記載の物体識別装置。   The degree-of-match calculation means includes the part included in the combination of the partial features of the identification target object learned in advance among the partial features of the identification target object determined that the evaluation value is equal to or greater than a predetermined value. Calculate the number of partial features that have the same or similar feature and feature quantity as the number of matches, calculate the ratio of the number of matches to the number of partial features included in the combination, and based on the calculated ratio, The object identification device according to claim 1, wherein the combination matching degree is calculated. 前記組合せ一致度に基づいて前記重み和を加減修正する重み和修正手段を備え、
前記識別結果判定手段は、前記重み和修正手段により前記重み和が修正された場合には、前記重み和修正手段により修正された前記重み和が所定値以上、及び前記組合せ一致度が所定値以上の場合には、前記判定画像から前記識別対象物体を識別したと判定する請求項1〜3の何れか一項に記載の物体識別装置。
A weight sum correction means for adjusting the weight sum based on the combination matching degree;
When the weight sum is corrected by the weight sum correction unit, the identification result determination unit is configured such that the weight sum corrected by the weight sum correction unit is equal to or greater than a predetermined value, and the combination matching degree is equal to or greater than a predetermined value. In this case, the object identification device according to claim 1, wherein it is determined that the identification target object has been identified from the determination image.
前記部分特徴の特徴量は、形状、位置及び大きさの少なくとも1つを含む請求項1〜4の何れか一項に記載の物体識別装置。   The object identification device according to any one of claims 1 to 4, wherein the feature amount of the partial feature includes at least one of a shape, a position, and a size.
JP2009270049A 2009-11-27 2009-11-27 Object identification apparatus Pending JP2011113360A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009270049A JP2011113360A (en) 2009-11-27 2009-11-27 Object identification apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009270049A JP2011113360A (en) 2009-11-27 2009-11-27 Object identification apparatus

Publications (1)

Publication Number Publication Date
JP2011113360A true JP2011113360A (en) 2011-06-09

Family

ID=44235643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009270049A Pending JP2011113360A (en) 2009-11-27 2009-11-27 Object identification apparatus

Country Status (1)

Country Link
JP (1) JP2011113360A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013045433A (en) * 2011-08-26 2013-03-04 Canon Inc Learning apparatus, method for controlling learning apparatus, detection apparatus, method for controlling detection apparatus, and program
JP2019036240A (en) * 2017-08-21 2019-03-07 株式会社Ihi Object detection device
JP2019175176A (en) * 2018-03-28 2019-10-10 富士通株式会社 Adaptation degree calculation program, adaptation degree calculation method, adaptation degree calculation device, identification program, identification method, and identification device
JP2019175063A (en) * 2018-03-28 2019-10-10 Kddi株式会社 Object identification device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013045433A (en) * 2011-08-26 2013-03-04 Canon Inc Learning apparatus, method for controlling learning apparatus, detection apparatus, method for controlling detection apparatus, and program
JP2019036240A (en) * 2017-08-21 2019-03-07 株式会社Ihi Object detection device
JP2019175176A (en) * 2018-03-28 2019-10-10 富士通株式会社 Adaptation degree calculation program, adaptation degree calculation method, adaptation degree calculation device, identification program, identification method, and identification device
JP2019175063A (en) * 2018-03-28 2019-10-10 Kddi株式会社 Object identification device
JP7063052B2 (en) 2018-03-28 2022-05-09 富士通株式会社 Goodness-of-fit calculation program, goodness-of-fit calculation method, goodness-of-fit calculation device, identification program, identification method and identification device
US11488023B2 (en) 2018-03-28 2022-11-01 Fujitsu Limited Adaptability calculation method, adaptability calculation device, identification method, identification device, and computer-readable recording medium

Similar Documents

Publication Publication Date Title
CN109325954B (en) Image segmentation method and device and electronic equipment
US11256955B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US9152926B2 (en) Systems, methods, and media for updating a classifier
EP3333768A1 (en) Method and apparatus for detecting target
JP6639113B2 (en) Image recognition device, image recognition method, and program
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
KR102449841B1 (en) Method and apparatus for detecting target
US8160366B2 (en) Object recognition device, object recognition method, program for object recognition method, and recording medium having recorded thereon program for object recognition method
JP4708909B2 (en) Method, apparatus and program for detecting object of digital image
US20180150725A1 (en) Image recognition apparatus, image recognition method, and program
US9330336B2 (en) Systems, methods, and media for on-line boosting of a classifier
JP4588575B2 (en) Method, apparatus and program for detecting multiple objects in digital image
JP2008033424A (en) Image processor, image processing method, program, and storage medium
JP4996394B2 (en) Authentication apparatus and authentication method
JP6639523B2 (en) Automatic learning image sorting device, automatic learning image sorting method, and automatic learning image sorting program
JP2010108476A (en) Learning apparatus and method, recognition apparatus and method, program, and recording medium
JP2010108475A (en) Image processing apparatus and method, program, and recording medium
US8363909B2 (en) Image processing apparatus, image processing method, and computer program product
JP2007065844A (en) Method, apparatus, and program for detecting face
US20190279022A1 (en) Object recognition method and device thereof
JP2012083938A (en) Learning device, learning method, identification device, identification method, and program
CN112836653A (en) Face privacy method, device and apparatus and computer storage medium
CN111860055A (en) Face silence living body detection method and device, readable storage medium and equipment
JP2011113360A (en) Object identification apparatus
JP2009211490A (en) Image recognition method and image recognition device