JP2011113360A - Object identification apparatus - Google Patents
Object identification apparatus Download PDFInfo
- Publication number
- JP2011113360A JP2011113360A JP2009270049A JP2009270049A JP2011113360A JP 2011113360 A JP2011113360 A JP 2011113360A JP 2009270049 A JP2009270049 A JP 2009270049A JP 2009270049 A JP2009270049 A JP 2009270049A JP 2011113360 A JP2011113360 A JP 2011113360A
- Authority
- JP
- Japan
- Prior art keywords
- partial
- feature
- combination
- partial feature
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、物体識別装置に関するものである。 The present invention relates to an object identification device.
従来、識別対象物体を識別する装置として、画像情報を用いるものが知られている(例えば、特許文献1参照)。特許文献1に記載の物体識別装置は、アダブーストアルゴリズム(AdaBoost Algorithm)を採用し、判定画像の局所的な複数の部分特徴を評価することで、判定画像内の識別対象物体を識別する。具体的には、学習データ内の物体の部分特徴に基づいて物体検出に適した弱識別器を学習しながら複数個生成するとともに、生成した弱識別器それぞれを信頼度(識別対象物体らしさの度合い)で重み付けする。そして、判定画像を弱識別器で評価し、複数の弱識別器の評価結果を線形結合させて識別対象物体の識別を行う。
Conventionally, an apparatus that uses image information is known as an apparatus for identifying an object to be identified (see, for example, Patent Document 1). The object identification device described in
ところで、アダブーストアルゴリズムを採用した従来の物体識別装置にあっては、部分特徴を検出した弱識別器に付与された重みの和が閾値を超えたか否かのみを判定することで、識別対象物体を識別している。このため、従来の物体識別装置にあっては、例えば、局所的な部分特徴のみが似ている他の物体を識別対象物体として識別したり、重みの和が閾値にわずかに足りない識別対象物体を識別できなかったりするおそれがある。 By the way, in the conventional object identification device adopting the AdaBoost algorithm, it is determined only whether the sum of the weights assigned to the weak classifier that has detected the partial feature exceeds the threshold, thereby identifying the object to be identified. Has been identified. For this reason, in the conventional object identification device, for example, another object having only similar local partial features is identified as an identification target object, or the identification target object whose sum of weights is slightly less than the threshold value May not be identified.
そこで、本発明はこのような技術課題を解決するためになされたものであって、識別精度の向上を図ることができる物体識別装置を提供することを目的とする。 Accordingly, the present invention has been made to solve such a technical problem, and an object thereof is to provide an object identification device capable of improving identification accuracy.
すなわち、本発明に係る物体識別装置は、学習画像を用いて予め学習された複数の部分特徴の特徴量及び前記部分特徴それぞれに関連付けされた信頼度の重みに基づいて、判定画像から識別対象物体を識別する物体識別装置であって、前記判定画像の特徴量を前記部分特徴の特徴量に基づいて評価し、前記部分特徴ごとの評価値を算出する評価値算出手段と、前記評価値に基づいて、前記部分特徴に関連付けされた信頼度の重みを取得する取得手段と、前記取得手段により取得された前記信頼度の重みの和である重み和を算出する重み和算出手段と、前記評価値が所定値以上であると判定された前記部分特徴の組合せと、予め学習された前記識別対象物体に係る前記部分特徴の組合せとの一致度である組合せ一致度を算出する一致度算出手段と、前記重み和が所定値以上、及び前記組合せ一致度が所定値以上の場合には、前記判定画像から前記識別対象物体を識別したと判定する識別結果判定手段と、を備えて構成される。 In other words, the object identification device according to the present invention can identify an object to be identified from a determination image based on feature amounts of a plurality of partial features learned in advance using a learning image and reliability weights associated with the partial features. An evaluation value calculating means for evaluating a feature amount of the determination image based on the feature amount of the partial feature and calculating an evaluation value for each partial feature, and based on the evaluation value Acquisition means for acquiring reliability weights associated with the partial features, weight sum calculation means for calculating a weight sum that is a sum of the reliability weights acquired by the acquisition means, and the evaluation value A degree of coincidence calculating means for calculating a degree of coincidence of matching between the combination of the partial features determined to be equal to or greater than a predetermined value and the combination of the partial features related to the identification target object learned in advance , The weight sum is equal to or higher than a predetermined value, and wherein when the combination coincidence degree is equal to or higher than the predetermined value, configured and a determining identification result determining means and identified the identification object from the determination image.
本発明に係る物体識別装置では、評価値算出手段により、判定画像の特徴量が部分特徴の特徴量に基づいて評価されて部分特徴ごとの評価値が算出され、取得手段により、評価値に基づいて部分特徴に関連付けされた信頼度の重みが取得され、重み和算出手段により、取得手段により取得された信頼度の重みの和である重み和が算出される。さらに、一致度算出手段により、評価値が所定値以上であると判定された部分特徴の組合せと、予め学習された識別対象物体に係る部分特徴の組合せとの一致度である組合せ一致度が算出される。そして、識別結果判定手段により、重み和が所定値以上、及び組合せ一致度が所定値以上の場合には、判定画像から識別対象物体を識別したと判定される。このように、部分特徴の重みの和による識別判定に加えて、部分特徴の組合せの一致度による識別判定を実施することができる。このため、例えば、識別対象物体とは別の物体の局所的な部分特徴のみが識別対象物体と似ていることにより重み和が所定値以上となった場合であっても、部分特徴の組合せの一致度を用いて別の物体を識別対象物体であると識別することを回避することが可能となる。よって、識別精度を向上させることができる。 In the object identification device according to the present invention, the evaluation value calculation unit evaluates the feature amount of the determination image based on the feature amount of the partial feature to calculate the evaluation value for each partial feature, and the acquisition unit calculates the evaluation value based on the evaluation value. Thus, the reliability weight associated with the partial feature is acquired, and the weight sum calculation means calculates a weight sum that is the sum of the reliability weights acquired by the acquisition means. Further, the degree of coincidence of the partial features determined to have an evaluation value equal to or greater than a predetermined value and the degree of coincidence between the combination of the partial features related to the identification target object learned in advance is calculated by the degree of coincidence calculation means. Is done. Then, when the sum of weights is equal to or greater than the predetermined value and the combination matching degree is equal to or greater than the predetermined value, it is determined by the identification result determination means that the identification target object has been identified from the determination image. Thus, in addition to the identification determination based on the sum of the weights of the partial features, the identification determination based on the matching degree of the partial feature combinations can be performed. For this reason, for example, even when the weight sum becomes a predetermined value or more because only the local partial feature of an object different from the identification target object is similar to the identification target object, It is possible to avoid identifying another object as an identification target object using the degree of coincidence. Therefore, identification accuracy can be improved.
ここで、前記一致度算出手段は、前記評価値が所定値以上であると判定された前記部分特徴のうち、予め学習された前記識別対象物体の前記部分特徴の組合せに含まれる前記部分特徴と特徴量が同一な前記部分特徴の数を一致数として算出し、当該組合せに含まれる前記部分特徴の数に対する前記一致数の割合を算出し、算出された前記割合に基づいて、前記組合せ一致度を算出することが好適である。 Here, the degree-of-match calculation means includes the partial features included in a combination of the partial features of the identification target object learned in advance among the partial features determined that the evaluation value is equal to or greater than a predetermined value. The number of the partial features having the same feature amount is calculated as the number of matches, the ratio of the number of matches to the number of the partial features included in the combination is calculated, and the combination matching degree is calculated based on the calculated ratio Is preferably calculated.
このように構成することで、予め学習された識別対象物体に係る部分特徴の組合せの中に、評価値が所定値以上であると判定された部分特徴と同一な部分特徴がどの程度含まれているかを示す割合を算出することができる。これにより、学習された部分特徴と一致すると評価された判定画像の部分特徴の組合せと、学習された識別対象物体の部分特徴の組合せとの一致度を評価することが可能となる。 With this configuration, the combination of partial features related to the identification target object learned in advance includes how many partial features are the same as the partial features determined to have an evaluation value equal to or greater than a predetermined value. It is possible to calculate a ratio indicating whether or not. Accordingly, it is possible to evaluate the degree of coincidence between the combination of the partial features of the determination image evaluated to match the learned partial features and the combination of the partial features of the learned identification target object.
あるいは、前記一致度算出手段は、前記評価値が所定値以上であると判定された前記識別対象物体の前記部分特徴のうち、予め学習された前記識別対象物体の前記部分特徴の組合せに含まれる前記部分特徴と特徴量が同一又は類似する前記部分特徴の数を一致数として算出し、当該組合せに含まれる前記部分特徴の数に対する前記一致数の割合を算出し、算出された前記割合に基づいて、前記組合せ一致度を算出することが好適である。 Alternatively, the degree-of-match calculation means is included in a combination of the partial features of the identification target object learned in advance among the partial features of the identification target object determined that the evaluation value is equal to or greater than a predetermined value. The number of the partial features having the same or similar feature quantity as the partial feature is calculated as the number of matches, the ratio of the number of matches to the number of the partial features included in the combination is calculated, and based on the calculated ratio It is preferable to calculate the combination matching degree.
このように構成することで、予め学習された識別対象物体に係る部分特徴の組合せの中に、評価値が所定値以上であると判定された部分特徴と同一又は類似する部分特徴がどの程度含まれているかを示す割合を算出することができる。これにより、評価値が所定値以上であると判定された部分特徴が、組合せの中に含まれる部分特徴とは同一ではないが類似する場合には、予め学習された識別対象物体に係る部分特徴の組合せの中に含まれるものとすることができる。一致するか否かの判定に幅を持たせることにより、学習された部分特徴と一致すると評価された判定画像の部分特徴の組合せと、学習された識別対象物体の部分特徴の組合せとの一致度を、誤差を含めて算出することが可能となる。よって、厳格な判定によって識別対象物体を未識別とすることを回避することができる。 With this configuration, the combination of partial features related to the identification target object learned in advance includes how much partial features are the same or similar to the partial features determined to have an evaluation value equal to or greater than a predetermined value. It is possible to calculate a ratio indicating whether or not As a result, when the partial feature determined to have an evaluation value equal to or greater than the predetermined value is not the same as the partial feature included in the combination but is similar, the partial feature related to the identification target object learned in advance Can be included in the combination. The degree of coincidence between the combination of the partial feature of the determination image evaluated to match the learned partial feature and the combination of the partial feature of the learned identification target object by providing a range for determining whether or not they match Can be calculated including an error. Therefore, it is possible to avoid making the identification target object unidentified by strict determination.
また、物体識別装置は、前記組合せ一致度に基づいて前記重み和を加減修正する重み和修正手段を備え、前記識別結果判定手段は、前記重み和修正手段により前記重み和が修正された場合には、前記重み和修正手段により修正された前記重み和が所定値以上、及び前記組合せ一致度が所定値以上の場合には、前記判定画像から前記識別対象物体を識別したと判定することが好適である。 In addition, the object identification device includes weight sum correction means for adding and subtracting the weight sum based on the combination matching degree, and the identification result determination means is configured when the weight sum is corrected by the weight sum correction means. Preferably, when the weight sum corrected by the weight sum correcting means is a predetermined value or more and the combination matching degree is a predetermined value or more, it is determined that the identification target object is identified from the determination image. It is.
このように構成することで、重み和修正手段により、組合せ一致度に基づいて重み和が加減修正することができるとともに、修正された重み和を用いて識別判定を行うことが可能となる。これにより、例えば、重みの和が閾値にわずかに足りない識別対象物体を識別できないことを回避することが可能となる。よって、識別精度を向上させることができる。 With this configuration, the weight sum correction means can adjust the weight sum based on the combination matching degree, and can also perform identification determination using the corrected weight sum. Thereby, for example, it is possible to avoid that an identification target object whose sum of weights is slightly less than the threshold value cannot be identified. Therefore, identification accuracy can be improved.
さらに、前記部分特徴の特徴量は、形状、位置及び大きさの少なくとも1つを含んでもよい。 Furthermore, the feature amount of the partial feature may include at least one of a shape, a position, and a size.
本発明によれば、識別精度の向上を図ることができる。 According to the present invention, it is possible to improve the identification accuracy.
以下、添付図面を参照して本発明の実施形態について説明する。なお、各図において同一又は相当部分には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in each figure, the same code | symbol is attached | subjected to the same or an equivalent part, and the overlapping description is abbreviate | omitted.
(第1実施形態)
本実施形態に係る物体識別装置は、学習画像を学習した結果に基づいて、判定画像内に含まれる物体を識別する装置であって、例えば、車両の運転支援等に好適に採用されるものである。
(First embodiment)
The object identification device according to the present embodiment is a device that identifies an object included in a determination image based on a result of learning a learning image, and is suitably used for driving assistance of a vehicle, for example. is there.
最初に、本実施形態に係る物体識別装置の構成を説明する。図1は、本実施形態に係る物体識別装置の構成を示すブロック図である。図1に示すように、物体識別装置1は、記録装置2及び演算装置3を備えている。
First, the configuration of the object identification device according to the present embodiment will be described. FIG. 1 is a block diagram showing the configuration of the object identification device according to the present embodiment. As shown in FIG. 1, the
記録装置2は、情報を記録する装置であって、演算装置3により読み書き可能に構成されている。記録装置2として、例えばHDD(Hard Disk Drive)が用いられる。この記録装置2は、学習画像保存部20、部分特徴モデル保存部21及び組合せパターン保存部22を備えている。
The recording device 2 is a device for recording information, and is configured to be readable and writable by the arithmetic device 3. For example, an HDD (Hard Disk Drive) is used as the recording device 2. The recording device 2 includes a learning
学習画像保存部20には、演算装置3が識別対象物体を識別するために学習する学習画像が複数保存されている。学習画像としては、識別の対象となる識別対象物体が含まれる画像のみならず、識別対象物体が含まれない画像も用いられる。また、部分特徴モデル保存部21には、演算装置3が学習により取得した部分特徴の特徴量が複数保存されている。部分特徴とは、画像の一部を構成する部分画像であって、例えば識別対象物体が人間であれば頭、手、足等の人であるという識別性を発揮する部分的な特徴を示すものである。特徴量とは、特徴を評価するための評価値であって部分特徴の画像情報に基づいて算出されるものである。例えば、Haarウェーブレット(Haar wavelets)の特徴量が用いられ、詳細については後述する。また、組合せパターン保存部22には、演算装置3により学習された部分特徴組合せパターンが複数保存されている。部分特徴組合せパターンは、識別対象物体に係る複数の部分特徴の組合せであり、詳細については後述する。
The learning
演算装置3は、演算処理を行う装置であって、記録装置2、判定画像を入力する判定画像入力部4、判定結果を表示する判定結果表示部5に接続されている。演算装置3として、例えばECU(Electronic Control Unit)が用いられる。ECUは、電子制御するコンピュータであり、CPU(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random AccessMemory)等のメモリ、及び入出力インターフェイスなどを備えて構成されている。なお、判定画像入力部4として、例えばCCD(Charge CoupledDevice)カメラ等の撮像装置、判定結果表示部5として、例えばディスプレイ等の表示装置が用いられる。 The arithmetic device 3 is a device that performs arithmetic processing, and is connected to a recording device 2, a determination image input unit 4 that inputs a determination image, and a determination result display unit 5 that displays a determination result. For example, an ECU (Electronic Control Unit) is used as the arithmetic device 3. The ECU is a computer that is electronically controlled and includes a CPU (Central Processing Unit), a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory), an input / output interface, and the like. Note that an imaging device such as a CCD (Charge Coupled Device) camera, for example, is used as the determination image input unit 4, and a display device such as a display is used as the determination result display unit 5, for example.
演算装置3は、部分特徴学習部30、組合せパターン学習部31、部分特徴評価値算出部(評価値算出手段、取得手段)32、部分特徴重み和算出部(重み和算出手段)33、組合せパターン一致度算出部(一致度算出手段)34及び識別結果判定部(識別結果判定手段)35を備えている。
The arithmetic device 3 includes a partial
部分特徴学習部30は、学習画像の部分特徴を学習する機能を有している。部分特徴学習部30は、学習画像保存部20に保存された学習画像を参照し、学習画像の部分特徴を学習する。例えば、部分特徴学習部30は、アダブーストアルゴリズムを用いて学習する。アダブーストアルゴリズムは、逐次的に例題に関する信頼度の重みを変化させながら異なる弱識別器を生成し、それらを組合せて高精度な識別器を構成する学習アルゴリズムである。部分特徴学習部30は、数種類のフィルタを用いてHaarウェーブレットの特徴量を学習画像から取得する。図2(a)は、特徴量を抽出するフィルタF1〜F4の例である。図2(a)に示すように、フィルタF1,F2は、エッジ部に現れる特徴を抽出するものであり、フィルタF3,F4は、線部に現れる特徴を抽出するものである。フィルタF1〜F4は、±1の2値矩形フィルタであり、+1の白領域内の画素値(輝度値)の和から−1の黒領域内の画素値の和を減じた値を特徴量の評価値として算出する。また、フィルタF1〜F4は、任意の位置及び大きさに変更され、学習画像から適切に部分特徴を抽出する。すなわち抽出された部分特徴は、位置、大きさ及び形状の情報を含む特徴量で表現される。図2(b)は、画像G1内の部分特徴の位置及び大きさを説明する概要図である。図2(b)に示すように、部分特徴の位置は、例えば学習画像G1の左上を基準としたフィルタの左上の位置(u1,v1)によって表現される。また、部分特徴の大きさは、領域の横及び縦の長さ(W1,H1)によって部分特徴の大きさが表現される。さらに、形状については、例えばフィルタF1〜F4で示す形状パターンで表現される。このように、部分特徴は、位置、大きさ及び形状で表現され、評価値で評価される。
The partial
部分特徴学習部30は、図2(c)に示すように、複数のフィルタを用いて、学習画像G1に含まれる部分特徴を複数個抽出する。なお、図2(c)は、識別対象物体を人とした場合の学習画像の一例であり、点線で囲む部分特徴A〜Hが検出されていることを示している。そして、部分特徴学習部30は、抽出した部分特徴ごとに弱識別器を用意する。この弱識別器は、後述する部分特徴評価値算出部32に用いられる識別器であって、例えば、部分特徴の位置、大きさ、形状に対応した判定画像の領域において、上述した評価値を算出して、判定画像内に学習画像の部分特徴に対応する特徴が存在するか否かを判定する機能を有している。
As illustrated in FIG. 2C, the partial
部分特徴学習部30は、多数の学習画像を入力して、識別対象物体の識別に有効な弱識別器を学習する機能を有している。具体的には、部分特徴学習部30は、識別対象物体に共通する部分特徴を学習することで、識別対象物体の識別に最適な弱識別器を複数個選択する。その際、選択した弱識別器ごとに、識別に必要な所定値を設定するとともに、エラー値や画像の重み等に基づいて弱識別器の重みを算出して弱識別器ごとに関連付けする。この重みは、弱識別器の識別の信頼度を示すものであるとともに、当該弱識別器と対応する部分特徴の信頼度を示すものである。すなわち、この重みは、部分特徴に関連付けされているともいえる。そして、部分特徴学習部30は、識別に用いる部分特徴、関連付けされた重み及び弱識別器を、部分特徴モデルとして部分特徴モデル保存部21に保存する。
The partial
組合せパターン学習部31は、識別対象物体の複数の部分特徴の組合せを学習する機能を有している。組合せパターン学習部31は、学習画像保存部20に保存された学習画像、及び部分特徴モデル保存部21に保存された部分特徴モデルを参照し、識別対象物体の複数の部分特徴の組合せを学習する。例えば、組合せパターン学習部31は、部分特徴学習部30により学習された識別に用いる部分特徴を部分特徴モデル保存部21から取得し、識別対象物体が含まれる学習画像に適用する。そして、当該学習画像において部分特徴に対応する特徴が存在すると判定した複数の部分特徴の組合せを、部分特徴組合せパターンとして出力する。部分特徴に対応する特徴が存在するか否かの判定は、学習された部分特徴の位置、大きさ及び形状に対応した当該学習画像の領域において上述した特徴量の評価値を算出し、算出した評価値を用いて判定される。この処理を複数の学習画像において実行することにより、複数の部分特徴組合せパターンを出力する。組合せパターン学習部31は、学習した部分特徴組合せパターンを組合せパターン保存部22に保存する。
The combination
部分特徴評価値算出部32は、判定画像に識別対象物体が存在するか否か、弱識別器を用いて判定する機能を有している。部分特徴評価値算出部32は、判定画像入力部4が入力した判定画像に対して、部分特徴モデル保存部21に保存した弱識別器の全てを適用する。具体的には、部分特徴評価値算出部32は、学習された部分特徴の位置、大きさ及び形状に対応した判定画像の領域において、上述した特徴量の評価値を算出する。そして、部分特徴学習部30により弱識別器ごとに設定された所定値と比較して、判定画像内に学習画像の部分特徴に対応する特徴が存在するか否かを判定する。また、判定に用いた弱識別器に関連付けされた重みを部分特徴モデル保存部21から取得する。弱識別器は、判定画像内に学習画像の部分特徴に対応する特徴が存在すると判定した場合には1、判定画像内に学習画像の部分特徴に対応する特徴が存在しないと判定した場合には0を出力する機能を有している。部分特徴評価値算出部32は、弱識別器の出力値と当該弱識別器に関連付けされた重みとを積算し、積算値を出力する機能を有している。
The partial feature evaluation
部分特徴重み和算出部33は、部分特徴評価値算出部32により算出された積算値を加算して重み和として出力する機能を有している。
The partial feature weight
組合せパターン一致度算出部34は、判定画像を用いて抽出された部分特徴パターンと、学習した識別対象物体の部分特徴パターンとの一致度を算出する機能を有している。組合せパターン一致度算出部34は、組合せパターン保存部22に保存された部分特徴組合せパターン、及び、部分特徴評価値算出部32により判定画像内に存在すると判定された部分特徴すなわち評価値が所定値以上であると判定された部分特徴を用いて、組合せパターンの一致度を算出する。例えば、組合せパターン一致度算出部34は、学習した部分特徴組合せパターンの1つを選択し、選択された部分特徴組合せパターンに含まれる部分特徴の特徴量の全てと、判定画像を用いて抽出された部分特徴の特徴量の全てとを比較して一致するか否かを判定する。これにより、部分特徴組合せパターンにおいて、判定画像を用いて抽出された部分特徴が占める割合(一致割合)を算出する。この一致割合が、組合せパターン一致度となる。そして、学習済みの部分特徴組合せパターンの全てに同一の処理を繰り返し、学習済みの部分特徴組合せパターンのうち最大となる一致割合を出力する。
The combination pattern coincidence
識別結果判定部35は、判定画像から識別対象物体を識別することができたか否かを判定する機能を有している。識別結果判定部35は、部分特徴重み和算出部33の識別結果である重み和、及び、組合せパターン一致度算出部34の識別結果である一致割合を用いて判定する。識別結果判定部35は、例えば、重み和が所定値より小さい場合、あるいは、一致割合が所定値より小さい場合には、識別対象物体を識別していないと判定する。一方、識別結果判定部35は、例えば、重み和が所定値以上の場合、かつ、一致割合が所定値以上の場合には、識別対象物体を識別したと判定する。そして、識別結果判定部35は、判定結果を判定結果表示部5に出力する。判定結果表示部5は、出力に応じて判定結果を表示する。
The identification
次に、本実施形態に係る物体識別装置1の動作について説明する。図3は、本実施形態に係る物体識別装置1の重み和を算出する動作を示すフローチャートである。図3に示す制御処理は、例えば、判定画像を入力したタイミングで開始される。
Next, the operation of the
図3に示すように、最初に、学習済みの部分特徴モデルの読込処理を実行する(S10)。S10の処理では、部分特徴評価値算出部32が学習済みの部分特徴モデルを入力する。部分特徴評価値算出部32は、部分特徴モデル保存部21を参照して、学習済みの弱識別器及び弱識別器に関連付けされた重みを入力する。例えば、図2(c)に示す部分特徴A〜Hに対応した弱識別器及び重みを入力する。S10の処理が終了すると、選択処理へ移行する(S12)。
As shown in FIG. 3, first, a learned partial feature model is read (S10). In the process of S10, the partial feature evaluation
S12の処理では、部分特徴評価値算出部32が判定画像と比較する部分特徴を選択する。部分特徴評価値算出部32は、S10の処理で入力された弱識別器の中から評価する弱識別器を任意に1つ選択する。S12の処理が終了すると、評価値算出処理へ移行する(S14)。
In the process of S12, the partial feature evaluation
S14の処理では、部分特徴評価値算出部32が判定画像の評価値を算出する。部分特徴評価値算出部32は、S12の処理で選択された弱識別器を判定画像に当てはめて、部分特徴の位置、大きさ、形状に対応した判定画像の領域において、+1の白領域内の画素値の和から−1の黒領域内の画素値の和を減じた値を特徴量の評価値として算出する。例えば、図4(a)に示す判定画像1を入力したとする。部分特徴評価値算出部32は、S12の処理で選択された弱識別器を判定画像1に当てはめて、当該弱識別器に係る部分特徴と対応する領域において評価値を算出する。S14の処理が終了すると、重み決定処理へ移行する(S16)。
In the process of S14, the partial feature evaluation
S16の処理では、部分特徴評価値算出部32が加算する重みを決定する。部分特徴評価値算出部32は、S14の処理で算出された評価値とS14の処理で用いた弱識別器に事前に設定された所定値とを比較する。S14の処理で算出された評価値の方が、S14の処理で用いた弱識別器に事前に設定された所定値よりも大きい場合には、弱識別器の機能により1が出力される。他方、S14の処理で算出された評価値の方が、S14の処理で用いた弱識別器に事前に設定された所定値以下の場合には、弱識別器の機能により0が出力される。部分特徴評価値算出部32は、S10の処理で入力された弱識別器に関連付けされた重みを参照し、弱識別器の出力値と当該弱識別器に関連付けされた重みとを積算し、積算値を加算する重みとして出力する。S16の処理が終了すると、完了判定処理へ移行する(S18)。
In the process of S16, the weight to be added by the partial feature evaluation
S18の処理では、部分特徴評価値算出部32が全ての部分特徴について評価を行ったか否かを判定する。部分特徴評価値算出部32は、S10の処理で入力された全ての部分特徴A〜Hについて、S12〜S16の処理を実行したか否かを判定する。S18の処理において、全ての部分特徴について評価を行っていないと判定した場合には、選択処理へ再度移行する(S12)。このように、全ての部分特徴について評価を行うまで、S12〜S18の処理を繰り返し実行する。一方、S18の処理において、全ての部分特徴について評価が完了したと判定した場合には、加算処理へ移行する(S20)。
In the processing of S18, it is determined whether or not the partial feature evaluation
S20の処理では、部分特徴重み和算出部33が重み和を算出する。部分特徴重み和算出部33は、S16の処理で算出された重みを全て加算する。S20の処理が終了すると、図3に示す制御処理を終了する。以上で図3に示す制御処理を終了する。図3に示す制御処理を実行することにより、学習画像を用いて学習された全ての部分特徴を用いて判定画像を評価した重み和が算出される。
In the process of S20, the partial feature weight
次に、本実施形態に係る物体識別装置1の部分特徴組合せパターンの学習動作について説明する。図5は、本実施形態に係る物体識別装置1の部分特徴組合せパターンの学習動作を示すフローチャートである。図5に示す制御処理は、例えば、図3に示す制御処理終了後に開始される。
Next, the learning operation of the partial feature combination pattern of the
図5に示すように、最初に、学習画像の読込処理を実行する(S30)。S30の処理では、組合せパターン学習部31が学習画像を入力する。組合せパターン学習部31は、学習画像保存部20を参照して学習画像を複数入力する。この学習画像は、識別対象物体が撮像されたものを用いる。例えば、図6に示す学習画像Gn(n:自然数)を入力する。S30の処理が終了すると、部分特徴読込処理へ移行する(S32)。
As shown in FIG. 5, first, a learning image reading process is executed (S30). In the process of S30, the combination
S32の処理では、組合せパターン学習部31が学習済みの部分特徴モデルを入力する。組合せパターン学習部31は、部分特徴モデル保存部21を参照して、学習済みの弱識別器を入力する。S32の処理が終了すると、選択処理へ移行する(S34)。
In the process of S32, the combination
S34の処理では、組合せパターン学習部31が学習画像を選択する。組合せパターン学習部31は、S30の処理で入力された学習画像Gnの中から学習する学習画像を任意に1つ選択する。例えば、学習画像G1を選択する。S34の処理が終了すると、評価値算出処理へ移行する(S36)。
In the process of S34, the combination
S36の処理では、組合せパターン学習部31が学習画像の評価値を算出する。組合せパターン学習部31は、S32の処理で選択された全ての弱識別器をS34の処理で選択した学習画像G1に当てはめる。そして、部分特徴の位置、大きさ及び形状に対応した学習画像G1の領域において、+1の白領域内の画素値の和から−1の黒領域内の画素値の和を減じた値を特徴量の評価値として算出する。S36の処理が終了すると、部分特徴選択処理へ移行する(S38)。
In the process of S36, the combination
S38の処理では、組合せパターン学習部31が組合せパターンに含まれる部分特徴を選択する。組合せパターン学習部31は、S36の処理で算出された評価値と弱識別器に事前に設定された所定値とを比較する。S36の処理で算出された評価値の方が、弱識別器に事前に設定された所定値よりも大きい場合には、弱識別器の機能により1が出力される。他方、S36の処理で算出された評価値の方が、弱識別器に事前に設定された所定値以下の場合には、弱識別器の機能により0が出力される。組合せパターン学習部31は、弱識別器の出力値に基づいて、評価値が所定値より大きい部分特徴を全て選択する。例えば、学習画像G1において部分特徴A,B,C,Dに対応する弱識別器が1、その他の部分特徴に対応する弱識別器が0を出力したとする。この場合、組合せパターン学習部31は、部分特徴A,B,C,Dを選択する。S38の処理が終了すると、保存処理へ移行する(S40)。
In the process of S38, the combination
S40の処理では、組合せパターン学習部31が組合せパターンに含まれる部分特徴を保存する。組合せパターン学習部31は、S38の処理で選択した部分特徴A,B,C,Dを部分特徴組合せパターンP1(A−B−C−D)として保存する。S40の処理が終了すると、完了判定処理へ移行する(S42)。
In the process of S40, the combination
S42の処理では、組合せパターン学習部31が全ての学習画像について学習を行ったか否かを判定する。組合せパターン学習部31は、S30の処理で入力された全ての学習画像Gnについて、S34〜S40の処理を実行したか否かを判定する。S42の処理において、全ての学習画像について学習を行っていないと判定した場合には、選択処理へ再度移行する(S34)。このように、全ての学習画像Gnについて学習を行うまで、S34〜S42の処理を繰り返し実行する。一方、S42の処理において、全ての学習画像Gnについて学習が完了したと判定した場合には、図5に示す制御処理を終了する。以上で図5に示す制御処理を終了する。図5に示す制御処理を実行することにより、識別対象物体に係る複数の部分特徴の組合せが学習され、複数の部分特徴組合せパターンPn(n:自然数)が取得される。
In the process of S42, it is determined whether the combination
次に、本実施形態に係る物体識別装置1の部分特徴組合せパターンの比較動作について説明する。図7は、本実施形態に係る物体識別装置1の部分特徴組合せパターンの比較動作を示すフローチャートである。図7に示す制御処理は、例えば、図3,5に示す制御処理終了後に開始される。なお、説明理解の容易性を考慮して、図7では、図3における判定画像、図5における学習画像を用いて処理を実行するものとする。
Next, a comparison operation of partial feature combination patterns of the
図7に示すように、最初に、学習済みの部分特徴組合せパターンの読込処理を実行する(S50)。S50の処理では、組合せパターン一致度算出部34が学習済みの部分特徴組合せパターンを入力する。組合せパターン一致度算出部34は、組合せパターン保存部22を参照して、学習済みの部分特徴組合せパターンを入力する。例えば、図6に示す部分特徴組合せパターンPnを入力する。S50の処理が終了すると、選択処理へ移行する(S52)。
As shown in FIG. 7, first, a learned partial feature combination pattern reading process is executed (S50). In the process of S50, the combination pattern matching
S52の処理では、組合せパターン一致度算出部34が比較する部分特徴組合せパターンPnを選択する。組合せパターン一致度算出部34は、S50の処理で入力された部分特徴組合せパターンPnを任意に1つ選択する。S52の処理が終了すると、評価値算出処理へ移行する(S54)。
In the process of S52, the partial feature combination pattern Pn to be compared is selected by the combination pattern matching
S54の処理では、組合せパターン一致度算出部34が部分特徴組合せパターンの一致割合(組合せ一致度)を算出する。組合せパターン一致度算出部34は、図3のS14,16の処理で所定値よりも大きいと判定された部分特徴、すなわち判定画像に含まれていると判定された部分特徴を入力し、入力された部分特徴の特徴量と、S52の処理で選択された部分特徴組合せパターンPnに含まれる部分特徴の特徴量とが一致するか判定し、一致したと判定した部分特徴の数をカウントする。例えば、形状、位置及び大きさが同一であるか否かを判定する。一致した部分特徴の数をNA、部分特徴組合せパターンに含まれる部分特徴の数をNとすると、一致割合KAは以下の式1を用いて算出される。
例えば、S52の処理で図6に示す部分特徴組合せパターンP1(A−B−C−D)を入力したとし、判定画像で所定値よりも大きいと判定された部分特徴が部分特徴A,C,D,Gであるとする。この場合、式1を用いて、一致割合KAは0.75とされる。S54の処理が終了すると、完了判定処理へ移行する(S56)。
In the process of S54, the combination pattern matching
For example, if the partial feature combination pattern P1 (ABCD) shown in FIG. 6 is input in the process of S52, the partial features determined to be larger than a predetermined value in the determination image are the partial features A, C, Assume that D and G. In this case, using
S56の処理では、組合せパターン一致度算出部34が全ての部分特徴組合せパターンについて評価を行ったか否かを判定する。組合せパターン一致度算出部34は、S50の処理で入力された全ての部分特徴組合せパターンPnについて、S52,S54の処理を実行したか否かを判定する。S56の処理において、全ての部分特徴組合せパターンについて評価を行っていないと判定した場合には、選択処理へ再度移行する(S52)。このように、全ての部分特徴組合せパターンについて評価を行うまで、S52〜S56の処理を繰り返し実行する。一方、S56の処理において、全ての部分特徴について評価が完了したと判定した場合には、一致割合決定処理へ移行する(S58)。
In the process of S56, it is determined whether the combination pattern matching
S58の処理では、組合せパターン一致度算出部34が全ての部分特徴組合せパターンのうち最も大きい一致割合を選択する。S58の処理が終了すると、図7に示す制御処理を終了する。以上で図7に示す制御処理を終了する。図7に示す制御処理を実行することにより、判定画像で識別対象物体の特徴部分と似ていると判定した部分特徴が、学習画像での識別対象物体の部分特徴の組合せにどの程度含まれているかを示す一致割合KAが算出される。これにより、判定画像に含まれる部分特徴の組合せが、学習した識別対象物体の組合せにどの程度一致するのかを評価することができる。
In the process of S58, the combination pattern matching
次に、本実施形態に係る物体識別装置1の識別判定動作について説明する。図8は、本実施形態に係る物体識別装置1の識別判定動作を示すフローチャートである。図8に示す制御処理は、例えば、図3,5,7に示す制御処理終了後に開始される。なお、説明理解の容易性を考慮して、図8では、図3における処理結果、図7における処理結果を用いて処理を実行するものとする。
Next, the identification determination operation of the
図8に示すように、最初に、重み和を用いた識別判定処理を実行する(S60)。S60の処理では、識別結果判定部35が図3に示す制御処理により算出された重み和を入力する。そして、識別結果判定部35は、重み和が所定値以上であるか否かを判定する。重み和が所定値以上であると判定した場合、識別対象物体である可能性があるとして、一致割合判定処理へ移行する(S62)。
As shown in FIG. 8, first, identification determination processing using a weight sum is executed (S60). In the process of S60, the identification
S62の処理では、識別結果判定部35が図7に示す制御処理により算出された一致割合KAを入力する。そして、識別結果判定部35は、一致割合KAが所定値以上であるか否かを判定する。一致割合KAが所定値以上であると判定した場合、識別対象物体であると判定する(S64)。S64の処理が終了すると、図8に示す制御処理を終了する。
In the processing of S62, the identification
一方、S60の処理において、重み和が所定値より小さいと判定した場合、識別対象物体である可能性がないとして、識別対象物体でないと判定する(S66)。また、S62の処理において、一致割合KAが所定値より小さいと判定した場合、識別対象物体である可能性がないとして、識別対象物体でないと判定する(S66)。S66の処理が終了すると、図8に示す制御処理を終了する。 On the other hand, in the process of S60, when it is determined that the weight sum is smaller than the predetermined value, it is determined that the object is not the identification target object because there is no possibility of being the identification target object (S66). Further, it is determined in the process of S62, if the matching ratio K A is determined to be smaller than the predetermined value, as there is no possibility that the identification object, not the identification target object (S66). When the process of S66 ends, the control process shown in FIG. 8 ends.
以上で図8に示す制御処理を終了する。図8に示す制御処理を実行することにより、重み和を用いて識別対象物体の可能性が判定され、さらに、部分特徴組合せパターンに含まれる部分特徴との一致割合KAを用いて識別対象物体の可能性が判定される。このように2つの判定処理を実行することで識別精度を向上させることができる。 Thus, the control process shown in FIG. 8 ends. By executing the control process shown in FIG. 8, the possibility of the identification target object is determined using the weight sum, and further, the identification target object is determined using the matching ratio K A with the partial feature included in the partial feature combination pattern. Is determined. Thus, identification accuracy can be improved by performing two determination processes.
例えば、判定画像の部分特徴のみが識別対象物体と一致する場合を説明する。識別対象物体を人とすると、図4(b)に示す電柱及び背後に写る家屋の画像は、識別対象物体ではないと判定する必要がある。しかし、電柱及び背後に写る家屋等の配置によっては、特徴部分のみが一致する場合もある。この場合、重み和だけで判定した場合には、判定画像2において識別対象物体があると誤判定するおそれがある。 For example, a case where only the partial feature of the determination image matches the identification target object will be described. If the object to be identified is a person, it is necessary to determine that the utility pole shown in FIG. 4B and the image of the house in the back are not objects to be identified. However, depending on the arrangement of the utility pole and the house in the back, only the characteristic part may match. In this case, if it is determined only by the weight sum, there is a risk of erroneous determination that there is an identification target object in the determination image 2.
これに対して、本実施形態に係る物体識別装置1によれば、部分特徴評価値算出部32により、判定画像の特徴量が部分特徴の特徴量に基づいて評価されて部分特徴ごとの評価値が算出され、評価値に基づいて部分特徴に関連付けされた信頼度の重みが取得され、重み部分特徴重み和算出部33により、重みの和である重み和が算出される。さらに、組合せパターン一致度算出部34により、評価値が所定値以上であると判定された部分特徴の組合せと、予め学習された識別対象物体に係る部分特徴の組合せとの一致度である一致割合KAが算出される。そして、識別結果判定部35により、重み和が所定値以上、及び一致割合KAが所定値以上の場合には、判定画像から識別対象物体を識別したと判定される。このように、部分特徴の重みの和による識別判定に加えて、部分特徴の組合せの一致割合KAによる識別判定を実施することができる。このため、例えば、識別対象物体とは別の物体の局所的な部分特徴のみが識別対象物体と似ていることにより重み和が所定値以上となった場合であっても、部分特徴の組合せの一致割合KAを用いて別の物体を識別対象物体であると識別することを回避することが可能となる。すなわち、予め学習時に部分特徴の組合せを学習しておき、学習時とは異なる組合せで誤判定しそうな場合に、事前に学習した組合せとの一致割合KAに応じて判定結果を変更することができる。よって、識別精度を向上させることができる。
On the other hand, according to the
また、本実施形態に係る物体識別装置1によれば、一致割合KAを算出することができるので、予め学習された識別対象物体に係る部分特徴の組合せの中に、評価値が所定値以上であると判定された部分特徴と同一な部分特徴がどの程度含まれているかを示す一致割合KAを算出することができる。これにより、学習された部分特徴と一致すると評価された判定画像の部分特徴の組合せと、学習された識別対象物体の部分特徴の組合せとの一致する度合いを評価することが可能となる。
Further, according to the
(第2実施形態)
第2実施形態に係る物体識別装置は、第1実施形態に係る物体識別装置1とほぼ同様に構成されており、組合せパターン一致度算出部34の動作のみが相違する。よって、第2実施形態では第1実施形態との相違点を中心に説明し、重複する説明は省略する。
(Second Embodiment)
The object identification device according to the second embodiment is configured in substantially the same manner as the
第2実施形態に係る物体識別装置の構成は、第1実施形態に係る物体識別装置1と同様である。また、第2実施形態に係る物体識別装置の動作は、図7に示す部分特徴組合せパターンの比較動作以外は同様である。
The configuration of the object identification device according to the second embodiment is the same as that of the
第2実施形態に係る物体識別装置の部分特徴組合せパターンの比較動作を説明する。図9は、本実施形態に係る物体識別装置の部分特徴組合せパターンの比較動作を示すフローチャートである。図9に示す制御処理は、例えば、図3,5に示す制御処理終了後に開始される。なお、説明理解の容易性を考慮して、図9では、図3における判定画像、図5における学習画像を用いて処理を実行するものとする。 A comparison operation of partial feature combination patterns of the object identification device according to the second embodiment will be described. FIG. 9 is a flowchart showing a comparison operation of partial feature combination patterns of the object identification device according to the present embodiment. The control process shown in FIG. 9 is started after the control process shown in FIGS. In consideration of the ease of understanding the description, in FIG. 9, the process is executed using the determination image in FIG. 3 and the learning image in FIG.
図9に示すように、最初に、学習済みの部分特徴組合せパターンの読込処理を実行する(S70)。この処理は図7のS50の処理と同様である。S70の処理が終了すると、選択処理へ移行する(S72)。 As shown in FIG. 9, first, a learned partial feature combination pattern reading process is executed (S70). This process is the same as the process of S50 of FIG. When the processing of S70 ends, the process proceeds to selection processing (S72).
S72の処理では、組合せパターン一致度算出部34が比較する部分特徴組合せパターンPnを選択する。この処理は図7のS52の処理と同様である。S72の処理が終了すると、評価値算出処理へ移行する(S74)。
In the process of S72, the combination pattern matching
S74の処理では、組合せパターン一致度算出部34が部分特徴組合せパターンの特徴量の一致度を算出する。組合せパターン一致度算出部34は、図3のS14,16の処理で所定値よりも大きいと判定された部分特徴、すなわち判定画像に含まれていると判定された部分特徴を入力する。そして、入力された部分特徴の特徴量と、S52の処理で選択された部分特徴組合せパターンPnに含まれる部分特徴の特徴量とが同一又は類似するか否かを判定するために、部分特徴の形状、位置及び大きさを評価する。
In the process of S74, the combination pattern matching
最初に、形状についての評価について説明する。例えば、図2(a)に示すように、4種類の形状の部分特徴について説明する。図2(a)に示すように、形状については、フィルタF1〜F4に応じて4種類存在する。このため、図3の処理で弱識別器が1とした部分特徴(以下、部分特徴U1とする。)と、部分特徴組合せパターンに含まれる部分特徴(以下、部分特徴U2とする。)とがフィルタF1〜F4に応じた4種類の形状として一致した場合には一致度Kshapeを1、一致しない場合には一致度Kshapeを0とする。なお、上記の4種類の形状は全く異なるため0又は1の選択としたが、例えば、フィルタを回転させただけの場合等、フィルタ同士が似た形状を用いている場合には、類似する程度に応じて一致度Kshapeを0〜1の範囲の値としてもよい。このように、一致度Kshapeを用いて形状についての評価を行う。 First, the evaluation of the shape will be described. For example, as shown in FIG. 2A, partial features of four types of shapes will be described. As shown in FIG. 2A, there are four types of shapes depending on the filters F1 to F4. For this reason, the partial feature (hereinafter referred to as partial feature U1) set to 1 by the weak classifier in the process of FIG. 3 and the partial feature included in the partial feature combination pattern (hereinafter referred to as partial feature U2). When the four shapes corresponding to the filters F1 to F4 match, the matching degree K shape is set to 1, and when they do not match, the matching degree K shape is set to zero. Note that the four types of shapes are completely different, so 0 or 1 was selected. However, when the filters have similar shapes, for example, when the filters are just rotated, the degree of similarity is similar. The matching degree K shape may be set to a value in the range of 0 to 1. In this way, the shape is evaluated using the degree of coincidence K shape .
次に、位置及び大きさについての評価について説明する。例えば、上記2つの部分特徴U1,U2の矩形が重なる面積を算出し、それぞれの部分特徴における重なり領域の割合R(U1),R(U2)を算出する。例えば、重なり領域の面積をSW、部分特徴U1の面積をSU1、部分特徴U2の面積をSU2とすると、割合R(U1),R(U2)は以下の式2,3で表すことができる。
上記式2、3を用いて算出された割合R(U1),R(U2)に基づいて、一致度Kpos&sizeを以下の式4を用いて算出する。
このように、一致度Kpos&sizeを用いて位置及び大きさについての評価を行う。以上でS74の処理を終了する。S74の処理が終了すると、一致割合算出処理へ移行する(S76)。
Next, evaluation on the position and size will be described. For example, the area where the rectangles of the two partial features U1 and U2 overlap is calculated, and the ratios R (U1) and R (U2) of the overlapping regions in the partial features are calculated. For example, assuming that the area of the overlapping region is S W , the area of the
Based on the ratios R (U1) and R (U2) calculated using the above formulas 2 and 3, the degree of coincidence K pos & size is calculated using the following formula 4.
In this way, the position and size are evaluated using the degree of coincidence K pos & size . Thus, the process of S74 is completed. When the process of S74 ends, the process proceeds to a coincidence ratio calculation process (S76).
S76の処理では、組合せパターン一致度算出部34が部分特徴組合せパターンの一致割合を算出する。組合せパターン一致度算出部34は、図3のS14,16の処理で所定値よりも大きいと判定された部分特徴、すなわち判定画像に含まれていると判定された部分特徴を入力し、入力された部分特徴の特徴量と、S52の処理で選択された部分特徴組合せパターンPnに含まれる部分特徴の特徴量とが一致するか判定し、一致したと判定した部分特徴の数をカウントする。一致するか否かの特徴量に関する判定を、S74の処理で算出した一致度Kshape,Kpos&sizeを用いて行う。例えば、一致度Kshape,Kpos&sizeの積算値を総合一致度Kallとし、総合一致度Kallがある所定値以上である場合に、一致したと判定する。このように、完全同一でないが、類似する特徴量を有する部分特徴同士は一致すると判定する。その後、組合せパターン一致度算出部34は、図7のS54の処理と同様に、式1を用いて一致割合KAを算出する。S76の処理が終了すると、完了判定処理へ移行する(S78)。
In the process of S76, the combination pattern matching
S78の処理では、組合せパターン一致度算出部34が全ての部分特徴組合せパターンについて評価を行ったか否かを判定する。この処理は図7のS56の処理と同様である。すなわち、全ての部分特徴組合せパターンについて評価を行っていないと判定した場合には、全ての部分特徴組合せパターンについて評価を行うまで、S72〜S78の処理を繰り返し実行する。一方、S78の処理において、全ての部分特徴について評価が完了したと判定した場合には、一致割合決定処理へ移行する(S80)。
In the process of S78, it is determined whether the combination pattern matching
S80の処理では、組合せパターン一致度算出部34が全ての部分特徴組合せパターンのうち最も大きい一致割合を選択する。この処理は、図7のS58の処理と同様である。S80の処理が終了すると、図9に示す制御処理を終了する。以上で図9に示す制御処理を終了する。図9に示す制御処理を実行することにより、判定画像で識別対象物体の特徴部分と似ていると判定した部分特徴が、学習画像での識別対象物体の部分特徴の組合せにどの程度含まれているかを示す一致割合が算出される。そして、その一致割合については、第1実施形態とは異なり、完全一致した部分特徴ではなく、類似する部分特徴も一致したものとして算出される。
In the process of S80, the combination pattern matching
以上、第2実施形態に係る物体識別装置によれば、第1実施形態に係る物体識別装置1と同様の効果を奏するとともに、予め学習された識別対象物体に係る部分特徴の組合せの中に、評価値が所定値以上であると判定された部分特徴と同一又は類似する部分特徴がどの程度含まれているかを示す一致割合KAを算出することができる。これにより、評価値が所定値以上であると判定された部分特徴が、組合せの中に含まれる部分特徴とは同一ではないが類似する場合には、予め学習された識別対象物体に係る部分特徴の組合せの中に含まれるものとすることができる。さらに、一致するか否かの判定に幅を持たせることにより、学習された部分特徴と一致すると評価された判定画像の部分特徴の組合せと、学習された識別対象物体の部分特徴の組合せとの一致度を、誤差を含めて算出することが可能となる。よって、厳格な判定によって識別対象物体を未識別とすることを回避することができる。
As described above, according to the object identification device according to the second embodiment, while having the same effect as the
(第3実施形態)
第3実施形態に係る物体識別装置は、第1実施形態に係る物体識別装置1とほぼ同様に構成されており、識別結果判定部(重み和修正手段)35の動作のみが相違する。よって、第3実施形態では第1実施形態との相違点を中心に説明し、重複する説明は省略する。
(Third embodiment)
The object identification device according to the third embodiment is configured in substantially the same manner as the
第3実施形態に係る物体識別装置の構成は、第1実施形態に係る物体識別装置1と同様である。また、第3実施形態に係る物体識別装置の動作は、図8に示す識別判定動作以外は同様である。
The configuration of the object identification device according to the third embodiment is the same as that of the
第3実施形態に係る物体識別装置の識別判定動作を説明する。図10は、本実施形態に係る物体識別装置の識別判定動作を示すフローチャートである。図10に示す制御処理は、例えば、図3,5,7に示す制御処理終了後に開始される。なお、説明理解の容易性を考慮して、図10では、図3における処理結果、図7における処理結果を用いて処理を実行するものとする。 An identification determination operation of the object identification device according to the third embodiment will be described. FIG. 10 is a flowchart showing an identification determination operation of the object identification device according to the present embodiment. The control process shown in FIG. 10 is started after the control process shown in FIGS. In consideration of the ease of understanding the explanation, in FIG. 10, it is assumed that the processing is executed using the processing result in FIG. 3 and the processing result in FIG.
図10に示すように、最初に、一致割合を用いて、重み和を修正する処理を実行する(S90)。S90の処理では、例えば、識別結果判定部35が、図3に示す制御処理により算出された重み和、及び図7もしくは図9に示す制御処理により算出された一致割合KAを入力する。そして、一致割合KAに基づいて重み和を修正する。修正後の重み和SrSUMは、図3に示す制御処理により算出された重み和をSSUMとすると、以下の式5を用いて表現できる。
S90の処理が終了すると、修正重み和判定処理へ移行する(S92)。
As shown in FIG. 10, first, a process of correcting the weight sum is executed using the matching ratio (S90). In the processing of S90, for example, the identification
When the process of S90 ends, the process proceeds to a correction weight sum determination process (S92).
S92の処理では、識別結果判定部35は、修正重み和SrSUMが所定値以上であるか否かを判定する。修正重み和SrSUMが所定値以上であると判定した場合、識別対象物体であると判定する(S94)。S94の処理が終了すると、図10に示す制御処理を終了する。一方、一方、S92の処理において、修正重み和SrSUMが所定値より小さいと判定した場合、識別対象物体でないと判定する(S96)。S96の処理が終了すると、図10に示す制御処理を終了する。
In the process of S92, the identification
以上で図10に示す制御処理を終了する。図10に示す制御処理を実行することにより、一致割合KAを用いて修正重み和SrSUMが算出され、修正重み和SrSUMを用いて識別対象物体であるか否かが判定される。アダブーストアルゴリズムにより、「識別対象物体でない」と評価する部分特徴が学習された場合に、当該弱識別器には負の重みが付与される。このため、このような弱識別器を用いた場合には、重み和SSUMが低下し、識別対象物体であっても識別できない場合も想定される。 This is the end of the control process shown in FIG. By executing the control processing shown in FIG. 10, matching ratio K is calculated corrected weighting sum Sr SUM with A, whether the identification target object using the corrected weights sum Sr SUM is determined. When a partial feature evaluated as “not an object to be identified” is learned by the Adaboost algorithm, a negative weight is given to the weak classifier. For this reason, when such a weak discriminator is used, the weight sum SSUM is reduced, and it may be assumed that even if it is a discrimination target object, it cannot be discriminated.
しかしながら、第3実施形態に係る物体識別装置によれば、識別結果判定部35により、組合せの一致割合KAに基づいて重み和SSUMが加減修正することができるとともに、修正された修正重み和SrSUMを用いて識別判定を行うことが可能となる。これにより、例えば、例えば、識別対象物体ではあるが、重みの和SSUMが閾値にわずかに足りない場合に、高い一致割合KAを積算することにより修正重み和SrSUMを重み和SSUMよりも大きくすることができるので、未識別を回避することが可能となる。また、想定外の組合せで重み和SSUMが大きくなった場合に、低い一致割合KAを積算することにより修正重み和SrSUMを重み和SSUMよりも小さくすることができるので、誤判定を回避することが可能となる。
However, according to the object identification device according to the third embodiment, the identification result by the
なお、上述した各実施形態は本発明に係る物体識別装置の一例を示すものである。本発明に係る物体識別装置は、各実施形態に係る物体識別装置に限られるものではなく、各請求項に記載した要旨を変更しない範囲で、各実施形態に係る物体識別装置を変形し、又は他のものに適用したものであってもよい。 Each of the above-described embodiments shows an example of the object identification device according to the present invention. The object identification device according to the present invention is not limited to the object identification device according to each embodiment, and the object identification device according to each embodiment is modified or changed without changing the gist described in each claim, or It may be applied to other things.
例えば、上述した実施形態では、部分特徴は、位置、大きさ及び形状で表現されることを説明したが、位置、大きさ及び形状の少なくとも一つで表現してもよい。すなわち、上述した第2実施形態では、部分特徴の特徴量が同一又は類似するか否かを判定するために、部分特徴の形状、位置及び大きさを評価することを説明したが、これらの少なくとも一つで評価してもよい。 For example, in the above-described embodiment, it has been described that the partial feature is expressed by the position, size, and shape. However, the partial feature may be expressed by at least one of the position, size, and shape. That is, in the second embodiment described above, it has been described that the shape, position, and size of the partial feature are evaluated in order to determine whether or not the feature amount of the partial feature is the same or similar. You may evaluate by one.
また、上述した第2実施形態では、部分特徴の特徴量が同一又は類似するか否かを判定する際に、位置及び大きさを式2〜式4を用いる例を説明したが、この手法に限られるわけではなく、2つの部分特徴U1,U2が良く似た位置で良く似た大きさになるほど一致度が高くなるような適当な評価方法を用いればよい。例えば、2つの部分特徴U1,U2の中心位置の差と大きさの差の和を一致度Kpos&sizeとする場合であってもよい。 Further, in the second embodiment described above, the example in which the position and the size are used in Expression 2 to Expression 4 when determining whether or not the feature amounts of the partial features are the same or similar has been described. There is no limitation, and an appropriate evaluation method may be used in which the degree of coincidence increases as the two partial features U1 and U2 become similar in size at similar positions. For example, the sum of the difference between the center positions of the two partial features U1 and U2 and the difference in size may be used as the degree of matching K pos & size .
また、上述した各実施形態において、記録装置2、部分特徴学習部30及び組合せパターン学習部31については、要求される性能に応じて備えれば良い。例えば、物体識別装置1が、記録装置2が保存する情報、部分特徴学習部30及び組合せパターン学習部31が出力する情報等を取得可能なインターフェイスを備える場合には、記録装置2、部分特徴学習部30及び組合せパターン学習部31を備える必要はない。
In each of the above-described embodiments, the recording device 2, the partial
1…物体識別装置、30…部分特徴学習部、31…組合せパターン学習部、32…部分特徴評価値算出部(評価値算出手段、取得手段)、33…部分特徴重み和算出部(重み和算出手段)、34…組合せパターン一致度算出部(一致度算出手段)、35…識別結果判定部(重み和修正手段、識別結果判定手段)。
DESCRIPTION OF
Claims (5)
前記判定画像の特徴量を前記部分特徴の特徴量に基づいて評価し、前記部分特徴ごとの評価値を算出する評価値算出手段と、
前記評価値に基づいて、前記部分特徴に関連付けされた信頼度の重みを取得する取得手段と、
前記取得手段により取得された前記信頼度の重みの和である重み和を算出する重み和算出手段と、
前記評価値が所定値以上であると判定された前記部分特徴の組合せと、予め学習された前記識別対象物体に係る前記部分特徴の組合せとの一致度である組合せ一致度を算出する一致度算出手段と、
前記重み和が所定値以上、及び前記組合せ一致度が所定値以上の場合には、前記判定画像から前記識別対象物体を識別したと判定する識別結果判定手段と、
を備えることを特徴とする物体識別装置。 An object identification device that identifies an identification target object from a determination image based on feature amounts of a plurality of partial features learned in advance using a learning image and reliability weights associated with each of the partial features,
Evaluation value calculating means for evaluating the feature amount of the determination image based on the feature amount of the partial feature and calculating an evaluation value for each partial feature;
Obtaining means for obtaining a weight of reliability associated with the partial feature based on the evaluation value;
A weight sum calculating means for calculating a weight sum that is a sum of the weights of the reliability obtained by the obtaining means;
A degree of coincidence calculation that calculates a degree of coincidence of matching that is a degree of coincidence between the combination of the partial features determined that the evaluation value is equal to or greater than a predetermined value and the combination of the partial features related to the identification target object learned in advance. Means,
An identification result determination unit that determines that the identification target object has been identified from the determination image when the weight sum is a predetermined value or more and the combination matching degree is a predetermined value or more;
An object identification device comprising:
前記識別結果判定手段は、前記重み和修正手段により前記重み和が修正された場合には、前記重み和修正手段により修正された前記重み和が所定値以上、及び前記組合せ一致度が所定値以上の場合には、前記判定画像から前記識別対象物体を識別したと判定する請求項1〜3の何れか一項に記載の物体識別装置。 A weight sum correction means for adjusting the weight sum based on the combination matching degree;
When the weight sum is corrected by the weight sum correction unit, the identification result determination unit is configured such that the weight sum corrected by the weight sum correction unit is equal to or greater than a predetermined value, and the combination matching degree is equal to or greater than a predetermined value. In this case, the object identification device according to claim 1, wherein it is determined that the identification target object has been identified from the determination image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009270049A JP2011113360A (en) | 2009-11-27 | 2009-11-27 | Object identification apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009270049A JP2011113360A (en) | 2009-11-27 | 2009-11-27 | Object identification apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011113360A true JP2011113360A (en) | 2011-06-09 |
Family
ID=44235643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009270049A Pending JP2011113360A (en) | 2009-11-27 | 2009-11-27 | Object identification apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011113360A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013045433A (en) * | 2011-08-26 | 2013-03-04 | Canon Inc | Learning apparatus, method for controlling learning apparatus, detection apparatus, method for controlling detection apparatus, and program |
JP2019036240A (en) * | 2017-08-21 | 2019-03-07 | 株式会社Ihi | Object detection device |
JP2019175176A (en) * | 2018-03-28 | 2019-10-10 | 富士通株式会社 | Adaptation degree calculation program, adaptation degree calculation method, adaptation degree calculation device, identification program, identification method, and identification device |
JP2019175063A (en) * | 2018-03-28 | 2019-10-10 | Kddi株式会社 | Object identification device |
-
2009
- 2009-11-27 JP JP2009270049A patent/JP2011113360A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013045433A (en) * | 2011-08-26 | 2013-03-04 | Canon Inc | Learning apparatus, method for controlling learning apparatus, detection apparatus, method for controlling detection apparatus, and program |
JP2019036240A (en) * | 2017-08-21 | 2019-03-07 | 株式会社Ihi | Object detection device |
JP2019175176A (en) * | 2018-03-28 | 2019-10-10 | 富士通株式会社 | Adaptation degree calculation program, adaptation degree calculation method, adaptation degree calculation device, identification program, identification method, and identification device |
JP2019175063A (en) * | 2018-03-28 | 2019-10-10 | Kddi株式会社 | Object identification device |
JP7063052B2 (en) | 2018-03-28 | 2022-05-09 | 富士通株式会社 | Goodness-of-fit calculation program, goodness-of-fit calculation method, goodness-of-fit calculation device, identification program, identification method and identification device |
US11488023B2 (en) | 2018-03-28 | 2022-11-01 | Fujitsu Limited | Adaptability calculation method, adaptability calculation device, identification method, identification device, and computer-readable recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325954B (en) | Image segmentation method and device and electronic equipment | |
US11256955B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
US9152926B2 (en) | Systems, methods, and media for updating a classifier | |
EP3333768A1 (en) | Method and apparatus for detecting target | |
JP6639113B2 (en) | Image recognition device, image recognition method, and program | |
US10216979B2 (en) | Image processing apparatus, image processing method, and storage medium to detect parts of an object | |
KR102449841B1 (en) | Method and apparatus for detecting target | |
US8160366B2 (en) | Object recognition device, object recognition method, program for object recognition method, and recording medium having recorded thereon program for object recognition method | |
JP4708909B2 (en) | Method, apparatus and program for detecting object of digital image | |
US20180150725A1 (en) | Image recognition apparatus, image recognition method, and program | |
US9330336B2 (en) | Systems, methods, and media for on-line boosting of a classifier | |
JP4588575B2 (en) | Method, apparatus and program for detecting multiple objects in digital image | |
JP2008033424A (en) | Image processor, image processing method, program, and storage medium | |
JP4996394B2 (en) | Authentication apparatus and authentication method | |
JP6639523B2 (en) | Automatic learning image sorting device, automatic learning image sorting method, and automatic learning image sorting program | |
JP2010108476A (en) | Learning apparatus and method, recognition apparatus and method, program, and recording medium | |
JP2010108475A (en) | Image processing apparatus and method, program, and recording medium | |
US8363909B2 (en) | Image processing apparatus, image processing method, and computer program product | |
JP2007065844A (en) | Method, apparatus, and program for detecting face | |
US20190279022A1 (en) | Object recognition method and device thereof | |
JP2012083938A (en) | Learning device, learning method, identification device, identification method, and program | |
CN112836653A (en) | Face privacy method, device and apparatus and computer storage medium | |
CN111860055A (en) | Face silence living body detection method and device, readable storage medium and equipment | |
JP2011113360A (en) | Object identification apparatus | |
JP2009211490A (en) | Image recognition method and image recognition device |