JP2011221750A - 物体識別装置 - Google Patents

物体識別装置 Download PDF

Info

Publication number
JP2011221750A
JP2011221750A JP2010089583A JP2010089583A JP2011221750A JP 2011221750 A JP2011221750 A JP 2011221750A JP 2010089583 A JP2010089583 A JP 2010089583A JP 2010089583 A JP2010089583 A JP 2010089583A JP 2011221750 A JP2011221750 A JP 2011221750A
Authority
JP
Japan
Prior art keywords
feature
feature amount
identification device
extracted
object identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010089583A
Other languages
English (en)
Inventor
Hiroaki Shimizu
宏明 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2010089583A priority Critical patent/JP2011221750A/ja
Publication of JP2011221750A publication Critical patent/JP2011221750A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】識別精度の向上を図ることができる物体識別装置を提供する。
【解決手段】物体を識別する有効な特徴量を学習画像から統計的に複数抽出して物体の部分を識別する強識別器を複数生成し、この生成された複数の強識別器を直列的に組み合わせることで物体全体の識別を行う物体識別装置1であって、学習画像から抽出される特徴量の条件を強識別器ごとに設定する特徴サイズ設定部30と、条件を満たす特徴量を学習画像から統計的に複数抽出する特徴量抽出部31と、特徴量抽出部31により抽出された複数の特徴量を強識別器として保存する部分特徴モデル保存部21と、を備える。
【選択図】図1

Description

本発明は、物体識別装置に関するものである。
従来、物体を識別する装置として、画像情報を用いるものが知られている(例えば、特許文献1参照)。特許文献1に記載の物体識別装置は、アダブーストアルゴリズム(AdaBoost Algorithm)で学習した弱分類器の重み付け投票により分類を行うものであり、順列番号順に弱識別器を演算するとともに、弱識別器の演算ごとに重み付け投票の結果を更新し、重み付け投票の結果が閾値を上回った時点で、positive判定(識別する分類に属するとの判定)を行い、それ以降の順列番号の弱分類器の演算を中断するものである。
特開2007−066114号公報
しかしながら、アダブーストアルゴリズムを採用した従来の物体識別装置にあっては、十分な識別性能を得られない場合がある。例えば、学習画像に偏りがある場合には、不必要な特徴量に対して弱識別器が機械的に割り当てられて学習することになるため、結果として全体の識別性能が低下するおそれがある。
そこで、本発明はこのような技術課題を解決するためになされたものであって、識別精度の向上を図ることができる物体識別装置を提供することを目的とする。
すなわち、本発明に係る物体識別装置は、物体を識別する有効な特徴量を学習画像から統計的に複数抽出して前記物体の部分を識別する強識別器を複数生成し、この生成された複数の前記強識別器を直列的に組み合わせることで前記物体全体の識別を行う物体識別装置であって、前記学習画像から抽出される前記特徴量の条件を前記強識別器ごとに設定する条件設定手段と、前記条件を満たす前記特徴量を前記学習画像から統計的に複数抽出する特徴量抽出手段と、前記特徴量抽出手段により抽出された複数の前記特徴量を前記強識別器として保存する保存手段と、を備えて構成される。
本発明に係る物体識別装置では、条件設定手段により、学習画像から抽出される特徴量の条件が強識別器ごとに設定され、特徴量抽出手段により、条件を満たす特徴量が学習画像から統計的に複数抽出され、保存手段により、特徴量抽出手段によって抽出された複数の特徴量が強識別器として保存される。このように、識別器を学習する段階で、学習画像から抽出される特徴量に条件を付することができるので、例えば背景や服装の一部等、認識対象の物体に共通するはずのない特徴量を条件設定で排除することができる。このため、学習画像に偏りがあった場合でも、適切な学習を行うことが可能となる。また、強識別器ごとに条件を設定することができるので、例えば、直列的に組み合わせられた複数の強識別器のうち初期段階(前段側)で実行される強識別器を、認識対象に共通する大雑把な特徴量で構成し、後期段階(後段側)で実行される強識別器を認識対象に共通する細かい特徴量で構成するように制御することが可能となる。よって、識別精度の向上を図ることができる。
ここで、前記条件設定手段は、前記特徴量の大きさの下限値を設定してもよい。この場合、前記条件設定手段は、前記物体の部位ごとに前記特徴量の大きさの下限値を設定してもよい。このように、特徴量の大きさに制限を与えることで、強識別器ごとに抽出する特徴量の性質を設定することができる。
また、本発明に係る物体識別装置は、物体を識別する有効な特徴量を学習画像から統計的に複数抽出して前記物体の部分を識別する強識別器を複数生成し、この生成された複数の前記強識別器を直列的に組み合わせることで前記物体全体の識別を行う物体識別装置であって、前記学習画像の画素値を前記強識別器ごとに異なる度合いで平均化するフィルタ手段と、前記フィルタ手段により処理された後の前記学習画像から前記特徴量を統計的に複数抽出する特徴量抽出手段と、前記特徴量抽出手段により抽出された複数の前記特徴量を前記強識別器として保存する保存手段と、を備えて構成される。
本発明に係る物体識別装置では、フィルタ手段により学習画像の画素値が強識別器ごとに異なる度合いで平均化され、特徴量抽出手段により平均化された学習画像から特徴量が統計的に複数抽出され、保存手段により抽出された複数の特徴量が強識別器として保存される。このように、識別器を学習する段階で、学習画像を平均化して特徴量を抽出することができるので、例えば、認識対象の物体に共通する大雑把な特徴量を取得することができる。このため、学習画像に偏りがあった場合でも、適切な学習を行うことが可能となる。また、強識別器ごとに平均化の度合いを設定することができるので、例えば、直列的に組み合わせられた複数の強識別器のうち初期段階(前段側)で実行される強識別器を、認識対象に共通する大雑把な特徴量で構成し、後期段階(後段側)で実行される強識別器を認識対象に共通する細かい特徴量で構成するように制御することが可能となる。よって、識別精度の向上を図ることができる。
また、本発明に係る物体識別装置は、物体を識別する有効な特徴量を学習画像から統計的に複数抽出して前記物体の部分を識別する強識別器を複数生成し、この生成された複数の前記強識別器を直列的に組み合わせることで前記物体全体の識別を行う物体識別装置であって、前記特徴量を前記学習画像から統計的に複数抽出する特徴量抽出手段と、前記特徴量抽出手段により抽出された複数の前記特徴量の信頼度をそれぞれ算出し、前記信頼度に基づいて前記特徴量抽出手段により抽出された複数の前記特徴量から前記物体を識別する有効な特徴量を選択する特徴量選択手段と、前記特徴量選択手段により選択された前記特徴量を前記強識別器として保存する保存手段と、を備えて構成される。
本発明に係る物体識別装置では、特徴量抽出手段により特徴量が学習画像から統計的に複数抽出され、特徴量選択手段により抽出された特徴量の信頼度が算出され、信頼度に基づいて特徴量抽出手段により抽出された複数の特徴量から物体を識別する有効な特徴量が選択され、保存手段により選択された特徴量が強識別器として保存される。このように、識別器を学習する段階で、学習画像から抽出される特徴量を信頼度で評価することができるので、例えば背景や服装の一部等、認識対象の物体に共通するはずのない特徴量が偶然にも有効な特徴量として抽出された場合であっても当該特徴量に弱識別器を割り当てることを回避することができる。このため、学習画像に偏りがあった場合でも、適切な学習を行うことが可能となる。よって、識別精度の向上を図ることができる。
ここで、前記特徴量選択手段は、前記特徴量抽出手段により抽出された前記特徴量の位置を変動させて前記信頼度を算出し、前記位置の変動に対して前記信頼度の変動の少ない前記特徴量を前記特徴量抽出手段により抽出された複数の前記特徴量から優先的に選択することが好適である。このように構成することで、位置がずれても識別に有効な物体の特徴量を選択することができるので、識別精度の向上を図ることができる。
また、前記特徴量選択手段は、前記特徴量抽出手段により抽出された前記特徴量の大きさを変動させて前記信頼度を算出し、前記大きさの変動に対して前記信頼度の変動の少ない前記特徴量を前記特徴量抽出手段により抽出された複数の前記特徴量から優先的に選択することが好適である。このように構成することで、位置がずれても識別に有効な物体の特徴量を選択することができるので、識別精度の向上を図ることができる。
本発明によれば、識別精度の向上を図ることができる。
第1実施形態に係る物体識別装置の構成を示すブロック図である。 第1実施形態に係る物体識別装置が抽出する部分特徴量を説明するための概要図である。 第1,第3実施形態に係る物体識別装置の学習動作を示すフローチャートである。 第1実施形態に係る物体識別装置の動作を説明するための概要図である。 第2実施形態に係る物体識別装置の構成を示すブロック図である。 第2実施形態に係る物体識別装置の組合せ学習動作を示すフローチャートである。 第2実施形態に係る物体識別装置の動作を説明するための概要図である。 第2実施形態に係る物体識別装置の動作を説明するための概要図である。 第3実施形態に係る物体識別装置の構成を示すブロック図である。 第3実施形態に係る物体識別装置の動作を説明するための概要図である。 第4実施形態に係る物体識別装置の構成を示すブロック図である。 第4実施形態に係る物体識別装置の組合せ学習動作を示すフローチャートである。 第4実施形態に係る物体識別装置の動作を説明するための概要図である。 第4実施形態に係る物体識別装置の他の動作を説明するための概要図である。
以下、添付図面を参照して本発明の実施形態について説明する。なお、各図において同一又は相当部分には同一の符号を付し、重複する説明を省略する。
(第1実施形態)
本実施形態に係る物体識別装置は、学習画像を学習した結果に基づいて、判定画像内に含まれる物体を識別する装置であって、例えば、車両の運転支援等に好適に採用されるものである。
最初に、本実施形態に係る物体識別装置の構成を説明する。図1は、本実施形態に係る物体識別装置の構成を示すブロック図である。図1に示すように、物体識別装置1は、記録装置2及び演算装置3を備えている。
記録装置2は、情報を記録する装置であって、演算装置3により読み書き可能に構成されている。記録装置2として、例えばHDD(Hard Disk Drive)が用いられる。この記録装置2は、学習画像保存部20及び部分特徴モデル保存部(保存手段)21を備えている。
学習画像保存部20には、演算装置3が識別対象物体を識別するために学習する学習画像が複数保存されている。学習画像としては、識別の対象となる識別対象物体が含まれる画像のみならず、識別対象物体が含まれない画像も用いられる。また、部分特徴モデル保存部21には、演算装置3が学習により取得した部分特徴の特徴量が複数保存されている。部分特徴とは、画像の一部を構成する部分画像であって、例えば識別対象物体が人間であれば頭、手、足等の人であるという識別性を発揮する部分的な特徴を示すものである。特徴量とは、特徴を評価するための評価値であって部分特徴の画像情報に基づいて算出されるものである。例えば、Haarウェーブレット(Haar wavelets)の特徴量が用いられ、詳細については後述する。
演算装置3は、演算処理を行う装置であって、記録装置2、判定画像を入力する判定画像入力部4、判定結果を表示する判定結果表示部5に接続されている。演算装置3として、例えばECU(Electronic Control Unit)が用いられる。ECUは、電子制御するコンピュータであり、CPU(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリ、及び入出力インターフェイスなどを備えて構成されている。なお、判定画像入力部4として、例えばCCD(Charge Coupled Device)カメラ等の撮像装置、判定結果表示部5として、例えばディスプレイ等の表示装置が用いられる。
演算装置3は、特徴サイズ設定部(条件設定手段)30、特徴量抽出部(特徴量抽出手段)31及び識別部32を備えている。
特徴サイズ設定部30は、学習画像に描画される識別対象物体の特徴量の大きさの下限値を設定する機能を有している。この機能は、特徴量抽出部31が抽出する特徴量の大きさの下限値を設定するものである。この大きさの設定は、後述する強識別器ごと、すなわちステージごとに設定可能である。特徴サイズ設定部30は、設定した内容を特徴量抽出部31へ出力する機能を有している。
特徴量抽出部31は、学習画像の部分特徴を学習する機能を有している。特徴量抽出部31は、学習画像保存部20に保存された学習画像を参照し、学習画像の部分特徴を学習する。例えば、特徴量抽出部31は、アダブーストアルゴリズムを用いて学習する。アダブーストアルゴリズムは、逐次的に例題に関する信頼度の重みを変化させながら異なる弱識別器を生成し、それらを組み合わせて高精度な識別器を構成する学習アルゴリズムである。特徴量抽出部31は、数種類のフィルタを用いてHaarウェーブレットの特徴量を学習画像から取得する。図2(a)は、特徴量を抽出するフィルタF1〜F4の例である。図2(a)に示すように、フィルタF1,F2は、エッジ部に現れる特徴を抽出するものであり、フィルタF3,F4は、線部に現れる特徴を抽出するものである。フィルタF1〜F4は、±1の2値矩形フィルタであり、+1の白領域内の画素値(輝度値)の和から−1の黒領域内の画素値の和を減じた値を特徴量の評価値として算出する。また、フィルタF1〜F4は、任意の位置及び大きさに変更され、学習画像から適切に部分特徴を抽出する。すなわち抽出された部分特徴は、位置、大きさ及び形状の情報を含む特徴量で表現される。図2(b)は、画像G1内の部分特徴の位置及び大きさを説明する概要図である。図2(b)に示すように、部分特徴の位置は、例えば学習画像G1の左上を基準としたフィルタの左上の位置(u1,v1)によって表現される。また、部分特徴の大きさは、領域の横及び縦の長さ(W1,H1)によって部分特徴の大きさが表現される。さらに、形状については、例えばフィルタF1〜F4で示す形状パターンで表現される。このように、部分特徴は、位置、大きさ及び形状で表現され、評価値で評価される。
特徴量抽出部31は、特徴サイズ設定部30により出力された下限値に基づいて、下限値よりも大きいサイズの特徴量を抽出する。例えば、特徴サイズ設定部30により、フィルタF1〜F4の大きさ(W1,H1)の下限値が設定され、特徴サイズ設定部30は、フィルタF1〜F4の大きさ(W1,H1)を下限値よりも大きくして特徴量を抽出する。
特徴量抽出部31は、図2(c)に示すように、複数のフィルタを用いて、学習画像G1に含まれる部分特徴を複数個抽出する。なお、図2(c)は、識別対象物体を人とした場合の学習画像の一例であり、点線で囲む部分特徴A〜Hが検出されていることを示している。そして、特徴量抽出部31は、抽出した部分特徴ごとに弱識別器を用意する。この弱識別器は、後述する識別部32に用いられる識別器であって、例えば、部分特徴の位置、大きさ、形状に対応した判定画像の領域において、上述した評価値を算出して、判定画像内に学習画像の部分特徴に対応する特徴が存在するか否かを判定する機能を有している。
特徴量抽出部31は、多数の学習画像を入力して、識別対象物体の識別に有効な弱識別器を学習する機能を有している。具体的には、特徴量抽出部31は、識別対象物体に共通する部分特徴を学習することで、識別対象物体の識別に最適な弱識別器を複数個選択する。その際、選択した弱識別器ごとに、識別に必要な所定値を設定するとともに、エラー値や画像の重み等に基づいて弱識別器の重みを算出して弱識別器ごとに関連付けする。この重みは、弱識別器の識別の投票力を示すものであるとともに、当該弱識別器と対応する部分特徴の投票力を示すものである。すなわち、この重みは、部分特徴に関連付けされているともいえる。そして、特徴量抽出部31は、識別に用いる部分特徴、関連付けされた重み及び弱識別器を、部分特徴モデルとして部分特徴モデル保存部21に保存する。
識別部32は、判定画像に識別対象物体が存在するか否か判定する機能を有している。識別部32は、部分特徴モデル保存部21に保存された弱識別器を複数用いて強識別器を生成する。この強識別器は、弱識別器の識別結果に当該弱識別器の投票力である重みを積算して弱識別器の重み付き多数決(重み付け投票)を行い、識別対象物体の部分を識別する。そして、識別部32は、複数の強識別器を直列的に組み合わせて多段構造であるカスケード(cascade)を構成して、一つの識別器を構成する。なお、カスケードを構成する1つの強識別器の処理をステージという。
各ステージでは、判定画像入力部4が入力した判定画像に対して、部分特徴モデル保存部21に保存された弱識別器が適用される。具体的には、識別部32は、学習された部分特徴の位置、大きさ及び形状に対応した判定画像の領域において、上述した特徴量の評価値を算出する。そして、特徴量抽出部31により弱識別器ごとに設定された所定値と比較して、判定画像内に学習画像の部分特徴に対応する特徴が存在するか否かを判定する。また、判定に用いた弱識別器に関連付けされた重みを部分特徴モデル保存部21から取得する。弱識別器は、判定画像内に学習画像の部分特徴に対応する特徴が存在すると判定した場合には1、判定画像内に学習画像の部分特徴に対応する特徴が存在しないと判定した場合には0を出力する機能を有している。識別部32は、弱識別器の出力値と当該弱識別器に関連付けされた重みとを積算し、算出された積算値を加算して重み和として出力する。識別部32は、例えば、重み和が所定値より小さい場合には、識別対象物体を識別していないと判定し、重み和が所定値以上の場合には、識別対象物体を識別したと判定する。
識別部32は、判定画像の画像情報を識別器に入力させて識別器を構成する強識別器を直列順に実行させ、全ての強識別器が識別対象物体を検出した場合のみ、判定画像に識別対象物体が存在すると判定する。すなわち全てのステージを通過した判定画像のみ、識別対象物体が存在すると判定する。一方、識別器を構成する複数の強識別器のうちの一つが判定画像情報に識別対象物体の特徴量が含まれていないと判定した場合には、当該強識別器より後に行う処理を実行することなく、判定画像に識別対象物体が存在しないと判定する。識別部32は、判定結果を判定結果表示部5に出力する。判定結果表示部5は、出力に応じて判定結果を表示する。
次に、本実施形態に係る物体識別装置1の動作について説明する。図3は、本実施形態に係る物体識別装置1の学習動作を示すフローチャートである。図3に示す制御処理は、例えば、学習処理を開始するボタン等がONされたタイミングで開始される。
図3に示すように、最初に、学習画像を入力する(S10)。S10の処理では、特徴量抽出部31が学習画像保存部20を参照して学習画像を入力する。学習画像は、複数枚の画像セットとして入力される。画像セットは以下の式1で表される。

なお、xは画像ベクトルであり、t=0の場合、xは識別対象物体が存在しない(negative)ことを示し、t=1の場合、xは識別対象物体が存在する(positive)ことを示す。S10の処理が終了すると、画像の重みの初期化処理へ移行する(S12)。
S12の処理では、特徴量抽出部31が、S10の処理で入力した学習画像の重みを初期化する。例えば、学習画像の重みをω1,iとすると、t=0の場合、重みω1,iは1/2m,t=1の場合、重みω1,iは1/2lとされる。mはnegativeの数、lはpositiveの数である。S12の処理が終了すると、画像の重みの正規化処理へ移行する(S14)。
S14の処理では、特徴量抽出部31が、学習画像の重みを正規化する。例えば、以下の式2を用いて正規化を行う。

S14の処理が終了すると、エラーレートの評価処理へ移行する(S16)。
S16の処理では、特徴量抽出部31が、特徴サイズ設定部30によりステージごとに設定された特徴量の下限の大きさ(Wst,Hst)よりもサイズの大きな特徴量jのおのおのについてエラーレートを算出する。エラーレートは、認識対象の画像であるにもかかわらず特徴が抽出されない場合、又は、非認識対象の画像であるにもかかわらず特徴が抽出されることを値として表したものであり、以下の式3で表現することができる。

S16の処理が終了すると、最小エラーレートの弱識別器選択処理へ移行する(S18)。
S18の処理では、特徴量抽出部31が、S16の処理で算出したエラーレートが最小となる弱識別器を、強識別器を構成するt番目の弱識別器として採用する。なお、tは学習回数であり、S14〜S20までの処理を実行すると1回とカウントされる値である。S18の処理が終了すると、重み更新処理へ移行する(S20)。
S20の処理では、特徴量抽出部31が、学習画像の重みを更新する。例えば、以下の式4に示すように更新する。

学習画像xを正しく分類できた場合にはe=0、それ以外はe=1とされる。これによりS18の処理で採用した弱識別器で正しく識別できた学習画像の重みは小さくされる。S20の処理が終了すると、打ち切り判定処理へ移行する(S22)。
S22の処理では、特徴量抽出部31が、学習回数tが所定の閾値Tとなったか否かを判定する。閾値Tは学習回数の上限値である。S22の処理において、学習回数tが打ち切りの閾値Tとなっていないと判定した場合には、S14の処理へ再度移行して、弱識別器の選択・追加が実行される。一方、S22の処理において、学習回数tが打ち切りの閾値Tとなったと判定した場合には、強識別器の構成処理へ移行する(S24)。
S24の処理では、特徴量抽出部31が、S14〜S22の処理で選択した弱識別器に基づいて強識別器を構築する。例えば、以下の式5のように構築する。

S24の処理が終了すると、図3に示す制御処理が終了する。
図3に示す制御処理を実行することにより、1つの強識別器が構成される。図3に示す制御処理を繰り返し行って複数の強識別器が構成され、カスケードが形成される。ここで、S16の処理で特徴量の大きさに下限値を与えているため、例えば、カスケードの下流に向かうに従ってステージの特徴量の最小サイズを小さく設定することもできる。図4は、カスケードの下流に向かうに従ってステージの特徴量の最小サイズを小さく設定した場合の例を示している。図4に示すように、カスケードの下流に向かうに従ってステージの特徴量の最小サイズを小さく設定することにより、ステージ1の特徴量F5,ステージ3の特徴量F6,ステージ5の特徴量F7と除々に特徴の大きさを変更することができる。このように、カスケードの初期(上流)であるステージ1では、認識対象に共通する大雑把な特徴量F5を優先的に選択し、後段(下流)のステージ3,5では、より細部の特徴量F6,F7を優先的に選択することができる。このため、例えば歩行者を検出する場合において、カスケードの初期のステージでたまたま抽出された細かい服装などの特徴量の影響により、歩行者が描画された画像を早期に棄却されることを回避することができる。
以上、第1実施形態に係る物体識別装置1によれば、特徴サイズ設定部30により、学習画像から抽出される特徴量の条件が強識別器ごとに設定され、特徴量抽出部31により、条件を満たす特徴量が学習画像から統計的に複数抽出され、部分特徴モデル保存部21により、特徴量抽出部31によって抽出された複数の特徴量が強識別器として保存される。このように、識別器を学習する段階で、学習画像から抽出される特徴量に条件を付することができるので、例えば背景や服装の一部等、認識対象の物体に共通するはずのない特徴量を条件設定で排除することができる。このため、学習画像に偏りがあった場合でも、適切な学習を行うことが可能となる。また、強識別器ごとに条件を設定することができるので、例えば、直列的に組み合わせられた複数の強識別器のうち初期段階(前段側)で実行される強識別器を、認識対象に共通する大雑把な特徴量で構成し、後期段階(後段側)で実行される強識別器を認識対象に共通する細かい特徴量で構成するように制御することが可能となる。よって、識別精度の向上を図ることができる。
(第2実施形態)
第2実施形態に係る物体識別装置1は、第1実施形態に係る物体識別装置1とほぼ同様に構成されており、特徴サイズ設定部30を備えず、画像ぼかし部33及び画像選択部34を備える点が相違する。よって、第2実施形態では第1実施形態との相違点を中心に説明し、重複する説明は省略する。
図5は、第2実施形態に係る物体識別装置1の構成を示すブロック図である。図5に示すように、第2実施形態に係る物体識別装置1の構成は、第1実施形態に係る物体識別装置1の構成とほぼ同様であり、特徴サイズ設定部30に替えて画像ぼかし部(フィルタ手段)33及び画像選択部34を備える点が相違する。画像選択部34は学習画像から処理対象の画像を選択する機能を有している。画像ぼかし部33は、画像をぼかす機能を有している。例えば、画像ぼかし部33は、画像選択部34により選択された学習画像の画素値を強識別器ごとに異なる度合いで平均化するフィルタ機能を有している。その他の構成は第1実施形態に係る物体識別装置1と同様である。
次に、第2実施形態に係る物体識別装置1の動作を説明する。図6は、本実施形態に係る物体識別装置1の学習動作を示すフローチャートである。図6に示す制御処理は、例えば、学習処理を開始するボタン等がONされたタイミングで開始される。
図6に示すように、最初に、学習画像を入力する(S30)。この処理は図3のS10の処理と同様である。S30の処理が終了すると、画像ぼかし処理へ移行する(S32)。S32の処理では、画像ぼかし部33及び画像選択部34により、ぼかし処理が行われる。最初に、画像選択部34がS30の処理で入力した学習画像から処理対象とする画像を選択する。次に、画像ぼかし部33が、例えばフィルタを用いて画像をぼかす。図7にフィルタの例を示す。図7に示すフィルタは、領域R(中央画素Zの近傍8点)の色の平均を算出するものであり、フィルタサイズSは3である。画像ぼかし部33は、ステージごとに設定されたフィルタサイズSを用いて、学習画像をぼかす処理を実行する。S32の処理が終了すると、画像の重みの初期化処理へ移行する(S34)。
なお、以降の処理は、第1実施形態のS12〜S24の処理とほぼ同様であり、S38の処理のみ相違する。S38の処理では、S16の処理と異なり、全てのサイズの特徴量を対象にエラーレートを評価する処理を行う。勿論、本実施形態でも特徴量のサイズ条件を設定してもよい。
図6に示す制御処理を実行することにより、1つの強識別器が構成される。図6に示す制御処理を繰り返し行って複数の強識別器が構成され、カスケードが形成される。ここで、S32の処理で学習画像にぼかしを入れているため、例えば、強識別器を構成する際に、カスケードの下流側に位置するほど、くっきりとした学習画像を提供して強識別器を構成することができる。図8は、カスケードの下流に向かうに従って強識別器の学習画像のフィルタサイズSを小さく設定した場合の例を示している。ステージ1で用いるフィルタの関数をf(x),ステージ3で用いるフィルタの関数をf(x),ステージ5で用いるフィルタの関数をf(x)で示している。図8に示すように、カスケードの下流に向かうに従ってフィルタサイズSを小さく設定することにより、カスケードの下流になるに従い除々に学習画像を明瞭にすることができる。このため、カスケードの初期(上流)であるステージ1では、認識対象に共通するぼんやりとした大雑把な特徴量を優先的に選択し、後段(下流)のステージ3,5では、よりくっきりとした明瞭な特徴量を優先的に選択することができる。このため、例えば歩行者を検出する場合において、カスケードの初期のステージでたまたま抽出された細かい服装などの特徴量の影響により、歩行者が描画された画像を早期に棄却されることを回避することができる。
以上、第2実施形態に係る物体識別装置1によれば、画像ぼかし部33により、学習画像の画素値が強識別器ごとに異なる度合いで平均化され、特徴量抽出部31により、平均化された学習画像から特徴量が統計的に複数抽出され、部分特徴モデル保存部21により、抽出された複数の特徴量が強識別器として保存される。このように、識別器を学習する段階で、学習画像を平均化して特徴量を抽出することができるので、例えば、認識対象の物体に共通する大雑把な特徴量を取得することができる。このため、学習画像に偏りがあった場合でも、適切な学習を行うことが可能となる。また、強識別器ごとに平均化の度合いを設定することができるので、例えば、直列的に組み合わせられた複数の強識別器のうち初期段階(前段側)で実行される強識別器を、認識対象に共通する大雑把な特徴量で構成し、後期段階(後段側)で実行される強識別器を認識対象に共通する細かい特徴量で構成するように制御することが可能となる。よって、識別精度の向上を図ることができる。
(第3実施形態)
第3実施形態に係る物体識別装置1は、第1実施形態に係る物体識別装置1とほぼ同様に構成されており、抽出領域設定部35を備える点が相違する。よって、第3実施形態では第1実施形態との相違点を中心に説明し、重複する説明は省略する。
図9は、第3実施形態に係る物体識別装置1の構成を示すブロック図である。図9に示すように、第3実施形態に係る物体識別装置1の構成は、第1実施形態に係る物体識別装置1の構成とほぼ同様であり、抽出領域設定部35を備える点が相違する。抽出領域設定部35は、認識対象の特色を考慮して、認識対象の部位ごとに抽出する領域を設定する機能を有している。例えば、認識対象が歩行者であれば、頭部、胴体部、足部といった領域を設定する。抽出領域設定部35は、設定した領域の情報を特徴サイズ設定部30へ出力する機能を有している。特徴サイズ設定部30は、設定された領域ごとに抽出する特徴量の大きさを制限する。例えば、認識対象が歩行者の場合、頭部が描画される領域では細かい特徴量で判別するために特徴量の大きさの下限値を小さくしたり、胴体部が描画される領域では服装等の特徴が含まれないように、特徴量の大きさの下限値を大きくしたりする。その他の構成は第1実施形態に係る物体識別装置1と同様である。
次に、第3実施形態に係る物体識別装置1の動作を説明する。第3実施形態に係る物体識別装置1の動作は、第1実施形態に係る物体識別装置1の動作とほぼ同様であり、図3に示すS16の処理のみが相違する。よって、以下では、エラーレートの評価処理のみ説明する。この処理では、最初に、特徴量抽出部31が、特徴サイズ設定部30により設定された複数の処理領域の中から1つの領域Dを選択する。そして、特徴量抽出部31が、領域D内において、特徴サイズ設定部30によりステージごとに設定された特徴量の下限の大きさ(Wst,Hst)よりもサイズの大きな特徴量jのおのおのについてエラーレートを算出する。この処理で選択される特徴量について、図10を用いて詳細を説明する。図10は、領域Dごとの特徴量の大きさを説明する概要図である。図10の(A)に示すように、学習画像xに、4つの領域D〜Dが設定されている。各領域Dには、それぞれの領域の部位の特徴に基づいて、特徴量の大きさが制限されている。例えば、頭部を識別するには詳細な特徴量が必要とする場合には、領域Dの特徴量の大きさの下限値は小さく設定される。このため、図10の(B)に示すように、特徴量の最小サイズが小さくなるので、細かい特徴量を抽出することができる。同様に、足部を識別するには詳細な特徴量が必要とする場合には、領域Dの特徴量の大きさの下限値は小さく設定される。このため、図10の(D)に示すように、特徴量の最小サイズが小さくなるので、細かい特徴量を抽出することができる。反対に、例えば、胴体部を識別するには洋服の柄等の特徴を排除するために大雑把な特徴量が必要とする場合には、領域Dの特徴量の大きさの下限値は大きく設定される。このため、図10の(C)に示すように、特徴量の最小サイズが大きくなるので、大雑把な特徴量を抽出することができる。
以上、第3実施形態に係る物体識別装置1によれば、認識対象の部位ごとに抽出する領域を設定し、領域ごとに特徴量の大きさの下限値を設定することができる。このため、例えば、歩行者の服装の模様に着目することを回避することが可能となるので、たまたま服装の模様に共通する特徴量を学習することがないようにすることができる。よって、識別精度の向上を図ることができる。
(第4実施形態)
第4実施形態に係る物体識別装置1は、第1実施形態に係る物体識別装置1とほぼ同様に構成されており、特徴サイズ設定部30を備えず、特徴信頼度評価部(特徴量選択手段)36を備える点が相違する。よって、第4実施形態では第1実施形態との相違点を中心に説明し、重複する説明は省略する。
図11は、第4実施形態に係る物体識別装置1の構成を示すブロック図である。図11に示すように、第4実施形態に係る物体識別装置1の構成は、第1実施形態に係る物体識別装置1の構成とほぼ同様であり、特徴サイズ設定部30を備えず、特徴信頼度評価部36を備える点が相違する。特徴信頼度評価部36は、特徴量抽出部31により学習画像から統計的に複数抽出された特徴量を選別する機能を有している。また、部分特徴モデル保存部21は、特徴信頼度評価部36により選別された特徴量を保存する。その他の構成は第1実施形態に係る物体識別装置1と同様である。
次に、第4実施形態に係る物体識別装置1の動作を説明する。図12は、本実施形態に係る物体識別装置1の学習動作を示すフローチャートである。図12に示す制御処理は、例えば、学習処理を開始するボタン等がONされたタイミングで開始される。
図12に示すように、最初に、学習画像を入力する(S50)。なお、S50〜S54までの処理は、図3のS10〜S14の処理と同様であるので省略する。
S56の処理では、S16の処理とほぼ同様であり、全てのサイズの特徴量を対象にエラーレートを評価する点が相違する。その他の動作はS16の処理と同様である。S56の処理が終了すると、最小エラーレートの特徴量を選択処理へ移行する(S58)。
S58の処理では、特徴信頼度評価部36が、最小エラーレートの特徴量を選択する。S58の処理が終了すると、エラーレートの再算出処理へ移行する(S60)。
S60の処理では、特徴信頼度評価部36が、選択されたエラーレートの特徴量の位置を変更してエラーレートを算出する。例えば、特徴量の位置を所定値(例えば、数ピクセル)だけ上下左右にずらしてエラーレートを算出する。S60の処理が終了すると、評価判定へ移行する(S64)。
S64の処理では、特徴信頼度評価部36が、S56の処理で算出したエラーレートと、S60の処理で算出したエラーレートとの差分を算出し、その差分が所定の閾値θ以上であるか否かを判定する。すなわち、移動前後においてエラーレートの変動が閾値θ以上であるか否かを判定する。S64の処理において、移動前後においてエラーレートの変動が閾値θ以上である場合には、信頼性が低いと判定し、特徴量選択処理へ移行する(S62)。
S62の処理では、特徴信頼度評価部36が、次にエラーレートの小さい特徴量を選択する。S62の処理が終了すると、エラーレートの再算出処理へ再度移行する(S60)。このように、S64の処理において、移動前後においてエラーレートの変動が閾値θ以上である場合には、特徴量がエラーレートの小さい順に選択されて評価される。一方、S64の処理において、移動前後においてエラーレートの変動が閾値θ以上でない場合には、信頼性が高いと判定して、特徴量採用処理へ移行する(S66)。
S66の処理では、特徴信頼度評価部36が、S64の処理で評価された弱識別器を、強識別器を構成するt番目の弱識別器として採用する。S64の処理が終了すると、重み更新処理へ移行する(S68)。なお、以降の処理は、第1実施形態のS20〜S24の処理と同様であるので説明を省略する。
図12に示す制御処理を実行することにより、1つの強識別器が構成される。図12に示す制御処理を繰り返し行って複数の強識別器が構成され、カスケードが形成される。ここで、選択する特徴量をエラーレートで評価しているため、多少位置が異なっても類似した識別性能が得られる特徴量を優先的に選択することができる。図13は、特徴量の位置を変更する例を説明する概要図であり、図13の(A)に示す特徴量を上下左右にずらした場合を、図13の(B)〜(E)に示す。位置を変更させてその特徴量のエラーレートの差分を評価することで、例えば、図13の(F)に示す特徴量を排除することができる。このように、少し大きさを変更すると全ての学習画像に共通して有効である確率が低い特徴量が、たまたまピンポイントで有効と判断された場合であっても、当該特徴量を用いて強識別器を構成することを回避することができる。特に、サイズの大きい特徴量において、信頼度の高い特徴量を選択することが可能となる。
以上、第4実施形態に係る物体識別装置1によれば、特徴量抽出部31により、特徴量が学習画像から統計的に複数抽出され、特徴信頼度評価部36により、抽出された特徴量の信頼度が算出され、信頼度に基づいて特徴量抽出部31により抽出された複数の特徴量から物体を識別する有効な特徴量が選択され、部分特徴モデル保存部21により、選択された特徴量が強識別器として保存される。このように、識別器を学習する段階で、学習画像から抽出される特徴量を信頼度で評価することができるので、例えば背景や服装の一部等、認識対象の物体に共通するはずのない特徴量が偶然にも有効な特徴量として抽出された場合であっても当該特徴量に弱識別器を割り当てることを回避することができる。このため、学習画像に偏りがあった場合でも、適切な学習を行うことが可能となる。よって、識別精度の向上を図ることができる。
なお、上述した各実施形態は本発明に係る物体識別装置の一例を示すものである。本発明に係る物体識別装置は、各実施形態に係る物体識別装置に限られるものではなく、各請求項に記載した要旨を変更しない範囲で、各実施形態に係る物体識別装置を変形し、又は他のものに適用したものであってもよい。
例えば、上述した実施形態では、部分特徴は、位置、大きさ及び形状で表現されることを説明したが、位置、大きさ及び形状の少なくとも一つで表現してもよい。すなわち、部分特徴の特徴量が同一又は類似するか否かを判定するために、部分特徴の形状、位置及び大きさを評価することを説明したが、これらの少なくとも一つで評価してもよい。
また、上述した第4実施形態では、特徴量の位置を変更して特徴量の信頼度を評価する例を説明したが、特徴量の大きさを変更して特徴量の信頼度を評価してもよい。例えば、図14の(A)に示す学習画像における特徴量を、図14の(B)に示すように、所定の倍率gで大きくしたり、図14の(c)に示すように、所定の倍率gで小さくしたりして、倍率変動前後のエラーレートの差分から特徴量の信頼度を評価してもよい。このように構成することで、特に、サイズの小さい特徴量において、信頼度の高い特徴量を選択することが可能となる。
1…物体識別装置、21…部分特徴モデル保存部(保存手段)、30…特徴サイズ設定部(条件設定手段)、31…特徴量抽出部(特徴量抽出手段)、32…識別部、33…画像ぼかし部(フィルタ手段)、36…特徴信頼度評価部(特徴量選択手段)。

Claims (7)

  1. 物体を識別する有効な特徴量を学習画像から統計的に複数抽出して前記物体の部分を識別する強識別器を複数生成し、この生成された複数の前記強識別器を直列的に組み合わせることで前記物体全体の識別を行う物体識別装置であって、
    前記学習画像から抽出される前記特徴量の条件を前記強識別器ごとに設定する条件設定手段と、
    前記条件を満たす前記特徴量を前記学習画像から統計的に複数抽出する特徴量抽出手段と、
    前記特徴量抽出手段により抽出された複数の前記特徴量を前記強識別器として保存する保存手段と、
    を備えることを特徴とする物体識別装置。
  2. 前記条件設定手段は、前記特徴量の大きさの下限値を設定する請求項1に記載の物体識別装置。
  3. 前記条件設定手段は、前記物体の部位ごとに前記特徴量の大きさの下限値を設定する請求項2に記載の物体識別装置。
  4. 物体を識別する有効な特徴量を学習画像から統計的に複数抽出して前記物体の部分を識別する強識別器を複数生成し、この生成された複数の前記強識別器を直列的に組み合わせることで前記物体全体の識別を行う物体識別装置であって、
    前記学習画像の画素値を前記強識別器ごとに異なる度合いで平均化するフィルタ手段と、
    前記フィルタ手段により処理された後の前記学習画像から前記特徴量を統計的に複数抽出する特徴量抽出手段と、
    前記特徴量抽出手段により抽出された複数の前記特徴量を前記強識別器として保存する保存手段と、
    を備えることを特徴量とする物体識別装置。
  5. 物体を識別する有効な特徴量を学習画像から統計的に複数抽出して前記物体の部分を識別する強識別器を複数生成し、この生成された複数の前記強識別器を直列的に組み合わせることで前記物体全体の識別を行う物体識別装置であって、
    前記特徴量を前記学習画像から統計的に複数抽出する特徴量抽出手段と、
    前記特徴量抽出手段により抽出された前記特徴量の信頼度を算出し、前記信頼度に基づいて前記特徴量抽出手段により抽出された複数の前記特徴量から前記物体を識別する有効な特徴量を選択する特徴量選択手段と、
    前記特徴量選択手段により選択された前記特徴量を前記強識別器として保存する保存手段と、
    を備えることを特徴とする物体識別装置。
  6. 前記特徴量選択手段は、前記特徴量抽出手段により抽出された前記特徴量の位置を変動させて前記信頼度を算出し、前記位置の変動に対して前記信頼度の変動の少ない前記特徴量を前記特徴量抽出手段により抽出された複数の前記特徴量から優先的に選択する請求項5に記載の物体識別装置。
  7. 前記特徴量選択手段は、前記特徴量抽出手段により抽出された前記特徴量の大きさを変動させて前記信頼度を算出し、前記大きさの変動に対して前記信頼度の変動の少ない前記特徴量を前記特徴量抽出手段により抽出された複数の前記特徴量から優先的に選択する請求項5又は6に記載の物体識別装置。
JP2010089583A 2010-04-08 2010-04-08 物体識別装置 Pending JP2011221750A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010089583A JP2011221750A (ja) 2010-04-08 2010-04-08 物体識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010089583A JP2011221750A (ja) 2010-04-08 2010-04-08 物体識別装置

Publications (1)

Publication Number Publication Date
JP2011221750A true JP2011221750A (ja) 2011-11-04

Family

ID=45038671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010089583A Pending JP2011221750A (ja) 2010-04-08 2010-04-08 物体識別装置

Country Status (1)

Country Link
JP (1) JP2011221750A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197306A (ja) * 2013-03-29 2014-10-16 株式会社メガチップス 画像処理回路及び画像検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197306A (ja) * 2013-03-29 2014-10-16 株式会社メガチップス 画像処理回路及び画像検出装置

Similar Documents

Publication Publication Date Title
US11256955B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP5259456B2 (ja) 学習装置及び物体検出装置
JP4670976B2 (ja) 学習装置および方法、認識装置および方法、プログラム、並びに記録媒体
US10733477B2 (en) Image recognition apparatus, image recognition method, and program
US9256835B2 (en) Information processing apparatus enabling discriminator to learn and method thereof
JP5041229B2 (ja) 学習装置および方法、認識装置および方法、並びにプログラム
US9098775B2 (en) Multi-class identifier, method, and computer-readable recording medium
US9418440B2 (en) Image segmenting apparatus and method
JP2010108475A (ja) 画像処理装置および方法、プログラム、並びに記録媒体
US9842279B2 (en) Data processing method for learning discriminator, and data processing apparatus therefor
JP4553044B2 (ja) 集団学習装置及び方法
US20150036935A1 (en) Information processing apparatus, information processing method, and storage medium
US20080175447A1 (en) Face view determining apparatus and method, and face detection apparatus and method employing the same
JP6426441B2 (ja) 密度計測装置、密度計測方法、およびプログラム
WO2011092865A1 (ja) 物体検出装置及び物体検出方法
JP5706131B2 (ja) 被写体検出方法および被写体検出装置
JP5214679B2 (ja) 学習装置、方法及びプログラム
US20190303714A1 (en) Learning apparatus and method therefor
WO2010109645A1 (ja) 被写体識別方法、被写体識別プログラムおよび被写体識別装置
KR20200123501A (ko) 차량의 객체 검출 장치 및 방법
JP2011221750A (ja) 物体識別装置
JP2011113360A (ja) 物体識別装置
JP2010224922A (ja) クラス識別器生成装置
JP2005332382A (ja) 画像処理方法および装置並びにプログラム
JP5310234B2 (ja) 画像認識装置