JP2009181220A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2009181220A
JP2009181220A JP2008018077A JP2008018077A JP2009181220A JP 2009181220 A JP2009181220 A JP 2009181220A JP 2008018077 A JP2008018077 A JP 2008018077A JP 2008018077 A JP2008018077 A JP 2008018077A JP 2009181220 A JP2009181220 A JP 2009181220A
Authority
JP
Japan
Prior art keywords
state
pixel
feature
luminance
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008018077A
Other languages
English (en)
Inventor
Hironobu Fujiyoshi
弘亘 藤吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chubu University
Original Assignee
Chubu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chubu University filed Critical Chubu University
Priority to JP2008018077A priority Critical patent/JP2009181220A/ja
Publication of JP2009181220A publication Critical patent/JP2009181220A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】物体の検出精度を向上させることが可能な物体検出装置を提供する。
【解決手段】画像フレーム中の各画素の輝度勾配を第1の特徴量として算出する第1特徴量算出手段と、画像フレーム中の各画素の輝度変化に基づく画素の状態を第2の特徴量として算出する第2特徴量算出手段と、第1の特徴量と第2の特徴量に基づいて画像フレームから物体を検出する識別手段とを設ける。第2特徴量算出手段は、画素の輝度変化に基づいて各画素を背景、動状態、静状態に判別した結果を第2の特徴量として算出し、識別手段は、第1の特徴量が物体の輪郭に対応し、かつ、第2の特徴量が動状態または静状態であると判定した場合に、物体の存在を検出する。
【選択図】図1

Description

本発明は、画像フレームから物体を検出する物体検出装置に関する。
近年、防犯装置における不審者の検出やITS(Intelligent Transport Systems)における歩行者の検出のために、カメラ画像からの人検出の実現が期待されている。人検出は、従来盛んに研究されてきた顔検出と比較して、顔における目、鼻、口のように、人を顕著に表す特徴が少ないため検出が困難とされている。さらに検出が困難となる要因として、人の形状の変化、複雑な背景、照明の変動、人同士の重なりによるオクルージョンなどが挙げられる。
従来、人検出に用いられるアピアランス特徴として、局所領域における輝度の勾配方向をヒストグラム化した特徴ベクトルであるHOG(Histograms of Oriented Gradients)を用いた手法が提案されている(非特許文献1参照)。このHOGは、照明変動や影の影響を受けにくく、局所的な幾何学的変化に頑健であるため、HOGを用いた人検出手法が多く提案されている(非特許文献2〜4)。
N. Dalal and B. Triggs, "Histograms of Oriented Gradients for Human Detection", IEEE Computer Vision and Pattern Recognition, pp. 886-893, 2005年 F.Suard and A.Broggi,"Pedestrian Detection using Infrared images and Histograms of Oriented Gradients", IEEE Symposium on Intelligent Vehicule, pp. 206-212, Jun, 2006年 Q.Zhu,S.Avidan, M.Yeh and K.Cheng,"Fast Human Detection Using a Cascade of Histograms of Oriented Gradients", IEEE Computer Vision and Pattern Recognition, Vol. 2, pp. 1491-1498, Jun, 2006年 小林拓也, 日高章理, 栗田多喜夫,"Histograms of Oriented Gradients を用いた対象識別での特徴選択", 信学技報, Vol. 106, pp. 119-124, Mar, 2007.
しかしながら、非特許文献2〜4に記載されたアピアランス特徴を用いた物体の検出方法は、検出対象の輪郭情報のみを用いるため、検出対象に似た形状の他の物体や背景が複雑なテクスチャを持つ場合には、検出精度が低くなるという問題がある。
そこで、本発明は上記点に鑑み、物体の検出精度を向上させることが可能な物体検出装置を提供することを目的とする。
上記目的を達成するため、本発明の請求項1に記載の発明では、画像フレーム中の各画素の輝度勾配を第1の特徴量として算出する第1特徴量算出手段と、前記画像フレーム中の各画素の輝度変化に基づく前記画素の状態を第2の特徴量として算出する第2特徴量算出手段と、前記第1の特徴量が検出対象である物体の輪郭に対応し、かつ、前記第2の特徴量が前記移動体の特徴を示す状態であると判定した場合に、前記物体の存在を検出する識別手段とを備えることを特徴としている。
このように、輝度勾配による第1の特徴量と輝度変化による第2の特徴量を併用することで、第1の特徴量のみでは識別困難な検出対象に似た形状の他の物体等を誤検出することを抑制でき、物体の識別率を向上させることができる。
また、請求項2に記載の発明では、前記第2特徴量算出手段は、前記画像フレーム中の前記画素の輝度の変化量を検出する輝度変化量検出手段と、前記変化量が予め設定された所定変化量より大きい場合に動状態と判定する第1状態判定手段と、前記画像フレームより後の複数の画像フレーム中の前記画素に対応する画素の輝度の分散を算出する分散算出手段と、前記第1状態判定手段により動状態と判定され、かつ、前記分散が予め設定された所定値より小さい場合に背景または静状態と判定する第2状態判定手段と、前記第2状態判定手段により背景または静状態と判定された場合に、前記画像フレームの画素の輝度が予め設定された背景用輝度に属するときに背景と判定し、属さないときに静状態と判定する第3状態判定手段とを備え、前記画素を背景、動状態、静状態のいずれかに判別した結果を前記第2の特徴量として算出するように構成されており、前記識別手段は、前記第1の特徴量が前記物体の輪郭に対応し、かつ、前記第2の特徴量が前記動状態または前記静状態であると判定した場合に、前記物体の存在を検出することを特徴としている。このように、各画素を背景、動状態、静状態のいずれかに判別することで、物体が静止状態であっても、識別率を向上させることができる。
また、請求項3に記載の発明では、前記第2特徴量算出手段は、前記画像フレーム中の前記画素の輝度の変化量を検出する輝度変化量検出手段と、前記変化量が予め設定された所定変化量より大きい場合に動状態と判定し、前記変化量が予め設定された所定変化量より小さい場合に動状態以外の状態と判定する判定手段とを備え、前記画素を動状態と動状態以外のいずれかに判別した結果を前記第2の特徴量として算出するように構成され、前記識別手段は、前記第1の特徴量が前記物体の輪郭に対応し、かつ、前記第2の特徴量が前記動状態であると判定した場合に、前記物体の存在を検出することを特徴としている。このように、各画素を動状態と動状態以外に判別する構成においても、物体の識別率を向上させることができる。
また、請求項4に記載の発明では、前記第2特徴量算出手段は、前記画像フレームより後の複数の画像フレーム中の前記画素に対応する画素の輝度の分散を算出する分散算出手段と、前記分散が予め設定された所定値より小さい場合に動状態と判定し、前記分散が前記所定値より大きい場合に動状態以外の状態と判定する判定手段とを備え、前記画素を背景と背景以外のいずれかに判別した結果を前記第2の特徴量として算出するように構成され、前記識別手段は、前記第1の特徴量が前記物体の輪郭に対応し、かつ、前記第2の特徴量が前記背景以外の状態であると判定した場合に、前記物体の存在を検出することを特徴としている。このように、各画素を背景と背景以外に判別する構成においても、物体の識別率を向上させることができる。
以下、本発明の一実施形態について図1〜図6に基づいて説明する。本実施形態の物体検出装置は、撮像手段により取得された連続映像を分析して、映像に含まれる物体を検出するものであり、人を検出する人検出装置として好適に用いることができる。また、撮像手段は、監視カメラに多く用いられる固定式のビデオカメラを用いることができる。
図1は、本実施形態の物体検出装置の全体構成を示すブロック図である。物体検出装置は、CPU、メモリ等を備える周知のコンピュータから構成することができる。図1に示すように、物体検出装置は、記憶部10、輝度勾配特徴検出部20、輝度変化特徴検出部30、識別部40を備えている。記憶部10は、メモリから構成され、撮像手段により取得された連続映像が記憶されている。連続映像は、時系列的に並んだ複数の画像フレームから構成されている。また、輝度勾配特徴検出部20、輝度変化特徴検出部30、識別部40は、CPUが所定のプログラムを実行することによって実現されるものである。なお、輝度勾配特徴検出部20が本発明の第1特徴量算出手段に相当し、輝度変化特徴検出部30が本発明の第2特徴量算出手段に相当し、識別部40が本発明の識別手段に相当している。
まず、輝度勾配特徴検出部20による画像フレーム中の各ピクセル(画素)の輝度勾配に基づく第1の特徴量の算出について説明する。本実施形態の輝度勾配特徴検出部20では、対象フレームからアピアランス特徴を検出する。本実施形態では、アピアランス(画像の見え)に基づく特徴量としてHOG(Histograms of Oriented Gradients)を用いる。「HOG」は、局所領域における輝度の勾配方向をヒストグラム化した特徴ベクトルであり、物体の輪郭情報を得ることができ、物体の形状を表わすことが可能である。近接画素の勾配を局所領域によってヒストグラム化するため、照明や影の影響を受けにくく、局所的な幾何学変化に頑強であるという特徴がある。
図2は、輝度勾配特徴検出部20で扱う画像フレームを示しており、図2(a)は入力画像を示し、図2(b)は画像フレームを複数のセルに分割した状態を示し、図2(c)はブロックによる正規化を行う状態を示している。なお、本実施形態の画像フレームは、30×60個のピクセルから構成されている。
まず、輝度勾配特徴検出部20では、各ピクセルの輝度勾配を算出する。輝度勾配とは、対象となるピクセル近傍での輝度変化の度合を示すものであり、画像フレーム内で物体の境界領域(輪郭)で大きな値となる。ここでは、対象となる画像フレームに含まれるすべてのピクセルについて、各ピクセルの輝度Lから輝度の勾配強度mと勾配方向θを数式1により算出する。
Figure 2009181220
ここで、fx(x,y)はx方向(図2の左右方向)の輝度の差分であり、fy(x,y)はy方向(図2の上下方向)の輝度の差分であり、これらは数式2により算出することができる。
Figure 2009181220
次に、輝度勾配特徴検出部20は、数式1で算出された勾配強度mと勾配方向θを用いて、勾配方向ヒストグラムの作成を行う。勾配方向ヒストグラム作成は、複数のピクセルからなるセル単位で行う。図2(b)に示すように、本実施形態では、5×5ピクセルを1セルとした領域において、輝度の勾配方向ヒストグラムを作成する。ただし、算出された勾配方向は0°〜360°となるが、ここでは勾配方向の向きを考慮する必要がないため、0°〜180°の範囲とする。本実施形態では、勾配方向を20°ずつに分割し、各方向毎に1セルに含まれる各ピクセルの勾配強度mを加算して9方向の勾配方向ヒストグラムを作成する。このため、1セル当たり9次元の特徴量が存在する。本実施形態では1フレーム当たり6×12個のセルが存在し、すべてのセルに対して勾配方向ヒストグラムを作成する。
次に、輝度勾配特徴検出部20は、各セルで作成した輝度の勾配ヒストグラムの正規化を行う。つまり、個々のセルには、輝度の偏りが含まれる場合があるので、近接するセルを含めたブロック単位で正規化を行って平均化する。本実施形態では、3×3セルを1ブロックとして正規化を行う。1セル当たりの9次元の特徴量を有しているので、1ブロック(=3×3セル)当たり81次元の特徴量を有することとなる。i行j列のセル(i,j)の特徴量(9次元)をFij=[f1,f2,…,f9]とすると、k番目のブロックの特徴量(81次元)は、Vk=[Fi j,Fi+1 j,Fi+2 j,Fi j+1,Fi+1 j+1,Fi+2 j+1,Fi j+2,Fi+1 j+2,Fi+2 j+2]と表わすことができる。正規化後の特徴ベクトルをvとしたとき、次の数式3により正規化することができる。
Figure 2009181220
正規化は、図2(c)のようにブロックを1セルずつ移動させることにより行う。このため、特徴量は、異なるブロックの領域によって何度も正規化される。入力画像を30×60ピクセルとした場合、x方向に4ブロック、y方向に10ブロック移動できるため、合計40ブロックに対して正規化を行う。各ブロック毎に正規化されたHOG特徴ベクトルは、3240次元(=40ブロック×81次元)となる。
以上の手順でアピアランスに基づく特徴量を検出することができるが、アピアランス特徴による輪郭情報だけでは、背景で人に似た形状の物体を人として誤検出する可能性がある。そこで、本実施形態では、輝度勾配に基づく第1の特徴量に加えてピクセルの輝度変化に基づく第2の特徴量を用いることで、人の検出率を向上させている。
次に、輝度変化特徴検出部30によるピクセルの輝度変化に基づく第2の特徴量の算出について説明する。本実施形態では、ピクセルの輝度変化に基づいてピクセル状態分析(PSA:Pixel State Analysis)を行い、各ピクセルの状態を判別している。「ピクセル状態分析」とは、フレームに含まれる各ピクセルの輝度の時間的変化をモデル化することにより、各ピクセルを背景差分により背景と前景に区別し、さらに前景の各ピクセルを輝度値の変化と安定度から物体の動きを示す動状態と静状態として、各ピクセルを背景、動状態、静状態のいずれかに判別する手法である。ピクセル状態分析による時空間特徴は、空間的情報とモーション情報(時間情報)の両方の情報を含む特徴である。
図3は、ピクセル状態分析の状態遷移を示している。図3に示すように、各ピクセルの初期状態は背景(BG)に設定されており、背景(BG)から動状態(TR)に遷移することができ、動状態(TR)から背景(BG)または静状態(ST)に遷移することができ、静状態(ST)から動状態(TR)に遷移することができる。
これらの3つの状態を判定するための基本的原理として、ピクセルの輝度が状況に応じて、(1)〜(3)のように変化する点を利用する。(1)物体がピクセル上を通過する場合には、そのピクセルの輝度値は急激な変化を伴う。その後、一時的に不安的な状態が続き、再度急激な変化の後、背景である元の輝度値に戻る。(2)物体がピクセル上で停止した場合には、そのピクセルの輝度値は急激な変化の後、一時的に不安的な状態が続き、最終的には物体の輝度値に安定する。(3)太陽が雲に隠れた等の環境変化が生じた場合には、輝度値は緩やかに変化する。
図4は、ピクセル状態分析を行うフレームの時系列的な関係を示している。ピクセルの状態遷移を捉えるには、各ピクセルの輝度値の急激な変化(Motion Trigger)と輝度値の安定度(Stability Measure)を検出する。輝度値の急激な変化の検出は、ピクセル状態分析の対象となっている現在のフレームtより前の複数フレーム(図4の例では5フレーム)に着目して行い、輝度値の安定度の検出には、現在のフレームtから後の複数フレーム(図4の例では5フレーム)に着目して行う。
まず最初に、輝度値の急激な変化の検出を行う。ここで、ピクセル状態分析の対象となっている現在のフレームtからkフレーム前の輝度値をItとする。輝度値の変化量Tを求めるには、Itと、フレームtからkフレーム前までの各フレームのIt-jの差分(輝度値の最大変化量)の絶対値を算出する。急激な輝度値の変化がピクセル上に生じたとき、輝度値の変化量Tの値は大きくなる。輝度値の変化量Tは、数式4により算出することができる。この輝度変化特徴検出部20による輝度変化量Tの算出処理が本発明の輝度変化量検出手段に相当している。
Figure 2009181220
次に、ピクセルの輝度値の安定度について考える。輝度値の安定状態の検出は、現在のフレームtより後のkフレームに着目し、フレームtからフレームt+kまでの輝度値の分散の逆数として算出する。安定度Sは、輝度値が安定した状態では大きい値となる。安定度Sは、数式5により算出することができる。この輝度変化特徴検出部20による安定度Sの算出処理が本発明の分散算出手段に相当している。
Figure 2009181220
ここで、フレームの各ピクセルの判別方法を図5のフローチャートに基づいて説明する。なお、図5におけるS10の判定処理が本発明の第1状態判定手段に相当し、S12の判定処理が本発明の第2状態判定手段に相当し、S13の判定処理が本発明の第3状態判定手段に相当している。
まず、ピクセル状態が背景または静状態であり、かつ、数式4で算出した輝度値の変化量Tが所定変化量を上回っているか否かを判定する(S10)。所定変化量は、急激な変化を判別するための閾値であり、予め設定された固定値としてもよいが、固定値の場合には、建物の陰となっているような領域を物体が移動しても、その物体と背景である影の部分の輝度値に大きな差がないため、輝度値の変化量が閾値を上回らない場合がある。しかしながら、影の領域を物体が移動すると、このピクセルの過去の輝度の平均値より大きな変化が生じる。このため、検出対象フレームtより過去の複数フレームにおいて、対応するピクセルの輝度値の分散により所定変化量を決定することで、適切な閾値を得ることができる。
S10の判定処理の結果、肯定判定された場合には、ピクセル状態を動状態に設定する(S11)。一方、否定判定された場合には、ピクセル状態を背景または静状態のままとする。
次に、ピクセル状態が動状態であり、かつ、数式5で算出した輝度値の安定度Sが所定安定度を上回っているか否かを判定する(S12)。所定安定度は、安定性を判定するための閾値である。この結果、否定判定された場合には、ピクセル状態を動状態のままとする。一方、肯定判定された場合には、ピクセルの輝度値が背景画像の輝度値であるか否かを判定する(S13)。背景画像は、S13の判定処理に先立ち予め用意されているものとし、IIRフィルタなどを用いて環境変化に対応可能となるように適宜更新すればよい。
この結果、肯定判定された場合には、ピクセル状態を背景に設定し(S14)、否定判定された場合には、ピクセル状態を静状態に設定する(S15)。以上の処理をフレームに含まれる各ピクセルに対して行うことで、各ピクセルを背景、動状態、静状態のいずれかに分類することができる。ピクセル状態分析では、フレーム間差分に加えて背景差分を用いているため、同一フレームに歩行者と静止している人が含まれている場合であっても、歩行者は動状態、静止している人は静状態として判別することができる。オプティカルフローなどの物体の動きを示す特徴量では、静止状態にある物体の情報を得ることは困難だが、ピクセル状態分析を行うことにより、静状態である物体の情報を得ることができる。
次に、ピクセル状態分析結果をセル領域によってヒストグラム化し、時空間特徴となる特徴ベクトルを算出する。まず最初に、上述のHOG特徴ベクトルのヒストグラム化で用いたセル領域の構造(図2(b)参照)を用いて、HOGと同様にピクセル状態ヒストグラムを作成する。各ピクセルは、3つの状態(背景、静状態、動状態)に分類されるので、1つのヒストグラム(1つのセル)から3つの特徴ベクトルが算出される。
最後に、上述のHOG特徴ベクトルの正規化で述べたHOGと同様の手順でブロック(図2(c)参照)による正規化を行う。1ブロックは、3×3セルなので、1ブロックあたり27次元(=3×3×9次元)の特徴ベクトルとなる。そして、入力画像を30×60ピクセルとした場合、1フレーム当たり40ブロックなので、時空間特徴から得られる特徴ベクトルは、1080次元(=40ブロック×27次元)となる。
次に、識別部40による人検出について説明する。識別部40では、上述のHOGにより得られた特徴量とピクセル状態分析により得られた特徴量を用いて検出対象画像(人)と非検出対象画像(人以外)を識別する。識別部40では、HOGによるアピアランスに基づく特徴量から得られる輪郭情報から人である判定され、かつ、ピクセル状態分析による時空間特徴に基づく特徴量から前景(動状態または静状態)であると判定された画像を人と判別する。
本実施形態では、識別部40として周知のアダブースト(AdaBoost)によるカスケード型の識別器を用いている。アダブーストによって構築される識別器は、識別関数ht(x)が誤認識を起こしたデータを重視して再学習を行う。この処理をラウンド数T回反復した後、生成された識別器群の識別関数のアンサンブルによって最終的な識別関数を生成する。アダブーストによって構築される識別器は、T個の弱識別器ht(x)の線形結合として、数式6により表わされる。
Figure 2009181220
ここで、αtはt番目の弱識別器による識別結果の信頼度を示し、最終的な識別に対して弱識別器htの結果が影響する度合いである。t個の弱識別器は、アピアランスに基づく特徴量と時空間特徴に基づく特徴量の全組合せについて識別し、識別エラーが最小となるように選択される。
アダブーストの識別器は、弱識別器ht(x)のすべての判別結果が(検出対象画像であれば1、非検出態様画像であれば−1)が結合機に供給され、結合機はすべての判別結果に対して、対応する弱識別器毎に学習時に算出された信頼度を重み付け加算し、その重み付き多数決の結果を出力し、結合機の出力値を評価することで入力された画像が検出対象か否かを判定するものである。識別器をカスケード型に構築することによって、人の検出率を低下させることなく、誤検出率を抑制することができる。
次に、上記の移動体検出装置による人の検出結果について説明する。まず、カスケード型識別器による学習のための学習サンプル画像と、評価実験を行うための評価用画像を用意する。撮影条件として、固定カメラを用いて、照明、背景、人の歩行方向、人の運動状態、画像に対する歩行者の大きさが異なる複数の場所で撮影した。評価用画像は、学習用サンプル画像とは異なる撮影環境において撮影した。検出対象であるポジティブ学習用サンプル画像(人の画像)は2053枚、非検出対象であるネガティブ学習用サンプル画像(人以外の画像)は6253枚用意した。同じ要領で、ポジティブ評価用画像は1023枚、ネガティブ評価用画像は1233枚用意した。そして、評価用画像を用いて人識別の比較実験を行った。ここでは、従来手法であるHOGのみを用いる手法、ピクセル状態分析(PSA)の結果のみを用いる手法、HOGとピクセル状態分析の結果を用いる手法を比較した。
図6は、識別実験結果を示している。図6に示すように、識別実験結果の比較はDET(Detection Error Tradeoff)によって評価を行った。DETは、横軸に誤検出率(人以外を人と認識する確率)、縦軸に未検出率(人を人以外と認識する確率)を両対数グラフによって表わしたものである。識別器のしきい値を変化させることによって、誤検出率に対する未検出率の比較を行うことができる。
図6に示すように、本実施形態のHOGとピクセル状態分析(PSA)を組み合わせた手法では、HOGのみを用いる手法に比較して、誤検出率10%において、未検出率を約26%向上させることができた。このように、アピアランスに基づく特徴量と時空間特徴に基づく特徴量を併用することで、人の識別精度が大幅に向上していることがわかる。
これは、従来法であるHOGによるアピアランス特徴のみを用いた手法では、複雑なテクスチャや人に似た形状を持つ物体に対して誤検出するが、HOGに加えて、時空特徴によって背景と前景を判別するピクセル状態分析の結果を用いる本実施形態の手法では、誤検出を減少させることができたことを示している。また、本実施形態ではアピアランス特徴と時空間特徴からより多くの人の動きや情報を得ることが可能であり、これらの特徴を同時に観測しているため、未検出を減少させることができている。
以上のように本実施形態の物体検出装置では、HOGによる輪郭情報に加え、ピクセル状態分析から人の内部/外部の空間的な情報と動きの情報を同時に捉えることができるため、複雑な背景やオクルージョンに対して頑強に人検出が可能になったと考えられる。また、ピクセル状態分析では、前景を動状態と静状態に区別できるため、物体が静止状態であっても、
(他の実施形態)
なお、上記実施形態の輝度変化特徴検出部20では、ピクセル状態分析により各ピクセルの状態を判別して第2の特徴量を算出するように構成したが、これに限らず、公知のフレーム間差分や背景差分により輝度変化に基づく第2の特徴量の算出を行ってもよい。
フレーム間差分(TD)は、現在入力されている画像フレームと前回入力された画像フレームとの差分を計算し、差分値の大きい領域を物体として検出するものであり、各ピクセルの状態を動状態と動状態以外に判別することができる。背景間差分(BS)は、検出すべき物体が存在しない背景画像フレームを予め用意しておき、現在入力されている画像フレームと背景画像フレームとの差分を計算して前景を検出するものであり、各ピクセルの状態を背景と背景以外に判別することができる。フレーム間差分および背景間差分を用いる場合にも、上記実施形態と同様、セルによるヒストグラム化、ブロックによる正規化を行う。
そして、HOGとフレーム間差分を用いる場合には、識別部40は、HOGによるアピアランスに基づく特徴量から得られる輪郭情報から人である判定され、かつ、フレーム間差分による時間特徴に基づく特徴量から動状態であると判定された画像を人と判別する。また、HOGと背景間差分を用いる場合には、識別部40は、HOGによるアピアランスに基づく特徴量から得られる輪郭情報から人である判定され、かつ、背景間差分による空間特徴に基づく特徴量から背景以外であると判定された画像を人と判別する。
図7は、HOGとフレーム間差分(TD)を併用した場合の識別実験結果とHOGと背景間差分(BS)を併用した場合の識別実験結果を示している。図7に示すように、HOGとフレーム間差分(TD)とを併用した場合と、HOGと背景間差分(BS)を併用した場合は、HOGとピクセル状態分析(PSA)を併用した場合に比較して、未検出率が増加するものの、HOGのみを用いた場合より未検出率が低下している。
また、上記実施形態では、識別部40をアダブーストによる識別器により構成したが、これに限らず、公知のSVM(サポートベクターマシーン)やニューラルネットワークを用いて識別部40を構成してもよい。
また、上記実施形態では、検出対象の物体を人としたが、これに限らず、動物や自動車などの物体を検出対象としてもよい。
上記実施形態の物体検出装置の全体構成を示すブロック図である。 アピアランス特徴検出部で扱うフレームを示す図である。 ピクセル状態分析の状態遷移を示す図である。 ピクセル状態分析を行うフレームの時系列的な関係を示す図である。 ピクセル状態分析の流れを示すフローチャートである。 上記実施形態の物体検出装置を用いた識別実験結果を示す図である。 本発明の変形例の識別実験結果を示す図である。
符号の説明
10…記憶部、20…輝度勾配特徴検出部、30…輝度変化特徴検出部、40…識別部。

Claims (4)

  1. 画像フレーム中の各画素の輝度勾配を第1の特徴量として算出する第1特徴量算出手段と、
    前記画像フレーム中の各画素の輝度変化に基づく前記画素の状態を第2の特徴量として算出する第2特徴量算出手段と、
    前記第1の特徴量が検出対象である物体の輪郭に対応し、かつ、前記第2の特徴量が前記移動体の特徴を示す状態であると判定した場合に、前記物体の存在を検出する識別手段とを備えることを特徴とする物体検出装置。
  2. 前記第2特徴量算出手段は、前記画像フレーム中の前記画素の輝度の変化量を検出する輝度変化量検出手段と、前記変化量が予め設定された所定変化量より大きい場合に動状態と判定する第1状態判定手段と、前記画像フレームより後の複数の画像フレーム中の前記画素に対応する画素の輝度の分散を算出する分散算出手段と、前記第1状態判定手段により動状態と判定され、かつ、前記分散が予め設定された所定値より小さい場合に背景または静状態と判定する第2状態判定手段と、前記第2状態判定手段により背景または静状態と判定された場合に、前記画像フレームの画素の輝度が予め設定された背景用輝度に属するときに背景と判定し、属さないときに静状態と判定する第3状態判定手段とを備え、前記画素を背景、動状態、静状態のいずれかに判別した結果を前記第2の特徴量として算出するように構成されており、
    前記識別手段は、前記第1の特徴量が前記物体の輪郭に対応し、かつ、前記第2の特徴量が前記動状態または前記静状態であると判定した場合に、前記物体の存在を検出することを特徴とする請求項1に記載の物体検出装置。
  3. 前記第2特徴量算出手段は、前記画像フレーム中の前記画素の輝度の変化量を検出する輝度変化量検出手段と、前記変化量が予め設定された所定変化量より大きい場合に動状態と判定し、前記変化量が予め設定された所定変化量より小さい場合に動状態以外の状態と判定する判定手段とを備え、前記画素を動状態と動状態以外のいずれかに判別した結果を前記第2の特徴量として算出するように構成され、
    前記識別手段は、前記第1の特徴量が前記物体の輪郭に対応し、かつ、前記第2の特徴量が前記動状態であると判定した場合に、前記物体の存在を検出することを特徴とする請求項1に記載の物体検出装置。
  4. 前記第2特徴量算出手段は、前記画像フレームより後の複数の画像フレーム中の前記画素に対応する画素の輝度の分散を算出する分散算出手段と、前記分散が予め設定された所定値より小さい場合に動状態と判定し、前記分散が前記所定値より大きい場合に動状態以外の状態と判定する判定手段とを備え、前記画素を背景と背景以外のいずれかに判別した結果を前記第2の特徴量として算出するように構成され、
    前記識別手段は、前記第1の特徴量が前記物体の輪郭に対応し、かつ、前記第2の特徴量が前記背景以外の状態であると判定した場合に、前記物体の存在を検出することを特徴とする請求項1に記載の物体検出装置。
JP2008018077A 2008-01-29 2008-01-29 物体検出装置 Pending JP2009181220A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008018077A JP2009181220A (ja) 2008-01-29 2008-01-29 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008018077A JP2009181220A (ja) 2008-01-29 2008-01-29 物体検出装置

Publications (1)

Publication Number Publication Date
JP2009181220A true JP2009181220A (ja) 2009-08-13

Family

ID=41035181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008018077A Pending JP2009181220A (ja) 2008-01-29 2008-01-29 物体検出装置

Country Status (1)

Country Link
JP (1) JP2009181220A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012073894A1 (ja) * 2010-11-29 2012-06-07 国立大学法人 九州工業大学 物体の検出方法及びその方法を用いた物体の検出装置
JP2013132682A (ja) * 2011-12-27 2013-07-08 Jfe Steel Corp 通板異常検出装置
JP2013190943A (ja) * 2012-03-13 2013-09-26 Aiphone Co Ltd 物体検出装置及びインターホンシステム
JP2019204165A (ja) * 2018-05-21 2019-11-28 株式会社東芝 画像センサ、識別方法、制御システムおよびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110280A (ja) * 2002-09-17 2004-04-08 Toa Corp 移動物体検出装置
JP2004258927A (ja) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd 人検出方法及び人検出装置
JP2006018707A (ja) * 2004-07-05 2006-01-19 Nippon Telegr & Teleph Corp <Ntt> 被写体識別装置、その識別方法とその識別プログラム、および被写体識別器設定装置、その設定方法とその設定プログラム
JP2006107457A (ja) * 2004-09-13 2006-04-20 Sony Corp 画像処理装置及び画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110280A (ja) * 2002-09-17 2004-04-08 Toa Corp 移動物体検出装置
JP2004258927A (ja) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd 人検出方法及び人検出装置
JP2006018707A (ja) * 2004-07-05 2006-01-19 Nippon Telegr & Teleph Corp <Ntt> 被写体識別装置、その識別方法とその識別プログラム、および被写体識別器設定装置、その設定方法とその設定プログラム
JP2006107457A (ja) * 2004-09-13 2006-04-20 Sony Corp 画像処理装置及び画像処理方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200700776020; 小林 拓也 Takuya KOBAYASHI: 'Histograms of Oriented Gradientsを用いた対象識別での特徴選択 Featur' 電子情報通信学会技術研究報告 Vol.106 No.606 IEICE Technical Report 第106巻第606号, 20070309, 119〜124ページ, 社団法人電子情報通信学会 The Institute of Electro *
CSNG200701099018; 藤吉 弘亘 Hironobu Fujiyoshi: 'Gradientベースの特徴抽出 -SIFTとHOG- Gradient-Based Feature Extraction -SIFT and' 電子情報通信学会技術研究報告 Vol.107 No.206 IEICE Technical Report 第107巻第206号, 20070827, 211〜224ページ, 社団法人電子情報通信学会 The Institute of Electro *
JPN6012005708; 藤吉 弘亘 Hironobu Fujiyoshi: 'Gradientベースの特徴抽出 -SIFTとHOG- Gradient-Based Feature Extraction -SIFT and' 電子情報通信学会技術研究報告 Vol.107 No.206 IEICE Technical Report 第107巻第206号, 20070827, 211〜224ページ, 社団法人電子情報通信学会 The Institute of Electro *
JPN6012005709; 小林 拓也 Takuya KOBAYASHI: 'Histograms of Oriented Gradientsを用いた対象識別での特徴選択 Featur' 電子情報通信学会技術研究報告 Vol.106 No.606 IEICE Technical Report 第106巻第606号, 20070309, 119〜124ページ, 社団法人電子情報通信学会 The Institute of Electro *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012073894A1 (ja) * 2010-11-29 2012-06-07 国立大学法人 九州工業大学 物体の検出方法及びその方法を用いた物体の検出装置
US8908921B2 (en) 2010-11-29 2014-12-09 Kyushu Institute Of Technology Object detection method and object detector using the method
JP5916134B2 (ja) * 2010-11-29 2016-05-11 国立大学法人九州工業大学 物体の検出方法及びその方法を用いた物体の検出装置
JP2013132682A (ja) * 2011-12-27 2013-07-08 Jfe Steel Corp 通板異常検出装置
JP2013190943A (ja) * 2012-03-13 2013-09-26 Aiphone Co Ltd 物体検出装置及びインターホンシステム
JP2019204165A (ja) * 2018-05-21 2019-11-28 株式会社東芝 画像センサ、識別方法、制御システムおよびプログラム
JP6991922B2 (ja) 2018-05-21 2022-01-13 株式会社東芝 画像センサ、識別方法、制御システムおよびプログラム

Similar Documents

Publication Publication Date Title
JP4997178B2 (ja) 物体検出装置
US8565484B2 (en) Forest fire smoke detection method using random forest classification
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
US20140177946A1 (en) Human detection apparatus and method
Yao et al. Fast human detection from videos using covariance features
JP5106356B2 (ja) 画像監視装置
Ahmad et al. Overhead view person detection using YOLO
JP2013210968A (ja) 物体検出装置及びその方法、プログラム
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
Jiang et al. Multiple pedestrian tracking using colour and motion models
Shirazi et al. Contextual combination of appearance and motion for intersection videos with vehicles and pedestrians
Negri et al. Detecting pedestrians on a movement feature space
Forczmański et al. Surveillance video stream analysis using adaptive background model and object recognition
JP2009181220A (ja) 物体検出装置
KR102019301B1 (ko) 농축산 도난을 감지하는 영상 감시 장치 및 그 방법
Frejlichowski et al. SmartMonitor: An approach to simple, intelligent and affordable visual surveillance system
Goto et al. Cs-hog: Color similarity-based hog
Mitsui et al. Object detection by joint features based on two-stage boosting
Lu et al. Detecting unattended packages through human activity recognition and object association
Chen et al. Head-shoulder detection using joint HOG features for people counting and video surveillance in library
Cristani et al. A spatial sampling mechanism for effective background subtraction.
Wang et al. Event detection and recognition using histogram of oriented gradients and hidden markov models
Basalamah et al. Pedestrian crowd detection and segmentation using multi-source feature descriptors
US20240196086A1 (en) Method and apparatus for detecting best shot in long-range face recognition system
Simonnet et al. Selecting and evaluating data for training a pedestrian detector for crowded conditions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120717

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121106