JP2004151980A - Moving object detection method - Google Patents

Moving object detection method Download PDF

Info

Publication number
JP2004151980A
JP2004151980A JP2002316103A JP2002316103A JP2004151980A JP 2004151980 A JP2004151980 A JP 2004151980A JP 2002316103 A JP2002316103 A JP 2002316103A JP 2002316103 A JP2002316103 A JP 2002316103A JP 2004151980 A JP2004151980 A JP 2004151980A
Authority
JP
Japan
Prior art keywords
image
images
moving object
camera
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002316103A
Other languages
Japanese (ja)
Inventor
Yasuhisa Kanefuji
靖尚 金藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2002316103A priority Critical patent/JP2004151980A/en
Publication of JP2004151980A publication Critical patent/JP2004151980A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method that can detect a moving object over a wide range of moving speed. <P>SOLUTION: The method acquires three images A to C in ongoing time series order. An acquisition interval T1 between the images B and C and an acquisition interval T2 between the images A and B are set differently. The image A and the image B are differentiated and binary-coded to produce an image D, and the image A and the image C are differentiated and binary-coded to produce an image E. If a moving object moves at relatively high speed or moves at relatively low speed, the image D of the shorter acquisition interval or the image E of the longer acquisition interval includes movement components (a set of "1" pixels) respectively. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、撮像装置で所定の領域を撮像し、撮像した画像データを処理することで該領域内の移動物体を検出する方法に関する。
【0002】
【従来の技術】
従来、所定の領域を撮影し、撮影時刻の異なる2つ画像の差分画像を得ることで、該領域内に移動物体が存在するか否かを検出する方法が知られている。
【0003】
また、撮影時刻の異なる3つの画像(第1、第2および第3の画像)を等間隔で獲得し、第1の画像と第2の画像から第1の差分画像を、第1の画像と第3の画像から第2の差分画像を得て、第1および第2の差分画像の論理積をとることにより、背景のノイズを除去して移動する目標物の検出を行うものがある(例えば、特許文献1参照。)。
【0004】
【特許文献1】
特公平6―64613号公報
【0005】
【発明が解決しようとする課題】
移動物体が高速で移動する場合、移動物体が撮影時刻と次の撮影時刻の間に撮影装置の画角内を通過する可能性がある。この場合、差分画像上に移動成分が存在しないため、移動物体を検出することができない。このように、処理に用いる画像の取得間隔に比べて移動物体の速度が大きいと移動物体の検出を行うことができない場合がある。
【0006】
一方、移動物体が低速で移動する場合、差分を行う2つの画像での移動物体の像のずれ量が、撮像素子の分解能を下回るほど微小であれば、差分処理により移動成分を求めることができない。
【0007】
前述の従来例のように3枚の画像を用いると、2枚の画像を用いる場合に比べて差分画像を基に移動物体を検出できる確率は高くなるが、それでもなお、移動物体が撮影間隔に比べて非常に高速で移動したり、逆に非常に低速で移動する場合に、差分画像から移動物体を検出できない可能性がある。
【0008】
そこで、本発明は、移動速度の点で広範囲にわたって移動物体を検出することのできる方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
前記目的を達成するために、本発明に係る移動物体検出方法は、
撮像装置で所定の領域を撮像し、撮像した画像データを処理することで該領域内の移動物体を検出する方法において、
第1、第2および第3の画像を有する画像群であって、時系列的に古い順に第1、第2および第3の画像である画像群を得るステップと、
前記画像群から2枚の画像の組を選択して第1の差分画像を得るステップと、前記画像群から前記選択した2枚の画像の組と異なる組の画像を選択して第2の差分画像を得るステップとを含み、
第1の画像を得てから第2の画像を得るまでの時間間隔T1と、第2の画像を得てから第3の画像を得るまでの時間間隔T2とが異なることを特徴とする。
【0010】
第1の差分画像を第1の画像と第3の画像の差分画像とし、第2の差分画像を第2の画像と第3の画像の差分画像としてもよい。この場合、時間間隔T1を時間間隔T2より大きくするのが好ましい。
【0011】
第1および第2の差分画像をそれぞれ2値化処理するステップをさらに含むようにしてもよい。
【0012】
【発明の実施の形態】
以下、添付図面を参照して本発明に係る実施の形態を説明する。以下の説明では、本発明に係る移動物体検出方法を監視カメラシステムに適用した例を説明するが、本発明はこれに限定されるものでなく、種々の分野に適用可能である。
【0013】
図1は、監視カメラシステムの一実施形態を示す構成図である。このシステム2は、監視エリアで移動物体を検出した場合に、カメラの向きや倍率を調整して移動物体の静止画像を獲得し記録するためのものである。
【0014】
監視カメラシステム2は、概略、複数の監視エリアを巡回監視するための監視カメラ装置4(以下、単にカメラと称する。)と、カメラ4の制御や所定の画像処理を行うプログラムを搭載したコンピュータ6とを備える。
【0015】
カメラ4は、撮像素子であるCCDセンサ(図示せず)と、CCDセンサに画像を結像するためのレンズ機構(図示せず)とを有する撮像ユニット8を備える。レンズ機構は、撮影倍率が可変のズームレンズ機構であって、レンズ機構の撮影倍率を変化させるためのズームアクチュエータ10が併設されている。カメラ4はまた、撮像ユニット8をチルト方向及びパン方向に関してそれぞれ所定の角度だけ回転駆動するためのパン・チルトアクチュエータ12を備える。
【0016】
コンピュータ6のCPU(中央演算装置)14には、カメラ制御部15、画像処理部16、画像記憶部18、タイマ20、および通信制御部22が接続されている。カメラ制御部15は、ズームおよびパン・チルトアクチュエータ10、12を制御してカメラ4の視野制御を行うためのものである。画像処理部16は、カメラ4により撮像され画像記憶部18に記憶された時系列画像データに対し、後述するような種々の画像処理を施すためのものである。画像記憶部18は、カメラ4から時系列に入力される時系列画像、画像処理部16で処理された画像、および移動物体の静止画像を記憶するためのものである。タイマ20は、時計を内蔵しCPU14に時間情報を提供するためのものである。通信制御部22は、外部と通信を行うためのもので、例えば、画像記憶部18に保存した静止画像を、必要に応じて、図示しないネットワーク(例えばインターネット、LANなど)を介して、例えば遠隔地の監視センタなどに設置された外部端末に送信するためのものである。
【0017】
図2、3は、図1の監視カメラシステムにより監視を行うための処理の一例を示すフローチャートである。まず、ステップS1でシステムを起動すると、カメラ4のアクチュエータ10,12を制御し、これによりカメラ4の視野に最初に巡回すべき監視エリアが入るようにする。なお、システム起動時にカメラが向いていたエリアを、最初に監視すべきエリアとしてもよい。カメラ4は、最初に巡回すべき監視エリアを予め設定された時間監視する(ステップS2)。
【0018】
ステップS3では、現在の巡回位置での巡回時間が終了するまで、画像処理を繰り返す。
【0019】
詳しくは、図3のサブルーチンおよび図4を参照して、ステップS31で、撮影時刻の新しい順に画像A,B,Cの3枚の画像を選択する。これら画像は同一の監視エリアに関する画像である。コンピュータ6は、カメラ4のCCDセンサから、一定間隔Tすなわち垂直駆動(VD)信号に同期して画像を取得するが、移動物体を検出するための画像A,B,Cの取得間隔は、間隔Tの整数倍である。また、画像BとCの取得間隔T1と画像AとBの取得間隔T2は異なるように設定されている。一例を挙げれば、VD信号が1秒間に30回発生、すなわち30fps(frames per second)で画像が取得されるとして、T1をVD信号27周期分、T2を4周期分に設定する(画像AとCの取得間隔は31周期分)。
【0020】
ステップS32で画像A,Bを差分し、続いてノイズ等の除去するために2値化処理を行って画像Dを取得する。2つの画像ともに移動物体が映っていなければ、差分画像Dの画素は全て「0」である。同様に、ステップS33で画像A,Cを差分し、2値化処理を行って画像Eを取得する。この結果、移動物体が比較的高速で移動する場合には取得間隔の短い画像Dに、比較的低速で移動する場合には取得間隔の長い画像Eに移動成分(「1」画素の集合)が含まれることになる。
【0021】
ステップS34では、画像DとEの論理和としての画像Fを求める。この結果、画像Fに基づいて、移動速度の点で広範囲にわたって移動物体を検出することが可能となる。論理和画像Fを取得後、画像処理のフローを終了する。
【0022】
2番目に新しい画像Bと最も古い画像Cの取得間隔T1は、最も新しい画像Aと画像Bの取得間隔T2よりも大きく設定するのが好ましい。前述のように、画像A,Bは比較的高速の移動物体を検出し、画像A,Cは比較的低速の移動物体を検出するために用いられるが、T1がT2より小さいと、移動物体が非常に低速の場合に画像A,Cの差分画像により移動成分を求めることができない可能性がある。また、画像A,Bの時間間隔T2は、非常に高速の移動物体まで検出できる程度に小さく設定するのが好ましいが(例えば、前述のようにVD信号4周期分)、T1をT2より小さく設定すると低速の移動物体を検出できない。
【0023】
図2に戻って、ステップS4で論理和画像Fを基に移動物体を検出した場合、ステップS5に進み、カメラ4のアクチュエータ10,12を制御し、これにより移動物体がカメラ画像中央にくるようにする。例えば、図5(a)のように移動物体24がカメラ画面26の中央付近の一定領域28内よりも画面26の端部に近い位置にくる場合は、パン・チルトアクチュエータ12を制御して移動物体24が図5(b)のように画面26’中央にくるようカメラ姿勢を調整する。さらに、ズームアクチュエータ10を制御して撮影倍率を調整する。ステップS6で、移動物体の静止画像を画像記憶部18に記録する。
【0024】
ステップS4で移動物体を検出しない場合、すなわち、論理和画像Fの画素が全て「0」の場合、フローはステップS2に戻る。
【0025】
ステップS2で現在の巡回位置での巡回時間が終了した場合、ステップS1に戻り、次に巡回すべき監視エリアを監視するようカメラ4の視野を制御し、ステップS2〜S6の動作を繰り返す。
【0026】
本実施形態によれば、低速から高速の広範囲にわたって移動物体を検出できる。カメラからの距離に関して、移動物体が比較的遠くを移動する場合、移動速度が大きくても撮像面上ではゆっくり動くことになり、従来例のように取得間隔の等しい画像を用いて移動成分を求めるには取得間隔を大きく設定する必要がある。しかしながら、このように設定するとカメラの近くを比較的高速で移動する移動物体を捉えることができない。これに対し、本実施形態のように取得間隔を異ならせることで、遠くを速く移動する物体も近くを速く移動する物体も捉えることができる。すなわち、本実施形態によれば、距離レンジの点で広範囲にわたって移動物体を検出できる。
【0027】
(実験)
本発明者らは、以下の条件のもとで撮影時刻の異なる2枚の画像を取得し、差分画像をもとに移動物体を検出できるか否かを実験した。
【0028】
▲1▼カメラ仕様
画素数:横320pixel
撮像画素ピッチ:0.0075mm
焦点距離:2.18mm
VD信号:30fps
▲2▼移動物体
大きさ:カメラ光軸と垂直方向に横幅500mm
移動方向:カメラ光軸と垂直方向(画面の横方向)に直線運動
移動速度:100〜5000mm/sec
カメラから物体までの距離:250〜10000mm
(この範囲で、横幅500mmの物体全体が撮像面3画素以上に投影される)
【0029】
画像取得間隔がVD信号4周期分、31周期分に対し、移動物体の速度およびカメラからの距離(撮像面からの距離)を前記範囲内で変更して2枚の画像を撮影した場合の結果を、それぞれ図6(a),(b)に示す。図中、白塗り部分は発見が可能な場合、黒塗り部分は不可能な場合を示す。差分画像に移動成分が3画素以上あり、横幅500mmの物体が2枚の画像のいずれかに3画素以上撮像されている場合に、移動物体の発見が可能とする。
【0030】
図に示すように、画像取得間隔が一通りであると、発見不可能なカメラからの距離と移動速度の組み合わせがある。しかしながら、画像取得間隔が異なる2通りの結果を合わせると、移動物体のカメラからの距離と移動速度の前記範囲内での組み合わせの全ての場合において移動物体を発見することが可能となることがわかる。
【0031】
ところで、本実施形態では3枚の画像を異なる時間間隔で取得するが、この方法では、CCDセンサのノイズ成分や、対象とする物体以外に画像に映りこんだ別の移動物体が検出される場合がある。特に監視エリアを屋外など背景成分に変化が生じやすい場所に設定した場合に、複数の移動物体が同時に検出される可能性が高い。前述した方法では、複数の移動物体を検出した場合に論理和処理を行った画像において全ての移動成分が現れるため、論理和画像から目標とする移動物体の画像上の位置を正確に識別できず、その結果、移動物体の静止画像を保存するステップS5,S6(図2)を行うことができない。
【0032】
画像中の複数の成分を識別する方法としてラベリングが知られている。しかしながら、ラベリングは、計算量が多く必要となる点で、ある程度速い動きをする被写体にも対応できるよう高速に画像の取込みと処理を繰り返す必要のある移動物体検出方法には適さない。
【0033】
以下では、図7、8のフローチャートおよび図9〜14を参照して、複数の差分成分(「1」画素)の集合の中から最も面積の大きな集合を抽出するための簡易な方法を説明する。
【0034】
まず、ステップS71で、図4を参照して説明したように3枚の画像を用いて差分、2値化、論理和の処理を行うことにより、図9のような画像Qを取得する。図では、「1」画素の集合が5つあるが、これらをそれぞれP1,P2,P3,P4,P5とする。ステップS72で、画像Q中の「1」画素の数を、画像Qの縦軸および横軸に投影してカウントする(すなわち、「1」画素が検出されるごとに、縦方向と横方向の対応する位置の計数値を1ずつ増加させる。)。図10には、このように集計した値を示す周辺分布が示されている。ステップS73で、投影された画素数が閾値(横軸に関してth_h、縦軸に関してth_v)以下の場合は、ノイズとみなして以後の処理対象に含めない(図11参照)。例えば、集合P5のような微小領域、あるいは集合P1,P4の一部など図11中点線で囲まれた領域は、処理対象から除かれる。さらに、ステップS74で、周辺分布の軸方向に連続する長さが閾値(横軸に関してle_h、縦軸に関してle_v)以下の区間も、ノイズとみなして以後の処理対象に含めない。例えば、図11では、区間長がL1,L2,L3,L4のうち、閾値le_hに満たない長さL2の区間は処理対象から除かれる。
【0035】
ステップS75では、前記2種類の閾値を用いた処理により画像中に切り出された領域(すなわち、縦方向および横方向に所定の幅を有する矩形領域)が存在するか否かを判断する。切り出された領域が存在する場合、フローはステップS76に進む。図12を参照して、横幅L1、縦幅L4の領域R1と、横幅L1、縦幅L3の領域R2が切り出される。ステップS75で切り出された領域が存在しない場合、移動物体がなかったとしてフローを終了する。
【0036】
ステップS76では、切り出された領域が複数あるか否かを判断する。複数ある場合、フローはステップS77に進む。図の例では領域はR1,R2の2つ存在する。縦方向および横方向に所定の長さ連続する矩形領域として、集合P1,P2を含む領域R1が切り出されるが、これは、軸投影をした際に集合P3の横方向の連続成分があったためである。このような場合、後述するように集合P1,P2を分割する処理を行う必要がある。
【0037】
ステップS77では、各領域(図の例では2つの領域R1,R2)に含まれる「1」画素の数をカウントし、最大となる領域Rを求める。図の例ではRとしてR1が求められる。
【0038】
ステップS78で、領域R中の「1」画素の数を領域Rの縦軸および横軸に投影してカウントし、周辺分布を求める。以前の処理においてノイズ成分は除去しているので、得られた周辺分布に対しては、前述のth_h,th_v,le_h,le_vのような閾値による処理は行わない。
【0039】
ステップS76で切り出された領域が一つしかない場合、フローはステップS79に進む。ステップS79で切り出された領域をRとして、ステップS78に進む。
【0040】
ステップS81では、周辺分布が区間に分割されているか否かを判断する。分割していれば、ステップS82に進み、領域Rから、縦方向および横方向に区間を有する矩形領域としてサブ領域を切り出す。図の例では、領域R1から、横幅L5、縦幅L4のサブ領域rと、横幅L6、縦幅L4のサブ領域rとが切り出される(図13参照)。
【0041】
ステップS83で、複数のサブ領域それぞれ含まれる「1」画素の数をカウントし、最大となるサブ領域rを求める。図の例では2つのサブ領域r,rからrとしてrが求められる。
【0042】
ステップS84で、サブ領域r(図の例では集合P1を含むr)を元の画像Qに投影し(すなわち、サブ領域rを元の画像Qの座標に変換して)、最終的に図14のような抽出画像Hを獲得し、フローを終了する。この抽出画像は、画像上のサブ領域rの位置を判断し、カメラの姿勢制御および撮影倍率調整を行って対象となる移動物体の静止画像を獲得し記録するのに用いられる。
【0043】
ステップS81で、周辺分布が分割されていない場合(すなわち、領域R内に「1」画素の集合が1つしかない場合)、フローはステップS85に進む。ステップS85で、領域Rを元の画像Qに投影して抽出画像を獲得し、フローを終了する。
【0044】
以上の説明は本発明の一実施形態にかかるもので、本発明はこれに限らず種々改変可能である。例えば、前記実施形態では、時系列的に最も新しい画像と最も古い画像の差分、および最も新しい画像と2番目に新しい画像の差分をもとに移動物体の検出を行ったが、3枚の画像のうちどの2枚を組として二組の差分画像を求めるかは、本発明を限定するものではない。但し、最も古い画像と2番目に新しい画像から差分画像を得る場合、該差分画像に移動成分が含まれていても、移動物体の静止画像を得るためにカメラの制御を開始するのは少なくとも最も新しい画像を取得した後であるので、カメラの制御時には移動物体がカメラの画角から外れている可能性があるため、前記実施形態のようにいずれの組にも最も新しい画像を用いるのが好ましい。
【0045】
【発明の効果】
本発明によれば、撮像装置で所定の領域(例えば監視エリア)を撮像し、撮像した画像データを処理することで該領域内の移動物体を検出する方法において、物体速度および撮像面からの距離の点で広範囲にわたって、移動物体を検出することができる。
【図面の簡単な説明】
【図1】本発明に係る移動物体検出方法の一実施形態を用いた監視カメラシステムを示す概略図。
【図2】図1の監視カメラシステムを用いた監視プロセス全体を示すフローチャート。
【図3】図2のステップS3の画像処理のサブルーチンを示すフローチャート。
【図4】図3の画像処理に用いる3枚の画像、差分画像、および論理和画像を示す図。
【図5】図2のステップS5でのカメラ視野制御を説明するための図。
【図6】画像取得間隔がVD信号4周期分、31周期分に対し、移動物体の速度およびカメラからの距離を変更して2枚の画像を撮影した場合において、移動物体が検出可能か否かを示す図。
【図7】特定の移動成分集合の抽出プロセスの第1の部分を示すフローチャート。
【図8】特定の移動成分集合の抽出プロセスの第2の部分を示すフローチャート。
【図9】図7のステップS71で得られる論理和画像を示す図。
【図10】図7のステップS72で得られる周辺分布を示す図。
【図11】図7のステップS73,S74でのノイズ除去を説明するためのす図。
【図12】図7のステップS75の切り出し領域を示す図。
【図13】図7のステップS78で得られる周辺分布、および、図8のステップS83で得られる「1」画素数が最大のサブ領域を示す図。
【図14】図8のステップS84で得られる抽出画像を示す図。
【符号の説明】
2:監視カメラシステム、4:カメラ装置(撮像装置)、6:コンピュータ、8:撮像ユニット、10:ズームアクチュエータ、12:パン・チルトアクチュエータ。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method for detecting a moving object in a predetermined area by capturing an image of a predetermined area with an imaging device and processing image data of the captured area.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known a method of detecting whether or not a moving object exists in a predetermined area by obtaining a difference image between two images having different shooting times at a predetermined time.
[0003]
In addition, three images (first, second, and third images) having different photographing times are acquired at equal intervals, and a first difference image from the first image and the second image is obtained as a first image and a second image. There is a method that obtains a second difference image from a third image and performs a logical product of the first and second difference images to remove background noise and detect a moving target (for example, And Patent Document 1.).
[0004]
[Patent Document 1]
Japanese Patent Publication No. 6-64613 [0005]
[Problems to be solved by the invention]
When the moving object moves at a high speed, the moving object may pass through the angle of view of the photographing device between the photographing time and the next photographing time. In this case, since no moving component exists on the difference image, the moving object cannot be detected. As described above, if the speed of the moving object is higher than the acquisition interval of the image used for the processing, the moving object may not be detected in some cases.
[0006]
On the other hand, when the moving object moves at a low speed, the moving component cannot be obtained by the difference processing if the shift amount of the image of the moving object in the two images to be differentiated is small enough to be lower than the resolution of the image sensor. .
[0007]
When three images are used as in the above-described conventional example, the probability that a moving object can be detected based on a difference image is higher than when two images are used. When moving at a very high speed or moving at a very low speed, a moving object may not be detected from the difference image.
[0008]
Therefore, an object of the present invention is to provide a method capable of detecting a moving object over a wide range in terms of moving speed.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, a moving object detection method according to the present invention includes:
In a method of imaging a predetermined region with an imaging device and processing a captured image data to detect a moving object in the region,
Obtaining an image group having first, second and third images, which are first, second and third images in chronological order,
Selecting a set of two images from the group of images to obtain a first difference image; and selecting a set of images different from the selected set of two images from the group of images to obtain a second difference image. Obtaining an image;
A time interval T1 from the acquisition of the first image to the acquisition of the second image is different from a time interval T2 from the acquisition of the second image to the acquisition of the third image.
[0010]
The first difference image may be a difference image between the first image and the third image, and the second difference image may be a difference image between the second image and the third image. In this case, it is preferable that the time interval T1 be longer than the time interval T2.
[0011]
The method may further include the step of binarizing each of the first and second difference images.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment according to the present invention will be described below with reference to the accompanying drawings. In the following description, an example in which the moving object detection method according to the present invention is applied to a surveillance camera system will be described. However, the present invention is not limited to this, and can be applied to various fields.
[0013]
FIG. 1 is a configuration diagram illustrating an embodiment of a surveillance camera system. This system 2 is for acquiring and recording a still image of a moving object by adjusting the direction and magnification of a camera when a moving object is detected in the monitoring area.
[0014]
The surveillance camera system 2 generally includes a surveillance camera device 4 (hereinafter, simply referred to as a camera) for patrol monitoring of a plurality of surveillance areas, and a computer 6 having a program for controlling the camera 4 and performing predetermined image processing. And
[0015]
The camera 4 includes an imaging unit 8 having a CCD sensor (not shown) as an imaging element and a lens mechanism (not shown) for forming an image on the CCD sensor. The lens mechanism is a zoom lens mechanism with a variable photographing magnification, and is provided with a zoom actuator 10 for changing the photographing magnification of the lens mechanism. The camera 4 also includes a pan / tilt actuator 12 for rotating and driving the imaging unit 8 by a predetermined angle in each of the tilt direction and the pan direction.
[0016]
A camera control unit 15, an image processing unit 16, an image storage unit 18, a timer 20, and a communication control unit 22 are connected to a CPU (central processing unit) 14 of the computer 6. The camera control unit 15 controls the zoom and pan / tilt actuators 10 and 12 to control the visual field of the camera 4. The image processing unit 16 is for performing various image processing described later on the time-series image data captured by the camera 4 and stored in the image storage unit 18. The image storage unit 18 stores a time-series image input in time series from the camera 4, an image processed by the image processing unit 16, and a still image of a moving object. The timer 20 has a built-in clock and provides time information to the CPU 14. The communication control unit 22 is for performing communication with the outside. For example, the communication control unit 22 stores a still image stored in the image storage unit 18 through a network (for example, the It is for transmitting to an external terminal installed in a local monitoring center or the like.
[0017]
2 and 3 are flowcharts showing an example of a process for performing monitoring by the monitoring camera system of FIG. First, when the system is started in step S1, the actuators 10 and 12 of the camera 4 are controlled so that the monitoring area to be first patrol enters the field of view of the camera 4. Note that the area to which the camera was facing when the system was activated may be the area to be monitored first. The camera 4 monitors a monitoring area to be first patrol for a preset time (step S2).
[0018]
In step S3, the image processing is repeated until the traveling time at the current traveling position ends.
[0019]
Specifically, with reference to the subroutine of FIG. 3 and FIG. 4, in step S31, three images A, B, and C are selected in the order of the latest photographing time. These images are images relating to the same monitoring area. The computer 6 acquires an image from the CCD sensor of the camera 4 at a fixed interval T, that is, in synchronization with a vertical drive (VD) signal. The acquisition intervals of the images A, B, and C for detecting a moving object are set at intervals. It is an integral multiple of T. The acquisition interval T1 between the images B and C and the acquisition interval T2 between the images A and B are set to be different. As an example, assuming that a VD signal is generated 30 times per second, that is, an image is acquired at 30 fps (frames per second), T1 is set to 27 cycles of the VD signal and T2 is set to 4 cycles (images A and The acquisition interval of C is 31 cycles).
[0020]
In step S32, the images A and B are differentiated, and subsequently, binarization processing is performed to remove noise and the like, thereby obtaining an image D. If the moving object is not reflected in both images, the pixels of the difference image D are all “0”. Similarly, in step S33, the images A and C are differentiated, and a binarization process is performed to obtain an image E. As a result, when the moving object moves at a relatively high speed, the moving component (a set of “1” pixels) is included in the image D having a short acquisition interval when the moving object moves at a relatively low speed, and in the image E having a long acquisition interval when the moving object moves at a relatively low speed. Will be included.
[0021]
In step S34, an image F as a logical sum of the images D and E is obtained. As a result, it is possible to detect a moving object over a wide range in terms of the moving speed based on the image F. After obtaining the logical sum image F, the flow of the image processing ends.
[0022]
The acquisition interval T1 between the second newest image B and the oldest image C is preferably set to be larger than the acquisition interval T2 between the newest image A and the image B. As described above, the images A and B are used to detect a relatively fast moving object, and the images A and C are used to detect a relatively slow moving object. When T1 is smaller than T2, the moving object is detected. When the speed is very low, the moving component may not be obtained from the difference image between the images A and C. It is preferable that the time interval T2 between the images A and B is set small enough to detect a very high-speed moving object (for example, as described above for four periods of the VD signal), but T1 is set smaller than T2. Then, a slow moving object cannot be detected.
[0023]
Returning to FIG. 2, when a moving object is detected based on the logical sum image F in step S4, the process proceeds to step S5, in which the actuators 10 and 12 of the camera 4 are controlled so that the moving object comes to the center of the camera image. To For example, as shown in FIG. 5A, when the moving object 24 comes to a position closer to the edge of the screen 26 than to a fixed area 28 near the center of the camera screen 26, the pan / tilt actuator 12 is controlled to move. The camera posture is adjusted so that the object 24 is at the center of the screen 26 'as shown in FIG. Further, the zoom actuator 10 is controlled to adjust the photographing magnification. In step S6, a still image of the moving object is recorded in the image storage unit 18.
[0024]
If no moving object is detected in step S4, that is, if all the pixels of the logical sum image F are “0”, the flow returns to step S2.
[0025]
When the patrol time at the current patrol position ends in step S2, the process returns to step S1, controls the field of view of the camera 4 to monitor the next monitoring area to be patrol, and repeats the operations in steps S2 to S6.
[0026]
According to the present embodiment, a moving object can be detected over a wide range from a low speed to a high speed. Regarding the distance from the camera, when the moving object moves relatively far, the moving object moves slowly on the imaging surface even if the moving speed is high, and the moving component is obtained by using images having the same acquisition interval as in the conventional example. Requires a large acquisition interval. However, with this setting, a moving object that moves relatively near the camera at a relatively high speed cannot be captured. On the other hand, by making the acquisition intervals different as in the present embodiment, it is possible to catch an object moving quickly in a distant place and an object moving fast in a near place. That is, according to the present embodiment, a moving object can be detected over a wide range in terms of a distance range.
[0027]
(Experiment)
The present inventors acquired two images at different photographing times under the following conditions, and experimented to determine whether a moving object can be detected based on a difference image.
[0028]
(1) Camera specification pixels: 320 pixels wide
Imaging pixel pitch: 0.0075mm
Focal length: 2.18mm
VD signal: 30 fps
(2) Moving object size: 500 mm in width perpendicular to the camera optical axis
Moving direction: linear motion in the direction perpendicular to the camera optical axis (lateral direction of the screen) Moving speed: 100 to 5000 mm / sec
Distance from camera to object: 250-10000mm
(In this range, the entire object having a width of 500 mm is projected onto three or more pixels on the imaging surface.)
[0029]
Results when two images are captured while changing the speed of the moving object and the distance from the camera (distance from the imaging surface) within the above-mentioned range for the image acquisition intervals of 4 periods and 31 periods of the VD signal. Are shown in FIGS. 6A and 6B, respectively. In the figure, a white portion indicates a case where discovery is possible, and a black portion indicates a case where it is impossible. A moving object can be found when the difference image has three or more moving components and an object having a width of 500 mm is picked up by three or more pixels in any of the two images.
[0030]
As shown in the figure, if the image acquisition interval is one, there is a combination of the distance from the camera and the moving speed that cannot be found. However, when the two results with different image acquisition intervals are combined, it can be seen that the moving object can be found in all combinations of the distance of the moving object from the camera and the moving speed within the above range. .
[0031]
By the way, in this embodiment, three images are acquired at different time intervals. However, in this method, when a noise component of the CCD sensor or another moving object reflected in the image other than the target object is detected. There is. In particular, when the monitoring area is set to a place where the background component easily changes, such as outdoors, there is a high possibility that a plurality of moving objects will be detected at the same time. In the above-described method, since all moving components appear in the image subjected to the logical sum processing when a plurality of moving objects are detected, the position of the target moving object on the image cannot be accurately identified from the logical sum image. As a result, steps S5 and S6 (FIG. 2) for storing the still image of the moving object cannot be performed.
[0032]
Labeling is known as a method for identifying a plurality of components in an image. However, labeling, which requires a large amount of calculation, is not suitable for a moving object detection method that needs to repeat image capture and processing at a high speed so as to be able to cope with a subject that moves to some extent.
[0033]
Hereinafter, a simple method for extracting a set having the largest area from a set of a plurality of difference components (“1” pixels) will be described with reference to the flowcharts of FIGS. .
[0034]
First, in step S71, an image Q as shown in FIG. 9 is obtained by performing a process of difference, binarization, and logical sum using three images as described with reference to FIG. In the figure, there are five sets of “1” pixels, which are referred to as P1, P2, P3, P4, and P5, respectively. In step S72, the number of “1” pixels in the image Q is projected and counted on the vertical axis and the horizontal axis of the image Q (that is, every time a “1” pixel is detected, the number of pixels in the vertical direction and the horizontal direction is counted). The count value of the corresponding position is incremented by one.) FIG. 10 shows a marginal distribution indicating the values thus aggregated. If the number of projected pixels is equal to or smaller than the threshold (th_h on the horizontal axis and th_v on the vertical axis) in step S73, it is regarded as noise and is not included in the subsequent processing (see FIG. 11). For example, a small area such as the set P5 or an area surrounded by a dotted line in FIG. 11 such as a part of the sets P1 and P4 is excluded from the processing target. Further, in step S74, a section in which the length of the peripheral distribution that continues in the axial direction is equal to or less than the threshold (le_h on the horizontal axis and le_v on the vertical axis) is also regarded as noise and not included in the subsequent processing. For example, in FIG. 11, among the sections L1, L2, L3, and L4, the section having the length L2 smaller than the threshold le_h is excluded from the processing target.
[0035]
In step S75, it is determined whether there is an area (that is, a rectangular area having a predetermined width in the vertical direction and the horizontal direction) extracted from the image by the processing using the two types of thresholds. If there is a cut-out area, the flow proceeds to step S76. Referring to FIG. 12, a region R1 having a horizontal width L1 and a vertical width L4 and a region R2 having a horizontal width L1 and a vertical width L3 are cut out. If there is no region cut out in step S75, it is determined that there is no moving object, and the flow ends.
[0036]
In step S76, it is determined whether there are a plurality of cut-out areas. If there is more than one, the flow goes to step S77. In the example of the figure, there are two regions, R1 and R2. The region R1 including the sets P1 and P2 is cut out as a rectangular region continuous by a predetermined length in the vertical direction and the horizontal direction. This is because there was a continuous component in the horizontal direction of the set P3 when axial projection was performed. is there. In such a case, it is necessary to perform a process of dividing the sets P1 and P2 as described later.
[0037]
At step S77, the count of "1" pixels included in each area (two regions in the example of FIG R1, R2), determine the area R m having the maximum. R1 is determined as R m in the example of FIG.
[0038]
In step S78, counted by projecting the number of "1" pixel in the region R m on the vertical and horizontal axes of the region R m, determine the marginal distribution. Since the noise component has been removed in the previous processing, the processing using the thresholds such as th_h, th_v, le_h, and le_v described above is not performed on the obtained marginal distribution.
[0039]
If there is only one region cut out in step S76, the flow proceeds to step S79. An area cut out in step S79 as R m, the process proceeds to step S78.
[0040]
In step S81, it is determined whether or not the marginal distribution is divided into sections. If divided, the process proceeds to step S82, the from region R m, cut out the sub-region as a rectangular region having a machine direction and a transverse direction in the section. In the illustrated example, from the region R1, the lateral width L5, the subregion r 1 of the vertical width L4, the width L6, a subregion r 2 of the longitudinal width L4 is cut out (see FIG. 13).
[0041]
In step S83, the count of "1" pixels included each of the plurality of sub-areas, determining the sub-region r m with the maximum. R 1 is calculated in two sub regions r 1, r 2 as r m in the example of FIG.
[0042]
In step S84, the projection of the sub-region r m (r 1 in the example of FIG containing the set P1) to the original image Q (i.e., converts the sub-region r m the coordinates of the original image Q), final Then, an extracted image H as shown in FIG. 14 is obtained, and the flow ends. The extracted image determines the position of the sub-region r m on the image is used to acquire a still image of a moving object of interest records perform posture control and the imaging magnification adjustment of the camera.
[0043]
In step S81, if the marginal distribution is not divided (i.e., if the set of "1" pixel is only one in the region R m), the flow proceeds to step S85. In step S85, the acquired extracted image by projecting a region R m to the original image Q, the flow ends.
[0044]
The above description relates to one embodiment of the present invention, and the present invention is not limited to this, and can be variously modified. For example, in the embodiment, the moving object is detected based on the difference between the newest image and the oldest image in time series, and the difference between the newest image and the second newest image. The present invention is not limited to which two of them are used as a set to determine two sets of difference images. However, when obtaining a difference image from the oldest image and the second newest image, even if the difference image includes a moving component, it is at least the most necessary to start controlling the camera to obtain a still image of the moving object. Since it is after acquiring a new image, there is a possibility that the moving object may be out of the angle of view of the camera when controlling the camera. Therefore, it is preferable to use the newest image for any set as in the above embodiment. .
[0045]
【The invention's effect】
According to the present invention, in a method of detecting a moving object in a predetermined area (for example, a monitoring area) by processing the captured image data by capturing an image of the predetermined area (for example, a monitoring area), the object speed and the distance from the imaging surface are determined. Thus, a moving object can be detected over a wide range.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a surveillance camera system using one embodiment of a moving object detection method according to the present invention.
FIG. 2 is a flowchart showing an entire monitoring process using the monitoring camera system of FIG. 1;
FIG. 3 is a flowchart showing a subroutine of image processing in step S3 of FIG. 2;
FIG. 4 is a view showing three images, a difference image, and a logical sum image used in the image processing of FIG. 3;
FIG. 5 is a view for explaining camera view control in step S5 of FIG. 2;
FIG. 6 shows whether or not a moving object can be detected when two images are captured while changing the speed of the moving object and the distance from the camera with respect to an image acquisition interval of 4 periods and 31 periods of a VD signal. FIG.
FIG. 7 is a flowchart showing a first part of a process for extracting a specific moving component set.
FIG. 8 is a flowchart showing a second part of the extraction process of a specific moving component set.
FIG. 9 is a view showing a logical sum image obtained in step S71 of FIG. 7;
FIG. 10 is a diagram showing a marginal distribution obtained in step S72 of FIG. 7;
FIG. 11 is a diagram for explaining noise removal in steps S73 and S74 of FIG. 7;
FIG. 12 is a diagram showing a cut-out area in step S75 of FIG. 7;
FIG. 13 is a view showing a marginal distribution obtained in step S78 in FIG. 7 and a sub-region having the maximum number of “1” pixels obtained in step S83 in FIG. 8;
FIG. 14 is a view showing an extracted image obtained in step S84 in FIG. 8;
[Explanation of symbols]
2: surveillance camera system, 4: camera device (imaging device), 6: computer, 8: imaging unit, 10: zoom actuator, 12: pan / tilt actuator.

Claims (4)

撮像装置で所定の領域を撮像し、撮像した画像データを処理することで該領域内の移動物体を検出する方法において、
第1、第2および第3の画像を有する画像群であって、時系列的に古い順に第1、第2および第3の画像である画像群を得るステップと、
前記画像群から2枚の画像の組を選択して第1の差分画像を得るステップと、前記画像群から前記選択した2枚の画像の組と異なる組の画像を選択して第2の差分画像を得るステップとを含み、
第1の画像を得てから第2の画像を得るまでの時間間隔T1と、第2の画像を得てから第3の画像を得るまでの時間間隔T2とが異なることを特徴とする検出方法。
In a method of imaging a predetermined region with an imaging device and processing a captured image data to detect a moving object in the region,
Obtaining an image group having first, second and third images, which are first, second and third images in chronological order,
Selecting a set of two images from the group of images to obtain a first difference image; and selecting a set of images different from the selected set of two images from the group of images to obtain a second difference image. Obtaining an image;
A detection method characterized in that a time interval T1 from obtaining a first image to obtaining a second image is different from a time interval T2 from obtaining a second image to obtaining a third image. .
第1の差分画像は第1の画像と第3の画像の差分画像であり、第2の差分画像は第2の画像と第3の画像の差分画像であることを特徴とする請求項1の検出方法。2. The method according to claim 1, wherein the first difference image is a difference image between the first image and the third image, and the second difference image is a difference image between the second image and the third image. Detection method. 時間間隔T1が時間間隔T2より大きいことを特徴とする請求項2の検出方法。3. The method according to claim 2, wherein the time interval T1 is larger than the time interval T2. 第1および第2の差分画像をそれぞれ2値化処理するステップをさらに含む請求項1〜3のいずれかに記載の検出方法。The detection method according to claim 1, further comprising a step of performing a binarization process on each of the first and second difference images.
JP2002316103A 2002-10-30 2002-10-30 Moving object detection method Pending JP2004151980A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002316103A JP2004151980A (en) 2002-10-30 2002-10-30 Moving object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002316103A JP2004151980A (en) 2002-10-30 2002-10-30 Moving object detection method

Publications (1)

Publication Number Publication Date
JP2004151980A true JP2004151980A (en) 2004-05-27

Family

ID=32459901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002316103A Pending JP2004151980A (en) 2002-10-30 2002-10-30 Moving object detection method

Country Status (1)

Country Link
JP (1) JP2004151980A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011176868A (en) * 2011-04-18 2011-09-08 Hitachi Ltd Imaging apparatus
JP2012073891A (en) * 2010-09-29 2012-04-12 Nohmi Bosai Ltd Frequency component specification method for smoke detection and smoke detector
WO2022209583A1 (en) * 2021-03-31 2022-10-06 パイオニア株式会社 Information processing device, information processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012073891A (en) * 2010-09-29 2012-04-12 Nohmi Bosai Ltd Frequency component specification method for smoke detection and smoke detector
JP2011176868A (en) * 2011-04-18 2011-09-08 Hitachi Ltd Imaging apparatus
WO2022209583A1 (en) * 2021-03-31 2022-10-06 パイオニア株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP3733392B2 (en) Image composition change detection method
CN101106647B (en) Image pickup apparatus, control method therefor
KR960005204B1 (en) Video camera having focusing and image-processing function
KR100994596B1 (en) Image capture device that record image accordant with predetermined condition, photographing method thereof and storage medium recording that program
EP2549738B1 (en) Method and camera for determining an image adjustment parameter
JP6574645B2 (en) Control device for controlling imaging apparatus, control method for imaging apparatus, and program
JP2003219225A (en) Device for monitoring moving object image
CN101494735B (en) Imaging apparatus, imaging apparatus control method
JP2006081125A (en) Imaging system and imaging method
JP2006267221A (en) Auto focus system
US10277888B2 (en) Depth triggered event feature
JP2010114752A (en) Device and method of imaging and program
JP2009147757A (en) Motion vector detecting apparatus, motion vector detecting method, imaging apparatus, and program
JP2012185684A (en) Object detection device and object detection method
JP2005173787A (en) Image processor detecting/recognizing moving body
KR20150130901A (en) Camera apparatus and method of object tracking using the same
JP4594197B2 (en) Automatic tracking device
KR101288881B1 (en) Set up a number of areas of surveillance and monitoring of surveillance cameras in the area to shoot enlarged system
JP2004151980A (en) Moving object detection method
JP5300413B2 (en) Motion vector detection device, motion vector detection method, imaging device, and program
TWI578780B (en) Blurry image detecting method and related camera and image processing system
KR100761817B1 (en) A ccd camera system for effectively tracking a motion of objects and a method thereof
JPH04165773A (en) Video camera
JP2017038243A (en) Imaging apparatus
JP2015097089A (en) Object detection device and object detection method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613