JP2004287806A - Moving target detector, tracking system and moving target identification method - Google Patents
Moving target detector, tracking system and moving target identification method Download PDFInfo
- Publication number
- JP2004287806A JP2004287806A JP2003078506A JP2003078506A JP2004287806A JP 2004287806 A JP2004287806 A JP 2004287806A JP 2003078506 A JP2003078506 A JP 2003078506A JP 2003078506 A JP2003078506 A JP 2003078506A JP 2004287806 A JP2004287806 A JP 2004287806A
- Authority
- JP
- Japan
- Prior art keywords
- target
- evaluation value
- target area
- frame image
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、移動目標検出装置、追尾システム及び移動目標識別方法に係り、より詳しくは、フレーム画像ごとに目標領域を抽出して航空機などの移動目標の検出を行う移動目標検出装置の改良に関する。
【0002】
【従来の技術】
従来の移動目標検出装置としては、例えば、特許文献1または2に記載のものがある。このうち、特許文献1に記載の移動物体認識装置は、複数の時系列画像と背景画像とが格納される画像記憶部と、時間を遡って画像処理を行う画像処理部とを備えている。そして、画像処理部は、複数の時系列画像のうち時刻tの画像について、背景画像と比較して移動物体を認識し、認識された移動物体に識別符号を付与し、時刻tの画像に含まれる各移動物体の動きベクトルを求め、(t−1)の画像に含まれる移動物体上の領域が識別符号Xを持っていると仮定して、この領域に対応した時刻tでの画像上の領域を動きベクトルに基づき推定し、両領域の相関度を求め、複数の識別符号Xの各々について求めた相関度の大小関係に基づいて、領域に付与すべき識別符号を決定することにより時刻(t−1)の画像に含まれている非分離移動物体を分割するように構成される。
【0003】
【特許文献1】
特開2002−133421号公報
【特許文献2】
特開2000−13782号公報
【0004】
【発明が解決しようとする課題】
上述した様な従来の移動目標検出装置は、現在の入力画像と、過去の入力画像から得られる背景画像との差分画像に基づいて、移動目標を検出している。このため、カメラセンサの視野範囲内において複数の目標が同時に捉えられるような状況では、カメラセンサの視線方向と各目標との位置関係によって各目標が重なって画像入力され、複数の移動目標を1つの移動目標であるというように誤検出されてしまう場合があった。
【0005】
また、日射などの外乱によって入力画像に揺らぎが生じ、1つの移動目標が分裂して検出されるような状況では、分裂した個々の検出結果をそれぞれ移動目標であるというように誤認されてしまうという問題もあった。
【0006】
本発明は、上記事情に鑑みてなされたものであり、移動目標の検出精度を向上させた移動目標検出装置、追尾システム及び移動目標識別方法を提供することを目的としている。
【0007】
【課題を解決するための手段】
本発明による移動目標検出装置は、順次に入力されるフレーム画像ごとに、背景画像に基づいて目標領域を抽出する目標領域抽出手段と、各目標領域のフレーム画像内における抽出位置に基づいて、異なる2つのフレーム画像間で目標領域の相関度を評価し、評価値を生成する評価値生成手段と、評価値に基づいて、異なるフレーム間で目標領域を対応づけ、移動目標を識別する目標識別手段を備え、評価値生成手段は、フレーム画像から抽出された第1の目標領域が、より前のフレーム画像から抽出された第2の目標領域と重複する場合に、この重複領域に基づいて評価値を生成するように構成される。
【0008】
この様な構成によれば、第1及び第2の目標領域の重複領域に基づいて、評価値が生成されるので、評価値の生成が容易である。また、評価値に基づいてこれらの目標領域がフレーム間で対応づけられ、この対応づけに基づいて移動目標が識別されるので、移動目標の検出精度を向上させることができる。
【0009】
本発明による追尾システムは、カメラセンサから順次に入力されるフレーム画像に基づいて、移動目標の検出を行う移動目標検出装置と、移動目標の位置情報の標定を行う目標位置標定装置と、標定結果に基づいて予測ゲートを補正し、補正結果に基づいて移動目標の追尾を行う追尾処理装置により構成され、移動目標検出装置は、フレーム画像ごとに背景画像に基づいて目標領域を抽出する目標領域抽出手段と、各目標領域のフレーム画像内における抽出位置に基づいて、異なる2つのフレーム画像間で目標領域の相関度を評価し、評価値を生成する評価値生成手段と、評価値に基づいて、異なるフレーム間で目標領域を対応づけ、移動目標を識別する目標識別手段を備え、評価値生成手段は、フレーム画像から抽出された第1の目標領域が、より前のフレーム画像から抽出された第2の目標領域と重複する場合に、この重複領域に基づいて評価値を生成する。
【0010】
本発明による移動目標識別方法は、順次に入力されるフレーム画像ごとに、背景画像に基づいて目標領域を抽出する目標領域抽出ステップと、各目標領域のフレーム画像内における抽出位置に基づいて、異なる2つのフレーム画像間で目標領域の相関度を評価し、評価値を生成する評価値生成ステップと、評価値に基づいて、異なるフレーム間で目標領域を対応づけ、移動目標を識別する目標識別ステップからなり、評価値生成ステップにおいて、フレーム画像から抽出された第1の目標領域が、より前のフレーム画像から抽出された第2の目標領域と重複する場合に、この重複領域に基づいて評価値が生成される。
【0011】
【発明の実施の形態】
実施の形態1.
図1は、本発明の実施の形態1による追尾システムの一構成例を示したブロック図である。本実施の形態の追尾システム1は、カメラセンサ2、移動目標検出装置3、目標位置標定装置4、追尾処理装置5及び目標位置表示装置6により構成される。この追尾システム1は、カメラセンサ2からの画像データに基づいて目標を追尾し、追尾結果を目標位置表示装置6に表示するものであり、例えば、車両もしくは滑走路上の航空機などの移動目標を追尾するのに好適なものである。
【0012】
カメラセンサ2は、所定のフレーム周期で撮像を行う撮像手段であり、滑走路脇などに設置される。撮像された画像データは、順次に移動目標検出装置3へ出力され、フレームごとの画像データ(以下、フレーム画像という)に基づいて移動目標の検出が行われる。
【0013】
目標位置標定装置4は、移動目標の検出結果に基づいて、移動目標の位置情報の標定を行っている。位置情報の標定は、カメラセンサ2の設置場所と、撮像の方位及び俯角情報とに基づいて行われ、検出された移動目標のフレーム画像上における重心位置及びサイズを、実座標における重心位置及びサイズに変換することにより行われる。また、移動目標の大きさもしくは高さなどから、位置情報の標定誤差が算出される。この様にして行われた標定結果は、追尾処理装置5へ出力される。
【0014】
追尾処理装置5は、目標の移動先を予測するための予測ゲートを設け、この予測ゲートの大きさを標定結果に基づいて補正することにより、移動目標の追尾処理を行っている。追尾処理の結果は、目標位置表示装置6へ出力され、移動目標の航跡などが画面表示される。
【0015】
図2は、図1の追尾システムにおける移動目標検出装置の構成例を示したブロック図である。本実施の形態の移動目標検出装置3は、A/D変換部7、目標領域抽出部8、背景画像記憶部9、入力画像記憶部10、評価値生成部11及び目標識別部12により構成される。
【0016】
A/D変換部7は、カメラセンサ2から入力されたフレーム画像をデジタル画像に変換し、変換後のフレーム画像を目標領域抽出部8へ出力している。目標領域抽出部8は、このフレーム画像をフレームごとに入力画像記憶部10へ格納するとともに、フレーム画像ごとに順次に目標領域の抽出を行っている。
【0017】
目標領域の抽出は、背景画像記憶部9に記憶された背景画像に基づいて行われる。背景画像とは、カメラセンサ2により予め撮像された画像データであり、背景差分法による空間フィルタを用いてフレーム画像から目標領域が判別される。つまり、現在のフレーム画像と、過去のフレーム画像から得られる背景画像との差分画像から目標領域が抽出される。この様にして抽出された抽出結果は、フレーム画像ごとに入力画像記憶部10へ記憶される。
【0018】
評価値生成部11は、フレーム画像ごとに抽出された目標領域に対し、異なる2つのフレーム画像間で相関度の評価を行っている。相関度の評価は、各目標領域のフレーム画像内における抽出位置に基づいて行われ、目標領域ごとにフレーム間での評価値が生成される。
【0019】
評価値は、目標領域のフレーム間での相関度を表し、フレーム画像から抽出された目標領域(第1の目標領域とする)が、そのフレーム画像より前のフレーム画像から抽出された目標領域(第2の目標領域とする)と重複する場合に、この重複領域に基づいて生成される。ここでは、第2の目標領域が、第1の目標領域より1フレーム前のフレーム画像から抽出されたものであるとする。また、第1及び第2の目標領域が重複しない場合には、目標領域間の距離に基づいて評価値が生成される。
【0020】
例えば、第1及び第2の目標領域が重複する場合には、その重複部分の領域面積から評価値が生成され、画素数単位で評価値が算出される。また、第1及び第2の目標領域が重複しない場合には、目標領域間の離れ距離に基づいて評価値が生成され、画素数単位の距離から評価値が算出される。
【0021】
離れ距離とは、目標領域間の縦方向の最大距離と、横方向の最小距離とを表し、フレーム画像における縦横による遠近感及び画像圧縮度の差違が考慮された値である。評価値は、この離れ距離に基づいて算出され、例えば、目標領域間の縦方向の最大距離と、横方向の最小距離との和に−1を乗算することにより得られる値である。つまり、第1及び第2の目標領域が重複する場合には、正の評価値が生成され、第1及び第2の目標領域が重複しない場合には、負の評価値が生成される。この様な評価値は、フレーム画像内において抽出された全ての目標領域について算出される。
【0022】
目標識別部12は、生成された目標領域間の評価値に基づいて、目標領域を異なるフレーム画像間で対応づけ、その対応関係から移動目標の識別を行っている。フレーム間の対応づけは、例えば、1つの第2の目標領域に対し、最も高い評価値を有する第1の目標領域を判別することにより行われ、当該第1の目標領域が当該第2の目標領域に対応づけられる。
【0023】
この様にして対応づけられたフレーム間の目標領域には、例えば、同一の識別符号が付与され、この識別符号に基づいて、移動目標がフレームごとに順次に識別される。
【0024】
また、目標識別部12は、評価値に基づいて、フレーム画像内の目標領域の選別を行っている。目標領域の選別は、フレーム画像ごとに行われ、例えば、評価値を所定の閾値と比較することにより行われる。この比較の結果、評価値が閾値より低い目標領域については、追尾対象から除外される。
【0025】
この様にして移動目標の識別が行われ、識別情報が移動目標の検出結果として目標位置標定装置4へ出力される。
【0026】
図3のステップS1〜S4は、図2の移動目標検出装置における移動目標識別の動作の一例を示したフローチャートである。カメラセンサ2からフレーム画像が入力されると(ステップS1)、このフレーム画像は、A/D変換部7によってアナログ画像からデジタル画像に変換され、変換後のフレーム画像が目標領域抽出部8に出力される。
【0027】
次に、目標領域抽出部8は、背景画像記憶部9に記憶された背景画像に基づいて、フレーム画像から目標領域を抽出する(ステップS2)。抽出結果は、評価値生成部11に出力され、フレーム画像間の目標領域の相関度が評価される。評価値生成部11は、目標領域のフレーム画像内での抽出位置に基づいて、評価値を生成する(ステップS3)。
【0028】
評価結果は、目標識別部12に出力され、フレーム画像間における目標領域の対応づけが行われる。目標識別部12は、この対応づけに基づいて、移動目標を識別する(ステップS4)。
【0029】
図4及び図5は、図2の移動目標検出装置における評価値生成の一例を示した説明図であり、図4(a)は、現在のフレーム画像において抽出された各目標領域を表し、図4(b)は、過去のフレーム画像において抽出された各目標領域を表し、図5は、現在のフレーム画像及び過去のフレーム画像間における目標領域の位置関係に基づく評価値の生成を表している。
【0030】
カメラセンサ2から順次に入力されるフレーム画像の1つを現在フレーム画像とし、そのフレーム画像より1フレーム前のフレーム画像を過去フレーム画像とする。そして、目標領域抽出部8によって現在フレーム画像から抽出された各目標領域(第1の目標領域)を目標領域21,24,25とし、過去フレーム画像から抽出された各目標領域(第2の目標領域)を目標領域22,23とする。
【0031】
評価値生成部11は、現在フレーム画像における目標領域21,24,25と、過去フレーム画像における目標領域22,23との間で互いの位置関係に基づいて評価値を算出する。その評価値の算出方法について説明する。以下、説明をわかり易くするため、現在及び過去のフレーム画像内の各目標領域に対して個々に説明する。
【0032】
例えば、現在フレーム画像の目標領域21は、過去フレーム画像の目標領域22と抽出位置が重複している。この場合(A1−A2)には、重複部分の領域面積から評価値が算出される。重複領域のフレーム画像上における縦横の長さを、ピクセル数(画素数)単位で求めることにより、評価値は、20×30=600と算出される。
【0033】
一方、現在フレーム画像の目標領域21は、過去フレーム画像の目標領域23と抽出位置が重複していない。この場合(A1−B2)には、フレーム画像上における目標領域間の離れ距離から評価値が算出される。ピクセル数単位で離れ距離を求めると、縦方向に最大50、横方向に最小5であり、評価値は、(−50)+(−5)=−55と算出される。
【0034】
他の目標領域間の評価値についても、A1−A2の場合もしくはA1−B2の場合と同様にして算出され、目標領域24及び22の場合(B1−A2)は、−300、目標領域24及び23の場合(B1−B2)は、200、目標領域25及び22の場合(C1−A2)は、−400、目標領域25及び23の場合(C1−B2)は、−40となっている。
【0035】
本実施の形態によれば、目標領域間の評価値を重複領域の面積及び離れ距離から算出するので、評価値を容易に算出することができる。また、現在及び過去のフレーム画像間で算出された評価値に基づいて、目標領域間の対応づけが行われるので、複数の移動目標に対する識別精度を向上させることができる。
【0036】
また、評価値に基づいてフレーム画像内の目標領域の選別が行われるので、追尾処理におけるデータ処理量を低減させることができ、処理時間が短縮する。
【0037】
実施の形態2.
図6は、本発明の実施の形態2による移動目標検出装置の構成例を示したブロック図である。図2の移動目標検出装置3(実施の形態1)では、同程度の重複度でも目標領域の大きさに応じて評価値が変化していたが、本実施の形態の移動目標検出装置3aでは、評価値を補正することにより、目標領域の大きさによる評価値のばらつきを解消している。
【0038】
この移動目標検出装置3aは、評価値補正部13を備え、評価値生成部11によって生成された目標領域間の評価値が、評価値補正部13によって補正される。評価値の補正は、所定の最低評価値を定め、この最低評価値よりも低い評価値を最低評価値とすることにより行われる。
【0039】
ここで、最低評価値は、カメラセンサ2の設置場所、視野範囲、移動目標の大きさまたは移動目標までの距離などに基づいて予め定められるものとする。
【0040】
例えば、評価値に所定の補正値を加算した後、負の値をゼロの評価値に置き換えることにより補正が行われる。この場合、ゼロが最低評価値となる。ここで、補正値は、最低評価値と同様に定められる。補正値の加算処理は、例えば、目標領域の大きさが大きいと、重複領域の面積及び離れ距離の分散が大きくなり、同程度の重複度でも目標領域の大小によって評価値の指標が変化してしまうのを解消するための正規化処理である。
【0041】
この様にして評価値の補正が行われ、補正後の評価値に基づいて移動目標の識別が行われる。なお、その他の構成は、図2の移動目標検出装置3と同様である。
【0042】
図7は、図6の移動目標検出装置における評価値補正の一例を示した説明図である。例えば、補正値を100として、評価値の補正が行われる。A1−A2の場合は、600+100=700と補正され、A1−B2の場合は、−55+100=45と補正される。また、B1−A2の場合は、−300+100=−200=0、B1−B2の場合は、200+100=300、C1−A2の場合は、−400+100=−300=0、C1−B2の場合は、−40+100=60とそれぞれ補正される。
【0043】
本実施の形態によれば、最低評価値を定め、それよりも低い評価値を最低評価値に繰り上げることにより、分散が減少し、目標領域の大小による評価値のばらつきを解消することができる。従って、より高精度な目標検出を行うことができる。
【0044】
実施の形態3.
図8は、本発明の実施の形態3による移動目標検出装置の構成例を示したブロック図である。本実施の形態の移動目標検出装置3bでは、フレーム画像内における各目標領域についての評価値の正規化処理を行っている。
【0045】
この移動目標検出装置3bは、評価値正規化部14を備え、評価値補正部13によって補正された評価値が、評価値正規化部14によって正規化される。評価値の正規化は、現在フレーム画像における目標領域(第1の目標領域)ごとに、過去フレーム画像における各目標領域(第2の目標領域)に対する評価値について行われる正規化(第1の正規化)処理と、過去フレーム画像における目標領域ごとに、現在フレーム画像における各目標領域に対する評価値について行われる正規化(第2の正規化)処理と、第1及び第2の正規化処理により得られた値に基づいて、相関値を算出する相関値算出処理とからなる。
【0046】
例えば、第1の正規化は、現在フレーム画像内の1つの目標領域について、過去フレーム画像内の各目標領域に対する評価値の総和を基準として行われる。第2の正規化は、過去フレーム画像内の1つの目標領域について、現在フレーム画像内の各目標領域に対する評価値の総和を基準として行われる。そして、これらの第1及び第2の正規化処理によって得られた値を互いに乗算することにより、相関値がそれぞれ算出される。
【0047】
つまり、相関値は、対応関係を現在からみた場合の過去の各目標領域に対する評価値の正規化と、過去からみた場合の現在の各目標領域に対する評価値の正規化とを均等に考慮されたものとなっている。
【0048】
この様にして評価値の正規化が行われ、正規化処理後の相関値に基づいて移動目標の識別が行われる。なお、その他の構成は、図6の移動目標検出装置3aと同様である。
【0049】
図9〜図11は、図8の移動目標検出装置における評価値正規化の一例を示した説明図であり、図9は、現在のフレーム画像における目標領域ごとの第1の正規化を表し、図10は、過去のフレーム画像における目標領域ごとの第2の正規化を表し、図11は、第1及び第2の正規化処理に基づく相関値算出を表している。
【0050】
例えば、現在フレーム画像のA1についての第1の正規化処理31は、過去フレーム画像のA2及びB2に対して行われ、評価値の総和700+45を基準として、700/(700+45)=0.94,45/(700+45)=0.06というように値がそれぞれ求められる。
【0051】
同様にして、B1についての第1の正規化処理32から、評価値の総和0+300を基準として、0/(0+300)=0,300/(0+300)=1.0がそれぞれ求められる。また、C1についての第1の正規化処理33からも、評価値の総和0+60を基準として、0/(0+60)=0,60/(0+60)=1.0がそれぞれ求められる。
【0052】
一方、過去フレーム画像のA2についての第2の正規化処理41は、現在フレーム画像のA1〜C1に対して行われ、評価値の総和700+0+0を基準として、700/(700+0+0)=1.0,0/(700+0+0)=0,0/(700+0+0)=0というように値がそれぞれ求められる。
【0053】
同様にして、B2についての第2の正規化処理42から、評価値の総和45+300+60を基準として、45/(45+300+60)=0.11,300/(45+300+60)=0.74,60/(45+300+60)=0.15がそれぞれ求められる。
【0054】
そして、第1及び第2の正規化処理によって得られた値をそれぞれ乗算することにより相関値が算出される。A1−A2については、0.94×1.0=0.94として相関値が算出され、A1−B2については、0.06×0.11=0.0066として相関値が算出される。同様にして、B1−A2については、0×0=0、B1−B2については、1.0×0.74=0.74、C1−A2については、0×0=0、C1−B2については、1.0×0.15=0.15がそれぞれ算出される。
【0055】
本実施の形態によれば、現在からみた過去の各目標領域に対する対応関係と、過去からみた現在の各目標領域に対する対応関係とに基づいて、目標領域間の対応付けを行うことができる。このため、例えば、現在からみると評価値の高い対応関係であっても、過去からみて評価値の低いものは対応づけから除外することができ、移動目標の識別精度をより向上させることができる。
【0056】
また、相関値を算出することにより、対応関係の良好な目標領域の組み合わせを容易に抽出することができる。
【0057】
実施の形態4.
図12は、本発明の実施の形態4による移動目標検出装置における移動目標識別の一例を示した説明図であり、図12(a)は、過去のフレーム画像において抽出された各目標領域を表し、図12(b)は、現在のフレーム画像において抽出された目標領域を表している。
【0058】
本実施の形態では、過去フレーム画像における2以上の目標領域51及び52が、現在フレーム画像における同一の目標領域53に対応づけられる場合に、目標領域53が2以上の移動目標からなると判別される。
【0059】
この目標領域の判別は、目標識別部12によって行われ、現在フレーム画像の目標領域53は、過去フレーム画像の目標領域51及び52に対応する移動目標が重なって抽出された領域であると識別される。その他の構成は、図2の移動目標検出装置3と同様である。
【0060】
本実施の形態によれば、複数の移動目標が重なって抽出されたとしても、正確にフレーム間で目標領域を識別することができる。従って、複数の移動目標が1つの移動目標であるというような誤検出を防止することができる。また、複数の移動目標が重なって抽出されることによる移動目標の消失を防ぐことができる。
【0061】
実施の形態5.
図13は、本発明の実施の形態5による移動目標検出装置における目標領域統合の一例を示した説明図であり、図13(a)は、現在のフレーム画像において第1候補61を中心とする統合ゲート63内に第2候補62の全部が含まれる場合を表し、図13(b)は、統合ゲート63内に第2候補62の一部が含まれる場合を表し、図13(c)は、統合ゲート63に第2候補62が含まれない場合を表している。
【0062】
本実施の形態では、現在フレーム画像における少なくとも2つの目標領域が、過去フレーム画像における同一の目標領域に対応づけられる場合に、これらの現在フレーム画像の目標領域のうち、評価値の低い目標領域が、評価値の高い目標領域を中心とする所定の統合ゲート63内にあれば、これらの目標領域が同一の移動目標からなると目標識別部12が判別する。
【0063】
ここで、目標領域の対応づけは、過去フレーム画像の1つの目標領域と対応づけられる現在フレーム画像の各目標領域のうち、評価値が最も高い目標領域を第1候補61とし、評価値が2番目に高い目標領域を第2候補62として、以下のように行われる。
【0064】
すなわち、第2候補62からみて、過去フレーム画像の上記目標領域に対する評価値が過去フレーム画像における他の目標領域に対する評価値より高く、かつ、過去フレーム画像における各目標領域から見て、第2候補62に対する評価値が現在フレーム画像における他の目標領域に対する評価値に比べ最も高くない場合に、第1候補61及び第2候補62が過去フレーム画像の上記目標領域に対応づけられるものとする。
【0065】
このとき、第2候補62の全部が第1候補61を中心とする統合ゲート63内に完全に包含される場合には、第1候補61の領域を統合ゲート63まで拡大した後、この拡大された目標領域64が過去フレーム画像の上記目標領域に対応づけられる。
【0066】
また、第2候補62の一部が統合ゲート63内に包含される場合には、第1候補61の領域を第2候補62の全部が完全に含まれる範囲まで拡大した後、この拡大された目標領域65が過去フレーム画像の上記目標領域に対応づけられる。
【0067】
また、第2候補62が統合ゲート63に含まれない場合には、目標領域の統合を行わず、第1候補61が過去フレーム画像の上記目標領域の対応づけられる。
【0068】
統合ゲート63は、カメラセンサ2の設置場所、視野範囲もしくは移動目標の大きさなどに基づいて定められる。その他の構成は、図2の移動目標検出装置3と同様である。
【0069】
本実施の形態によれば、現在及び過去のフレーム画像間における目標領域の対応関係に基づいて、上述したように目標領域を統合することにより、1つの移動目標を分離した2つの目標領域に対応づけてしまうという誤検出を防止することができる。
【0070】
実施の形態6.
図14は、本発明の実施の形態6による移動目標検出装置における初期検出の一例を示した説明図であり、図14(a)は、過去のフレーム画像において初期検出領域71内で抽出された目標領域72を表し、図14(b)は、現在のフレーム画像において初期検出領域71内で抽出された目標領域73を表し、図14(c)は、現在のフレーム画像において目標領域72及び73の近傍で抽出された目標領域74を表している。
【0071】
本実施の形態では、フレーム画像内に所定の初期検出領域(ゲート領域)71が設けられ、この初期検出領域71外においてはフレーム間差分に基づく目標領域の初期検出が行われない。
【0072】
初期検出領域71は、カメラセンサ2の設置場所、視野範囲もしくは移動目標などに基づいて定められる。例えば、滑走路を移動する航空機を検出する場合、移動目標が出現するエリアが滑走路端などに限られるので、この目標出現エリアに対応してフレーム画像の画端などに設けられる。このとき、初期検出は、評価値生成部11によって、以下のように行われる。
【0073】
現在フレーム画像において抽出された目標領域73が、過去フレーム画像において初期検出領域71内で抽出された目標領域72と所定のフレーム間差分が生じており、これらの目標領域72及び73の近傍に他の目標領域74が存在しない場合に、目標領域73がはじめて検出されたとして、目標領域73に対する評価値の生成が開始される。
【0074】
ここで、フレーム間差分は、現在フレーム画像の目標領域73と、過去フレーム画像の目標領域72との重複部分以外の部分であり、この部分の面積がピクセル数単位で算出され、面積が目標領域のムーブスレショルド(move Threshold)%以上生じていることが、初期検出の条件である。
【0075】
また、ピクセル数単位で他の目標領域74との距離が算出され、所定の閾値以下の目標領域74が存在しないことも初期検出の条件である。この様な初期検出の条件が満たされたときに、目標領域73が初期検出される。従って、初期検出領域71以外の領域において抽出された目標領域などの初期検出の条件を満たさない目標領域は、初期検出されず、評価値の生成は行われない。
【0076】
本実施の形態によれば、フレーム画像の中央部など移動目標が出現しないと考えられる領域を初期検出対象から除外し、目標検出を開始する領域をフレーム画像の画端などの初期検出領域71に限定することにより、誤検出の発生を抑制することができる。また、評価値生成のデータ処理量を削減することができる。
【0077】
実施の形態7.
本実施の形態では、目標識別部12が目標領域ごとに初期検出後の対応づけの度数を判別し、この判別結果に基づいて移動目標の識別が行われる。例えば、各目標領域について、初期検出後のフレーム画像ごとの対応づけの回数がカウントされ、対応づけの連続性がその回数によって評価される。
【0078】
本実施の形態によれば、対応づけの回数に基づいて目標識別の信頼度を評価することができる。例えば、目標の移動に合わせて対応づけの回数が増加していく場合には、正しく目標の移動を追従して捉えていると考えて良く、目標検出の信頼性が高い。また、対応づけの回数が所定の閾値より低い目標領域については、信頼性が低いとして、追尾対象から除外することもできる。
【0079】
【発明の効果】
以上、説明したように本発明による移動目標検出装置、追尾システム及び移動目標識別方法によれば、第1及び第2の目標領域の重複領域に基づいて、評価値を生成することができ、この評価値に基づいて、異なるフレーム画像間で目標領域の対応づけを行うことができる。この対応づけに従って、移動目標を識別するので、移動目標の検出精度を向上させることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1による追尾システムの一構成例を示したブロック図である。
【図2】図1の追尾システムにおける移動目標検出装置の構成例を示したブロック図である。
【図3】図2の移動目標検出装置における移動目標識別の動作の一例を示したフローチャートである。
【図4】図2の移動目標検出装置における評価値生成の一例を示した説明図である。
【図5】図2の移動目標検出装置における評価値生成の一例を示した説明図である。
【図6】本発明の実施の形態2による移動目標検出装置の構成例を示したブロック図である。
【図7】図6の移動目標検出装置における評価値補正の一例を示した説明図である。
【図8】本発明の実施の形態3による移動目標検出装置の構成例を示したブロック図である。
【図9】図8の移動目標検出装置における評価値正規化の一例を示した説明図である。
【図10】図8の移動目標検出装置における評価値正規化の一例を示した説明図である。
【図11】図8の移動目標検出装置における評価値正規化の一例を示した説明図である。
【図12】本発明の実施の形態4による移動目標検出装置における移動目標識別の一例を示した説明図である。
【図13】本発明の実施の形態5による移動目標検出装置における目標領域統合の一例を示した説明図である。
【図14】本発明の実施の形態6による移動目標検出装置における初期検出の一例を示した説明図である。
【符号の説明】
1 追尾システム、2 カメラセンサ、3,3a,3b 移動目標検出装置、
4 目標位置標定装置、5 追尾処理装置、6 目標位置表示装置、
7 A/D変換部、8 目標領域抽出部、9 背景画像記憶部、
10 入力画像記憶部、11 評価値生成部、12 目標識別部、
13 評価値補正部、14 評価値正規化部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving target detecting device, a tracking system, and a moving target identifying method, and more particularly, to an improvement of a moving target detecting device that extracts a target region for each frame image and detects a moving target such as an aircraft.
[0002]
[Prior art]
2. Description of the Related Art As a conventional moving target detecting device, there is, for example, one described in
[0003]
[Patent Document 1]
JP-A-2002-133421
[Patent Document 2]
JP-A-2000-13772
[0004]
[Problems to be solved by the invention]
The conventional moving target detecting apparatus as described above detects a moving target based on a difference image between a current input image and a background image obtained from a past input image. For this reason, in a situation where a plurality of targets can be simultaneously captured within the visual field range of the camera sensor, the respective targets are overlapped and image-inputted by the positional relationship between the line of sight of the camera sensor and each of the targets, and the plurality of moving targets are regarded as one. There was a case where the detection was incorrectly performed as two moving targets.
[0005]
In addition, in a situation where an input image fluctuates due to disturbance such as solar radiation and one moving target is divided and detected, each divided detection result is erroneously recognized as a moving target. There were also problems.
[0006]
The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a moving target detection device, a tracking system, and a moving target identification method that improve the detection accuracy of a moving target.
[0007]
[Means for Solving the Problems]
The moving target detecting apparatus according to the present invention is different in target area extracting means for extracting a target area based on a background image for each sequentially input frame image, and based on an extraction position of each target area in the frame image. Evaluation value generation means for evaluating the degree of correlation of a target area between two frame images and generating an evaluation value; and target identification means for associating a target area between different frames based on the evaluation value and identifying a moving target When the first target area extracted from the frame image overlaps with the second target area extracted from the earlier frame image, the evaluation value generation means includes an evaluation value based on the overlapping area. Is generated.
[0008]
According to such a configuration, since the evaluation value is generated based on the overlapping area of the first and second target areas, the generation of the evaluation value is easy. In addition, these target areas are associated between frames based on the evaluation value, and the moving target is identified based on this association, so that the detection accuracy of the moving target can be improved.
[0009]
A tracking system according to the present invention includes a moving target detecting device for detecting a moving target based on frame images sequentially input from a camera sensor, a target position locating device for locating position information of the moving target, and a locating result. And a tracking processing device that corrects a prediction gate based on the correction result and tracks a moving target based on the correction result. The moving target detection device extracts a target region based on a background image for each frame image. Means for evaluating the correlation of the target area between two different frame images based on the extraction position of each target area in the frame image, and an evaluation value generating means for generating an evaluation value; A target identifying unit that associates a target region between different frames and identifies a moving target; and the evaluation value generating unit includes a first target region extracted from the frame image. , When overlapping with the second target area extracted from an earlier frame image, and generates an evaluation value on the basis of the overlap region.
[0010]
The moving target identification method according to the present invention differs for each sequentially input frame image based on a target area extracting step of extracting a target area based on a background image and an extraction position of each target area in the frame image. An evaluation value generation step of evaluating the degree of correlation of a target area between two frame images and generating an evaluation value; and a target identification step of associating a target area between different frames based on the evaluation value and identifying a moving target. In the evaluation value generation step, when the first target area extracted from the frame image overlaps with the second target area extracted from the earlier frame image, the evaluation value is calculated based on the overlapping area. Is generated.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiment 1 FIG.
FIG. 1 is a block diagram showing one configuration example of the tracking system according to the first embodiment of the present invention. The tracking system 1 according to the present embodiment includes a
[0012]
The
[0013]
The target
[0014]
The
[0015]
FIG. 2 is a block diagram showing a configuration example of a moving target detection device in the tracking system of FIG. The moving
[0016]
The A / D conversion unit 7 converts the frame image input from the
[0017]
The extraction of the target area is performed based on the background image stored in the background
[0018]
The
[0019]
The evaluation value indicates the degree of correlation between frames of the target area, and the target area (first target area) extracted from the frame image is the target area (first target area) extracted from the frame image preceding the frame image. In this case, the image data is generated based on the overlapping area. Here, it is assumed that the second target area is extracted from a frame image one frame before the first target area. When the first and second target areas do not overlap, an evaluation value is generated based on the distance between the target areas.
[0020]
For example, when the first and second target areas overlap, an evaluation value is generated from the area of the overlapping portion, and the evaluation value is calculated in pixel units. When the first and second target areas do not overlap, an evaluation value is generated based on the distance between the target areas, and the evaluation value is calculated from the distance in pixel units.
[0021]
The distant distance indicates the maximum vertical distance and the minimum horizontal distance between the target areas, and is a value that takes into account the difference in perspective and the degree of image compression between the vertical and horizontal directions in the frame image. The evaluation value is calculated based on the distance, and is, for example, a value obtained by multiplying the sum of the maximum vertical distance between the target areas and the minimum horizontal distance by −1. That is, a positive evaluation value is generated when the first and second target areas overlap, and a negative evaluation value is generated when the first and second target areas do not overlap. Such evaluation values are calculated for all target regions extracted in the frame image.
[0022]
The
[0023]
For example, the same identification code is assigned to the target area between the frames associated with each other in this way, and the moving target is sequentially identified for each frame based on the identification code.
[0024]
In addition, the
[0025]
In this way, the moving target is identified, and the identification information is output to the target
[0026]
Steps S1 to S4 in FIG. 3 are flowcharts showing an example of the operation of the moving target identification in the moving target detecting device in FIG. When a frame image is input from the camera sensor 2 (step S1), the frame image is converted from an analog image to a digital image by the A / D conversion unit 7, and the converted frame image is output to the target area extraction unit 8. Is done.
[0027]
Next, the target area extraction unit 8 extracts a target area from the frame image based on the background image stored in the background image storage unit 9 (Step S2). The extraction result is output to the evaluation
[0028]
The evaluation result is output to the
[0029]
4 and 5 are explanatory diagrams showing an example of evaluation value generation in the moving target detection device of FIG. 2, and FIG. 4A shows each target region extracted in the current frame image. 4 (b) shows each target area extracted in the past frame image, and FIG. 5 shows generation of an evaluation value based on the positional relationship of the target area between the current frame image and the past frame image. .
[0030]
One of the frame images sequentially input from the
[0031]
The evaluation
[0032]
For example, the extraction position of the
[0033]
On the other hand, the extraction position of the
[0034]
Regarding the evaluation values between other target areas, A 1 -A 2 Or A 1 -B 2 Is calculated in the same manner as in the case of the
[0035]
According to the present embodiment, the evaluation value between the target areas is calculated from the area and the separation distance of the overlapping area, so that the evaluation value can be easily calculated. In addition, since the correspondence between the target regions is performed based on the evaluation values calculated between the current and past frame images, the identification accuracy for a plurality of moving targets can be improved.
[0036]
In addition, since the target area in the frame image is selected based on the evaluation value, the data processing amount in the tracking processing can be reduced, and the processing time is shortened.
[0037]
FIG. 6 is a block diagram showing a configuration example of the moving target detection device according to the second embodiment of the present invention. In the moving
[0038]
The moving target detection device 3 a includes an evaluation
[0039]
Here, the minimum evaluation value is determined in advance based on the installation location of the
[0040]
For example, after a predetermined correction value is added to the evaluation value, the correction is performed by replacing a negative value with a zero evaluation value. In this case, zero is the lowest evaluation value. Here, the correction value is determined similarly to the lowest evaluation value. In the process of adding the correction value, for example, if the size of the target area is large, the area of the overlap area and the variance of the separation distance become large, and even at the same degree of overlap, the index of the evaluation value changes depending on the size of the target area. This is a normalization process for eliminating the problem.
[0041]
The evaluation value is corrected in this way, and the moving target is identified based on the corrected evaluation value. The other configuration is the same as that of the moving
[0042]
FIG. 7 is an explanatory diagram showing an example of the evaluation value correction in the moving target detection device of FIG. For example, assuming that the correction value is 100, the evaluation value is corrected. A 1 -A 2 Is corrected to 600 + 100 = 700, and A 1 -B 2 Is corrected to -55 + 100 = 45. Also, B 1 -A 2 In the case of, -300 + 100 = -200 = 0, B 1 -B 2 In the case of, 200 + 100 = 300, C 1 -A 2 In the case of, -400 + 100 = -300 = 0, C 1 -B 2 Is corrected to -40 + 100 = 60.
[0043]
According to the present embodiment, the minimum evaluation value is determined, and the evaluation value lower than the minimum evaluation value is raised to the minimum evaluation value, thereby reducing the variance and eliminating the dispersion of the evaluation values depending on the size of the target area. Therefore, more accurate target detection can be performed.
[0044]
FIG. 8 is a block diagram showing a configuration example of a moving target detection device according to
[0045]
The moving target detection device 3b includes an evaluation
[0046]
For example, the first normalization is performed for one target region in the current frame image based on the sum of the evaluation values for each target region in the past frame image. The second normalization is performed for one target area in the past frame image based on the sum of the evaluation values for each target area in the current frame image. Then, by multiplying the values obtained by the first and second normalization processes with each other, correlation values are calculated.
[0047]
In other words, the correlation value equally considers the normalization of the evaluation value for each past target area when the correspondence is viewed from the present and the normalization of the evaluation value for each current target area when viewed from the past. It has become something.
[0048]
In this manner, the evaluation value is normalized, and the moving target is identified based on the correlation value after the normalization processing. The other configuration is the same as that of the moving target detection device 3a in FIG.
[0049]
9 to 11 are explanatory diagrams illustrating an example of evaluation value normalization in the moving target detection device in FIG. 8. FIG. 9 illustrates first normalization for each target area in the current frame image. FIG. 10 illustrates the second normalization for each target area in the past frame image, and FIG. 11 illustrates the correlation value calculation based on the first and second normalization processes.
[0050]
For example, A of the current frame image 1 Of the previous frame image is 2 And B 2 , And the values are obtained as 700 / (700 + 45) = 0.94, 45 / (700 + 45) = 0.06 based on the
[0051]
Similarly, B 1 From the
[0052]
On the other hand, A of the past frame image 2 Of the current frame image is 1 ~ C 1 , And the values are obtained as 700 / (700 + 0 + 0) = 1.0, 0 / (700 + 0 + 0) = 0, 0 / (700 + 0 + 0) = 0 based on the
[0053]
Similarly, B 2 From the
[0054]
Then, a correlation value is calculated by multiplying the values obtained by the first and second normalization processes, respectively. A 1 -A 2 , The correlation value is calculated as 0.94 × 1.0 = 0.94, and A 1 -B 2 , The correlation value is calculated as 0.06 × 0.11 = 0.0066. Similarly, B 1 -A 2 For 0x0 = 0, B 1 -B 2 About 1.0 × 0.74 = 0.74, C 1 -A 2 For 0x0 = 0, C 1 -B 2 Is calculated as 1.0 × 0.15 = 0.15.
[0055]
According to the present embodiment, it is possible to associate the target regions based on the correspondence relationship with each target region in the past viewed from the present and the correspondence relationship with each target region in the past viewed from the past. For this reason, for example, even if it is a correspondence having a high evaluation value when viewed from the present time, a connection having a low evaluation value when viewed from the past can be excluded from the association, and the identification accuracy of the moving target can be further improved. .
[0056]
Further, by calculating the correlation value, it is possible to easily extract a combination of target regions having a good correspondence.
[0057]
FIG. 12 is an explanatory diagram showing an example of moving target identification in the moving target detecting device according to
[0058]
In the present embodiment, when two or
[0059]
The determination of the target area is performed by the
[0060]
According to the present embodiment, even if a plurality of moving targets are extracted while being overlapped, a target region can be accurately identified between frames. Therefore, erroneous detection that a plurality of moving targets are one moving target can be prevented. In addition, it is possible to prevent the moving target from disappearing due to the plurality of moving targets being overlapped and extracted.
[0061]
FIG. 13 is an explanatory diagram showing an example of target region integration in the moving target detection device according to the fifth embodiment of the present invention. FIG. 13A shows the current frame image centered on the
[0062]
In the present embodiment, when at least two target areas in the current frame image are associated with the same target area in the past frame image, among the target areas of the current frame image, a target area with a low evaluation value is determined. If the target area is within a predetermined
[0063]
Here, associating the target areas, among the target areas of the current frame image associated with one target area of the past frame image, the target area having the highest evaluation value is set as the
[0064]
That is, as viewed from the
[0065]
At this time, if all of the
[0066]
When a part of the
[0067]
When the
[0068]
The
[0069]
According to the present embodiment, one moving target is separated into two target regions by integrating the target regions based on the correspondence between the target regions between the current and past frame images as described above. It is possible to prevent erroneous detection of attaching.
[0070]
Embodiment 6 FIG.
FIG. 14 is an explanatory diagram showing an example of the initial detection in the moving target detecting device according to the sixth embodiment of the present invention. FIG. 14A is extracted in the
[0071]
In the present embodiment, a predetermined initial detection area (gate area) 71 is provided in a frame image, and outside the
[0072]
The
[0073]
The
[0074]
Here, the inter-frame difference is a portion other than the overlapping portion between the
[0075]
Further, the distance from another target area 74 is calculated in units of the number of pixels, and the absence of the target area 74 having a predetermined threshold value or less is also a condition for the initial detection. When such an initial detection condition is satisfied, the
[0076]
According to the present embodiment, a region where a moving target is not expected to appear, such as a central portion of a frame image, is excluded from initial detection targets, and a region where target detection is started is set as an
[0077]
Embodiment 7 FIG.
In the present embodiment, the
[0078]
According to the present embodiment, the reliability of target identification can be evaluated based on the number of associations. For example, when the number of associations increases in accordance with the movement of the target, it may be considered that the movement of the target is correctly followed and caught, and the reliability of target detection is high. In addition, a target area in which the number of times of association is lower than a predetermined threshold value may be excluded from the tracking target, because of low reliability.
[0079]
【The invention's effect】
As described above, according to the moving target detection device, the tracking system, and the moving target identification method according to the present invention, it is possible to generate an evaluation value based on the overlapping area of the first and second target areas. Based on the evaluation value, it is possible to associate a target area between different frame images. Since the moving target is identified according to this association, the detection accuracy of the moving target can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a tracking system according to a first embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration example of a moving target detection device in the tracking system of FIG. 1;
FIG. 3 is a flowchart illustrating an example of a moving target identification operation in the moving target detecting device of FIG. 2;
FIG. 4 is an explanatory diagram showing an example of evaluation value generation in the moving target detection device of FIG. 2;
FIG. 5 is an explanatory diagram showing an example of evaluation value generation in the moving target detection device of FIG. 2;
FIG. 6 is a block diagram showing a configuration example of a moving target detection device according to a second embodiment of the present invention.
FIG. 7 is an explanatory diagram showing an example of evaluation value correction in the moving target detection device of FIG. 6;
FIG. 8 is a block diagram showing a configuration example of a moving target detection device according to a third embodiment of the present invention.
9 is an explanatory diagram showing an example of evaluation value normalization in the moving target detection device in FIG.
10 is an explanatory diagram showing an example of evaluation value normalization in the moving target detection device of FIG.
11 is an explanatory diagram showing an example of evaluation value normalization in the moving target detection device in FIG.
FIG. 12 is an explanatory diagram showing an example of moving target identification in a moving target detecting device according to a fourth embodiment of the present invention.
FIG. 13 is an explanatory diagram showing an example of target area integration in the moving target detection device according to the fifth embodiment of the present invention.
FIG. 14 is an explanatory diagram showing an example of initial detection in a moving target detection device according to a sixth embodiment of the present invention.
[Explanation of symbols]
1 tracking system, 2 camera sensor, 3, 3a, 3b moving target detecting device,
4 target position locating device, 5 tracking processing device, 6 target position display device,
7 A / D conversion section, 8 target area extraction section, 9 background image storage section,
10 input image storage unit, 11 evaluation value generation unit, 12 target identification unit,
13 evaluation value correction unit, 14 evaluation value normalization unit
Claims (11)
各目標領域のフレーム画像内における抽出位置に基づいて、異なる2つのフレーム画像間で目標領域の相関度を評価し、評価値を生成する評価値生成手段と、
評価値に基づいて、異なるフレーム間で目標領域を対応づけ、移動目標を識別する目標識別手段を備え、
評価値生成手段は、フレーム画像から抽出された第1の目標領域が、より前のフレーム画像から抽出された第2の目標領域と重複する場合に、この重複領域に基づいて評価値を生成することを特徴とする移動目標検出装置。A target area extracting unit for extracting a target area based on the background image for each frame image sequentially input;
Evaluation value generation means for evaluating the degree of correlation of the target area between two different frame images based on the extraction position of each target area in the frame image, and generating an evaluation value;
Based on the evaluation value, a target area is associated between different frames, and target identification means for identifying a moving target is provided.
When the first target area extracted from the frame image overlaps with the second target area extracted from the earlier frame image, the evaluation value generation means generates an evaluation value based on the overlapping area. A moving target detection device, characterized in that:
上記評価値補正手段は、評価値に所定の補正値を加算した後、負の値をゼロの評価値とすることを特徴とする請求項3に記載の移動目標検出装置。The evaluation value generation means generates a positive evaluation value when the first and second target areas overlap, generates a negative evaluation value when the first and second target areas do not overlap,
4. The moving target detecting apparatus according to claim 3, wherein the evaluation value correction unit adds a predetermined correction value to the evaluation value, and sets a negative value to a zero evaluation value.
第2の目標領域ごとに、各第1の目標領域に対する評価値について第2の正規化を行い、
第1及び第2の正規化により得られた値に基づいて、評価値を正規化する評価値正規化手段を備えることを特徴とする請求項1または4に記載の移動目標検出装置。For each first target area, perform a first normalization on the evaluation value for each second target area,
For each second target area, a second normalization is performed on the evaluation value for each first target area,
The moving target detecting device according to claim 1 or 4, further comprising an evaluation value normalizing unit that normalizes the evaluation value based on the values obtained by the first and second normalizations.
移動目標検出装置は、フレーム画像ごとに背景画像に基づいて目標領域を抽出する目標領域抽出手段と、各目標領域のフレーム画像内における抽出位置に基づいて、異なる2つのフレーム画像間で目標領域の相関度を評価し、評価値を生成する評価値生成手段と、評価値に基づいて、異なるフレーム間で目標領域を対応づけ、移動目標を識別する目標識別手段を備え、
評価値生成手段は、フレーム画像から抽出された第1の目標領域が、より前のフレーム画像から抽出された第2の目標領域と重複する場合に、この重複領域に基づいて評価値を生成することを特徴とする追尾システム。A moving target detecting device for detecting a moving target based on frame images sequentially input from a camera sensor, a target position locating device for locating position information of the moving target, and correcting a prediction gate based on a result of the locating And a tracking processing device that tracks the moving target based on the correction result,
The moving target detecting device includes a target area extracting unit that extracts a target area based on a background image for each frame image, and a target area between two different frame images based on an extraction position of each target area in the frame image. Evaluating the degree of correlation, an evaluation value generating means for generating an evaluation value, and a target identification means for associating a target area between different frames based on the evaluation value and identifying a moving target,
When the first target area extracted from the frame image overlaps with the second target area extracted from the earlier frame image, the evaluation value generation means generates an evaluation value based on the overlapping area. A tracking system characterized by the following.
評価値生成ステップにおいて、フレーム画像から抽出された第1の目標領域が、より前のフレーム画像から抽出された第2の目標領域と重複する場合に、この重複領域に基づいて評価値が生成されることを特徴とする移動目標識別方法。A target region extracting step of extracting a target region based on a background image for each of the sequentially input frame images; and a target region extracting step between two different frame images based on an extraction position of each target region in the frame image. Evaluating the degree of correlation, an evaluation value generation step of generating an evaluation value, and a target identification step of identifying a moving target by associating a target area between different frames based on the evaluation value,
In the evaluation value generation step, when the first target area extracted from the frame image overlaps with the second target area extracted from the earlier frame image, an evaluation value is generated based on the overlapping area. A moving target identification method, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003078506A JP4061221B2 (en) | 2003-03-20 | 2003-03-20 | Moving target detection device, tracking system, and moving target identification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003078506A JP4061221B2 (en) | 2003-03-20 | 2003-03-20 | Moving target detection device, tracking system, and moving target identification method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004287806A true JP2004287806A (en) | 2004-10-14 |
JP4061221B2 JP4061221B2 (en) | 2008-03-12 |
Family
ID=33292969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003078506A Expired - Fee Related JP4061221B2 (en) | 2003-03-20 | 2003-03-20 | Moving target detection device, tracking system, and moving target identification method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4061221B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007241407A (en) * | 2006-03-06 | 2007-09-20 | Toshiba Corp | Automatic ticket gate device |
JP2008060982A (en) * | 2006-08-31 | 2008-03-13 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2011095120A (en) * | 2009-10-30 | 2011-05-12 | Tokyo Keiki Inc | Target tracking device and target tracking method |
KR101193445B1 (en) | 2012-04-09 | 2012-10-24 | 국방과학연구소 | Automatic scene tracking system for air photograph |
WO2014049729A1 (en) * | 2012-09-26 | 2014-04-03 | 株式会社 東芝 | Motion video recognition device and motion video recognition method |
CN113537283A (en) * | 2021-05-31 | 2021-10-22 | 浙江大华技术股份有限公司 | Target tracking method and related device |
CN117058518A (en) * | 2023-08-03 | 2023-11-14 | 南方电网数字电网研究院有限公司 | Deep learning target detection method and device based on YOLO improvement and computer equipment |
-
2003
- 2003-03-20 JP JP2003078506A patent/JP4061221B2/en not_active Expired - Fee Related
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007241407A (en) * | 2006-03-06 | 2007-09-20 | Toshiba Corp | Automatic ticket gate device |
JP2008060982A (en) * | 2006-08-31 | 2008-03-13 | Casio Comput Co Ltd | Imaging apparatus and program |
JP4743048B2 (en) * | 2006-08-31 | 2011-08-10 | カシオ計算機株式会社 | Imaging apparatus and program |
JP2011095120A (en) * | 2009-10-30 | 2011-05-12 | Tokyo Keiki Inc | Target tracking device and target tracking method |
KR101193445B1 (en) | 2012-04-09 | 2012-10-24 | 국방과학연구소 | Automatic scene tracking system for air photograph |
WO2014049729A1 (en) * | 2012-09-26 | 2014-04-03 | 株式会社 東芝 | Motion video recognition device and motion video recognition method |
JP5670471B2 (en) * | 2012-09-26 | 2015-02-18 | 株式会社東芝 | Moving image recognition apparatus and moving image recognition method |
JPWO2014049729A1 (en) * | 2012-09-26 | 2016-08-22 | 株式会社東芝 | Moving image recognition apparatus and moving image recognition method |
US9779326B2 (en) | 2012-09-26 | 2017-10-03 | Kabushiki Kaisha Toshiba | Moving image recognition apparatus and moving image recognition method |
CN113537283A (en) * | 2021-05-31 | 2021-10-22 | 浙江大华技术股份有限公司 | Target tracking method and related device |
CN117058518A (en) * | 2023-08-03 | 2023-11-14 | 南方电网数字电网研究院有限公司 | Deep learning target detection method and device based on YOLO improvement and computer equipment |
CN117058518B (en) * | 2023-08-03 | 2024-05-03 | 南方电网数字电网研究院有限公司 | Deep learning target detection method and device based on YOLO improvement and computer equipment |
Also Published As
Publication number | Publication date |
---|---|
JP4061221B2 (en) | 2008-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104008371B (en) | Regional suspicious target tracking and recognizing method based on multiple cameras | |
US8588466B2 (en) | Object area detection system, device, method, and program for detecting an object | |
US7729512B2 (en) | Stereo image processing to detect moving objects | |
JP6554169B2 (en) | Object recognition device and object recognition system | |
US8705793B2 (en) | Object tracking by hierarchical association of detection responses | |
JP5001260B2 (en) | Object tracking method and object tracking apparatus | |
CN106778712B (en) | Multi-target detection and tracking method | |
JP2016099941A (en) | System and program for estimating position of object | |
JP4884331B2 (en) | Moving object tracking device | |
EP2858008A2 (en) | Target detecting method and system | |
JP7272024B2 (en) | Object tracking device, monitoring system and object tracking method | |
KR101621370B1 (en) | Method and Apparatus for detecting lane of road | |
KR101703515B1 (en) | Apparatus and method for target tracking of image | |
JP7014161B2 (en) | Image processing equipment, image processing systems, and image processing methods, and programs | |
US20190258852A1 (en) | Image processing apparatus, image processing system, image processing method, and program | |
Johnsen et al. | Real-time object tracking and classification using a static camera | |
Führ et al. | Combining patch matching and detection for robust pedestrian tracking in monocular calibrated cameras | |
KR20160037643A (en) | Method and Apparatus for Setting Candidate Area of Object for Recognizing Object | |
WO2017199840A1 (en) | Object tracking device, object tracking method, and recording medium | |
Abbott et al. | Multiple target tracking with lazy background subtraction and connected components analysis | |
JP4821355B2 (en) | Person tracking device, person tracking method, and person tracking program | |
JP2004287806A (en) | Moving target detector, tracking system and moving target identification method | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
CN111325073B (en) | Monitoring video abnormal behavior detection method based on motion information clustering | |
JP5241687B2 (en) | Object detection apparatus and object detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070911 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071221 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101228 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111228 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |