JP2004208209A - Device and method for monitoring moving body - Google Patents

Device and method for monitoring moving body Download PDF

Info

Publication number
JP2004208209A
JP2004208209A JP2002377626A JP2002377626A JP2004208209A JP 2004208209 A JP2004208209 A JP 2004208209A JP 2002377626 A JP2002377626 A JP 2002377626A JP 2002377626 A JP2002377626 A JP 2002377626A JP 2004208209 A JP2004208209 A JP 2004208209A
Authority
JP
Japan
Prior art keywords
image
target
background image
area
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002377626A
Other languages
Japanese (ja)
Other versions
JP3848918B2 (en
Inventor
Kyosuke Uchida
恭輔 内田
Koichi Ikuta
剛一 生田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2002377626A priority Critical patent/JP3848918B2/en
Publication of JP2004208209A publication Critical patent/JP2004208209A/en
Application granted granted Critical
Publication of JP3848918B2 publication Critical patent/JP3848918B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving body monitoring device that can surely detect a moving body to be monitored only by separating the moving body from disturbances. <P>SOLUTION: This moving body monitoring device is provided with a changing area extracting means 21 which extracts a changing area by taking the difference between input images inputted from an image inputting means 1 in prescribed cycles and a background image, a target judging means 22 which judges the presence/absence of the moving body in the changing area extracted based on prescribed judging conditions, and a background image updating means 23 which updates the background image by using the image of the changing area after erasing the image of the moving body from the image of the changing area when it is judged that the moving body exists in the extracted changing area. This monitoring device is also provided with a target information calculating means 24 which calculates the information on the moving body, such as the location, size, etc., of the moving body when the presence of the moving body is judged by means of the judging means 22 and an outputting means 3 which outputs the calculated information on the moving body. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、屋外あるいは屋内に設置された撮像装置(例えば、高感度ディジタルカメラなど)によって撮影されたディジタル画像を一定周期で画像処理することによって撮影領域内に存在する車両や航空機などの目標とする移動体を検出し、その位置や大きさなどの移動体情報を出力する移動体監視装置および移動体監視方法に関する。
【0002】
【従来の技術】
従来の画像中の移動体検出装置(画像センサとも称される)は、ITVカメラなどによって撮影されたディジタル画像から、車両や航空機等の移動目標を背景差分法によって検出していた。
この移動体の検出装置では、例えば、現在撮影した入力画像と検出装置内部のコンピューターが計算して作成している移動体が存在しない背景画像とを比較して、両画像の差分を変化のあった領域として抽出する(両画像の差分が示された画像を「差分画像」と呼ぶ)。
もし、入力画像に車両や航空機等の移動体が写っておれば、背景画像に写っていない車両や航空機等の移動体は、差分画像において変化領域として抽出される(抽出した領域を「抽出領域」と呼ぶ)。
【0003】
この抽出領域について、面積(大きさ)、輝度分布、慣性軸などの特徴量の演算を行ない、抽出領域が目標の特徴を有する場合は、抽出領域を車両や航空機などの目標(即ち、監視対象の移動体)であると判断して、その位置や大きさの情報を出力していた。
これに加えて、入力画像と背景画像の両画像間でテクスチャ( texture :模様など)の変化が小さい場合などは、抽出領域が太陽光や空を流れる雲によって路面に投影された雲の影などに起因するものであると定義して、抽出領域を車両や航空機などの移動目標ではないと判断していた。
【0004】
即ち、従来の移動体の検出装置は、抽出領域について、大きさ、明るさ、形状、テクスチャなどの種々の特徴量を演算して、それぞれについて目標である移動体の特徴を示すか、その他の外乱などの特徴を示すかの判定を所定の基準に基づいて行ない、抽出領域が車両や航空機など目標の特徴量を示す場合に、抽出領域に車両や航空機などの移動体目標が存在すると判断していた。
【0005】
また、例えば、特許文献1には、「画像が変化したとき、その変化が照明条件の変化によるのか、ゆっくりした背景変動によるのか、あるいは動物体(即ち、移動体)が現れたことまたは通過したことによって生じたのかを小領域毎に統計的な手法で検出し、照明変動またはゆっくりした背景変動の場合のみに小領域の背景像を適切に更新し、その背景像に基づいて差分処理および2値化処理を行うことにより動物体(移動体)領域を抽出する背景差分による動物体(移動体)領域抽出方法」が示されている。
【0006】
特許文献1の発明における背景像更新の具体的方法として、その段落0043〜段落0044において、「各小領域の輝度値はt(所定時間間隔)間にフレーム画像枚数だけ得られる。そこで、小領域aについて輝度値を横軸に取り、縦軸に同輝度値が現れる出現頻度を取ると、頻度分布が得られる。aの小領域には動物体はなく、背景である。背景の輝度は主として照明変動により変わるが、tが数秒程度の短い時間の場合、一般的には照明変化は少ないので、この分布は輝度ピークの回りに広がり度の小さな釣鐘状になる。つまり、統計的な分散度σは小さな値を示す。一方小領域aでは動物体が撮影されるため、t間に化輝度値は大きく変化し、同分布は広がりを示す。つまり、分散度σは大きな値を示す。従って、大きな照明変動があった場合の分散度をσとして予め求めておき、この値と前記σとを比較し、σが小さければ照明変動による輝度値の変化であるとして、この背景像小領域の数値を更新する。また、σがσより大きければ、この小領域の輝度変化は動物体の出現など照明変動以外の要因によるものと判断して、背景像小領域の数値の更新は行わない。このようにして、小領域aの背景像更新が行われる。」ことが記載されている。
【0007】
また、上記特許文献1の段落0074において、「予め物体が現れた場合のdf(小領域での輝度値の時間微分値)の最大値と、急激な照明変動が起こった時のdfの最大値の境界値mを求めておくことで、前述のσ(統計的特徴量としての出現頻度の分散値)とσ(予め求めておいた照明変動に起因する統計的特徴量としての出現頻度分布の分散度)との比較に加え、t(所定時間間隔)間でのdfの最大値mとmとの比較を行うことにより、σがσよりも小さければ、穏やかな照明変動による輝度値の変化であるとして、該背景像小領域の数値を更新し、σがσよりも大きく、mがmよりも小さければ、急激な照明変動であるとして、該背景像小領域の数値を更新し、σがσよりも大きく、mがmよりも大きければ、該小領域の輝度変化は動物体の出現など照明変動以外の要因によるものと判断し該小領域の数値の更新を行わない。」ことも記載されている。
【0008】
また、特許文献2には、「抽出領域を複数の適切な大きさの空間領域に分割し、分割された領域ごとに画像のテクスチャの変化度合いを算出し、変化度合いが最大の領域を選択し、選択した領域の画像情報に基づいて侵入者(即ち、移動体)の存在を判定する。これにより。抽出領域中の侵入者が占める割合が小さくても確実に侵入者を検出する」技術が記載されている。
【0009】
【特許文献1】
特開平7−302328号公報(図1、図2、図9、段落0043、段落0044、段落0074)
【特許文献2】
特開2002−175531号公報(図9、フロント頁)
【0010】
【発明が解決しようとする課題】
前述した従来の移動体の検出装置では、比較的大きな雲の影あるいは太陽光などの外乱領域と車両や航空機などの目標領域が重なり、抽出領域内に一体となって混在した場合、抽出領域内において外乱領域が大きな面積を占める場合には、抽出領域の全体的なテクスチャの変化が小さくなり、抽出領域を外乱と判断してしまうため、車両や航空機などの移動目標を検出できない(目標を検出できないことを「ロスト」と呼ぶ)などの問題点があった。
また、抽出領域を目標と判断することができた場合にも、抽出領域内に外乱と目標が一体に混在しているので、目標の位置や大きさなどの情報の精度が悪くなるという問題点があった。
【0011】
また、特許文献1に示された背景差分による動物体領域抽出方法では、小領域よりも小さな目標が存在する場合には、小領域内に目標と背景が混在することになり、目標を検出することができなくなるという問題点がある。
また、特許文献2に示された技術では、選択される「変化度合いが最大の領域」の画像は、背景画像を含んだ画像であり、背景画像に雲の影などの外乱があると小さな移動体目標を確実に検出できないという問題点がある。
【0012】
この発明は、このような問題点を解消するためになされたものであり、雲の影や太陽の光などの外乱と、車両や航空機等の監視目標とする移動体とが混在する状況であっても移動を確実に検出できると共に、移動体だけを確実に検出することによって、移動目標の位置や大きさなどの情報を精度良く算出して出力できる移動体監視装置および移動体監視方法を提供することを目的とする。
【0013】
【課題を解決するための手段】
この発明に係る移動体監視装置は、ディジタルカメラにより撮影される撮影対象エリアの画像を所定周期で入力する画像入力手段と、上記画像入力手段から上記所定周期で入力される入力画像と監視目標の移動体が存在しない背景画像との差分を取ることにより画像中の変化領域を抽出する変化領域抽出手段と、所定の判定条件に基づいて、上記変化領域抽出手段により抽出される変化領域に監視目標の移動体が存在するか否かを判定する目標判定手段と、上記所定周期で背景画像を更新する背景画像更新手段であって、上記変化領域抽出手段が抽出する変化領域に監視目標の移動体が存在すると上記目標判定手段が判定した場合には、移動体が存在すると判定された変化領域の画像から移動体の画像を消去した画像を用いて背景画像を更新する背景画像更新手段と、上記目標判定手段により存在が判定された監視目標の移動体について、その位置や大きさなどの移動体情報を算出する目標情報算出手段と、上記目標情報算出手段が算出する移動体情報を出力する出力手段とを備えたものである。
【0014】
また、この発明に係る移動体監視方法は、ディジタルカメラにより撮影される撮影対象エリアの画像を所定定周期で入力するステップと、上記所定周期で入力される入力画像と監視目標の移動体が存在しない背景画像との差分を取ることにより画像中の変化領域を抽出するステップと、所定の判定条件に基づいて抽出される変化領域に監視目標の移動体が存在するか否かを判定するステップと、上記所定周期で背景画像を更新するステップであって、抽出された変化領域に監視目標の移動体が存在すると判定された場合には、移動体が存在すると判定された変化領域の画像から移動体の画像を消去した画像を用いて背景画像を更新するステップと、存在が判定された監視目標の移動体について、その位置や大きさなどの移動体情報を算出するステップと、算出された移動体情報を出力するステップとを有したものである。
【0015】
【発明の実施の形態】
実施の形態1.
図1は、実施の形態1による移動体監視装置の基本的な構成を示すブロック図である。
本実施の形態による移動体監視装置は、例えば、空港面探知装置(ASDE:Airport Surface Detecting Equipment)などに適用され、着陸あるいは離陸する航空機等の移動する目標である移動体を確実に検出し、その位置や大きさなどを求めるためのものである。
図において、1は屋外に設置された高感度ディジタルカメラ(図示せず)で撮影された撮影対象エリアの画像情報(画像)を一定周期でディジタルの画像情報として入力する画像入力部、2は画像入力部1から入力された画像情報(画像)から撮影エリア内に存在する監視目標の移動体(例えば、航空機などの監視対象)を検出して、検出結果に基づいて背景画像を更新すると共に、検出された移動体の位置や大きさなどの情報を算出して出力する画像処理部、3は画像処理部2で算出された移動体(航空機)の情報を図示しない後段の装置へ出力する出力部である。
【0016】
画像処理部2は、画像入力部1から一定周期で入力される画像情報と、移動体が存在しない状態の背景画像との差分をとることにより画像中の変化領域を抽出する変化領域抽出手段21、変化領域抽出手段21により抽出された変化領域の「大きさ」「明るさ」「形状」「テクスチャ( texture :模様など)の変化」に基づいて監視目標である移動体(例えば、航空機)の存在の有無を判定する目標判定手段22、移動体(航空機)の検出結果に基づいて前記背景画像を更新する背景画像更新手段23、および検出した移動体(航空機)の位置や大きさなどの情報を算出する目標情報算出手段24から構成されている。
【0017】
図2は、実施の形態1による移動体監視装置の画像処理部における処理手順を示すフローチャートでる。
また、図3は、入力画像中に監視目標である移動体(航空機)と外乱である雲の影の領域が存在する状況において、移動体(航空機)検出の流れを説明するため図である。
図3において、4は監視目標である移動体(航空機)の目標領域、5は外乱である雲の影の領域、6は航空機筒の目標領域4と雲の影の領域5とが混在している場合の領域である。
また、入力画像は、例えば、360×240ピクセル(pixel)で構成される。
【0018】
図1〜図3を用いて、本実施の形態による移動体監視装置の動作(処理内容)について説明する。
図2のフローチャートで示す処理は、所定時間間隔(例えば、1秒ごと)で行なわれる。
まず、図2のフローチャートを用いて、本実施の形態による移動体監視装置の動作(処理手順)を説明する。
ステップS1において、画像入力部1から撮影対象エリアをディジタルカメラで撮影したディジタル画像を入力画像として取込む。
ステップS2において、変化領域抽出手段21によって、移動体が存在しない時の画像である背景画像とステップS1で取込んだ入力画像との差分を求めて、変化した領域を抽出領域として得る。
なお、背景画像とは、前述したように、過去の画像から撮影対象エリアに航空機等の移動体が存在しない状態を作成した画像である。
【0019】
次に、ステップS3では、目標判定手段22によって、抽出された領域の大きさ、明るさの分散を計算する。
また、入力画像と背景画像との比較によって抽出領域のテクスチャの変化度合いを計算する。
変化度合いとしては、例えば正規化相関による相関値が使用される。
【0020】
ステップS4では、ステップ3で求めた抽出領域の大きさ、抽出領域の明るさの分散、および抽出領域Cのテクスチャの変化度合いについて、抽出領域が移動体(航空機)の特徴を備えるかどうかを判定する。
判定には抽出領域の大きさ、明るさの分散、およびテクスチャの変化度合いについて、以下の(1)〜(3)の条件を適用する。
(1)目標の最小許容サイズ ≦ 抽出領域の大きさ ≦ 目標の最大許容サイズ
(2)目標の明るさの分散最小値 ≦ 抽出領域の明るさの分散
ここで、目標の最小許容サイズと目標の最大許容サイズは、パラメータの値に基づいて画像中の各位置における値を計算して与える。
目標の明るさの分散最小値は所定の値をパラメータで与える。
【0021】
なお、本実施の形態では、画像中において監視目標(即ち、監視対象の移動体)を長方形で近似した際の、縦の長さと横の長さを目標の大きさの指標として用いている。
遠近感のために、画像の位置によって大きさが異なる(画像上方ほど小さく、画像下方ほど大きく、画像のy座標にほぼ比例する)移動体(航空機)を対象とするため、画像情報および画像下方の2点において移動体(航空機)の基準的な大きさ(縦×横)を設定し、2点間における移動体(航空機)の基準的な大きさは、この2点の値から線形補間により求める。
この設定可能な値(設定位置の画像y座標、縦の長さ、および横の長さ)を、パラメータと呼ぶ。
【0022】
(3)目標のテクスチャ変化最小度合い ≦ 抽出領域のテクスチャ変化度合い
ここで、(3)の条件は、抽出領域が所定面積(例えば、10画素)以上の場合について行なわれる。高い信頼度で相関を求めるためには、サンプル数が10程度以上必要である。
所定面積以上について判定することにより、面積が小さい目標に対して、相関度が低いために誤って目標を照明変化などの外乱と判断するのを避けることができる。
なお、ここでいう「面積」とは、画像中における物体の占める画素数(ピクセル数、ドット数)のことである。
抽出領域に所定の面積がない場合、(3)の条件は無条件で満足するとする。
また、目標のテクスチャ変化最小度合いは所定の値をパラメータで与える。
上記の条件を満たさない抽出領域は、画像中の雲の影や太陽の光などの外乱領域とみなせる。
【0023】
上記の(1)、(2)のいずれの条件も満足した場合は、(3)の判断をするためステップS5へ進む。
一方で、上記条件のいずれかが満足されない場合は、抽出領域は目標の存在しない領域とみなす。
そして、ステップS6へ進み、変化領域が抽出されない領域の画像および目標の移動体が存在しない領域の画像を用いて、背景画像を更新する。
ステップS5では、ステップS3で求めた抽出領域のテクスチャ変化度合いについて、上記(3)の判断条件を満足する場合は、抽出領域を目標領域とみなす。
目標領域における背景画像の更新はステップS7で行なわれ、ステップS7では、変化領域抽出手段21が抽出する変化領域に監視目標の移動体が存在すると目標判定手段22が判定した場合には、移動体が存在すると判定された変化領域の画像から移動体の画像が存在しない画像(即ち、移動体が存在すると判定された変化領域の画像から移動体の画像を消去した画像)を用いて、背景画像を更新する。
一方、(3)の判断条件を満足しない場合は、抽出領域を雲の影や光等の外乱領域9とみなして、背景画像の更新を行なうためにステップS8へ進む。
【0024】
ステップS6では、目標の存在しない領域において、背景画像の更新が行なわれる。
更新は、背景画像における目標の存在しない領域の画素のひとつひとつについて以下の式1を適用する。
更新された画素値=現在の画素値*重み1+入力画素値*重み2 … 式1
ここで、入力画素値とは、背景画像の注目している画素に対応する入力画像の画素の値をいう。
また、重み1と重み2は、二つの値の和が1となるような所定の値を与える。例えば、重み1には0.9、重み2には0.1が使用される。
なお、式1の入力画素値においては、入力画像の所定の領域において最も出現している数の多い画素値(以下、「最頻値」と呼ぶ)が適用されても良い。
【0025】
ステップS7では、目標領域において背景画像の更新が行なわれる。
更新は、背景画像における抽出領域内の画素ひとつひとつについて、上記ステップS6同様に式1を適用する。
ここで、重み1と重み2は、重み1が重み2よりも十分に大きく、重み1がステップS6の重み1よりも大きくなるように所定の値を与える。例えば、重み1には0.99、重み2には0.01が使用される。
【0026】
ステップS8では、影又は光の領域について、背景画像を更新する。
これには、ステップS5と同様に、背景画像におけるステップS7で外乱領域とみなされた抽出領域内の画素ひとつひとつについて式1を適用する。
ここで、入力画素値にかかる重み2が十分に大きく、重み1と重み2の和が1となる所定の値を与える。
例えば、重み1には0.99、重み2には0.01が使用される。
以下、入力画素値の重みが十分に大きい場合の背景画像の更新方法を「即時更新」と呼ぶ。
また、この即時更新は抽出領域に加えて、抽出領域の周辺近傍領域に適用しても良い。
例えば、抽出領域に加えて抽出領域の外周2ピクセル分の外周領域に即時更新が適用される。
【0027】
なお、ステップS8の背景画像の更新においては、上記の式1は、簡単に、更新された画素値に入力画素値を代入するようにしても良い。
最後に、ステップS9において、目標情報算出手段24が算出した目標である移動体の位置や大きさの情報を出力部3に伝え、後段に接続された図示しない装置により、目標の追尾処理などの監視動作が行なわれる。
【0028】
以上説明した図2のフローチートに示した各ステップでの処理を、図3を用いて具体的数値により説明する。
図3は、図2の処理を、時刻t秒から時刻t+1秒について行なった場合の、画像処理状況の流れを示す。
ここで、時刻t秒時にステップS1によって取込んだ入力画像Aと背景画像Bとの変化領域をステップS2において抽出した結果が、抽出領域Cに示される。
この例では、ステップS3において、テクスチャの変化度合いを正規化相関によって求めており、路面に投影された雲の影による外乱領域5は相関値が1に近い値0.9となる。
一方で、移動体(航空機)の目標領域4は、テクスチャの変化があるため、比較的小さな値0.3をとる。
【0029】
本実施の形態による移動体監視装置では、上述したように、目標判定手段22は変化領域内の背景画像と入力画像の間における正規化相関を求め、相関値の大きさに基づいてテクスチュアの変化度合いを求めている。
この場合、雲の影の領域などのように輝度が変動する領域では、輝度変化の大きさに係わらず、テクスチュアの変化度合いが小さいため、相関値は高くなる。
また、一方、航空機等の移動体の領域では、反対に輝度変化の大きさに係わらずテクスチュアの変化度合いは大きいため、相関値は低くなる。
このため、本実施の形態による移動体監視装置では、輝度変化が急激な場合でも、そのテクスチュアの変化度合が小さいと、外乱であると見なすことができ、抽出された変化領域が監視目標の移動体であるのか雲の影などの外乱であるのかを確実に判断することができる。
【0030】
なお、雲の影などの外乱領域5と移動体(航空機)の目標領域4のいずれもが、大きさ、明るさの分散において目標らしい特徴を有しているとすると、ステップS4では条件が満たされて、ステップS5へ進む。
ステップS5では、テクスチャの変化度合いが大きい航空機目標が条件を満たすため目標とみなされて、ステップS7へ進み、テクスチャの変化度合いが小さい雲の影は、外乱とみなされてステップS8へ進み、背景画像の更新を行なう。
【0031】
ステップS7では、式1の重み1が重み2に比べて十分に大きいため、目標領域の背景はほとんど更新されない。
一方で、ステップS8では、背景画像を入力画像で置きかえるため、外乱領域が背景画像に直接反映される。
引き続いて目標領域4においては、その位置や大きさ等の情報をステップS9にて目標情報算出手段24によって計算を行ない、それらを出力部へ伝える。
ここで、更新を行なった背景画像Eは、次のt+1秒のサイクルにおける変化領域抽出手段で使用される。
【0032】
こうして、画像中の雲の影や太陽の光などの外乱領域を見つけて、これらの外乱領域を以降は背景として扱うようにしたので、近い将来において、雲の影や太陽の光などの外乱領域と目標(移動体)領域が混在する場合であっても、外乱領域は変化した領域として抽出されなくなる。
即ち、図3に示すように、t+1秒目において、入力画像D(外乱領域と目標領域が混在する画像)と更新された背景画像E(外乱領域だけが存在する背景画像)から目標(移動体)だけが存在する抽出領域Fを求め、この抽出領域Fから目標(移動体)を抽出する。
したがって、t+1秒のサイクルにおいては、外乱領域と目標が混在する状況であっても、ステップS2の結果、目標(航空機)だけが雲の影や太陽光などの外乱領域から分離して抽出される。
このため、ステップS9において監視対象の目標(移動体)の位置やその大きさなどの情報を高い精度で算出し、出力部へ出力することが可能となる。
【0033】
以上説明したように、本実施の形態による移動体監視装置は、背景画像と入力画像との差分画像から一体的な変化領域を抽出し、変化領域を大きさ、明るさ、形状、テクスチャの変化に基づいて移動目標の存在を判定すると共に、検出した目標の位置や大きさなどの情報を出力する。
さらに、目標の検出結果に基づいて背景画像を更新するものである。
また、背景画像更新手段は、目標判定手段による判定結果から外乱領域と判断した領域に限定して、背景画像を入力画像で置きかえる。
これにより、外乱を抽出しなくなり、かつ、動きの小さい移動目標を抽出することができる。
また、本実施の形態による移動体監視装置では、外乱とみなされた領域において背景画像を入力画像で置きかえるため(即ち、即時更新されるため)、外乱領域が背景領域に直接反映される。
このため、引き続き雲の影が存在する場合には、次のサイクルでは外乱領域が変化した領域として抽出されなくなる。
【0034】
また、入力画像に外乱領域が引続き存在している場合でも、外乱領域において背景画像を入力画像で置き換えたことによって、既に背景画像に存在する外乱領域は、以降は変化した領域として抽出されることがなくなるので、近い将来に抽出領域内において新たに出現した目標領域(移動体)と既存の外乱領域が混在することを未然に防ぐことができる。
【0035】
なお、上記実施の形態1では、空港面探知装置に適用される場合を例とて説明したが、道路監視や他の監視装置であってもよい。
【0036】
【発明の効果】
この発明による移動体監視装置は、ディジタルカメラにより撮影される撮影対象エリアの画像を所定周期で入力する画像入力手段と、画像入力手段から所定周期で入力される入力画像と監視目標の移動体が存在しない背景画像との差分を取ることにより画像中の変化領域を抽出する変化領域抽出手段と、所定の判定条件に基づいて、変化領域抽出手段により抽出される変化領域に監視目標の移動体が存在するか否かを判定する目標判定手段と、所定周期で背景画像を更新する背景画像更新手段であって、変化領域抽出手段が抽出する変化領域に監視目標の移動体が存在すると上記目標判定手段が判定した場合には、移動体が存在すると判定された変化領域の画像から移動体の画像を消去した画像を用いて背景画像を更新する背景画像更新手段と、目標判定手段により存在が判定された監視目標の移動体について、その位置や大きさなどの移動体情報を算出する目標情報算出手段と、目標情報算出手段が算出する移動体情報を出力する出力手段とを備えるので、画像中の雲の影などの外乱領域を確実に見つけ、この領域を以降の処理では背景として扱うことが可能となる。
従って、外乱領域も背景とする背景画像の更新を行った後の近い将来において、外乱領域と監視対処目標(移動体)が混在する場合であっても、監視目標である移動体だけを外乱領域と確実に分離して検出でき、その結果、移動体の位置や大きさなどの情報を高い精度で出力できる移動体監視装置を提供できる。
【0037】
また、この発明による移動体監視方法は、ディジタルカメラにより撮影される撮影対象エリアの画像を所定周期で入力するステップと、所定周期で入力される入力画像と監視目標の移動体が存在しない背景画像との差分を取ることにより画像中の変化領域を抽出するステップと、所定の判定条件に基づいて抽出される変化領域に監視目標の移動体が存在するか否かを判定するステップと、所定周期で背景画像を更新するステップであって、抽出された変化領域に監視目標の移動体が存在すると判定された場合には、移動体が存在すると判定された変化領域の画像から移動体の画像を消去した画像を用いて背景画像を更新するステップと、存在が判定された監視目標の移動体について、その位置や大きさなどの移動体情報を算出するステップと、算出された移動体情報を出力するステップとを有するので、画像中の雲の影などの外乱領域を確実に見つけ、この領域を以降の処理では背景として扱うことが可能となる。
従って、外乱領域も背景とする背景画像の更新を行った後の近い将来において、外乱領域と監視対処目標(移動体)が混在する場合であっても、監視目標である移動体だけを外乱領域と確実に分離して検出でき、その結果、移動体の位置や大きさなどの情報を高い精度で出力できる移動体監視方法を提供できる。
【図面の簡単な説明】
【図1】実施の形態1による移動体監視装置の基本構成を示すブロック図である。
【図2】実施の形態1による移動体監視装置の画像処理部における処理手順を説明するためのフローチャートである。
【図3】実施の形態1による移動体監視装置において、外乱(雲の影など)が存在する場合に、監視目標である移動体の検出流れを説明するため図である。
【符号の説明】
1:画像入力部 2:画像処理部入力部
3:出力部 4:目標領域
5:外乱領域
6:目標領域と外乱領域が重なった領域
21:変化領域抽出手段
22:目標判定手段
23:背景画像更新手段
24:目標情報算出手段
[0001]
TECHNICAL FIELD OF THE INVENTION
According to the present invention, a digital image captured by an image capturing apparatus (for example, a high-sensitivity digital camera or the like) installed outdoors or indoors is subjected to image processing at a fixed cycle, and a target such as a vehicle or an aircraft existing in an image capturing area is obtained. TECHNICAL FIELD The present invention relates to a moving object monitoring device and a moving object monitoring method for detecting a moving object and outputting moving object information such as its position and size.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a moving object detection device in an image (also referred to as an image sensor) detects a moving target such as a vehicle or an aircraft by a background difference method from a digital image captured by an ITV camera or the like.
In this moving object detection device, for example, a currently captured input image is compared with a background image in which no moving object exists, which is calculated and created by a computer in the detection device, and the difference between the two images is changed. (The image showing the difference between the two images is called a “difference image”).
If a moving object such as a vehicle or an aircraft is included in the input image, a moving object such as a vehicle or an aircraft not included in the background image is extracted as a change area in the difference image (the extracted area is referred to as an “extraction area”). ").
[0003]
With respect to this extraction region, calculation of features such as area (size), luminance distribution, and inertia axis is performed. If the extraction region has target characteristics, the extraction region is set to a target (that is, a monitoring target such as a vehicle or an aircraft). And the information on the position and size of the moving object is output.
In addition, if the change of the texture (texture: pattern, etc.) between the input image and the background image is small, the extraction area may be the shadow of a cloud projected on the road surface by sunlight or clouds flowing in the sky. And determined that the extraction area was not a moving target of a vehicle or an aircraft.
[0004]
That is, the conventional moving object detection device calculates various feature amounts such as size, brightness, shape, and texture of the extraction region, and indicates the characteristics of the target moving object for each of the extracted regions. It is determined based on a predetermined criterion whether a feature such as disturbance is present.If the extraction region indicates a target feature amount such as a vehicle or an aircraft, it is determined that a mobile target such as a vehicle or an aircraft exists in the extraction region. I was
[0005]
Also, for example, Patent Document 1 states, "When an image changes, the change is caused by a change in lighting conditions, a slow background change, or the appearance or passage of a moving object (that is, a moving object). Is detected by a statistical method for each small region, the background image of the small region is appropriately updated only in the case of illumination fluctuation or slow background fluctuation, and the difference processing and 2 A moving object (moving object) region extraction method based on background subtraction that extracts a moving object (moving object) region by performing a binarization process ”is shown.
[0006]
As a specific method of updating the background image in the invention of Patent Document 1, in paragraphs 0043 to 0044, "the luminance value of each small area is t 0 During the (predetermined time interval), the number of frame images is obtained. Therefore, the small area a 1 When the luminance value is plotted on the horizontal axis and the frequency of appearance of the same luminance value is plotted on the vertical axis, a frequency distribution is obtained. a 1 There is no moving object in the small area, and it is the background. The luminance of the background changes mainly due to illumination variations, but t 0 In the case where is a short time of about several seconds, since the illumination change is generally small, this distribution has a bell-like shape with a small spread around the luminance peak. That is, the statistical dispersion degree σ shows a small value. On the other hand, small area a 2 Since the moving object is photographed, t 0 In the meantime, the luminance value changes greatly, and the distribution shows a spread. That is, the degree of dispersion σ indicates a large value. Therefore, the degree of dispersion when there is a large illumination variation is σ 0 The value is compared with the σ, and if σ is small, it is determined that a change in the luminance value due to illumination fluctuation is made, and the numerical value of the background image small area is updated. Also, σ becomes σ 0 If it is larger, it is determined that the luminance change of this small area is caused by factors other than illumination fluctuation such as appearance of a moving object, and the numerical value of the background image small area is not updated. Thus, the small area a K Is updated. Is described.
[0007]
Also, in paragraph 0074 of Patent Document 1, "the maximum value of df (time differential value of luminance value in a small area) when an object appears in advance and the maximum value of df when a sudden illumination change occurs" Boundary value m 0 , The σ (variance of the frequency of appearance as a statistical feature) and σ 0 (Dispersion degree of the appearance frequency distribution as a statistical feature amount resulting from the illumination variation, which has been obtained in advance), and t 0 (Maximum values m and m of df between (predetermined time intervals)) 0 By comparing with σ, σ becomes σ 0 If the value is smaller than σ, the numerical value of the background image small area is updated, 0 Greater than, m is m 0 If the value is smaller than σ, the numerical value of the background image small area is 0 Greater than, m is m 0 If it is larger than this, it is determined that the luminance change of the small area is caused by factors other than illumination fluctuations such as the appearance of a moving object, and the numerical value of the small area is not updated. It is also described.
[0008]
Japanese Patent Application Laid-Open No. H11-157, “Patent Document 2 discloses that“ the extraction area is divided into a plurality of appropriately sized spatial areas, the degree of change in the texture of the image is calculated for each of the divided areas, and the area having the maximum degree of change is selected. The presence of an intruder (that is, a moving body) is determined based on the image information of the selected area, whereby the intruder is reliably detected even if the ratio of the intruder in the extraction area is small. Has been described.
[0009]
[Patent Document 1]
JP-A-7-302328 (FIG. 1, FIG. 2, FIG. 9, paragraph 0043, paragraph 0044, paragraph 0074)
[Patent Document 2]
JP-A-2002-175531 (FIG. 9, front page)
[0010]
[Problems to be solved by the invention]
In the above-described conventional moving object detection device, when a disturbance region such as a relatively large cloud shadow or sunlight overlaps with a target region such as a vehicle or an aircraft, and is mixed together in the extraction region, the detection region in the extraction region If the disturbance area occupies a large area in, the change in the overall texture of the extraction area becomes small, and the extraction area is determined to be a disturbance, so that a moving target such as a vehicle or an aircraft cannot be detected (target detection The inability to do so is called "lost").
In addition, even when the extraction region can be determined as the target, the disturbance and the target are mixed together in the extraction region, so that the accuracy of information such as the position and size of the target is deteriorated. was there.
[0011]
In the moving object region extraction method based on the background difference disclosed in Patent Literature 1, when a target smaller than the small region exists, the target and the background are mixed in the small region, and the target is detected. There is a problem that it becomes impossible.
Further, in the technique disclosed in Patent Document 2, the selected image of the “region having the largest degree of change” is an image including a background image, and a small movement occurs when the background image has a disturbance such as a cloud shadow. There is a problem that a body target cannot be reliably detected.
[0012]
The present invention has been made in order to solve such a problem, and is a situation where disturbances such as cloud shadows and sunshine are mixed with moving objects to be monitored such as vehicles and aircraft. A moving object monitoring device and a moving object monitoring method capable of accurately detecting a moving object and accurately calculating and outputting information such as the position and size of a moving target by reliably detecting only a moving object. The purpose is to do.
[0013]
[Means for Solving the Problems]
A moving object monitoring apparatus according to the present invention includes: an image input means for inputting an image of a shooting target area taken by a digital camera at a predetermined cycle; and an input image input from the image input means at the predetermined cycle and a monitoring target. A change region extracting means for extracting a change region in the image by taking a difference from a background image in which no moving object exists; and a monitoring target in a change region extracted by the change region extraction device based on a predetermined determination condition. Target determining means for determining whether or not a moving object exists, and background image updating means for updating a background image at the predetermined period, wherein the moving object of the monitoring target is located in a change area extracted by the change area extracting means. If the target determination means determines that a moving object exists, the background image is updated using an image obtained by deleting the image of the moving object from the image of the change area determined to have the moving object. Background image updating means, target information calculating means for calculating mobile object information such as the position and size of the monitoring target mobile object whose existence has been determined by the target determining means, and the target information calculating means calculating And output means for outputting moving body information.
[0014]
In addition, the moving object monitoring method according to the present invention includes a step of inputting an image of an imaging target area picked up by a digital camera at a predetermined constant cycle, and the step of: Extracting a change region in the image by taking a difference from the background image that does not exist, and determining whether or not the monitoring target moving object exists in the change region extracted based on a predetermined determination condition. And updating the background image at the predetermined period. If it is determined that the moving object to be monitored is present in the extracted change area, the background image is moved from the image of the change area determined to include the moving object. Updating the background image using the image from which the body image has been deleted, and calculating the moving object information such as the position and size of the moving object of the monitoring target determined to be present And steps are those having the step of outputting the mobile body information calculated.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a basic configuration of the mobile monitoring apparatus according to the first embodiment.
The moving object monitoring device according to the present embodiment is applied to, for example, an airport surface detecting device (ASDE: Airport Surface Detecting Equipment), and reliably detects a moving object that is a moving target such as an aircraft that lands or takes off. This is for obtaining the position, size, and the like.
In the figure, reference numeral 1 denotes an image input unit for inputting image information (image) of an area to be photographed, which is photographed by a high-sensitivity digital camera (not shown) installed outdoors, as digital image information at a fixed period, and 2 denotes an image. From the image information (image) input from the input unit 1, a monitoring target (for example, a monitoring target such as an aircraft) existing in the shooting area is detected, and the background image is updated based on the detection result. The image processing unit 3 calculates and outputs information such as the position and size of the detected moving object, and the output 3 outputs the information of the moving object (aircraft) calculated by the image processing unit 2 to a subsequent device (not shown). Department.
[0016]
The image processing unit 2 calculates a difference between image information input from the image input unit 1 at regular intervals and a background image in a state where no moving object is present, thereby extracting a changed region in the image. Of a moving object (for example, an aircraft) that is a monitoring target based on the “size”, “brightness”, “shape”, and “change in texture (texture: pattern, etc.)” of the change area extracted by the change area extraction unit 21. Target determining means 22 for determining the presence or absence of the object, background image updating means 23 for updating the background image based on the detection result of the moving object (aircraft), and information such as the position and size of the detected moving object (aircraft) Is calculated from target information calculating means 24 for calculating.
[0017]
FIG. 2 is a flowchart illustrating a processing procedure in the image processing unit of the mobile monitoring device according to the first embodiment.
FIG. 3 is a diagram for explaining a flow of detecting a moving object (aircraft) in a situation where a moving object (aircraft) as a monitoring target and a cloud shadow area as a disturbance exist in an input image.
In FIG. 3, reference numeral 4 denotes a target area of a moving object (aircraft) as a monitoring target, 5 denotes a cloud shadow area as a disturbance, and 6 denotes an aircraft cylinder target area 4 and a cloud shadow area 5 mixed. This is the area when there is.
The input image is composed of, for example, 360 × 240 pixels.
[0018]
The operation (contents of processing) of the mobile monitoring apparatus according to the present embodiment will be described with reference to FIGS.
The processing shown in the flowchart of FIG. 2 is performed at predetermined time intervals (for example, every one second).
First, the operation (processing procedure) of the mobile monitoring apparatus according to the present embodiment will be described using the flowchart of FIG.
In step S1, a digital image obtained by photographing a photographing target area with a digital camera from the image input unit 1 is imported as an input image.
In step S2, the changed area extracting unit 21 obtains a difference between the background image, which is an image when no moving object is present, and the input image captured in step S1, and obtains the changed area as an extracted area.
Note that, as described above, the background image is an image created from a past image in a state where no moving object such as an aircraft exists in the shooting target area.
[0019]
Next, in step S3, the target determination unit 22 calculates the size of the extracted region and the variance of the brightness.
Further, the degree of change in the texture of the extraction area is calculated by comparing the input image with the background image.
As the degree of change, for example, a correlation value based on a normalized correlation is used.
[0020]
In step S4, it is determined whether or not the extraction region has the characteristics of the moving object (aircraft) with respect to the size of the extraction region, the variance of the brightness of the extraction region, and the degree of change in the texture of the extraction region C obtained in step 3. I do.
For the determination, the following conditions (1) to (3) are applied to the size of the extraction region, the variance of the brightness, and the degree of change of the texture.
(1) Target minimum allowable size ≤ size of extraction area ≤ target maximum allowable size
(2) Minimum value of variance of target brightness ≦ variance of brightness of extraction area
Here, the target minimum allowable size and the target maximum allowable size are given by calculating values at respective positions in the image based on parameter values.
A predetermined value is given as a parameter to the minimum value of the variance of the target brightness.
[0021]
In the present embodiment, a vertical length and a horizontal length when a monitoring target (that is, a monitoring target moving body) is approximated by a rectangle in an image are used as indices of the target size.
For the perspective, a moving object (aircraft) whose size is different depending on the position of the image (smaller as the image is higher, larger as the image is lower, and substantially proportional to the y-coordinate of the image) is targeted. The standard size (length x width) of the moving object (aircraft) is set at the two points, and the standard size of the moving object (aircraft) between the two points is determined by linear interpolation from the values of these two points. Ask.
The settable values (the image y coordinate of the setting position, the vertical length, and the horizontal length) are called parameters.
[0022]
(3) Minimum degree of target texture change ≤ degree of texture change in extraction area
Here, the condition (3) is performed when the extraction area has a predetermined area (for example, 10 pixels) or more. In order to obtain a correlation with high reliability, the number of samples needs to be about 10 or more.
By making a determination about a predetermined area or more, it is possible to avoid erroneously determining a target as a disturbance such as a change in illumination due to a low degree of correlation with a target having a small area.
Here, the “area” refers to the number of pixels (number of pixels, number of dots) occupied by an object in an image.
If the extraction area does not have a predetermined area, the condition (3) is assumed to be satisfied unconditionally.
In addition, a predetermined value of the minimum degree of texture change is given by a predetermined value as a parameter.
Extraction regions that do not satisfy the above conditions can be regarded as disturbance regions such as cloud shadows and sunshine in the image.
[0023]
If both of the above conditions (1) and (2) are satisfied, the process proceeds to step S5 to make the determination of (3).
On the other hand, if any of the above conditions is not satisfied, the extraction region is regarded as a region where no target exists.
Then, the process proceeds to step S6, where the background image is updated using the image of the area where the change area is not extracted and the image of the area where the target moving object does not exist.
In step S5, when the degree of texture change of the extraction region obtained in step S3 satisfies the determination condition (3), the extraction region is regarded as the target region.
Updating of the background image in the target area is performed in step S7. In step S7, when the target determination unit 22 determines that the monitoring target exists in the change area extracted by the change area extraction unit 21, A background image is obtained by using an image in which no image of the moving object is present from the image of the changing region determined to be present (i.e., an image obtained by deleting the image of the moving object from the image in the changing region determined that the moving object is present). To update.
On the other hand, when the determination condition of (3) is not satisfied, the extraction region is regarded as a disturbance region 9 such as a cloud shadow or light, and the process proceeds to step S8 to update the background image.
[0024]
In step S6, the background image is updated in an area where no target exists.
For the update, the following Expression 1 is applied to each pixel in a region where no target exists in the background image.
Updated pixel value = current pixel value * weight 1 + input pixel value * weight 2 ... Equation 1
Here, the input pixel value refers to the value of the pixel of the input image corresponding to the pixel of interest in the background image.
The weight 1 and the weight 2 give predetermined values such that the sum of the two values becomes 1. For example, 0.9 is used for weight 1 and 0.1 is used for weight 2.
In addition, as the input pixel value of Expression 1, a pixel value having the largest number of occurrences in a predetermined area of the input image (hereinafter, referred to as a “mode value”) may be applied.
[0025]
In step S7, the background image is updated in the target area.
For updating, Equation 1 is applied to each pixel in the extraction region in the background image in the same manner as in step S6.
Here, the weights 1 and 2 are given predetermined values so that the weight 1 is sufficiently larger than the weight 2 and the weight 1 is larger than the weight 1 in step S6. For example, 0.99 is used for weight 1 and 0.01 is used for weight 2.
[0026]
In step S8, the background image is updated for the shadow or light area.
To this end, as in step S5, equation 1 is applied to each pixel in the extraction region of the background image that has been regarded as a disturbance region in step S7.
Here, the weight 2 applied to the input pixel value is sufficiently large, and a predetermined value in which the sum of the weights 1 and 2 is 1 is given.
For example, 0.99 is used for weight 1 and 0.01 is used for weight 2.
Hereinafter, the method of updating the background image when the weight of the input pixel value is sufficiently large is referred to as “immediate update”.
Further, this immediate update may be applied not only to the extraction region but also to a region near the extraction region.
For example, the immediate update is applied to the outer peripheral area corresponding to the outer peripheral two pixels of the extracted area in addition to the extracted area.
[0027]
In updating the background image in step S8, Expression 1 above may simply substitute the input pixel value for the updated pixel value.
Lastly, in step S9, information about the position and size of the moving object, which is the target calculated by the target information calculating means 24, is transmitted to the output unit 3, and a device (not shown) connected to the subsequent stage performs a target tracking process. A monitoring operation is performed.
[0028]
The processing in each step shown in the flowchart of FIG. 2 described above will be described using specific numerical values with reference to FIG.
FIG. 3 shows a flow of an image processing situation when the processing of FIG. 2 is performed from time t seconds to time t + 1 seconds.
Here, the result of extracting the changed area between the input image A and the background image B captured in step S1 at time t seconds in step S2 is shown in an extracted area C.
In this example, in step S3, the degree of change of the texture is obtained by the normalized correlation, and the disturbance area 5 due to the shadow of the cloud projected on the road surface has a correlation value of 0.9 close to 1.
On the other hand, the target area 4 of the moving body (aircraft) takes a relatively small value 0.3 because of a change in texture.
[0029]
In the mobile monitoring apparatus according to the present embodiment, as described above, the target determination unit 22 obtains the normalized correlation between the background image and the input image in the change area, and changes the texture based on the magnitude of the correlation value. Seeking degree.
In this case, in a region where the luminance fluctuates, such as a cloud shadow region, the degree of change in the texture is small regardless of the magnitude of the luminance change, so that the correlation value is high.
On the other hand, in the area of a moving object such as an aircraft, the degree of change in the texture is large regardless of the magnitude of the luminance change, and therefore, the correlation value is low.
For this reason, in the moving object monitoring apparatus according to the present embodiment, even when the luminance change is abrupt, if the degree of change of the texture is small, it can be regarded as a disturbance, and the extracted change area is the movement of the monitoring target. It is possible to reliably determine whether the object is a body or a disturbance such as a cloud shadow.
[0030]
Assuming that both the disturbance area 5 such as a cloud shadow and the target area 4 of the moving object (aircraft) have target features in the dispersion of the size and brightness, the condition is satisfied in step S4. Then, the process proceeds to step S5.
In step S5, an aircraft target having a large degree of change in texture is regarded as a target because it satisfies the condition, and the process proceeds to step S7. Update the image.
[0031]
In step S7, since the weight 1 of the equation 1 is sufficiently larger than the weight 2, the background of the target area is hardly updated.
On the other hand, in step S8, since the background image is replaced with the input image, the disturbance area is directly reflected on the background image.
Subsequently, in the target area 4, information such as the position and size is calculated by the target information calculating means 24 in step S9, and the calculated information is transmitted to the output unit.
Here, the updated background image E is used by the change region extracting means in the next cycle of t + 1 seconds.
[0032]
In this way, disturbance areas such as cloud shadows and sun light in the image were found, and these disturbance areas were treated as the background in the near future, so in the near future, disturbance areas such as cloud shadows and sun light Even if the target and the target (moving body) regions coexist, the disturbance region is not extracted as a changed region.
That is, as shown in FIG. 3, at the time t + 1 seconds, the input image D (the image in which the disturbance region and the target region are mixed) and the updated background image E (the background image in which only the disturbance region exists) are moved from the target (the moving object). ) Is extracted, and a target (moving body) is extracted from the extracted region F.
Therefore, in the cycle of t + 1 seconds, as a result of step S2, only the target (aircraft) is separated and extracted from the disturbance region such as cloud shadows and sunlight even in a situation where the disturbance region and the target coexist. .
For this reason, in step S9, it is possible to calculate information such as the position and size of the target (moving body) to be monitored with high accuracy and output the information to the output unit.
[0033]
As described above, the moving object monitoring apparatus according to the present embodiment extracts an integrated change region from a difference image between a background image and an input image, and changes the change region in size, brightness, shape, and texture. , The presence of a moving target is determined, and information such as the position and size of the detected target is output.
Further, the background image is updated based on the target detection result.
Further, the background image updating means replaces the background image with the input image only for the area determined to be the disturbance area based on the determination result by the target determining means.
This makes it possible to extract a moving target with little disturbance and no movement.
Further, in the moving object monitoring apparatus according to the present embodiment, since the background image is replaced with the input image in the region regarded as a disturbance (that is, it is immediately updated), the disturbance region is directly reflected on the background region.
For this reason, if the cloud shadow continues to exist, the disturbance area is not extracted as a changed area in the next cycle.
[0034]
Further, even when the disturbance area is still present in the input image, the disturbance area already existing in the background image is extracted as a changed area by replacing the background image in the disturbance area with the input image. Therefore, it is possible to prevent a target area (moving body) newly appearing in the extraction area in the near future and an existing disturbance area from being mixed.
[0035]
In the first embodiment, a case where the present invention is applied to an airport surface detecting device has been described as an example. However, a road monitoring device or another monitoring device may be used.
[0036]
【The invention's effect】
A moving object monitoring apparatus according to the present invention includes: an image input means for inputting an image of a shooting target area picked up by a digital camera at a predetermined cycle; an input image input from the image input means at a predetermined cycle; A change area extracting means for extracting a change area in the image by taking a difference from a non-existent background image, and a moving object of a monitoring target is set in a change area extracted by the change area extraction means based on a predetermined determination condition. A target determining unit for determining whether or not the moving object is present; and a background image updating unit for updating the background image at a predetermined cycle, wherein the target determining unit determines that the moving object of the monitoring target exists in the change area extracted by the change area extracting means. When the means determines, the background image updating means updates a background image using an image obtained by erasing the image of the moving object from the image of the change area determined to have the moving object. A target information calculating means for calculating moving body information such as a position and a size of the monitoring target moving body whose presence is determined by the target determining means, and an output for outputting moving body information calculated by the target information calculating means. With this arrangement, it is possible to reliably find a disturbance area such as a cloud shadow in an image, and treat this area as a background in subsequent processing.
Therefore, in the near future after updating the background image that also includes the disturbance area as the background, even if the disturbance area and the monitoring target (mobile body) are mixed, only the moving body that is the monitoring target is included in the disturbance area. As a result, it is possible to provide a moving object monitoring device capable of outputting information such as the position and size of the moving object with high accuracy.
[0037]
Also, the moving object monitoring method according to the present invention includes a step of inputting an image of a shooting target area picked up by a digital camera at a predetermined cycle, and an input image input at a predetermined cycle and a background image having no monitoring target moving object. Extracting a change area in the image by taking a difference from the predetermined area, determining whether or not a monitoring target moving object exists in the change area extracted based on a predetermined determination condition; In the step of updating the background image, when it is determined that the monitoring target of the moving body is present in the extracted change area, the image of the moving body is determined from the image of the change area determined to have the moving body. Updating the background image using the erased image; and calculating moving object information such as the position and size of the moving object of the monitoring target whose existence has been determined. Since a step of outputting the mobile body information calculated, locate the disturbance regions, such as the shadow of a cloud in the image reliably, can be treated as background in the subsequent processing of this region.
Therefore, in the near future after updating the background image that also includes the disturbance area as the background, even if the disturbance area and the monitoring target (mobile body) are mixed, only the moving body that is the monitoring target is included in the disturbance area. As a result, it is possible to provide a moving object monitoring method capable of outputting information such as the position and size of the moving object with high accuracy.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a basic configuration of a mobile monitoring apparatus according to a first embodiment.
FIG. 2 is a flowchart for explaining a processing procedure in an image processing unit of the mobile monitoring device according to the first embodiment;
FIG. 3 is a diagram for explaining a flow of detecting a moving object that is a monitoring target when disturbance (such as a cloud shadow) exists in the moving object monitoring device according to the first embodiment;
[Explanation of symbols]
1: Image input unit 2: Image processing unit input unit
3: Output unit 4: Target area
5: disturbance area
6: Area where target area and disturbance area overlap
21: Change area extraction means
22: target determination means
23: background image updating means
24: target information calculation means

Claims (9)

ディジタルカメラにより撮影される撮影対象エリアの画像を所定周期で入力する画像入力手段と、
上記画像入力手段から上記所定周期で入力される入力画像と監視目標の移動体が存在しない背景画像との差分を取ることにより画像中の変化領域を抽出する変化領域抽出手段と、
所定の判定条件に基づいて、上記変化領域抽出手段により抽出される変化領域に監視目標の移動体が存在するか否かを判定する目標判定手段と、
上記所定周期で背景画像を更新する背景画像更新手段であって、上記変化領域抽出手段が抽出する変化領域に監視目標の移動体が存在すると上記目標判定手段が判定した場合には、移動体が存在すると判定された変化領域の画像から移動体の画像を消去した画像を用いて背景画像を更新する背景画像更新手段と、
上記目標判定手段により存在が判定された監視目標の移動体について、その位置や大きさなどの移動体情報を算出する目標情報算出手段と、
上記目標情報算出手段が算出する移動体情報を出力する出力手段とを備えたことを特徴とする移動体監視装置。
Image input means for inputting an image of a shooting target area shot by a digital camera at a predetermined cycle,
A change region extraction unit that extracts a change region in the image by taking a difference between the input image input in the predetermined period from the image input unit and a background image in which the moving object of the monitoring target does not exist;
Based on a predetermined determination condition, target determination means for determining whether or not a monitoring target moving body is present in the change area extracted by the change area extraction means;
A background image updating unit that updates a background image at the predetermined cycle, wherein when the target determination unit determines that a monitoring target mobile object is present in a change area extracted by the change area extraction means, Background image updating means for updating a background image using an image obtained by deleting an image of a moving object from an image of a change area determined to be present,
Target information calculating means for calculating moving body information such as the position and size of the monitoring target moving body whose presence has been determined by the target determining means,
Output means for outputting mobile object information calculated by the target information calculation means.
上記目標判定手段は、変化領域が所定画素数以上の場合について判定を行うことを特徴とする請求項1に記載の移動体監視装置。The mobile object monitoring device according to claim 1, wherein the target determination unit performs the determination when the change area is equal to or more than a predetermined number of pixels. 上記目標判定手段は、変化領域内の背景画像と入力画像の間における正規化相関による相関値を用いて判定することを特徴とする請求項1または2のいずれかに記載の移動体監視装置。3. The moving object monitoring device according to claim 1, wherein the target determination unit performs the determination using a correlation value based on a normalized correlation between the background image and the input image in the change area. 上記背景画像更新手段は、背景画像と入力画像との重み付け平均によって更新を行なうことを特徴とする請求項1〜3のいずれか1項に記載の移動体監視装置。The mobile object monitoring device according to any one of claims 1 to 3, wherein the background image updating means updates the weighted average of the background image and the input image. 上記背景画像更新手段は、移動体が存在しないと判定された変化領域において背景画像を入力画像で即時更新を行なうことを特徴とする請求項1〜4のいずれか1項に記載の移動体監視装置。The moving object monitoring apparatus according to any one of claims 1 to 4, wherein the background image updating means immediately updates the background image with the input image in a change area where it is determined that the moving object does not exist. apparatus. 抽出された変化領域の周辺近傍の領域においても背景画像を入力画像で即時更新することを特徴とする請求項5に記載の移動体監視装置。The mobile object monitoring device according to claim 5, wherein the background image is immediately updated with the input image even in a region near the periphery of the extracted change region. ディジタルカメラにより撮影される撮影対象エリアの画像を所定周期で入力するステップと、
上記所定周期で入力される入力画像と監視目標の移動体が存在しない背景画像との差分を取ることにより画像中の変化領域を抽出するステップと、
所定の判定条件に基づいて、抽出される変化領域に監視目標の移動体が存在するか否かを判定するステップと、
上記所定周期で背景画像を更新するステップであって、抽出された変化領域に監視目標の移動体が存在すると判定された場合には、移動体が存在すると判定された変化領域の画像から移動体の画像を消去した画像を用いて背景画像を更新するステップと、
存在が判定された監視目標の移動体について、その位置や大きさなどの移動体情報を算出するステップと、
算出された移動体情報を出力するステップとを有したことを特徴とする移動体監視方法。
Inputting an image of a shooting target area shot by a digital camera at a predetermined cycle;
Extracting a change area in the image by taking a difference between the input image input in the predetermined cycle and a background image in which the moving object of the monitoring target does not exist;
Based on a predetermined determination condition, a step of determining whether there is a monitoring target moving body in the extracted change area,
In the step of updating the background image at the predetermined cycle, when it is determined that the monitoring target moving body is present in the extracted change area, the moving body is determined from the image of the change area determined to have the moving body. Updating the background image using the image from which the image has been deleted; and
A step of calculating moving body information such as the position and size of the moving body of the monitoring target whose existence has been determined;
Outputting the calculated moving object information.
背景画像と入力画像との重み付け平均によって背景画像の更新を行なうことを特徴とする請求項7に記載の移動体監視方法。8. The moving object monitoring method according to claim 7, wherein the background image is updated by a weighted average of the background image and the input image. 変化領域内のテクスチャ変化度合いが小さく、移動体が存在しないと判定された変化領域内では、背景画像を入力画像で即時更新を行なうことを特徴とする請求項7に記載の移動体監視方法。8. The moving object monitoring method according to claim 7, wherein the background image is immediately updated with the input image in the changing region in which the degree of texture change in the changing region is small and the moving object does not exist.
JP2002377626A 2002-12-26 2002-12-26 MOBILE BODY MONITORING DEVICE AND MOBILE BODY MONITORING METHOD Expired - Fee Related JP3848918B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002377626A JP3848918B2 (en) 2002-12-26 2002-12-26 MOBILE BODY MONITORING DEVICE AND MOBILE BODY MONITORING METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002377626A JP3848918B2 (en) 2002-12-26 2002-12-26 MOBILE BODY MONITORING DEVICE AND MOBILE BODY MONITORING METHOD

Publications (2)

Publication Number Publication Date
JP2004208209A true JP2004208209A (en) 2004-07-22
JP3848918B2 JP3848918B2 (en) 2006-11-22

Family

ID=32814746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002377626A Expired - Fee Related JP3848918B2 (en) 2002-12-26 2002-12-26 MOBILE BODY MONITORING DEVICE AND MOBILE BODY MONITORING METHOD

Country Status (1)

Country Link
JP (1) JP3848918B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008523454A (en) * 2004-12-15 2008-07-03 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド How to model background and foreground regions
JP2008538623A (en) * 2005-04-20 2008-10-30 フェデラシオン イタリアーナ ジョッコ カルチオ Method and system for detecting and classifying events during motor activity
JP2010238034A (en) * 2009-03-31 2010-10-21 Nohmi Bosai Ltd Smoke detection device
JP2012160977A (en) * 2011-02-01 2012-08-23 Dainippon Printing Co Ltd Moving object detector
CN113542531A (en) * 2021-06-16 2021-10-22 星宸科技股份有限公司 Device and method for detecting object movement in image
WO2022015260A1 (en) * 2020-07-13 2022-01-20 Esen Sistem Entegrasyon Ve Muhendislik Hizm. San Ve Tic Ltd. Sti. An object detection method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109636771B (en) * 2018-10-23 2021-09-03 中国船舶重工集团公司第七0九研究所 Flight target detection method and system based on image processing

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008523454A (en) * 2004-12-15 2008-07-03 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド How to model background and foreground regions
JP4708343B2 (en) * 2004-12-15 2011-06-22 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド How to model background and foreground regions
JP2008538623A (en) * 2005-04-20 2008-10-30 フェデラシオン イタリアーナ ジョッコ カルチオ Method and system for detecting and classifying events during motor activity
JP2010238034A (en) * 2009-03-31 2010-10-21 Nohmi Bosai Ltd Smoke detection device
JP2012160977A (en) * 2011-02-01 2012-08-23 Dainippon Printing Co Ltd Moving object detector
WO2022015260A1 (en) * 2020-07-13 2022-01-20 Esen Sistem Entegrasyon Ve Muhendislik Hizm. San Ve Tic Ltd. Sti. An object detection method
CN113542531A (en) * 2021-06-16 2021-10-22 星宸科技股份有限公司 Device and method for detecting object movement in image
CN113542531B (en) * 2021-06-16 2023-11-21 星宸科技股份有限公司 Device and method for detecting object movement in image

Also Published As

Publication number Publication date
JP3848918B2 (en) 2006-11-22

Similar Documents

Publication Publication Date Title
KR101613740B1 (en) Runway Surveillance System and Method
CN101599175B (en) Detection method for determining alteration of shooting background and image processing device
CN106897720A (en) A kind of firework detecting method and device based on video analysis
JPH07302328A (en) Method for extracting area of moving object based upon background difference
JP2008192131A (en) System and method for performing feature level segmentation
CN105225251B (en) Over the horizon movement overseas target based on machine vision quickly identifies and positioner and method
CN107635099B (en) Human body induction double-optical network camera and security monitoring system
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
JP2010097412A (en) Smoke detecting apparatus
CN113688820A (en) Stroboscopic stripe information identification method and device and electronic equipment
JPH09282452A (en) Monitor
JP3570198B2 (en) Image processing method and apparatus
KR101690050B1 (en) Intelligent video security system
JP3848918B2 (en) MOBILE BODY MONITORING DEVICE AND MOBILE BODY MONITORING METHOD
CN111582166B (en) Method for detecting remnants based on Gaussian modeling and YoLo V3 target detection
JP7092616B2 (en) Object detection device, object detection method, and object detection program
CN116883897A (en) Low-resolution target identification method
JPH07249128A (en) Picture processor for vehicle
JP2006059183A (en) Image processor
JPH06308256A (en) Cloudy fog detecting method
JPH08317373A (en) System for detecting and extracting object in video monitoring device
CN110858392A (en) Monitoring target positioning method based on fusion background model
CN114022468B (en) Method for detecting article left-over and lost in security monitoring
JPH05300516A (en) Animation processor
JP7194534B2 (en) Object detection device, image processing device, object detection method, image processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060828

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090901

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100901

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110901

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110901

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120901

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130901

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees