JP3567114B2 - Image monitoring apparatus and image monitoring method - Google Patents

Image monitoring apparatus and image monitoring method Download PDF

Info

Publication number
JP3567114B2
JP3567114B2 JP34934599A JP34934599A JP3567114B2 JP 3567114 B2 JP3567114 B2 JP 3567114B2 JP 34934599 A JP34934599 A JP 34934599A JP 34934599 A JP34934599 A JP 34934599A JP 3567114 B2 JP3567114 B2 JP 3567114B2
Authority
JP
Japan
Prior art keywords
image
distribution
background
change
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34934599A
Other languages
Japanese (ja)
Other versions
JP2001169270A (en
Inventor
宏章 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP34934599A priority Critical patent/JP3567114B2/en
Publication of JP2001169270A publication Critical patent/JP2001169270A/en
Application granted granted Critical
Publication of JP3567114B2 publication Critical patent/JP3567114B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ITV(Intelligent Television)カメラ等の撮像手段を用いて、所望の対象物(領域)の自動監視を行う画像監視装置および画像監視方法に関する。
【0002】
【従来の技術】
ITVカメラ等の撮像手段により得られる監視領域内の映像から、不審人物や車両等の侵入を自動的に検知する画像処理技術は、これまでも主にセキュリティ分野において用いられており、監視員の長時間に及ぶ監視業務の軽減や、監視に必要な人員数を減らすといった費用削減効果があった。
【0003】
このような自動監視装置において映像中の変化を検知する画像処理手法としては、時系列的に連続して撮影された複数の画像(フレーム)間や、予め作成した背景画像と現時点の画像との間で差分を求める方法がある。
【0004】
このように複数の画面の差分を求めて画像の変化を検出した結果、監視領域内において任意の変化が見られた場合(多く場合には大きな変化があったとき)には、監視領域内に何らかの侵入あるいは異常が起こったものとして警告信号を出す、というのが従来の画像監視装置であった。
【0005】
ところが、監視領域内で大きな画像変化が発生したときに警告を出すといった単純な判定基準を用いた場合には、天候や日照などの時刻変動等による画像変化を「侵入有り、警告発」と誤って検知する場合があった。
【0006】
また、撮像装置であるカメラ自体が持つAGC(Auto Gain Control)等の自動調整機能の影響によって侵入物の位置を正しく検出することができなかった。
【0007】
また、カメラの設置条件によっては、自動車や電車等の車両がカメラの設置場所近くを通過した場合や、強い風の影響等によりカメラ自体が振動することにより画像が変化し、これを「侵入」と誤って検知する場合もあった。
【0008】
このような誤検知により本来の検知目的である人物や物体の侵入による画像変化だけを正しく検知できていなかった。
【0009】
さらに、撮影の環境条件として、晴れか曇りか雨か霧かといった天候や、昼か夜かといった日照状態があるが、これらの環境条件は自動監視装置の検知性能を大きく左右する要因である。これら要因が存在するにもかかわらず、カメラで撮影しているだけでは各種条件を判断することができなかった。
【0010】
したがって、自動監視装置の誤動作を減らして性能を高めるためには、他のセンサや人手による入力作業なる他の手段に頼って天候や日照条件に関する情報を獲得して自動監視装置の検知条件をその時間における最適様式に設定するしかなく、手間や設置等の費用が高くなるという問題点があった。
【0011】
【発明が解決しようとする課題】
以上述べたような従来の画像監視装置では、画像変化の検出方式や判定基準が単純であるため、天候や日照条件等の環境条件の変動やカメラ自体の振動や自動調整機能のために侵入物だけを正しく検知できないという問題点があった。また、検知性能を大きく左右する環境条件を他の手段に頼ってしか獲得することができないという問題点があった。
【0012】
そこで、本発明は上記従来の問題点に鑑みてなされたもので、画像から求められる特徴量の統計的分布から、本来の検知目的である人物や物体の侵入による画像変化と、環境条件の変動やカメラの振動や自動調整機能による画像変化とを自動的に判定し、また天候や日照状態を自動的に推定することにより、人物や物体の侵入以外による誤検知を減少させ、検知性能を大幅に向上させる画像監視装置および画像監視方法の提供を目的とする。
【0013】
【課題を解決するための手段】
上記の目的を達成するために、本発明の画像監視装置は、所定の撮像装置から得られる画像が入力される画像入力部と、画像入力部により入力された画像の特徴量の分布を求める特徴分布算出部と、特徴分布算出部にて求められた特徴量の分布から背景領域による特徴量の分布のピークを求め、このピークを所定時刻毎に追跡し画像の変化状態を算出する画像変化追跡と、画像変化追跡部により求められた変化状態の算出結果から、追跡した背景領域による特徴量の分布のピークの変動を環境条件や撮影条件の変動による画像変化と判定し、それ以外の特徴量の分布を上記画像変化とは異なる画像変化と判定する判定部とから構成される。あるいはまた、所定の撮像装置から得られる画像が入力される画像入力部と、画像入力部により入力された画像の背景領域による特徴量の分布を求める特徴分布算出部と、特徴分布算出部にて求められた背景領域による特徴量の分布の平均値と分布状態とから画像の変化状態を算出する画像変化追跡部と、画像変化追跡部により求められた変化状態の算出結果から、平均値のみが変動している場合には環境条件が変化しているものと判定し、分散のみが変動している場合には撮影条件が変化しているものと判定し、両者ともに変動している場合には画像内への侵入であると判定する結果判定部とから構成される。
【0014】
また、本発明の画像監視方法は、所定の撮像装置から得られる画像が入力される画像入力ステップと、この画像入力ステップにて入力された画像の特徴量の分布を求める特徴分布算出ステップと、この特徴分布算出ステップにて求められた特徴量の分布から背景領域による特徴量の分布のピークを求め、このピークを所定時刻毎に追跡し画像の変化状態を算出する画像変化追跡ステップと、この画像変化追跡ステップにて求められた変化状態の算出結果から、追跡した背景領域による特徴量の分布のピークの変動を環境条件や撮影条件の変動による画像変化と判定し、それ以外の特徴量の分布を上記画像変化と異なる画像変化と判定する結果判定ステップとを有する。あるいはまた、所定の撮像装置から得られる画像が入力される画像入力ステップと、この画像入力ステップにより入力された画像の背景領域による特徴量の分布を求める特徴分布算出ステップと、この特徴分布算出ステップにて求められた背景領域による特徴量の分布の平均値と分布状態とから画像の変化状態を算出する画像変化追跡ステップと、この画像変化追跡ステップにより求められた変化状態の算出結果から、平均値のみが変動している場合には環境条件が変化しているものと判定し、分散のみが変動している場合には撮影条件が変化しているものと判定し、両者ともに変動している場合には画像内への侵入であると判定する結果判定ステップとを有する。
【0015】
また、本発明のコンピュータを動作させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体において、任意の撮像手段から得られる画像を入力する画像入力機能と、前記画像入力手段に入力された画像の任意の特徴量の統計的分布を求める特徴分布算出機能と、前記特徴分布算出手段にて求められた特徴分布から画像の変化状態を算出する画像変化算出機能と、前記画像変化算出手段にて求められた変化状態の算出結果から検知目的の人物や物体の侵入を判定する結果判定機能とからなるプログラムを記憶し、画像から求められる特徴量の統計的分布から、環境条件や撮影条件の変動による画像変化と、検知目的の人物や物体の侵入による画像変化と区別して検出することを特徴とする。
【0016】
また、各機能において得られた種々の情報は、光ディスクや磁気記録媒体などの記録媒体に記録することができ、また適宜ディスプレイなどの表示手段に表示することもできる。
【0017】
【発明の実施の形態】
以下、本発明の実施形態の構成について図面を参照して説明する。
【0018】
図1は本発明の第1実施形態の画像監視装置の実施形態のブロック図であり、図2は本発明の画像監視方法の第1実施形態のフローチャートであり、図3は画像内での検知領域の設定例を示す図であり、図4は特徴分布の算出方法の説明図であり、図5は条件の異なる2つの時刻において算出された特徴分布の説明図であり、図6は撮像装置の自動調整機能が働いた場合の特徴分布算出の説明図であり、図7は画像変化算出手段からの結果を用いて画像を補正する方法の説明図であり、図8は補正後の画像において背景差分処理を行った場合の説明図である。
【0019】
画像監視装置は、画像入力部11と、特徴分布算出部12と、画像変化追跡部13(画像変化算出部)と、結果判定部14とが縦続接続されている。
【0020】
画像入力部11には、ITVカメラなどの任意の撮像装置101が接続されている。また、結果判定部14には、判定結果を表示するディスプレイなどの表示装置102と、判定結果を画像監視装置外部に出力(送信)する通信装置103とが設けられている。尚、通信装置103は、無線で情報を所定地まで送信することもオンラインで送信することもできる。
【0021】
このような構成からなる実施形態の動作について説明する。
【0022】
(1)撮像装置101によって所定の監視領域が撮像される。撮像された画像は画像入力部11に送られる(画像入力ステップ)。
【0023】
(2)撮像装置101から連続して出力される映像信号は、画像入力部11において、逐次A/D変換される。変換後の映像信号は、画像入力部11内に設けられる記憶部にディジタル画像あるいは画像列として蓄積される。また、任意時刻の画像全体の画素、あるいは任意時刻の任意領域の画素を、後段の特徴分布算出手段2に出力する(画像入力ステップ)。
【0024】
(3)画像入力部11から出力される情報から、画像入力部11に蓄積される画像あるいは画像列の任意時刻あるいは任意領域について予め設定されている特徴量を算出し、その統計的な分布を求める(特徴分布算出ステップ)。
【0025】
ここで、特徴量とは、各画素あるいは任意領域において求めることが可能な任意の情報を示す。例えば、各画素における明度や色情報といった単純なものから、空間あるいは時間による微分あるいは積分結果、任意の画像フィルタの重畳結果、平均や分散といった統計量等、さらには予め作成した背景画像との差分処理等、任意の物体検出あるいは領域分割処理を行った結果、および結果から選られる領域のフィレ径や面積、動き量等、画像から算出可能な任意のスカラー量あるいはベクトル量、さらには任意の特徴量の組み合わせを用いることが可能である。
【0026】
本実施形態では、上述した特徴量のうち、画像の各時刻・各画素での明度値と、予め作成されている背景画像での各画素での明度値との差を、特徴量として用いる。
【0027】
つまり、撮像された画像と背景画像との差分処理により、画像変化を検出する方式が基礎となっており、かつ画像は各画素での明度情報からなり(濃淡画像)、また何らかの手段により背景画像が作成されているものとする。
【0028】
背景画像の作成方式としては任意の方法が可能である。例えば、(ア)1時刻(フレーム)、あるいは特定の時刻だけ前の画像をそのまま背景画像として用いる(この場合、連続差分方式となる)、(イ)人物や物体の侵入がないと分かっている画像列から1つの画像を抜き出して用いる、(ウ)その画像列の各画素で明度、あるいは任意の特徴量の平均や重み付き和を求める等任意の演算を行って作成する、(エ)撮影した画像列(侵入があるかどうか不明な場合でも構わない)において各画素の明度、あるいは任意の特徴量の時系列に対してメディアンフィルタやカルマンフィルタを適用するといった任意の演算を行うことにより作成すること、があげられる。
【0029】
また、このようにして作成された背景画像は、時刻によって更新されても良いし、一度作られた背景画像を使用し続けて更新しなくとも良い。
【0030】
今、時刻tに撮影された画像の画素(x、y)での明度値をI(x、y、t)、その時刻における背景画像の同じ位置の画素の明度値をB(x、y、t)とする(背景画像は時間的に更新される場合、tが変化すれば背景画像の明度値Bも変化する)。
【0031】
特徴量である背景画像との差分値D(x,y,t)は、以下の式(1)にて求められる。
【0032】
【数1】

Figure 0003567114
Figure 0003567114
ここで、背景との差を表す値Dは、上記のような減算によって求めても良いし、背景画素の明度値Bで除算して背景との変化比として求めても良い等、任意の演算によって求めることができる。
【0033】
時刻tでの特徴分布F(t)は、画像中に設定されている検知領域Rに属する各画素(x,y)について特徴量を求め、この統計的な分布を求めることにより算出される。検知領域Rは、画像全体でも良いし、図3に示すように任意の形状に設定することができる。
【0034】
ここでは、特徴分布Fを単純に差分値D(特徴量)のヒストグラムとして求めると、図4のグラフが得られる。ヒストグラムとして特徴分布を求める場合を記述すれば、以下の通りである。
【0035】
【数2】
Figure 0003567114
である。
【0036】
このようにして、任意の時刻tでの特徴分布F(t)が得られることになる。
【0037】
図4では、検知領域が矩形に設定されていて、その検知領域内に画像が図示されている。また、撮影した画像が背景画像に比べて変化がない場合であるため、特徴分布Fは単峰で平均0の正規分布に近い形となっている。
【0038】
(4)画像変化追跡部13では、特徴分布算出部12において上記のように算出された任意時刻tでの特徴分布の時間的な変化を解析し、その結果を次の結果判定部14に伝える(画像変化算出ステップ)。
【0039】
今、図5に示すように、2つの時刻t1、t2で特徴分布F(t1)、F(t2)が得られている場合を例にして、画像変化追跡部13での処理について説明する。
【0040】
図5では、時刻t1では人物や車両等の侵入物はなく、背景との変化はほとんどない。これに対して時刻t2においては、雲が晴れる等の日照強度の変動があって画面全体で明るくなるという環境変動があるとともに、人物(背景より明度が暗い)の侵入がある場合を示している。
【0041】
時刻t1では、時刻t1における撮像画像と、背景画像との差(明度差)がほとんどないため、前述した図4と同様に特徴分布F(t1)は平均0の単峰の分布となる。
【0042】
これに対して時刻t2で得られる特徴分布F(t2)は、人物以外の背景領域の各画素の明度値が一律に大きくなる(明るくなる)ため、背景部分からくる分布の平均値は0よりも大きくなり(p22)、人物領域による分布は背景よりも暗い部分に小さくできることになり(p21)、特徴分布F(t2)はこれら2つの分布を合わせた二峰性のものとして得られる。
【0043】
ここで、従来の単純な撮像画像と背景画像との差分処理によって画像変化を検出する。
【0044】
つまり各画素でのDの値の大小で変化を検出する場合では、時刻t2では背景そのものの明度変化が侵入人物による明度変化よりも大きいため、単に変化量の大きさだけで判定した場合には、侵入人物だけでなく背景全体を画像変化として誤って検出してしまう等、侵入人物だけを正しく検出できない。
【0045】
このような背景差分における弊害を避けるため、画像変化追跡部13では、背景領域による特徴分布のピーク(峰)を各時刻で算出することにより、背景変動による画像変化と物体の侵入による画像変化とを区別している。
【0046】
まず、各時刻での特徴分布のピークを求める。時刻t1では1つしかないため簡単にピークが得られるが、時刻t2ではピークが2つ(複数)あるため、各々のピークを区別する必要がある。
【0047】
ピークを区別して求める方法としては、最も単純には特徴分布での極大値となるところをピークと見做す方法がある。また、複雑な分布を複数の正規分布等の和で近似するEMアルゴリズムといった方法がある(参考文献1、2参照方)。
【0048】
[参考文献1]…A. Dempster, N. Laird, and D. Rubin, Maximum likelihood from incomplete data via the EM algorithm, Journal of the Royal Statistical Society, 39 (Series B): 1−38, 1977.
[参考文献2]…N. Friedman, S. Russell, Image Segmentation in video sequences: A probabilistic approach, Proc. Thirteenth Conf. on Uncertainty in Artificial Intelligence (UAI), 1997
この方法を用いると、平均μ、標準偏差σの正規分布p(x)を以下のように表し、
【数3】
Figure 0003567114
Figure 0003567114
p21、p22に相当する正規分布の平均、標準偏差、重みといったパラメータをμ21、σ21、w21と、μ22、σ22、w22とで表せば、特徴分布F(t2)は、以下のように2つの正規分布の重み付き和で近似でき、p21とp22とを区別することができる。
【0049】
【数4】
Figure 0003567114
Figure 0003567114
ここで、時刻t2において人物侵入領域だけを正しく検知できるようにするには、複数(この例では2つ)の分布のうちのどちらが背景領域によるものかを判定する必要がある。
【0050】
このために、以前の時刻t1での背景領域による分布(この例の場合p1しかない)との分布の近さを求め、近いもの同士が背景領域よる分布であると認定して、各時刻での背景領域の分布を算出する。分布の近さSとしては、例えば各分布でのパラメータ同士のユークリッド距離を以下のように算出することができる。
【0051】
【数5】
Figure 0003567114
Figure 0003567114
分布の近さSとしては、パラメータ間の距離だけでなく、各分布を用いての任意の演算によって算出することが可能である。
【0052】
このようにして近さSをp21、p22で求め、p1と近い方が背景領域による分布であることがわかる(この例ではp22となる。図5右側の下向の矢印)。
【0053】
以上のようにして、画像変化追跡部13では、各時刻での背景領域の分布を追跡し、その結果を次の結果判定部14に送る。
【0054】
以上述べた実施形態では、背景での環境変動がある場合について説明したが、他にもカメラ等の撮像手段が持つAGC等の自動調整機能により画像が変化を起こす場合がある。
【0055】
図6では、各時刻t1〜t4での特徴分布列F(t1)〜F(t4)がそれぞれ撮像された画像の右側(図中)に求められ記載されているが、この例では環境変動(撮像領域の変更)がないにもかかわらず、検知領域内に白色の車両が侵入することにより、画像全体に明度変化が発生する場合を示している。
【0056】
侵入前の時刻t1では、撮影した画像と背景画像との間に大きな変化がないため、特徴分布F(t1)は、図4と同様に単峰の分布として得られている。
【0057】
続いて、時刻t2、t3、t4と経過するにつれて車両が進入してくると、車両が白色であって、その撮像される領域(車両の部分の画素)が背景に比べて明るく、かつ大きな領域として捉えられているため、特徴分布のプラスの部分にもうひとつのピーク(峰)ができ始めて徐々に大きくなり、双峰性の特徴分布が得られる。
【0058】
このとき、明るい(白色)車両領域の侵入により、カメラのAGC機能が働いて画像全体を暗くする方向に明度を補正してしまうため、本来環境変化のない背景領域においても、明度が暗くなってしまう。このようにカメラの自動調整機能が働く場合においては従来の監視装置では、画像変化から侵入する物体だけを正しく検知することができなかったが、本発明の画像変化追跡部13を用いることによって、背景が変動している場合でも特徴分布を時間的に追跡した上で(図6グラフの下向の矢印)、次の工程で詳細を説明する結果判定を行うことにより、侵入物の領域か背景領域かを区別して検出することができる。
【0059】
(5)最後に、結果判定部14では、時系列的に前の画像変化追跡部13にて求められた画像変化の追跡情報を用いて画像処理を行った後に、撮影された画像中に人物や物体等の侵入があるかどうかを判定する(判定ステップ)。
【0060】
図5(時刻t2において背景変動と人物侵入がある場合)における結果判定を説明する。
【0061】
画像変化算出手段3では、背景領域の特徴分布が追跡されているため(図5中p1→p22)、この情報を用いて時刻t2での画像を補正することにより、背景変動による明度(特徴量)変化の影響を取り除く。
【0062】
つまり、時刻t2での背景領域の分布p22の平均値μ22を用いて、この値だけ画像の各画素の明度値を減算して背景変動分を補正すると、図7下段に示すように背景部分の明度は予め作成されている背景画像と同じにすることができる。このとき背景領域の分布はp22´となり、平均値もμ22´となる。なお、補正前の時刻t2における画像は図7中段の通りである。
【0063】
ここで、画像を補正する方法としては、本実施形態に示す通り、特徴量として撮像された画像と背景画像との差Dを用いる場合には、背景分布の平均値だけ各画素の明度値から減算することもでき、また撮像された画素の明度値と背景画素の明度値との変化比など他の特徴量を用いる場合には、その特徴算出方法に応じた任意の方式により画像を補正することができる。
【0064】
画像を補正することなく背景画像との差分処理を行えば、前述したとおり、背景全体が画像変化として検出される恐れがある。しかしながら、本実施形態のように、補正した後の画像を用いて背景画像との差分処理を行えば、図8に示すように背景変動は検出されず、侵入した物体の領域のみが検出されることになる。
【0065】
このようにして、日照変化といった環境変動やカメラの自動調整機能により背景部分の画像が変化してしまった場合でも、監視装置本来の検知目的である人物や物体の侵入だけを正しく検知することができ、使用者に対して誤って警告を発する等の誤動作を大幅に減少させることができる。
【0066】
次に、本発明の画像監視方法の第2実施形態の構成、動作について図9を参照して説明する。
【0067】
第2実施形態の特徴は、差分処理の結果から環境条件や撮像条件の変化を推定することにより、検出された画像変化が検知目的であるか否かの判定を行い信頼性を向上させることである。
【0068】
図9は、種々の条件において撮像された画像から算出される特徴分布図である。
【0069】
撮像された画像と背景画像との差分処理によって画像中の変化を検出し、人物や物体の侵入を検知しようとする場合、撮影した画像が背景画像に対してほとんど変化していない時には、特徴分布(ここでは、これまでの例と同様に、背景画像との明度差を特徴量として用いる場合について説明を行う)は、平均値0の単峰の正規分布状になり(図9上段)、日照変動等の環境変動だけの影響により撮影した画像全体の明度が変わる(例えば暗くなる)場合には、特徴分布の形は保ったままで平均値が0から例えば右側にずれる(図9中段)。
【0070】
ただし、図9上段、中段の図では、侵入物はないものと考え、特徴分布は背景領域の特徴分布と等しいものとする。
【0071】
また、カメラ等の撮像手段の設置条件が悪く、自動車や電車等の車両が近くを通過した場合や、強い風の影響等によりカメラ自体が振動する場合には、画像中に撮影されている背景物体の位置がずれることにより、特徴分布の平均値は同じままで分散が大きくなる。
【0072】
これらのことから、撮影した画像において求めた特徴分布の変化から逆に、その時刻での環境条件や撮影条件の変化を特徴分布の変化から推定することができる。
【0073】
例えば、背景領域の特徴分布の平均値だけが変化した場合には日照強度の変動など環境条件が変化しており、また平均値はそのままで分散だけが変化した場合にはカメラが振動するなど撮影条件が変化していると判定することができる。
【0074】
このようにして、背景差分等の画像処理によって画像変化を検出する場合、特徴分布からその時刻での環境条件や撮影条件の変化を推定することにより、検出された画像変化が真に人物や物体の侵入によるものなのか否か、環境条件や撮影条件の変化によるものなのか否かを判断するための指標として用いることができる。
【0075】
また、環境条件や撮影条件の変化が起こっていると判定される場合には、使用者に対して警告を発しないようにするなど、画像監視装置の誤動作を大幅に減少させることができる。
【0076】
次に、本発明の画像監視方法の構成、動作について図10を参照して説明する。
【0077】
第3実施形態の特徴は、差分処理の結果から画像を撮影している時刻における天候や日照状態を推定し、真の検知目的である対象物の抽出の信頼性を向上させたことである。
【0078】
図10は、様々な天候や日照状態(時刻)において算出された特徴分布図である。
【0079】
画像変化算出手段3において、複雑な形状の特徴分布であっても複数の正規分布の和で近似できる方法があることは第1実施形態でも述べたが、このようにして特徴分布の各ピークを区別することにより、画像を撮影している時刻での天候や日照状態を推定することができる。
【0080】
図10上段図は、画像中に車両の侵入がある場合の特徴分布の例を示しているが(背景変動はないものとする)、第1実施形態でも述べたように、物体の侵入がある場合には背景領域によるピークと侵入物領域によるピークとの2つ(複数)の分布が足し合わされたような多峰性の特徴分布になる。
【0081】
この上段図では、天候が曇りである場合を想定しているが、図10中段図のように、天候が晴れである場合には、侵入物体の「影」が画像中に映り、この影の領域による分布が特徴分布内の背景による分布よりも暗いところに現れる。
【0082】
また、時刻が変わって夜間になった場合、車両がヘッドライトを点灯するため、このヘッドライトの映り込み領域の分布が他の分布よりも明るいところに現れる。
【0083】
さらに、図示しないが、雨や雪が降っているような天候であれば、雨滴等による小さな画像変化が多数現れることにより、観測される背景領域による特徴分布が晴れや曇りのときに比べて、その分散が大きく観測される等、特徴分布の性質が変化する可能性がある。
【0084】
このようにして、特定の特徴分布のピークや性質を計測することにより、画像を撮影した時刻が昼間であるか夜間であるかといった時間帯(日照条件)に関する情報や、その時刻において撮像領域が晴れているか曇っているか雨や雪が降っているか霧が出ているかといった天候状態を推定することができる。
【0085】
また、他の各種センサや人手による撮像環境などの入力作業といった手段に頼らずとも、撮影した画像から天候や日照状態を推定でき、推定結果に基づいて画像監視装置の条件を最適に設定することにより(カメラの感度の上げ下げや、検知領域の再設定等)、誤動作を大幅に減少させ検知目的対象物の検知の信頼性を向上させることができる。
【0086】
尚、本発明は上記実施形態には限定されず、その主旨を逸脱しない範囲で種々変形して実施できることは言うまでもない。例えば、撮像装置を複数設けることにより、検知対象物を特定する信頼性を向上させることができる。
【0087】
【発明の効果】
以上説明したように本発明によれば、画像監視装置の検知性能を向上させることができる。
【図面の簡単な説明】
【図1】本発明の画像監視装置の第1実施形態のブロック図。
【図2】本発明の画像監視方法の第1実施形態のフローチャート。
【図3】画像内での検知領域の設定例を示す図。
【図4】特徴分布の算出方法の説明図。
【図5】条件の異なる2つの時刻において算出された特徴分布の説明図。
【図6】撮像装置の自動調整機能が働いた場合の特徴分布の算出の説明図。
【図7】画像変化算出手段からの結果を用いて画像を補正する方法の説明図。
【図8】補正後の画像において背景差分処理を行った場合の説明図。
【図9】本発明の画像監視方法の第2実施形態を説明する種々の条件において撮像された画像から算出される特徴分布図。
【図10】本発明の画像監視方法の第3実施形態を説明する様々な天候や日照状態において算出された特徴分布図。
【符号の説明】
11 画像入力部
12 特徴分布算出部
13 画像変化追跡部(画像変化算出部)
14 結果判定部
101 撮像装置
102 表示装置
103 通信装置[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image monitoring apparatus and an image monitoring method for automatically monitoring a desired target (area) using an imaging unit such as an ITV (Intelligent Television) camera.
[0002]
[Prior art]
Image processing technology that automatically detects intrusion of a suspicious person or a vehicle from an image in a monitoring area obtained by an imaging means such as an ITV camera has been used mainly in the security field until now. There was a cost reduction effect such as a reduction in long-term monitoring work and a reduction in the number of personnel required for monitoring.
[0003]
As an image processing method for detecting a change in an image in such an automatic monitoring apparatus, a method of detecting a change between a plurality of images (frames) photographed continuously in time series and a method of comparing a background image created in advance with a current image is used. There is a method of calculating a difference between the two.
[0004]
As described above, as a result of calculating a difference between a plurality of screens and detecting a change in an image, when an arbitrary change is observed in the monitoring area (in many cases, when there is a large change), the image is displayed in the monitoring area. It is a conventional image monitoring device to issue a warning signal that some kind of intrusion or abnormality has occurred.
[0005]
However, when a simple criterion such as issuing a warning when a large image change occurs in the monitoring area is used, an image change due to time fluctuations such as weather or sunshine is erroneously regarded as “intrusion detected, warning issued”. In some cases.
[0006]
Further, the position of the intruder could not be correctly detected due to the influence of an automatic adjustment function such as AGC (Auto Gain Control) of the camera itself as the imaging device.
[0007]
Also, depending on the installation conditions of the camera, the image changes when a vehicle such as an automobile or a train passes near the installation site of the camera, or when the camera itself vibrates due to the influence of a strong wind, etc. Was detected incorrectly.
[0008]
Due to such erroneous detection, only the image change due to intrusion of a person or an object, which is the original detection purpose, cannot be correctly detected.
[0009]
Furthermore, environmental conditions for photographing include weather, such as sunny, cloudy, rain, or fog, and sunshine, such as day or night. These environmental conditions are factors that greatly affect the detection performance of the automatic monitoring device. Despite these factors, various conditions could not be determined just by photographing with a camera.
[0010]
Therefore, in order to reduce the malfunction of the automatic monitoring device and improve the performance, information about the weather and sunshine conditions is obtained by relying on other sensors or other means such as manual input operation, and the detection conditions of the automatic monitoring device are changed. There is no other choice but to set the optimal style in time, and there is a problem that labor and installation costs are high.
[0011]
[Problems to be solved by the invention]
In the conventional image monitoring apparatus described above, since the detection method and the determination standard of the image change are simple, the intrusion is caused by fluctuations in environmental conditions such as weather and sunshine conditions, vibration of the camera itself, and automatic adjustment function. There was a problem that it was not possible to correctly detect only. In addition, there is a problem that environmental conditions that greatly affect the detection performance can be obtained only by relying on other means.
[0012]
In view of the above, the present invention has been made in view of the above-described conventional problems. Based on the statistical distribution of feature amounts obtained from an image, image change due to intrusion of a person or an object, which is the original detection object, and fluctuation of environmental conditions Automatically judge changes in images due to camera vibration and automatic adjustment function, and automatically estimate the weather and sunshine conditions to reduce false detections other than intrusion of people and objects, and greatly improve detection performance. It is an object of the present invention to provide an image monitoring device and an image monitoring method that can be improved.
[0013]
[Means for Solving the Problems]
In order to achieve the above object, an image monitoring device according to the present invention includes:PredeterminedImage input unit to which an image obtained from an imaging device is inputAnd the pictureImage input by image input unitMin of featuresFeature distribution calculator for finding clothAnd specialCalculated by the signature distribution calculatorFrom the distribution of the feature values obtained, the peak of the feature value distribution due to the background region is obtained, and this peak is tracked at a predetermined time and imaged.Image change to calculate image change stateTrackingDepartmentAnd the pictureImage changeTrackingIs the calculation result of the change state obtained by the partThe fluctuation of the peak of the feature distribution due to the background area trackedImage changes due to fluctuations in environmental conditions and shooting conditionsAnd a determination unit that determines the distribution of the other feature amounts as an image change different from the image change.Composed ofIt is. Alternatively, an image input unit to which an image obtained from a predetermined imaging device is input, a feature distribution calculation unit that obtains a distribution of a feature amount by a background region of the image input by the image input unit, and a feature distribution calculation unit An image change tracking unit that calculates a change state of an image from the average value and the distribution state of the feature amount distribution obtained by the background region, and only the average value is obtained from the calculation result of the change state obtained by the image change tracking unit. If it changes, it is determined that the environmental condition has changed.If only the variance has changed, it is determined that the shooting condition has changed. And a result determination unit that determines that the image has entered the image.
[0014]
Further, the image monitoring method of the present invention,PredeterminedImage input step in which an image obtained from an imaging device is inputIn this image input stepEmpowered imageMin of featuresFeature distribution calculation step for finding clothAnd this featureIn the distribution calculation stepFrom the distribution of the feature values obtained, the peak of the feature value distribution due to the background region is obtained, and this peak is tracked at a predetermined time and imaged.Image change to calculate image change stateTrackingStepsAnd this pictureImage changeTrackingIs the calculation result of the change state obtained in the stepIt is determined that the change of the peak of the distribution of the feature amount due to the tracked background region is determined as an image change due to the change of the environmental condition or the imaging condition, and the distribution of the other feature amount is determined as the image change different from the above image change.Fixed step. Alternatively,An image input step in which an image obtained from a predetermined imaging device is input, a feature distribution calculating step of obtaining a distribution of a feature amount by a background region of the image input in the image input step, and a feature distribution calculating step An image change tracking step of calculating an image change state from the average value and the distribution state of the feature amount distribution by the obtained background region, and only the average value is obtained from the calculation result of the change state obtained by the image change tracking step. If it changes, it is determined that the environmental condition has changed.If only the variance has changed, it is determined that the shooting condition has changed. And a result determination step of determining that the intrusion has occurred in the image.
[0015]
An image input function for inputting an image obtained from an arbitrary image pickup means on a computer-readable recording medium storing a program for operating the computer of the present invention, and an image input function for inputting an image obtained by the image input means. A feature distribution calculation function for calculating a statistical distribution of the feature amount, an image change calculation function for calculating a change state of an image from the feature distribution obtained by the feature distribution calculation means, A program consisting of a result determination function for determining the intrusion of a person or an object for detection from the calculation result of the changed state is stored. It is characterized in that a change is detected separately from an image change caused by intrusion of a detection target person or object.
[0016]
Various information obtained by each function can be recorded on a recording medium such as an optical disk or a magnetic recording medium, and can be appropriately displayed on a display unit such as a display.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a configuration of an embodiment of the present invention will be described with reference to the drawings.
[0018]
FIG. 1 is a block diagram of an image monitoring apparatus according to a first embodiment of the present invention, FIG. 2 is a flowchart of the image monitoring method according to the first embodiment of the present invention, and FIG. FIG. 4 is a diagram illustrating a setting example of a region, FIG. 4 is a diagram illustrating a method of calculating a feature distribution, FIG. 5 is a diagram illustrating a feature distribution calculated at two times under different conditions, and FIG. FIG. 7 is an explanatory diagram of a feature distribution calculation when the automatic adjustment function of FIG. 3 is activated, FIG. 7 is an explanatory diagram of a method of correcting an image using a result from an image change calculating unit, and FIG. FIG. 9 is an explanatory diagram when a background difference process is performed.
[0019]
In the image monitoring apparatus, an image input unit 11, a feature distribution calculation unit 12, an image change tracking unit 13 (image change calculation unit), and a result determination unit 14 are cascaded.
[0020]
An arbitrary image pickup device 101 such as an ITV camera is connected to the image input unit 11. In addition, the result determination unit 14 includes a display device 102 such as a display that displays the determination result, and a communication device 103 that outputs (transmits) the determination result to the outside of the image monitoring device. Note that the communication device 103 can transmit information to a predetermined place wirelessly or online.
[0021]
The operation of the embodiment having such a configuration will be described.
[0022]
(1) A predetermined monitoring area is imaged by the imaging device 101. The captured image is sent to the image input unit 11 (image input step).
[0023]
(2) The video signal continuously output from the imaging device 101 is sequentially A / D converted in the image input unit 11. The converted video signal is stored as a digital image or an image sequence in a storage unit provided in the image input unit 11. Further, it outputs the pixels of the entire image at an arbitrary time or the pixels of an arbitrary area at an arbitrary time to the feature distribution calculating means 2 at the subsequent stage (image input step).
[0024]
(3) From information output from the image input unit 11, a feature amount preset for an arbitrary time or an arbitrary region of an image or an image sequence stored in the image input unit 11 is calculated, and the statistical distribution is calculated. (Characteristic distribution calculation step).
[0025]
Here, the feature amount indicates arbitrary information that can be obtained in each pixel or an arbitrary region. For example, from simple values such as lightness and color information for each pixel, the results of differentiation or integration by space or time, the result of superposition of an arbitrary image filter, statistics such as average and variance, and the difference from a background image created in advance Any scalar or vector quantity that can be calculated from the image, such as the result of performing any object detection or area division processing, such as processing, and the fillet diameter, area, and motion amount of the area selected from the result, as well as any features It is possible to use a combination of quantities.
[0026]
In the present embodiment, the difference between the brightness value at each time and each pixel of the image and the brightness value at each pixel in the background image created in advance is used as the feature amount.
[0027]
That is, the method is based on a method of detecting an image change by a difference process between a captured image and a background image, and the image is composed of brightness information at each pixel (shade image). Is created.
[0028]
Any method can be used as a method of creating the background image. For example, (a) one time (frame) or an image preceding by a specific time is used as a background image as it is (in this case, a continuous difference method). (A) It is known that there is no intrusion of a person or an object. One image is extracted from the image sequence and used. (C) The image is created by performing any operation such as calculating the brightness or the average or a weighted sum of any characteristic amount at each pixel of the image sequence. By performing an arbitrary operation such as applying a median filter or a Kalman filter to the brightness of each pixel or a time series of an arbitrary feature amount in an image sequence (it may be unknown whether there is an intrusion or not). That is.
[0029]
The background image created in this way may be updated according to the time, or the background image created once may not be used and updated.
[0030]
Now, the brightness value at the pixel (x, y) of the image captured at time t is I (x, y, t), and the brightness value of the pixel at the same position in the background image at that time is B (x, y, t) (if the background image is updated temporally, if t changes, the background imageImage brightness value BAlso changes).
[0031]
The difference value D (x, y, t) from the background image, which is the feature amount, is obtained by the following equation (1).
[0032]
(Equation 1)
Figure 0003567114
Figure 0003567114
Here, the value D representing the difference from the background may be obtained by the above-described subtraction, or may be obtained by dividing by the brightness value B of the background pixel to obtain the change ratio with respect to the background. Can be determined by:
[0033]
The feature distribution F (t) at time t is calculated by obtaining a feature amount for each pixel (x, y) belonging to the detection region R set in the image, and obtaining this statistical distribution. The detection region R may be the entire image or may be set to any shape as shown in FIG.
[0034]
Here, the feature distribution F is simplyOf the difference value D (feature amount)When obtained as a histogram, the graph of FIG. 4 is obtained. The case where a feature distribution is obtained as a histogram is described as follows.
[0035]
(Equation 2)
Figure 0003567114
It is.
[0036]
In this manner, a feature distribution F (t) at an arbitrary time t is obtained.
[0037]
In FIG. 4, the detection area is set to a rectangle, and an image is shown in the detection area. In addition, since the captured image has no change compared to the background image, the characteristic distribution F has a shape that is close to a normal distribution with a single peak and an average of 0.
[0038]
(4) The image change tracking unit 13 analyzes the temporal change of the feature distribution at the arbitrary time t calculated by the feature distribution calculation unit 12 as described above, and outputs the result as follows.Judgment(Step of calculating image change).
[0039]
Now, as shown in FIG. 5, an example in which the characteristic distributions F (t1) and F (t2) are obtained at two times t1 and t2 will be described.TrackingThe processing in the unit 13 will be described.
[0040]
In FIG. 5, there is no intruder such as a person or a vehicle at time t1, and there is almost no change from the background. On the other hand, at time t2, there is a change in the sunshine intensity such as clearing of the clouds and the like, and there is an environmental change such that the entire screen becomes bright, and a person (brighter than the background) enters. .
[0041]
At time t1, since there is almost no difference (brightness difference) between the captured image at time t1 and the background image, the characteristic distribution F (t1) is a single-peak distribution with an average of 0 as in FIG.
[0042]
On the other hand, in the feature distribution F (t2) obtained at time t2, since the brightness value of each pixel in the background area other than the person becomes uniformly large (brighter), the average value of the distribution coming from the background part is 0 or more. Becomes larger (p22), and the distribution of the person region can be reduced to a portion darker than the background (p21), and the feature distribution F (t2) is obtained as a bimodal combination of these two distributions.
[0043]
Here, an image change is detected by a conventional simple difference processing between a captured image and a background image.
[0044]
That is, in the case where the change is detected based on the magnitude of the value D in each pixel, the brightness change of the background itself is larger than the brightness change caused by the intruding person at the time t2. In this case, only the intruding person cannot be correctly detected, for example, the whole background is erroneously detected as an image change in addition to the intruding person.
[0045]
To avoid such adverse effects in background subtraction,TrackingThe unit 13 distinguishes between an image change caused by a background change and an image change caused by an intrusion of an object by calculating a peak (peak) of a feature distribution based on a background region at each time.
[0046]
First, the peak of the feature distribution at each time is obtained. Since there is only one peak at time t1, a peak can be easily obtained. However, at time t2, since there are two (plural) peaks, it is necessary to distinguish each peak.
[0047]
As a method of obtaining the peak by distinguishing it, the simplest is a method in which the local maximum value in the feature distribution is regarded as the peak. Further, there is a method such as an EM algorithm for approximating a complicated distribution by a sum of a plurality of normal distributions (see References 1 and 2).
[0048]
[Reference Document 1] ... A. Dempster, N.M. Laird, and D.M. Rubin, Maximum likelihood from complete data via the EM algorithm, Journal of the Royal Statistical Society, 39 (Series B): 191-38.
[Reference Document 2] ... N. Friedman, S.M. Russell, Image Segmentation in video sequences: A probabilistic approach, Proc. Thirdenth Conf. on Uncertainty in Artificial Intelligence (UAI), 1997.
Using this method, the normal distribution p (x) with mean μ and standard deviation σ is expressed as follows:
(Equation 3)
Figure 0003567114
Figure 0003567114
If parameters such as the mean, standard deviation, and weight of the normal distribution corresponding to p21 and p22 are represented by μ21, σ21, w21 and μ22, σ22, w22, the characteristic distribution F (t2) becomes two normal distributions as follows. It can be approximated by a weighted sum of distributions, and p21 and p22 can be distinguished.
[0049]
(Equation 4)
Figure 0003567114
Figure 0003567114
Here, in order to correctly detect only the human intrusion area at time t2, it is necessary to determine which of the plurality (two in this example) of distributions is due to the background area.
[0050]
For this purpose, the closeness of the distribution with the distribution by the background region at the previous time t1 (in this example, there is only p1) is determined, and the close ones are compared with the background region.ToThen, the distribution of the background area at each time is calculated. As the distribution closeness S, for example, the Euclidean distance between parameters in each distribution can be calculated as follows.
[0051]
(Equation 5)
Figure 0003567114
Figure 0003567114
The distribution closeness S can be calculated not only by the distance between the parameters but also by any calculation using each distribution.
[0052]
In this way, the closeness S is obtained from p21 and p22, and it can be seen that the distribution closer to p1 is the distribution based on the background area (p22 in this example; a downward arrow on the right side of FIG. 5).
[0053]
As described above, the image change tracking unit 13 tracks the distribution of the background region at each time, and sends the result to the next result determination unit 14.
[0054]
In the above-described embodiment, the case where there is an environmental change in the background has been described. However, an image may be changed by an automatic adjustment function such as an AGC included in an imaging unit such as a camera.
[0055]
In FIG. 6, the feature distribution sequences F (t1) to F (t4) at the respective times t1 to t4 are obtained and described on the right side (in the drawing) of the captured image, respectively. This shows a case where the brightness of the entire image changes due to the intrusion of a white vehicle into the detection area despite the fact that there is no change in the imaging area.
[0056]
At time t1 before the intrusion, there is no significant change between the captured image and the background image, and thus the characteristic distribution F (t1) is obtained as a single-peak distribution as in FIG.
[0057]
Subsequently, when the vehicle enters as time t2, t3, and t4 elapses, the vehicle is white, and the imaged area (pixels of the vehicle) is brighter and larger than the background. Therefore, another peak (peak) starts to be formed in the plus part of the feature distribution and gradually increases, and a bimodal feature distribution is obtained.
[0058]
At this time, the invasion of a bright (white) vehicle area causes the AGC function of the camera to work, thereby correcting the brightness in a direction to darken the entire image. Therefore, the brightness becomes dark even in the background area where there is no environmental change. I will. In the case where the automatic adjustment function of the camera works as described above, the conventional monitoring device cannot correctly detect only the intruding object from the image change, but by using the image change tracking unit 13 of the present invention, Even if the background is fluctuating, the feature distribution is tracked over time (downward arrow in the graph of FIG. 6), and the result is determined in the next step to determine the details. It can be detected by distinguishing between areas.
[0059]
(5) Finally, the result determination unit 14 performs image processing using the image change tracking information obtained by the previous image change tracking unit 13 in chronological order, and then adds a person in the captured image. It is determined whether there is an intrusion of an object or an object (determination step).
[0060]
The result determination in FIG. 5 (when there is a background change and a person invasion at time t2) will be described.
[0061]
Since the image distribution calculation unit 3 tracks the feature distribution of the background region (p1 → p22 in FIG. 5), the image at time t2 is corrected using this information, and the brightness (feature amount) ) Remove the effects of change.
[0062]
That is, using the average value μ22 of the background area distribution p22 at the time t2 and subtracting the brightness value of each pixel of the image by this value to correct the background variation, as shown in the lower part of FIG. The brightness can be the same as a previously created background image. At this time, the distribution of the background region is p22 ', and the average value is also μ22'. The image at time t2 before the correction is as shown in the middle part of FIG.
[0063]
Here, as a method of correcting the image, as shown in the present embodiment, when the difference D between the captured image and the background image is used as the feature amount, the average value of the background distribution is calculated from the brightness value of each pixel. If another feature amount such as a change ratio between the brightness value of a captured pixel and the brightness value of a background pixel is used, the image is corrected by an arbitrary method according to the feature calculation method. be able to.
[0064]
If the difference processing with the background image is performed without correcting the image, the entire background may be detected as an image change as described above. However, if the difference processing from the background image is performed using the corrected image as in the present embodiment, the background change is not detected as shown in FIG. 8 and only the area of the intruding object is detected. Will be.
[0065]
In this way, even if the background image changes due to environmental changes such as changes in sunlight or the camera's automatic adjustment function, it is possible to correctly detect only the intrusion of a person or object, which is the primary detection purpose of the monitoring device. It is possible to greatly reduce erroneous operations such as erroneously issuing a warning to the user.
[0066]
Next, the configuration and operation of an image monitoring method according to a second embodiment of the present invention will be described with reference to FIG.
[0067]
The feature of the second embodiment is that by estimating a change in an environmental condition or an imaging condition from a result of the difference processing, it is determined whether or not the detected image change is a detection purpose, thereby improving reliability. is there.
[0068]
FIG. 9 is a feature distribution diagram calculated from images captured under various conditions.
[0069]
If the difference between the captured image and the background image is detected to detect a change in the image to detect the intrusion of a person or an object, and if the captured image hardly changes from the background image, the feature distribution (Here, the case where the brightness difference from the background image is used as the feature amount will be described, as in the previous examples.) The result is a single-peak normal distribution with an average value of 0 (upper part in FIG. 9), and When the brightness of the entire captured image changes (for example, becomes darker) due to only the environmental change such as the change, the average value shifts from 0 to, for example, the right side while maintaining the shape of the feature distribution (the middle part in FIG. 9).
[0070]
However, in the upper and middle diagrams of FIG. 9, it is assumed that there is no intruder, and the feature distribution is equal to the feature distribution of the background region.
[0071]
In addition, when the installation condition of the imaging means such as a camera is poor and a vehicle such as an automobile or a train passes nearby, or when the camera itself vibrates due to the influence of a strong wind or the like, the background captured in the image is When the position of the object shifts, the variance increases while the average value of the feature distribution remains the same.
[0072]
From these facts, it is possible to infer from the change in the characteristic distribution the change in the environmental conditions and the shooting conditions at that time, contrary to the change in the characteristic distribution obtained in the captured image.
[0073]
For example, if only the average value of the feature distribution in the background area changes, environmental conditions such as changes in sunlight intensity have changed, and if the variance only changes while the average value remains the same, the camera vibrates. It can be determined that the condition has changed.
[0074]
In this way, when detecting an image change by image processing such as background subtraction, by estimating a change in an environmental condition or a shooting condition at that time from a feature distribution, the detected image change is truly a person or an object. It can be used as an index for determining whether or not the change is due to a change in environmental conditions or photographing conditions.
[0075]
Further, when it is determined that a change in the environmental condition or the photographing condition has occurred, a malfunction of the image monitoring apparatus can be significantly reduced, for example, by not giving a warning to the user.
[0076]
Next, the configuration and operation of the image monitoring method of the present invention will be described with reference to FIG.
[0077]
The feature of the third embodiment is that the weather and the sunshine state at the time when the image is being captured are estimated from the result of the difference processing, and the reliability of the extraction of the target that is the true detection purpose is improved.
[0078]
FIG. 10 is a feature distribution diagram calculated in various weather conditions and sunshine conditions (time).
[0079]
As described in the first embodiment, the image change calculation unit 3 has a method that can approximate a feature distribution having a complicated shape by a sum of a plurality of normal distributions. By distinguishing, it is possible to estimate the weather and the sunshine state at the time of capturing the image.
[0080]
The upper part of FIG. 10 shows an example of a feature distribution in a case where a vehicle enters the image (assuming that there is no background change). However, as described in the first embodiment, there is entry of an object. In this case, a multimodal feature distribution is obtained in which two (plural) distributions of a peak due to the background region and a peak due to the intruding object region are added.
[0081]
In the upper diagram, it is assumed that the weather is cloudy. However, as shown in the middle diagram of FIG. 10, when the weather is clear, the “shadow” of the intruding object is reflected in the image, and The distribution due to the region appears darker than the distribution due to the background in the feature distribution.
[0082]
Also, when the time changes and it becomes nighttime, the vehicle turns on the headlights, so that the distribution of the reflection area of the headlights appears brighter than other distributions.
[0083]
Furthermore, although not shown, in the case of rainy or snowy weather, a large number of small image changes due to raindrops and the like appear. The characteristics of the feature distribution may change, such as a large variance being observed.
[0084]
In this way, by measuring the peaks and properties of a specific feature distribution, information about the time zone (sunshine condition) such as whether the time when the image was taken is daytime or nighttime, and the imaging area at that time. It is possible to estimate weather conditions such as whether it is sunny, cloudy, rainy, snowy, or fogy.
[0085]
In addition, it is possible to estimate the weather and the sunshine state from a captured image without relying on means such as an input operation of an imaging environment or the like by various other sensors or humans, and to optimally set conditions of the image monitoring device based on the estimation result. Thereby (raising or lowering the sensitivity of the camera, resetting of the detection area, etc.), malfunctions can be greatly reduced, and the reliability of detection of the detection target object can be improved.
[0086]
It is needless to say that the present invention is not limited to the above embodiment, and can be variously modified and implemented without departing from the gist thereof. For example, by providing a plurality of imaging devices, the reliability of identifying a detection target can be improved.
[0087]
【The invention's effect】
As described above, according to the present invention, the detection performance of an image monitoring device can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram of a first embodiment of an image monitoring apparatus according to the present invention.
FIG. 2 is a flowchart of a first embodiment of the image monitoring method of the present invention.
FIG. 3 is a diagram showing an example of setting a detection area in an image.
FIG. 4 is an explanatory diagram of a feature distribution calculation method.
FIG. 5 is an explanatory diagram of a feature distribution calculated at two times with different conditions.
FIG. 6 is an explanatory diagram of calculation of a characteristic distribution when an automatic adjustment function of an imaging device is activated.
FIG. 7 is an explanatory diagram of a method of correcting an image using a result from an image change calculation unit.
FIG. 8 is a diagram illustrating a case where background subtraction processing is performed on an image after correction.
FIG. 9 is a feature distribution diagram calculated from images taken under various conditions for explaining a second embodiment of the image monitoring method of the present invention.
FIG. 10 is a feature distribution diagram calculated in various weather and sunshine states for explaining a third embodiment of the image monitoring method of the present invention.
[Explanation of symbols]
11 Image input section
12 Feature distribution calculator
13 Image change tracking unit (image change calculation unit)
14 Result judgment part
101 Imaging device
102 Display device
103 Communication device

Claims (8)

所定の撮像装置から得られる画像が入力される画像入力部と、
前記画像入力部により入力された画像の特徴量の分布を求める特徴分布算出部と、
前記特徴分布算出部にて求められた特徴量の分布から背景領域による特徴量の分布のピークを求め、このピークを所定時刻毎に追跡し画像の変化状態を算出する画像変化追跡部と、
前記画像変化追跡部により求められた変化状態の算出結果から、追跡した背景領域による特徴量の分布のピークの変動を環境条件や撮影条件の変動による画像変化と判定し、それ以外の特徴量の分布を前記画像変化とは異なる画像変化と判定する結果判定部と、
が設けられることを特徴とする画像監視装置。
An image input unit into which an image obtained from a predetermined imaging device is input,
A feature distribution calculating unit for determining the distribution of the feature amount of the input image by the image input unit,
The peak of the distribution of the feature amount by the background area from the distribution of the feature amount obtained by the feature distribution calculating unit, and an image change tracking unit for calculating a change state of track and picture image of this peak every predetermined time,
Calculation result whether these changes state determined by the image change tracking unit, the variation of the peak of the distribution of the feature amount by the tracked background region is determined as the image changes due to variations in environmental conditions and shooting conditions, other features of the A result determination unit that determines the amount distribution as an image change different from the image change,
An image monitoring device, comprising:
前記画像変化追跡部において、前記背景領域の特徴量の分布のピーク位置を求め、このピーク位置に応じて画像背景変動分に応じて補正し、この補正された画像と背景画像とを差分処理を行うことを特徴とする請求項1記載の画像監視装置。In the image change tracking unit, obtains the peak position of the distribution of the feature amount before Symbol background area, corrected according to the image background variation in accordance with the peak positions, the difference process and the corrected image and the background image image monitoring apparatus according to claim 1, wherein that you perform. 前記画像変化追跡部において、前記差分処理を行った画像を用いて背景画像を更新することを特徴とする請求項記載の画像監視装置。In the image change tracking unit, the image monitoring apparatus according to claim 2, wherein users update the background image using the image subjected to pre-Symbol differential processing. 所定の撮像装置から得られる画像が入力される画像入力部と、An image input unit into which an image obtained from a predetermined imaging device is input,
前記画像入力部により入力された画像の背景領域による特徴量の分布を求める特徴分布算出部と、  A feature distribution calculation unit that determines a distribution of a feature amount based on a background region of the image input by the image input unit;
前記特徴分布算出部にて求められた背景領域による特徴量の分布の平均値と分布状態とから画像の変化状態を算出する画像変化追跡部と、An image change tracking unit that calculates a change state of an image from an average value and a distribution state of the distribution of the feature amount by the background region obtained by the feature distribution calculation unit,
前記画像変化追跡部により求められた変化状態の算出結果から、平均値のみが変動している場合には環境条件が変化しているものと判定し、分散のみが変動している場合には撮影条件が変化しているものと判定し、両者ともに変動している場合には画像内への侵入であると判定する判定部と、From the calculation result of the change state obtained by the image change tracking unit, if only the average value changes, it is determined that the environmental condition has changed, and if only the variance has changed, shooting is performed. A determination unit that determines that the condition has changed, and determines that the intrusion into the image has occurred when both have changed;
が設けられることを特徴とする画像監視装置。An image monitoring device, comprising:
所定の撮像装置から得られる画像が入力される画像入力ステップと、
記画像入力ステップにて入力された画像の特徴量の分布を求める特徴分布算出ステップと、
前記特徴分布算出ステップにて求められた特徴量の分布から背景領域による特徴量の分布のピークを求め、このピークを所定時刻毎に追跡し画像の変化状態を算出する画像変化追跡ステップと、
前記画像変化追跡ステップにて求められた変化状態の算出結果から、追跡した背景領域による特徴量の分布のピークの変動を環境条件や撮影条件の変動による画像変化と判定し、それ以外の特徴量の分布を前記画像変化と異なる画像変化と判定する結果判定ステップと、
を有することを特徴とする画像監視方法。
An image input step in which an image obtained from a predetermined imaging device is input,
A feature distribution calculating step of obtaining a distribution of the feature amount of the input image in the previous SL image input step,
The peak of the distribution of the feature amount by the background area from the distribution of the feature amount obtained by the feature distribution calculating step, an image change tracking step of calculating a change state of track and picture image of this peak every predetermined time,
Calculation result whether these changes state obtained by the image change tracking step, the variation in the peak of the distribution of the feature amount by the tracked background region is determined as the image changes due to variations in environmental conditions and shooting conditions, other features of the and results determination Priority determination step of determining a distribution of amount as the image variation different image changes,
An image monitoring method, comprising:
前記画像変化追跡ステップにおいて、前記背景領域の特徴量の分布のピーク位置を求め、このピーク位置に応じて画像背景変動分に応じて補正し、この補正された画像と背景画像とを差分処理を行うことを特徴とする請求項5記載の画像監視方法。In the image change tracking step, a peak position of the distribution of the feature amount of the background region is obtained, corrected in accordance with the amount of image background variation in accordance with the peak position, and a difference process is performed between the corrected image and the background image. The image monitoring method according to claim 5, wherein the method is performed. 前記画像変化追跡ステップにおいて、前記差分処理を行った画像を用いて背景画像を更新することを特徴とする請求項6記載の画像監視方法。The image monitoring method according to claim 6, wherein in the image change tracking step, a background image is updated using the image on which the difference processing has been performed. 所定の撮像装置から得られる画像が入力される画像入力ステップと、An image input step in which an image obtained from a predetermined imaging device is input,
前記画像入力ステップにより入力された画像の背景領域による特徴量の分布を求める特徴分布算出ステップと、A feature distribution calculating step of obtaining a feature amount distribution by a background region of the image input by the image input step;
前記特徴分布算出ステップにて求められた背景領域による特徴量の分布の平均値と分布状態とから画像の変化状態を算出する画像変化追跡ステップと、An image change tracking step of calculating a change state of an image from an average value and a distribution state of the distribution of the feature amount by the background region obtained in the feature distribution calculation step,
前記画像変化追跡ステップにより求められた変化状態の算出結果から、平均値のみが変動している場合には環境条件が変化しているものと判定し、分散のみが変動している場合には撮影条件が変化しているものと判定し、両者ともに変動している場合には画像内への侵入であると判定する判定ステップと、From the calculation result of the change state obtained in the image change tracking step, if only the average value changes, it is determined that the environmental condition has changed, and if only the variance has changed, shooting is performed. A determination step of determining that the condition has changed, and determining that the condition is an intrusion into the image when both are changing;
を有することを特徴とする画像監視方法。An image monitoring method, comprising:
JP34934599A 1999-12-08 1999-12-08 Image monitoring apparatus and image monitoring method Expired - Fee Related JP3567114B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34934599A JP3567114B2 (en) 1999-12-08 1999-12-08 Image monitoring apparatus and image monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34934599A JP3567114B2 (en) 1999-12-08 1999-12-08 Image monitoring apparatus and image monitoring method

Publications (2)

Publication Number Publication Date
JP2001169270A JP2001169270A (en) 2001-06-22
JP3567114B2 true JP3567114B2 (en) 2004-09-22

Family

ID=18403155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34934599A Expired - Fee Related JP3567114B2 (en) 1999-12-08 1999-12-08 Image monitoring apparatus and image monitoring method

Country Status (1)

Country Link
JP (1) JP3567114B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100696728B1 (en) 2003-06-09 2007-03-20 가부시키가이샤 히다치 고쿠사이 덴키 Apparatus and method for sending monitoring information
JP2005135014A (en) 2003-10-28 2005-05-26 Hitachi Kokusai Electric Inc Object detection system
CN103824407B (en) * 2006-06-02 2017-05-24 传感电子有限责任公司 Systems and methods for distributed monitoring of remote sites
JP4962363B2 (en) * 2008-03-14 2012-06-27 トヨタ自動車株式会社 Image processing device
JP5051622B2 (en) * 2008-03-31 2012-10-17 サクサ株式会社 Image processing method and image processing apparatus
JP7147746B2 (en) 2017-03-30 2022-10-05 日本電気株式会社 VIDEO MONITORING SYSTEM, VIDEO MONITORING METHOD AND VIDEO MONITORING PROGRAM

Also Published As

Publication number Publication date
JP2001169270A (en) 2001-06-22

Similar Documents

Publication Publication Date Title
JP3123587B2 (en) Moving object region extraction method using background subtraction
CA2680646C (en) Moving object noise elimination processing device and moving object noise elimination processing program
US6037976A (en) Method and apparatus for determining ambient conditions from an image sequence, such as fog, haze or shadows
US10032283B2 (en) Modification of at least one parameter used by a video processing algorithm for monitoring of a scene
US9313415B2 (en) Method and system for adjusting exposure settings of video cameras
EP2549738B1 (en) Method and camera for determining an image adjustment parameter
KR101625538B1 (en) Car Number Recognition system
JP3567114B2 (en) Image monitoring apparatus and image monitoring method
JP2003051076A (en) Device for monitoring intrusion
JPH09282452A (en) Monitor
JP4025007B2 (en) Railroad crossing obstacle detection device
CN1988653A (en) Night target detecting and tracing method based on visual property
US20150043775A1 (en) Object detection device, object detection method and program
KR101823655B1 (en) System and method for detecting vehicle invasion using image
JPH0973541A (en) Object detection device/method
CN111199177A (en) Automobile rearview pedestrian detection alarm method based on fisheye image correction
KR102171384B1 (en) Object recognition system and method using image correction filter
JP4740755B2 (en) Monitoring device using images
KR101826715B1 (en) System and method for detecting vehicle invasion using room camera
TWI476735B (en) Abnormal classification detection method for a video camera and a monitering host with video image abnormal detection
JPH0337356B2 (en)
JPH05300516A (en) Animation processor
JP3736836B2 (en) Object detection method, object detection apparatus, and program
Branca et al. Cast shadow removing in foreground segmentation
Zaihidee et al. Comparison of human segmentation using thermal and color image in outdoor environment

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040614

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees