JP3995832B2 - Image sensor - Google Patents

Image sensor Download PDF

Info

Publication number
JP3995832B2
JP3995832B2 JP15550199A JP15550199A JP3995832B2 JP 3995832 B2 JP3995832 B2 JP 3995832B2 JP 15550199 A JP15550199 A JP 15550199A JP 15550199 A JP15550199 A JP 15550199A JP 3995832 B2 JP3995832 B2 JP 3995832B2
Authority
JP
Japan
Prior art keywords
image
image sensor
area
detection target
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP15550199A
Other languages
Japanese (ja)
Other versions
JP2000350191A (en
Inventor
信昭 清水
司光 平林
久雄 大田和
小沼  知恵子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Hitachi Ltd
Original Assignee
Secom Co Ltd
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd, Hitachi Ltd filed Critical Secom Co Ltd
Priority to JP15550199A priority Critical patent/JP3995832B2/en
Publication of JP2000350191A publication Critical patent/JP2000350191A/en
Application granted granted Critical
Publication of JP3995832B2 publication Critical patent/JP3995832B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、監視領域内に設置される画像センサ、特に、監視カメラのレンズに張り付いた虫等の非検出対象移動体と、監視カメラから離れた位置にいる侵入者等の検出対象移動体とを区別することができる画像センサに関する。
【0002】
【従来の技術】
従来の画像センサとしては、建物の出入口やその他の監視領域の画像を継続して撮影し、撮影した画像と基準画像とを比較し、変化のある領域の大きさから侵入者の有無を判定する画像監視装置がある。
これら従来の画像センサでは、変化のある領域における侵入者の場合における画像の急激な変化と、例えば、エアコンによるゆっくりしたカーテンの揺れや太陽光が監視領域に差し込むなどの画像の徐々の変化とを区別するために、基準画像を一定時間ごとに最新の撮影した画像にて順次更新記憶している。
【0003】
図7は、監視カメラのレンズに張り付いた虫の状態を示す図である。
図7に示すように、所望の監視領域を撮影するように設置された監視カメラのレンズに張り付いた虫1は、撮影された画像上に、遠くにいる侵入者と同一サイズの移動体として写る。更に、矢印2の方向に虫が移動すると、侵入者の移動と同様な状態として写る。
【0004】
【発明が解決しようとする課題】
上述したように、従来の画像監視装置では、監視カメラのレンズに張り付いた虫と、監視カメラから離れた位置の侵入者とは、概ね同一サイズの画像となる。更に、虫が移動すると、侵入者の移動と同様な状態を呈する。従って、監視カメラのレンズに張り付いた虫を、侵入者と誤って判定することがあり、誤報によって監視装置の信頼性を損ねるという問題点があった。
【0005】
従って、本発明の目的は、従来の問題点を解決して、監視カメラのレンズに張り付いた虫等の非検出対象移動体と、侵入者等の検出対象移動体とを区別でき、非検出対象移動体による誤報を生じることなく、検出対象移動体を検出することができる信頼性の高い画像センサを提供することにある。
【0006】
【課題を解決するための手段】
発明者等は、上述した従来の問題点を解決するため、鋭意研究を重ねた。その結果、監視カメラのレンズに張り付いた虫の画像を子細に観察すると、焦点の合わない非焦点領域を有しており、従って、画像上の非焦点領域を非検出対象移動体と判定することができることを知見した。これは、監視カメラが監視領域における扉や机等に焦点を合致させるよう自動焦点調整機能を有しているが、レンズに張り付いた虫のように直近の物体に焦点を合致させることができないことに起因している。
【0007】
更に、撮影された画像の変化領域の輝度を子細に観察すると、変化領域の重心から離れ、変化領域と背景との境界に近づくほど変化領域と背景との輝度の差が少なくなっており、即ち、虫の画像は境界に近づくほど背景の輝度値に近づく、従って、重心から離れ、境界に近づくほど変化領域と背景との輝度の差が少なくなるとき、変化領域を非検出対象移動体と判定することができることを知見した。
【0008】
更に、変化領域における輝度分布を求めると、輝度分布が二次関数、三角関数、ガウス関数等の関数に近似していることが判明し、従って、変化領域の輝度分布を求め、その輝度分布が所定の関数に近似しているとき、変化領域を非検出対象移動体と判定することができることを知見した。
【0009】
更に、現画像と基準画像の差分二値化画像を求め、その重心点を通る線分において、差分二値化領域に対応する現画像の輝度分布を得ることにより、非検出対象移動体をより精度良く判定することができることを知見した。
【0010】
この発明は、上述した知見に基づいてなされたものであり、監視領域を撮影する撮像手段と、前記撮像手段にて撮影された画像の変化領域に基づき検出対象移動体の有無を判定する画像処理手段と、を有する画像センサであって、前記撮像手段は、前記変化領域の発生前後を通じ前記検出対象移動体が存在しうる該撮像手段から離れた領域に焦点が合致している
【0011】
この発明の画像センサの第の態様は、監視領域を撮影する撮像手段と、前記撮像手段にて撮影された画像の変化領域に基づき検出対象移動体の有無を判定する画像処理手段と、を有する画像センサであって、前記撮像手段は、前記変化領域の発生前後を通じ前記検出対象移動体が存在しうる該撮像手段から離れた領域に焦点が合致しており、
前記画像処理手段は、前記変化領域の重心から離れ、前記変化領域と背景との境界に近づくほど前記変化領域と前記背景との輝度の差が少なくなるとき、前記変化領域を非検出対象移動体と判定することを特徴とするものである。
【0012】
この発明の画像センサの第の態様は、前記変化領域における輝度分布を求め、該輝度分布が所定の関数に近似できるとき、前記変化領域を非検出対象移動体と判定することを特徴とするものである。
【0013】
この発明の画像センサの第の態様は、前記所定の関数は、二次関数、三角関数、または、ガウス関数からなっていることを特徴とするものである。
【0014】
この発明の画像センサの第の態様は、前記輝度分布を画像の重心点を通る縦方向、横方向および斜め方向のそれぞれにおいて求めることを特徴とするものである。
【0015】
この発明の画像センサの第の態様は、現画像と基準画像の差分二値化画像を求め、得られた差分二値化画像の重心点を求め、前記重心点を通る水平線分、垂直線分、および、斜め線分において、差分二値化領域に対応する現画像の輝度分布を得ることを特徴とするものである。
【0016】
【発明の実施の形態】
先ず、この発明の画像センサの態様について詳細に説明する。
本発明の画像センサは、監視領域を撮影する監視カメラ等の撮像手段と、撮像手段にて撮像された画像の変化領域に基づき検出対象移動体の有無を判定する画像処理手段とを備えている。
本発明の画像センサは、建物内の例えば複数の部屋のそれぞれに設置されて、監視対象(監視ポイント)を含む監視領域を撮影し、得られた画像上に現れる焦点の合っていない非焦点領域を非検出対象移動体と判定し、張り付き虫等による誤報を排除して、侵入者等の検出対象移動体の有無を精度良く判定する。
【0017】
更に、この発明の画像センサにおいては、撮影された画像の変化領域の重心を求め、重心から離れ、変化領域と背景との境界に近づくほど変化領域と背景との輝度の差が少なくなるとき、前記変化領域を非検出対象移動体と判定する。
更に、この発明の画像センサにおいては、撮影された画像の変化領域における輝度分布を求め、輝度分布が所定の関数に近似できるとき、変化領域を非検出対象移動体と判定する。
【0018】
更に、この発明の画像センサにおいては、上述した所定の関数は、二次関数、三角関数、または、ガウス関数からなっている。経験値から、非検出対象移動体は、求めた輝度分布が上述した関数に極めて近似している。
更に、この発明の画像センサにおいては、上述した輝度分布を画像の重心点を通る水平方向だけではなく、重心点を通る縦方向、横方向および斜め方向のそれぞれにおいて求めると、更に、精度が向上する。
【0019】
更に、この発明の画像センサにおいては、現画像と基準画像の差分二値化画像を求め、得られた差分二値化画像の重心点を求め、重心点を通る水平線分、垂直線分、および、斜め線分において、差分二値化領域に対応する現画像の輝度分布を得る。
【0020】
更に、本発明における画像処理の方法を詳細に説明する。
監視カメラのレンズに張り付いた虫等は、焦点があっていないので、焦点がぼけた画像として得られる。これに対して、侵入者はある程度テクスチャのある画像として得られる。従って、両者の特徴を利用することによって、差分抽出画像の焦点が合わない度合い(以下、「ピンぼけ度合い」という)を計算し、所定の閾値で処理して、非焦点領域を虫等の非検出対象移動体と判定する。
【0021】
ピンぼけ度合いの計算方法として、差分抽出画像の輝度値データ(二次元データ)と、ピンぼけ状態を表す関数(二変数関数)とをマッチングさせて、マッチング度合いをピンぼけ度合いとする方法がある。
【0022】
更に、ピンぼけ度合いの別の計算方法として、差分抽出画像の重心を通る直線(ライン)における輝度値データ(一次元データ)を取り出し、ピンぼけ状態を表す関数(一変数関数)と適合(マッチング)させて、マッチング度合いをそのラインでのピンぼけ度合いとする方法がある。この計算方法において、更に、ラインとして、いくつかの方向のラインを採用し、それらのラインのピンぼけ度合いの平均を元の差分抽出画像のピンぼけ度合いとする。
【0023】
この場合には、ラインの取り方として、差分抽出画像の重心を通る、例えば、X方向、Y方向の2方向や、それに加えて斜め45度のラインを加えた4方向等がある。ピンぼけ状態を表す関数としては、上述した、二次関数、余弦関数(コサイン)、ガウス関数等が近似的に使用できる。マッチング方法としては、最小二乗法などの一般的なマッチング方法が使用できる。
【0024】
マッチング度合いとして、最小二乗法を使用する場合には、その最小二乗誤差の平均を輝度値の分布の幅で正規化し、マッチング度合いとして使用する。その場合、誤差が小さいほどマッチングしているとみなす。他のマッチング方法を使用した場合でも同様に誤差をマッチング度合いとして使用する。
【0025】
以下に、図面を参照しながら更に具体的に説明する。
図2は監視カメラのレンズに張り付いた虫の画像を示す図である。図2(a)に示す画像中の矩形の枠で囲まれた内に焦点の合っていない非焦点領域が存在する。図2(b)に、非焦点領域を拡大して示す。非焦点領域を鮮明にするために背景を黒くしている。図2(b)から明らかなように、撮影された画像の変化領域において、中心部(重心部)から境界に近づくほど輝度が高くなっている。即ち、背景との関係では、重心部から境界に近づくほど背景との輝度の差が少なくなっている。
【0026】
図6は、非焦点領域の重心点、輝度値、位置の関係を示す図である。図6から明らかなように、非焦点領域の重心点を中心に、中心から遠ざかり境界に向って、左右対象に輝度値が高くなっている。
【0027】
図3は、撮影された画像の変化領域における輝度分布の求め方を示す図である。非焦点領域の画像データを準備し、図3に示すように、非焦点領域の重心(Jx,Jy)を求める。次いで、重点を通る1ライン(図3(a)の例ではX方向)の輝度値データを求める。誤判定の危険性を避けるために、1ラインの輝度値データのみで判断するだけではなく、更に、精度を高めるために、重点を通る複数のライン(図3(b)の例では縦横斜め方向)の輝度値データを求める。
【0028】
図4は、輝度値データを展開した状態を示す図である。図4に示すように、重点を通るX方向の1ラインの輝度値データを展開すると、放物線(2次曲線)に極めて近似している。輝度値の分布は、上述したように、経験的に、二次関数、三角関数、ガウス関数に高い確率で近似している。
【0029】
次に、本発明の画像センサを適用した監視システムの全体構成を説明する。
監視対象の建物にコントローラが設置され、このコントローラに複数の画像センサが接続される。なお、コントローラには、火災センサ、非常ボタン、モード設定器等を接続してもよい。コントローラは、通信回線としての電話回線を介して、遠隔地の監視センタに設けられた警備センター装置と接続される。
【0030】
画像センサとコントローラとの接続は、アナログ信号線とディジタル信号線とによって行われる。アナログ信号線は、同軸ケーブルで構成され、映像信号(NTSC方式)を伝達し、そして、ディジタル信号線は、ツイストペア線で構成され、ディジタル信号線による制御信号を伝達する。
【0031】
次に、監視システムの全体の動作について簡単に説明する。
モード設定器は、監視システムを警戒解除モードまたは警戒セットモードに設定する。警戒セットモード時に画像センサが異常を検出すると、コントローラは電話回線を介して警備センター装置に異常が発生したことを示す異常信号を送信する。
【0032】
火災センサ、非常ボタンから異常信号が出力されると、コントローラは、警備モードに関係なく異常の種類、異常発生場所を示すデータを、電話回線を通じて警備センター装置に送信する。
なお、これらの異常信号の検出方法、伝達方法などは当該技術分野において良く知られたものを用いることができる。
【0033】
図1は、本発明の画像センサの一般的な構成を示す図である。図1に示すように、画像センサには、CPU等により構成される制御手段101と電源102が設けられる。装置内部の各部分は、制御手段により制御され、電源から電力の供給を受ける。
【0034】
なお、制御手段101には、現画像を取り込むタイミングを制御するための、図示しない計時手段が備えられている。この計時手段は、例えば0.5秒毎に起動する。
【0035】
電源102は、外部から供給されるAC電源をDC電圧に変換する変換装置から構成される。なお、電源102を画像センサ内に設ける代わりに、コントローラから電力供給をさせても良い。
また、制御手段101には、記憶手段107が接続される。記憶手段107には、画像センサに所定の動作を実行させるためのプログラムを記憶したプログラム領域、パラメータ例えば画像センサの設置高さ・俯角、監視ポイント、感度設定などを記憶したパラメータ領域、ワークエリア、監視領域の状態、すなわち、現在の状態が正常であるか異常であるかの区別を記憶する状態記憶領域、監視領域が警戒セットモードまたは警戒解除モードのいずれかを記憶するモード記憶領域が設けられている。
【0036】
記憶手段107は、更に撮像手段104が撮影した画像を記憶する領域として、基準画像記憶領域、現画像記憶領域、異常画像記憶領域を備えている。現画像記憶領域には、撮像手段104が撮影した、通常光量の画像、制御された光量の画像、照明を使用しないときの画像が記憶される。
【0037】
監視領域を撮影する撮像手段104は、CCDカメラにより構成され、可視領域から赤外領域までの感度を有する。赤外線投光手段103が設けられ、夜間など暗くなった時に、監視領域に赤外線が投光される。
画像処理手段106は、記憶手段107に記憶された通常光量の画像、制御された光量の画像、照明を使用しないときの画像からなる現画像と基準画像とを比較照合して差分をとり2値化する。
【0038】
表示手段108は、LEDにより構成され、異常検出時に点灯し、非検出時には消灯して、異常検出の有無を画像センサの外部に表示する。
通信手段109は、コントローラと信号の送受信を行うインターフェースで、ディジタル信号線によりコントローラと接続される。画像出力手段110は、異常発生時の画像を出力するためのインターフェースで、切換手段111を介してアナログ信号線と接続される。
【0039】
アドレス設定手段112は、ディップスイッチにより構成され、コントローラが画像センサを特定するためのアドレスが設定される。
操作手段105は、電源102をオン・オフするための手段である。更に、操作手段105をオフすると切替手段111は、アナログ信号線の入力側と出力側を接続させて、当該画像センサをアナログ信号線からバイパスさせる。
現画像は、撮像手段で撮影された画像を計時手段の起動する例えば0.5秒毎に現画像記憶領域に記憶する。
【0040】
図5は、この発明の画像センサの張り付き虫を除去するためのフローチャート図である。図5のフローチャートを用いて本発明の画像センサの動作について説明する。
【0041】
撮像手段104によって撮影された通常光量での画像を計時手段が起動(0.5秒)する毎に取り込み(ステップS1)、次いで、予め撮影した基準画像との差分二値化を求める(ステップS2)。この際、差分二値化領域が存在しないときは、原画像を基準画像として画像記憶領域に記憶すると共に、正常と判断される。
【0042】
上述した差分二値化領域が存在するとき、差分二値化画像の重心点を計算する(ステップS3)。次いで、この段階で、侵入者であるか否かを判断し(ステップS4)、侵入者の疑いがあると判断できるとき、次の処理を行う。
【0043】
先ず、重心点を通る水平線分で、差分二値化領域に対応する現画像の輝度値分布を求める(ステップS5)。
次いで、水平方向輝度値分布を二次関数で近似する(ステップS6)。近似計算は、例えば、最小二乗法で行う。
【0044】
更に、近似した二次関数と輝度値との平均二乗誤差を求める(ステップS7)。この際、平均二乗誤差以外(例えば、各点の差の絶対値の和等)でも構わない。
次いで、上述した平均二乗誤差を輝度分布の輝度値幅で割り算し、平均二乗誤差を正規化する(ステップS8)。即ち、輝度値幅で割り算することにより、輝度値レベルに依存せずに誤差評価できる。
【0045】
次いで、正規化平均二乗誤差が所定値以下ならば、水平方向の輝度分布は虫らしいと判定することができる(ステップS9)。即ち、正規化した平均二乗誤差が所定値以下の場合には、近似が正しいといえる。
次いで、重心点を通る水平線分に関して行った、上述した、差分二値化領域に対応する現画像の輝度値分布を求める、水平方向輝度値分布を二次関数で近似する、近似した二次関数と輝度値との平均二乗誤差を求める、平均二乗誤差を輝度分布の輝度値幅で割り算し、平均二乗誤差を正規化することからなる一連の処理を、更に、垂直方向、斜め方向においてそれぞれ実行して、垂直方向、斜め方向の輝度分布について虫らしいかどうかを判定する。
【0046】
その結果、水平方向、垂直方向、斜め方向の全方向で虫らしいかどうかを判定する(ステップS10)。判定の結果、全方向で虫ではないと判定すると、侵入者であると判断し(ステップS11)、全方向で虫らしいと判定すると、虫と判断する(ステップS12)。
上述したように、撮影した画像を処理して輝度値分布を求め、所定の関数で近似することによって、撮影した映像を継続的に人が確認することなく、自動的に非焦点領域を非検出対象移動体と判定することができる。
【0047】
【発明の効果】
上述したように、この発明によると、監視カメラのレンズに張り付いた虫等の非検出対象移動体と、侵入者等の検出対象移動体とを区別でき、非検出対象移動体による誤報を生じることなく、検出対象移動体を検出することができる信頼性の高い画像センサを提供することができる。
【図面の簡単な説明】
【図1】図1は、この発明の画像センサの構成を示す図である。
【図2】図2は、は監視カメラのレンズに張り付いた虫の画像を示す図である。
【図3】図3は、撮影された画像の変化領域における輝度分布の求め方を示す図である。
【図4】図4は、輝度値データを展開した状態を示す図である。
【図5】図5は、この発明の画像センサの張り付き虫を除去するためのフローチャート図である。
【図6】図6は、非焦点領域の重心点、輝度値、位置の関係を示す図である。
【図7】図7は、非焦点領域の重心点、輝度値、位置の関係を示す図である。
【符号の説明】
1.虫
101.制御手段
102.電源
103.赤外線投光手段
104.撮像手段
105.操作手段
106.画像処理手段
107.記憶手段
108.表示手段
109.通信手段
110.画像出力手段
111.切換手段
112.アドレス設定手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image sensor installed in a monitoring area, in particular, a non-detection target moving body such as an insect stuck to the lens of the monitoring camera, and a detection target moving body such as an intruder located away from the monitoring camera. It is related with the image sensor which can distinguish.
[0002]
[Prior art]
As a conventional image sensor, images of building entrances and other monitoring areas are continuously captured, the captured image is compared with a reference image, and the presence / absence of an intruder is determined based on the size of the area that has changed. There is an image monitoring device.
In these conventional image sensors, an abrupt change in the image in the case of an intruder in a changed area, and a gradual change in the image such as a slow curtain swing by an air conditioner or sunlight entering the monitoring area, for example. In order to make a distinction, the reference image is sequentially updated and stored with the latest captured image at regular time intervals.
[0003]
FIG. 7 is a diagram illustrating a state of an insect stuck to the lens of the surveillance camera.
As shown in FIG. 7, the insect 1 stuck to the lens of the surveillance camera installed so as to photograph a desired surveillance area is a moving body of the same size as the intruder who is far away on the photographed image. It is reflected. Furthermore, when the insect moves in the direction of the arrow 2, it appears as if the intruder has moved.
[0004]
[Problems to be solved by the invention]
As described above, in the conventional image monitoring apparatus, the insect stuck to the lens of the monitoring camera and the intruder at a position away from the monitoring camera have substantially the same size image. Further, when the insect moves, the state is similar to the movement of the intruder. Accordingly, there is a problem that the insect stuck to the lens of the surveillance camera may be mistakenly determined as an intruder, and the reliability of the surveillance device is impaired due to false alarms.
[0005]
Therefore, the object of the present invention is to solve the conventional problems, and to distinguish non-detection target moving bodies such as insects attached to the lens of the surveillance camera from detection target moving bodies such as intruders. An object of the present invention is to provide a highly reliable image sensor capable of detecting a detection target moving body without causing erroneous reporting by the target moving body.
[0006]
[Means for Solving the Problems]
Inventors etc. earnestly researched in order to solve the conventional problem mentioned above. As a result, when the image of the insect stuck to the lens of the surveillance camera is closely observed, it has a non-focus area that is out of focus. Therefore, the non-focus area on the image is determined as a non-detection target moving body. I found out that I can do it. This has an automatic focus adjustment function so that the surveillance camera can focus on the door or desk in the surveillance area, but cannot focus on the closest object like an insect stuck to the lens. It is due to that.
[0007]
Further, when the brightness of the changed area of the captured image is closely observed, the difference between the brightness of the changed area and the background decreases as the distance from the center of gravity of the changed area approaches the boundary between the changed area and the background. The insect image approaches the background brightness value as it approaches the boundary.Therefore, when the distance from the center of gravity and the brightness difference between the change region and the background decreases as it approaches the boundary, the change region is determined as a non-detection target moving body. I found out that I can do it.
[0008]
Furthermore, when the luminance distribution in the change region is obtained, it is found that the luminance distribution approximates to a function such as a quadratic function, a trigonometric function, and a Gaussian function. Therefore, the luminance distribution in the change region is obtained and the luminance distribution is It has been found that the change area can be determined as a non-detection target moving body when approximating a predetermined function.
[0009]
Further, by obtaining a difference binarized image between the current image and the reference image, and obtaining a luminance distribution of the current image corresponding to the difference binarized region in a line segment passing through the center of gravity point, the non-detection target mobile body It was found that the judgment can be made with high accuracy.
[0010]
The present invention has been made based on the above-described knowledge, and an image processing unit that captures a monitoring region, and an image process that determines the presence or absence of a detection target moving body based on a change region of an image captured by the image capturing unit. And the imaging means is focused on an area away from the imaging means where the detection target moving body may exist before and after the generation of the change area .
[0011]
According to a first aspect of the image sensor of the present invention, there is provided an imaging unit that captures a monitoring region, and an image processing unit that determines the presence or absence of a detection target moving body based on a change region of an image captured by the imaging unit. The imaging unit has a focus on a region away from the imaging unit where the detection target moving body may exist before and after the generation of the change region,
The image processing means moves the non-detection target moving body when the difference in luminance between the change area and the background decreases away from the center of gravity of the change area and approaches the boundary between the change area and the background. It is characterized by determining.
[0012]
According to a second aspect of the image sensor of the present invention, a luminance distribution in the change area is obtained, and when the luminance distribution can be approximated to a predetermined function, the change area is determined as a non-detection target moving body. Is.
[0013]
According to a third aspect of the image sensor of the present invention, the predetermined function is a quadratic function, a trigonometric function, or a Gaussian function.
[0014]
According to a fourth aspect of the image sensor of the present invention, the luminance distribution is obtained in each of a vertical direction, a horizontal direction and an oblique direction passing through the center of gravity of the image.
[0015]
According to a fifth aspect of the image sensor of the present invention, a difference binarized image between the current image and the reference image is obtained, a barycentric point of the obtained difference binarized image is obtained, and a horizontal line segment and a vertical line passing through the barycentric point are obtained. The luminance distribution of the current image corresponding to the binarized difference area is obtained for the minute and diagonal line segments.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
First, the aspect of the image sensor of this invention is demonstrated in detail.
An image sensor according to the present invention includes an imaging unit such as a monitoring camera that images a monitoring area, and an image processing unit that determines the presence or absence of a detection target moving body based on a change area of an image captured by the imaging unit. .
The image sensor according to the present invention is installed in each of a plurality of rooms in a building, for example, and images a monitoring area including a monitoring target (monitoring point), and an unfocused non-focus area that appears on the obtained image. Is determined as a non-detection target moving body, and false alarms due to sticking insects and the like are eliminated, and the presence or absence of a detection target moving body such as an intruder is accurately determined.
[0017]
Further, in the image sensor of the present invention, when the center of gravity of the change area of the captured image is obtained, the difference between the brightness of the change area and the background decreases as the distance from the center of gravity and approaches the boundary between the change area and the background, The change area is determined as a non-detection target moving body.
Furthermore, in the image sensor of the present invention, the luminance distribution in the changed region of the photographed image is obtained, and when the luminance distribution can be approximated to a predetermined function, the changed region is determined as a non-detection target moving body.
[0018]
Furthermore, in the image sensor of the present invention, the predetermined function described above is a quadratic function, a trigonometric function, or a Gaussian function. From the empirical values, the non-detection target moving body has the obtained luminance distribution very close to the above-described function.
Furthermore, in the image sensor of the present invention, the accuracy is further improved when the above-described luminance distribution is obtained not only in the horizontal direction passing through the center of gravity of the image but also in each of the vertical, horizontal and diagonal directions passing through the center of gravity. To do.
[0019]
Further, in the image sensor of the present invention, a difference binarized image between the current image and the reference image is obtained, a barycentric point of the obtained difference binarized image is obtained, a horizontal line segment passing through the barycentric point, a vertical line segment, and In the diagonal line segment, the luminance distribution of the current image corresponding to the difference binarized area is obtained.
[0020]
Further, the image processing method in the present invention will be described in detail.
Insects and the like attached to the lens of the surveillance camera are not in focus, and thus can be obtained as a defocused image. On the other hand, the intruder is obtained as an image having a texture to some extent. Therefore, by using the characteristics of both, the degree of out-of-focus of the difference extraction image (hereinafter referred to as “out-of-focus”) is calculated and processed with a predetermined threshold value, and the non-focus area is not detected as an insect. It is determined as a target moving body.
[0021]
As a method of calculating the degree of defocus, there is a method of matching the luminance value data (two-dimensional data) of the difference extracted image with a function (two-variable function) representing a defocused state, and setting the degree of matching to the degree of defocus.
[0022]
Furthermore, as another method of calculating the degree of defocusing, the luminance value data (one-dimensional data) in a straight line (line) passing through the center of gravity of the difference extracted image is extracted and matched (matched) with a function (single variable function) representing the defocused state. Thus, there is a method of setting the matching degree to the degree of defocusing in the line. In this calculation method, lines in several directions are further adopted as lines, and the average of the degree of defocusing of these lines is set as the degree of defocusing of the original difference extraction image.
[0023]
In this case, as a method of taking a line, there are, for example, two directions in the X direction and the Y direction passing through the center of gravity of the difference extraction image, and four directions including a 45 ° oblique line in addition thereto. As the function representing the out-of-focus state, the above-described quadratic function, cosine function (cosine), Gaussian function, or the like can be used approximately. As a matching method, a general matching method such as a least square method can be used.
[0024]
When the least square method is used as the matching degree, the average of the least square error is normalized by the width of the luminance value distribution and used as the matching degree. In that case, the smaller the error, the more the matching is considered. Even when other matching methods are used, the error is similarly used as the matching degree.
[0025]
Hereinafter, a more specific description will be given with reference to the drawings.
FIG. 2 is a view showing an image of an insect stuck to the lens of the surveillance camera. A non-focused non-focus area exists within a rectangular frame in the image shown in FIG. FIG. 2B shows an enlarged non-focus area. The background is blackened to make the non-focus area clear. As is clear from FIG. 2B, in the change area of the photographed image, the brightness increases as it approaches the boundary from the center (center of gravity). That is, in relation to the background, the difference in luminance from the background decreases as the distance from the center of gravity approaches the boundary.
[0026]
FIG. 6 is a diagram illustrating a relationship between the barycentric point, the luminance value, and the position of the non-focus area. As is clear from FIG. 6, the luminance value is high for the left and right objects with the center of gravity of the non-focal region as the center and away from the center toward the boundary.
[0027]
FIG. 3 is a diagram illustrating how to obtain the luminance distribution in the change region of the captured image. Image data of the non-focal region is prepared, and the center of gravity (Jx, Jy) of the non-focal region is obtained as shown in FIG. Next, luminance value data of one line passing through the emphasis (in the X direction in the example of FIG. 3A) is obtained. In order to avoid the risk of misjudgment, it is not only determined based on the luminance value data of one line, but in order to further improve accuracy, a plurality of lines passing through the emphasis (in the example of FIG. ) Brightness value data.
[0028]
FIG. 4 is a diagram illustrating a state where the luminance value data is developed. As shown in FIG. 4, when the luminance value data of one line in the X direction passing through the emphasis is developed, it is very close to a parabola (secondary curve). As described above, the luminance value distribution is empirically approximated to a quadratic function, a trigonometric function, and a Gaussian function with high probability.
[0029]
Next, the overall configuration of a monitoring system to which the image sensor of the present invention is applied will be described.
A controller is installed in the building to be monitored, and a plurality of image sensors are connected to the controller. Note that a fire sensor, an emergency button, a mode setting device, and the like may be connected to the controller. The controller is connected to a security center device provided in a remote monitoring center via a telephone line as a communication line.
[0030]
Connection between the image sensor and the controller is performed by an analog signal line and a digital signal line. The analog signal line is constituted by a coaxial cable and transmits a video signal (NTSC system), and the digital signal line is constituted by a twisted pair line and transmits a control signal by the digital signal line.
[0031]
Next, the overall operation of the monitoring system will be briefly described.
The mode setting device sets the monitoring system to a warning release mode or a warning set mode. When the image sensor detects an abnormality in the security set mode, the controller transmits an abnormality signal indicating that an abnormality has occurred in the security center device via the telephone line.
[0032]
When an abnormal signal is output from the fire sensor or the emergency button, the controller transmits data indicating the type of abnormality and the location where the abnormality occurred regardless of the security mode to the security center device via the telephone line.
In addition, the detection method of these abnormal signals, the transmission method, etc. can use what is known well in the said technical field.
[0033]
FIG. 1 is a diagram showing a general configuration of an image sensor of the present invention. As shown in FIG. 1, the image sensor is provided with a control unit 101 and a power source 102 configured by a CPU or the like. Each part inside the apparatus is controlled by the control means and receives power supply from the power source.
[0034]
The control means 101 is provided with a timing means (not shown) for controlling the timing for taking in the current image. This time measuring means is activated every 0.5 seconds, for example.
[0035]
The power source 102 includes a conversion device that converts AC power supplied from the outside into a DC voltage. Instead of providing the power source 102 in the image sensor, power may be supplied from the controller.
In addition, the storage unit 107 is connected to the control unit 101. The storage means 107 includes a program area for storing a program for causing the image sensor to execute a predetermined operation, a parameter area for storing parameters such as an installation height / angle of depression of the image sensor, a monitoring point, sensitivity setting, a work area, A status storage area that stores the status of the monitoring area, that is, whether the current state is normal or abnormal, and a mode storage area that stores either the warning set mode or the warning release mode are provided. ing.
[0036]
The storage means 107 further includes a reference image storage area, a current image storage area, and an abnormal image storage area as areas for storing images taken by the image pickup means 104. In the current image storage area, an image with a normal light amount, an image with a controlled light amount, and an image when no illumination is used, which are captured by the imaging unit 104, are stored.
[0037]
The imaging means 104 that images the monitoring area is constituted by a CCD camera and has sensitivity from the visible area to the infrared area. Infrared light projecting means 103 is provided, and infrared light is projected onto the monitoring area when it becomes dark, such as at night.
The image processing unit 106 compares and collates the current image, which is an image of the normal light amount stored in the storage unit 107, an image of the controlled light amount, and an image when the illumination is not used, with a reference image, and obtains a difference to obtain a binary value. Turn into.
[0038]
The display means 108 is configured by an LED, and is turned on when an abnormality is detected, and is turned off when no abnormality is detected, and displays the presence or absence of abnormality detection outside the image sensor.
The communication means 109 is an interface that transmits and receives signals to and from the controller, and is connected to the controller through a digital signal line. The image output means 110 is an interface for outputting an image when an abnormality occurs, and is connected to an analog signal line via the switching means 111.
[0039]
The address setting unit 112 includes a dip switch, and an address for the controller to specify the image sensor is set.
The operation unit 105 is a unit for turning on and off the power supply 102. Further, when the operation unit 105 is turned off, the switching unit 111 connects the input side and the output side of the analog signal line to bypass the image sensor from the analog signal line.
The current image is stored in the current image storage area, for example, every 0.5 seconds when the time measuring unit is activated.
[0040]
FIG. 5 is a flowchart for removing sticking insects of the image sensor of the present invention. The operation of the image sensor of the present invention will be described using the flowchart of FIG.
[0041]
An image taken with the normal light quantity captured by the imaging unit 104 is captured every time the timing unit is activated (0.5 seconds) (step S1), and then a difference binarization with a reference image captured in advance is obtained (step S2). ). At this time, when the difference binarization area does not exist, the original image is stored as a reference image in the image storage area and is determined to be normal.
[0042]
When the difference binarized area described above exists, the barycentric point of the difference binarized image is calculated (step S3). Next, at this stage, it is determined whether or not the person is an intruder (step S4). When it can be determined that there is a suspicion of the intruder, the following processing is performed.
[0043]
First, the luminance value distribution of the current image corresponding to the difference binarized area is obtained from the horizontal line segment passing through the barycentric point (step S5).
Next, the horizontal luminance value distribution is approximated by a quadratic function (step S6). The approximate calculation is performed by, for example, the least square method.
[0044]
Further, a mean square error between the approximated quadratic function and the luminance value is obtained (step S7). At this time, other than the mean square error (for example, the sum of absolute values of differences between points) may be used.
Next, the above-mentioned mean square error is divided by the brightness value width of the brightness distribution, and the mean square error is normalized (step S8). That is, by dividing by the luminance value width, the error can be evaluated without depending on the luminance value level.
[0045]
Next, if the normalized mean square error is less than or equal to a predetermined value, it can be determined that the horizontal luminance distribution is likely to be an insect (step S9). That is, the approximation is correct when the normalized mean square error is less than or equal to a predetermined value.
Next, the approximated quadratic function obtained by calculating the luminance value distribution of the current image corresponding to the difference binarized area described above with respect to the horizontal line segment passing through the barycentric point, approximating the horizontal luminance value distribution with a quadratic function A series of processes consisting of calculating the mean square error between the brightness value and dividing the mean square error by the brightness value width of the brightness distribution and normalizing the mean square error are further executed in the vertical and diagonal directions, respectively. Then, it is determined whether the luminance distribution in the vertical direction and the oblique direction is likely to be insects.
[0046]
As a result, it is determined whether or not it seems to be a worm in all the horizontal, vertical, and diagonal directions (step S10). As a result of the determination, if it is determined that it is not an insect in all directions, it is determined that it is an intruder (step S11), and if it is determined that it seems to be an insect in all directions, it is determined that it is an insect (step S12).
As described above, by processing the captured image to obtain the luminance value distribution and approximating it with a predetermined function, the non-focal region is automatically detected without the human being continuously confirming the captured image. It can be determined as a target moving body.
[0047]
【The invention's effect】
As described above, according to the present invention, a non-detection target moving body such as an insect stuck to the lens of the surveillance camera can be distinguished from a detection target moving body such as an intruder, and a false alarm is generated by the non-detection target moving body. Therefore, it is possible to provide a highly reliable image sensor that can detect the detection target moving body.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an image sensor according to the present invention.
FIG. 2 is a diagram showing an image of an insect stuck to a lens of a surveillance camera.
FIG. 3 is a diagram illustrating how to obtain a luminance distribution in a change area of a captured image;
FIG. 4 is a diagram illustrating a state in which luminance value data is developed.
FIG. 5 is a flowchart for removing sticking insects of the image sensor of the present invention.
FIG. 6 is a diagram illustrating a relationship between a barycentric point, a luminance value, and a position of a non-focus area.
FIG. 7 is a diagram illustrating a relationship between a barycentric point, a luminance value, and a position of a non-focus area.
[Explanation of symbols]
1. Insect 101. Control means 102. Power supply 103. Infrared light projecting means 104. Imaging means 105. Operating means 106. Image processing means 107. Storage means 108. Display means 109. Communication means 110. Image output means 111. Switching means 112. Address setting means

Claims (5)

監視領域を撮影する撮像手段と、前記撮像手段にて撮影された画像の変化領域に基づき検出対象移動体の有無を判定する画像処理手段と、を有する画像センサであって、
前記撮像手段は、前記変化領域の発生前後を通じ前記検出対象移動体が存在しうる該撮像手段から離れた領域に焦点が合致しており、
前記画像処理手段は、前記変化領域の重心から離れ、前記変化領域と背景との境界に近づくほど前記変化領域と前記背景との輝度の差が少なくなるとき、前記変化領域を非検出対象移動体と判定することを特徴とする画像センサ。
An image sensor comprising: an imaging unit that captures a monitoring area; and an image processing unit that determines presence or absence of a detection target moving body based on a change area of an image captured by the imaging unit.
The imaging means is focused on an area away from the imaging means where the detection target moving body may exist before and after the occurrence of the change area,
The image processing means moves the non-detection target moving body when the difference in luminance between the change area and the background decreases away from the center of gravity of the change area and approaches the boundary between the change area and the background. An image sensor characterized by being determined .
前記変化領域における輝度分布を求め、該輝度分布が所定の関数に近似できるとき、前記変化領域を非検出対象移動体と判定することを特徴とする、請求項に記載の画像センサ。Obtains the luminance distribution in the change area, when the luminance distribution can be approximated to a predetermined function, and judging the change region and the non-detection target mobile, image sensor according to claim 1. 前記所定の関数は、二次関数、三角関数、または、ガウス関数からなっていることを特徴とする、請求項に記載の画像センサ。The image sensor according to claim 2 , wherein the predetermined function is a quadratic function, a trigonometric function, or a Gaussian function. 前記輝度分布を画像の重心点を通る縦方向、横方向および斜め方向のそれぞれにおいて求めることを特徴とする、請求項に記載の画像センサ。The image sensor according to claim 2 , wherein the luminance distribution is obtained in each of a vertical direction, a horizontal direction, and an oblique direction passing through the center of gravity of the image. 現画像と基準画像の差分二値化画像を求め、得られた差分二値化画像の重心点を求め、前記重心点を通る水平線分、垂直線分、および、斜め線分において、差分二値化領域に対応する現画像の輝度分布を得ることを特徴とする請求項またはに記載の画像センサ。A difference binarized image between the current image and the reference image is obtained, a barycentric point of the obtained difference binarized image is obtained, and a difference binary is obtained in a horizontal line segment, a vertical line segment, and a diagonal line segment passing through the barycentric point. image sensor according to claim 2 or 3, characterized in that to obtain a luminance distribution of the current image corresponding to the region.
JP15550199A 1999-06-02 1999-06-02 Image sensor Expired - Lifetime JP3995832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15550199A JP3995832B2 (en) 1999-06-02 1999-06-02 Image sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15550199A JP3995832B2 (en) 1999-06-02 1999-06-02 Image sensor

Publications (2)

Publication Number Publication Date
JP2000350191A JP2000350191A (en) 2000-12-15
JP3995832B2 true JP3995832B2 (en) 2007-10-24

Family

ID=15607438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15550199A Expired - Lifetime JP3995832B2 (en) 1999-06-02 1999-06-02 Image sensor

Country Status (1)

Country Link
JP (1) JP3995832B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5761954B2 (en) * 2010-10-13 2015-08-12 セコム株式会社 Image sensor
JP6133700B2 (en) * 2013-06-14 2017-05-24 セコム株式会社 Image sensor
JP6906177B2 (en) * 2016-11-18 2021-07-21 パナソニックIpマネジメント株式会社 Intersection detection device, camera calibration system, intersection detection method, camera calibration method, program and recording medium
CN109984105A (en) * 2018-12-29 2019-07-09 南京林业大学工程规划设计院有限公司 A kind of intelligent monitoring system of Landscape Construction
JP7328778B2 (en) * 2019-03-29 2023-08-17 セコム株式会社 Image processing device and image processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136799A (en) * 1994-11-08 1996-05-31 Fuji Photo Optical Co Ltd Automatic focusing device
JPH0998412A (en) * 1995-10-03 1997-04-08 Toshiba Corp Television camera monitoring system
JPH09207783A (en) * 1996-02-03 1997-08-12 Furukawa Electric Co Ltd:The Railroad crossing monitor

Also Published As

Publication number Publication date
JP2000350191A (en) 2000-12-15

Similar Documents

Publication Publication Date Title
US7260241B2 (en) Image surveillance apparatus, image surveillance method, and image surveillance processing program
US5289275A (en) Surveillance monitor system using image processing for monitoring fires and thefts
JP4803376B2 (en) Camera tampering detection method
JP3995832B2 (en) Image sensor
JP6189284B2 (en) Image sensing device
JP3965003B2 (en) Image recognition device and monitoring device
JP5179132B2 (en) Human body detection device
JPH09293185A (en) Object detection device/method and object monitoring system
JP3736989B2 (en) Image monitoring device
JP3933453B2 (en) Image processing apparatus and moving body monitoring apparatus
JP3947324B2 (en) Image sensor
JPS62147888A (en) Picture monitoring system
JP3890164B2 (en) Image sensor
JP3046404B2 (en) Fire monitoring device using TV camera
JPH04111079A (en) Traveling object identifying device
JP5027646B2 (en) Combined intrusion detection device
JP2020167500A (en) Image processing apparatus and image processing program
JP3577231B2 (en) Image monitoring system
JP3886246B2 (en) Image surveillance system
JP3890155B2 (en) Image sensor
JP4650346B2 (en) Surveillance camera device
JP3492239B2 (en) Image monitoring device
JP2000194866A (en) Image sensor and monitoring system including the same
JP3899207B2 (en) Image sensor
JP6133700B2 (en) Image sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 3995832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130810

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term