JP2004120009A - Monitoring system and monitoring method - Google Patents

Monitoring system and monitoring method Download PDF

Info

Publication number
JP2004120009A
JP2004120009A JP2002276327A JP2002276327A JP2004120009A JP 2004120009 A JP2004120009 A JP 2004120009A JP 2002276327 A JP2002276327 A JP 2002276327A JP 2002276327 A JP2002276327 A JP 2002276327A JP 2004120009 A JP2004120009 A JP 2004120009A
Authority
JP
Japan
Prior art keywords
monitoring
image
person
ccd camera
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002276327A
Other languages
Japanese (ja)
Inventor
Toshiji Takei
武居 利治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Osaka Cement Co Ltd
Original Assignee
Sumitomo Osaka Cement Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Osaka Cement Co Ltd filed Critical Sumitomo Osaka Cement Co Ltd
Priority to JP2002276327A priority Critical patent/JP2004120009A/en
Publication of JP2004120009A publication Critical patent/JP2004120009A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a monitoring system and a monitoring method for monitoring a monitoring object intruding into a three-dimensional monitoring space at night or in the dark. <P>SOLUTION: The monitoring system is provided with: an infrared ray emitting device 17 for emitting an infrared ray to the monitoring space 10; a first imaging apparatus 16 for imaging the infrared ray reflected in the monitoring object 12 at a first time and a second time delayed from the first time by a prescribed time; a second imaging apparatus 18 installed toward the monitoring space 10 apart from the first imaging apparatus 16 by a prescribed interval and for imaging the infrared ray reflected in the monitoring object 12 at the first and second times; difference image forming sections 24, 25 for forming a difference image between the image imaged at the first time and the image imaged at the second time; a position arithmetic section 30 for the monitoring object for calculating the position of the monitoring object 12 on the basis of the difference images 24, 25; and a proximity notice section 32 for detecting the approach of the monitoring object 12 in a direction of the monitoring space 10 to provide an output of a detection signal. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、夜間あるいは暗闇に対応する監視装置に係り、特にCCDカメラやCMOSセンサ等を用いて監視空間内に侵入する人物、人体の指、手、腕、胴体等の高さや移動方向の変化を監視する監視装置及び監視方法に関するものである。
【0002】
【従来の技術】
一般に、監視対象物の姿勢や室内照明光に対して影響を受けることなく夜間あるいは暗闇において、監視対象物の画像計測による監視装置が知られている。従来の監視装置は、所定の照明パターンを投光し、投光された波長の光を連続的に撮像する撮像手段を備え、この撮像手段により異なる時間に取得された2フレームの画像から照明パターンのフレーム間移動量を算出してから、フレーム間移動量を時系列に並べて移動量波形データを生成し、移動量波形データより監視対象物の動きを検出するように構成されていた。
【0003】
【特許文献1】
特許公開2002−175582号公報(段落番号0029、第1図)
【0004】
【発明が解決しようとする課題】
しかしながら、前述の如く、従来の監視装置によれば、時系列に並べた移動量波形データにより監視対象物の動きを検出するため、監視対象物の移動方向の演算処理が煩雑となり、所定領域へ監視対象物が接近探知することを短時間に検出することが困難であった。また、人工的な室内照明光や自然光を利用して監視対象物を監視する撮像装置では、夜間あるいは暗闇において、監視対象物のエッジ検出精度が低下し正確な監視対象物の動きを測定することが困難であった。
【0005】
そこで本発明は、夜間あるいは暗闇において三次元の監視空間に侵入する監視対象物と撮像装置との距離を測定し、所定区域へ接近する監視対象物を監視する監視装置及び監視方法を提供することを目的としている。
【0006】
【課題を解決するための手段】
上記目的を達成するために、請求項1に係る発明による監視装置1は、例えば、図1に示すように、三次元の監視空間に侵入する監視対象物を検出し検知信号を出力する監視装置であって、監視空間の可視光線量の低下を示す所定の閾値信号に応答し赤外光を監視空間10に照射する赤外線照射装置17と、監視空間10に向けて設置され、第1の時刻と第1の時刻から所定の時間だけ遅れた第2の時刻とに監視対象物12から反射する赤外光を撮像する第1の撮像装置16と、第1の撮像装置16から所定の間隔だけ離して、監視空間10に向けて設置され、第1の時刻と第2の時刻とに監視対象物12から反射する赤外光を撮像する第2の撮像装置18と、第1の時刻に撮像された画像と第2の時刻とに撮像された画像との差画像を形成する差画像形成部24、25と、差画像形成部24、25で形成された、第1の撮像装置による像の差画像24と第2の撮像装置による像の差画像25に基づいて、監視対象物12の位置を演算する監視対象物の位置演算部30と、位置演算部30の演算結果に基づいて、監視対象物12が監視領域42、43への接近を検知し検知信号を出力する接近報知部32と、を備える。
【0007】
このように構成すると、監視対象物12の位置を演算する監視対象物の位置演算部30と、位置演算部30の演算結果に基づいて、監視対象物12が監視領域42、43への接近を検知し検知信号を出力する接近報知部32とを備えるので、監視対象物12が監視領域42、43への位置変化を判定し検知信号を出力することができる。
【0008】
上記目的を達成するために、請求項2に係る発明による請求項1に記載の監視装置1は、例えば図1に示すように、監視空間10の可視光線を検出する照度測定装置29をさらに備える。
【0009】
このように構成すると、赤外線照射装置17は照度測定装置29から送信される可視光線の低下を示す所定の閾値信号に応答し赤外光を監視空間10に照射することができる。
【0010】
上記目的を達成するために、請求項3に係る発明による請求項1乃至請求項2の何れか1項に記載の監視装置1は、例えば図1に示すように、位置演算部30は、監視対象物12の位置の経時的変化を検出し監視対象物12の移動方向27を演算する。
【0011】
このように構成すると、監視対象物12の位置の経時的変化を検出し監視対象物12の移動方向27を演算するため、移動中の監視対象物12の位置の検出及び停止中の監視対象物12の位置を検出することができる。
【0012】
上記目的を達成するために、請求項4に係る発明による監視方法は、例えば、図1に示すように、三次元の監視空間に接近する監視対象物を検知し検知信号を出力する監視方法であって、監視空間10の可視光量を測定し、所定の過小可視光量状態に達した段階で赤外光を発光する赤外線照射工程と、監視空間10を赤外光により撮像した複数の像に基づき差画像24、25を形成し、監視対象物12の高さ26及び移動方向27を演算する監視対象物12の移動演算工程と、移動演算工程の演算結果に基づいて、監視対象物12が監視領域42、43への接近を検知し検知信号39を出力する接近報知工程と、監視空間10の可視光量を測定し、所定の可視光量状態に達した段階で赤外光の発光を停止する赤外線照射停止工程と、を備える。
【0013】
このように構成すると、監視対象物12が監視領域42、43への接近を検知し検知信号39を出力することができる。
【0014】
上記目的を達成するために、請求項5に係る発明による監視方法は、例えば図1に示すように、三次元の監視空間に接近する監視対象物を検知し検知信号を出力する監視方法であって、監視空間10の可視光量を測定29し、所定の可視光量状態に達した段階で赤外光の発光17を停止する赤外線照射停止工程と、監視空間10を可視光により撮像した複数の像に基づき差画像を形成24、25し、監視対象物12の高さ26及び移動方向27を演算する監視対象物の移動演算工程と、移動演算工程の演算結果に基づいて、監視対象物12が監視領域42、43への接近を検知し検知信号39を出力する接近報知工程と、を備える。
【0015】
このように構成すると、監視空間10を可視光により撮像した複数の像に基づき、移動演算工程の演算結果に基づいて、監視対象物12が監視領域42、43への接近を検知し検知信号39を出力することができる。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。なお、各図において互いに同一あるいは相当する部材には同一符号または類似符号を付し、重複した説明は省略する。
【0017】
図1は、本発明による実施の形態である監視装置1の模式的な一部破段斜視図である。図中監視対象物12は、床面上に直立し、ショーケース、金庫、商品保管庫、コンピュータのような警備対象物38が設置されている監視空間10の方向を観察している。本実施の形態では、監視対象物12は、人物12、人物の指、手、腕、胴体である。
【0018】
監視装置1は、監視空間10に向けて設置された第1の撮像装置16と、第1の撮像装置16から所定の間隔wだけ離して、監視空間10に向けて設置された第2の撮像装置18と、第1と第2の撮像装置に電気的に接続された制御装置2とを備える。
【0019】
制御装置2は、内部に演算部30、メモリ部31、インターフェースI/F19、報知部32、照度測定装置としての照度測定部29を備える。
【0020】
監視装置1は、第1又は第2の撮像装置から伝送される撮像データをインターフェースI/F19を経由して受信し、演算部30により照度データを抽出し、照度測定部29へ送信する。照度測定部29は、受信した照度データと予め記憶した可視光線の低下を示す所定の閾値とを比較し、閾値を下回る照度データに応答して照度測定部29から可視光線量の低下を示す信号を演算部30へ送信する。
【0021】
演算部30は、可視光線量の低下を示す信号の受信に応答して、I/F19を介して第1の撮像装置としての第1のCCDカメラ16と第2の撮像装置としての第2のCCDカメラ18に付設された複数の赤外線ライトエミッションデバイスLED又は赤外線レーザダイオードを含む赤外線照射装置17を発光させる制御信号を第1と第2のCCDカメラ側に送信し、赤外線照射装置17から赤外光を監視空間10に向けて照射させる。また、赤外線照射装置17の駆動電源は、I/F19からユニバーサルシリアルバスUSB規格によるDC電力を供給してもよく。DC電源アダプタ(不図示)から直接赤外線照射装置17の駆動電源を供給してもよい。
【0022】
ここで、第1と第2のCCDカメラは、昼に撮像した場合はカラー映像信号を出力し、夜間に撮像した場合は白黒映像信号を出力するように映像信号量を増減させる自動切換え機能を備えてもよく。第1と第2のCCDカメラを白黒CCDにより構成し、昼夜を問わず白黒映像信号を出力するように構成することもできる。
【0023】
また、各赤外線照射装置17を例示すると、約10ルクス(Lux)の照度を有する赤外線照射装置17を第1と第2のCCDカメラに付設し合計24個の赤外線照射装置17により暗闇の中を約10mの監視距離を確保する。同様に、合計56個の赤外線照射装置17により暗闇の中を約15mの監視距離を確保する。同様に、合計104個の赤外線照射装置17により暗闇の中を約20mの監視距離を確保することができる。この赤外線照射装置17の点灯と消灯は、上述の如く演算部30から送信される制御信号により自動的に制御されている。
【0024】
第1のCCDカメラ16は、第1の時刻に撮像した監視空間10の撮像情報をI/F19を介して制御装置2へ送信し、演算部30によりアドレスを指定してメモリ部31内部の撮像信号記憶領域20へ記憶させる。また、第2のCCDカメラも第1の時刻に撮像した監視空間10の撮像情報をI/F19を介して制御装置2へ送信し、演算部30によりアドレスを指定してメモリ部31内部の撮像信号記憶領域22へ記憶させる。
【0025】
第1のCCDカメラ16は、第1の時刻から所定の時間だけ遅れた第2の時刻に撮像した監視空間10の撮像情報をI/F19を介して制御装置2へ送信し、演算部30によりアドレスを指定してメモリ部31内部の撮像信号記憶領域21へ記憶させる。また、第2のCCDカメラも第1の時刻から所定の時間だけ遅れた第2の時刻に撮像した監視空間10の撮像情報をI/F19を介して制御装置2へ送信し、演算部30によりアドレスを指定してメモリ部31内部の撮像信号記憶領域23へ記憶させる。
【0026】
監視空間10には、略中央に警備対象物38を設置し、この警備対象物38を中心に円筒状のマスク領域を設定し、警備対象物38と監視領域外周との間に、床面上で鉛直方向に見えないカーテン領域を形成している。
【0027】
この見えないカーテン領域は、警備対象物38を水平360度方向から包囲する外縁部42と内縁部43と幅Dと高さHを有し、第1のCCDカメラ16と第2のCCDカメラ18により真上から撮像されている。
【0028】
第1の撮像素子と第2の撮像素子は、典型的にはCCDカメラを用いることができるが、CMOSセンサを用いてもよい。CCDカメラ16、18は、典型的には撮像装置を2式備え三角法で距離を測定するパッシブ型距離検出装置として用いる。
【0029】
第1と第2のCCDカメラは、真上から同時に警備対象物38より反射する赤外光を撮像し、又は所定の角度を持たせて上方から撮像する。この第1と第2のCCDカメラ16、18は、所定の間隔wだけ離して設置され、両CCDカメラは所定の視差をもって見えないカーテン領域をも撮像している。
【0030】
第1のCCDカメラ16と第2のCCDカメラ18は、信号線及びI/F19を通じて制御装置2に接続され撮像した撮像信号を、上述したUSB規格のシリアル方式で制御装置2に送信している。
【0031】
制御装置2は、内部に、インターフェースI/F19、演算部30、メモリ部31、報知部32を有し、第1のCCDカメラ16と第2のCCDカメラ18から受信した撮像信号をI/F19を介して演算部30に渡し、演算部30が撮像信号をメモリ部31へ送り記憶させる。
【0032】
上記メモリ部31には、第1の時刻に第1のCCDカメラ16で赤外線撮像した撮像信号を記憶する第1の時刻の撮像信号記憶部20と、第2の時刻に第1のCCDカメラ16で赤外線撮像した撮像信号を記憶する第2の時刻の撮像信号記憶部21と、第1の時刻に第2のCCDカメラ18で撮像した撮像信号を記憶する第1の時刻の撮像信号記憶部22と、第2の時刻に第2のCCDカメラ18で撮像した撮像信号を記憶する第2の時刻の撮像信号記憶部23と、を備える。
【0033】
上記演算部30には、第1のCCDカメラ16による差画像を論理演算し記憶する第1の差画像記憶部24と、第2のCCDカメラ18による差画像を論理演算し記憶する第2の差画像記憶部25と、見えないカーテン領域に侵入した人物12の高さ又は床面の高さを論理演算し記憶する高さ記憶部26と、人物12の移動距離を論理演算し記憶する移動距離記憶部27と、外部から設定する監視空間10内のマスク領域のマスクアドレスを記憶するマスクアドレス記憶部28を備える。
【0034】
報知部32は、演算部30から出力される制御信号に応答し、ライン39へ検知信号を出力して外部のアラーム発生部37を起動させ、アラーム音を発生させる。また、同様に、演算部30から出力される制御信号に応答しライン34へ検知信号を出力し地上回線36を介して遠隔地に所在する警備会社へ警報信号を自動発呼する。検知信号は、電話機33と地上回線36との間に挿入配置したターミナル35へライン34を通じて伝送することができる。さらに、電話機33が使用する地上回線36に代えて携帯電話キャリアへ無線通報することもできる。要は、警備会社へ連絡が取れる手段であれば、公衆回線、地上回線、無線キャリア、インターネット等の通信手段を用いて警報信号を送信すればよい。
【0035】
図中の監視空間10は、壁44により仕切られた独立した部屋の中に設定されている。壁44の手前には、通路41が設けられ警備員15が夜間に懐中電灯を携帯して警備している。この通路41は、夜間に警備装置(不図示)により監視されているが、警備員15が通路41を巡回する際には、警備員15により警備装置が解除されている。
【0036】
監視装置1は、通路41側の警備装置が解除された状態においても監視空間10を監視し、警備員15であろうと監視空間10に侵入する者を検知し、警備対象物38に接近する侵入者を判断して警報を発するように構成されている。つまり、監視空間10は関係者以外立入禁止区域に指定されている。
【0037】
図2の模式的な平面図を参照して、本発明の第2の実施の形態に適用する監視空間10のマスク処理について説明をする。監視装置1は、I/F19に接続された赤外線照射装置8から赤外光を警備対象物38に向けて照射し、第1のCCDカメラ16と第2のCCDカメラ18で監視空間10から反射する赤外光を撮像し、同時に第1及び第2のCCDカメラの画角に入る人物12、見えないカーテン領域、警備対象物38の高さ情報を取得する。
【0038】
監視装置1は、図1の制御装置2により任意の範囲を見えないカーテン領域とマスク領域に設定することができる。制御装置2は、例えば、パーソナルコンピュータやマイクロプロッセサのようなソフトウエアプログラムにより制御処理を変更できるハードウエアで構成し、警備対象物38を真上又は所定の角度から撮像する位置に第1及び第2のCCDカメラ16、18を設置し、監視空間10の映像をモニタで見ながら、図中破線で囲まれたマスク領域50を任意の位置に設定することができる。
【0039】
本実施の形態では、警備対象物38を中心として半径の最大値をマスク領域50の外周位置に設定し、第1及び第2のCCDカメラで撮像しているマスク領域50内の撮像信号を画像処理から除去することができる。
【0040】
また、マスク領域50を水平360度方向から包囲する図中ハッチングで示した見えないカーテン領域の外縁部42と内縁部43とを水平アドレス(XY直交座標)と垂直アドレス(Z座標)で設定し、マスク領域50を幅Dの見えないカーテン領域で囲み、この幅Dの範囲に侵入した人物12、人物の指、手、腕、胴体等の高さの経時的変化を測定する。
【0041】
したがって、見えないカーテン領域の外側に直立している人物12から反射する赤外光は、第1及び第2のCCDカメラによって撮像されているが、マスク領域50と同様に人物12の撮像信号を画像処理から除去することができる。
【0042】
上記実施の形態では、CCDカメラ16、18と人物12との距離を測定して人物12の接近を検出する距離検出装置としての第1及び第2のCCDカメラ16、18は、典型的には赤外線照射装置8から照射する赤外光の反射を撮像する撮像装置を2式備え三角法で距離を測定するパッシブ型距離検出装置として用いる。
【0043】
上記カーテン領域は、床面に垂直方向に立設された平面又は円筒状曲面として説明したが、設定する距離は任意であるので、カーテン領域は自由な曲面、例えば、半球状や小判型に形成することもできる。
【0044】
さらに、カーテン領域は外縁部42と内縁部43とに挟まれた厚さDを有する領域として説明したが、これに限らず外縁部42と内縁部43が一致した、又は外縁部42のみ、又は内縁部43のみの、厚さがゼロの領域であってもよい。そのときは監視対象物12がカーテン領域を通過するか否かで検知信号を出力する。
【0045】
図1及び図2を参照して、監視装置1の動作について説明をする。第1のCCDカメラ16は所定本数の走査線を有し、第2のCCDカメラ18は所定本数の走査線を有し、両CCDカメラ16、18は走査線方向を共通に並列に設置されている。また、本実施の形態では、第1のCCDカメラ16と第2のCCDカメラ18は、別体として説明するが一体として構成してもよい。マスク領域50を囲むカーテン領域は、外縁部42と内縁部43とに挟まれた厚さDを有する領域であり、第1及び第2のCCDカメラは、夜間又は暗闇状態ではこのカーテン領域内を移動中の人物12から反射される赤外光を撮像する。さらに、自然光や蛍光灯照射による人工光が入射する状態にあっては、赤外光の照射を止めて可視光の反射を撮像する。
【0046】
また、第1と第2のCCDカメラの走査線の本数は、典型的には同数であり、各CCDカメラの走査線の本数は、例えば、約500本有し、各走査線には約500ピクセルの画素を備えている。また本実施の形態では、第1のCCDカメラ16と第2のCCDカメラ18は、天井に設置しているが、壁に角度をもたせて監視空間に向けて設置してもよい。
【0047】
制御装置2は、演算部30を備えており、監視装置としての監視システム1全体を制御している。また、演算部30の内部では、第1及び第2のCCDカメラで測定する測定距離と比較すべき基準距離を例えば高さ記憶部26に記憶する。この基準距離は、監視時点の過去の時点の距離であればよく、典型的には見えないカーテン領域に人物12が存在しない状態のいわば背景(床)の距離であるが、それに限らず、例えば周期的に背景の距離を検知している場合の1コマ分だけ前の距離であってもよい。
【0048】
制御装置2は、第1のCCDカメラ16と第2のCCDカメラ18から撮像信号を受信し、互いに対応する走査線上に形成された画像を同期させて抽出する。また、同期させる走査線は、各CCDカメラが有する500本の走査線を抽出してもよく。見えないカーテン領域を所定の間隔に区切る間引いた本数でもよい。
【0049】
例えば、人物12の胴を検出する場合は約100mm間隔の映像を撮像する走査線を抽出し、人物12の手を検出する場合は約50mm間隔の映像を撮像する走査線を抽出し、人物12の指を検出する場合は約10mm間隔の映像を撮像する走査線を抽出するように個別に設定することもでき、人物12の何れかの部位が見えないカーテン領域に侵入したことを検知するには、少なくとも各CCDカメラの走査線が約500本としたときに、等間隔毎に1本を選択し約20本の走査線を抽出すればよい。
【0050】
また、カーテン領域は床面に垂直方向に立設された平面又は円筒状曲面として説明したが、設定する距離は任意であるので、カーテン領域は自由な曲面、例えば半球状に形成することもできる。
【0051】
上記カーテン領域は、外縁部42と内縁部43とに挟まれた厚さDを有する領域として説明したが、これに限らず外縁部42と内縁部43が一致した、又は外縁部42のみ、又は内縁部43のみの、厚さがゼロの領域であってもよい。そのときは監視対象物がカーテン領域を通過するか否かで検知信号を出力する。
【0052】
さらに、同期させる走査線は、各走査線を時系列的に抽出するとよい。また、第1のCCDカメラ16と第2のCCDカメラ18から走査線を抽出する際には、外部からの同期信号で抽出処理を行うようにすると、対応する走査線を抽出して処理する回路を簡略化ができ、ソフトウエア的な処理も容易となる。
【0053】
制御装置2は、第1のCCDカメラ16と第2のCCDカメラ18の各々について、異なるT0とT1の時刻に撮像された撮像信号を受信し、第1のCCDカメラ16がT0時刻に撮像した撮像信号を第1の時刻の撮像信号記憶部20へ記憶し、第2のCCDカメラ18がT0時刻に撮像した撮像信号を第1の時刻の撮像信号記憶部22へ記憶する。
【0054】
また、制御装置2は、第1のCCDカメラ16がT1時刻に撮像した撮像信号を第2の時刻の撮像信号記憶部21へ記憶し、第2のCCDカメラ18がT1時刻に撮像した撮像信号を第2の時刻の撮像信号記憶部23へ記憶する。
【0055】
演算部30は、各撮像信号に含まれる走査線上に形成される各画像の画像情報に基づき、論理演算処理を実行し、第1のCCDカメラの差画像データを内部の差画像記憶部24(CCD1:差)に記憶し、第2のCCDカメラの差画像データを内部の差画像記憶部25(CCD2:差)に記憶する。引き続き、2つの差画像データに基づいて論理演算を実行し相関処理を遂行する。この相関処理により監視対象物の高さHを高さ記憶部26(高さH)へ記憶する画像データ処理機能を備えている。なお、画像情報は、典型的には画像を構成する画素の画素値である。
【0056】
演算部30は、第1のCCDカメラ16の撮像信号を記憶する撮像信号記憶部20と21からT0とT1の撮像信号を各々読み出し、各撮像信号に含まれる走査線上に形成された各画像の画像情報から差画像を形成し内部の第1の差画像記憶部24に記憶する。また、第2のCCDカメラ18の撮像信号を記憶する撮像信号記憶部22と23からT0とT1の撮像信号を各々読み出し、各撮像信号に含まれる走査線上に形成された各画像の画像情報から差画像を形成し内部の第2の差画像記憶部25に記憶する。
【0057】
差画像を形成するための2つの画像は、撮像時刻T0から所定の時間だけ遅れた撮像時刻T1により各々取得するが、ずらす遅延時間は、人物12の移動量が大きくなり過ぎず、実質的にはほぼ同位置とみなせる程度の時間、例えば0.1秒程度とすればよい。あるいはテレビ周期の1〜10周期(1/30秒〜1/3秒)とする。このような差画像を演算して取得すると人物12の背景が除去され動きのある人物12のエッジの像だけを抽出することができる。
【0058】
また、演算部30は、差画像を構成する各画素値の絶対値が、所定の閾値よりも大きな画素で区切られた領域の中で、最大の領域を抽出する領域抽出手段としての機能を備えている。
【0059】
各CCDカメラの走査線上に各々形成された画像は、背景は動くことがないので、動いている人物12の境界部はその画素値が急激に変化する。そこで、演算部30は、内部の第1の差画像記憶部24と第2の差画像記憶部25から各差画像を読み出し、差画像を構成する各画素値の絶対値が、所定の閾値よりも大きな画素で区切られた領域の中で、最大の領域を人物12の境界とみなす論理演算を遂行することができる。ここで、境界を最大の領域としたのは、人物12が身に付けている服装、手袋等の模様の動きにより、境界部以外にも区切られた領域の中で、閾値の小さい画素値が変化する場合があるからである。
【0060】
また、演算部30は、第1のCCDカメラ16と第2のCCDカメラ18により反射する赤外光又は可視光が撮像された各々の画像に対応する差画像から抽出された最大の領域同士の相関出力値を算出する相関出力算出手段としての論理演算機能を備えている。演算部30は、論理演算した相関出力値に基づきCCDカメラと人物12までの距離を算出する。
【0061】
演算部30は、例えば、走査線により形成された差画像から抽出された最大の領域の画像情報を抽出し、人物12の動きによって、コントラストの変化が激しかった点を特定する。また、第1のCCDカメラ16の走査線と同様に、第2のCCDカメラ18の走査線上に形成された差画像の最大領域の画像情報を抽出する。各々抽出された差画像の最大領域の画像情報を比較した場合、両CCDカメラの視差の関係から僅かに差画像の最大領域の位置が異なる領域画像を抽出したことになる。
【0062】
引き続き、演算部30は、第1のCCDカメラによる差画像と第2のCCDカメラによる差画像との相関処理を論理演算し、その相関ピークが最大になった位置を計測することにより、2つの差画像間の平均的な相関出力値、または、抽出された領域のほぼ中心の相関出力値を論理演算し取得する。
【0063】
ここで相関出力値とは、第1のCCDカメラ16と第2のCCDカメラ18との視差により発生する相対的結像位置差のことであり、相関処理により、典型的には画素数で出力される値である。演算部30は、この相関出力値により第1のCCDカメラの走査線と第2のCCDカメラの走査線との視差に基づき、三角法を用いてCCDカメラと人物12との距離を算出する。
【0064】
また、相関処理とは、第1のCCDカメラの走査線と第2のCCDカメラの走査線からそれぞれ得られた画像のどちらか一方を、2つの画像がほぼ一致するまで画素単位でずらして、そのずらした量を例えば画素数により示して算出する処理である。2つの差画像が一致するか否かの判定は、一方の差画像を固定し他方の差画像をずらしながら比較したときに重なり合う信号全体の強さに基づいて実行する。信号がピークになった座標が一致点であり相関ピーク位置である。
【0065】
相関処理は、第1のCCDカメラ16、第2のCCDカメラ18により撮像された各々の画像に対応する差画像を適正な値で2値化し、そのエッジ部を抽出する事により、動きのある領域部分を抽出し、この抽出領域のみで相関処理を施すように構成してもよい。このように構成すると、相関処理は、2値化した差画像を用いるので、演算処理速度を向上させることができる。
【0066】
演算部30は、第1のCCDカメラ16と第2のCCDカメラ18により反射する赤外光が撮像された各々の画像に対応する差画像から抽出された最大の領域の中で、それぞれ所定の閾値より大きな画素の対応を求め、対応する画素の位置ずれに基づき、CCDカメラと人物12までの距離を論理演算するように処理してもよい。この場合、演算部30は、前述のように差画像から抽出された最大の領域同士の相関出力値を算出せず、最大の領域の中で、それぞれ閾値より大きな画素の対応を求め、対応する画素の位置ずれを算出する。
【0067】
演算部30は、対応する画素の位置ずれ即ちCCDカメラの視差から三角法を用いてCCDカメラから人物12までの距離を算出する。これにより、演算部30は、例えば、閾値を超えた画素に対して、同じ方向から番号付けを行い、対応した番号の画素同士の位置ずれから視差を求めることができる。
【0068】
このように構成することで、演算部30は、相関処理を省略し、非常に簡単な処理で視差を算出することができる。また演算部30は、例えば、抽出した領域内の模様等によるコントラストの変化によって、閾値を超える画素が多く検出された場合には、上述したエッジ部以外には番号付けを行なわないように処理する。これにより、視差による影響で対応する番号の画素が、本来対応すべき画素とずれてしまうことにより、位置ずれの値に誤差が生じてしまう現象を低減することができる。これは、人物12までの距離が短いことで視差が大きくなった場合にも有効である。
【0069】
図3は、本発明による他の実施の形態である監視装置の模式的な一部破段斜視図である。図中人物12は、絵画館のような屋内の床面上に直立し、絵画53が掛けられている壁52の方向を向いている。本実施の形態でも監視対象物は、人物12、人物の指、手、腕、胴体等である。
【0070】
壁52に対向して立設する壁54は、第1のCCDカメラ16と第2のCCDカメラ18を埋設し、絵画53に接近する人物12を監視している。第1と第2のCCDカメラのレンズ部分の周囲を囲むように設けられた赤外線照射装置17は、夜間又は暗闇状態において発光動作し、赤外光を人物12、壁52、絵画53に向けて照射する。
【0071】
第1のCCDカメラ16と第2のCCDカメラ18は所定の間隔wだけ離し光軸を平行に設定し、水平方向に壁52に向けて設置されている。また、第1のCCDカメラ16と第2のCCDカメラ18のビデオ出力信号は上述した実施の形態と同様に制御装置2へ送信しているので、重複する説明は省略する。
【0072】
第1のCCDカメラ16と第2のCCDカメラ18は、壁52前の通路をカバーする画角を有し、図中ハッチングで示す見えないカーテン領域57を監視する。見えないカーテン領域57は、絵画53の近傍に設定され、高さHと、幅Dで構成し、通路から絵画53方向に接近する人物12から反射する赤外光を撮像する。
【0073】
また、上記見えないカーテン領域57に隣接する通路側にはマスク領域を設定してもよい。この場合、第1のCCDカメラ16と第2のCCDカメラ18から送信される赤外光のステレオビデオ出力信号は、制御装置2によりマスク領域の撮像信号を除去されるように構成することができる。マスク領域の処理は上述した実施の形態と同様の処理を用いることができるので、重複する説明は省略する。
【0074】
制御装置2は、通路を歩行するだけの人物と見えないカーテン領域57に侵入し絵画53に接近する人物とを識別する。すなわち、通路を歩行中の人物12が絵画53前の見えないカーテン領域57に侵入しながら、絵画53に接近する経時的な人物12の位置変化を測定することにより絵画53に接近する人物12として判定する。判定結果に基き、人物12の接近を探知した制御装置2は報知部を介して検知信号を出力し、外部に警報信号を発呼させる。
【0075】
見えないカーテン領域57は、人物12の手が絵画53へ届かない程度の範囲から絵画53の直近の距離に設定し、例えば、絵画53前の10から100センチメートルの幅Dで人物12の接近を検知するように構成する。このように構成した場合、人物12が絵画53に接触する前に警報を発呼することができる。
【0076】
上記実施の形態では、2台のCCDカメラ16、18を絵画53に対向する壁54に埋設し、三次元の監視空間としての絵画53の前方を監視するように構成したが、実施の変形例として、例えば、絵画53を上方又は所定の角度をもって斜め方向から監視するように2台のCCDカメラを設置することもできる。
【0077】
典型的には、赤外光を照射して、絵画53に接近する人物12と、壁52と絵画53や床面とのコントラストの差から人物12のエッジを抽出する。
【0078】
このように構成すると、高い確率で背景と人物12とのコントラストを得ることができる。しかも、人物12の頭部から足先までに対応するCCDカメラの走査線に対応する画像が得られるため、複数の走査線の画像情報を平均化し監視精度を高めることができる。
【0079】
例えば、CCDカメラの走査線の本数をαとした場合、このα個に対応した距離値を平均化することで画像情報の標準偏差はルートα分の1の精度が得られ、監視装置の信頼性を向上させることができる。この場合、人物12の動きや通路を歩行中の他の人物を同時に撮像することとなるが、2台のCCDカメラ16、18で撮像した赤外光画像情報に基づき、他の人物、及び人物12とCCDカメラとの距離を演算処理し、所定の距離以上(見えないカーテン領域の幅D)に存在する監視対象物である人物12だけの接近距離を抽出し、他の動きのある画像情報を除去するように構成する。
【0080】
上記実施の形態では、赤外光の照射により静止した壁52、絵画53と動く人物12とのコントラストに基づき、エッジを検出し差画像を形成してから相関処理を施して人物12が絵画53へ接近する状態を監視したが、他の実施の形態として、第1と第2のCCDカメラを屋内に設置し、ガラス窓を通じて屋外の景色を赤外光撮像し、ガラス窓へ接近する人物を距離情報に基づいて検出することもできる。
【0081】
この場合、景色の中で動く樹木や草花や走行中の自動車等と接近中の人物とを同時に撮像することになるが、2台のCCDカメラ16、18で撮像した赤外光画像情報に基づき、動く背景及び人物12とCCDカメラとの距離を演算処理し、所定の距離以下の監視対象物である人物12だけの接近距離を抽出し、他の動きのある画像情報を除去するように構成する。
【0082】
このようにガラス窓から離れた距離に見えないカーテン領域とマスク領域を設定し、2台のCCDカメラから所定の距離以下の領域に接近する人物の距離情報を抽出することにより人物の接近探知を検出することができる。
【0083】
図4は、本発明の実施の形態に用いる撮像装置16と赤外線照射装置17の模式的な斜視図である。撮像装置16は前面にレンズ11を配置し、複数の赤外線照射装置17はレンズ11の周囲を360°取り囲むように配置されている。撮像装置16と赤外線照射装置17はインターフェースI/F19に電気的に接続され、撮像装置16に受光した可視光線の撮像データをインターフェースI/F19へ送信するように構成する。赤外線照射装置17は、可視光線の低下を示す所定の閾値信号に応答する発光信号をI/F19を通じて受信し赤外光を監視空間に照射する。
【0084】
また、赤外線照射装置17は、撮像装置16に受光した可視光線が所定の可視光量(照度)に達した段階で、発光停止信号をI/F19を通じて受信し赤外光の発光を停止する。
【0085】
図5は、本発明の実施の形態に用いる他の赤外線照射装置8の模式的な斜視図である。赤外線照射装置8は、スタンド4に支持され鉛直方向に立設されたスタンダローン型の赤外線照射装置である。スタンド4の上部に筐体を設置し、筐体の一主面に行列マトリクス状に配置された赤外線照射部7が8行4列に設けられている。
【0086】
また、行列マトリクス状に配置された赤外線照射部7の下部には、可視光を測定する照度測定装置6が配置されている。この照度測定装置6は、例えば、ホトダイオード等の光センサを用い、前方に赤外線カットフィルタ(不図示)を設けて可視光だけを透過させて光量を検出することができる。
【0087】
赤外線照射装置8は、AC電源プラグ5を経由して商用電源から電力の供給を受け、自立して監視空間の可視光を測定しながら、可視光線の低下を示す所定の閾値信号に応答し複数の赤外線照射部7から赤外光を監視空間へ照射する。一方、監視空間の可視光量が増加し所定の可視光量に達した段階で赤外光の発光を自立して停止する。
【0088】
図6のフローチャートを参照して、三次元の監視空間の監視方法を例示する。ここで、監視装置は可視光及び赤外光に対応する共通の処理方法を用いることができる。左画像は第1のCCDカメラ16で撮像された画像であり、右画像は第2のCCDカメラ18で撮像された画像として説明する。処理はスタートステップS10から開始し、ステップS11で制御装置2は、第1のCCDカメラ16と第2のCCDカメラ18で撮像された左画像と右画像を、撮像装置用インターフェイスI/F19を介してステレオ画像として取得する。また、取得したステレオ画像はマスク処理を施し見えないカーテン領域に囲まれたマスク領域50と見えないカーテン領域の外側の画像情報を除去する。
【0089】
制御装置2は、見えないカーテン領域内の人物12を時点tに撮像した第1の画像であるtフレームの左画像を取得する(ステップS13)。次に、所定時間のΔtが経過した時点t+Δtに撮像された第2の画像であるt+Δtフレームの左画像を取得する(ステップS14)。引き続き、tフレームの左画像とt+Δtフレームの左画像との差画像を抽出する(ステップS15)。差画像はtフレームまたはt+Δtフレームの何れか一方のフレームに対応させて、抽出した差画像から背景を除去した動的領域の抽出処理(ステップS16)を施してから、後続のステップS21の相関処理に移行する。
【0090】
また、制御装置2は、見えないカーテン領域内の人物12を時点tに撮像した第3の画像であるtフレームの右画像を取得する(ステップS17)。次に、所定時間のΔt経過した時点t+Δtに撮像した第4の画像であるt+Δtフレームの右画像を取得する(ステップS18)。引き続き、tフレームの右画像とt+Δtフレームの右画像との差画像を抽出する(ステップS19)。差画像はtフレームまたはt+Δtフレームの何れか一方のフレームに対応させて、抽出した差画像から背景を除去した動的領域の抽出処理(ステップS20)を施してから、後続のステップS21の相関処理に移行する。
【0091】
本実施の形態では、第1のCCDカメラと第2のCCDカメラは同時並列的に各時点(t、t+Δt)で撮像を行う。この場合Δtは、計数装置の設定条件により適宜決めてよいが、あるフレームNが撮像されてから、次のフレームN+1が撮像されるまでの時間とすることが望ましい。
【0092】
次に、tフレームの左画像のコントラストが強い人物12の輪郭を用いてtフレームの右画像の対応点を探索し相関処理を実行する(ステップS21)。この相関処理により得られた対応点から、高さ情報を算出する(ステップS22)。例えば、左画像と右画像を一致させる画素数に基づき人物12の高さを演算出力する。
【0093】
上記ステップS22により得られた人物12の高さ情報を見えないカーテン領域の座標情報と比較して、人物12又はその部位の高さが見えないカーテン領域に侵入し且つ警備対象物38に接近しているか否を判定する(ステップS23)。
【0094】
例えば、直前の時刻に取得した人物12の高さ情報と現在の人物12の高さ情報とを比較し、現在の人物12またはその部位が警備対象物38に接近したか否かを人物12又はその部位の輪郭を示す画素アドレスに基づいて判定する。人物12の輪郭アドレスが、図1に示す見えないカーテン領域幅Dの外縁部42のアドレスから遠ざかり内縁部43のアドレスに近づく場合は(ステップ23がYes)、人物12又はその部位が警備対象物38に接近していると判定してステップ24へ分岐し、検知信号としての検出信号を出力してからステップ25へ移行して処理を終了させることができる。
【0095】
また、絵画館に応用する場合は、人物12の輪郭アドレスが、図3に示す見えないカーテン領域57の通路側アドレスから遠ざかり壁52側のアドレスに近づく場合は(ステップ23がYes)、人物12又はその部位が絵画53に接近していると判定してステップ24へ分岐し、検出信号を出力してからステップ25へ移行して処理を終了させることができる。
【0096】
一方、人物12の輪郭アドレスと、図1に示す見えないカーテン領域幅Dの外縁部42のアドレス及び内縁部43のアドレスと比較し、カーテン領域幅Dの中で人物12が停止している若しくは外縁部42のアドレスに近づく場合は(ステップ23がNo)、節点N12へ分岐し次の時刻のフレームを取得する。新たに取得した人物12の高さ情報を算出し(ステップS22)、ステップ23により見えないカーテン領域と対応させて、人物12の接近を判定する(ステップS23)。
【0097】
また、図3に示す監視装置を用いて上記ステップ23の判断条件を説明する。人物12が絵画53の方向に進み、見えないカーテン領域幅Dに侵入している場合は、人物12の輪郭アドレスが、図3に示す見えないカーテン領域幅Dの通路側アドレスから遠ざかり絵画53側のアドレスに近づく場合は(ステップ23がYes)、人物12又はその部位が絵画53に接近していると判定してステップS24へ分岐し、検出信号を出力する。その後ステップ25へ移行して処理を終了させる。
【0098】
一方、人物12の輪郭アドレスと、図3に示す見えないカーテン領域幅Dの通路側アドレス及び絵画53側のアドレスと比較し、カーテン領域幅Dの中で人物12が停止している若しくは通路側アドレスに近づく場合は(ステップ23がNo)、節点N12へ分岐し次の時刻のフレームを取得する。さらに人物12の高さ情報を演算し見えないカーテン領域の幅D内の移動方向を検出する(ステップS23)。
【0099】
ここで、図7の模式的なブロック図を参照して、三角法を用いたCCDカメラと人物12との距離の算出方法について、鉛直上方から人物12を撮像したときの距離(高さ)の測定方法を例示する。ここで、wは第1のCCDカメラ16と第2のCCDカメラ18との光軸間距離(基線長)、fは各CCDカメラの受光レンズを単一レンズとしたときそのレンズの焦点距離、dはCCDカメラの結像面上の視差とする。ここでの焦点距離fは、一般に用いられている組み合わせレンズを使用する場合は、その組み合わせレンズの焦点距離fとする。これにより対象とする人物12とCCDカメラとの距離aは次式で算出できる。
a = w × f/d ………(1)
このようにして、第1と第2のCCDカメラ16、18からステレオ画像を取得したセンサ制御部60は、内部の差画像形成部62により第1のCCDカメラ16の差画像と第2のCCDカメラ18の差画像を形成し、この2つの差画像を相関出力演算部64により相関処理し、相関処理信号を制御装置2へ出力することにより、CCDカメラから人物12までの距離を算出する。また、予め測定した床とCCDカメラとの基準距離hから人物12までの距離を減算して人物12の高さzを算出し、高さz値を高さ記憶部26に記憶する。また、センサ制御部60を介さずに直接2台のCCDカメラから映像信号を制御装置2へ送信するように構成することもできる。
【0100】
図1に戻って、さらに監視システム1の動作について説明する。演算部30は、内部の高さ記憶部26に記憶された高さ値zにより、人物12を監視することができる。
【0101】
また、演算部30は、内部の高さ記憶部26に記憶された人物12の高さ値zを時系列的に記憶し、それに基づき人物12の位置情報、移動方向、姿勢等を判断するように構成する。すなわち、基準距離hと、ある時点の人物12の高さ値zとを比較することにより、人物12の存在、その位置情報、移動方向、姿勢等を判断することができるように構成する。
【0102】
さらに、演算部30は、最終的な人物12の存在、その位置情報、移動方向、姿勢等の判断を、CCDカメラの走査線の中から抽出した複数の走査線にそれぞれに対応する判断結果から人物12の位置情報を演算処理する。また人物12の移動方向は、人物12の位置の水平的な変化だけでなく、例えば、人物12が立ったり座ったりするような鉛直的な変化も含むものとする。
【0103】
上記実施の形態では、人物12の鉛直上方に設置した2台のCCDカメラで監視空間10を監視する監視装置1について説明をしたが、別の実施の形態として2台のCCDカメラを監視空間10の周辺に位置する壁や柱に設置し、所定の角度をもたせて監視空間10に向けて見えないカーテン領域を監視することができる。
【0104】
例えば、床面から高さHの壁又は柱に2台のCCDカメラを据付け、2台のCCDカメラから見えないカーテン領域までの水平方向の距離をLとし、この見えないカーテン領域に侵入する人物12の指、手、腕、胴等の部位と、2台のCCDカメラ16、18との距離がAと測定されたときは、人物12の部位からCCDカメラ16、18の設置位置までの鉛直方向の高さH1と、壁又は柱からの距離L1は、次式で求めることができる。
H1=AH/(H+L   ………(2)
L1=AL/(H+L   ………(3)
【0105】
また、人物12の部位が監視空間10に向かって移動する位置情報は、算出した高さH1、距離L1や2台のCCDカメラ16、18の距離測定方向により逐次演算処理し、経時的変化の前後を比較することにより人物12の部位が見えないカーテン領域の中で警備対象物38の方向に近づく又は停止並びに遠ざかる状態を検出することができる。
【0106】
さらに、人物12の部位の位置は、任意に抽出した本数の走査線の各々に対応する見えないカーテン領域の位置からも大まかに捉えることができる。このように、見えないカーテン領域に存在する人物12の部位の位置情報を算出することができる。なお、床面に垂直な方向に2台のCCDカメラ16、18を配置すれば、カメラの取り付けた位置そのものを、人物12の位置とし、CCDカメラからの距離を高さとすることで、位置情報を簡単に取得することもできる。
【0107】
演算部30が処理する人物12の検出処理は、同一又は同一ではないCCDカメラの走査線で直前の時刻に算出した人物12の位置情報、例えば、1つ前の位置情報と所定の時間だけ遅れた時刻の位置情報と比較し、この人物12の移動情報である移動距離と平均移動速度を算出する。
【0108】
例えば、移動距離は、最新の位置情報と1つ前の時刻の位置情報の高さH1や距離L1のデータの差により、また、平均移動速度は、このデータの差を所定の時間だけ遅れた距離の測定間隔時間で除算した値となる。さらに、演算部30で演算出力した人物12の移動距離、移動方向、移動速度を内部の移動距離記憶部27に記憶する。
【0109】
このようにして、演算部30は、算出した人物12の位置情報と移動情報から、見えないカーテン領域において、人物12の存在、その姿勢、位置、移動状態を判断することができる。
【0110】
例えば、人物12の部位が停止している状態や、人物12の部位が監視空間10方向に接近している状態や、人物12が監視空間10から遠ざかる状態を的確に判断でき、また、人物12が低い高さで存在し、かつ停止している場合には、この人物12は見えないカーテン領域内で倒れている状態にあると判断できる。
【0111】
このようにして監視システム1は、見えないカーテン領域内に侵入した人物12の部位や、人物12の存在と存在状態等を画像情報を経時的に測定することで的確に監視することができる。
【0112】
CCDカメラは、容易に画角を広くとること可能であるので、画角の広いものを用いることで、横方向の監視対象領域を十分に大きく取ることができる。このような監視システム1を、種々の施設の監視に適用し、第1のCCDカメラ16と第2のCCDカメラ18の画角を増減し見えないカーテン領域を任意の幅に設定することにより、例えば、動物園の檻の前に人物12の手が伸びた状態を検知したり、関係者以外立ち入り禁止区域に部外者が接近する状態を検知したり、自動ドアに接近する人物を検知することができる。
【0113】
監視装置1を自動ドアの鉛直上方に設置した場合、ドアに接近する人物が見えないカーテン領域に侵入しドア方向に歩行している状態を検知した時点で自動ドアの開扉制御を実行する。また、見えないカーテン領域で人物が停止している状態を検知したときは、そのままドアを開扉状態に保持するように構成することにより、無用な開閉動作を繰り返すことを防止することができる。しかも、見えないカーテン領域を包囲するマスク領域に他の人物が侵入しても自動ドアは無用な開扉動作を実行しないため、自動ドアの電力消費を低減させることができる。
【0114】
図8の模式的な平面図を参照して、見えないカーテン領域で撮像した人物12の手12aを検出する方法を説明する。
【0115】
演算部30は、走査線抽出処理により、2台のCCDカメラ16、18の画像情報の中から見えないカーテン領域に侵入した人物の手12aの像を適当な間隔で配分されるような本数の走査線71から77を抽出する。また、手12aが侵入していない場合の床面までの距離を基準距離として設定しておくとよい。
【0116】
このように、2台のCCDカメラ16、18を設定することで、CCDカメラと手12aまでの距離を測定すると同時に、どの走査線が手12aを検出したかにより、手12aの存在、床面からの高さを判断することができる。また各CCDカメラの差画像を取得し、撮像された画像上の手12aの像を抽出することにより、抽出された手12aの像の画像上の位置から、見えないカーテン領域内の位置情報も取得することができる。
【0117】
図中左端の画像フレーム80は、第1の時刻に撮像された手12aの像を相関処理し走査線に対応させて表示している。手12aは、外縁部42を通過し、内縁部43方向に進行している。第1のCCDカメラ16と第2のCCDカメラ18の走査線に各々対応させて高さ情報を得た段階の映像である。手12aは、例えば、第1の走査線71と第2の走査線72の上で結像されている。
【0118】
画像フレーム80の右側に所定の時間だけ遅れた第2の時刻に撮像した画像フレーム81を示す。手12aは、例えば、第1から第4の走査線71〜74の上で結像されているため、見えないカーテン領域の内縁部43方向へ移動している。
【0119】
画像フレーム81の右側に所定の時間だけ遅れた第3の時刻に撮像した画像フレーム82を示す。手12aは、例えば、第1から第7の走査線71〜77の上で結像されているため、さらに見えないカーテン領域の内縁部43方向へ移動している。演算部30は、このような内縁部43方向へ移動する手12aの位置変化を検出し、報知部32へ検知信号を出力するよう制御信号を送信する。
【0120】
画像フレーム82の右側に所定の時間だけ遅れた第4の時刻に撮像した画像フレーム83を示す。手12aは、例えば、第1から第8の走査線71〜78の上で結像されているため、さらに見えないカーテン領域の内縁部43方向へ移動していることがわかる。既に演算部30は、報知部32へ検知信号を出力するよう制御信号を送信させているが、他の実施の形態として画像フレーム82を演算出力した時点で検知信号の送信準備処理に入り、画像フレーム83を演算出力し手12aが内縁部43方向に移動している位置変化を再度確認してから検知信号を出力されるように制御してもよい。
【0121】
図9の模式的な平面図を参照して、見えないカーテン領域で撮像した人物12の手12aを検出する方法をさらに説明する。図中左端の画像フレーム84は、第1の時刻に撮像された手12aの像を相関処理し走査線に対応させて表示している。手12aは、外縁部42を通過し、内縁部43方向に進行している。第1のCCDカメラ16と第2のCCDカメラ18の走査線に各々対応させて高さ情報を得た段階の映像である。手12aは、例えば、第1の走査線71と第2の走査線72の上で結像されている。
【0122】
画像フレーム84の右側に所定の時間だけ遅れた第2の時刻に撮像した画像フレーム85を示す。手12aは、例えば、第1から第4の走査線71〜74の上で結像されているため、見えないカーテン領域の内縁部43方向へ移動している。
【0123】
画像フレーム85の右側に所定の時間だけ遅れた第3の時刻に撮像した画像フレーム86を示す。手12aは上記画像フレーム85と同様の位置に停止している。演算部30はこの段階では検知信号を出力させないように待機している。
【0124】
画像フレーム86の右側に所定の時間だけ遅れた第4の時刻に撮像した画像フレーム87を示す。手12aは上記画像フレーム86と同様の位置に停止している。演算部30はこの段階でも検知信号を出力させないように待機し、画像フレーム87の捜査線上の画素情報と後続の画像フレームの画素情報とを比較して、手12aが内縁部43へ接近するか否かを監視する。
【0125】
ここで、2台のCCDカメラ16、18の設置方法について説明する。まず監視装置1は、第1のCCDカメラ16の走査線と、この走査線に対応する第2のCCDカメラ18の走査線とがおよそ同一平面上に存在するように、第1のCCDカメラ16と第2のCCDカメラ18との配置関係を定めるようにする。
【0126】
また、演算部30は、第1のCCDカメラ16で手12aを走査する走査線と、第2のCCDカメラ18で手12aを走査する走査線に対して、相関値を演算する。演算された相関値が最大化されるように、第1のCCDカメラ16の走査線と第2のCCDカメラ18の走査線との位置対応関係を定める対応走査線選択処理を実行し、第1の差画像記憶部24に記憶される走査線と第2の差画像記憶部25に記憶される走査線の各アドレスを一致させるように走査線の先頭アドレスを決定し、第1の差画像記憶部24又は第2の差画像記憶部25若しくは不図示の先頭アドレス記憶領域内に先頭アドレスを記憶させる。
【0127】
ここで、2台のCCDカメラの各々の走査線上に手12aが結像している場合、第1のCCDカメラ16と第2のCCDカメラ18は、わずかに違う方向から手12aを撮像しているので、ほとんど変わらない画像が両方の走査線上に結像する。
【0128】
演算部30は、2台のCCDカメラからステレオ画像を受信し、例えば、第1のCCDカメラ16の走査線の任意の1本を選択する。この選択した走査線のライン信号と、第2のCCDカメラ18の走査線の第1ライン目のライン信号との相関処理を実行する。
【0129】
演算部30による相関処理は、第1のCCDカメラ16内で選択した走査線のライン信号との相関処理を、第2のCCDカメラ18の走査線の第1ライン目から順番に最終ラインまで行なう。ここでの相関処理は、全体の信号の強さである相関値を基準に判定する。また相関処理は、第1のCCD16内で選択した走査線のライン信号と、第2のCCD18の第n番目の走査線のライン信号との相関値が最大となるまで相関処理を繰り返して実行するように構成してもよい。nは、走査線の本数が例えば500本の場合、1〜500の自然数である。
【0130】
さらに、演算部30は、対応走査線選択処理を実行し、相関処理により相関値が最大となるライン同士が対応している走査線であると判定しながら、第1のCCDカメラ16の走査線と第2のCCDカメラ18の走査線との位置対応関係を定める。例えば、演算部30が第1のCCDカメラ16の第4番目の走査線と第2のCCDカメラ18の走査線の第7番目が対応している走査線であると判定した場合には、双方のCCDカメラの走査線の位置対応関係は、そのまま第1のCCDカメラ16の5ライン目の走査線と第2のCCDカメラの8ライン目の走査線14が対応し、第1のCCDカメラ16の走査線の100ライン目と第2のCCDカメラ18の走査線の103ライン目が対応する。
【0131】
また、監視装置1は、第1のCCDカメラ16の走査線と第2のCCDカメラ18の走査線の同じライン、例えば、第1と第2のCCDカメラの4ライン目の走査線13の相関値が最大となるように位置関係を定めてもよい。このようにすると、第1のCCDカメラ16と第2のCCDカメラ18の同じラインがおよそ同一平面の走査線が対応するように設置し、さらに相関値が最大となるように位置関係を定めるので、2台のCCDカメラ16、18を効率良く、高精度に設置することができる。
【0132】
また、監視装置1は、2台のCCDカメラ16、18の位置関係または双方の走査線との位置対応関係を定めた後に、2台のCCDカメラ16、18の基線長wが設定値よりもずれた場合でも、予め定めた距離A1を測定すれば、走査線方向のずれ分の補正を行うこともできる。この場合には、第1のCCDカメラ16の光軸と第2のCCDカメラ18の光軸の位置が走査線方向にSだけずれているとすると、前述の式(1)を
a = w × f/(d+S) ………(4)
とすることで走査線方向のずれを補正できる。
【0133】
このようにすれば、監視装置1は、正確に人物の手12aまでの距離を測定できるだけでなく、温度変化や経時変化があってCCDカメラが僅かに動いたとしても、例えば、床の模様等を使って予め定めた距離A1を測定することにより、正確さを維持することができる。また、この補正は、所定期間毎に繰り返し実行するとよい。
【0134】
以上では、2台のCCDカメラ16、18の各々の走査線が対応するように設置する、または対応する走査線を選択する場合で説明したが、予め2台のCCDカメラ16、18の各々の走査線が対応するように調整し、固定したものを用いるようにしてもよい。このようにすると、2台のCCDカメラ16、18は、距離センサと同じような感覚で扱うことができるので、2台のCCDカメラ16、18の設置が非常に簡便になる。
【0135】
以上のように監視装置1は、見えないカーテン領域にどの程度の大きさの人物12又は手12aが侵入し、どのような人物12又は手12aの状態(どの位置で、立っている、座っている、倒れている)にあるか、また、その人物12は動いているか、停止しているのか、退出したかといった一連の動きを簡単な装置で追従することができる。この場合、基準距離からの差異を取得しているため、距離が比較的正確でなくても状態の判断に使うことはできる。
【0136】
また、監視装置1は、差画像を用いるため、例えば、人物12に動きが無くなった場合には、領域の特定ができなくなるが、画像フレームの間隔を時間的に伸ばす等の方法で、一連の動きから総合的に人物12の状態の判定をすることができる。
【0137】
したがって、静止しているまたは動きがゆっくりした人物12の存在も自動的に監視できる。例えば、見えないカーテン領域に侵入した人物12や手12a等が動きの少ない場合に有効である。
【0138】
さらに、見えないカーテン領域の中に人物12又は手12aが存在していない状態の場合の床面や壁までの距離を基準距離として設定しておき、その状態からの監視対象物の変化を追うことで、人物12の状態を判断することができる。
【0139】
以上のような本実施の形態によれば、見えないカーテン領域の中の人物12や手12aの状態を判断して、人物12又は手12aが所定方向に移動していることや、不法侵入者が侵入しているといった監視を正確かつ非常に容易に行うことができる。しかも、CCDカメラより画像フレーム全体の情報を取得し処理することがないため、複雑かつ大容量の画像処理を必要とせず、比較的簡単なデジタル回路やアナログ回路、もしくはこれらの組み合わせで、非常に安価な装置を構築することができる。また抽出する走査線は、人物12や手12aのプライバシーを守れる程度であるので、公共の施設での状態監視において非常に有効である。さらに、監視装置1は、可視光に近い赤外光の波長を使用しているため、侵入者に警戒されることなく監視活動を遂行することができる。
【0140】
上記実施の形態では、少なくとも可視光と赤外光を受光し撮像信号を出力するCCDカメラを用いて監視装置を構成したが、他の実施の形態として、例えば、赤外線CCDカメラ(IRCCD)を用いて、昼夜に亘り赤外光を撮像し監視対象物12が監視領域42、43へ侵入する状態を監視する監視装置を提供することもできる。この場合、可視光線量が低下しても監視領域の撮像が可能であるため、赤外線照射装置17を省略することができる。また、IRCCDは監視対象物としての人物12から放射する赤外光(熱源)をも撮像することになるが、人物12と背景とのコントラストに比して微弱な光量差であるため、人物12と背景との境界の検出、人物のエッジ検出処理を妨げるものではない。
【0141】
尚、本発明の監視装置及び監視方法は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
【0142】
【発明の効果】
以上のように本発明によれば、監視空間の可視光線量の低下を示す所定の閾値信号に応答し赤外光を監視空間10に照射する赤外線照射装置17と、監視空間10に向けて設置され、第1の時刻と第1の時刻から所定の時間だけ遅れた第2の時刻とに監視対象物12から反射する赤外光を撮像する第1の撮像装置16と、第1の撮像装置16から所定の間隔だけ離して、監視空間10に向けて設置され、第1の時刻と第2の時刻とに監視対象物12から反射する赤外光を撮像する第2の撮像装置18と、第1の時刻に撮像された画像と第2の時刻とに撮像された画像との差画像を形成する差画像形成部24、25と、差画像形成部24、25で形成された、第1の撮像装置による像の差画像24と第2の撮像装置による像の差画像25に基づいて、監視対象物12の位置を演算する監視対象物の位置演算部30と、位置演算部30の演算結果に基づいて、監視対象物12が監視領域42、43への接近を検知し検知信号を出力する接近報知部32と、を備えるため、夜間あるいは暗闇において三次元の監視空間に侵入する監視対象物と撮像装置との距離を測定し、所定区域へ接近する監視対象物を監視する監視装置及び監視方法を提供する、という優れた効果を奏する。
【図面の簡単な説明】
【図1】本発明の実施の形態である監視装置の模式的な斜視図である。
【図2】本発明の実施の形態である監視装置の模式的平面図である。
【図3】本発明の他の実施の形態である監視装置の模式的な斜視図である。
【図4】本発明の実施の形態に用いる撮像装置と赤外線照射装置の模式的な斜視図である。
【図5】本発明の実施の形態に用いる他の赤外線照射装置の模式的な斜視図である。
【図6】本発明の実施の形態の監視装置のフローチャート図である。
【図7】本発明の実施の形態の監視装置のブロック図である。
【図8】本発明の実施の形態の模式的な平面図である。
【図9】本発明の実施の形態の模式的な平面図である。
【符号の説明】
1   監視装置
2   制御装置
6   照度測定装置
7   赤外線照射部
8   赤外線照射装置
10   監視空間
12   人物
13   走査線
14   走査線
15   警備員
16   CCDカメラ
17   赤外線照射装置
18   CCDカメラ
19   撮像装置用インターフェイス
20   撮像信号記憶部
21   撮像信号記憶部
22   撮像信号記憶部
23   撮像信号記憶部
24   差画像記憶部
25   差画像記憶部
26   高さ記憶部
27   移動距離記憶部
28   マスクアドレス記憶部
29   照度測定部
30   演算部
32   報知部
38   警備対象物
42   監視領域
50   マスク領域
57   カーテン領域
60   センサ制御部
62   差画像形成部
64   相関出力演算部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a monitoring device corresponding to nighttime or darkness, and in particular, changes in height and moving direction of a person, a finger, a hand, an arm, a body, etc. of a person, a human body, and the like entering a monitoring space using a CCD camera or a CMOS sensor. The present invention relates to a monitoring device and a monitoring method for monitoring a device.
[0002]
[Prior art]
2. Description of the Related Art In general, a monitoring apparatus that measures an image of a monitoring target at night or in the dark without being affected by the posture of the monitoring target or room illumination light is known. The conventional monitoring apparatus includes an imaging unit that emits a predetermined illumination pattern and continuously captures light of the emitted wavelength. The illumination pattern is obtained from images of two frames acquired at different times by the imaging unit. After calculating the inter-frame movement amount, the inter-frame movement amount is arranged in time series to generate movement amount waveform data, and the movement of the monitoring target is detected from the movement amount waveform data.
[0003]
[Patent Document 1]
Patent Publication No. 2002-175582 (paragraph number 0029, FIG. 1)
[0004]
[Problems to be solved by the invention]
However, as described above, according to the conventional monitoring device, since the movement of the monitoring target is detected based on the movement amount waveform data arranged in time series, the calculation process of the moving direction of the monitoring target becomes complicated, and the monitoring target moves to a predetermined area. It has been difficult to detect in a short time that an object to be monitored detects proximity. In addition, an imaging device that monitors an object to be monitored using artificial indoor illumination light or natural light has a problem in that, at night or in the dark, the edge detection accuracy of the object to be monitored is reduced and the movement of the object to be monitored is accurately measured. Was difficult.
[0005]
Therefore, the present invention provides a monitoring device and a monitoring method for measuring a distance between a monitoring target that enters a three-dimensional monitoring space at night or in the dark and an imaging device, and monitoring a monitoring target that approaches a predetermined area. It is an object.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, a monitoring device 1 according to the first aspect of the present invention, as shown in FIG. 1, for example, detects a monitoring target entering a three-dimensional monitoring space and outputs a detection signal. An infrared irradiating device 17 that irradiates the monitoring space 10 with infrared light in response to a predetermined threshold signal indicating a decrease in the amount of visible light in the monitoring space; A first imaging device 16 that captures infrared light reflected from the monitoring target 12 at a second time that is delayed by a predetermined time from the first time, and a predetermined interval from the first imaging device 16 A second imaging device 18 that is installed facing the monitoring space 10 and captures infrared light reflected from the monitoring target 12 at a first time and a second time; Forming a difference image between the captured image and the image captured at the second time Monitoring based on the difference image forming units 24 and 25 and the difference image 24 of the image formed by the first imaging device and the difference image 25 of the image formed by the second imaging device formed by the difference image forming units 24 and 25. Based on the calculation result of the position calculation unit 30 of the monitoring target which calculates the position of the target 12 and the position calculation unit 30, the monitoring target 12 detects the approach to the monitoring areas 42 and 43 and outputs a detection signal. And an approach notifying unit 32.
[0007]
With this configuration, the monitoring target 12 calculates the position of the monitoring target 12 and calculates whether the monitoring target 12 approaches the monitoring areas 42 and 43 based on the calculation result of the position calculation unit 30. Since the apparatus includes the approach notification unit 32 that detects and outputs a detection signal, the monitoring target 12 can determine a position change to the monitoring areas 42 and 43 and output a detection signal.
[0008]
In order to achieve the above object, the monitoring device 1 according to claim 1 of the invention according to claim 2 further includes, for example, as shown in FIG. 1, an illuminance measuring device 29 that detects visible light in the monitoring space 10. .
[0009]
With this configuration, the infrared irradiating device 17 can irradiate the monitoring space 10 with infrared light in response to a predetermined threshold signal indicating a decrease in visible light transmitted from the illuminance measuring device 29.
[0010]
In order to achieve the above object, the monitoring device 1 according to any one of claims 1 to 2 according to the invention according to claim 3 includes, for example, as shown in FIG. The movement direction 27 of the monitoring target 12 is calculated by detecting a temporal change in the position of the target 12.
[0011]
With this configuration, the position of the monitoring target 12 is detected and the moving direction 27 of the monitoring target 12 is calculated to detect the change over time. Twelve positions can be detected.
[0012]
In order to achieve the above object, a monitoring method according to the invention according to claim 4 is, for example, a monitoring method for detecting a monitoring target approaching a three-dimensional monitoring space and outputting a detection signal as shown in FIG. There is an infrared irradiation step of measuring the amount of visible light in the monitoring space 10 and emitting infrared light when a predetermined undervisible light amount state is reached, and a plurality of images obtained by imaging the monitoring space 10 with infrared light. The monitor object 12 is monitored based on the movement calculation process of the monitor object 12 that forms the difference images 24 and 25 and calculates the height 26 and the movement direction 27 of the monitor object 12, based on the calculation result of the movement calculation process. An approach notification step of detecting approach to the regions 42 and 43 and outputting a detection signal 39; measuring an amount of visible light in the monitoring space 10; and stopping the emission of infrared light when a predetermined amount of visible light is reached. An irradiation stopping step.
[0013]
With this configuration, it is possible to detect the approach of the monitoring target 12 to the monitoring areas 42 and 43 and output the detection signal 39.
[0014]
In order to achieve the above object, a monitoring method according to a fifth aspect of the present invention is a monitoring method for detecting a monitoring object approaching a three-dimensional monitoring space and outputting a detection signal as shown in FIG. Measuring the amount of visible light in the monitoring space 10, and stopping the infrared light emission 17 when a predetermined amount of visible light is reached, and a plurality of images obtained by imaging the monitoring space 10 with visible light. Based on the calculation results of the monitoring object moving and calculating the height 26 and the moving direction 27 of the monitoring object 12, the monitoring object 12 An approach notification step of detecting approach to the monitoring areas 42 and 43 and outputting a detection signal 39.
[0015]
With this configuration, based on a plurality of images obtained by capturing the monitoring space 10 with visible light, the monitoring target 12 detects the approach of the monitoring areas 42 and 43 based on the calculation result of the movement calculation step, and the detection signal 39 Can be output.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding members are denoted by the same or similar reference numerals, and overlapping description will be omitted.
[0017]
FIG. 1 is a schematic partially broken perspective view of a monitoring device 1 according to an embodiment of the present invention. In the figure, a monitoring target 12 stands upright on the floor, and observes the direction of a monitoring space 10 in which a security target 38 such as a showcase, a safe, a product storage, and a computer is installed. In the present embodiment, the monitoring target 12 is a person 12, a finger, a hand, an arm, and a body of the person.
[0018]
The monitoring device 1 includes a first imaging device 16 installed toward the monitoring space 10 and a second imaging device installed toward the monitoring space 10 at a predetermined distance w from the first imaging device 16. The apparatus includes a device 18 and a control device 2 electrically connected to the first and second imaging devices.
[0019]
The control device 2 includes a calculation unit 30, a memory unit 31, an interface I / F 19, a notification unit 32, and an illuminance measurement unit 29 as an illuminance measurement device.
[0020]
The monitoring device 1 receives the imaging data transmitted from the first or second imaging device via the interface I / F 19, extracts the illuminance data by the operation unit 30, and transmits the illuminance data to the illuminance measurement unit 29. The illuminance measurement unit 29 compares the received illuminance data with a pre-stored predetermined threshold indicating a decrease in visible light, and responds to the illuminance data below the threshold from the illuminance measurement unit 29 to indicate a signal indicating a decrease in the amount of visible light. Is transmitted to the arithmetic unit 30.
[0021]
The operation unit 30 responds to the reception of the signal indicating the decrease in the amount of visible light, via the I / F 19, the first CCD camera 16 as the first imaging device and the second CCD camera as the second imaging device. A control signal for causing the infrared irradiating device 17 including a plurality of infrared light emission devices LED or infrared laser diode attached to the CCD camera 18 to emit light is transmitted to the first and second CCD cameras, and the infrared irradiating device 17 transmits the control signal. Light is irradiated toward the monitoring space 10. Further, the drive power supply of the infrared irradiation device 17 may supply DC power according to the universal serial bus USB standard from the I / F 19. The driving power of the infrared irradiation device 17 may be supplied directly from a DC power adapter (not shown).
[0022]
Here, the first and second CCD cameras have an automatic switching function of increasing or decreasing the amount of video signals so as to output a color video signal when shooting at daytime and to output a black and white video signal when shooting at night. May be prepared. The first and second CCD cameras may be constituted by monochrome CCDs, and may be configured to output a monochrome video signal regardless of day and night.
[0023]
Further, when each of the infrared irradiation devices 17 is exemplified, an infrared irradiation device 17 having an illuminance of about 10 lux (Lux) is attached to the first and second CCD cameras, and a total of 24 infrared irradiation devices 17 are used in darkness. Secure a monitoring distance of about 10m. Similarly, a monitoring distance of about 15 m is ensured in the dark by a total of 56 infrared irradiation devices 17. Similarly, a monitoring distance of about 20 m can be secured in the dark by a total of 104 infrared irradiation devices 17. The turning on and off of the infrared irradiation device 17 is automatically controlled by the control signal transmitted from the arithmetic unit 30 as described above.
[0024]
The first CCD camera 16 transmits imaging information of the monitoring space 10 taken at the first time to the control device 2 via the I / F 19, specifies an address by the arithmetic unit 30, and takes an image of the inside of the memory unit 31. The signal is stored in the signal storage area 20. Further, the second CCD camera also transmits imaging information of the monitoring space 10 taken at the first time to the control device 2 via the I / F 19, and designates an address by the computing unit 30 to take an image of the inside of the memory unit 31. It is stored in the signal storage area 22.
[0025]
The first CCD camera 16 transmits to the control device 2 via the I / F 19 imaging information of the monitoring space 10 captured at a second time delayed by a predetermined time from the first time, and the arithmetic unit 30 An address is designated and stored in the imaging signal storage area 21 in the memory unit 31. The second CCD camera also transmits to the control device 2 via the I / F 19 imaging information of the monitoring space 10 taken at a second time delayed by a predetermined time from the first time, and the arithmetic unit 30 An address is designated and stored in the imaging signal storage area 23 in the memory unit 31.
[0026]
In the surveillance space 10, a security object 38 is installed substantially at the center, a cylindrical mask area is set around the security object 38, and a space between the security object 38 and the outer periphery of the monitoring area is placed on the floor. Thus, a curtain region that cannot be seen in the vertical direction is formed.
[0027]
The invisible curtain area has an outer edge 42, an inner edge 43, a width D, and a height H surrounding the security object 38 from a horizontal 360-degree direction, and includes the first CCD camera 16 and the second CCD camera 18. Are imaged from directly above.
[0028]
Typically, a CCD camera can be used for the first image sensor and the second image sensor, but CMOS sensors may be used. The CCD cameras 16 and 18 are typically used as a passive distance detecting device having two image pickup devices and measuring distance by trigonometry.
[0029]
The first and second CCD cameras simultaneously capture the infrared light reflected from the security object 38 from directly above, or capture the infrared light from above with a predetermined angle. The first and second CCD cameras 16 and 18 are set apart from each other by a predetermined distance w, and both CCD cameras also image a curtain area that cannot be seen with a predetermined parallax.
[0030]
The first CCD camera 16 and the second CCD camera 18 are connected to the control device 2 via a signal line and an I / F 19 and transmit an image pickup signal to the control device 2 by the above-described USB standard serial method. .
[0031]
The control device 2 includes an interface I / F 19, a calculation unit 30, a memory unit 31, and a notification unit 32 therein, and converts an image signal received from the first CCD camera 16 and the second CCD camera 18 into the I / F 19. The calculation unit 30 sends the imaging signal to the memory unit 31 for storage.
[0032]
The memory unit 31 includes an image signal storage unit 20 at a first time for storing an image signal obtained by infrared imaging with the first CCD camera 16 at a first time, and a first image signal storage unit 20 at a second time. A second time imaging signal storage unit 21 that stores an imaging signal obtained by infrared imaging at a first time, and a first time imaging signal storage unit 22 that stores an imaging signal captured by the second CCD camera 18 at a first time. And an image signal storage unit 23 at a second time for storing an image signal captured by the second CCD camera 18 at a second time.
[0033]
The operation unit 30 has a first difference image storage unit 24 for logically operating and storing the difference image obtained by the first CCD camera 16, and a second operation for logically operating and storing the difference image obtained by the second CCD camera 18. A difference image storage unit 25, a height storage unit 26 that logically calculates and stores the height of the person 12 or the height of the floor surface that has entered the invisible curtain area, and a movement that logically calculates and stores the moving distance of the person 12 A distance storage unit 27 and a mask address storage unit 28 for storing a mask address of a mask area in the monitoring space 10 set from the outside are provided.
[0034]
The notification unit 32 outputs a detection signal to the line 39 in response to the control signal output from the calculation unit 30, activates the external alarm generation unit 37, and generates an alarm sound. Similarly, in response to a control signal output from the arithmetic unit 30, a detection signal is output to a line 34, and an alarm signal is automatically sent to a security company located at a remote place via a ground line 36. The detection signal can be transmitted via a line 34 to a terminal 35 inserted and arranged between the telephone 33 and a land line 36. Further, it is also possible to make a radio report to a mobile phone carrier instead of the ground line 36 used by the telephone 33. In short, as long as it is a means that can contact the security company, the alarm signal may be transmitted using a communication means such as a public line, a ground line, a wireless carrier, and the Internet.
[0035]
The monitoring space 10 in the figure is set in an independent room separated by a wall 44. A passage 41 is provided in front of the wall 44, and the security guard 15 carries a flashlight at night to guard. The passage 41 is monitored by a security device (not shown) at night, but when the security guard 15 patrols the passage 41, the security guard is released by the security guard 15.
[0036]
The monitoring device 1 monitors the monitoring space 10 even when the security device on the side of the passage 41 is released, detects a person entering the monitoring space 10 even if it is the security guard 15, and detects the intruder approaching the security object 38. It is configured to issue a warning by judging a person. That is, the surveillance space 10 is designated as an off-limits zone except for the persons concerned.
[0037]
With reference to the schematic plan view of FIG. 2, the mask processing of the monitoring space 10 applied to the second embodiment of the present invention will be described. The monitoring device 1 irradiates infrared light from the infrared irradiation device 8 connected to the I / F 19 toward the security object 38, and reflects the infrared light from the monitoring space 10 with the first CCD camera 16 and the second CCD camera 18. Of the person 12 entering the angle of view of the first and second CCD cameras, the invisible curtain area, and the height information of the security object 38 at the same time.
[0038]
The monitoring device 1 can set an arbitrary range to the invisible curtain region and the mask region by the control device 2 of FIG. The control device 2 is constituted by hardware capable of changing the control process by a software program such as a personal computer or a microprocessor, and the first and the second positions are set at positions where the security object 38 is imaged directly above or from a predetermined angle. While the second CCD cameras 16 and 18 are installed and the image of the monitoring space 10 is viewed on the monitor, the mask area 50 surrounded by the broken line in the figure can be set at an arbitrary position.
[0039]
In the present embodiment, the maximum value of the radius around the security object 38 is set at the outer peripheral position of the mask area 50, and the image pickup signals in the mask area 50 imaged by the first and second CCD cameras are imaged. Can be removed from processing.
[0040]
Also, the outer edge 42 and inner edge 43 of the invisible curtain area, which is shown by hatching in the figure and surrounds the mask area 50 from the horizontal 360-degree direction, are set by a horizontal address (XY orthogonal coordinates) and a vertical address (Z coordinate). Then, the mask area 50 is surrounded by a curtain area invisible with a width D, and the temporal change in the height of the person 12, the finger, the hand, the arm, the torso, etc. of the person 12, which has entered the range of the width D, is measured.
[0041]
Accordingly, the infrared light reflected from the person 12 standing upright outside the invisible curtain area is imaged by the first and second CCD cameras. It can be removed from image processing.
[0042]
In the above-described embodiment, the first and second CCD cameras 16 and 18 as distance detecting devices that detect the approach of the person 12 by measuring the distance between the CCD cameras 16 and 18 and the person 12 are typically The apparatus is provided with two imaging devices for imaging the reflection of infrared light emitted from the infrared irradiation device 8, and is used as a passive distance detection device that measures distance by trigonometry.
[0043]
The above-described curtain region has been described as a plane or a cylindrical curved surface standing upright on the floor surface, but the distance to be set is arbitrary, so the curtain region is formed into a free curved surface, for example, a hemispherical or oval shape. You can also.
[0044]
Further, the curtain region has been described as a region having a thickness D sandwiched between the outer edge portion 42 and the inner edge portion 43. However, the present invention is not limited thereto, and the outer edge portion 42 and the inner edge portion 43 coincide with each other, or only the outer edge portion 42, or It may be a region where only the inner edge portion 43 has zero thickness. At that time, a detection signal is output depending on whether the monitoring target 12 passes through the curtain area.
[0045]
The operation of the monitoring device 1 will be described with reference to FIGS. The first CCD camera 16 has a predetermined number of scanning lines, the second CCD camera 18 has a predetermined number of scanning lines, and the two CCD cameras 16 and 18 are commonly installed in parallel in the scanning line direction. I have. Further, in the present embodiment, the first CCD camera 16 and the second CCD camera 18 will be described as separate bodies, but may be configured integrally. The curtain region surrounding the mask region 50 is a region having a thickness D sandwiched between the outer edge portion 42 and the inner edge portion 43, and the first and second CCD cameras move through the curtain region at night or in a dark state. The infrared light reflected from the moving person 12 is imaged. Further, in a state where natural light or artificial light due to fluorescent lamp irradiation is incident, irradiation of infrared light is stopped and reflection of visible light is imaged.
[0046]
Also, the number of scanning lines of the first and second CCD cameras is typically the same, and the number of scanning lines of each CCD camera is, for example, about 500, and each scanning line has about 500 Pixel to pixel. In the present embodiment, the first CCD camera 16 and the second CCD camera 18 are installed on the ceiling. However, the first CCD camera 16 and the second CCD camera 18 may be installed facing the monitoring space with an angle on the wall.
[0047]
The control device 2 includes an arithmetic unit 30 and controls the entire monitoring system 1 as a monitoring device. Further, inside the calculation unit 30, a reference distance to be compared with the measurement distance measured by the first and second CCD cameras is stored in, for example, the height storage unit 26. The reference distance may be a distance at a time point in the past of the monitoring time point. Typically, the reference distance is a distance of the background (floor) in a state where the person 12 does not exist in the invisible curtain area. The distance may be one frame before when the background distance is periodically detected.
[0048]
The control device 2 receives imaging signals from the first CCD camera 16 and the second CCD camera 18, and extracts images formed on scanning lines corresponding to each other in synchronization. Further, as the scanning lines to be synchronized, 500 scanning lines of each CCD camera may be extracted. The number of the invisible curtain areas may be thinned out at predetermined intervals.
[0049]
For example, when the torso of the person 12 is detected, a scanning line for capturing an image at an interval of about 100 mm is extracted. When a hand of the person 12 is detected, a scanning line for capturing an image at an interval of about 50 mm is extracted. In the case of detecting the finger, it is also possible to individually set so as to extract a scanning line for picking up an image of about 10 mm intervals, and to detect that any part of the person 12 has entered the invisible curtain area. For example, when at least about 500 scanning lines of each CCD camera are used, one scanning line may be selected at regular intervals and about 20 scanning lines may be extracted.
[0050]
Further, the curtain region has been described as a plane or a cylindrical curved surface erected in the direction perpendicular to the floor surface, but the distance to be set is arbitrary, so the curtain region can be formed into a free curved surface, for example, a hemispherical shape. .
[0051]
The curtain region has been described as a region having a thickness D sandwiched between the outer edge portion 42 and the inner edge portion 43. However, the present invention is not limited thereto, and the outer edge portion 42 and the inner edge portion 43 coincide with each other, or only the outer edge portion 42, or It may be a region where only the inner edge portion 43 has zero thickness. At that time, a detection signal is output depending on whether or not the monitoring target passes through the curtain area.
[0052]
Further, as for the scanning lines to be synchronized, it is preferable to extract each scanning line in time series. Further, when the scanning lines are extracted from the first CCD camera 16 and the second CCD camera 18, if the extraction processing is performed using an external synchronization signal, a circuit for extracting and processing the corresponding scanning lines is provided. Can be simplified, and software processing can be facilitated.
[0053]
The control device 2 receives the imaging signals captured at different times T0 and T1 for the first CCD camera 16 and the second CCD camera 18, respectively, and the first CCD camera 16 captures the image at the time T0. The imaging signal is stored in the imaging signal storage unit 20 at the first time, and the imaging signal captured by the second CCD camera 18 at the time T0 is stored in the imaging signal storage unit 22 at the first time.
[0054]
Further, the control device 2 stores the imaging signal captured by the first CCD camera 16 at the time T1 in the imaging signal storage unit 21 at the second time, and the imaging signal captured by the second CCD camera 18 at the time T1. Is stored in the imaging signal storage unit 23 at the second time.
[0055]
The arithmetic unit 30 performs a logical operation process based on image information of each image formed on a scanning line included in each image pickup signal, and stores the difference image data of the first CCD camera in the internal difference image storage unit 24 ( CCD1: difference), and the difference image data of the second CCD camera is stored in the internal difference image storage unit 25 (CCD2: difference). Subsequently, a logical operation is performed based on the two difference image data to perform a correlation process. An image data processing function is provided for storing the height H of the monitored object in the height storage unit 26 (height H) by this correlation processing. Note that the image information is typically a pixel value of a pixel constituting the image.
[0056]
The arithmetic unit 30 reads out the image signals of T0 and T1 from the image signal storage units 20 and 21 that store the image signals of the first CCD camera 16, respectively, and reads out the images formed on the scanning lines included in the image signals. A difference image is formed from the image information and stored in the internal first difference image storage unit 24. Further, the imaging signals of T0 and T1 are read from the imaging signal storage units 22 and 23 for storing the imaging signals of the second CCD camera 18, respectively, and the image information of each image formed on the scanning line included in each imaging signal is read out. A difference image is formed and stored in the internal second difference image storage unit 25.
[0057]
The two images for forming the difference image are acquired at an imaging time T1 that is delayed by a predetermined time from the imaging time T0, but the delay time to be shifted is substantially the same as the amount of movement of the person 12 is not too large. May be set to a time that can be regarded as substantially the same position, for example, about 0.1 second. Alternatively, it is set to 1 to 10 cycles (1/30 sec to 1/3 sec) of the television cycle. When such a difference image is calculated and obtained, the background of the person 12 is removed, and only the edge image of the moving person 12 can be extracted.
[0058]
In addition, the calculation unit 30 has a function as an area extracting unit that extracts a maximum area from areas divided by pixels whose absolute values of pixel values constituting the difference image are larger than a predetermined threshold. ing.
[0059]
Since the background of an image formed on the scanning line of each CCD camera does not move, the pixel value of the boundary of the moving person 12 changes rapidly. Therefore, the arithmetic unit 30 reads each difference image from the internal first difference image storage unit 24 and second difference image storage unit 25, and determines that the absolute value of each pixel value forming the difference image is greater than a predetermined threshold value. Can perform a logical operation that regards the largest area as a boundary of the person 12 among the areas divided by large pixels. Here, the boundary is set to the maximum area because the pixel value of the threshold value is small in the area divided by the movement of the clothes and gloves worn by the person 12 in the area other than the boundary. This is because it may change.
[0060]
In addition, the arithmetic unit 30 calculates the maximum region between the maximum regions extracted from the difference images corresponding to the respective images in which the infrared light or the visible light reflected by the first CCD camera 16 and the second CCD camera 18 is captured. It has a logical operation function as correlation output calculation means for calculating a correlation output value. The calculating unit 30 calculates the distance between the CCD camera and the person 12 based on the correlation output value obtained by performing the logical operation.
[0061]
The calculation unit 30 extracts, for example, image information of the largest region extracted from the difference image formed by the scanning lines, and specifies a point where the contrast of the person 12 greatly changes due to the movement of the person 12. Further, similarly to the scanning line of the first CCD camera 16, the image information of the maximum area of the difference image formed on the scanning line of the second CCD camera 18 is extracted. When the image information of the maximum area of each of the extracted difference images is compared, it means that the area images where the position of the maximum area of the difference image is slightly different from the parallax relationship of the two CCD cameras are extracted.
[0062]
Subsequently, the arithmetic unit 30 performs a logical operation of the correlation processing between the difference image obtained by the first CCD camera and the difference image obtained by the second CCD camera, and measures the position where the correlation peak is maximized, thereby obtaining two values. An average correlation output value between the difference images or a correlation output value substantially at the center of the extracted region is logically obtained and obtained.
[0063]
Here, the correlation output value is a relative imaging position difference generated by the parallax between the first CCD camera 16 and the second CCD camera 18, and is typically output in the number of pixels by the correlation processing. Value. The arithmetic unit 30 calculates the distance between the CCD camera and the person 12 using trigonometry based on the parallax between the scan line of the first CCD camera and the scan line of the second CCD camera based on the correlation output value.
[0064]
Further, the correlation processing means that one of the images obtained from the scanning lines of the first CCD camera and the scanning lines of the second CCD camera is shifted by a pixel unit until the two images substantially match. This is a process of calculating the shifted amount by indicating the amount by the number of pixels, for example. The determination as to whether or not the two difference images match is performed based on the overall strength of the signals that overlap when one difference image is fixed and the other difference image is compared while being shifted. The coordinates at which the signal peaks are coincident points and the correlation peak positions.
[0065]
In the correlation process, a difference image corresponding to each image captured by the first CCD camera 16 and the second CCD camera 18 is binarized with an appropriate value, and an edge portion thereof is extracted, whereby there is movement. A configuration may be adopted in which a region portion is extracted and a correlation process is performed only on the extracted region. With this configuration, the correlation processing uses the binarized difference image, so that the calculation processing speed can be improved.
[0066]
The arithmetic unit 30 is configured to output predetermined infrared light reflected by the first CCD camera 16 and the second CCD camera 18 from a maximum area extracted from a difference image corresponding to each of the captured images. A process may be performed such that a correspondence between pixels larger than the threshold value is obtained, and a distance between the CCD camera and the person 12 is logically calculated based on the displacement of the corresponding pixel. In this case, the calculation unit 30 does not calculate the correlation output value between the largest regions extracted from the difference image as described above, but obtains the correspondence of the pixels larger than the threshold in the largest region, and The displacement of the pixel is calculated.
[0067]
The calculation unit 30 calculates the distance from the CCD camera to the person 12 using the trigonometry based on the displacement of the corresponding pixel, that is, the parallax of the CCD camera. Thereby, the calculation unit 30 can, for example, number the pixels exceeding the threshold value from the same direction, and obtain the parallax from the positional shift between the pixels of the corresponding numbers.
[0068]
With such a configuration, the calculation unit 30 can calculate the parallax by a very simple process, omitting the correlation process. Further, for example, when many pixels exceeding the threshold value are detected due to a change in contrast due to a pattern or the like in the extracted area, the arithmetic unit 30 performs processing so that numbering is not performed on portions other than the above-described edge portions. . Accordingly, it is possible to reduce a phenomenon in which a pixel having a corresponding number is shifted from a pixel to be originally handled due to the influence of parallax, thereby causing an error in a value of a position shift. This is also effective when the parallax increases due to the short distance to the person 12.
[0069]
FIG. 3 is a schematic partially broken perspective view of a monitoring device according to another embodiment of the present invention. In the figure, a person 12 stands upright on an indoor floor such as a painting hall and faces a wall 52 on which a painting 53 is hung. Also in the present embodiment, the monitoring target is the person 12, the finger, the hand, the arm, the body, and the like of the person.
[0070]
A wall 54 erected opposite the wall 52 embeds the first CCD camera 16 and the second CCD camera 18, and monitors the person 12 approaching the painting 53. The infrared irradiating device 17 provided so as to surround the lens portions of the first and second CCD cameras emits light at night or in a dark state, and directs infrared light toward the person 12, the wall 52, and the picture 53. Irradiate.
[0071]
The first CCD camera 16 and the second CCD camera 18 are set apart from each other by a predetermined distance w, and their optical axes are set parallel to each other. Also, the video output signals of the first CCD camera 16 and the second CCD camera 18 are transmitted to the control device 2 in the same manner as in the above-described embodiment, and thus the duplicate description will be omitted.
[0072]
The first CCD camera 16 and the second CCD camera 18 have an angle of view covering the passage in front of the wall 52, and monitor an invisible curtain area 57 shown by hatching in the figure. The invisible curtain area 57 is set in the vicinity of the painting 53, has a height H and a width D, and captures infrared light reflected from the person 12 approaching the painting 53 from the passage.
[0073]
Further, a mask area may be set on the side of the passage adjacent to the invisible curtain area 57. In this case, the stereo video output signal of the infrared light transmitted from the first CCD camera 16 and the second CCD camera 18 can be configured so that the control device 2 removes the imaging signal of the mask area. . The same processing as that of the above-described embodiment can be used for the processing of the mask area, and thus the overlapping description will be omitted.
[0074]
The control device 2 identifies a person who only walks in the passage and a person who enters the invisible curtain area 57 and approaches the painting 53. That is, as the person 12 approaching the picture 53 by measuring the change in the position of the person 12 approaching the picture 53 over time while the person 12 walking on the passage enters the invisible curtain area 57 in front of the picture 53. judge. Based on the result of the determination, the control device 2 that has detected the approach of the person 12 outputs a detection signal via the notification unit, and issues an alarm signal to the outside.
[0075]
The invisible curtain area 57 is set to a distance close to the painting 53 from a range where the hand of the person 12 cannot reach the painting 53. For example, the approaching area of the person 12 with a width D of 10 to 100 cm before the painting 53 is set. Is configured to be detected. With this configuration, an alarm can be issued before the person 12 contacts the painting 53.
[0076]
In the above embodiment, two CCD cameras 16 and 18 are buried in the wall 54 facing the picture 53 to monitor the front of the picture 53 as a three-dimensional monitoring space. For example, two CCD cameras can be installed so as to monitor the picture 53 from above or obliquely at a predetermined angle.
[0077]
Typically, the edge of the person 12 is extracted from the person 12 approaching the picture 53 by irradiating infrared light and the contrast difference between the wall 52 and the picture 53 or the floor.
[0078]
With this configuration, the contrast between the background and the person 12 can be obtained with high probability. In addition, since an image corresponding to the scanning line of the CCD camera corresponding to the head to the toe of the person 12 is obtained, image information of a plurality of scanning lines can be averaged, and monitoring accuracy can be improved.
[0079]
For example, if the number of scanning lines of the CCD camera is α, the standard deviation of the image information can be obtained by averaging the distance values corresponding to the α number, and the accuracy of the standard deviation of the route α can be obtained. Performance can be improved. In this case, the movement of the person 12 and the other person walking along the passage are simultaneously imaged. However, based on the infrared light image information captured by the two CCD cameras 16 and 18, the other person and the person The distance between the object 12 and the CCD camera is calculated, and the approaching distance of only the person 12 as the monitoring target existing at a predetermined distance or more (the width D of the invisible curtain area) is extracted, and other moving image information is obtained. Is configured to be removed.
[0080]
In the above embodiment, based on the contrast between the wall 52 and the painting 53 that are stationary due to the irradiation of the infrared light and the moving person 12, an edge is detected and a difference image is formed, and then the correlation processing is performed. Although the approaching state was monitored, as another embodiment, the first and second CCD cameras were installed indoors, an outdoor scene was imaged by infrared light through the glass window, and the person approaching the glass window was observed. It can also be detected based on distance information.
[0081]
In this case, trees and flowers moving in the scenery, a moving car, and the approaching person are simultaneously imaged. Based on the infrared light image information captured by the two CCD cameras 16 and 18, The moving background and the distance between the person 12 and the CCD camera are calculated, the approaching distance of only the person 12 as a monitoring target which is shorter than a predetermined distance is extracted, and other moving image information is removed. I do.
[0082]
In this way, the curtain area and the mask area which are not visible at a distance from the glass window are set, and the distance information of the person approaching the area less than the predetermined distance is extracted from the two CCD cameras to detect the approach of the person. Can be detected.
[0083]
FIG. 4 is a schematic perspective view of the imaging device 16 and the infrared irradiation device 17 used in the embodiment of the present invention. The imaging device 16 has the lens 11 disposed on the front surface, and the plurality of infrared irradiation devices 17 are disposed so as to surround the lens 11 by 360 °. The imaging device 16 and the infrared irradiating device 17 are electrically connected to the interface I / F 19, and are configured to transmit imaging data of visible light received by the imaging device 16 to the interface I / F 19. The infrared irradiation device 17 receives a light emission signal responsive to a predetermined threshold signal indicating a decrease in visible light through the I / F 19 and irradiates the monitoring space with infrared light.
[0084]
When the visible light received by the imaging device 16 reaches a predetermined visible light amount (illuminance), the infrared irradiation device 17 receives a light emission stop signal via the I / F 19 and stops emitting infrared light.
[0085]
FIG. 5 is a schematic perspective view of another infrared irradiation device 8 used in the embodiment of the present invention. The infrared irradiating device 8 is a stand-alone infrared irradiating device supported by the stand 4 and erected in the vertical direction. A housing is installed on the upper part of the stand 4, and infrared irradiation units 7 arranged in a matrix on one main surface of the housing are provided in 8 rows and 4 columns.
[0086]
An illuminance measuring device 6 for measuring visible light is arranged below the infrared irradiating units 7 arranged in a matrix. The illuminance measuring device 6 can detect an amount of light by using an optical sensor such as a photodiode, providing an infrared cut filter (not shown) in front, and transmitting only visible light.
[0087]
The infrared irradiator 8 receives power from a commercial power supply via the AC power plug 5 and independently measures the visible light in the monitored space, responds to a predetermined threshold signal indicating a decrease in visible light, Irradiates the monitoring space with infrared light from the infrared irradiating section 7 of. On the other hand, when the amount of visible light in the monitoring space increases and reaches a predetermined amount of visible light, the emission of infrared light is independently stopped.
[0088]
With reference to the flowchart of FIG. 6, a method for monitoring a three-dimensional monitoring space will be exemplified. Here, the monitoring device can use a common processing method corresponding to visible light and infrared light. The left image is an image captured by the first CCD camera 16, and the right image is described as an image captured by the second CCD camera 18. The process starts from a start step S10, and in step S11, the control device 2 converts the left image and the right image captured by the first CCD camera 16 and the second CCD camera 18 via the imaging device interface I / F19. To obtain a stereo image. Further, the acquired stereo image is subjected to mask processing to remove image information outside the mask region 50 surrounded by the invisible curtain region and the invisible curtain region.
[0089]
The control device 2 acquires the left image of the t frame, which is the first image of the person 12 in the invisible curtain area at the time point t (step S13). Next, a left image of the t + Δt frame, which is the second image captured at the time point t + Δt at which the predetermined time Δt has elapsed, is acquired (step S14). Subsequently, a difference image between the left image of the t frame and the left image of the t + Δt frame is extracted (step S15). The difference image is subjected to a dynamic region extraction process (Step S16) in which the background is removed from the extracted difference image in correspondence with one of the t frame and the t + Δt frame, and then is subjected to the correlation process of the subsequent Step S21. Move to
[0090]
Further, the control device 2 acquires a right image of a t-frame which is a third image of the person 12 in the invisible curtain area at the time point t (step S17). Next, the right image of the t + Δt frame, which is the fourth image captured at the time point t + Δt after the elapse of the predetermined time Δt, is acquired (step S18). Subsequently, a difference image between the right image of the t frame and the right image of the t + Δt frame is extracted (step S19). The difference image is subjected to a dynamic region extraction process (step S20) in which the background is removed from the extracted difference image in correspondence with either one of the t frame and the t + Δt frame, and then the correlation process of the subsequent step S21. Move to
[0091]
In the present embodiment, the first CCD camera and the second CCD camera perform imaging simultaneously and in parallel at each time point (t, t + Δt). In this case, Δt may be appropriately determined according to the setting conditions of the counting device, but is desirably the time from when one frame N is imaged until the next frame N + 1 is imaged.
[0092]
Next, the corresponding point of the right image of the t frame is searched for using the outline of the person 12 having the strong contrast of the left image of the t frame, and the correlation process is executed (step S21). Height information is calculated from the corresponding points obtained by the correlation processing (step S22). For example, the height of the person 12 is calculated and output based on the number of pixels for matching the left image and the right image.
[0093]
The height information of the person 12 obtained in the above step S22 is compared with the coordinate information of the invisible curtain area, and the person 12 or the height of the part enters the invisible curtain area and approaches the security object 38. It is determined whether or not it has been performed (step S23).
[0094]
For example, the height information of the person 12 obtained at the immediately preceding time is compared with the height information of the current person 12, and it is determined whether the current person 12 or a part thereof approaches the security object 38 or not. The determination is made based on the pixel address indicating the outline of the part. When the contour address of the person 12 is away from the address of the outer edge 42 of the invisible curtain area width D shown in FIG. 1 and approaches the address of the inner edge 43 (Yes in step 23), the person 12 or a part thereof is a security target. 38, the process branches to step 24, and outputs a detection signal as a detection signal, and then proceeds to step 25 to end the process.
[0095]
In addition, in the case of application to a painting theater, when the contour address of the person 12 is away from the passage-side address of the invisible curtain area 57 shown in FIG. 3 and approaches the address on the wall 52 side (Yes in step 23), the person 12 Alternatively, it is determined that the part is approaching the picture 53, and the process branches to step 24, outputs a detection signal, and then proceeds to step 25 to end the process.
[0096]
On the other hand, the contour address of the person 12 is compared with the address of the outer edge portion 42 and the address of the inner edge portion 43 of the invisible curtain region width D shown in FIG. When approaching the address of the outer edge portion 42 (No in Step 23), the process branches to the node N12 to acquire a frame at the next time. The height information of the newly acquired person 12 is calculated (step S22), and the approach of the person 12 is determined in association with the curtain area that cannot be seen in step 23 (step S23).
[0097]
The determination conditions in step 23 will be described using the monitoring device shown in FIG. When the person 12 advances in the direction of the painting 53 and enters the invisible curtain area width D, the contour address of the person 12 moves away from the passage-side address of the invisible curtain area width D shown in FIG. (Step 23 is Yes), it is determined that the person 12 or its part is approaching the picture 53, and the flow branches to step S24 to output a detection signal. Thereafter, the process proceeds to step 25 to end the processing.
[0098]
On the other hand, the contour address of the person 12 is compared with the passage-side address of the invisible curtain area width D and the address of the painting 53 shown in FIG. When approaching the address (No in step 23), the process branches to node N12 to acquire a frame at the next time. Further, the height information of the person 12 is calculated to detect the moving direction within the width D of the invisible curtain area (step S23).
[0099]
Here, with reference to the schematic block diagram of FIG. 7, a method of calculating the distance between the CCD camera and the person 12 using trigonometry will be described with reference to the distance (height) when the person 12 is imaged from vertically above. An example of a measurement method will be described. Here, w is the distance between optical axes (base line length) between the first CCD camera 16 and the second CCD camera 18, f is the focal length of each CCD camera when the light receiving lens is a single lens, d is the parallax on the image plane of the CCD camera. When a commonly used combination lens is used, the focal length f here is the focal length f of the combination lens. Thus, the distance a between the target person 12 and the CCD camera can be calculated by the following equation.
a = w × f / d (1)
In this way, the sensor control unit 60 that has acquired the stereo images from the first and second CCD cameras 16 and 18 uses the difference image forming unit 62 inside to detect the difference image of the first CCD camera 16 and the second CCD camera. The difference image of the camera 18 is formed, the two difference images are subjected to correlation processing by the correlation output operation unit 64, and a correlation processing signal is output to the control device 2, thereby calculating the distance from the CCD camera to the person 12. The height z of the person 12 is calculated by subtracting the distance between the person 12 and the reference distance h between the floor and the CCD camera measured in advance, and the height z value is stored in the height storage unit 26. Further, a configuration may be adopted in which video signals are directly transmitted from the two CCD cameras to the control device 2 without going through the sensor control unit 60.
[0100]
Returning to FIG. 1, the operation of the monitoring system 1 will be further described. The arithmetic unit 30 can monitor the person 12 based on the height value z stored in the internal height storage unit 26.
[0101]
The arithmetic unit 30 stores the height value z of the person 12 stored in the internal height storage unit 26 in time series, and determines the position information, the moving direction, the posture, and the like of the person 12 based on the time value z. To be configured. That is, by comparing the reference distance h with the height value z of the person 12 at a certain point in time, the presence of the person 12, its position information, the moving direction, the posture, and the like can be determined.
[0102]
Further, the calculation unit 30 determines the final existence of the person 12, its position information, the moving direction, the posture, and the like from the determination results respectively corresponding to a plurality of scanning lines extracted from the scanning lines of the CCD camera. The position information of the person 12 is processed. In addition, the moving direction of the person 12 includes not only a horizontal change in the position of the person 12 but also a vertical change in which the person 12 stands or sits, for example.
[0103]
In the above embodiment, the monitoring device 1 that monitors the monitoring space 10 with the two CCD cameras installed vertically above the person 12 has been described. However, as another embodiment, the two CCD cameras are connected to the monitoring space 10. It can be installed on a wall or a pillar located in the vicinity of the camera, and can monitor a curtain area that is not visible toward the monitoring space 10 at a predetermined angle.
[0104]
For example, two CCD cameras are installed on a wall or a pillar having a height H from the floor surface, and a horizontal distance from the two CCD cameras to a curtain area invisible to the two CCD cameras is L. When the distance between the 12 parts such as fingers, hands, arms and torso and the two CCD cameras 16 and 18 is measured as A, the distance from the part of the person 12 to the installation position of the CCD cameras 16 and 18 is determined. The height H1 in the direction and the distance L1 from the wall or the pillar can be obtained by the following equation.
H1 = AH / (H2+ L2)1 / 2……… (2)
L1 = AL / (H2+ L2)1 / 2……… (3)
[0105]
The position information of the position of the person 12 moving toward the monitoring space 10 is sequentially calculated based on the calculated height H1, the distance L1, and the distance measurement directions of the two CCD cameras 16 and 18, and the change over time is calculated. By comparing the front and the rear, it is possible to detect a state in which the part of the person 12 approaches or stops in the direction of the security object 38 and moves away in the curtain area where the part of the person 12 is not visible.
[0106]
Further, the position of the part of the person 12 can be roughly grasped from the position of the invisible curtain region corresponding to each of the arbitrarily extracted number of scanning lines. Thus, the position information of the part of the person 12 existing in the invisible curtain area can be calculated. If two CCD cameras 16 and 18 are arranged in a direction perpendicular to the floor surface, the position at which the cameras are attached is the position of the person 12 and the distance from the CCD camera is the height. Can also be easily obtained.
[0107]
The detection processing of the person 12 processed by the arithmetic unit 30 is delayed by a predetermined time from the position information of the person 12 calculated at the immediately preceding time by the same or different scanning line of the CCD camera, for example, the position information immediately before the same. The moving distance and the average moving speed, which are the moving information of the person 12, are calculated by comparing the positional information with the position information at the time.
[0108]
For example, the moving distance is determined by the difference between the latest position information and the data of the height H1 and the distance L1 of the position information at the immediately preceding time, and the average moving speed is delayed by a predetermined time from the difference between the data. The value is divided by the distance measurement interval time. Further, the moving distance, moving direction, and moving speed of the person 12 calculated and output by the calculating unit 30 are stored in the internal moving distance storage unit 27.
[0109]
In this way, the calculation unit 30 can determine the presence, the posture, the position, and the moving state of the person 12 in the invisible curtain area from the calculated position information and movement information of the person 12.
[0110]
For example, a state where the part of the person 12 is stopped, a state where the part of the person 12 is approaching in the direction of the monitoring space 10, and a state where the person 12 moves away from the monitoring space 10 can be accurately determined. Is present at a low height and is stopped, it can be determined that this person 12 is in a state of falling down in the invisible curtain area.
[0111]
In this way, the monitoring system 1 can accurately monitor the portion of the person 12 that has entered the invisible curtain area, the presence and the presence state of the person 12, and the like, by measuring image information over time.
[0112]
Since the CCD camera can easily have a wide angle of view, the use of a CCD camera with a wide angle of view can provide a sufficiently large monitoring target area in the horizontal direction. By applying such a monitoring system 1 to monitoring of various facilities, by increasing or decreasing the angle of view of the first CCD camera 16 and the second CCD camera 18 and setting the invisible curtain area to an arbitrary width, For example, detecting a state in which the hand of the person 12 is extended in front of the zoo cage, detecting a state in which an outsider approaches an off-limits area other than a person concerned, or detecting a person approaching an automatic door. Can be.
[0113]
When the monitoring device 1 is installed vertically above the automatic door, the automatic door opening control is executed when a state is detected in which a person approaching the door enters the invisible curtain area and is walking in the door direction. Further, when the state where the person is stopped in the invisible curtain area is detected, the door is kept in the open state, so that unnecessary opening and closing operations can be prevented from being repeated. In addition, even if another person enters the mask area surrounding the invisible curtain area, the automatic door does not perform useless opening operation, so that the power consumption of the automatic door can be reduced.
[0114]
A method of detecting the hand 12a of the person 12 imaged in the invisible curtain area will be described with reference to the schematic plan view of FIG.
[0115]
The arithmetic unit 30 performs the scanning line extraction processing so as to distribute the images of the hands 12a of the person who has entered the invisible curtain area from the image information of the two CCD cameras 16 and 18 at appropriate intervals. The scanning lines 71 to 77 are extracted. Further, the distance to the floor surface when the hand 12a does not enter is preferably set as the reference distance.
[0116]
By setting the two CCD cameras 16 and 18 in this way, the distance between the CCD camera and the hand 12a is measured, and at the same time, the presence of the hand 12a and the floor surface are determined based on which scanning line detects the hand 12a. Height can be determined. Further, by acquiring the difference image of each CCD camera and extracting the image of the hand 12a on the captured image, the position information within the invisible curtain area can be obtained from the position of the extracted image of the hand 12a on the image. Can be obtained.
[0117]
In the image frame 80 at the left end in the figure, the image of the hand 12a captured at the first time is correlated, and displayed in correspondence with the scanning line. The hand 12a has passed through the outer edge 42 and has advanced toward the inner edge 43. This is an image at a stage when height information is obtained corresponding to the scanning lines of the first CCD camera 16 and the second CCD camera 18, respectively. The hand 12a is imaged, for example, on the first scanning line 71 and the second scanning line 72.
[0118]
An image frame 81 captured at a second time delayed by a predetermined time is shown on the right side of the image frame 80. Since the image of the hand 12a is formed on, for example, the first to fourth scanning lines 71 to 74, the hand 12a moves toward the inner edge 43 of the invisible curtain area.
[0119]
An image frame 82 captured at a third time delayed by a predetermined time is shown on the right side of the image frame 81. Since the image of the hand 12a is formed on, for example, the first to seventh scanning lines 71 to 77, the hand 12a further moves toward the inner edge 43 of the curtain area which is not visible. The arithmetic unit 30 detects such a change in the position of the hand 12 a moving toward the inner edge 43, and transmits a control signal to the notifying unit 32 to output a detection signal.
[0120]
An image frame 83 captured at a fourth time later than the image frame 82 by a predetermined time is shown. Since the image of the hand 12a is formed on, for example, the first to eighth scanning lines 71 to 78, it can be seen that the hand 12a is further moved toward the inner edge 43 of the curtain area which is not visible. The arithmetic unit 30 has already transmitted the control signal to output the detection signal to the notification unit 32. However, as another embodiment, at the time when the image frame 82 is arithmetically output, the processing enters the detection signal transmission preparation process, and Control may be performed so that the detection signal is output after the change of the position in which the hand 12a is moving in the direction of the inner edge 43 is confirmed again by calculating and outputting the frame 83.
[0121]
With reference to the schematic plan view of FIG. 9, a method of detecting the hand 12a of the person 12 imaged in the invisible curtain area will be further described. In the image frame 84 at the left end in the figure, the image of the hand 12a captured at the first time is correlated, and displayed in correspondence with the scanning line. The hand 12a has passed through the outer edge 42 and has advanced toward the inner edge 43. This is an image at a stage when height information is obtained corresponding to the scanning lines of the first CCD camera 16 and the second CCD camera 18, respectively. The hand 12a is imaged, for example, on the first scanning line 71 and the second scanning line 72.
[0122]
An image frame 85 taken at a second time delayed by a predetermined time is shown on the right side of the image frame 84. Since the image of the hand 12a is formed on, for example, the first to fourth scanning lines 71 to 74, the hand 12a moves toward the inner edge 43 of the invisible curtain area.
[0123]
An image frame 86 captured at a third time delayed by a predetermined time is shown on the right side of the image frame 85. The hand 12a is stopped at the same position as the image frame 85. At this stage, the arithmetic unit 30 is on standby so as not to output the detection signal.
[0124]
An image frame 87 captured at a fourth time delayed by a predetermined time is shown on the right side of the image frame 86. The hand 12a is stopped at the same position as the image frame 86. The arithmetic unit 30 stands by so as not to output the detection signal even at this stage, compares the pixel information on the search line of the image frame 87 with the pixel information of the subsequent image frame, and determines whether the hand 12a approaches the inner edge 43. Monitor whether it is.
[0125]
Here, a method of installing the two CCD cameras 16 and 18 will be described. First, the monitoring apparatus 1 sets the first CCD camera 16 so that the scanning line of the first CCD camera 16 and the scanning line of the second CCD camera 18 corresponding to the scanning line are substantially on the same plane. And the second CCD camera 18 are arranged.
[0126]
Further, the calculation unit 30 calculates a correlation value for a scan line that scans the hand 12a with the first CCD camera 16 and a scan line that scans the hand 12a with the second CCD camera 18. A corresponding scanning line selection process for determining the positional correspondence between the scanning line of the first CCD camera 16 and the scanning line of the second CCD camera 18 is executed so that the calculated correlation value is maximized, The first address of the scanning line is determined so that each address of the scanning line stored in the difference image storage unit 24 and the address of the scanning line stored in the second difference image storage unit 25 match. The head address is stored in the unit 24, the second difference image storage unit 25, or a head address storage area (not shown).
[0127]
Here, when the hand 12a forms an image on each scanning line of the two CCD cameras, the first CCD camera 16 and the second CCD camera 18 image the hand 12a from slightly different directions. So that an image that is almost unchanged forms on both scan lines.
[0128]
The arithmetic unit 30 receives stereo images from the two CCD cameras and selects, for example, any one of the scanning lines of the first CCD camera 16. Correlation processing is performed between the line signal of the selected scanning line and the line signal of the first scanning line of the second CCD camera 18.
[0129]
In the correlation processing by the arithmetic unit 30, the correlation processing with the line signal of the scanning line selected in the first CCD camera 16 is performed in order from the first scanning line of the second CCD camera 18 to the last line. . The correlation processing here is determined based on a correlation value that is the strength of the entire signal. Further, the correlation processing is repeatedly executed until the correlation value between the line signal of the scanning line selected in the first CCD 16 and the line signal of the n-th scanning line of the second CCD 18 becomes maximum. It may be configured as follows. n is a natural number of 1 to 500 when the number of scanning lines is 500, for example.
[0130]
Further, the arithmetic unit 30 executes the corresponding scanning line selection process, and determines that the line having the maximum correlation value by the correlation process is the corresponding scanning line, and determines the scanning line of the first CCD camera 16. And the scanning line of the second CCD camera 18 are determined. For example, when the arithmetic unit 30 determines that the fourth scanning line of the first CCD camera 16 and the seventh scanning line of the second CCD camera 18 are the corresponding scanning lines, both of them are determined. In the position correspondence relationship of the scanning lines of the CCD camera, the fifth scanning line of the first CCD camera 16 and the eighth scanning line 14 of the second CCD camera correspond to each other. The 100th scanning line corresponds to the 103rd scanning line of the second CCD camera 18.
[0131]
In addition, the monitoring device 1 determines the correlation between the same scan line of the first CCD camera 16 and the scan line of the second CCD camera 18, for example, the fourth scan line 13 of the first and second CCD cameras. The positional relationship may be determined so that the value becomes maximum. In this case, the same lines of the first CCD camera 16 and the second CCD camera 18 are set so that the scanning lines on the same plane correspond to each other, and the positional relationship is determined so that the correlation value becomes maximum. The two CCD cameras 16 and 18 can be installed efficiently and with high accuracy.
[0132]
After determining the positional relationship between the two CCD cameras 16 and 18 or the positional correspondence between the two scanning lines, the monitoring device 1 determines that the base line length w of the two CCD cameras 16 and 18 is smaller than the set value. Even in the case of deviation, the deviation in the scanning line direction can be corrected by measuring the predetermined distance A1. In this case, assuming that the position of the optical axis of the first CCD camera 16 and the position of the optical axis of the second CCD camera 18 are shifted by S in the scanning line direction, the above equation (1) is obtained.
a = {w} × {f / (d + S)} (4)
By doing so, the shift in the scanning line direction can be corrected.
[0133]
In this way, the monitoring device 1 can not only accurately measure the distance to the person's hand 12a, but also, for example, a floor pattern or the like even if the CCD camera slightly moves due to temperature change or temporal change. The accuracy can be maintained by measuring the predetermined distance A1 using. This correction may be repeatedly performed at predetermined intervals.
[0134]
In the above description, the case where the two CCD cameras 16 and 18 are installed so as to correspond to each other or the corresponding scanning line is selected has been described. It is also possible to use a fixed and fixed scanning line. In this way, the two CCD cameras 16 and 18 can be handled with the same feeling as a distance sensor, so that the installation of the two CCD cameras 16 and 18 becomes very simple.
[0135]
As described above, the monitoring apparatus 1 determines how large the person 12 or the hand 12a enters the invisible curtain area and what state of the person 12 or the hand 12a (in which position, standing, sitting, The person 12 can follow a series of movements such as whether the person 12 is moving, has stopped, or has left, with a simple device. In this case, since the difference from the reference distance is obtained, it can be used to determine the state even if the distance is relatively inaccurate.
[0136]
In addition, since the monitoring apparatus 1 uses the difference image, for example, if the person 12 stops moving, the area cannot be specified. However, a series of methods such as extending the interval of the image frames with time are used. The state of the person 12 can be determined comprehensively from the movement.
[0137]
Therefore, the presence of the person 12 that is stationary or slowly moving can be automatically monitored. For example, this is effective when the person 12 or the hand 12a that has entered the invisible curtain area has a small amount of movement.
[0138]
Furthermore, the distance to the floor or wall when the person 12 or the hand 12a does not exist in the invisible curtain area is set as a reference distance, and the change of the monitoring target from that state is followed. Thus, the state of the person 12 can be determined.
[0139]
According to the present embodiment as described above, the state of the person 12 or the hand 12a in the invisible curtain area is determined, and the person 12 or the hand 12a is moving in a predetermined direction. It is possible to accurately and very easily monitor that a computer has entered. In addition, since the information of the entire image frame is not acquired and processed from the CCD camera, complicated and large-capacity image processing is not required, and a relatively simple digital circuit or analog circuit, or a combination thereof, is extremely useful. An inexpensive device can be constructed. Further, the scanning lines to be extracted are of such an extent that the privacy of the person 12 and the hands 12a can be protected, which is very effective in monitoring the state in public facilities. Further, since the monitoring device 1 uses a wavelength of infrared light close to visible light, the monitoring device 1 can perform a monitoring activity without being alerted by an intruder.
[0140]
In the above embodiment, the monitoring device is configured using a CCD camera that receives at least visible light and infrared light and outputs an imaging signal. However, as another embodiment, for example, an infrared CCD camera (IRCCD) is used. In addition, it is possible to provide a monitoring device that captures infrared light during the day and night and monitors the state where the monitoring target 12 enters the monitoring areas 42 and 43. In this case, since the monitoring area can be imaged even if the amount of visible light decreases, the infrared irradiation device 17 can be omitted. The IR CCD also captures infrared light (heat source) radiated from the person 12 as the monitoring target, but since the light amount difference is small compared to the contrast between the person 12 and the background, the person 12 This does not hinder the detection of the boundary between the image and the background, and the edge detection processing of the person.
[0141]
It should be noted that the monitoring device and the monitoring method of the present invention are not limited to the illustrated example described above, and it is needless to say that various changes can be made without departing from the gist of the present invention.
[0142]
【The invention's effect】
As described above, according to the present invention, the infrared irradiation device 17 that irradiates the monitoring space 10 with infrared light in response to a predetermined threshold signal indicating a decrease in the amount of visible light in the monitoring space, and the infrared irradiation device 17 installed toward the monitoring space 10 A first imaging device 16 for imaging infrared light reflected from the monitoring target 12 at a first time and a second time delayed by a predetermined time from the first time; and a first imaging device. A second imaging device 18 that is installed toward the monitoring space 10 at a predetermined interval from the imaging device 16 and captures infrared light reflected from the monitoring target 12 at a first time and a second time; Difference image forming units 24 and 25 for forming a difference image between the image captured at the first time and the image captured at the second time, and a first image formed by the difference image forming units 24 and 25. Based on the difference image 24 of the image by the imaging device and the difference image 25 of the image by the second imaging device. The monitoring target 12 calculates the position of the monitoring target 12, and based on the calculation result of the position calculating unit 30, detects that the monitoring target 12 approaches the monitoring areas 42 and 43 and detects the detection signal. , Which measures the distance between a monitoring target that enters a three-dimensional monitoring space at night or in the dark and the imaging device, and monitors a monitoring target that approaches a predetermined area. There is an excellent effect of providing an apparatus and a monitoring method.
[Brief description of the drawings]
FIG. 1 is a schematic perspective view of a monitoring device according to an embodiment of the present invention.
FIG. 2 is a schematic plan view of a monitoring device according to an embodiment of the present invention.
FIG. 3 is a schematic perspective view of a monitoring device according to another embodiment of the present invention.
FIG. 4 is a schematic perspective view of an imaging device and an infrared irradiation device used in the embodiment of the present invention.
FIG. 5 is a schematic perspective view of another infrared irradiation device used in the embodiment of the present invention.
FIG. 6 is a flowchart of the monitoring device according to the embodiment of the present invention.
FIG. 7 is a block diagram of a monitoring device according to an embodiment of the present invention.
FIG. 8 is a schematic plan view of the embodiment of the present invention.
FIG. 9 is a schematic plan view of the embodiment of the present invention.
[Explanation of symbols]
1 Monitoring device
2 Control device
6 Illuminance measuring device
7 Infrared irradiation unit
8 Infrared irradiation device
10 Monitoring space
12 people
13 scanning line
14 scanning line
15 Security guard
16 CCD camera
17 infrared irradiation device
18 CCD camera
19 Interface for imaging device
20 ° imaging signal storage unit
21 Image signal storage
22 Image signal storage
23 Image signal storage
24 ° difference image storage
25 ° difference image storage
26 height storage
27 Moving distance storage
28 Mask address storage
29 illuminance measurement unit
30 arithmetic unit
32 Notification Department
38 Security object
42 monitoring area
50 ° mask area
57 curtain area
60 ° sensor control unit
62 ° difference image forming unit
64 ° correlation output operation unit

Claims (5)

三次元の監視空間に侵入する監視対象物を検出し検知信号を出力する監視装置であって;
前記監視空間の可視光線量の低下を示す所定の閾値信号に応答し赤外光を前記監視空間に照射する赤外線照射装置と;
前記監視空間に向けて設置され、第1の時刻と前記第1の時刻から所定の時間だけ遅れた第2の時刻とに前記監視対象物から反射する赤外光を撮像する第1の撮像装置と;
前記第1の撮像装置から所定の間隔だけ離して、前記監視空間に向けて設置され、前記第1の時刻と前記第2の時刻とに前記監視対象物から反射する赤外光を撮像する第2の撮像装置と;
前記第1の時刻に撮像された画像と前記第2の時刻とに撮像された画像との差画像を形成する差画像形成部と;
前記差画像形成部で形成された、前記第1の撮像装置による像の差画像と前記第2の撮像装置による像の差画像に基づいて、前記監視対象物の位置を演算する監視対象物の位置演算部と;
前記位置演算部の演算結果に基づいて、前記監視対象物が監視領域への接近を検知し前記検知信号を出力する接近報知部と;
を備える監視装置。
A monitoring device that detects a monitoring target entering a three-dimensional monitoring space and outputs a detection signal;
An infrared irradiation device that irradiates the monitoring space with infrared light in response to a predetermined threshold signal indicating a decrease in the amount of visible light in the monitoring space;
A first imaging device installed toward the monitoring space and imaging infrared light reflected from the monitoring target at a first time and at a second time delayed by a predetermined time from the first time; When;
A second sensor that is set toward the monitoring space at a predetermined interval from the first imaging device and captures infrared light reflected from the monitoring target at the first time and the second time. Two imaging devices;
A difference image forming unit that forms a difference image between the image captured at the first time and the image captured at the second time;
Based on the difference image of the image by the first imaging device and the difference image of the image by the second imaging device formed by the difference image forming unit, A position calculation unit;
An approach notification unit that detects, based on a calculation result of the position calculation unit, that the monitoring target approaches a monitoring area and outputs the detection signal;
A monitoring device comprising:
前記監視空間の可視光線を検出する照度測定装置をさらに備える請求項1に記載の監視装置。The monitoring device according to claim 1, further comprising an illuminance measurement device that detects visible light in the monitoring space. 前記位置演算部は、前記監視対象物の位置の経時的変化を検出し前記監視対象物の移動方向を演算する請求項1乃至請求項2の何れか1項に記載の監視装置。The monitoring device according to claim 1, wherein the position calculation unit detects a temporal change in a position of the monitoring target and calculates a moving direction of the monitoring target. 三次元の監視空間に接近する監視対象物を検知し検知信号を出力する監視方法であって;
前記監視空間の可視光量を測定し、所定の過小可視光量状態に達した段階で赤外光を発光する赤外線照射工程と;
前記監視空間を前記赤外光により撮像した複数の像に基づき差画像を形成し、前記監視対象物の高さ及び移動方向を演算する監視対象物の移動演算工程と;
前記移動演算工程の演算結果に基づいて、前記監視対象物が監視領域への接近を検知し前記検知信号を出力する接近報知工程と;
前記監視空間の可視光量を測定し、所定の可視光量状態に達した段階で前記赤外光の発光を停止する赤外線照射停止工程と;
を備える監視方法。
A monitoring method for detecting a monitoring target approaching a three-dimensional monitoring space and outputting a detection signal;
An infrared irradiation step of measuring a visible light amount in the monitoring space and emitting infrared light at a stage when a predetermined undervisible light amount state is reached;
A monitoring object movement calculating step of forming a difference image based on a plurality of images of the monitoring space captured by the infrared light and calculating a height and a moving direction of the monitoring object;
An approach notification step of detecting the approach of the monitoring target to a monitoring area based on the calculation result of the movement calculation step and outputting the detection signal;
Measuring an amount of visible light in the monitoring space, and stopping irradiation of the infrared light when a predetermined amount of visible light is reached;
A monitoring method comprising:
三次元の監視空間に接近する監視対象物を検知し検知信号を出力する監視方法であって;
前記監視空間の可視光量を測定し、所定の可視光量状態に達した段階で赤外光の発光を停止する赤外線照射停止工程と;
前記監視空間を前記可視光により撮像した複数の像に基づき差画像を形成し、前記監視対象物の高さ及び移動方向を演算する監視対象物の移動演算工程と;
前記移動演算工程の演算結果に基づいて、前記監視対象物が監視領域への接近を検知し前記検知信号を出力する接近報知工程と;
を備える監視方法。
A monitoring method for detecting a monitoring target approaching a three-dimensional monitoring space and outputting a detection signal;
An infrared irradiation stopping step of measuring a visible light amount in the monitoring space and stopping emission of infrared light when a predetermined visible light amount state is reached;
A monitoring object movement calculating step of forming a difference image based on a plurality of images of the monitoring space captured by the visible light, and calculating a height and a moving direction of the monitoring object;
An approach notification step of detecting the approach of the monitoring target to a monitoring area based on the calculation result of the movement calculation step and outputting the detection signal;
A monitoring method comprising:
JP2002276327A 2002-09-20 2002-09-20 Monitoring system and monitoring method Pending JP2004120009A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002276327A JP2004120009A (en) 2002-09-20 2002-09-20 Monitoring system and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002276327A JP2004120009A (en) 2002-09-20 2002-09-20 Monitoring system and monitoring method

Publications (1)

Publication Number Publication Date
JP2004120009A true JP2004120009A (en) 2004-04-15

Family

ID=32272232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002276327A Pending JP2004120009A (en) 2002-09-20 2002-09-20 Monitoring system and monitoring method

Country Status (1)

Country Link
JP (1) JP2004120009A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249722A (en) * 2006-03-17 2007-09-27 Hitachi Ltd Object detector
CN101325693B (en) * 2007-06-15 2011-11-09 财团法人工业技术研究院 System and method for identifying position exception
JP2012048690A (en) * 2010-08-30 2012-03-08 Secom Co Ltd Monitoring apparatus
JP2013164774A (en) * 2012-02-13 2013-08-22 Utechzone Co Ltd Intelligent monitoring system and intelligent monitoring device with automatic notification function
JP2017147853A (en) * 2016-02-17 2017-08-24 トヨタ自動車株式会社 Electric power transmission device and vehicle
CN109712180A (en) * 2019-01-19 2019-05-03 北京伟景智能科技有限公司 A kind of reinforcing bar method of counting
CN115469375A (en) * 2022-11-14 2022-12-13 成都智元汇信息技术股份有限公司 Photographing induction system and system for associating visible light image and X-ray image of person bag

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249722A (en) * 2006-03-17 2007-09-27 Hitachi Ltd Object detector
CN101325693B (en) * 2007-06-15 2011-11-09 财团法人工业技术研究院 System and method for identifying position exception
JP2012048690A (en) * 2010-08-30 2012-03-08 Secom Co Ltd Monitoring apparatus
JP2013164774A (en) * 2012-02-13 2013-08-22 Utechzone Co Ltd Intelligent monitoring system and intelligent monitoring device with automatic notification function
JP2017147853A (en) * 2016-02-17 2017-08-24 トヨタ自動車株式会社 Electric power transmission device and vehicle
CN109712180A (en) * 2019-01-19 2019-05-03 北京伟景智能科技有限公司 A kind of reinforcing bar method of counting
CN115469375A (en) * 2022-11-14 2022-12-13 成都智元汇信息技术股份有限公司 Photographing induction system and system for associating visible light image and X-ray image of person bag

Similar Documents

Publication Publication Date Title
JP6155032B2 (en) Shooting system
US8427324B2 (en) Method and system for detecting a fallen person using a range imaging device
KR101632168B1 (en) The apparatus of smart camera with lidar senser module
TWI425431B (en) Surveillance system and program
CN102541059B (en) The equipment that can automatically move
KR101565134B1 (en) Wild animals extermination system
JP2008527806A (en) Night monitoring system and method
TWI663580B (en) A control method of surveillance system
US20180181141A1 (en) Robot surveillance system
WO2017132342A1 (en) Systems and methods for behavioral based alarms
US11741802B2 (en) Home security light bulb adapter
JP2004120009A (en) Monitoring system and monitoring method
CN207475756U (en) The infrared stereo visual system of robot
JP4155159B2 (en) Combined human touch switch
CN108986407B (en) Safety detection system and method for solitary old people
CN108366210B (en) Unmanned aerial vehicle and unmanned aerial vehicle control method
JP2012103901A (en) Intrusion object detection device
JP2006323709A (en) Crime prevention monitor
JP5179132B2 (en) Human body detection device
TWI471825B (en) System and method for managing security of a roof
JP6183748B2 (en) Motion detection device
JP6469745B2 (en) Monitoring system
TWM545325U (en) Monitoring device suitable for robot
JP2006162372A (en) Method and system for watching intruder
ES2209291T3 (en) DEVICE FOR SURVEILLANCE OF AN ENVIRONMENT.