JP3758511B2 - Object detection apparatus and object detection program - Google Patents
Object detection apparatus and object detection program Download PDFInfo
- Publication number
- JP3758511B2 JP3758511B2 JP2001054387A JP2001054387A JP3758511B2 JP 3758511 B2 JP3758511 B2 JP 3758511B2 JP 2001054387 A JP2001054387 A JP 2001054387A JP 2001054387 A JP2001054387 A JP 2001054387A JP 3758511 B2 JP3758511 B2 JP 3758511B2
- Authority
- JP
- Japan
- Prior art keywords
- intruding object
- image
- monitoring
- camera
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、監視システムに係り、特に監視対象領域全体を撮像する第1の侵入物体監視装置と、侵入物体の移動にしたがって撮像装置の視野方向を追従させて制御する第2の侵入物体監視装置とが、互いに独立に、侵入物体を自動的に監視するようにした侵入物体監視方法及び侵入物体監視システムに関する。
【0002】
【従来の技術】
近年、侵入物体監視システムにおいて、カメラ等の撮像装置による画像入力手段を用いた侵入物体監視装置の中には、従来の監視員による有人監視の方法に頼らず、監視対象領域内の侵入物体を自動的に検出し、カメラの視野内に侵入物体が常に捉えられるように侵入物体の検出位置に基づいてカメラを乗せた雲台を制御して、カメラの視線方向等を変更して撮像し、所定の報知や警報、侵入物体映像記録などの処置が得られるようしたものがある。
【0003】
このようなシステムとしては、例えば、図8に示すような2種類のカメラで構成した監視システムがある。図8はタンクヤードの監視を想定した侵入物体監視システムを説明するための図である。
図8において、第1のカメラ802は、監視対象領域804全体を所定の時刻毎に連続的に撮像する画像入力手段である。この第1のカメラ802を含む第1の監視手段は、異なる時刻に撮像した複数のフレーム画像から侵入物体801の検出情報を検出し、検出した侵入物体801に関する検出情報を第2のカメラ803に与える。第2のカメラ803は、第1のカメラ802から与えられる侵入物体801の検出情報に応じて、侵入物体801を自動的に追尾して所定の時刻毎に連続的に撮像する画像入力手段である。
【0004】
また、第1の監視手段は、引き続き監視対象領域804全体の監視を行い、更に、検出された侵入物体802の追跡を行う。
ここで、本明細書の記載における“追跡”と“追尾”とは、以下のように定義される。
追跡:監視用カメラなどの撮像装置の視野内に写る対象物体の画面上での位置変化を計測する処理。例えば、監視対象領域全体について、対象物体の移動軌跡を求める等、対象物体が検出されてから検出されなくなるまでの時間的変化を監視し記録する。
追尾:撮像装置の雲台制御(カメラの光軸方向の制御)を伴う処理。例えば、移動する対象物体の現時刻の位置を常にカメラの光軸の中心に捉えるように、光軸方向を制御して、監視対象領域の1部である対象物体の領域部分を常に追いかける。
【0005】
図8と図9とを用いて、第1のカメラ802によって検出された侵入物体801を、第2のカメラ803が追跡する方法を簡単に説明する。
図8において、第1のカメラ802により得られた異なる時刻に入力された複数フレームの画像は、画素毎に輝度値の差分を求められ、その差分の大きい領域が侵入物体801として検出される。更に、侵入物体801が検出された場合に、第1のカメラ802側から、侵入物体の検出位置に基いて第2のカメラ803を乗せる雲台を制御する。これによって、第2のカメラ803の視野805内に常に侵入物体801を捉えられるようにすることができる。
【0006】
図9は、第1のカメラ802による侵入物体検出処理方法の原理を説明する図である。この方法は、フレーム間差分法などと呼ばれ、従来から広く用いられている。
図9において、減算器909は、時刻t0-1に取得した入力画像901と時刻t0に取得した入力画像902とについて画素毎の輝度値の差分を計算し、入力画像901と入力画像902との差分画像904を出力する。同様に減算器910も、時刻t0に取得した入力画像902と時刻t0+1に取得した入力画像903との画素毎の輝度値の差分を計算し、入力画像902と入力画像903との差分画像905を出力する。
次に、二値化器911は、差分画像904の画素毎の輝度値が所定のしきい値Th未満の輝度値を“0”、しきい値Th以上の画素の輝度値を、例えば“255”(1画素の輝度値を8ビットで計算)として二値化画像906を得る。二値化器912もまた同様の処理を行い、差分画像905から二値化画像907を得る。
【0007】
次に論理積器913は、二値化画像906と二値化画像907との画素毎の輝度値の論理積を計算し論理積画像908を出力する。これによって入力画像901,902,903に写った人型の物体914,915,916は、減算器909または910によって差分が生じた領域917または918として算出される。そして、二値化器911または912によって輝度値“255”のかたまりの画像919または920として抽出され、更に、論理積器913によって画像919と920を構成する画素の中で、両画像共に輝度値“255”を持つ画素のかたまり画像921が検出される。即ち、画素921が侵入物体として検出される。
なお、監視領域内の侵入物体を検出する方法であれば前記フレーム間差分法以外の方法も適用できる。
【0008】
以上のように第1のカメラ802によって侵入物体が検出された場合には、第1のカメラ802によって検出された侵入物体801の大きさと検出位置の情報に基いて、第1のカメラ802は、制御信号を第2のカメラ803に与える。これによって、第2のカメラ803の監視視野範囲805の方向(雲台の方向)が制御される。これによって、第2のカメラ803は侵入物体801を捕捉することができる。
【0009】
第2のカメラ803の雲台の制御量を求める方法を図10によって説明する。図10は、第1のカメラ1002の視野範囲1004で検出された侵入物体1001を第2のカメラ1003で追尾する方法を説明するための図である。図10では、簡略化のため第1のカメラ1002と第2のカメラ1003を同じ位置に設置し、第1のカメラ1002の視野の中心(光軸)方向と第2のカメラ1003の基準視野方向(雲台制御角をパン 0 ゜、チルト 0 ゜)を一致させ、x軸の方向だけに着目して表示している。
【0010】
図10において、2Wは第1のカメラ1002の視野(監視対象領域)1004全体についての入力画像の横(x軸)方向の画素数(単位:pix)、Δxは検出された侵入物体の第1のカメラ1002の視野中心からの横方向の変位(単位:pix)、θwは第1のカメラ1002の半監視角度(単位:゜)、θxは第2のカメラ1003の雲台のパン制御角度(単位:゜)を表す。ここで、第1のカメラ1002の半監視角度θwは、第1のカメラ1002の撮像素子の横方向の大きさh(単位:mm)と、第1のカメラ1002の焦点距離f(単位:mm)とによって、
【数1】
と表すことができる。
【0011】
また、この監視条件において、入力画像の横方向の画素数2W、侵入物体1001の検出位置の第1のカメラ1002の視野中心からの横方向の変位Δxと、第1のカメラ1002の半監視角度θwと、第2のカメラ1003の雲台のパン制御角度θxとには、
【数2】
の関係がある。
【0012】
即ち、第2のカメラ1003の雲台のパン制御角度θxは、
【数3】
となる。
【0013】
例えば、半監視角度θwを30 ゜、第1のカメラ1002の入力画像の横方向の画素数2Wを320 pix、検出された侵入物体の第1のカメラ1002の視野中心からの変位Δxを40とした場合、第2のカメラ1003の雲台のパン制御角度は8.2 ゜となる。
【0014】
以上のように、第1のカメラ1002によって異なる時刻に入力した複数フレームの画像を比較して画素毎に輝度値の差分を求め、その差分の大きい領域を侵入物体1001として検出した場合に、その侵入物体1001の大きさと検出位置に基いて第1のカメラ1002から送られる制御信号によって、第2のカメラ1003の雲台が制御される。これによって、第2のカメラ1003の視野範囲1005内に常に侵入物体1001を捕捉できるため、移動する侵入物体を第2のカメラ1003が常に自動的に追尾することができる。
上記2つのカメラ構成による監視装置としては、例えば、特開平5−334572号公報及び特開平6−153051号公報がある。
【0015】
【発明が解決しようとする課題】
前述の従来技術には、複数の侵入物体を追尾するために複数の第2のカメラを制御する構成とした場合に、侵入物体の数に比例して、第1のカメラが複数の第2のカメラを制御するため、第1のカメラの処理量が増加する欠点があった。
更に、第1のカメラで侵入物体が一時的に検出できなくなった場合には、第2のカメラがその侵入物体を捉えられる位置にあっても、継続して追尾を行なうことができないという欠点があった。
【0016】
本発明の目的は、第1のカメラによって得られる入力画像信号を第1の画像処理装置で処理し、第2のカメラによって得られる入力画像信号を第2の画像処理装置で処理し、それぞれの画像処理プロセスを独立に制御することによって監視処理の負荷を分散させることで複数の侵入物体を追尾できるようにすることにある。
また更に本発明の目的は、片方の画像処理装置で侵入物体を一時的に見失った場合でも、他方の画像処理装置の処理結果に基いて監視処理を継続するように制御を行うことによって、第1または第2の侵入物体監視装置の少なくとも1つで侵入物体を監視できるようにし、侵入物体を一時的に見失った場合でも、別の侵入物体監視装置の処理結果に基づいて監視処理を継続することによって、迅速かつ効率的で正確に侵入物体を追尾する、信頼性の高い侵入物体監視方法及び侵入物体監視システムを提供することにある。
【0017】
【課題を解決するための手段】
上記の目的を達成するために、本発明の侵入物体監視システムは、それぞれ独立な画像処理手段を実行する第1と第2の侵入物体監視装置で構成する。
そして、第1の侵入物体監視装置によって、監視対象領域内に侵入する物体の第1の情報を検出し、第1の情報を第1の侵入物体監視装置から第2の侵入物体監視装置に送り、第2の侵入物監視装置によって、第1の侵入物体監視装置から送られた第1の情報に基づいて侵入物体を捕捉し、第2の侵入物体検出装置は、捕捉した侵入物体の第2の情報を取得し、第2の侵入物体監視装置は、第1の侵入物体監視装置の制御なしに、第2の侵入物体監視装置のカメラを少なくとも制御して、捕捉した侵入物体を追尾する。
また第1の侵入物体監視装置は、侵入物体の追跡を行い、第1の侵入物体監視装置による侵入物体の追跡が不可能になったとき、第2の侵入物体監視装置から侵入物体の第2の情報を取得して追跡を続ける。
また、第2の侵入物体監視装置による物体の追尾が不可能になったとき、第1の侵入物体監視装置から侵入物体の第1の情報を取得して追尾を続ける。
【0018】
更に、本発明の侵入物体監視方法は、監視対象領域をカバーする視野範囲を持つ第1の侵入物体監視装置と、第1の侵入物体監視装置の視野範囲の一部を監視領域とする少なくとも1つの第2の侵入物体監視装置とを有する侵入物体監視システムを使用し、第1の侵入物体監視装置によって、監視対象領域の画像を入力する第1の画像入力ステップと、第1の画像入力ステップによって入力した画像から侵入物体の第1の情報を検出する第1の検出ステップと、第1の情報に応じて第2の侵入物体監視装置を制御して監視領域の画像を入力し、侵入物体を捕捉する第2の画像入力ステップと、第2の侵入物体監視装置によって、監視領域内の侵入物体の第2の情報を検出する第2の検出ステップとを設け、第2の検出ステップによって検出した第2の情報に応じて、第2の侵入物監視装置を制御して侵入物体を追尾する。
また、第2の検出ステップによって検出した第2の情報は、侵入物体の大きさと検出位置を含む情報であり、第2の侵入物体監視装置による捕捉した侵入物体の追尾は、第2の情報に基づき第2の侵入物体監視装置の雲台を制御して撮像装置の視線方向を変更して行う。
【0019】
更に、第1の検出ステップは、侵入物体の第1の情報の検出を差分法によって行い、また更に、第2の検出ステップは、侵入物体の第2の情報の検出をテンプレートマッチング法によって行う。
その他更に、侵入物体が新規に検出された侵入物体であるか否かを判定する新規検出物体判定ステップを有し、新規に検出された侵入物体であれば、新規に検出された侵入物体を第2の侵入物体監視装置によって追尾し、侵入物体が新規に検出された侵入物体ではないと判定された場合には、第1の侵入物体監視装置によって追跡中の侵入物体であるとして、侵入物体の以前の位置から現在の侵入物体の位置への変化を、追跡中の侵入物体の移動軌跡とする。
また更に、第2の侵入物体監視装置で撮像した画像を表示装置に表示し、第2の侵入物体監視装置で撮像した侵入物体の像に、侵入物体の移動軌跡を重ねて表示することを特徴とする。
また、第1の侵入物体監視装置は、新規に侵入物体を検出した場合に、侵入物体を追尾していない第2の侵入物体監視装置の1つに新規に検出した侵入物体を追尾させる。
【0020】
更に、本発明の侵入物体監視方法において、侵入物体監視方法は更に、侵入物体が新規に検出された侵入物体であるか否かを判定する新規検出物体判定ステップを有し、第1の侵入物体監視装置は、新規に侵入物体を検出した場合に、侵入物体を追尾していない第2の侵入物体監視装置の1つに新規に検出した侵入物体の第3の情報を伝達し、伝達された第3の情報に応じて、第2の侵入物体監視装置が新規に検出された侵入物体を捕捉し、捕捉後は、第2の侵入物体監視装置が、捕捉した侵入物体を第1の侵入物体監視装置とは独立に制御する。
また、新規検出物体判定ステップによって、侵入物体が新規に検出された侵入物体ではないと判定された場合には、第1の侵入物体監視装置によって追跡中の侵入物体であるとして、侵入物体の以前の位置から現在の侵入物体の位置への変化を、追跡中の侵入物体の移動軌跡とする。
【0021】、
更に、本発明の侵入物体監視方法において、第2の検出ステップによって現時刻で検出された侵入物体の検出情報と、前に検出された侵入物体の検出情報とを比較し、比較した検出情報の差に応じて物体の追跡が失敗したか成功したかを判定する追跡判定ステップを設け、失敗と判定された場合には、更に、第1の検出ステップによって検出された第2の情報を取得して、追尾を続ける。
また、第1の情報と第2の情報とを、第1の侵入物体監視方法と第2の侵入物体監視方法との間で相互に交換することによって、監視領域内の侵入物体を監視する。
更にまた、ユーザからの画面切替え要求を入力する画面切替え入力ステップを備え、第1の侵入物体監視装置から入力する第1の検出情報と、第2の侵入物体監視装置から入力する第2の情報とについて、ユーザからの画面切替え要求に応じて、入力した第1の検出情報と第2の検出情報の表示方法を変更する。
また、画面切替え入力ステップは、更に、ユーザが指定した侵入物体の軌跡を重ねて表示する。
【0022】
本発明の侵入物体監視システムは、監視対象領域の映像を撮像し、監視対象領域に侵入する侵入物体の第1の情報を検出する第1の侵入物体監視装置と、第1の侵入物体監視装置が検出した第1の情報に基づいて、侵入物体を捕捉し、第1の侵入物体監視装置の制御なしに捕捉した侵入物体を追尾する少なくとも1つの第2の侵入物体監視装置とを備え、監視対象領域内に侵入する侵入物体を監視する。
また、第1の侵入物体監視装置は、侵入物体監視処理部を含み、第2の侵入物体監視装置は、第1の侵入物体監視装置の侵入物体監視処理部とは独立に侵入物体監視処理部を含み、第2の侵入物体監視装置が、第1の侵入物体監視装置とは独立に、第1の侵入物体監視装置が検出した侵入物体を追尾する。
更に、第2の侵入物体監視装置は、捕捉した侵入物体の第2の情報を検出し、第2の情報に基づいて、第1の侵入物体監視装置が検出した侵入物体を追尾する。
また更に、第2の侵入物体監視装置を複数有し、第1の侵入物体監視装置の第1の侵入物体監視装置の侵入物体監視処理部は、新規に侵入物体が検出されたか否かを判定し、新規に侵入物体が検出されたと判定した場合に、まだ追尾していない第2の侵入物体監視装置に新規に検出された侵入物体の追尾を割り当て、割り当てられた第2の侵入物体監視装置は新規に検出された侵入物体を捕捉して追尾する。
またその他、第2の侵入物体監視装置は、雲台を備え、第2の侵入物体監視装置が、第1の情報に基づいて雲台を制御して侵入物体を捕捉し、更に、第2の侵入物体監視装置が、第2の情報に基づいて雲台を制御して侵入物体を追尾する。そしてまた、第1の情報と第2の情報を表示する表示装置を有し、ユーザの指示に応じて、侵入物体の情報を表示する。また、侵入物体の情報には、第1の情報と第2の情報から抽出した軌跡を含む。
【0023】
【発明の実施の形態】
まず、本発明の侵入物体監視システムの一実施例を図1によって説明する。
図1は、侵入物体監視システムのハードウエア構成を示すブロック図である。
第1の侵入物体監視装置101と第2の侵入物体監視装置102とは、第1の通信I/F101hと第2の通信I/F102hとが通信ケーブル107によって接続されている。
また、第1の侵入物体監視装置101側では、第1の入力I/F101gが入力装置105に接続されている。更に第1の出力I/F101jが画像切替合成装置106の制御信号入力端子に接続され、また、警告灯104にも接続されている。
更にまた、第1の侵入物体監視装置101側の第1の画像出力I/F101iと、第2の侵入物体監視装置102側の第2の画像出力I/F102iとは、画像切替合成装置106に接続され、画像切替合成装置106は監視モニタ103に接続されている。
【0024】
第1の侵入物体監視装置101において、第1のカメラ101aは第1の画像入力I/F101bに接続され、第1の画像入力I/F101b、第1のCPU101c、第1の画像メモリ101d、第1のプログラムメモリ101e、第1のワークメモリ101f、第1の入力I/F101g、第1の通信I/F101h、第1の画像出力I/F101i、及び第1の出力I/F101jは、第1のデータバス101kにそれぞれ接続されている。
また、第2の侵入物体監視装置102において、第2のカメラ102aは第2の画像入力I/F102bに接続され、第2のカメラ102aはカメラ雲台102mに設置され、第2の出力I/F102jは雲台制御装置102lに接続され、雲台制御装置102lはカメラ雲台102mに接続されている。また、第2の画像入力I/F102b、第2のCPU102c、第2の画像メモリ102d、第2のプログラムメモリ102e、第2のワークメモリ102f、第2の通信I/F102h、第2の画像出力I/F102i、及び第2の出力I/F102jは、第2のデータバス102kにそれぞれ接続されている。
【0025】
図1において、第1のカメラ101aは監視対象区域を含んだ撮像視野内全体を所定の時刻毎に連続的に撮像し、撮像した画像を映像信号に変換して、その映像信号を第1の画像入力I/F101bに与える。第1の画像入力I/F101bは、入力した映像信号を侵入物体監視システムで扱うフォーマット(例えば、幅320 pix、高さ240 pix、8 bit/pix)の画像データに変換し、第1のデータバス101kを介して第1の画像メモリ101dに送る。
第1の画像メモリ101dは、入力してきた画像データを蓄積する。第1のCPU101cは、第1のプログラムメモリ101eに保存されているプログラムに従って、第1のワークメモリ101fを処理作業領域として使用し、第1の画像メモリ101dに蓄積された画像の解析を行なう。
以上の解析の結果、第1の侵入物体監視装置101は、第1のカメラ101aの撮像視野内に侵入物体が侵入したか否か、また侵入物体が侵入した場合には、その検出された侵入物体の大きさや検出位置等の検出情報を得る。第1のCPU101cは、処理結果に応じて第1のデータバス101kから第1の通信I/F101hを介して第2の侵入物体監視装置102へ侵入物体の有無、侵入物体の位置情報、侵入物体追跡結果その他の検出情報を送信する。更に、新規に侵入物体を発見した場合には、第1の通信I/F101hを介して、第2の侵入物体監視装置102のうち、まだ追尾を割り当てられていない第2の侵入物体監視装置102に宛てて、侵入物体追尾割り当てと対象物体の位置情報を送信し、その他、例えば、第1の出力I/F101jを介して警告灯104を点灯したり、例えば監視結果画像を第1の画像出力I/F101iを介して画像切替合成装置106に与える。
【0026】
第1の通信I/F101hは、第1のCPU101cからの送信データを例えばRS485フォーマットに変換して、通信ケーブル107で接続された1台以上の別の第2の侵入物体監視装置(図1では、1台で代表して描き、以下の説明も第2の侵入物体監視装置102の中の構成要素の参照符号を代表として説明する)へ送信する。また、第1の画像出力I/F101iは、第1のCPU101cからの信号を画像切替合成装置106が使用できるフォーマット(例えば、NTSC映像信号)に変換して、画像切替合成装置106に送る。
また、監視モニタは、1台である必要はなく、2台またはそれ以上でもよく、表示する内容もユーザの要求により自由に変更できる。
その他、第1の侵入物監視装置101と第2の侵入物監視装置102、及び、入力装置105、画像切替え合成装置106、警告灯104、監視モニタ103間の物理的結合は、上述の実施例以外であっても、必要な情報や信号が伝達できる方法であればどんな方法での良いことはいうまでもない。
【0027】
次に、第2のカメラ102aは、第2のカメラ102aの有する撮像視野内を所定の時刻毎に連続的に撮像する。カメラ雲台102mは雲台制御装置102lが与える雲台制御信号によって第2のカメラ102aの撮像方向を変える。第2のカメラ102aは、撮像した画像を映像信号に変換し、変換した映像信号を第2の画像入力I/F102bに与える。第2の画像入力I/F102bは、入力した映像信号を第2の侵入物体監視装置102で扱うことができるフォーマット(例えば、幅320 pix、高さ240 pix、8 bit/pix)の画像データに変換し、第2のデータバス102kを介して第2の画像メモリ102dに送る。第2の画像メモリ102dは、送られてきた画像データを蓄積する。第2のCPU102cは第2のプログラムメモリ102eに保存されているプログラムに従って、第2のワークメモリ102f内で第2の画像メモリ102dに蓄積された画像の解析を行なう。以上の解析結果、第2のカメラ102aの撮像視野内に侵入物体が侵入した等の検出情報を得る。
【0028】
第2のCPU102cは、処理結果に応じて第2のデータバス102kから第2の出力I/F102jを介して雲台制御装置102jへ制御信号を送信すると共に、第2の通信I/F102hを介して第1の侵入物体監視装置101へ侵入物体の位置情報、侵入物体追尾結果等の検出情報を送信する。また更に、検出情報、例えば監視結果画像を第2の画像出力I/F102iを介して画像切替合成装置106に与える。
第2の通信I/F102hは、第2のCPU102cからの送信データを例えばRS485フォーマットに変換して、通信ケーブル107で接続された第1の侵入物体監視装置へ送信する。更に、別の第2の侵入物体監視装置が1台以上通信ケーブル107で接続されている場合には、第2の通信I/F102hは、通信ケーブル107を介して、この別の第2の侵入物体監視装置102へも第2のCPU102cからの送信データを送信する。また、第2の画像出力I/F102iは、第2のCPU102cからの信号を画像切替合成装置106が使用できるフォーマット(例えば、NTSC映像信号)に変換して、画像切替合成装置106に送る。
【0029】
更にまた、入力装置105は、ユーザからの例えばマウス操作、キーボード操作等の指示によって表示画像の切替等の入力を行ない、監視モニタ103は、画像切替合成装置106を介して、第1の侵入物体監視装置101及び第2の侵入物体監視装置102による監視結果画像を、ユーザから入力された指示により、例えば2画面並べて表示したり、どちらか1つを切り替えて表示する。
以下に説明するフローチャートは、すべて上記の侵入物体監視システムのハードウエア構成の一例である図1を使って説明している。
【0030】
図2と図3は、本発明の一実施例の侵入物体監視方法の処理手順の一例を説明するフローチャートであり、上述の図1の侵入物体監視システムに言及しつつ、以下で説明する。
本実施例は、監視対象領域全体の映像を撮像する第1の撮像装置(第1のカメラ)から逐次入力する画像信号中から侵入物体を検出し、検出した侵入物体の位置変化を追跡する第1の侵入物体監視プロセスと、第1の侵入物体監視プロセスによって侵入物体が存在すると判定された場合に、第1の侵入物体監視装置から与えられた追尾割り当て要求と侵入物体の位置情報とに基づいて、第2の撮像装置(第2のカメラ)によって、逐次入力する画像信号中の侵入物体を検出し、雲台を制御しながら第2の撮像装置の視野内に常に侵入物体を捉えるように追尾するための第2の侵入物体監視プロセスとを備え、第1の侵入物体監視プロセスを第1の侵入物体監視装置101のCPU101cの下で制御し、第2の侵入物体監視プロセスを第2の侵入物体監視装置102のCPU102cの下で制御することによって、それぞれ独立に制御する。これによって、監視処理対象領域内の侵入物体を追尾させるようにした方法である。
図2は第1の侵入物体監視プロセスの一実施例を説明するフローチャートであり、図3は第2の侵入物体監視プロセスの一実施例を説明するフローチャートである。
【0031】
図2において、侵入物体の監視を開始すると、
画像入力ステップ201では、第1のカメラ101aから、例えば、幅320 pix、高さ240 pix、8 bit/pixの入力画像を取得する。
侵入物体検出ステップ202では、入力画像に基づき、例えば、図9で説明したように、侵入物体検出処理を行なう。
次に、新規検出物体判定ステップ203では、検出された物体の検出位置と、1フレーム前の検出物体との検出位置を比較し、その検出位置の変化量を求める。そして、求めた変化量が所定の量(第1のカメラ101aの視野角に依存する量、例えば、50画素(50 pix))未満の場合には検出物体が1フレーム前にも存在したもの、即ち、新規の検出物体ではないとし、侵入物体追跡ステップ204へ分岐する。ここで、画像入力ステップ201で入力画像を取得する時間間隔は、例えば、100 msecであり、従って、1フレーム前とは、100 msec前の時刻である。また、変化量が所定の量以上の場合には、以前に検出された物体が移動すると予想される距離以上離れた場所で検出されたので、新規に検出された物体として侵入物体追尾割当ステップ207へ分岐する。
【0032】
侵入物体追跡ステップ204では、1フレーム前の検出物体を現時刻の検出物体の1フレーム前の検出物体とみなし、その位置変化を侵入物体の移動軌跡であるとする。
次に追跡失敗判定ステップ205では、侵入物体の1フレーム前に求めた移動軌跡と現時刻に求めた移動軌跡の角度変化量を計算し、角度変化量が所定の値(例えば90 ゜)以上変化していた場合には、追跡失敗と見なす。これは、侵入物体が、通常、急激に進行方向を変えないという知見に基づく。
1フレーム前に求めた移動軌跡と現在求めた移動軌跡の変化量θは、1フレーム前に侵入物体が座標(x11,y11)から座標(x12,y12)、現在のフレームで侵入物体が座標(x21,y21)から座標(x22,y22)と移動したものとすると、次式のように算出される。
【0033】
【数4】
【0034】
追跡失敗判定ステップ205で追跡失敗と判定された場合には、第1の通信I/F101hを介して、第2の侵入物体監視装置102に侵入物体の追跡結果を送信すると共に、視野外移動判定ステップ206に進み、視野外移動判定ステップ206において、画像切替合成装置106を介して監視モニタ103へ信号が送られ、監視モニタ103は例えば“侵入物体見逃し”等の表示を行い、全検出物体終了判定ステップ208に分岐する。
以上のように、追跡失敗判定ステップ205で、追跡失敗と判定された場合には、追跡失敗という追跡結果を第2の侵入物体監視装置102に送信すると述べた。尚、上記「侵入物体の追跡結果」とは、侵入物体がどのように動いたかを表す情報で、例えば、対象物体の位置や移動量や移動方向などを含む情報である。例えば、次のような、ありえない数値を侵入物体の追跡結果として第2の侵入物体監視装置102に送信するようにしても良い。例えば、カメラ101aあるいは102aによって得られる入力画像が、横256画素、縦192画素で構成され、画像上の侵入物体の座標位置(X,Y)を横軸(X軸)の0から255までの数値と縦軸(Y軸)の0から191までの数値を組合せて指定するものとする。このとき、例えば、(999,999)は上記ありえない数値として、何か予め定めたところの情報を伝えるために使用することができる。
【0035】
また、追跡失敗判定ステップ205で追跡が行なえたと判定された場合には、第1の通信I/F101hを介して、第2の侵入物体監視装置102に侵入物体の位置情報と共に追跡結果を送信し、全検出物体終了判定ステップ208へ分岐する。尚、図2の右向きの太い矢印は、第1の侵入物体監視プロセスの処理結果の情報を第2の侵入物体監視プロセスを処理する第2の侵入物体監視装置のいずれかに宛てて送信することを表す。
また、侵入物体追尾割当ステップ207では、第1の通信I/F101hを介して、現在追尾を行っていない第2の侵入物体監視装置102に侵入物体の位置情報と共に追尾割当の信号を送信し、全検出物体終了判定ステップ208へ分岐する。
【0036】
図11は、本発明の一実施例の通信ケーブル107に流れる通信情報の構成を表す一例である。
通信データは、7バイトのデータ列から構成されており、STX3201、DST3202、SRC3203、COM3204、DT13205、DT23206、ETX3207の順で送信される。ここで、STX3201は、通信データの先頭バイトを表し(Start of TeXt)、例えば $A0($ は16進数の数値であることを表す)を用いる。更に、DST3202は送信宛先(Destination)のID(識別名)、SRC3203は送信元(Source)のIDを表し、例えば、第1の侵入物体監視装置101のIDを“1”、第2の侵入物体監視装置102のIDを“2”とした場合、第1の侵入物体監視装置101から第2の侵入物体監視装置102へ通信データを送信する場合、DST = 2、SRC = 1となる。更に、COM3204は、通信データの内容(Command)を表し、このデータで通信データが、例えば、追尾割当要求なのか、追跡結果なのか、あるいは追尾結果なのかを表す。例えば、追尾割当要求の場合はCOM = 1、追跡結果の場合はCOM = 2、追尾結果の場合はCOM = 3とする。更に、DT13205、DT23206は、付加情報1(Data 1)と付加情報2(Data 2)を表し、通信データの内容COM3204と組合わせて用いる。例えば、追尾割当要求(COM = 1)とした場合、追尾すべき対象物体がどの位置に存在するかを第2の侵入物体監視装置に送信しなければならないが、この場合、付加情報1(Data 1)に対象物体のX座標、付加情報2(Data 2)に対象物体のY座標を指定する。さらに、ETX3207は、通信データの終了バイトを表し(End of TeXt)、例えば $AFを用いる。
以上の通信データを用いることで、複数の侵入物体監視装置間で追尾割当要求、対象物体の追跡結果、対象物体の追尾結果をやり取りすることができる。なお、ここでは、通信データを7バイトのデータ列で構成したが、7バイト以外のデータ列で構成したり、また送信するデータの内容に応じて可変長にすることも可能である。
【0037】
全検出物体終了判定ステップ208では、侵入物体検出ステップ202において検出された全ての侵入物体に対して侵入物体追跡ステップ204あるいは侵入物体追尾割当ステップ207が実行された場合に画像入力ステップ201へ分岐し、侵入物体追跡ステップ204あるいは侵入物体追尾割当ステップ207が実行されていない物体が存在する場合は新規検出物体判定ステップ203へ分岐する。
【0038】
次に図3の第2の侵入物体監視プロセスでは、
追尾割当待ちステップ301では、第2の通信I/F102hを介して、第1の侵入物体監視プロセスから、検出物体の位置情報と追尾割当信号が送信されて来るまで待機する。
追尾割当判定ステップ302では、追尾割当信号を受信した場合にカメラ雲台制御ステップ303へ分岐し、追尾割当の信号を受信しなかった場合に追尾割当待ちステップ301へ分岐する。
【0039】
カメラ雲台制御ステップ303では、追尾割当待ちステップ301で受信した侵入物体位置に基づき、第2の出力I/Fを介して雲台制御装置102lを制御することによってカメラ雲台102mを操作して第2のTVカメラ102aの視野1005内(図10)に第1の侵入物体監視プロセスで検出した侵入物体1001(図10)を捉える。
カメラ雲台102mの制御量(パン角、チルト角)は、例えば、前述の図10で示された方法によって算出される。
【0040】
次に画像入力ステップ304では、第2のTVカメラ102aから、例えば、幅320 pix、高さ240 pix、8 bit/pixの入力画像を取得する。
初期テンプレート作成ステップ305では、画像入力ステップ304で取得した入力画像に基づき図9で説明した侵入物体検出処理を行い、検出された侵入物体をテンプレート画像として第2の画像メモリ102dに記憶する。
【0041】
次に画像入力ステップ306では、画像入力ステップ304と同様に入力画像を取得する。
そして、侵入物体追尾ステップ307では、第2の画像メモリ102dに記憶したテンプレート画像に基づき、画像入力ステップ306で取得した入力画像のテンプレートマッチングを行ない、例えば、第1の侵入物体監視プロセスで検出した侵入物体との位置変化を検出することで侵入物体を追尾する。
テンプレートマッチングとは、ある画像中でテンプレート画像として登録された画像がどの位置に存在するかを検出するもので、例えば、1985年に総研出版より出版された田村秀行氏監修による『コンピュータ画像処理入門』と題する書籍のP118〜125に解説されている。
【0042】
次に、追尾失敗判定ステップ308では、侵入物体追尾ステップ307において、テンプレートに登録した侵入物体が検出されなかった場合には第2の通信I/F102hを介して第1の侵入物体監視装置101に侵入物体の追尾結果を送信し、追尾要求待ちステップ301へ分岐する。
また侵入物体が検出された場合には、第2の通信I/F102hを介して第1の侵入物体監視手段101に侵入物体の位置情報と共に追尾結果を送信し、テンプレート更新ステップ309へ分岐する。尚、図3の左向きの太い矢印は、第2の侵入物体監視プロセスの処理結果の情報を第1の侵入物体監視プロセスを処理する第1の侵入物体監視装置に宛てて送信することを表す。
【0043】
テンプレート更新ステップ309では、テンプレートマッチングによって検出された侵入物体の位置の画像を使って、第2の画像メモリ102dに記憶したテンプレート画像を更新する。
次に、カメラ雲台制御ステップ310では、侵入物体追尾ステップ307でテンプレートマッチングによって検出された侵入物体の位置に基づき、第2の出力I/Fを介して雲台制御装置102lを制御する。
即ち、侵入物体が、画像中央から上方に存在する場合にはカメラ雲台102mのチルト角を適量上向きに変更し、画像中央から下方に存在する場合にはカメラ雲台102mのチルト角を適量下向きに変更する。
また、侵入物体が、画像中央から左方に存在する場合にはカメラ雲台102mのパン角を適量左向きに変更し、画像中央から右方に存在する場合にはカメラ雲台102mのパン角を適量右向きに変更する。
【0044】
なお、上述の実施例では、第1の侵入物体監視装置と第2の侵入物体監視装置とをそれぞれ1台ずつで侵入物体監視システムを構成したが、第2の侵入物体監視手段を複数台で構成することも可能である。
【0045】
即ち、本発明によれば、第1の侵入物体監視プロセスを第1の侵入物体監視装置101のCPU101cの制御の下で制御し、第2の侵入物体監視プロセスを第2の侵入物体監視装置102のCPU102cの制御の下で制御することによって、それぞれ独立に制御する。第1の侵入物体監視装置は、これによって、監視処理の処理量を分散させることができ、監視対象領域内に複数の侵入物体が存在する場合であっても、監視処理に関わる処理量が増加することなく、それぞれの侵入物体を複数の第2の侵入物体監視装置のいずれかに割り当てることによって侵入物体を追尾させることが可能となる。
【0046】
図4と図5は、本発明の別の実施例の侵入物体監視方法の処理手順の一例を説明するフローチャートである。
本実施例は、第1の侵入物体監視プロセスにおいて追跡が行なえなくなった場合でも、第2の侵入物体監視プロセスの追尾結果に応じて第1の侵入物体監視プロセスで追跡処理を継続できるようにしたものである。
また、本実施例は更に、第2の侵入物体監視プロセスにおいて追尾が行なえなくなった場合でも、第1の侵入物体監視プロセスの追跡結果に応じて第2の侵入物体監視プロセスで追尾処理を継続できるようにしたものである。
【0047】
図4は、図2で説明したフローチャートにおいて、追跡失敗判定ステップ205と視野外移動判定ステップ206との間に、追尾失敗判定ステップ401を追加したものである。
また図5は、図3で示されるフローチャートにおいて、追尾失敗判定ステップ308から追尾割当待ちステップ301に分岐する間に、追跡失敗判定ステップ501を追加したものである。
【0048】
図4または図5において、追加したステップ以外のステップの処理は、図2または図3の通りなので説明を省略する。
即ち、追跡失敗判定ステップ205において、追跡失敗と見なされた場合には、第1の通信I/F101hを介して、第2の侵入物体監視装置102に侵入物体の追跡結果を送信すると共に、追尾失敗判定ステップ401に進む。
【0049】
次に、追尾失敗判定ステップ401では、通信I/F101hを介して得られた、第2の侵入物体監視プロセスにおける追尾失敗判定ステップ308(図5)からの追尾失敗の判定に基づき、第2の侵入物体監視プロセスで追尾が失敗した場合(即ち、第1の侵入物体監視プロセスと第2の侵入物体監視プロセスの双方で侵入物体を見失った場合)には、視野外移動判定ステップ206に分岐する。
また、追尾が継続して行なわれている場合には全検出物体終了判定ステップ208へ分岐する。
そして、視野外移動判定ステップ206では、画像切替合成装置106を介して監視モニタ103へ信号が送られ、監視モニタ103は例えば“侵入物体見逃し”等の表示を行い、全検出物体終了判定ステップ208に分岐する。
【0050】
図5において、追跡失敗判定ステップ501では、通信I/F102hを介して得られた、第1の侵入物体監視プロセスによる追跡失敗判定ステップ205(図4)から送信された追跡結果に基づき、第1の侵入物体監視プロセスで追跡が失敗した場合(即ち、第1の侵入物体監視プロセスと第2の侵入物体監視プロセスの双方で侵入物体を見失った場合)に追尾割当持ちステップ301へ分岐する。
また、第1の侵入物体監視プロセスで追跡が継続して行なわれている場合には、カメラ雲台制御ステップ303へ分岐して侵入物体を継続して追尾する。
【0051】
即ち、上記本発明によると、第1の侵入物体監視装置と第2の侵入物体監視装置とがそれぞれ独立に制御されることによって、少なくとも片方の侵入物体監視プロセスで侵入物体を検出できていれば監視処理を継続することができるため、監視システムの信頼性を向上させることができる。
【0052】
更に、図6は、本発明の更に別の実施例の侵入物体監視方法の処理手順の一例を説明するフローチャートである。
本実施例は、第1の侵入物体監視プロセスにおいて、入力I/F101gを介して、入力装置105から入力されたユーザ操作に応じて監視モニタ106に表示する監視結果画像を切り替えるものである。
図6は、図4で説明した処理フローチャートの全検出物体終了判定ステップ208によって全ての検出物体の処理を終了したと判断された後に、ユーザ入力判定ステップ601と出力画像切替ステップ602を追加したものである。
【0053】
図6において、ユーザ入力判定ステップ601では、入力I/F101gを介して、入力装置105からのユーザ入力を監視し、ユーザが入力装置105を操作した場合に出力画像切替ステップ602へ分岐し、操作していない場合は画像入力ステップ201へ分岐する。
出力画像切替ステップ602では、ユーザの入力操作に応じて画像切替合成装置106を制御し、監視モニタ106へ出力する監視結果画像を切り替える。
【0054】
図7に、第1の侵入物体監視装置1台と第2の侵入物体監視装置3台とで構成した場合の監視モニタ106へ表示される監視結果の画像の一例を示す。
図7は、監視対象領域内に2人の侵入者が存在する場面で、1台目(監視モニタ103で表示中のカメラ2)と2台目(監視モニタ103で表示中のカメラ3)の第2の侵入物体監視装置が、それぞれの侵入物体の追尾をそれぞれ行ない、3台目(監視モニタ103で表示中のカメラ4)の第2の侵入物体監視装置は待機中(追尾割当待ちステップ301及び追尾割当判定ステップ302を実行)の状態にあることを表す。
【0055】
監視結果画像701は4台のカメラの監視結果画像を画面を4分割して表示したものである。また、監視結果画像702は第1の侵入物体監視装置の監視結果画像を表示し、視野内に写る2人の侵入者の移動軌跡702aと702bを表示したものである。更に、監視結果画像703は1台目の第2の侵入物体監視装置の監視結果画像を表示し、侵入者の表情や細かな動作などと共に画面左下に侵入者の大まかな軌跡である移動経路703aが確認できるように表示したものである。また更に、監視結果画像704は2台目の第2の侵入物体監視装置の監視結果画像を表示し、監視結果画像703と同様に侵入者の表情や細かな動作などと共に画面左下に侵入者の大まかな軌跡である移動経路704aが確認できるように表示したものである。
【0056】
これらの監視結果画像は、ユーザからの入力操作がある度に監視結果画像701、702、703、704、701と表示(3台目の第2の侵入物体監視装置は待機中であるためスキップされる)される。
本発明によると、ユーザからの入力に応じて侵入物体の移動経路や細かな表情といった監視業務上重要な情報を監視員等に提供することができる。
【0057】
【発明の効果】
以上のように本発明によれば、第1の侵入物体監視装置と第2の侵入物体監視装置とをそれぞれに内在するCPUの制御の下でそれぞれ独立に制御することによって、監視処理対象領域内の複数の侵入物体を追尾できるため、侵入物体監視システムの処理量を分散することができる。更に、1台の侵入物体監視装置が侵入物体を見失ったとしても、別の侵入物体監視装置によって侵入物体を検出できていれば、その情報を例えば通信ケーブル等を介して受け取ることにより、その情報を利用して侵入物体の監視を継続することができるため、迅速で効率的かつ正確な侵入物体監視が可能となった。これによって、侵入物体の監視性能を著しく向上させることができるため、侵入物体監視システムの適用範囲を大きく広げることができる。
【図面の簡単な説明】
【図1】 本発明の侵入物体監視システムの構成の一実施例を示すブロック図。
【図2】 本発明の一実施例の処理動作を説明するためフローチャート。
【図3】 本発明の一実施例の処理動作を説明するためフローチャート。
【図4】 本発明の一実施例の処理動作を説明するためフローチャート。
【図5】 本発明の一実施例の処理動作を説明するためフローチャート。
【図6】 本発明の一実施例の処理動作を説明するためフローチャート。
【図7】 本発明の監視モニタに表示される画像の一実施例を示す図。
【図8】 従来の2種類のカメラを用いた監視システムについて説明するための図。
【図9】 侵入物体検出処理方法の原理の一例を説明する図。
【図10】 第1のカメラが検出した侵入物体を、第2のカメラが追尾する方法を説明するための図。
【図11】 本発明の一実施例の通信ケーブル107に流れる通信情報の構成を表す一例。
【符号の説明】
101:第1の侵入物体監視装置、 101a:第1のカメラ、 101b:第1の画像入力I/F、 101c:第1のCPU、 101d:第1の画像メモリ、 101e:第1のプログラムメモリ、 101f:第1のワークメモリ、 101g:入力I/F、 101h:第1の通信I/F、 101i:第1の画像出力I/F、 101j:第1の出力I/F、 101k:第1のデータバス、 102:第2の侵入物体監視装置、 102a:第2のカメラ、 102b:第2の画像入力I/F、 102c:第2のCPU、 102d:第2の画像メモリ、 102e:第2のプログラムメモリ、 102f:第2のワークメモリ、 102h:第2の通信I/F、 102i:第2の画像出力I/F、 102j:第2の出力I/F、 102k:第2のデータバス、 102l:雲台制御装置、 102m:カメラ雲台、 103:監視モニタ、 104:警告灯、 106:入力装置、 106:画像切替合成装置、 107:通信ケーブル、 801:侵入物体、 802:第1のカメラ、 803:第2のカメラ、 804:監視対象領域、 805:第2のカメラの視野範囲、 901,902,903:入力画像、 904,905:差分画像、 906,907:二値化画像、 908:論理積画像、 909,910:減算器、 911,912:二値化器、 913:論理積器、 914,915,916:物体、 917,918:領域、 919,920,921:画像、 1001:侵入物体、 1002:第1のカメラ、 1003:第2のカメラ、 1004,1005:視野範囲。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a monitoring system, and in particular, a first intruding object monitoring apparatus that images the entire monitoring target area and a second intruding object monitoring apparatus that controls the visual field direction of the imaging apparatus to follow the movement of the intruding object. The present invention relates to an intruding object monitoring method and an intruding object monitoring system that automatically monitor an intruding object independently of each other.
[0002]
[Prior art]
In recent years, intrusion object monitoring systems that use image input means such as cameras and other image input means in an intrusion object monitoring system do not rely on conventional methods of manned monitoring by observers, Automatically detects and controls the camera platform on which the camera is mounted based on the detection position of the intruding object so that the intruding object is always captured within the camera's field of view, and changes the camera's line-of-sight direction etc. There are some which can obtain a predetermined notification, alarm, intrusion object video recording and the like.
[0003]
As such a system, for example, there is a monitoring system composed of two types of cameras as shown in FIG. FIG. 8 is a diagram for explaining an intruding object monitoring system assuming tank yard monitoring.
In FIG. 8, the
[0004]
Further, the first monitoring means continues to monitor the entire
Here, “tracking” and “tracking” in the description of the present specification are defined as follows.
Tracking: A process of measuring a change in position on the screen of a target object that appears in the field of view of an imaging device such as a monitoring camera. For example, the temporal change from when the target object is detected to when it is no longer detected is monitored and recorded, for example, by obtaining the movement trajectory of the target object for the entire monitoring target region.
Tracking: A process involving pan head control (control in the optical axis direction of the camera) of the imaging apparatus. For example, the direction of the optical axis is controlled so that the current time position of the moving target object is always captured at the center of the optical axis of the camera, and the area portion of the target object that is a part of the monitoring target area is always followed.
[0005]
A method for the
In FIG. 8, for a plurality of frames of images input at different times obtained by the
[0006]
FIG. 9 is a diagram for explaining the principle of the intruding object detection processing method by the
In FIG. 9, a
Next, the
[0007]
Next, the
Note that any method other than the inter-frame difference method can be applied as long as it is a method for detecting an intruding object in the monitoring area.
[0008]
As described above, when an intruding object is detected by the
[0009]
A method for obtaining the control amount of the pan head of the
[0010]
In FIG. 10, 2W is the number of pixels (unit: pix) in the horizontal (x-axis) direction of the input image for the entire field of view (monitoring target area) 1004 of the
[Expression 1]
It can be expressed as.
[0011]
In this monitoring condition, the number of pixels in the horizontal direction of the input image is 2 W, the displacement Δx in the horizontal direction from the center of the field of view of the
[Expression 2]
There is a relationship.
[0012]
That is, the pan control angle θx of the pan head of the
[Equation 3]
It becomes.
[0013]
For example, the semi-monitoring angle θw is 30 °, the number of
[0014]
As described above, when a plurality of frames of images input at different times by the
As a monitoring device having the above two camera configurations, there are, for example, JP-A-5-334572 and JP-A-6-153051.
[0015]
[Problems to be solved by the invention]
In the prior art described above, when a plurality of second cameras are controlled to track a plurality of intruding objects, the first camera has a plurality of second in proportion to the number of intruding objects. Since the camera is controlled, there is a drawback that the processing amount of the first camera increases.
Further, when the intruding object cannot be temporarily detected by the first camera, there is a disadvantage that the tracking cannot be continuously performed even if the second camera is in a position where the intruding object can be captured. there were.
[0016]
An object of the present invention is to process an input image signal obtained by a first camera with a first image processing device, process an input image signal obtained by a second camera with a second image processing device, The object is to enable tracking of a plurality of intruding objects by distributing the monitoring processing load by independently controlling the image processing process.
Still another object of the present invention is to perform control so as to continue monitoring processing based on the processing result of the other image processing apparatus even when an intruding object is temporarily lost in one image processing apparatus. The intruding object can be monitored by at least one of the first or second intruding object monitoring device, and the monitoring process is continued based on the processing result of another intruding object monitoring device even if the intruding object is temporarily lost. Accordingly, it is an object of the present invention to provide a highly reliable intruding object monitoring method and intruding object monitoring system that tracks an intruding object quickly, efficiently and accurately.
[0017]
[Means for Solving the Problems]
In order to achieve the above object, the intruding object monitoring system of the present invention includes first and second intruding object monitoring apparatuses that execute independent image processing means.
Then, the first intruding object monitoring device detects the first information of the object that enters the monitoring target area, and sends the first information from the first intruding object monitoring device to the second intruding object monitoring device. The intruding object is captured by the second intruding object monitoring device based on the first information sent from the first intruding object monitoring device, and the second intruding object detecting device captures the second of the captured intruding object. The second intrusion object monitoring apparatus tracks at least the captured intrusion object by controlling at least the camera of the second intrusion object monitoring apparatus without the control of the first intrusion object monitoring apparatus.
The first intruding object monitoring apparatus tracks the intruding object, and when the intruding object cannot be tracked by the first intruding object monitoring apparatus, the second intruding object monitoring apparatus performs second intruding object monitoring. Get information and keep track of it.
Further, when the tracking of the object by the second intruding object monitoring device becomes impossible, the first information on the intruding object is acquired from the first intruding object monitoring device and the tracking is continued.
[0018]
Furthermore, the intruding object monitoring method of the present invention includes a first intruding object monitoring device having a visual field range that covers a monitoring target region, and at least one of the visual field range of the first intruding object monitoring device as a monitoring region. A first image input step of inputting an image of a monitoring target area by the first intrusion object monitoring device using a second intrusion object monitoring system, and a first image input step. A first detection step of detecting first information of the intruding object from the image input by the step of controlling the second intruding object monitoring device according to the first information and inputting an image of the monitoring area, A second image input step for capturing the image and a second detection step for detecting the second information of the intruding object in the monitoring area by the second intruding object monitoring device, and detecting by the second detecting step. Shi In response to the second information, to track the intruding object by controlling the second intruder monitoring device.
The second information detected by the second detection step is information including the size and detection position of the intruding object, and the tracking of the intruding object captured by the second intruding object monitoring device is the second information. Based on this, the pan head of the second intruding object monitoring device is controlled to change the line-of-sight direction of the imaging device.
[0019]
Further, in the first detection step, the first information of the intruding object is detected by a difference method, and in the second detection step, the second information of the intruding object is detected by a template matching method.
In addition, there is a new detection object determination step for determining whether or not the intruding object is a newly detected intruding object. If the intruding object is a newly detected intruding object, the newly detected intruding object is If the intruding object is determined not to be a newly detected intruding object, it is determined that the intruding object is being tracked by the first intruding object monitoring apparatus. The change from the previous position to the current position of the intruding object is set as the movement locus of the intruding object being tracked.
Still further, an image captured by the second intruding object monitoring device is displayed on a display device, and the moving locus of the intruding object is superimposed on the image of the intruding object imaged by the second intruding object monitoring device. And
In addition, when the first intruding object monitoring apparatus detects a new intruding object, the first intruding object monitoring apparatus tracks one of the second intruding object monitoring apparatuses that are not tracking the intruding object.
[0020]
Furthermore, in the intruding object monitoring method of the present invention, the intruding object monitoring method further includes a new detected object determining step for determining whether or not the intruding object is a newly detected intruding object. When the monitoring device detects a new intruding object, the monitoring device transmits the third information of the newly detected intruding object to one of the second intruding object monitoring devices that are not tracking the intruding object. In response to the third information, the second intruding object monitoring device captures the newly detected intruding object. After the capturing, the second intruding object monitoring device captures the captured intruding object as the first intruding object. It is controlled independently from the monitoring device.
Further, when it is determined by the new detected object determination step that the intruding object is not a newly detected intruding object, the previous intruding object is determined to be an intruding object being tracked by the first intruding object monitoring device. The change from the position of the current intruding object to the current position of the intruding object is used as the movement locus of the intruding object being tracked.
,
Furthermore, in the intruding object monitoring method of the present invention, the intruding object detection information detected at the current time by the second detection step is compared with the intruding object detection information detected before, and the detected information A tracking determination step for determining whether the tracking of the object has failed or succeeded according to the difference is provided. If it is determined that the tracking has failed, the second information detected by the first detection step is further acquired. And continue tracking.
Further, the first information and the second information are exchanged between the first intruding object monitoring method and the second intruding object monitoring method, thereby monitoring the intruding object in the monitoring area.
Furthermore, a screen switching input step for inputting a screen switching request from the user is provided, and first detection information input from the first intruding object monitoring device and second information input from the second intruding object monitoring device. In response to the screen switching request from the user, the display method of the input first detection information and second detection information is changed.
Further, the screen switching input step further displays the locus of the intruding object designated by the user in an overlapping manner.
[0022]
An intruding object monitoring system according to the present invention includes a first intruding object monitoring device that captures an image of a monitoring target region and detects first information of an intruding object that enters the monitoring target region, and a first intruding object monitoring device. And detecting at least one second intruding object monitoring device for capturing the intruding object and tracking the intruding object captured without the control of the first intruding object monitoring device based on the first information detected by the Monitor intruding objects entering the target area.
The first intruding object monitoring device includes an intruding object monitoring processing unit, and the second intruding object monitoring device is independent of the intruding object monitoring processing unit of the first intruding object monitoring device. And the second intruding object monitoring device tracks the intruding object detected by the first intruding object monitoring device independently of the first intruding object monitoring device.
Furthermore, the second intruding object monitoring device detects second information on the captured intruding object, and tracks the intruding object detected by the first intruding object monitoring device based on the second information.
Further, the intruding object monitoring processing unit of the first intruding object monitoring apparatus of the first intruding object monitoring apparatus determines whether or not an intruding object is newly detected. When it is determined that an intruding object is newly detected, the tracking of the newly detected intruding object is assigned to the second intruding object monitoring apparatus that has not been tracked, and the assigned second intruding object monitoring apparatus Captures and tracks newly detected intruding objects.
In addition, the second intruding object monitoring device includes a pan head, and the second intruding object monitoring device controls the pan head based on the first information to capture the intruding object. The intruding object monitoring device tracks the intruding object by controlling the pan head based on the second information. In addition, a display device that displays the first information and the second information is provided, and information on the intruding object is displayed according to a user instruction. The information on the intruding object includes a trajectory extracted from the first information and the second information.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
First, an embodiment of the intruding object monitoring system of the present invention will be described with reference to FIG.
FIG. 1 is a block diagram showing a hardware configuration of the intruding object monitoring system.
In the first intruding
Further, on the first intruding
Furthermore, the first image output I / F 101i on the first intruding
[0024]
In the first intruding
In the second intruding
[0025]
In FIG. 1, a
The
As a result of the above analysis, the first intruding
[0026]
The first communication I /
Further, the number of monitoring monitors does not have to be one, but two or more may be used, and the contents to be displayed can be freely changed according to the user's request.
In addition, the physical connection among the first
[0027]
Next, the
[0028]
The
The second communication I /
[0029]
Furthermore, the
The flowcharts described below are all described with reference to FIG. 1 which is an example of the hardware configuration of the intruding object monitoring system.
[0030]
2 and 3 are flowcharts for explaining an example of the processing procedure of the intruding object monitoring method according to the embodiment of the present invention, which will be described below with reference to the intruding object monitoring system of FIG. 1 described above.
In the present embodiment, an intruding object is detected from image signals sequentially input from a first imaging device (first camera) that captures an image of the entire monitoring target region, and the position change of the detected intruding object is tracked. 1 based on the tracking assignment request and the position information of the intruding object given by the first intruding object monitoring device when it is determined by the first intruding object monitoring process that the intruding object exists. Thus, the second imaging device (second camera) detects the intruding object in the sequentially input image signal, and always captures the intruding object in the field of view of the second imaging device while controlling the pan head. A second intruding object monitoring process for tracking, wherein the first intruding object monitoring process is controlled under the
FIG. 2 is a flowchart for explaining an embodiment of the first intruding object monitoring process, and FIG. 3 is a flowchart for explaining an embodiment of the second intruding object monitoring process.
[0031]
In FIG. 2, when monitoring of the intruding object is started,
In the
In the intruding
Next, in a new detection
[0032]
In the intruding
Next, in the tracking
The amount of change θ between the movement trajectory obtained one frame ago and the current movement trajectory is as follows: the intruding object coordinates (x11, y11) from the coordinates (x11, y11) one frame ago, and the intruding object coordinates (x12, y12) Assuming that the coordinate (x22, y22) is moved from x21, y21), the following equation is calculated.
[0033]
[Expression 4]
[0034]
If the tracking
As described above, it has been described that when it is determined that the tracking failure has occurred in the tracking
[0035]
If it is determined in the tracking
In the intruding object
[0036]
FIG. 11 is an example showing a configuration of communication information flowing through the
The communication data is composed of a 7-byte data string, and is transmitted in the order of STX3201, DST3202, SRC3203, COM3204, DT13205, DT23206, and ETX3207. Here, STX3201 represents the first byte of communication data (Start of TeXt), for example, $ A0 ($ represents a hexadecimal number) is used. Further, DST3202 represents the ID (identification name) of the transmission destination (Destination), SRC3203 represents the ID of the transmission source (Source), for example, the ID of the first intruding
By using the above communication data, a tracking allocation request, a tracking result of the target object, and a tracking result of the target object can be exchanged between a plurality of intruding object monitoring devices. Although the communication data is composed of a 7-byte data string here, it can be composed of a data string other than 7 bytes, or can have a variable length according to the content of data to be transmitted.
[0037]
In the all detection object
[0038]
Next, in the second intruding object monitoring process of FIG.
In the tracking
In the tracking
[0039]
In the camera
The control amount (pan angle, tilt angle) of the
[0040]
Next, in an
In the initial
[0041]
Next, in an
In the intruding
Template matching is to detect where an image registered as a template image exists in a certain image. For example, “Introduction to computer image processing” by Hideyuki Tamura published by Soken Publishing in 1985. Is described in pages 118-125 of the book entitled.
[0042]
Next, in the tracking
If an intruding object is detected, the tracking result is transmitted together with the position information of the intruding object to the first intruding object monitoring means 101 via the second communication I /
[0043]
In the
Next, in the camera
That is, when the intruding object is present above the center of the image, the tilt angle of the
If an intruding object is present to the left from the center of the image, the pan angle of the
[0044]
In the above-described embodiment, the intruding object monitoring system is configured by one each of the first intruding object monitoring device and the second intruding object monitoring device. However, a plurality of second intruding object monitoring units are provided. It is also possible to configure.
[0045]
That is, according to the present invention, the first intruding object monitoring process is controlled under the control of the
[0046]
4 and 5 are flowcharts for explaining an example of the processing procedure of the intruding object monitoring method according to another embodiment of the present invention.
In the present embodiment, even when tracking cannot be performed in the first intruding object monitoring process, the tracking process can be continued in the first intruding object monitoring process according to the tracking result of the second intruding object monitoring process. Is.
Further, according to the present embodiment, even when tracking cannot be performed in the second intruding object monitoring process, the tracking process can be continued in the second intruding object monitoring process according to the tracking result of the first intruding object monitoring process. It is what I did.
[0047]
FIG. 4 is obtained by adding a tracking
FIG. 5 is obtained by adding a tracking
[0048]
In FIG. 4 or FIG. 5, the processing of steps other than the added step is as shown in FIG.
That is, in the tracking
[0049]
Next, in the tracking
If tracking is being continued, the process branches to the all detected object
In the out-of-field
[0050]
In FIG. 5, in the tracking
If tracking is continuously performed in the first intruding object monitoring process, the process branches to the camera pan
[0051]
That is, according to the present invention, if the first intruding object monitoring device and the second intruding object monitoring device are independently controlled, an intruding object can be detected by at least one intruding object monitoring process. Since the monitoring process can be continued, the reliability of the monitoring system can be improved.
[0052]
FIG. 6 is a flowchart for explaining an example of the processing procedure of the intruding object monitoring method according to still another embodiment of the present invention.
In this embodiment, in the first intruding object monitoring process, the monitoring result image to be displayed on the
FIG. 6 is a diagram in which a user
[0053]
In FIG. 6, in the user
In the output
[0054]
FIG. 7 shows an example of an image of the monitoring result displayed on the
FIG. 7 shows a scene in which two intruders exist in the monitoring target area, and the first unit (camera 2 being displayed on the monitoring monitor 103) and the second unit (camera 3 being displayed on the monitoring monitor 103). The second intruding object monitoring apparatus tracks each intruding object, and the third intruding object monitoring apparatus (camera 4 being displayed on the monitoring monitor 103) is on standby (tracking allocation waiting step 301). And the tracking
[0055]
The monitoring result
[0056]
These monitoring result images are displayed as
According to the present invention, it is possible to provide monitoring personnel and the like important information for monitoring work such as a moving path of an intruding object and a fine facial expression according to an input from a user.
[0057]
【The invention's effect】
As described above, according to the present invention, the first intruding object monitoring device and the second intruding object monitoring device are controlled independently of each other under the control of the CPUs contained in the first intruding object monitoring device. Since a plurality of intruding objects can be tracked, the processing amount of the intruding object monitoring system can be distributed. Further, even if one intruding object monitoring device loses sight of an intruding object, if the intruding object can be detected by another intruding object monitoring device, the information can be received by receiving the information via, for example, a communication cable. Since the monitoring of the intruding object can be continued using this, the intruding object monitoring can be performed quickly, efficiently and accurately. Thereby, since the monitoring performance of the intruding object can be remarkably improved, the application range of the intruding object monitoring system can be greatly expanded.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of a configuration of an intruding object monitoring system according to the present invention.
FIG. 2 is a flowchart for explaining the processing operation of the embodiment of the present invention.
FIG. 3 is a flowchart for explaining the processing operation of the embodiment of the present invention.
FIG. 4 is a flowchart for explaining the processing operation of the embodiment of the present invention.
FIG. 5 is a flowchart for explaining the processing operation of the embodiment of the present invention.
FIG. 6 is a flowchart for explaining the processing operation of the embodiment of the present invention.
FIG. 7 is a diagram showing an example of an image displayed on the monitoring monitor of the present invention.
FIG. 8 is a diagram for explaining a conventional surveillance system using two types of cameras.
FIG. 9 is a diagram illustrating an example of the principle of an intruding object detection processing method.
FIG. 10 is a diagram for explaining a method in which the second camera tracks an intruding object detected by the first camera.
FIG. 11 is an example showing the configuration of communication information flowing in the
[Explanation of symbols]
101: first intruding object monitoring apparatus, 101a: first camera, 101b: first image input I / F, 101c: first CPU, 101d: first image memory, 101e: first program memory 101f: first work memory, 101g: input I / F, 101h: first communication I / F, 101i: first image output I / F, 101j: first output I / F, 101k: first 1 data bus, 102: second intruder monitoring device, 102a: second camera, 102b: second image input I / F, 102c: second CPU, 102d: second image memory, 102e: Second program memory, 102f: second work memory, 102h: second communication I / F, 102i: second image output I / F, 102j: second output I / F, 102k: second Data bus, 102l: pan head control device, 102m: camera pan head, 103: monitoring monitor, 104: warning light, 106: input device, 106: image switching composition device, 107: communication cable, 801: intruding object, 802: First camera 803: second camera, 804: monitoring target area, 805: second camera field of view, 901, 902, 903: input image, 904, 905: difference image, 906, 907: binarized image, 908: Logical product image, 909, 910: Subtractor, 911, 912: Binarizer, 913: Logical product, 914, 915, 916: Object, 917, 918: Area, 919, 920, 921: Image, 1001: Intruder, 1002: first camera, 1003: second camera, 1004, 1005: field of view.
Claims (4)
前記物体の追跡が行えなくなった場合でも、前記第2の検出情報に基づいて同一の前記第1のカメラ装置の画像を用いて前記物体の追跡を継続する、Even when the tracking of the object cannot be performed, the tracking of the object is continued using the same image of the first camera device based on the second detection information.
ことを特徴とする物体検出装置。An object detection apparatus characterized by that.
前記物体の追尾が行えなくなった場合でも、前記第1の検出情報に基づいて同一の前記第2のカメラ装置により前記物体の追尾を継続する、Even when the tracking of the object cannot be performed, the tracking of the object is continued by the same second camera device based on the first detection information.
ことを特徴とする物体検出装置。An object detection apparatus characterized by that.
前記物体の追跡が行えなくなった場合でも、前記第2の検出情報に基づいて同一の前記第1のカメラ装置の画像を用いて前記物体の追跡を継続する、Even when the tracking of the object cannot be performed, the tracking of the object is continued using the same image of the first camera device based on the second detection information.
ことを特徴とするプログラム。A program characterized by that.
前記物体の追尾が行えなくなった場合でも、前記第1の検出情報に基づいて同一の前記第2のカメラ装置により前記物体の追尾を継続する、Even when the tracking of the object cannot be performed, the tracking of the object is continued by the same second camera device based on the first detection information.
ことを特徴とするプログラム。A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001054387A JP3758511B2 (en) | 2000-02-28 | 2001-02-28 | Object detection apparatus and object detection program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000-50853 | 2000-02-28 | ||
JP2000050853 | 2000-02-28 | ||
JP2001054387A JP3758511B2 (en) | 2000-02-28 | 2001-02-28 | Object detection apparatus and object detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001320699A JP2001320699A (en) | 2001-11-16 |
JP3758511B2 true JP3758511B2 (en) | 2006-03-22 |
Family
ID=26586190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001054387A Expired - Fee Related JP3758511B2 (en) | 2000-02-28 | 2001-02-28 | Object detection apparatus and object detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3758511B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3712690B2 (en) * | 2002-05-13 | 2005-11-02 | 株式会社リコー | Tracing server, content display device and electronic device |
JP2006186458A (en) * | 2004-12-27 | 2006-07-13 | Secom Co Ltd | Image signal processor and sensing apparatus |
JP4752461B2 (en) * | 2005-11-18 | 2011-08-17 | 日本精機株式会社 | Omni-directional imaging device |
JP5105972B2 (en) * | 2007-07-02 | 2012-12-26 | 株式会社日立国際電気 | Coordinate conversion method, parameter adjustment method, and monitoring system |
US11532160B2 (en) | 2016-11-07 | 2022-12-20 | Nec Corporation | Information processing apparatus, control method, and program |
JP7052833B2 (en) * | 2020-07-16 | 2022-04-12 | 日本電気株式会社 | Information processing equipment, control methods, and programs |
CN112967302B (en) * | 2021-02-26 | 2024-04-05 | 岭澳核电有限公司 | Monitoring method for underwater security intrusion target of nuclear power plant |
-
2001
- 2001-02-28 JP JP2001054387A patent/JP3758511B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001320699A (en) | 2001-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100432870B1 (en) | Intruding object monitoring method and intruding object monitoring system | |
JP3279479B2 (en) | Video monitoring method and device | |
US10438360B2 (en) | Video processing apparatus, video processing method, and storage medium | |
KR101696801B1 (en) | integrated image monitoring system based on IoT camera | |
JP6016295B2 (en) | Monitoring system | |
JP2008035095A (en) | Monitoring apparatus, monitoring system, monitoring method and program | |
JP2010009134A (en) | Image processing system, image processing method, and program | |
KR101596896B1 (en) | System for regulating vehicles using image from different kind camera and control system having the same | |
JP3852745B2 (en) | Object detection method and object detection apparatus | |
JP2001333422A (en) | Monitoring device | |
JP2002290962A (en) | Method and device for automatically tracking intruder and image processor | |
KR101977635B1 (en) | Multi-camera based aerial-view 360-degree video stitching and object detection method and device | |
KR101832274B1 (en) | System for crime prevention of intelligent type by video photographing and method for acting thereof | |
JP4578864B2 (en) | Automatic tracking device and automatic tracking method | |
JP3758511B2 (en) | Object detection apparatus and object detection program | |
JP4250172B2 (en) | Object detection method and object detection apparatus | |
JP5693147B2 (en) | Photographic interference detection method, interference detection device, and surveillance camera system | |
JP2002158999A (en) | Method and apparatus for detecting object and intruding object monitoring device | |
JP2001245284A (en) | Method and system for supervising intruding object | |
KR102080456B1 (en) | method of controlling object tracking of PTZ camera by use of syntax data in compressed video | |
JP2003235035A (en) | Object detecting method, object detecting apparatus employing the same, object tracking method, and object tracking apparatus employing the same | |
JP2005057743A (en) | Object tracking method and object tracking apparatus | |
CN116342642A (en) | Target tracking method, device, electronic equipment and readable storage medium | |
CN112492261A (en) | Tracking shooting method and device and monitoring system | |
KR101155184B1 (en) | Visual tracking system using collaboration of double shapshot means and tracking method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051003 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051226 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3758511 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100113 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100113 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110113 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120113 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120113 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130113 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130113 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140113 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |