JP5435740B2 - 監視システム、および監視サーバ - Google Patents

監視システム、および監視サーバ Download PDF

Info

Publication number
JP5435740B2
JP5435740B2 JP2010253804A JP2010253804A JP5435740B2 JP 5435740 B2 JP5435740 B2 JP 5435740B2 JP 2010253804 A JP2010253804 A JP 2010253804A JP 2010253804 A JP2010253804 A JP 2010253804A JP 5435740 B2 JP5435740 B2 JP 5435740B2
Authority
JP
Japan
Prior art keywords
abnormal state
monitoring
terminal
mobile terminal
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010253804A
Other languages
English (en)
Other versions
JP2012104022A (ja
Inventor
裕司 吉光
丈嗣 内藤
敦志 河村
正孝 芹川
俊介 上條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
University of Tokyo NUC
Original Assignee
Omron Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, University of Tokyo NUC filed Critical Omron Corp
Priority to JP2010253804A priority Critical patent/JP5435740B2/ja
Publication of JP2012104022A publication Critical patent/JP2012104022A/ja
Application granted granted Critical
Publication of JP5435740B2 publication Critical patent/JP5435740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

この発明は、駅、ショッピングセンタ、アミューズメント施設等の不特定多数の人が集まる場所を監視し、その状態が異常であると推定される人や物等のオブジェクトの検出を行うとともに、その状態が異常であると推定されたオブジェクトを検出したときに、その旨を警備員等に通報する監視システム、および監視サーバに関する。
従来、監視カメラ端末を用いて、不審者や、不審物等の検出を行う監視システムが、駅、ショッピングセンタ、アミューズメント施設等の不特定多数の人が集まる公共の場所で利用されている。
監視カメラ端末は、自端末に割り当てられている監視対象エリアを撮像した撮像画像を処理し、撮像されているオブジェクト(人や物)の状態が予め定めた異常状態であるかどうかを推定する。監視カメラ端末は、その状態が異常状態であると推定したオブジェクトを、不審者や、不審物等として検出する。また、従来の監視システムは、監視カメラ端末の撮像画像を、警備室等に設置したモニタに表示し、検出された不審者や不審物を係員(監視員)が確認できるようにしている。
また、複数の監視カメラ端末を利用し、不審者や不審物の検出、追跡を広域にわたって行う監視システムも提案されている。この監視システムでは、各監視カメラ端末が、追跡している不審者が自端末の撮像エリア(監視対象エリア)から、他の監視カメラ端末の撮像エリアに移動するときに、この他の監視カメラ端末と連携し、当該不審者の追跡の引き継ぎを行っている(特許文献1、2参照)。
特許第3814779号公報 特許第3999561号公報
しかしながら、従来の監視システムでは、警備室等に設置されているモニタをみている監視員が、監視エリアを巡回している警備員等に対して、検出された不審者や不審物等に対する対応を指示していた。具体的には、監視員は、不審者や不審物が検出されたときに、その不審者や不審物が検出された場所(以下、現場と言う。)、検出された不審者や不審物の状態(予め定めた異常状態の種類)、監視エリア内を巡回している各警備員の現在位置等に基づいて、検出された不審者や不審物に対応する警備員を判断する。そして、監視員は、ここで判断した警備員に対して、検出された不審者や不審物の対応を指示していた。警備員は、携帯端末を所持しており、この携帯端末で、不審者や不審物に対する対応指示を受ける。
不審物(放置物)や、現場に留まっている不審者であれば、対応を指示する警備員は、現場に最も近い位置にいる警備員が好ましい。一方、現場から離れる方向に移動している不審者(特に、現場から逃走している不審者)であれば、対応を指示する警備員は、この不審者に最も近い位置にいる警備員よりも、この不審者が逃走している方向にいる警備員のほうが好ましい。
監視員による、検出された不審者に対する対応の指示が遅れると、当該不審者を取り逃がすことにもなる。したがって、監視員は、検出された不審者や不審物に対する対応指示を、迅速、且つ適性に行うために、モニタに表示されている監視カメラ端末の画像から、現場、不審者や不審物の状態、警備員の位置等をすぐに判断しなければならず、負担が大きかった。
この発明の目的は、その状態が異常であると推定された不審者や不審物等のオブジェクトが検出されたときに、そのオブジェクトに対する対応指示を迅速、且つ適正に行う監視システム、および監視サーバを提供することにある。
この発明は、上記課題を解決し、その目的を達するために以下ように構成している。
監視カメラ端末と、監視サーバと、は有線、または無線でデータ通信が行える。監視カメラ端末は、撮像手段が自端末に割り当てられている監視対象エリアを撮像し、追跡手段が撮像画像を処理し、撮像されているオブジェクトを抽出するとともに、そのオブジェクトを監視対象エリア内において追跡する。また、状態推定手段において、追跡しているオブジェクトの状態が、予め定めている監視サーバへの通報が必要な種類の異常状態であるかどうかを推定する。予め定めている監視サーバへの通報が必要な種類の異常状態としては、そのオブジェクトが人であれば、喧嘩、徘徊、座り込み、自動改札機の不正通行等であり、そのオブジェクトが物であれば、放置等である。監視カメラ端末は、オブジェクトについて状態推定手段が推定した状態が、予め定めている監視サーバへの通報が必要な種類の異常状態であれば、通報手段がその旨を監視サーバに通報する。
一方、監視サーバは、登録している携帯端末毎に、その携帯端末の位置を管理する携帯端末位置管理テーブル、およびオブジェクトの異常状態の種類を、対応の緊急性が必要であるかどうか、および異常状態であると推定したオブジェクトがその位置から離れる方向に移動しているかどうかにより分類した項目毎に、そのオブジェクトに対する対応指示を通知する携帯端末を決定する条件を登録した異常状態分類テーブルを記憶手段に記憶している。携帯端末は、この監視システムが監視する監視エリア内を巡回する警備員が携帯する端末であり、監視サーバから送信されてきた指示を受けることができる。
なお、携帯端末は、例えば数分毎に自端末の位置を検出し、監視サーバに通知する構成とすればよい。そして、監視サーバは、この携帯端末から通知される位置を、携帯端末位置管理テーブルで管理すればよい。
また、携帯端末と監視カメラ端末間が通信できるシステムとし、監視サーバは各監視カメラ端末と携帯端末の通信状況から、携帯端末のおよその位置を管理することでもよい。
また、異常状態分類テーブルでは、例えば、異常状態であると推定した場所である現場の確認が必要であるかどうかによって、項目分けし、項目毎に、その項目に属する異常状態の種類、および対応指示を通知する携帯端末を決定する条件を登録してもよい。
そして、監視サーバは、監視カメラ端末から、オブジェクトが異常状態である旨の通報があれば、通知先決定手段が、記憶手段に記憶している携帯端末位置管理テーブル、および異常状態分類テーブルを用いて、このオブジェクトに対する対応指示を通知する携帯端末を決定する。通知先決定手段は、対応の緊急性が必要であり、且つ異常状態であると推定したオブジェクトがその位置から離れる方向に移動している場合、当該オブジェクトの移動方向に位置する携帯端末を、そのオブジェクトに対する対応指示を通知する携帯端末に決定する。そして、送信手段が、通知先決定手段が決定した携帯端末に対して、異常状態であるオブジェクトに対する対応指示を送信する。
このように、監視サーバが、巡回している警備員の位置を管理し、監視カメラ端末によって異常状態である不審者や不審物が検出されたときには、その異常状態の種類や、警備員の位置に応じて、対応を指示する警備員を判断し、この警備員が所持している携帯端末に対応指示を送信する。したがって、その状態が異常であると推定された不審者や不審物等のオブジェクトが検出されたときに、そのオブジェクトに対する対応指示が迅速、且つ適正に行える。
この発明によれば、その状態が異常であると推定された不審者や不審物等のオブジェクトが検出されたときに、そのオブジェクトに対する対応指示が迅速、且つ適正に行える。
監視システムの構成を示す概略図である。 監視カメラ端末の主要部の構成を示すブロック図である。 監視サーバの主要部の構成を示すブロック図である。 携帯端末の主要部の構成を示すブロック図である。 隣接する2つの監視カメラ端末に割り当てている監視対象エリアを示す図である。 監視カメラ端末における追跡処理を示すフローチャートである。 オブジェクトマップを示す図である。 ID確定処理を示すフローチャートである。 姿勢マップを示す図である。 監視カメラの撮像画像と、場所情報の設定例を示す図である。 監視カメラの撮像画像と、場所情報の設定例を示す図である。 姿勢マップ作成処理を示すフローチャートである。 異常状態であると推定する処理を説明する図である。 異常状態であると推定する処理を説明する図である。 異常状態であると推定する処理を説明する図である。 携帯端末の動作を示すフローチャートである。 携帯端末位置管理テーブルを示す図である。 異常状態分類テーブルを示す図である。 監視サーバの動作を示すフローチャートである。
以下、この発明の実施形態にかかる監視システムについて説明する。
図1は、この監視システムの構成を示す概略図である。この監視システムは、複数の監視カメラ端末1(1a、1b、1c、1d・・・)と、監視サーバ2と、複数の携帯端末3(3a、3b・・・)と、を備えている。監視カメラ端末1間では、直接、または他の監視カメラ端末1を介してデータ通信が行える。また、監視カメラ端末1と、監視サーバ2との間でも、直接、または他の監視カメラ端末1を介してデータ通信が行える。さらに、監視サーバ2と、携帯端末3との間でも、直接、または監視カメラ端末1を介してデータ通信が行える。監視カメラ端末1、および携帯端末3には、固有のIDが付与されており、監視サーバ2は、このIDによって監視カメラ端末1、および携帯端末3を識別する。
なお、監視カメラ端末1と、携帯端末3との間でも、直接、または他の監視カメラ端末1を介してデータ通信が行える。また、少なくとも携帯端末3におけるデータ通信は、無線通信で行う構成であるが、監視カメラ端末1間や、監視カメラ端末1と監視サーバ2との間におけるデータ通信は、無線で行う構成であってもよいし、有線で行う構成であってもよい。ここでは、機器間のデータ通信は無線で行うものとして説明する。
各監視カメラ端末1には、この監視システムで監視するエリアの一部が監視対象エリアとして割り当てられている。監視カメラ端末1は、自端末に割り当てられている監視対象エリアの撮像画像を処理し、撮像されているオブジェクト(人や物)の抽出、抽出したオブジェクトの状態を推定する。また、各監視カメラ端末1は、推定したオブジェクトの状態が予め定められている通報が必要な状態(異常状態)であれば、その旨を監視サーバ2に通報する。
携帯端末3は、この監視システムで監視するエリアを巡回している警備員が所持する。携帯端末3は、公知のGPSを利用して、自端末の現在位置を取得することができる。携帯端末3の位置は、この携帯端末3を所持している警備員の位置である。また、携帯端末3は、定期的(例えば、数分(1〜3分)間隔)に、GPSを利用して自端末の現在位置を取得し、監視サーバ2に通知する。
監視サーバ2は、携帯端末3毎に、その携帯端末3の位置を管理する携帯端末位置管理テーブルを記憶している。また、監視サーバ2は、オブジェクトの異常状態の種類を分類した項目毎に、そのオブジェクトに対する対応指示を通知する携帯端末3を決定する条件を登録した異常状態分類テーブルを記憶している。この携帯端末位置管理テーブル、および異常状態分類テーブルの詳細については、後述する。また、監視サーバ2は、監視カメラ端末1から異常状態であるオブジェクトの検出にかかる通報があると、携帯端末位置管理テーブル、および異常状態分類テーブルを用いて、そのオブジェクトに対する対応を指示する携帯端末3(すなわち、警備員)を判断する。監視サーバ2は、ここで判断した携帯端末3に対して、異常状態であることが通報されてきたオブジェクトに対する対応指示を送信する。
図2は、監視カメラ端末の主要部の構成を示すブロック図である。監視カメラ端末1は、制御部11と、撮像部12と、画像処理部13と、記憶部14と、タイマ15と、通信部16と、を備えている。制御部11は、本体各部の動作を制御する。
撮像部12は、CCDカメラを有し、自端末に割り当てられている監視対象エリアを撮像する。すなわち、監視カメラ端末1は、その監視カメラ端末1に割り当てた監視対象エリアを撮像するように設置している。撮像部12は、1秒間に数十フレーム(例えば、30フレーム)の撮像画像を画像処理部13に入力する。
画像処理部13は、撮像部12から入力された撮像画像を処理し、撮像されているオブジェクトの抽出、抽出したオブジェクトの追跡(オブジェクトマップの作成)、追跡しているオブジェクトの状態を推定する等の処理を行う。
記憶部14は、監視カメラ端末1本体を動作させる動作プログラム、動作時に用いるパラメータ、オブジェクトの追跡情報であるオブジェクトマップ等を記憶する。タイマ15は、現在時刻を計時する。通信部16は、他の監視カメラ端末1、監視サーバ2、および携帯端末3との間における無線通信を制御する。
図3は、監視サーバの主要部の構成を示すブロック図である。監視サーバ2は、制御部21と、記憶部22と、通信部23と、を備えている。監視サーバ2は、警備室等に設置される。制御部21は、監視サーバ2本体の動作を制御する。記憶部22は、監視サーバ2本体を動作させる動作プログラム、携帯端末位置管理テーブル、異常状態分類テーブル等を記憶する。通信部23は、監視カメラ端末1、および携帯端末3との間における無線通信を制御する。
なお、警備室には、各監視カメラ端末1の撮像画像を表示するモニタ等も設置している。
図4は、携帯端末の主要部の構成を示すブロック図である。携帯端末3は、制御部31と、表示・操作部32と、位置検出部33と、通信部34と、を備えている。制御部31は、携帯端末3本体各部の動作を制御する。表示・操作部32は、監視サーバ2から送信されてきた、オブジェクトに対する対応指示を表示するとともに、携帯端末3本体に対する入力操作を受け付ける。位置検出部33は、公知のGPSを利用し、自端末の位置を検出する。通信部34は、監視カメラ端末1、および監視サーバ2との間における無線通信を制御する。
この監視システムでは、各監視カメラ端末1が、自端末に割り当てられている監視対象エリア内に位置するオブジェクトを抽出し、そのオブジェクトを追跡する。また、監視カメラ端末1は、他の監視カメラ端末1と連携し、オブジェクトの追跡を広域にわたって行う。具体的には、追跡しているオブジェクトが自端末に割り当てられている監視対象エリアから、他の監視カメラ端末1に割り当てられている監視対象エリアに移動するときに、当該オブジェクトの追跡を、この他の監視カメラ端末1に引き継ぐ。
また、監視カメラ端末1は、追跡しているオブジェクト毎に、その状態が予め定められている異常状態であるかどうかを推定し、異常状態であると推定したオブジェクトを監視サーバ2に通報する。
携帯端末3は、一定時間毎に、GPSを利用して自端末の現在位置を取得し、監視サーバ2に通知する。
監視サーバ2は、携帯端末3毎に、その携帯端末3の位置を、当該携帯端末3から通知された現在位置によって管理する。また、監視サーバ2は、監視カメラ端末1から異常状態であるオブジェクトにかかる通報があれば、当該オブジェクトに対して対応を指示する携帯端末3(警備員)を判断し、その旨を送信する。
まず、監視カメラ端末1が、オブジェクトを追跡する処理について詳細に説明する。図5は、隣接する2つの監視カメラ端末に割り当てている監視対象エリアを示す図である。隣接する2つの監視カメラ端末1a、1bは、割り当てられている監視対象エリアの一部が重複している。この重複している撮像エリアを、ここでは重複エリアと言う。また、この重複エリアがある2つの監視カメラ端末1を、ここでは隣接する監視カメラ端末1と言う。
図5では、隣接する2つの監視カメラ端末1a、1bの監視対象エリアを例示しているが、隣接する他の2つの監視カメラ端末1の組み合せにおいても、監視対象エリアの一部が重複している。監視カメラ端末1は、隣接する他の監視カメラ端末1との間で、重複エリアに位置するオブジェクト(図5では、人物X、Y)を、1対1で対応付ける同定処理を行う。図5では、人物X、Yは、監視カメラ端末1a、1bの重複エリア内に位置し、人物Zは、監視カメラ端末1aの監視対象エリア内で、且つ監視カメラ端末1bとの重複エリア外に位置している。
なお、監視カメラ端末1は、隣接する他の監視カメラ端末1が1台であるとは限らない。言い換えれば、隣接する監視カメラ端末1が2台や3台である監視カメラ端末1もある。ただし、重複エリアは、隣接する他の監視カメラ端末1毎に異なる。
各監視カメラ端末1は、隣接する他の監視カメラ端末1毎に、自端末の撮像部12が撮像したフレーム画像の2次元座標系と、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系と、の相対的な位置関係を示す座標変換情報を記憶部14に記憶している。この座標変換情報は、自端末の撮像部12が撮像したフレーム画像の2次元座標系と、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系と、を共通の座標系に射影変換する情報である。ここでは、監視カメラ端末1は、座標変換情報として、自端末の撮像部12が撮像したフレーム画像の2次元座標系を、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系に射影変換する第1の座標変換パラメータと、反対に、隣接する相手側監視カメラ端末1の撮像部12が撮像したフレーム画像の2次元座標系を、自端末の撮像部12が撮像したフレーム画像の2次元座標系に射影変換する第2の座標変換パラメータと、を記憶部14に記憶している。
なお、座標変換情報は、第1の座標変換パラメータ、または第2の座標変換パラメータのどちらか一方のみであってもよい。
ここで、第1の座標変換パラメータ、および第2の座標変換パラメータについて、簡単に説明しておく。この第1の座標変換パラメータ、および第2の座標変換パラメータは、監視カメラ端末1の設置時に、実際に撮像したフレーム画像を用いて算出した値である。
まず、監視カメラ端末1の設置完了時に、テープ等を用いて、隣接する相手側監視カメラ端末1との重複エリア内の床面に4点をマーキングする。そして、自端末の撮像部12で撮像したフレーム画像を処理し、このフレーム画像上におけるマーキングした4点の座標位置(x,y)を検出する。同様に、隣接する相手側監視カメラ端末1が撮像部12で撮像したフレーム画像上におけるマーキングした4点の座標位置(X,Y)を、この相手側端末から取得する。そして、マーキングした点毎に、その座標位置を、
X=(a1x+b1y+c1)/(a0x+b0y+1)
Y=(a2x+b2y+c2)/(a0x+b0y+1)
に代入し、8元連立方程式を得る。この8元連立方程式の解である、a0,b0,a1,b1,c1,a2,b2,c2の8個の計数が、この隣接する相手側監視カメラ端末1との第1の座標変換パラメータである。監視カメラ端末1は、この第1の座標変換パラメータを記憶部14に記憶する。
同様に、マーキングした点毎に、その座標位置を、
x=(A1X+B1Y+C1)/(A0X+B0Y+1)
y=(A2X+B2Y+C2)/(A0X+B0Y+1)
に代入し、8元連立方程式を得る。この8元連立方程式の解である、A0,B0,A1,B1,C1,A2,B2,C2の8個の計数が、この隣接する相手側監視カメラ端末1との第2の座標変換パラメータである。監視カメラ端末1は、この第2の座標変換パラメータを記憶部14に記憶する。
図6は、監視カメラ端末における追跡処理を示すフローチャートである。監視カメラ端末1は、撮像部12が撮像した監視対象エリアのフレーム画像を画像処理部13に取り込む(s1)。画像処理部13は、s1で取り込んだフレーム画像を処理し、撮像されているオブジェクトを抽出する(s2)。画像処理部13は、前回処理したフレーム画像で抽出したオブジェクトと、s2で抽出したオブジェクトと、を対応付ける(s3)。この画像処理部13は、時空間MRFモデルを用い、オブジェクトを、8ピクセル×8ピクセルのブロックを単位とするオブジェクト領域として抽出する。画像処理部13は、前回処理したフレーム画像で抽出したオブジェクトと、s2で抽出したオブジェクトと、を対応付けることにより、今回抽出したオブジェクトの移動方向や移動量を得ることができ、抽出したオブジェクトの追跡が行える。
また、今回の処理で抽出したオブジェクトであって、前回の処理で抽出されていなかったオブジェクト(すなわち、今回初めて抽出したオブジェクト)については、仮IDを付与する(s4、s5)。この仮IDが付与されるオブジェクトは、前回のフレーム画像の処理から、今回のフレーム画像の処理までの間に、自端末に割り当てられている監視対象エリア内に入ってきたオブジェクトである。
なお、前回の処理で抽出されていたが、今回の処理で抽出されなかったオブジェクトは、前回のフレーム画像の処理から、今回のフレーム画像の処理までの間に、自端末に割り当てられている監視対象エリア外に移動したオブジェクトである。
画像処理部13は、今回処理したフレーム画像に対する、オブジェクトマップを作成する(s6)。このオブジェクトマップは、図7に示すように、今回抽出したオブジェクト毎に、そのオブジェクトに付与されているID(または今回付与した仮ID)と、今回処理したフレーム画像上における座標位置とを対応付けた情報である。また、監視カメラ端末1は、タイムスタンプをオブジェクトマップに付与する。このタイムスタンプは、s1でフレーム画像を画像処理部13に取り込んだ時刻であってもよいし、付与するときにタイマ15で計時している時刻(現在時刻)であってもよい。また、s6でオブジェクトマップを作成するときには、今回抽出したオブジェクトが人であれば、その足元位置を、そのオブジェクトの座標位置にする。
なお、画像処理部13は、オブジェクトの足元が他のオブジェクトとの重なりによって隠れることなくフレーム画像上に撮像されていれば、その足元の座標位置(例えば、右足の中心、左足の中心、または両足を結ぶ直線の中点)を検出し、そのオブジェクトの座標位置とする。一方、オブジェクトの足元が他のオブジェクトとの重なりによって隠れ、フレーム画像上に撮像されていなければ、撮像されている肉体の一部から、オブジェクトの足元の座標位置を推定し、そのオブジェクトの座標位置とする。
監視カメラ端末1は、s6で作成したオブジェクトマップを記憶部14に記憶するとともに、通信部16において隣接する他の監視カメラ端末1に対して、今回作成したオブジェクトマップ(以下、自端末オブジェクトマップと言う。)を送信する(s7、s8)。
なお、各監視カメラ端末1は、隣接する他の監視カメラ端末1からオブジェクトマップ(以下、相手側オブジェクトマップと言う。)が送信されてくると、この相手側オブジェクトマップを記憶部14に記憶する。監視カメラ端末1は、隣接する相手側監視カメラ端末1毎に、相手側オブジェクトマップを区別して記憶する。
監視カメラ端末1は、上述したs1〜s8の処理を繰り返し行い、時間的に連続するオブジェクトマップから、自端末の監視エリア内に位置するオブジェクト毎に、時間経過ともなう位置の変化を得る。これにより、監視カメラ端末1は、自端末の監視エリア内に位置するオブジェクトの追跡が行える。
なお、監視カメラ端末1は、監視エリア内に放置された不審物(非移動体)についても、監視エリア内に位置するオブジェクトとして検出している。また、監視カメラ端末1は、監視エリア内に放置された不審物を検出したとき、上述のオブジェクトマップを参照し、その直前に、その不審物が放置されている位置にいた人物を検出し、この人物が不審物を放置した人物と判断する。
次に、上述のs5で仮IDを付与したオブジェクトのIDを確定するID確定処理について説明する。上述したように、オブジェクトマップに登録されているオブジェクトには、そのオブジェクトを特定できるID,または仮IDが付与されている。仮IDが付与されているオブジェクトには、他の監視カメラ端末1ですでにIDを付与されていたオブジェクト(すなわち、すでに追跡が開始されていたオブジェクト)と、現時点ではIDが付与されていないオブジェクト(すなわち、この監視システムで監視しているエリアに入ってきたオブジェクト)と、が含まれている。このID確定処理は、不審者等の人物を広域にわたって追跡するために、仮IDを付与したオブジェクトが、すでにIDが付与されているオブジェクトであれば、今回付与した仮IDを無効にし、すでに付与されていたIDに戻すための処理である。また、仮IDを付与したオブジェクトが、現時点でIDが付与されていないオブジェクトであれば、今回付与した仮IDをこのオブジェクトのIDに確定する。
なお、オブジェクトに付与されているIDや、仮IDは、そのオブジェクトを特定できるユニークな値である。このIDや、仮IDは、数字であってもよいし、符号であってもよいし、これらの組み合せであってもよい。また、監視カメラ端末1間で発行済IDを通知し合うことなく、各オブジェクトに異なるIDが付与できるように、付与した監視カメラ端末1が識別できる数字や符号をIDに含ませる構成が好ましい。
図8は、このID確定処理を示すフローチャートである。このID確定処理は、仮IDを付与したオブジェクトを登録したオブジェクトマップを作成したときに行う。まず、今回仮IDを付与したオブジェクトの中に、隣接する他の監視カメラ端末1との重複エリア内に位置するオブジェクトがあるかどうかを判定する(s11)。今回仮IDを付与したオブジェクトが、重複エリア内に位置している場合、そのオブジェクトは、この重複エリアを監視エリアに含む隣接する相手側監視カメラ端末1で追跡されているオブジェクトである。すなわち、すでにIDが付与されているオブジェクトである。一方、今回仮IDを付与したオブジェクトが、重複エリア内に位置していない場合、そのオブジェクトは、他の監視カメラ端末1で追跡されていなかったオブジェクトである。すなわち、現時点でIDが確定されていないオブジェクトである。監視カメラ端末1は、s11で重複エリア内に位置しているオブジェクトがなければ、今回仮IDを付与したオブジェクト毎に、付与した仮IDをIDに確定する(s12)。
一方、重複エリア内に位置しているオブジェクトがあれば、今回仮IDを付与したオブジェクトの中で、重複エリア外に位置しているオブジェクトについてのみ、付与した仮IDをIDに確定する(s13)。また、監視カメラ端末1は、今回、仮IDを登録した自端末側オブジェクトマップに時間的に対応する、相手側オブジェクトマップを記憶部14から読み出す(s14)。s14では、自端末側オブジェクトマップに付与されているタイムスタンプの時刻との時間差の絶対値が最小である時刻のタイムスタンプが付与されている相手側オブジェクトマップを記憶部14から読み出す。
監視カメラ端末1は、自端末側オブジェクトマップに登録されている重複エリア内に位置しているオブジェクトと、相手側オブジェクトマップに登録されている重複エリア内に位置しているオブジェクトと、を1対1で対応付ける組み合せパターンを作成する(s15)。s15で作成される組み合せのパターン数は、例えば、重複エリア内に位置しているオブジェクトが2つであれば2通りであり、また重複エリア内に位置しているオブジェクトが3つであれば6通りである。
また、監視カメラ端末1は、今回作成した自端末側オブジェクトマップに登録されているオブジェクトの中で、重複エリア内に位置するオブジェクト毎に、第1の座標変換パラメータを用いて、そのオブジェクトの座標位置を相手側端末の座標系に変換する(s16)。監視カメラ端末1は、s15で作成した組み合せパターン毎に、第1の距離エネルギーを算出する(s17)。この第1の距離エネルギーは、相手側端末の座標系での、対応する組み合せパターンにおいて対応付けたオブジェクト間の距離の総和である。
また、監視カメラ端末1は、s14で読み出した相手側オブジェクトマップに登録されているオブジェクトの中で、重複エリア内に位置するオブジェクト毎に、第2の座標変換パラメータを用いて、そのオブジェクトの座標位置を自端末の座標系に変換する(s18)。監視カメラ端末1は、s15で作成した組み合せパターン毎に、第2の距離エネルギーを算出する(s19)。この第2の距離エネルギーは、自端末の座標系での、対応する組み合せパターンにおいて対応付けたオブジェクト間の距離の総和である。
監視カメラ端末1は、s14で作成した組み合せパターン毎に、総合距離エネルギーを算出する(s20)。この総合距離エネルギーは、組み合せパターン毎に、その組み合せパターンの第1の距離エネルギーと、第2の距離エネルギーとの和である。
監視カメラ端末1は、s20で得た総合距離エネルギーが最小である組み合せパターンを、重複エリア内に位置するオブジェクトの適正な対応付けと判断する。そして、総合距離エネルギーが最小である組み合せパターンによるオブジェクトの対応付けにより、重複エリア内に位置するオブジェクトを同定する(s21)。そして、監視カメラ端末1は、仮IDを付与したオブジェクトについては、付与されている仮IDを無効とし、同定したオブジェクトに付与されているIDに確定する(s22)。s22では、オブジェクトマップにおける、仮IDを同定したオブジェクトに付与されているIDに置き換える。
このID確定処理は、仮IDを付与したオブジェクトを登録したオブジェクトマップを作成したときに行うので、オブジェクトの同定にリアルタイム性を持たせることができる。
なお、上記の説明では、重複エリア内に位置するオブジェクトの同定精度を確保するために、第1の距離エネルギーと、第2の距離エネルギーとの和を総合距離エネルギーとしたが、第1の距離エネルギー、または第2の距離エネルギーの一方を総合距離エネルギーとしてもよい。このようにすれば、監視カメラ端末1の処理負荷を低減することができる。
次に、監視カメラ端末1が、追跡しているオブジェクトの状態を推定する状態推定処理について説明する。この状態推定処理は、画像処理部13が、上述したs2で抽出したオブジェクト毎に、その姿勢を推定し、推定した姿勢の時間的変化から、当該オブジェクトの状態を推定する処理である。
監視カメラ端末1は、撮像画像上において、撮像されているオブジェクトを囲む矩形領域を設定する。また、この矩形領域は、抽出したオブジェクトに外接するように設定する。画像処理部13は、ここで設定した矩形の高さと幅の比、すなわちアスペクト比、に基づき、そのオブジェクトの姿勢を推定する。
例えば、オブジェクトを囲む矩形領域の高さαと、幅βとの比が、
β/α<0.6であれば、立ち状態
0.6<β/α<1.5であれば、しゃがみ込み、または飛び跳ね状態
1.5<β/αであれば、横たわり状態、
であると推定する。
なお、ここでは、抽出したオブジェクトに対して矩形領域を設定するとしたが、矩形領域を設定せずに、そのオブジェクトの高さαと、幅βと、を検出し、姿勢を推定してもよい。また、監視カメラ端末1は、フレーム画像上における位置が予め定めた時間(数十秒程度)変化しないオブジェクトを荷物(放置物)と判断する。この放置物であると判定する時間は、監視対象エリアの環境に応じて設定すればよい。監視カメラ端末1は、上述したオブジェクトマップを参照することにより、時間経過にともなうオブジェクトの位置の変化を得ることができる。
図9は、姿勢マップを示す図である。この姿勢マップは、オブジェクト毎に、時間経過にともなう姿勢の変化を登録したものである。姿勢マップは、図9に示すように、画像処理部13で抽出したオブジェクト毎に作成する。図9は、抽出したオブジェクトA(図9(A)参照)、およびオブジェクトB(図9(B)参照)について作成した姿勢マップの例である。オブジェクトAは人であり、オブジェクトBは物である。図9に示すように、姿勢マップは、物体の種類(人、または物)、姿勢(人のみ)、オブジェクトを囲む矩形領域の上辺の高さ、および下辺の高さ、場所情報、および時刻を対応づけたレコードを時系列に登録したものである。画像処理部13が、この姿勢マップを作成する。記憶部14が、この姿勢マップを記憶する。
図9に示す姿勢マップの場所情報は、その場所の環境を示す情報である。例えば、不特定多数の人の通行路であるフロア、自動改札機を設置している改札機エリア、ベンチを設置しているベンチエリアを示す。また、場所情報は、撮像部12の撮像エリア(監視対象エリア)を図10に示すように分割し、分割した領域毎に設定している。図10(A)は、改札口周辺の撮像画像を示している。また、図10(B)は、図10(A)に示す撮像領域に対して場所情報を設定した例を示す図である。図11(A)は、駅ホームの撮像画像を示している。また、図11(B)は、図11(A)に示す撮像領域に対して場所情報を設定した例を示す図である。
この監視カメラ端末1は、1つのオブジェクト(単独オブジェクト)の状態の推定が行えるだけでなく、複数オブジェクト間で関連する状態の推定も行える。単独オブジェクトの状態の推定により、自動改札機の不正通行(強行突破)、駅ホームや改札口周辺等における徘徊、座り込み、倒れ込み、滞留、酔客等の状態が判断できる。また、複数オブジェクトは、自動改札機の不正通行(共連れ)、不審物の置き去り、持ち去り、口論、つきまとい、キャッチセールス、通り魔等の状態が判断できる。
図12は、姿勢マップ作成処理を示すフローチャートである。監視カメラ端末1は、画像処理部13において、上述した追跡処理で抽出したオブジェクト毎に、そのオブジェクトを囲む矩形領域を設定する(s31)。画像処理部13は、s31で矩形領域を設定したオブジェクト毎に、その矩形領域の高さ、および幅からアスペクト比(縦横比)を算出し、そのオブジェクト(人のみ)の姿勢を推定する(s32)。s32では、上述したように、オブジェクトを囲む矩形領域の高さαと、幅βとの比が、
β/α<0.6であれば、立ち状態
0.6<β/α<1.5であれば、しゃがみ込み、または飛び跳ね状態
1.5<β/αであれば、横たわり状態、
であると推定する。
また、s32では、今回抽出した人物毎に、設定した矩形領域の上辺の高さ、および下辺の高さを検出する。
画像処理部13は、今回処理したフレーム画像から抽出したオブジェクト毎に、姿勢マップに登録するレコードを生成する(s33)。s33では、図9に示したように、オブジェクトの種類(人、または物)、姿勢(人のみ)、オブジェクトを囲む矩形領域の上辺の高さ、および下辺の高さ、場所情報、および時刻を対応づけたレコードを生成する。
なお、抽出したオブジェクトが、人、または物であるかの判定は、位置が変化することなく一定時間経過したときに、物であるとする。言い換えれば、一定時間経過する前に、位置が変化しているオブジェクト(移動しているオブジェクト)であれば人と判定する。
監視カメラ端末1は、s33で生成したレコードを該当するオブジェクトの姿勢マップに登録する(s34)。監視カメラ端末1は、この姿勢マップを記憶部14に記憶する。
監視カメラ端末1は、上述したs31〜s34にかかる処理を繰り返すことにより、監視対象エリア内に位置する人や、物にかかる姿勢マップ(図9参照)を作成し、記憶部14に記憶する。
次に、上述した処理で作成した姿勢マップに基づき、オブジェクトの状態を推定する手法について説明する。上述したように、姿勢マップにはオブジェクトが位置している場所を示す場所情報を対応づけているので、アスペクト比を用いることで、当該オブジェクト(人)の状態が精度良く推定できる。例えば、オブジェクトである人が位置している場所の場所情報がフロアであり、姿勢が横たわり状態である場合、酔客等の倒れ込みと推定できる。また、オブジェクトである人が位置している場所の場所情報がベンチであり、姿勢がしゃがみ込み状態である場合、ベンチに座っていると推定できる。また、オブジェクトである人が位置している場所の場所情報がベンチであり、姿勢が横たわり状態である場合、ベンチに横たわっていると推定できる。また、オブジェクトである人が位置している場所の場所情報がごみ箱エリアであり、姿勢が立ち状態であれば、ゴミ箱をあさっていると推定できる。
なお、酔客であるかどうかの判断は、上述のオブジェクトマップを参照することで得られる、その人の移動速度から判断すればよい。一般に酔客は、移動速度が遅い。また、上述のオブジェクトマップと、姿勢マップと、を1つのマップで作成してもよい。
また、上述したように、姿勢マップには、オブジェクトを囲む矩形領域の上辺の高さ、および下辺の高さを登録しているので、そのオブジェクトが飛び上がったのか、しゃがんだのか判断できる。すなわち下辺の高さが床面よりも上方に位置していれば飛び上がったと判断でき、下辺の高さが床面に位置していればしゃがんだと判断できる。
また、図13に示すように、自動改札機のゲートをしゃがんで不正に通行した場合、その不正通行者を囲む矩形の上辺が一時的(図13(B)参照)に下がる。図13(A)は、自動改札機の通路に進入する直前のフレーム画像を示している。図13(B)は、自動改札機の通路を通行しているとき(しゃがんでいる状態)のフレーム画像を示している。図13(C)は、自動改札機の通路から退出したときのフレーム画像を示している。すなわち、自動改札機の通路を通行時に、一時的にしゃがんだ人を検出したとき、この人を自動改札機の不正通行者と判断できる。
また、図14に示すように、自動改札機のゲートを飛び越えて不正に通行した場合、その不正通行者を囲む矩形の下辺が一時的(図14(B)参照)に上がる。図14(A)は、自動改札機の通路に進入する直前のフレーム画像を示している。図14(B)は、自動改札機の通路を通行しているとき(ゲートを飛び越えている状態)のフレーム画像を示している。図14(C)は、自動改札機の通路から退出したときのフレーム画像を示している。すなわち、自動改札機の通路を通行時に、一時的に飛び跳ねた人を検出したとき、この人を自動改札機の不正通行者と判断できる。
なお、オブジェクト(通行者)を囲む矩形のアスペクト比を用いて状態を判断しているので、立ち状態である通行者を、しゃがんだ、または飛び跳ねたとする誤判断が抑えられる。
さらに、自動改札機から得られる通行者の人数を用いて、共連れにかかる不正通行の検出も行える。例えば、図15(A)は、自動改札機の通路に進入する直前のフレーム画像を示している。図15(B)は、自動改札機の通路を通行しているときのフレーム画像を示している。図15(C)は、自動改札機の通路から退出したときのフレーム画像を示している。図15(A)、(C)に示すように、自動改札機の入口、または出口で2人の人を検出していた場合に、自動改札機から得られた改札通路の通行者の人数が1人であれば、共連れであると判断できる。
このように、この実施形態にかかる監視カメラ端末1は、抽出したオブジェクトの高さと、幅の比であるアスペクト比に基づいて、そのオブジェクトの状態を推定するので、オブジェクトの三次元情報を必要とすることがない。
ここでは、監視カメラ端末1が自動改札機を通行するオブジェクト(人)の状態を推定する場合を例示したが、その他の場所にも適用可能である。
なお、監視カメラ端末1は、撮像部12をステレオカメラで構成し、オブジェクトの三次元情報を取得して、当該オブジェクトの状態を推定してもよいし、他の公知の手法でオブジェクトの状態を推定してもよい。
監視カメラ端末1は、監視サーバ2に対して通報を行うオブジェクトの状態(異常状態)を記憶している。例えば、自動改札機の不正通行、喧嘩、フロアでの座り込み、ベンチでの横たわり、放置物等を、監視サーバ2に通報が必要な状態として登録している。
監視カメラ端末1は、監視サーバ2に通報が必要な状態(異常状態)であるオブジェクトを検出すると、その旨を通報する。監視カメラ端末1は、異常状態であるオブジェクトが人であれば、その異常状態の種類(自動改札機の不正通行、座り込み、喧嘩等)、異常状態を検出した場所(以下、現場と言う。)、その人が現場から離れていれば(現場から逃走していれば)逃走方向、その人の外見上の特徴(撮像画像であってもよい。)等を監視サーバ2に通報する。
また、監視カメラ端末1は、通報が必要な状態のオブジェクトが人ではなく、放置物であれば、その放置物が放置されている位置(現場)、その放置物を放置した人の移動方向や現在位置、その人の特徴等を監視サーバ2に通報する。
オブジェクトの位置や、移動方向については、オブジェクトマップから得られる。また、オブジェクトの特徴は、撮像部12の撮像画像から得られる。
なお、監視カメラ端末1は、監視サーバ2に通報したオブジェクトについても、自端末の監視対象エリア内に位置している間は、そのオブジェクトの追跡を継続する。
次に、携帯端末3の動作について説明する。上述したように、この携帯端末3は、この監視システムで監視する監視エリアを巡回する警備員が所持する。図16は、携帯端末の動作を示すフローチャートである。携帯端末3は、自端末の位置を監視サーバ2に通知するタイミングになると(s41)、GPSを利用した位置検出を行う(s42)。携帯端末3は、例えば、数分(1〜3分)毎に、自端末の位置を監視サーバ2に通知する。携帯端末3は、s42で検出した位置を監視サーバに通知する(s43)。
また、携帯端末3は、監視サーバ2から送信されてきた対応指示を受信すると(s44)、受信した対応指示を表示・操作部32に表示する(s45)。この対応指示の詳細については、後述する。
次に、監視サーバ2の動作について説明する。監視サーバ2は、図17に示す携帯端末位置テーブルを記憶している。この携帯端末位置テーブルは、携帯端末3毎に、その携帯端末3を識別するIDと、その携帯端末3の位置と、を対応づけて記憶している。携帯端末3の位置は、例えば、緯度、経度である。
また、監視サーバ2は、図18に示す異常状態分類テーブルを記憶している。この異常状態分類テーブルは、その対応に緊急性があるかどうか、および異常状態であると推定したオブジェクトがその現場に留まっているか、現場から逃走しているかで分類した項目別に、その項目に属する異常状態の種類を登録したテーブルである。また、ここでは、この項目を、異常状態であると推定したオブジェクトが現場から逃走している場合、現場の確認の必要性の有無によっても分類している。また、上述の分類項目毎に、対応を指示する警備員を判断するルールを登録している。
図18に示す例では、通り魔や、不審物の放置等の種類が、緊急性があり、異常状態であるオブジェクトが現場から逃走しており、且つ現場の確認が必要である項目に属する。また、自動改札機の不正通行等の種類が、緊急性があり、異常状態であるオブジェクトが現場から逃走しており、且つ現場の確認が不要である項目に属する。また、自動改札機のトラブルや、喧嘩等の種類が、緊急性があり、且つ異常状態であるオブジェクトが現場から逃走していない項目に属する。また、座り込みや、徘徊等の種類が、緊急性がなく、異常状態であるオブジェクトが現場から逃走していない項目に属する。
また、緊急性があり、異常状態であるオブジェクトが現場から逃走しており、且つ現場の確認が必要である項目に属する種類の異常状態については、この逃走している人の確保を指示する警備員を、逃走方向にいる警備員にし、且つ、現場の確認を指示する警備員を、その他の警備員の中で、最も現場に近い警備員にするルールを登録している。また、緊急性があり、異常状態であるオブジェクトが現場から逃走しており、且つ現場の確認が不要である項目に属する種類の異常状態については、この逃走している人の確保を指示する警備員を、逃走方向にいる警備員にするルールを登録している。
また、緊急性があり、異常状態であるオブジェクトが現場から逃走していない項目に属する種類の異常状態については、現場の確認を指示する警備員を、その他の警備員の中で、最も現場に近い警備員にするルールを登録している。さらに、緊急性がなく、異常状態であるオブジェクトが現場から逃走していない項目に属する種類の異常状態については、現場の確認を、この現場に向かって移動している警備員にするルールを登録している。
図19は、監視サーバの動作を示すフローチャートである。監視サーバ2は、携帯端末3から現在位置の通知があると(s51)、携帯端末位置管理テーブルで管理している該当する携帯端末3の位置を、今回通知された位置に更新する(s52)。
上述したように、携帯端末3は、一定時間毎(数分毎)に自端末の位置を検出し、これを監視サーバ2に通知している。したがって、監視サーバ2は、携帯端末3の位置、すなわちこの携帯端末3を所持している警備員の位置、を携帯端末位置管理テーブルで管理できる。
また、監視サーバ2は、監視カメラ端末1から異常状態であるオブジェクトにかかる通報を受信すると(s53)、監視カメラ端末1が今回推定した異常状態の種類を取得し、その種類の異常状態が属する分類項目を判断する(s54)。監視カメラ端末1からの通報には、その監視カメラ端末1のID、今回検出した異常状態の種類、異常状態であるオブジェクトが現場から逃走しているかどうか、現場から逃走しているオブジェクトの逃走方向、このオブジェクトを撮像した撮像画像等が含まれている。
監視サーバ2は、異常状態分類テーブルに登録されている条件に基づき、対応指示を通知する携帯端末3を決定する(s55)。s55では、携帯端末位置管理テーブルで管理している各携帯端末3の位置を参照する。
例えば、監視サーバ2は、監視カメラ端末1からの通報が自動改札機のトラブルであれば、携帯端末位置管理テーブルを参照し、トラブルが発生した自動改札機に最も近い位置にある携帯端末3を、対応を指示する携帯端末3に決定する。また、監視サーバ2は、監視カメラ端末1からの通報が徘徊や酔客の座り込みであれば、携帯端末位置管理テーブルを参照し、トラブルが発生した場所に向かって移動している携帯端末3を、対応を指示する携帯端末3に決定する。携帯端末3の移動方向は、この携帯端末3から一定時間毎(数分毎)に通知されている位置から得られる。
また、監視サーバ2は、監視カメラ端末1からの通報が不審物の放置であれば、携帯端末位置管理テーブルを参照し、不審物放置した人が逃走している方向に位置する携帯端末3を、この逃走している不審物放置した人の拘束を指示する携帯端末3に決定するとともに、残りの携帯端末3の中で、不審物が放置された場所に最も近い位置にある携帯端末3を、この不審物の確認(現場の確認)を指示する携帯端末3に決定する。さらに、監視サーバ2は、監視カメラ端末1からの通報が自動改札機の不正通行であれば、携帯端末位置管理テーブルを参照し、この不正通行者が逃走している方向に位置する携帯端末3を、この不正通行者の拘束を指示する携帯端末3に決定する。
なお、逃走しているオブジェクトは、監視カメラ端末1によって追跡されている。
監視サーバ2は、s55で決定した、対応を指示する携帯端末3に対して、対応を指示する送信を行う(s56)。監視サーバ2は、自動改札機のトラブルにかかる対応を指示する場合、その自動改札機の場所を通知する。一方、不審物が放置した人や、逃走している人の拘束を指示する場合、拘束する人の撮像画像や、その人の外見上の特徴(身長や衣服の色等)を通知する。
携帯端末3は、監視サーバ2がs56で送信した対応指示をs44で受信する。そして、携帯端末3は、s45で監視サーバ2から送信されてきた対応指示を表示・操作部32に表示する。この携帯端末3を所持している警備員は、表示・操作部32に表示された対応指示に応じて、行動する。
このように、この監視システムでは、監視サーバ2が、携帯端末3の位置(この携帯端末3を所持している警備員の位置)を管理し、異常状態であると推定されたオブジェクトに対する対応を指示する携帯端末3を、異常状態の種類、および携帯端末3の位置に基づいて決定する。また、監視サーバ2は、ここで決定した携帯端末3に対して、このオブジェクトに対する対応を指示する。したがって、監視サーバ2は、監視カメラ端末1において、その状態が異常であると推定された不審者や不審物等のオブジェクトが検出されたときに、そのオブジェクトに対する対応指示が迅速、且つ適正に行える。
1…監視カメラ端末
2…監視サーバ
3…携帯端末
11…制御部
12…撮像部
13…画像処理部
14…記憶部
15…タイマ
16…通信部
21…制御部
22…記憶部
23…通信部
31…制御部
32…表示・操作部
33…位置検出部
34…通信部

Claims (8)

  1. 監視カメラ端末と、監視サーバと、を備えた監視システムであって、
    前記監視カメラ端末は、
    自端末に割り当てられている監視対象エリアを撮像する撮像手段と、
    前記撮像手段が撮像している前記監視対象エリアの撮像画像を処理し、撮像されているオブジェクトを抽出し、そのオブジェクトを前記監視対象エリア内において追跡する追跡手段と、
    前記追跡手段が追跡しているオブジェクトの状態が、予め定めている前記監視サーバへの通報が必要な種類の異常状態であるかどうかを推定する状態推定手段と、
    前記追跡手段が追跡しているオブジェクトについて、前記状態推定手段が推定した状態が、予め定めている前記監視サーバへの通報が必要な種類の異常状態であれば、その旨を前記監視サーバに通報する通報手段と、を備え、
    前記監視サーバは、
    登録している携帯端末毎に、その携帯端末の位置を管理する携帯端末位置管理テーブル、およびオブジェクトの異常状態の種類を、対応の緊急性が必要であるかどうか、および、異常状態であると推定したオブジェクトがその位置から離れる方向に移動しているかどうか、により分類した項目毎に、そのオブジェクトに対する対応指示を通知する携帯端末を決定する条件を登録した異常状態分類テーブルを記憶する記憶手段と、
    前記監視カメラ端末から、オブジェクトが異常状態である旨の通報があれば、前記記憶手段が記憶している前記携帯端末位置管理テーブル、および前記異常状態分類テーブルを用いて、このオブジェクトに対する対応指示を通知する携帯端末を決定する通知先決定手段と、
    前記通知先決定手段が決定した携帯端末に対して、異常状態であるオブジェクトに対する対応指示を送信する送信手段と、を備え
    前記通知先決定手段は、対応の緊急性が必要であり、且つ異常状態であると推定したオブジェクトがその位置から離れる方向に移動している場合、当該オブジェクトの移動方向に位置する携帯端末を、そのオブジェクトに対する対応指示を通知する携帯端末に決定する、
    監視システム。
  2. 前記監視サーバの前記通知先決定手段は、対応の緊急性が必要でない場合、当該オブジェクトについて異常状態であると推定した場所である現場に向かって移動している携帯端末を、そのオブジェクトに対する対応指示を通知する携帯端末に決定する、請求項1に記載の監視システム。
  3. 前記監視サーバの前記通知先決定手段は、対応の緊急性が必要であり、且つ異常状態であると推定したオブジェクトがその位置から離れる方向に移動していない場合、当該オブジェクトについて異常状態であると推定した場所である現場に最も近い携帯端末を、そのオブジェクトに対する対応指示を通知する携帯端末に決定する、請求項1、または2に記載の監視システム。
  4. 前記監視サーバは、
    前記異常状態分類テーブルが、異常状態であると推定したオブジェクトがその位置から離れる方向に移動している項目については、異常状態であると推定した場所である現場の確認が必要であるかどうかにより細分類したテーブルであり、
    前記通知先決定手段は、対応の緊急性が必要であり、且つ異常状態であると推定したオブジェクトがその位置から離れる方向に移動している場合、当該オブジェクトについて異常状態であると推定した場所である現場の確認も必要であれば、現場に最も近い携帯端末を、その現場の確認指示を通知する携帯端末に決定する、請求項1〜3のいずれかに記載の監視システム。
  5. 監視対象エリアの撮像画像を処理し、撮像されているオブジェクトの状態を推定し、その状態が予め定めている通報が必要な種類の異常状態であれば、その旨の通報を行う監視カメラ端末とデータ通信を行う監視サーバであって、
    登録している携帯端末毎に、その携帯端末の位置を管理する携帯端末位置管理テーブル、およびオブジェクトの異常状態の種類を、対応の緊急性が必要であるかどうか、および、異常状態であると推定したオブジェクトがその位置から離れる方向に移動しているかどうか、により分類した項目毎に、そのオブジェクトに対する対応指示を通知する携帯端末を決定する条件を登録した異常状態分類テーブルを記憶する記憶手段と、
    前記監視カメラ端末から、オブジェクトが異常状態である旨の通報があれば、前記記憶手段が記憶している前記携帯端末位置管理テーブル、および前記異常状態分類テーブルを用いて、このオブジェクトに対する対応指示を通知する携帯端末を決定する通知先決定手段と、
    前記通知先決定手段が決定した携帯端末に対して、異常状態であるオブジェクトに対する対応指示を送信する送信手段と、を備え
    前記通知先決定手段は、対応の緊急性が必要であり、且つ異常状態であると推定したオブジェクトがその位置から離れる方向に移動している場合、当該オブジェクトの移動方向に位置する携帯端末を、そのオブジェクトに対する対応指示を通知する携帯端末に決定する、監視サーバ。
  6. 前記通知先決定手段は、対応の緊急性が必要でない場合、当該オブジェクトについて異常状態であると推定した場所である現場に向かって移動している携帯端末を、そのオブジェクトに対する対応指示を通知する携帯端末に決定する、請求項5に記載の監視サーバ。
  7. 前記通知先決定手段は、対応の緊急性が必要であり、且つ異常状態であると推定したオブジェクトがその位置から離れる方向に移動していない場合、当該オブジェクトについて異常状態であると推定した場所である現場に最も近い携帯端末を、そのオブジェクトに対する対応指示を通知する携帯端末に決定する、請求項5、または6に記載の監視サーバ。
  8. 前記異常状態分類テーブルが、異常状態であると推定したオブジェクトがその位置から離れる方向に移動している項目については、異常状態であると推定した場所である現場の確認が必要であるかどうかにより細分類したテーブルであり、
    前記通知先決定手段は、対応の緊急性が必要であり、且つ異常状態であると推定したオブジェクトがその位置から離れる方向に移動している場合、当該オブジェクトについて異常状態であると推定した場所である現場の確認も必要であれば、現場に最も近い携帯端末を、その現場の確認指示を通知する携帯端末に決定する、請求項5〜7のいずれかに記載の監視サーバ。
JP2010253804A 2010-11-12 2010-11-12 監視システム、および監視サーバ Active JP5435740B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010253804A JP5435740B2 (ja) 2010-11-12 2010-11-12 監視システム、および監視サーバ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010253804A JP5435740B2 (ja) 2010-11-12 2010-11-12 監視システム、および監視サーバ

Publications (2)

Publication Number Publication Date
JP2012104022A JP2012104022A (ja) 2012-05-31
JP5435740B2 true JP5435740B2 (ja) 2014-03-05

Family

ID=46394310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010253804A Active JP5435740B2 (ja) 2010-11-12 2010-11-12 監視システム、および監視サーバ

Country Status (1)

Country Link
JP (1) JP5435740B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106104646A (zh) * 2014-03-19 2016-11-09 株式会社技术未来 数字防丢失安防系统、方法和程序
CN106164994A (zh) * 2014-04-09 2016-11-23 株式会社技术未来 数字损失/事故防御系统、方法和程序
CN106647297A (zh) * 2015-11-04 2017-05-10 施耐德电气It公司 用于环境事件和任务管理器的系统和方法

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5852530B2 (ja) * 2012-09-07 2016-02-03 株式会社 日立産業制御ソリューションズ 移動体追跡表示装置、移動体追跡表示方法およびプログラム
JP2014078150A (ja) * 2012-10-11 2014-05-01 Sharp Corp 不審者監視システム、不審者監視方法、及びコンピュータプログラム
JP6331270B2 (ja) * 2013-06-06 2018-05-30 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP2015095033A (ja) * 2013-11-11 2015-05-18 能美防災株式会社 支援システム、支援装置、端末および制御プログラム
JP5747116B1 (ja) * 2013-12-02 2015-07-08 Lykaon株式会社 防犯システム
US10846536B2 (en) 2014-06-27 2020-11-24 Nec Corporation Abnormality detection device and abnormality detection method
WO2016088401A1 (ja) * 2014-12-01 2016-06-09 Lykaon株式会社 防犯システム
WO2016103332A1 (ja) * 2014-12-22 2016-06-30 株式会社 テクノミライ デジタルファインドセキュリティシステム、方法及びプログラム
JP6705102B2 (ja) * 2014-12-25 2020-06-03 三菱電機株式会社 撮像装置の設置支援装置、撮像装置の設置支援方法および映像記録再生装置
JP6616119B2 (ja) * 2015-08-04 2019-12-04 株式会社日立国際電気 監視システム
US10635888B2 (en) * 2015-08-19 2020-04-28 Technomirai Co., Ltd. Smart-security digital system, method and program
WO2017038449A1 (ja) 2015-09-02 2017-03-09 日本電気株式会社 監視システム、監視方法、およびプログラム
WO2017038450A1 (ja) * 2015-09-02 2017-03-09 日本電気株式会社 監視システム、監視ネットワーク構築方法、およびプログラム
US10931923B2 (en) 2015-09-02 2021-02-23 Nec Corporation Surveillance system, surveillance network construction method, and program
US10977916B2 (en) 2015-09-02 2021-04-13 Nec Corporation Surveillance system, surveillance network construction method, and program
US10846537B2 (en) * 2015-09-30 2020-11-24 Nec Corporation Information processing device, determination device, notification system, information transmission method, and program
JPWO2017072923A1 (ja) * 2015-10-29 2017-10-26 株式会社 テクノミライ デジタルセフテイ・サポートシステム、方法及びプログラム
JP2018045513A (ja) * 2016-09-15 2018-03-22 株式会社東芝 情報処理システム
JP2018077759A (ja) * 2016-11-11 2018-05-17 株式会社富士通エフサス 監視システム、監視方法および監視プログラム
JP6897691B2 (ja) 2016-12-22 2021-07-07 日本電気株式会社 追跡支援装置、端末、追跡支援システム、追跡支援方法及びプログラム
JP6854150B2 (ja) * 2017-02-23 2021-04-07 セコム株式会社 監視システム、及び監視方法
JP2019022077A (ja) * 2017-07-18 2019-02-07 ソニーセミコンダクタソリューションズ株式会社 撮像装置および撮像システム
JP6870584B2 (ja) * 2017-11-13 2021-05-12 トヨタ自動車株式会社 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム
JP7244979B2 (ja) * 2018-08-27 2023-03-23 日本信号株式会社 画像処理装置及び監視システム
JP6647489B1 (ja) * 2018-11-27 2020-02-14 株式会社アジラ 不審体・異常体検出装置
JP6831117B2 (ja) * 2018-11-29 2021-02-17 技研トラステム株式会社 移動体追跡方法及びこれに用いる画像処理装置
WO2024079847A1 (ja) * 2022-10-13 2024-04-18 日本電気株式会社 警備支援システム、警備支援方法及び記録媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3814779B2 (ja) * 2001-03-27 2006-08-30 三菱電機株式会社 侵入者自動追尾方法および装置並びに画像処理装置
JP2007195130A (ja) * 2006-01-17 2007-08-02 Ara Software:Kk 映像監視システム
JP2007334834A (ja) * 2006-06-19 2007-12-27 Chugoku Electric Power Co Inc:The 緊急連絡システムおよび方法
JP5185173B2 (ja) * 2009-03-26 2013-04-17 日本電信電話株式会社 自動警報通知装置、自動警報通知システム、および自動警報通知方法
JP2010237873A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 姿勢変化検出装置、姿勢変化検出方法、及び姿勢変化検出プログラム
JP2010238182A (ja) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd 自律移動体及び不審者検知方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106104646A (zh) * 2014-03-19 2016-11-09 株式会社技术未来 数字防丢失安防系统、方法和程序
CN106164994A (zh) * 2014-04-09 2016-11-23 株式会社技术未来 数字损失/事故防御系统、方法和程序
CN106647297A (zh) * 2015-11-04 2017-05-10 施耐德电气It公司 用于环境事件和任务管理器的系统和方法

Also Published As

Publication number Publication date
JP2012104022A (ja) 2012-05-31

Similar Documents

Publication Publication Date Title
JP5435740B2 (ja) 監視システム、および監視サーバ
JP5559335B2 (ja) 挙動解析装置
US9767663B2 (en) GPS directed intrusion system with data acquisition
JP5086260B2 (ja) 対象追跡と警報
JP6286394B2 (ja) 画像監視システム
JP5927691B2 (ja) エリアモニタリングシステム
KR101698500B1 (ko) 지능형 감시카메라를 이용한 감시 시스템
JP6110183B2 (ja) 防犯システム
CN110210461B (zh) 基于摄像机网格的多视图协同异常行为检测方法
KR102397837B1 (ko) 엣지 컴퓨팅 기반 보안 감시 서비스 제공 장치, 시스템 및 그 동작 방법
KR100750347B1 (ko) 스테레오비디오 카메라를 이용한 지하철 승강장 모니터링시스템
CN112784680A (zh) 一种人流密集场所锁定密集接触者的方法和系统
JP3979902B2 (ja) 監視映像配信システムおよび監視映像配信方法
JP4244221B2 (ja) 監視映像配信方法及び監視映像配信装置並びに監視映像配信システム
JP5667844B2 (ja) 複合型センサ
KR101863846B1 (ko) 이벤트 감지 및 현장 사진 정보 제공 방법 및 시스템
KR101985773B1 (ko) 건물의 실내 위치추적 시스템 및 방법
KR20220000216A (ko) 딥러닝 분산 처리 기반 지능형 보안 감시 서비스 제공 장치
KR100974944B1 (ko) 공동주택 보안 시스템 및 그것의 서비스방법
JP2008225803A (ja) 監視領域設定装置
JP4675217B2 (ja) 追尾型監視システム
KR20220000209A (ko) 딥러닝 분산 처리 기반 지능형 보안 감시 장치의 동작 프로그램이 기록된 기록매체
JP6968248B1 (ja) 画像解析通報システム、画解析通報プログラム及び画像解析通報方法
JP4410591B2 (ja) 入場者数計数システム及びセキュリティシステム
JP7529505B2 (ja) 検知システム、及び、検知方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131206

R150 Certificate of patent or registration of utility model

Ref document number: 5435740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250