JP5787485B2 - 監視装置、及びプログラム - Google Patents

監視装置、及びプログラム Download PDF

Info

Publication number
JP5787485B2
JP5787485B2 JP2010050577A JP2010050577A JP5787485B2 JP 5787485 B2 JP5787485 B2 JP 5787485B2 JP 2010050577 A JP2010050577 A JP 2010050577A JP 2010050577 A JP2010050577 A JP 2010050577A JP 5787485 B2 JP5787485 B2 JP 5787485B2
Authority
JP
Japan
Prior art keywords
moving
frame
accident
bodies
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010050577A
Other languages
English (en)
Other versions
JP2011186727A (ja
Inventor
小川 雄三
雄三 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toa Corp
Original Assignee
Toa Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toa Corp filed Critical Toa Corp
Priority to JP2010050577A priority Critical patent/JP5787485B2/ja
Publication of JP2011186727A publication Critical patent/JP2011186727A/ja
Application granted granted Critical
Publication of JP5787485B2 publication Critical patent/JP5787485B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、所定の監視領域を監視するための監視装置、監視方法、及びこの監視方法をコンピュータに実行させるためのプログラムに関する。
所定の場所を監視する目的で、例えば監視カメラを用いた監視システムが普及している。
このような監視システムは、所定の場所(監視領域)を撮像するよう設置されたカメラと、このカメラと回線等で接続された監視装置を含んで構成される。監視装置は、一般的にはパーソナルコンピュータやワークステーション等のコンピュータや、ビデオモニターによって実現される。
このような監視システムによれば、監視者は、監視装置を通じて監視領域の映像を確認することができる。
このような従来の監視装置の一例として、特許文献1〜2に記載のものがある。
ところが、監視者が実際に監視領域で事故や事件が発生したことを見つけるには、監視者が常時映像を見ていなければならず、多大な負担であった。そこで、カメラの映像をハードディスクレコーダー等の記録媒体に蓄積しておき、監視者が蓄積された映像を見返すということも考えられるが、この場合であっても、結局、監視者が映像を始めから見ていかなければならないので負担は同様である。
そこで、特許文献3には、カメラの映像の中の移動体(例えば歩行する人間)の異常行動を検知し、発報する技術が開示されている。
特開2004−266633号公報 特開2003−259349号公報 特開2005−353016号公報
しかしながら、特許文献3に開示されている技術は、一つの移動体の動き方に着目し、異常と捉えられる動き方を検知するため、例えば移動体が人間の場合は異常な歩き方を検知する程度に留まり、ある者が他の者へ危害を加える事故や事件等、複数の移動体間で発生する行動を検知するのは難しい。
本発明は、上記のような監視装置において、所定の監視領域内で事故や事件等複数の移動体間で所定の行動が発生した可能性を検出することができる技術を提供することを目的とする。
本発明に係る監視装置は、所定の監視領域内の移動体を検出する移動体検出手段と、前記移動体検出手段により検出された移動体の、前記監視領域と対応する座標上での位置を導出する位置導出手段と、前記移動体検出手段により複数の移動体が検出され、前記位置導出手段により各移動体の位置が導出されたとき、当該各移動体の位置の相互関係に基づいて前記複数の移動体間の所定の行動を検出する検出手段とを備える。
また、本発明に係るプログラムは、所定の監視領域を監視する処理をコンピュータに実行させるためのプログラムであって、前記処理は、前記監視領域内の移動体を検出する移動体検出工程と、前記移動体検出工程で検出された移動体の位置を導出する位置導出工程と、前記移動体検出工程で複数の移動体が検出され、前記位置導出工程で各移動体の位置が導出されたとき、当該各移動体の位置の相互関係に基づいて前記複数の移動体間の所定の行動を検出する検出工程とを含む。
本発明によれば、所定の監視領域内で事故や事件等複数の移動体間で所定の行動が発生した可能性を検出することができる。
図1は、監視システムを示す図である。(実施形態1) 図2は、監視装置の処理部を示す図である。(実施形態1) 図3は、移動体の位置や移動情報を示す図である。(実施形態1) 図4は、事故や事件の発生を示す図である。(実施形態1) 図5は、監視装置の処理を示すフローチャートである。(実施形態1) 図6は、記録部12の記録内容を示す図である。(実施形態1) 図7は、表示部11の表示例を示す図である。(実施形態1) 図8は、監視装置の処理部を示す図である。(実施形態2) 図9は、接近度と近似度の判別を示す図である。(実施形態2) 図10は、記録部12の記録内容を示す図である。(実施形態2) 図11は、表示部11の表示例を示す図である。(実施形態2) 図12は、監視装置の処理部を示す図である。(実施形態3) 図13は、衝突事故の発生を示す図である。(実施形態3) 図14は、ひき逃げ事故の発生を示す図である。(実施形態3) 図15は、引きずり事故の発生を示す図である。(実施形態3) 図16は、監視装置の処理部を示す図である。(実施形態4) 図17は、移動体の位置や移動情報を示す図である。(実施形態4) 図18は、監視システムを示す図である。(補足) 図19は、監視システムを示す図である。(補足) 図20は、監視システムを示す図である。(補足) 図21は、監視システムを示す図である。(補足)
<実施形態1>
実施形態1に係る監視装置は、カメラの映像から監視領域内の複数の移動体を検知し、複数の移動体の位置や移動情報の相互関係に基づいて事故や事件の発生の可能性を検出し、この検出結果を反映して映像を記録媒体に記録する。
図1に示すように、監視装置1は、ネットワーク(NW)を介してカメラ2と接続されており、全体として監視システムを構成している。
カメラ2は、街頭や建物入口付近等、所定の監視領域に設置されており、この監視領域の映像を撮像し、得た映像をネットワークを介して監視装置1に送信する。
監視装置1は、ネットワークを介してカメラ2からの映像を受信し、後述する所定の処理、映像の表示、映像の記録等を実行する。監視装置1は、具体的にはパーソナルコンピュータやワークステーション等のコンピュータにより実現される。監視装置1は、大きく分けて表示部10、処理部11、記録部12とを有している。処理部10は、例えば図示しないROMに書き込まれているプログラムを読み出してカメラ2の映像を処理する。表示部11は、処理部10で処理された映像等を表示するもので、具体的にはビデオモニター等で実現される。記録部12は、処理部10で処理された映像を記録するもので、具体的にはハードディスクレコーダ等で実現される。
ネットワークは、LANやインターネット網等の通信回線や同軸線等、種々のものを含む。
図2は、監視装置1の処理部10の機能を示すブロック図である。
図2に示すように、処理部10は、カメラ2から送信されてくる映像に対し、まずフレーム毎に表示処理を行う(100)。ここでは、例えば、カメラ2から映像がデジタル符号化されて送信されてくるのであれば、デジタル符号化された映像をフレーム毎に復号化し、映像として再現できるようにする。表示処理された映像は表示部11に送られる。
また、処理部10は、表示処理された映像について、フレーム毎に移動体検知し(101)、フレーム単位での移動体の位置を導出する(102)。ここでは、まず、各フレームについて、フレーム内に存在する移動体を検知する。検知された移動体の、実際にカメラ1が設置されている監視領域を含む実世界に対応する座標上での位置をキャリブレーション技術により導出する。
ここで、処理部10が連続したフレームに渡って移動体検知を行う際、あるフレームで移動体検知を開始すると、検知されたこの移動体の検知が終了するまで、一の検知として識別する。例えば、移動体aが監視領域に入ってきたことにより、N番目のフレーム(Nは自然数)で移動体aの検知を開始し、(N+100)番目のフレームまで移動体aの検知が続いた場合、N〜(N+100)フレームに渡っての移動体aの検知をひとまとまりとして一の検知とする。具体的にはひとまとまりの検知にIDなどの識別情報を付せばよい。
同様に、処理部10が連続したフレームに渡って移動体の位置の導出を行う際、移動体の検知時にひとまとりとして一の検知として識別された複数フレームにおける移動体の位置をひとまとまりとして位置群として識別する。例えば、上記の通りN〜(N+100)フレームに渡っての移動体aの検知がひとまりとして識別されていれば、N〜(N+100)フレームに渡っての移動体aの連続した位置を位置群として識別する。具体的にはひとまとりの位置群にIDなどの識別情報を付せばよい。
次に、処理部10は、フレーム毎に導出した移動体の位置の履歴を、連続する複数フレームに渡って取っていくことで、移動体の移動方向や移動速度といった移動情報を導出する(103)。ここでは、あるフレーム上での移動体の位置とこれに続くフレーム上での位置との差分から座標上での移動方向を求めることができる。また、フレーム間の位置の差分とフレームの遷移時間とから移動速度を求めることができる。
なお、移動体検知手法はフレーム間での輝度変化に基づく方法等種々の方法があるが公知なので詳述はしない。同様に、キャリブレーション手法も射影変換法等種々の方法があるが公知なので詳述はしない。これらの手法は、本願出願人が先に出願し公開されている以下の特許公開公報内にも記載がある。
・特開2004−110280号公報
・特開2005−003377号公報
・特開2006−245795号公報
・特開2009−210331号公報
図3は、処理部10により作成された位置や移動情報の一例を可視化した図であり、二つの移動体a及び移動体bが検知されたときの位置や移動情報の例を示している
マップMは、カメラ2が設置されている監視領域を含む実世界に相当する座標上でのマップであり、カメラ2の監視領域がSで示されている。ここで、処理部10が導出した現フレームにおける移動体aの位置Paと、移動体bの位置Pbとをプロットして示している。また、移動体aと移動体bの位置の履歴を可視化するために、過去の複数フレームにおいて導出された移動体aの位置を結ぶことで移動履歴Haを作成し、同様に移動体bの位置を結ぶことで移動履歴Hbを作成する。また、例えば、移動情報として導出(103)した移動体aとbの移動方向を矢印で示し、移動体aとbの移動速度を数値で示している。
なお、本図では、移動体aとbとはともにほぼ同じ方向(図面上で上方向)に向かって移動しており、それぞれ2m/sと3m/sで移動していることを示している。
フレーム内で複数の移動体の位置が導出されると、処理部10は、フレーム毎に、これら複数の移動体について位置の比較と移動情報の比較とを行い(104)、比較結果に基づいて、複数の移動体のうちいずれかが起こした事故や事件を検出する(105)。
処理部10は、事故や事件が検知されたフレームに対しては事故や事件が発生した可能性がある旨の識別情報(フラグ)を立てて(106)、映像を記録部12に記録する。
なお、処理部10は、事故や事件が検知されなかったフレームについては、フラグを立てずに記録部12に記録する。
なお、処理部10は、記録部12に記録された映像を読み出し、表示部11に表示させることができる。
図4は、移動体の位置と移動情報の相対関係に基づく事故や事件の検出(105)を説明する図であり、二つの移動体a及び移動体bが検知された例を示している。
図4(a)に示すように、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが互いに所定の距離以上離間している場合、移動体aと移動体bのいずれも他方に対して危害を加えるような事故や事件は起こしていないとして、事故や事件の検知は行われない。
図4(b)に示すように、移動体aの位置Paと移動体bのPbとが所定距離以内であって、移動体a移動方向と移動体bの移動方向とが異なる方向にある場合、事故の検知を行う。これは移動体aと移動体bとが接近し衝突する事故が発生した可能性があるからである。
図4(c)に示すように、移動体aの位置Paと移動体bの位置Pbとが所定距離以内であって、かつ、移動体aと移動体bとが同じ移動方向にあり、さらに移動体aと移動体bとの間で移動速度に所定以上の差がある場合、事件の検知を行う。これは、移動速度が速い一方が遅い他方に対する「ひったくり」事件が発生した可能性があるからである。
図5は、処理部10が移動体の相互関係に基づいて事故や事件の検知を行う処理を示すフローチャートである。
処理部10は、複数の移動体が検知されると、移動体間の距離が所定の距離以内であるか否かを判断する(S10)。
移動体間の距離が所定の距離以上離間していれば(S10:N)、事故や事件の検出は行わない。所定の距離以内であれば(S10:Y)、処理部10はさらに両移動体の移動方向を判断する(S11)。
両移動体の移動方向が異なっていれば(S11:N)、処理部10は移動体同士の衝突の可能性があるとして事故を検出する(S12)。
両移動体の移動方向がほぼ同じであれば(S11:Y)、処理部10はさらに両移動体の移動速度差を判断する(S13)。
両移動体の移動速度に所定以上の差がなければ(S13:N)、処理部10は事故や事件を検出しないが、所定以上の差があれば(S13:Y)、速い方の移動体が遅い方の移動体に対してひったくりを仕掛けた可能性があるとして事件を検出する(S14)。
このように、処理部10は、移動体の相互関係(相互の距離、移動方向、移動速度)に基づいて、移動体間に事故や事件が発生した可能性を検出することができる。
処理部10は、図6に示すように、事故や事件を検出したフレームについてその旨の示すフラグを立て、フレームの日付、時刻、及び当該フレームの前後フレームを含む映像(対象映像)と対応付けて記録部12に記録する。対象映像は、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る映像である。より具体的には、処理部10が位置導出(102)の際にひとまとまりとして一の位置群として識別した複数フレームから成る映像である。
例えば、本図において、2010年02月15日の07:00:15のフレームにおいて衝突発生が検知されたフレームは、一の位置群として識別されている07:00:02〜07:01:18間の複数フレームから成る映像と対応付けられている。
なお、本図では、事故(衝突)の可能性を示すフラグを1として、事件(ひったくり)の可能性を示すフラグを2としている。
図7は、記録部12に記録された映像を処理部10が読み出し、表示部11に表示させた際の表示例を示す図である。
表示部11には、事故や事件のフラグが立てられたフレームの一覧Lが表示され、その隣に映像を表示するウインドウWが表示されている。
フラグが立てられたフレームが一覧表示されるため、監視者は映像を始めから最後まで見なくても、事故や事件が発生した可能性のある映像箇所を素早く見つけることができる。
監視者がフレーム一覧Lから所望のフレームを選択する操作を行うと、処理部10は、この選択操作に応答して、選択されたフレームを含む対象映像を記録部12から読み出し再生し、ウインドウWに表示させる。
こうすることで、監視者が事故や事件が発生した可能性のある所望のフレームを選択すると、この所望のフレームに含まれる移動体(事故や事件の原因となったであろう移動体)が監視領域内でどのような挙動をしたのかを表示でき、監視者が事故や事件の解明を素早く行うことができる。すなわち、対象映像は、事故や事件が発生に起因した移動体が監視領域に現れてから消えるまでの間の映像であるため、監視者は事故や事件が発生した状況を確認することができる。
<実施形態2>
実施形態1に係る監視装置では、複数の移動体の位置と移動情報とに基づき事故又は事件の発生を判別しているが、実施形態2では、位置と移動情報とに基づき事件の発生の蓋然性の高さを判別する。
実施形態2に係る監視装置は、実施形態1に係る監視装置の処理部10を処理部20に変更したものである。処理部20以外の構成については特に異なる点がないため、ここでは処理部20について詳しく説明する。
処理部20は、フレーム表示処理(200)、移動体検知(201)、位置導出(202)、移動体情報の導出(203)、位置と移動情報の比較(204)を行った後、事件発生の蓋然性を検出し(205)、検出結果に応じてフレームに識別情報(フラグ)を立てる(206)。
フレーム表示処理(200)、移動体検知(201)、位置導出(202)、移動体情報の導出(203)、位置と移動情報の比較(204)は、実施形態1に係る処理部10が実行するフレーム表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報の導出(103)、位置と移動情報の比較(104)と同様である。
処理部20は、事件の発生蓋然性の検出(205)において、導出された複数の移動体の位置に基づく移動体間の距離の接近度と、導出された複数の移動体の移動情報に基づく移動体間の移動方向と移動速度の近似度とに応じて、事件の発生の蓋然性の高さを判別する。
図9は、処理部20が上記接近度と近似度の判別を行うためのテーブルの例を示している。
図9に示すように、処理部20は、接近度と近似度とに基づきポイントを付与し、総合的なポイントの高さに応じて事件の発生の蓋然性の高さを判別する。
図9に示す例では、複数の移動体間の距離の近似度について、互いに1m以内であれば2ポイント、1m〜3m以内であれば1ポイント、3m以上であれば0ポイント付与する。また、複数の移動体間の移動方向の近似度について、互いに±30°以内であれば2ポイント、±30°〜±45°以内であれば1ポイント、±45°以上であれば0ポイントを付与する。また、複数の移動体間の移動速度の近似度については、互いに2.5m/h以上であれば2ポイント、2.5m/h未満であれば1ポイントを付与する。
ポイント付与後、処理部20は、例えば、距離の接近度と移動方向の近似度のいずれか一方に0ポイントがある場合には蓋然性を0(ゼロ)とし事件発生とは判別せず、いずれか一方に0ポイントが無い場合は全てのポイントの合計を蓋然性の高さとする。処理部20は、このように事件発生の蓋然性が導出されたフレームについて、蓋然性の高低を識別情報(フラグ)として付与し(206)、映像を記録部12に記録する。
図10は、事件の発生の蓋然性の高低を識別情報として付与した例を示す図である。
時刻07:00:15のフレームでは、事件発生の蓋然性が4と判別されている。図9のテーブルに従えば、例えば、移動体間の距離が1m〜3m以内であって(1ポイント)、移動方向の差が±30°〜±45°以内であって(1ポイント)、移動速度差が2.5m以上ある(2ポイント)あるような場合に相当する。
時刻07:22:09のフレームでは、事件発生の蓋然性が6と判別されている。図9のテーブルに従えば、例えば、移動体間の距離が1m以上であって(2ポイント)、移動方向の差が±30°以内であって(2ポイント)、移動速度差が2.5m以上ある(2ポイント)あるような場合に相当する。
なお、処理部20がフラグを付して映像を記録部12に記録する際、フラグを付したフレームの前後フレームを含む映像(対象映像)と対応付けて記録するのは実施形態1と同様である。
このように、処理部20は、複数の移動体間の位置の接近度と移動方向や移動速度の近似度に基づいて、事件の発生の蓋然性を判別することができ、監視者が事件の発生の可能性のある場面を効率的に探すことができる。
図11は、このようにフラグを付した映像を記録部12から処理部20が読み出し、表示部11に表示させた際の表示例を示す図である。
表示部11にフレームの一覧LとウインドウWが表示され、フレーム一覧Lから選択されたフレームと対応付けられた対象映像がウインドウW上に表示されるのは実施形態1と同様であるが、本図に示すように、フレーム一覧Lにおいては、事件発生の蓋然性が高いフレームから順番にリスト表示される。
こうすることで、監視者は、事件発生の蓋然性の高い場面から映像を確認することができるため、犯罪捜査等をより効率的に行うことができる。
<実施形態3>
実施形態1及び2に係る監視装置は、あるフレームにおける移動体間の位置と移動情報の相互関係に基づいて事故又は事件を検出していたが、実施形態3では、あるフレームにおける移動体間の位置と移動情報の相互関係に加え、後続のフレームでの移動体情報に基づいてさらに詳細な事故又は事件を検出する。
図12は、実施形態3に係る処理部30の構成を示す図である。処理部30のフレーム表示処理(300)、移動体検知(301)、位置導出(302)、移動体情報導出(303)、位置と移動情報の比較(304)は、実施形態1に係る処理部10の表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報導出(103)、位置と移動情報の比較(104)と同様であるが、その後の処理が異なっている。
処理部30は、あるフレームについて、導出した複数の移動体の位置と移動情報(移動方向、移動速度)とを比較し(304)、比較した結果事故又は事故発生の可能性がある場合はさらに、続く複数フレームでの移動情報を導出し(305)、導出結果に応じて詳細な事故又は事件を検出する(306)。
図13〜15は、事件又は事故の検出(304〜305)を説明するための図であり、二つの移動体a及び移動体bが検出された例を示している。
1.衝突事故の検出
図13に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、両移動体a及びbの移動速度が著しく0(ゼロ)に近くなった場合、移動体aと移動体bとが衝突事故を起こしたことを検出する(306)。例えば、N番目(Nは自然数)のフレームにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動速度を検出し、両移動体の移動速度が0に近くなった場合、N番目のフレームで衝突事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、衝突事故を起こしたのであれば、それまで移動していた移動体がともに停止する蓋然性が高いからである。
2.轢き逃げ事故の検出
図14に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、移動体aの移動速度が著しく0(ゼロ)に近くなり、かつ、移動体bの移動速度が0以外である場合、移動体bが移動体a衝突した後逃走した(轢き逃げを起こした)を検出する(306)。例えば、N番目(Nは自然数)のフレーにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動速度を検出し、移動体aの移動速度が0に近くなって移動体bの移動速度が0以外である場合、N番目のフレームで轢き逃げ事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、轢き逃げ事故の場合、被害者はその場で重傷を受けるか死亡する等して動きが止まる一方、加害者はその場から立ち去る蓋然性が高いからである。
3.引きずり事故の検出
図15に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、移動体aの移動情報が無くなり、つまり移動体検知されなくなり、かつ、移動体bのみ移動情報が得られ移動速度が0以外である場合、移動体bが移動体a衝突した後移動体aを引きずったまま逃走していることを検出する(306)。例えば、N番目(Nは自然数)のフレーにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動情報を検出し、移動体aの移動情報が検出されず移動体bの移動速度が0以外である場合、N番目のフレームで引きずり事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、引きずり事故の場合、被害者はその場で加害者の車両に巻き込まれ引きずられることから、両移動体が一つとして検出される蓋然性が高いからである。
以上のように、処理部30は、あるフレームにおける移動体間の位置と移動情報の相互関係に加え、後続のフレームでの移動体情報に基づいてさらに詳細な事故又は事件を検出することができる。
なお、本実施形態においても、事故又は事件が発生した旨のフラグが立てられたフレームが記録部12において、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る対象映像と対応付けて記録されるのは実施形態1及び2と同様である。
<実施形態4>
実施形態1及び2に係る監視装置は、あるフレームにおける移動体間の位置と移動情報の相互関係に基づいて事故又は事件を検出していたが、実施形態3では、さらにフレーム内の事故又は事件が検出された場所に基づいて詳細な事故又は事件を検出する。
図16は、実施形態4に係る処理部40の構成を示す図である。処理部40のフレーム表示処理(400)、移動体検知(401)、位置導出(402)、移動体情報導出(403)、位置と移動情報の比較(404)は、実施形態1に係る処理部10の表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報導出(103)、位置と移動情報の比較(104)と同様であるが、その後の処理が異なっている。
処理部40は、あるフレームについて、導出した複数の移動体の位置と移動情報(移動方向、移動速度)とを比較し(404)、比較した結果事故又は事故発生の可能性がある場合はさらに、導出した移動体の位置の座標を比較し(405)、比較結果に基づいて事故又は事件の詳細を検出する(406)。
図17は、カメラ2が設置されている監視領域を含む実世界に相当する座標上でのマップを示している。マップの中で、破線で表しているのが監視領域内に存在する横断歩道に相当する領域である。移動体がこの領域内の座標で検出された場合、当該移動体は監視領域内では横断歩道を通行する歩行者である蓋然性が高い。逆に、この破線で示した領域外の座標で検出された移動体は、監視領域の中では、横断歩道以外の道路を(車道)を通行する車両である蓋然性が高い。
そこで、監視装置1は予め、監視領域内において歩行者が歩行しそうな場所に相当する領域(歩行領域)の実世界の座標を記憶しておく。記憶する場所は記録部12であってもよいし、ROMやRAM等の記憶手段を監視装置1に設けておいてそこに記憶しておいてもよい。
処理部40は、複数の移動体の位置と移動情報を比較し(404)、互いの位置とが所定距離内にある場合、例えば事故の発生と判断し、さらに、このときの互いの位置座標と記憶された座標とを比較する(405)。比較の結果、記憶された座標に含まれる場合は、監視領域内での横断歩道で事故が発生した蓋然性が高いため、歩行者と車両とによる接触事故である蓋然性が高いと判断しこれを検出する(406)。一方、比較の結果、記憶された座標に含まれない場合は、監視領域内での車道で事故が発生した蓋然性が高いため、車両同士による接触事故である蓋然性が高いと判断しこれを検出する(406)。
処理部40は、検出結果に応じて、歩行者と車両による接触事故である旨のフラグもしくは車両同士による接触事故である旨のフラグをフレームに付与する(407)。
このように、事故又は事件の発生位置を監視領域と対応する実世界の座標上で判断することで、より詳細な事故又は事件の発生を検出することができる。
なお、本実施形態においても、事故又は事件が発生した旨のフラグが立てられたフレームが記録部12において、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る対象映像と対応付けて記録されるのは実施形態1〜3と同様である。
<補足>
以上、実施形態1〜4に基づき、監視装置について説明したが、本発明の監視装置の構成について以下の通り補足する。
1.処理部10〜40は、移動体の位置の位置の導出(102〜402)において、過去のフレームでの位置検出結果に基づき移動平均化した位置を導出するようにすれば、ごく一時的もしくは急峻は移動体の動きに敏感に反応しすぎることなく滑らかに位置を導出することができる。
2.処理部10〜40が移動体の検知(101〜401)を行う際、人物歩行像(シルエット)に着目した人物検出を利用してもよい。このような移動体検知については、例えば、特開2010−038835号公報に開示されている。
3.監視装置1は記録部12を備え、処理部10〜40は映像を記録部12に記録するようにしているがこれに限らない。例えば、監視装置1は、図18に示すように、発報部22を備え、処理部10〜40は、事故又は事件の検出(105、205、306、406)を行ったとき、発報部22に発報させるようにしてもよい。発報部22は例えば、アラーム等の警告音を放音させるドライバで、外部のスピーカに警告音を鳴動させることができるものであればよい。
4.監視装置1はカメラ2と接続され、処理部10〜40は、カメラ2の撮像映像に基づいて監視領域内の移動体を検出する(101〜401)ようにしているが、これに限らない。例えば、監視装置1は、図19に示すように、カメラの代わりに監視領域にレーザースキャナ(レーザーセンサ)3と接続し、処理部10〜40は、レーザースキャナ3のスキャン結果に基づいて移動体を検出するようにしてもよい。
レーザースキャナ3は、スキャン領域A内において一端から他端まで順次レーザー光を照射し、スキャン領域A内でレーザー光が物体に当たるのを検出する装置である。処理部10〜40は例えば、レーザースキャナ3が物体を検出した場合、これを移動体と検出し(101〜401)、スキャン領域Aに対応する実世界座標上での移動体の位置を導出する(102〜402)ようにすればよい。
このように構成した場合、上記補足3で説明したように、監視装置1には発報部を設け、処理部10〜40が事故又は事件の検出に応じて発報部から発報させるようにすればよい。
5.監視装置1とカメラ2とは便宜上、ネットワークを介して接続されている例を示したが、いわゆるインターネット網やLAN等の通信回線に限らない。同軸線などの有線接続手段や、Bluetooth(登録商標)や赤外線等の無線接続手段など、監視装置1とカメラ2間で信号のやり取りができる手段であればよい。上記補足で示したレーザースキャナ3との接続も同様である。
6.監視装置1がカメラ2とネットワークで接続されている例を示したが、監視装置1の一部又は全ての構成とカメラ2とは同じ筐体に格納し、カメラ2に監視装置1の機能の一部又は全部を実行させるようにしてもよい。例えば、図20(a)及び(b)に示すように、カメラ2に処理部10を備え、カメラ2側で事故又は事件の検出を行い、検出結果に応じて監視装置1が表示や記録を行うようにしてもよいし、カメラ2に処理部10、表示部11、記録部12を備え、カメラ2が完全に監視装置として機能するようにしてもよい。
また、図21に示すように、処理部の機能の一部をカメラ2に実行させ、残りの機能を監視装置1に実行させるようにしてもよい。図21で示す例では、処理部10の処理のうち移動体検知処理101をカメラ2が実行し、残りの機能を監視装置1が実行する例を示しているがこれに限定されない。
<まとめ>
以上のように、本発明の実施形態に係る監視装置1は、監視領域内で発生した複数の移動体間の事故又は事件を検出することができる。
特に、複数の移動体間の位置、移動情報(移動方向差、移動速度差)に基づいて検出を行うため、移動体が事故又は事件を起こした場合の動きの類型をデータベース化しておく必要が無く、簡素な構成で監視装置1を構成することができる。
本発明の監視装置は、所定の監視領域内の移動体を監視する監視装置に広く適用することができる。
1 監視装置
2 カメラ
3 レーザースキャナ
10 処理部
11 表示部
12 記録部
100、200、300、400 フレーム表示処理
101、201、301、401 移動体検知処理
102、202、302、402 位置導出処理
103、203、303、305、403 移動情報導出処理
104、204、304、404 位置・移動情報比較処理
105、306、406 事故・事件検出処理
106、206、307、407 フラグ付与処理
205 事件発生蓋然性検出処理
405 座標比較処理

Claims (2)

  1. 所定の監視領域内を撮像するカメラが撮像した、複数のフレームから構成される映像に基づき、当該映像内の移動体を検出する移動体検出手段と、
    前記移動体検出手段により検出された移動体の、前記監視領域と対応する座標上での位置をフレーム毎に導出する位置導出手段と、
    各移動体について、前記位置導出手段が導出した位置に基づき、少なくとも各移動体の移動方向及び移動速度を移動情報として導出する移動情報導出手段と、
    前記移動体検出手段により複数の移動体が検出され、前記位置導出手段により各移動体の位置が導出されたとき、当該各移動体の位置の相互関係と当該各移動体の移動情報とに基づいて、前記複数の移動体間の所定の行動を検出する検出手段とを備え、
    前記検出手段は、(a)前記複数の移動体間の距離が所定範囲以内にあり且つ前記複数の移動体の移動方向が実質的に同じであってさらに前記複数の移動体間で移動速度に所定以上の差がある場合は、当該複数の移動体間の第1の行動であるとの検出であって当該検出時点のフレームと対応付けて読み出し可能に記録されるフラグとして前記第1の行動であるとの検出を行い、(b)前記複数の移動体間の距離が前記所定範囲以内にあり且つ前記複数の移動体の移動方向が実質的に異なる場合は、前記第1の行動とは異なる当該複数の移動体間の第2の行動であるとの検出であって当該検出時点のフレームと対応付けて読み出し可能に記録されるフラグとして前記第2の行動であるとの検出を行い、(c)前記複数の移動体間の距離が前記所定範囲内にない場合、及び前記複数の移動体間の距離が前記所定範囲内にあり且つ前記複数の移動体の移動方向が実質的に同じであるが前記複数の移動体間の移動速度に前記所定以上の差がない場合は前記第1の行動及び第2の行動のいずれもの検出を行わない監視装置。
  2. コンピュータを、請求項に記載の監視装置の前記各手段として機能させるためのプログラム。
JP2010050577A 2010-03-08 2010-03-08 監視装置、及びプログラム Active JP5787485B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010050577A JP5787485B2 (ja) 2010-03-08 2010-03-08 監視装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010050577A JP5787485B2 (ja) 2010-03-08 2010-03-08 監視装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2011186727A JP2011186727A (ja) 2011-09-22
JP5787485B2 true JP5787485B2 (ja) 2015-09-30

Family

ID=44792923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010050577A Active JP5787485B2 (ja) 2010-03-08 2010-03-08 監視装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP5787485B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018089435A3 (en) * 2016-11-14 2018-06-28 Waymo Llc Using map information to smooth objects generated from sensor data

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6110183B2 (ja) * 2013-03-29 2017-04-05 株式会社デンソー 防犯システム
CN104717457B (zh) * 2013-12-13 2018-05-18 华为技术有限公司 一种视频浓缩方法及装置
JP6595842B2 (ja) * 2015-08-25 2019-10-23 東京海上日動火災保険株式会社 事故発生時における顧客サービスに関連する情報処理技術
JP7043785B2 (ja) * 2017-10-25 2022-03-30 株式会社Ihi 情報生成装置
JP7115373B2 (ja) * 2019-03-15 2022-08-09 オムロン株式会社 特定事象発生検知装置、特定事象発生検知方法、および特定事象発生検知プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229487A (ja) * 2000-02-15 2001-08-24 Minolta Co Ltd 交通監視装置
WO2002021441A1 (fr) * 2000-09-06 2002-03-14 Hitachi, Ltd. Detecteur de comportement anormal
JP4926533B2 (ja) * 2006-05-02 2012-05-09 キヤノン株式会社 動画像処理装置、動画像処理方法及びプログラム
JP5077687B2 (ja) * 2008-03-28 2012-11-21 ブラザー工業株式会社 動作機器の権限管理システム
JP5709367B2 (ja) * 2009-10-23 2015-04-30 キヤノン株式会社 画像処理装置、および画像処理方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018089435A3 (en) * 2016-11-14 2018-06-28 Waymo Llc Using map information to smooth objects generated from sensor data
KR20190067851A (ko) * 2016-11-14 2019-06-17 웨이모 엘엘씨 센서 데이터로부터 생성된 물체를 평활화하기 위한 맵 정보의 이용
KR102210140B1 (ko) 2016-11-14 2021-02-02 웨이모 엘엘씨 센서 데이터로부터 생성된 물체를 평활화하기 위한 맵 정보의 이용
US11112237B2 (en) 2016-11-14 2021-09-07 Waymo Llc Using map information to smooth objects generated from sensor data
EP3839438A3 (en) * 2016-11-14 2021-10-20 Waymo Llc Using map information to smooth objects generated from sensor data

Also Published As

Publication number Publication date
JP2011186727A (ja) 2011-09-22

Similar Documents

Publication Publication Date Title
JP5787485B2 (ja) 監視装置、及びプログラム
EP3026880B1 (en) Damage recognition assist system
JP6551512B2 (ja) 監視システム、監視制御装置、監視方法、およびプログラム
US9792434B1 (en) Systems and methods for security data analysis and display
JP7070683B2 (ja) 劣化診断装置、劣化診断システム、劣化診断方法、プログラム
US11019268B2 (en) Video surveillance system and video surveillance method
JP5284599B2 (ja) 画像処理装置
US20090128632A1 (en) Camera and image processor
KR20210053534A (ko) 딥러닝기반 행동인식장치 및 그 장치의 구동방법
KR100916960B1 (ko) 승강장 모니터링 시스템
CN106341661A (zh) 巡逻机器人
JP4852355B2 (ja) 放置物検出装置及び放置物検出方法
JP2010220042A (ja) 映像確認装置、その方法、及びプログラム
JP2019135653A (ja) 監視システム、監視方法および監視プログラム
KR102514660B1 (ko) 보차혼용도로에서의 보행자 사고 방지 방법 및 시스템
JP7128577B2 (ja) 監視装置
JP2012128561A (ja) 異常車両検出装置
CN110544312A (zh) 虚拟场景中的视频显示方法、装置、电子设备与存储装置
KR102438433B1 (ko) 데이터 기반의 3d 시각화가 가능한 관제 시스템 및 방법
CN104050785A (zh) 基于虚拟化边界与人脸识别技术的安全警戒方法
JP2024009906A (ja) 監視装置、監視方法、およびプログラム
JP6405606B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP6570906B2 (ja) 監視システム及び監視方法
JP2013161281A (ja) 交通画像取得装置、交通画像取得方法および交通画像取得プログラム
KR20170102403A (ko) 차량용 빅데이터 처리방법 및 차량용 빅데이터 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150728

R150 Certificate of patent or registration of utility model

Ref document number: 5787485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250