JP2011186727A - Monitoring apparatus and program - Google Patents
Monitoring apparatus and program Download PDFInfo
- Publication number
- JP2011186727A JP2011186727A JP2010050577A JP2010050577A JP2011186727A JP 2011186727 A JP2011186727 A JP 2011186727A JP 2010050577 A JP2010050577 A JP 2010050577A JP 2010050577 A JP2010050577 A JP 2010050577A JP 2011186727 A JP2011186727 A JP 2011186727A
- Authority
- JP
- Japan
- Prior art keywords
- moving
- moving body
- video
- derived
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 84
- 238000001514 detection method Methods 0.000 claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000012806 monitoring device Methods 0.000 claims description 31
- 230000008569 process Effects 0.000 claims description 15
- 230000009471 action Effects 0.000 claims description 10
- 238000013459 approach Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 85
- 238000010586 diagram Methods 0.000 description 28
- 238000009795 derivation Methods 0.000 description 18
- 239000013589 supplement Substances 0.000 description 8
- 230000006399 behavior Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、所定の監視領域を監視するための監視装置、監視方法、及びこの監視方法をコンピュータに実行させるためのプログラムに関する。 The present invention relates to a monitoring device for monitoring a predetermined monitoring area, a monitoring method, and a program for causing a computer to execute the monitoring method.
所定の場所を監視する目的で、例えば監視カメラを用いた監視システムが普及している。
このような監視システムは、所定の場所(監視領域)を撮像するよう設置されたカメラと、このカメラと回線等で接続された監視装置を含んで構成される。監視装置は、一般的にはパーソナルコンピュータやワークステーション等のコンピュータや、ビデオモニターによって実現される。
このような監視システムによれば、監視者は、監視装置を通じて監視領域の映像を確認することができる。
このような従来の監視装置の一例として、特許文献1〜2に記載のものがある。
For the purpose of monitoring a predetermined place, for example, a monitoring system using a monitoring camera has become widespread.
Such a monitoring system is configured to include a camera installed to image a predetermined place (monitoring area) and a monitoring device connected to the camera via a line or the like. The monitoring device is generally realized by a computer such as a personal computer or a workstation, or a video monitor.
According to such a monitoring system, the monitoring person can check the video of the monitoring area through the monitoring device.
As an example of such a conventional monitoring device, there are those described in
ところが、監視者が実際に監視領域で事故や事件が発生したことを見つけるには、監視者が常時映像を見ていなければならず、多大な負担であった。そこで、カメラの映像をハードディスクレコーダー等の記録媒体に蓄積しておき、監視者が蓄積された映像を見返すということも考えられるが、この場合であっても、結局、監視者が映像を始めから見ていかなければならないので負担は同様である。 However, in order for the supervisor to find out that an accident or incident actually occurred in the surveillance area, the supervisor had to always watch the video, which was a heavy burden. Therefore, it is conceivable that the video of the camera is stored in a recording medium such as a hard disk recorder, and the supervisor looks back on the stored video. The burden is the same because you have to look at it.
そこで、特許文献3には、カメラの映像の中の移動体(例えば歩行する人間)の異常行動を検知し、発報する技術が開示されている。
Therefore,
しかしながら、特許文献3に開示されている技術は、一つの移動体の動き方に着目し、異常と捉えられる動き方を検知するため、例えば移動体が人間の場合は異常な歩き方を検知する程度に留まり、ある者が他の者へ危害を加える事故や事件等、複数の移動体間で発生する行動を検知するのは難しい。
However, the technique disclosed in
本発明は、上記のような監視装置において、所定の監視領域内で事故や事件等複数の移動体間で所定の行動が発生した可能性を検出することができる技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of detecting the possibility that a predetermined action has occurred between a plurality of moving bodies such as accidents and incidents in a predetermined monitoring area in the monitoring device as described above. To do.
本発明に係る監視装置は、所定の監視領域内の移動体を検出する移動体検出手段と、前記移動体検出手段により検出された移動体の、前記監視領域と対応する座標上での位置を導出する位置導出手段と、前記移動体検出手段により複数の移動体が検出され、前記位置導出手段により各移動体の位置が導出されたとき、当該各移動体の位置の相互関係に基づいて前記複数の移動体間の所定の行動を検出する検出手段とを備える。 The monitoring apparatus according to the present invention includes a moving body detection unit that detects a moving body within a predetermined monitoring region, and a position of the moving body detected by the moving body detection unit on coordinates corresponding to the monitoring region. When a plurality of moving bodies are detected by the position deriving means for deriving and the moving body detecting means, and the positions of the respective moving bodies are derived by the position deriving means, Detecting means for detecting a predetermined behavior among a plurality of moving bodies.
また、本発明に係るプログラムは、所定の監視領域を監視する処理をコンピュータに実行させるためのプログラムであって、前記処理は、前記監視領域内の移動体を検出する移動体検出工程と、前記移動体検出工程で検出された移動体の位置を導出する位置導出工程と、前記移動体検出工程で複数の移動体が検出され、前記位置導出工程で各移動体の位置が導出されたとき、当該各移動体の位置の相互関係に基づいて前記複数の移動体間の所定の行動を検出する検出工程とを含む。 The program according to the present invention is a program for causing a computer to execute a process of monitoring a predetermined monitoring area, and the process includes a moving object detection step of detecting a moving object in the monitoring area; A position deriving step for deriving the position of the moving body detected in the moving body detecting step, and a plurality of moving bodies are detected in the moving body detecting step, and the position of each moving body is derived in the position deriving step; And a detecting step of detecting a predetermined behavior among the plurality of moving bodies based on the mutual relationship between the positions of the moving bodies.
本発明によれば、所定の監視領域内で事故や事件等複数の移動体間で所定の行動が発生した可能性を検出することができる。 According to the present invention, it is possible to detect the possibility that a predetermined action has occurred between a plurality of moving bodies such as accidents and incidents within a predetermined monitoring area.
<実施形態1>
実施形態1に係る監視装置は、カメラの映像から監視領域内の複数の移動体を検知し、複数の移動体の位置や移動情報の相互関係に基づいて事故や事件の発生の可能性を検出し、この検出結果を反映して映像を記録媒体に記録する。
<
The monitoring apparatus according to the first embodiment detects a plurality of moving objects in the monitoring area from the video of the camera, and detects the possibility of occurrence of an accident or an incident based on the correlation between the positions of the plurality of moving objects and movement information. Then, the video is recorded on the recording medium reflecting the detection result.
図1に示すように、監視装置1は、ネットワーク(NW)を介してカメラ2と接続されており、全体として監視システムを構成している。
As shown in FIG. 1, a
カメラ2は、街頭や建物入口付近等、所定の監視領域に設置されており、この監視領域の映像を撮像し、得た映像をネットワークを介して監視装置1に送信する。
The
監視装置1は、ネットワークを介してカメラ2からの映像を受信し、後述する所定の処理、映像の表示、映像の記録等を実行する。監視装置1は、具体的にはパーソナルコンピュータやワークステーション等のコンピュータにより実現される。監視装置1は、大きく分けて表示部10、処理部11、記録部12とを有している。処理部10は、例えば図示しないROMに書き込まれているプログラムを読み出してカメラ2の映像を処理する。表示部11は、処理部10で処理された映像等を表示するもので、具体的にはビデオモニター等で実現される。記録部12は、処理部10で処理された映像を記録するもので、具体的にはハードディスクレコーダ等で実現される。
The
ネットワークは、LANやインターネット網等の通信回線や同軸線等、種々のものを含む。 The network includes various types such as a communication line such as a LAN and an Internet network, a coaxial line, and the like.
図2は、監視装置1の処理部10の機能を示すブロック図である。
FIG. 2 is a block diagram illustrating functions of the
図2に示すように、処理部10は、カメラ2から送信されてくる映像に対し、まずフレーム毎に表示処理を行う(100)。ここでは、例えば、カメラ2から映像がデジタル符号化されて送信されてくるのであれば、デジタル符号化された映像をフレーム毎に復号化し、映像として再現できるようにする。表示処理された映像は表示部11に送られる。
As shown in FIG. 2, the
また、処理部10は、表示処理された映像について、フレーム毎に移動体検知し(101)、フレーム単位での移動体の位置を導出する(102)。ここでは、まず、各フレームについて、フレーム内に存在する移動体を検知する。検知された移動体の、実際にカメラ1が設置されている監視領域を含む実世界に対応する座標上での位置をキャリブレーション技術により導出する。
ここで、処理部10が連続したフレームに渡って移動体検知を行う際、あるフレームで移動体検知を開始すると、検知されたこの移動体の検知が終了するまで、一の検知として識別する。例えば、移動体aが監視領域に入ってきたことにより、N番目のフレーム(Nは自然数)で移動体aの検知を開始し、(N+100)番目のフレームまで移動体aの検知が続いた場合、N〜(N+100)フレームに渡っての移動体aの検知をひとまとまりとして一の検知とする。具体的にはひとまとまりの検知にIDなどの識別情報を付せばよい。
同様に、処理部10が連続したフレームに渡って移動体の位置の導出を行う際、移動体の検知時にひとまとりとして一の検知として識別された複数フレームにおける移動体の位置をひとまとまりとして位置群として識別する。例えば、上記の通りN〜(N+100)フレームに渡っての移動体aの検知がひとまりとして識別されていれば、N〜(N+100)フレームに渡っての移動体aの連続した位置を位置群として識別する。具体的にはひとまとりの位置群にIDなどの識別情報を付せばよい。
Further, the
Here, when the moving part detection is started in a certain frame when the
Similarly, when the
次に、処理部10は、フレーム毎に導出した移動体の位置の履歴を、連続する複数フレームに渡って取っていくことで、移動体の移動方向や移動速度といった移動情報を導出する(103)。ここでは、あるフレーム上での移動体の位置とこれに続くフレーム上での位置との差分から座標上での移動方向を求めることができる。また、フレーム間の位置の差分とフレームの遷移時間とから移動速度を求めることができる。
なお、移動体検知手法はフレーム間での輝度変化に基づく方法等種々の方法があるが公知なので詳述はしない。同様に、キャリブレーション手法も射影変換法等種々の方法があるが公知なので詳述はしない。これらの手法は、本願出願人が先に出願し公開されている以下の特許公開公報内にも記載がある。
・特開2004−110280号公報
・特開2005−003377号公報
・特開2006−245795号公報
・特開2009−210331号公報
Next, the
There are various methods for detecting a moving body, such as a method based on a change in luminance between frames. Similarly, there are various calibration methods such as a projective transformation method, but they are well known and will not be described in detail. These techniques are also described in the following patent publications that have been filed and published by the present applicant.
-JP 2004-110280 A-JP 2005-003377 A-JP 2006-245795 A-JP 2009-210331 A
図3は、処理部10により作成された位置や移動情報の一例を可視化した図であり、二つの移動体a及び移動体bが検知されたときの位置や移動情報の例を示している
マップMは、カメラ2が設置されている監視領域を含む実世界に相当する座標上でのマップであり、カメラ2の監視領域がSで示されている。ここで、処理部10が導出した現フレームにおける移動体aの位置Paと、移動体bの位置Pbとをプロットして示している。また、移動体aと移動体bの位置の履歴を可視化するために、過去の複数フレームにおいて導出された移動体aの位置を結ぶことで移動履歴Haを作成し、同様に移動体bの位置を結ぶことで移動履歴Hbを作成する。また、例えば、移動情報として導出(103)した移動体aとbの移動方向を矢印で示し、移動体aとbの移動速度を数値で示している。
なお、本図では、移動体aとbとはともにほぼ同じ方向(図面上で上方向)に向かって移動しており、それぞれ2m/sと3m/sで移動していることを示している。
FIG. 3 is a diagram visualizing an example of the position and movement information created by the
In this figure, both the moving bodies a and b are moving in substantially the same direction (upward in the drawing), and are moving at 2 m / s and 3 m / s, respectively. .
フレーム内で複数の移動体の位置が導出されると、処理部10は、フレーム毎に、これら複数の移動体について位置の比較と移動情報の比較とを行い(104)、比較結果に基づいて、複数の移動体のうちいずれかが起こした事故や事件を検出する(105)。
When the positions of the plurality of moving objects are derived within the frame, the
処理部10は、事故や事件が検知されたフレームに対しては事故や事件が発生した可能性がある旨の識別情報(フラグ)を立てて(106)、映像を記録部12に記録する。
The
なお、処理部10は、事故や事件が検知されなかったフレームについては、フラグを立てずに記録部12に記録する。
なお、処理部10は、記録部12に記録された映像を読み出し、表示部11に表示させることができる。
Note that the
The
図4は、移動体の位置と移動情報の相対関係に基づく事故や事件の検出(105)を説明する図であり、二つの移動体a及び移動体bが検知された例を示している。
図4(a)に示すように、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが互いに所定の距離以上離間している場合、移動体aと移動体bのいずれも他方に対して危害を加えるような事故や事件は起こしていないとして、事故や事件の検知は行われない。
図4(b)に示すように、移動体aの位置Paと移動体bのPbとが所定距離以内であって、移動体a移動方向と移動体bの移動方向とが異なる方向にある場合、事故の検知を行う。これは移動体aと移動体bとが接近し衝突する事故が発生した可能性があるからである。
図4(c)に示すように、移動体aの位置Paと移動体bの位置Pbとが所定距離以内であって、かつ、移動体aと移動体bとが同じ移動方向にあり、さらに移動体aと移動体bとの間で移動速度に所定以上の差がある場合、事件の検知を行う。これは、移動速度が速い一方が遅い他方に対する「ひったくり」事件が発生した可能性があるからである。
FIG. 4 is a diagram for explaining the detection (105) of an accident or incident based on the relative relationship between the position of the moving body and the moving information, and shows an example in which two moving bodies a and b are detected.
As shown in FIG. 4A, in a certain frame, when the position Pa of the moving object a and the position Pb of the moving object b are separated from each other by a predetermined distance or more, both the moving object a and the moving object b On the other hand, no accidents or incidents that cause harm are not detected, and no accidents or incidents are detected.
As shown in FIG. 4B, the position Pa of the moving object a and the Pb of the moving object b are within a predetermined distance, and the moving direction of the moving object a is different from the moving direction of the moving object b. Detect accidents. This is because there may be an accident in which the moving body a and the moving body b approach and collide.
As shown in FIG. 4 (c), the position Pa of the moving body a and the position Pb of the moving body b are within a predetermined distance, and the moving body a and the moving body b are in the same moving direction. When there is a predetermined difference in moving speed between the moving body a and the moving body b, the incident is detected. This is because there is a possibility that a “snacking” incident has occurred for the one with the fast moving speed to the other with the slow moving speed.
図5は、処理部10が移動体の相互関係に基づいて事故や事件の検知を行う処理を示すフローチャートである。
処理部10は、複数の移動体が検知されると、移動体間の距離が所定の距離以内であるか否かを判断する(S10)。
移動体間の距離が所定の距離以上離間していれば(S10:N)、事故や事件の検出は行わない。所定の距離以内であれば(S10:Y)、処理部10はさらに両移動体の移動方向を判断する(S11)。
両移動体の移動方向が異なっていれば(S11:N)、処理部10は移動体同士の衝突の可能性があるとして事故を検出する(S12)。
両移動体の移動方向がほぼ同じであれば(S11:Y)、処理部10はさらに両移動体の移動速度差を判断する(S13)。
両移動体の移動速度に所定以上の差がなければ(S13:N)、処理部10は事故や事件を検出しないが、所定以上の差があれば(S13:Y)、速い方の移動体が遅い方の移動体に対してひったくりを仕掛けた可能性があるとして事件を検出する(S14)。
FIG. 5 is a flowchart illustrating a process in which the
When a plurality of moving objects are detected, the
If the distance between the moving bodies is a predetermined distance or more (S10: N), no accident or incident is detected. If it is within the predetermined distance (S10: Y), the
If the moving directions of the two moving bodies are different (S11: N), the
If the moving directions of both moving bodies are substantially the same (S11: Y), the
If there is no difference between the moving speeds of the two moving bodies (S13: N), the
このように、処理部10は、移動体の相互関係(相互の距離、移動方向、移動速度)に基づいて、移動体間に事故や事件が発生した可能性を検出することができる。
In this way, the
処理部10は、図6に示すように、事故や事件を検出したフレームについてその旨の示すフラグを立て、フレームの日付、時刻、及び当該フレームの前後フレームを含む映像(対象映像)と対応付けて記録部12に記録する。対象映像は、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る映像である。より具体的には、処理部10が位置導出(102)の際にひとまとまりとして一の位置群として識別した複数フレームから成る映像である。
例えば、本図において、2010年02月15日の07:00:15のフレームにおいて衝突発生が検知されたフレームは、一の位置群として識別されている07:00:02〜07:01:18間の複数フレームから成る映像と対応付けられている。
なお、本図では、事故(衝突)の可能性を示すフラグを1として、事件(ひったくり)の可能性を示すフラグを2としている。
図7は、記録部12に記録された映像を処理部10が読み出し、表示部11に表示させた際の表示例を示す図である。
表示部11には、事故や事件のフラグが立てられたフレームの一覧Lが表示され、その隣に映像を表示するウインドウWが表示されている。
フラグが立てられたフレームが一覧表示されるため、監視者は映像を始めから最後まで見なくても、事故や事件が発生した可能性のある映像箇所を素早く見つけることができる。
監視者がフレーム一覧Lから所望のフレームを選択する操作を行うと、処理部10は、この選択操作に応答して、選択されたフレームを含む対象映像を記録部12から読み出し再生し、ウインドウWに表示させる。
こうすることで、監視者が事故や事件が発生した可能性のある所望のフレームを選択すると、この所望のフレームに含まれる移動体(事故や事件の原因となったであろう移動体)が監視領域内でどのような挙動をしたのかを表示でき、監視者が事故や事件の解明を素早く行うことができる。すなわち、対象映像は、事故や事件が発生に起因した移動体が監視領域に現れてから消えるまでの間の映像であるため、監視者は事故や事件が発生した状況を確認することができる。
As illustrated in FIG. 6, the
For example, in this figure, a frame in which occurrence of a collision is detected in a frame at 07:00:15 on February 15, 2010 is identified as one position group, from 07:00:02 to 07:01:18. Are associated with a video composed of a plurality of frames.
In this figure, a flag indicating the possibility of an accident (collision) is set to 1, and a flag indicating the possibility of an incident (spotting) is set to 2.
FIG. 7 is a diagram illustrating a display example when the
On the
Since the flagged frames are displayed in a list, the supervisor can quickly find a video part where an accident or an incident may have occurred without looking at the video from the beginning to the end.
When the monitor performs an operation of selecting a desired frame from the frame list L, the
In this way, when the monitor selects a desired frame where an accident or incident may have occurred, the moving object included in the desired frame (the moving object that may have caused the accident or incident) The behavior in the monitoring area can be displayed, and the supervisor can quickly clarify the accident or incident. In other words, the target video is a video from when the moving object resulting from the occurrence of the accident or incident appears in the monitoring area until it disappears, so the supervisor can confirm the situation in which the accident or incident has occurred.
<実施形態2>
実施形態1に係る監視装置では、複数の移動体の位置と移動情報とに基づき事故又は事件の発生を判別しているが、実施形態2では、位置と移動情報とに基づき事件の発生の蓋然性の高さを判別する。
<
In the monitoring apparatus according to the first embodiment, the occurrence of an accident or an incident is determined based on the position and movement information of a plurality of moving bodies. In the second embodiment, the probability of the occurrence of an incident is determined based on the position and the movement information. Determine the height.
実施形態2に係る監視装置は、実施形態1に係る監視装置の処理部10を処理部20に変更したものである。処理部20以外の構成については特に異なる点がないため、ここでは処理部20について詳しく説明する。
The monitoring device according to the second embodiment is obtained by changing the
処理部20は、フレーム表示処理(200)、移動体検知(201)、位置導出(202)、移動体情報の導出(203)、位置と移動情報の比較(204)を行った後、事件発生の蓋然性を検出し(205)、検出結果に応じてフレームに識別情報(フラグ)を立てる(206)。
フレーム表示処理(200)、移動体検知(201)、位置導出(202)、移動体情報の導出(203)、位置と移動情報の比較(204)は、実施形態1に係る処理部10が実行するフレーム表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報の導出(103)、位置と移動情報の比較(104)と同様である。
The processing unit 20 performs frame display processing (200), mobile object detection (201), position derivation (202), mobile object information derivation (203), and comparison of position and movement information (204), and then an incident occurs. Is detected (205), and identification information (flag) is set in the frame according to the detection result (206).
The
処理部20は、事件の発生蓋然性の検出(205)において、導出された複数の移動体の位置に基づく移動体間の距離の接近度と、導出された複数の移動体の移動情報に基づく移動体間の移動方向と移動速度の近似度とに応じて、事件の発生の蓋然性の高さを判別する。 In the detection of the probability of occurrence of an incident (205), the processing unit 20 moves based on the degree of proximity between the moving bodies based on the derived positions of the plurality of moving bodies and the movement information on the plurality of derived moving bodies. The probability of occurrence of the incident is determined according to the moving direction between the bodies and the approximate degree of moving speed.
図9は、処理部20が上記接近度と近似度の判別を行うためのテーブルの例を示している。
図9に示すように、処理部20は、接近度と近似度とに基づきポイントを付与し、総合的なポイントの高さに応じて事件の発生の蓋然性の高さを判別する。
図9に示す例では、複数の移動体間の距離の近似度について、互いに1m以内であれば2ポイント、1m〜3m以内であれば1ポイント、3m以上であれば0ポイント付与する。また、複数の移動体間の移動方向の近似度について、互いに±30°以内であれば2ポイント、±30°〜±45°以内であれば1ポイント、±45°以上であれば0ポイントを付与する。また、複数の移動体間の移動速度の近似度については、互いに2.5m/h以上であれば2ポイント、2.5m/h未満であれば1ポイントを付与する。
ポイント付与後、処理部20は、例えば、距離の接近度と移動方向の近似度のいずれか一方に0ポイントがある場合には蓋然性を0(ゼロ)とし事件発生とは判別せず、いずれか一方に0ポイントが無い場合は全てのポイントの合計を蓋然性の高さとする。処理部20は、このように事件発生の蓋然性が導出されたフレームについて、蓋然性の高低を識別情報(フラグ)として付与し(206)、映像を記録部12に記録する。
FIG. 9 shows an example of a table for the processing unit 20 to determine the degree of approach and the degree of approximation.
As illustrated in FIG. 9, the processing unit 20 assigns points based on the degree of approach and the degree of approximation, and determines the probability of occurrence of an incident according to the overall point height.
In the example shown in FIG. 9, regarding the degree of approximation of the distance between a plurality of moving objects, 2 points are given if they are within 1 m of each other, 1 point is given if they are within 1 m to 3 m, and 0 points are given if they are 3 m or more. In addition, regarding the degree of approximation of the moving direction between a plurality of moving bodies, 2 points if within ± 30 ° of each other, 1 point if within ± 30 ° to ± 45 °, 0 points if over ± 45 °. Give. Moreover, about the approximation of the moving speed between several moving bodies, if it is 2.5 m / h or more mutually, 2 points will be provided, and if it is less than 2.5 m / h, 1 point will be provided.
After giving points, the processing unit 20 sets the probability to 0 (zero), for example, when there is 0 point in either one of the proximity of the distance and the approximation of the moving direction, and does not determine that the incident has occurred. On the other hand, if there is no 0 point, the total of all points is considered as a high probability. The processing unit 20 assigns the level of probability as identification information (flag) to the frame from which the probability of occurrence of the event is derived in this way (206), and records the video in the
図10は、事件の発生の蓋然性の高低を識別情報として付与した例を示す図である。
時刻07:00:15のフレームでは、事件発生の蓋然性が4と判別されている。図9のテーブルに従えば、例えば、移動体間の距離が1m〜3m以内であって(1ポイント)、移動方向の差が±30°〜±45°以内であって(1ポイント)、移動速度差が2.5m以上ある(2ポイント)あるような場合に相当する。
時刻07:22:09のフレームでは、事件発生の蓋然性が6と判別されている。図9のテーブルに従えば、例えば、移動体間の距離が1m以上であって(2ポイント)、移動方向の差が±30°以内であって(2ポイント)、移動速度差が2.5m以上ある(2ポイント)あるような場合に相当する。
なお、処理部20がフラグを付して映像を記録部12に記録する際、フラグを付したフレームの前後フレームを含む映像(対象映像)と対応付けて記録するのは実施形態1と同様である。
FIG. 10 is a diagram illustrating an example in which the probability of occurrence of an incident is assigned as identification information.
In the frame at time 07:00:15, the probability of occurrence of the incident is determined to be 4. According to the table of FIG. 9, for example, the distance between moving bodies is within 1 m to 3 m (1 point), and the difference in moving direction is within ± 30 ° to ± 45 ° (1 point). This corresponds to a case where the speed difference is 2.5 m or more (2 points).
In the frame at time 07:22:09, the probability of occurrence of the event is determined to be 6. According to the table of FIG. 9, for example, the distance between moving bodies is 1 m or more (2 points), the difference in moving direction is within ± 30 ° (2 points), and the moving speed difference is 2.5 m. This corresponds to the case where there are (2 points).
Note that when the processing unit 20 adds a flag and records the video in the
このように、処理部20は、複数の移動体間の位置の接近度と移動方向や移動速度の近似度に基づいて、事件の発生の蓋然性を判別することができ、監視者が事件の発生の可能性のある場面を効率的に探すことができる。 In this way, the processing unit 20 can determine the probability of occurrence of an incident based on the degree of proximity of the position between a plurality of moving objects and the degree of approximation of the moving direction and moving speed, and the supervisor can determine whether the incident has occurred. It is possible to efficiently search for a scene with the possibility of
図11は、このようにフラグを付した映像を記録部12から処理部20が読み出し、表示部11に表示させた際の表示例を示す図である。
表示部11にフレームの一覧LとウインドウWが表示され、フレーム一覧Lから選択されたフレームと対応付けられた対象映像がウインドウW上に表示されるのは実施形態1と同様であるが、本図に示すように、フレーム一覧Lにおいては、事件発生の蓋然性が高いフレームから順番にリスト表示される。
こうすることで、監視者は、事件発生の蓋然性の高い場面から映像を確認することができるため、犯罪捜査等をより効率的に行うことができる。
FIG. 11 is a diagram illustrating a display example when the processing unit 20 reads out the video with the flag in this way from the
Although the frame list L and the window W are displayed on the
By doing so, the observer can check the video from a scene with a high probability of occurrence of the incident, so that the criminal investigation and the like can be performed more efficiently.
<実施形態3>
実施形態1及び2に係る監視装置は、あるフレームにおける移動体間の位置と移動情報の相互関係に基づいて事故又は事件を検出していたが、実施形態3では、あるフレームにおける移動体間の位置と移動情報の相互関係に加え、後続のフレームでの移動体情報に基づいてさらに詳細な事故又は事件を検出する。
<
Although the monitoring device according to the first and second embodiments detects an accident or an incident based on the correlation between the position and movement information between moving bodies in a certain frame, in the third embodiment, the monitoring apparatus between the moving bodies in a certain frame In addition to the correlation between position and movement information, more detailed accidents or incidents are detected based on moving body information in subsequent frames.
図12は、実施形態3に係る処理部30の構成を示す図である。処理部30のフレーム表示処理(300)、移動体検知(301)、位置導出(302)、移動体情報導出(303)、位置と移動情報の比較(304)は、実施形態1に係る処理部10の表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報導出(103)、位置と移動情報の比較(104)と同様であるが、その後の処理が異なっている。
処理部30は、あるフレームについて、導出した複数の移動体の位置と移動情報(移動方向、移動速度)とを比較し(304)、比較した結果事故又は事故発生の可能性がある場合はさらに、続く複数フレームでの移動情報を導出し(305)、導出結果に応じて詳細な事故又は事件を検出する(306)。
FIG. 12 is a diagram illustrating a configuration of the processing unit 30 according to the third embodiment. The frame display process (300), the moving object detection (301), the position derivation (302), the moving object information derivation (303), and the comparison between the position and the movement information (304) of the processing unit 30 are the processing units according to the first embodiment. 10 display processing (100), moving object detection (101), position derivation (102), moving object information derivation (103), comparison of position and movement information (104), but the subsequent processing is different. Yes.
The processing unit 30 compares the derived positions of a plurality of moving objects and movement information (movement direction, movement speed) for a certain frame (304), and if there is a possibility that an accident or an accident occurs as a result of the comparison, Then, movement information in a plurality of subsequent frames is derived (305), and a detailed accident or incident is detected according to the derived result (306).
図13〜15は、事件又は事故の検出(304〜305)を説明するための図であり、二つの移動体a及び移動体bが検出された例を示している。 13-15 is a figure for demonstrating the detection (304-305) of an incident or an accident, and has shown the example in which the two mobile bodies a and the mobile bodies b were detected.
1.衝突事故の検出
図13に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、両移動体a及びbの移動速度が著しく0(ゼロ)に近くなった場合、移動体aと移動体bとが衝突事故を起こしたことを検出する(306)。例えば、N番目(Nは自然数)のフレームにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動速度を検出し、両移動体の移動速度が0に近くなった場合、N番目のフレームで衝突事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、衝突事故を起こしたのであれば、それまで移動していた移動体がともに停止する蓋然性が高いからである。
1. Detection of Collision Accident As shown in FIG. 13, first, if the position Pa of the moving body a and the position Pb of the moving body b are within a predetermined distance in a certain frame, there is a possibility that a collision accident has occurred in this frame. Yes (304). In this case, the positions and movement information of the moving bodies a and b are derived in the following frame in the same manner as 300 to 303 (305), and the moving speeds of both the moving bodies a and b are remarkably 0 (zero). If it is close to, it is detected that a collision accident has occurred between the moving body a and the moving body b (306). For example, when it is detected that a collision accident may have occurred in the Nth frame (N is a natural number), the moving speeds of both moving bodies are determined for the (N + 1) to (N + M) (M is a natural number) frames. If it is detected that the moving speeds of both moving bodies are close to 0, it is detected that a collision accident has occurred in the Nth frame, and a flag indicating that fact is set in the Nth frame (307).
The reason for this determination is that if a collision accident has occurred, there is a high probability that both moving bodies that have moved up to that point will stop.
2.轢き逃げ事故の検出
図14に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、移動体aの移動速度が著しく0(ゼロ)に近くなり、かつ、移動体bの移動速度が0以外である場合、移動体bが移動体a衝突した後逃走した(轢き逃げを起こした)を検出する(306)。例えば、N番目(Nは自然数)のフレーにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動速度を検出し、移動体aの移動速度が0に近くなって移動体bの移動速度が0以外である場合、N番目のフレームで轢き逃げ事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、轢き逃げ事故の場合、被害者はその場で重傷を受けるか死亡する等して動きが止まる一方、加害者はその場から立ち去る蓋然性が高いからである。
2. As shown in FIG. 14, when a position Pa of the moving body a and a position Pb of the moving body b are within a predetermined distance in a certain frame, there is a possibility that a collision accident has occurred in this frame. Yes (304). In this case, the positions and movement information of the moving body a and the moving body b are derived in the following frame in the same manner as 300 to 303 (305), and the moving speed of the moving body a becomes remarkably close to 0 (zero). If the moving speed of the moving body b is other than 0, it is detected that the moving body b has escaped after hitting the moving body a (whether it has run away) (306). For example, when it is detected that a collision accident may have occurred in an Nth frame (N is a natural number), the moving speeds of both moving bodies are set for (N + 1) to (N + M) (M is a natural number) frames. If the moving speed of the moving body “a” is close to 0 and the moving speed of the moving body “b” is other than 0, it is detected that an accident has occurred in the Nth frame, and this is indicated in the Nth frame. Is set (307).
The reason for this decision is that in the case of a whispering accident, the victim is severely injured on the spot or ceases to move, but the perpetrator is likely to leave the spot.
3.引きずり事故の検出
図15に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、移動体aの移動情報が無くなり、つまり移動体検知されなくなり、かつ、移動体bのみ移動情報が得られ移動速度が0以外である場合、移動体bが移動体a衝突した後移動体aを引きずったまま逃走していることを検出する(306)。例えば、N番目(Nは自然数)のフレーにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動情報を検出し、移動体aの移動情報が検出されず移動体bの移動速度が0以外である場合、N番目のフレームで引きずり事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、引きずり事故の場合、被害者はその場で加害者の車両に巻き込まれ引きずられることから、両移動体が一つとして検出される蓋然性が高いからである。
3. Detection of dragging accident As shown in FIG. 15, first, in a certain frame, when the position Pa of the moving body a and the position Pb of the moving body b are within a predetermined distance, there is a possibility that a collision accident has occurred in this frame. Yes (304). In this case, the positions and movement information of the moving object a and the moving object b are derived in the following frame in the same manner as 300 to 303 (305), and the moving information of the moving object a is lost, that is, the moving object is not detected. When the movement information is obtained only for the moving body b and the moving speed is other than 0, it is detected that the moving body b has escaped while dragging the moving body a after colliding with the moving body a (306). For example, when it is detected that a collision accident may have occurred in the Nth (N is a natural number) frame, the movement information of both moving bodies is obtained for the (N + 1) to (N + M) (M is a natural number) frames. If the movement information of the moving object a is not detected and the moving speed of the moving object b is other than 0, it is detected that a drag accident has occurred in the Nth frame, and this is indicated in the Nth frame. A flag is set (307).
The reason for this determination is that in the case of a dragging accident, the victim is caught in the vehicle of the perpetrator and dragged on the spot, so there is a high probability that both moving bodies are detected as one.
以上のように、処理部30は、あるフレームにおける移動体間の位置と移動情報の相互関係に加え、後続のフレームでの移動体情報に基づいてさらに詳細な事故又は事件を検出することができる。
なお、本実施形態においても、事故又は事件が発生した旨のフラグが立てられたフレームが記録部12において、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る対象映像と対応付けて記録されるのは実施形態1及び2と同様である。
<実施形態4>
実施形態1及び2に係る監視装置は、あるフレームにおける移動体間の位置と移動情報の相互関係に基づいて事故又は事件を検出していたが、実施形態3では、さらにフレーム内の事故又は事件が検出された場所に基づいて詳細な事故又は事件を検出する。
As described above, the processing unit 30 can detect a more detailed accident or incident based on the moving object information in the subsequent frame in addition to the correlation between the position and moving information between moving objects in a certain frame. .
Also in this embodiment, the frame in which the flag indicating that an accident or an incident has occurred is a frame adjacent to the frame in which the occurrence of the accident or incident is detected in the
<
Although the monitoring device according to the first and second embodiments detects an accident or an incident based on the correlation between the position of the moving body in a certain frame and the movement information, in the third embodiment, the accident or the incident in the frame is further detected. Detect detailed accidents or incidents based on the location where.
図16は、実施形態4に係る処理部40の構成を示す図である。処理部40のフレーム表示処理(400)、移動体検知(401)、位置導出(402)、移動体情報導出(403)、位置と移動情報の比較(404)は、実施形態1に係る処理部10の表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報導出(103)、位置と移動情報の比較(104)と同様であるが、その後の処理が異なっている。
処理部40は、あるフレームについて、導出した複数の移動体の位置と移動情報(移動方向、移動速度)とを比較し(404)、比較した結果事故又は事故発生の可能性がある場合はさらに、導出した移動体の位置の座標を比較し(405)、比較結果に基づいて事故又は事件の詳細を検出する(406)。
FIG. 16 is a diagram illustrating a configuration of the processing unit 40 according to the fourth embodiment. The frame display process (400), the moving object detection (401), the position derivation (402), the moving object information derivation (403), and the comparison between the position and the movement information (404) of the processing unit 40 are the processing units according to the first embodiment. 10 display processing (100), moving object detection (101), position derivation (102), moving object information derivation (103), comparison of position and movement information (104), but the subsequent processing is different. Yes.
The processing unit 40 compares the derived positions of a plurality of moving objects and movement information (movement direction, movement speed) for a certain frame (404), and if there is a possibility that an accident or an accident occurs as a result of the comparison, Then, the coordinates of the derived position of the moving body are compared (405), and the details of the accident or incident are detected based on the comparison result (406).
図17は、カメラ2が設置されている監視領域を含む実世界に相当する座標上でのマップを示している。マップの中で、破線で表しているのが監視領域内に存在する横断歩道に相当する領域である。移動体がこの領域内の座標で検出された場合、当該移動体は監視領域内では横断歩道を通行する歩行者である蓋然性が高い。逆に、この破線で示した領域外の座標で検出された移動体は、監視領域の中では、横断歩道以外の道路を(車道)を通行する車両である蓋然性が高い。
そこで、監視装置1は予め、監視領域内において歩行者が歩行しそうな場所に相当する領域(歩行領域)の実世界の座標を記憶しておく。記憶する場所は記録部12であってもよいし、ROMやRAM等の記憶手段を監視装置1に設けておいてそこに記憶しておいてもよい。
FIG. 17 shows a map on coordinates corresponding to the real world including the monitoring area where the
Therefore, the
処理部40は、複数の移動体の位置と移動情報を比較し(404)、互いの位置とが所定距離内にある場合、例えば事故の発生と判断し、さらに、このときの互いの位置座標と記憶された座標とを比較する(405)。比較の結果、記憶された座標に含まれる場合は、監視領域内での横断歩道で事故が発生した蓋然性が高いため、歩行者と車両とによる接触事故である蓋然性が高いと判断しこれを検出する(406)。一方、比較の結果、記憶された座標に含まれない場合は、監視領域内での車道で事故が発生した蓋然性が高いため、車両同士による接触事故である蓋然性が高いと判断しこれを検出する(406)。
処理部40は、検出結果に応じて、歩行者と車両による接触事故である旨のフラグもしくは車両同士による接触事故である旨のフラグをフレームに付与する(407)。
このように、事故又は事件の発生位置を監視領域と対応する実世界の座標上で判断することで、より詳細な事故又は事件の発生を検出することができる。
なお、本実施形態においても、事故又は事件が発生した旨のフラグが立てられたフレームが記録部12において、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る対象映像と対応付けて記録されるのは実施形態1〜3と同様である。
The processing unit 40 compares the position of the plurality of moving objects and the movement information (404), and determines that an accident has occurred, for example, if the positions are within a predetermined distance. Are compared with the stored coordinates (405). As a result of comparison, if it is included in the stored coordinates, it is highly likely that an accident occurred at a pedestrian crossing in the surveillance area, so it is judged that there is a high probability of a contact accident between a pedestrian and a vehicle, and this is detected. (406). On the other hand, if it is not included in the stored coordinates as a result of the comparison, it is highly probable that an accident has occurred on the roadway in the monitoring area, so it is determined that there is a high probability of a contact accident between vehicles, and this is detected. (406).
Based on the detection result, the processing unit 40 adds to the frame a flag indicating a contact accident between the pedestrian and the vehicle or a flag indicating a contact accident between the vehicles (407).
In this way, by determining the occurrence position of the accident or incident on the real-world coordinates corresponding to the monitoring area, it is possible to detect the occurrence of a more detailed accident or incident.
Also in this embodiment, the frame in which the flag indicating that an accident or an incident has occurred is a frame adjacent to the frame in which the occurrence of the accident or incident is detected in the
<補足>
以上、実施形態1〜4に基づき、監視装置について説明したが、本発明の監視装置の構成について以下の通り補足する。
1.処理部10〜40は、移動体の位置の位置の導出(102〜402)において、過去のフレームでの位置検出結果に基づき移動平均化した位置を導出するようにすれば、ごく一時的もしくは急峻は移動体の動きに敏感に反応しすぎることなく滑らかに位置を導出することができる。
2.処理部10〜40が移動体の検知(101〜401)を行う際、人物歩行像(シルエット)に着目した人物検出を利用してもよい。このような移動体検知については、例えば、特開2010−038835号公報に開示されている。
3.監視装置1は記録部12を備え、処理部10〜40は映像を記録部12に記録するようにしているがこれに限らない。例えば、監視装置1は、図18に示すように、発報部22を備え、処理部10〜40は、事故又は事件の検出(105、205、306、406)を行ったとき、発報部22に発報させるようにしてもよい。発報部22は例えば、アラーム等の警告音を放音させるドライバで、外部のスピーカに警告音を鳴動させることができるものであればよい。
4.監視装置1はカメラ2と接続され、処理部10〜40は、カメラ2の撮像映像に基づいて監視領域内の移動体を検出する(101〜401)ようにしているが、これに限らない。例えば、監視装置1は、図19に示すように、カメラの代わりに監視領域にレーザースキャナ(レーザーセンサ)3と接続し、処理部10〜40は、レーザースキャナ3のスキャン結果に基づいて移動体を検出するようにしてもよい。
レーザースキャナ3は、スキャン領域A内において一端から他端まで順次レーザー光を照射し、スキャン領域A内でレーザー光が物体に当たるのを検出する装置である。処理部10〜40は例えば、レーザースキャナ3が物体を検出した場合、これを移動体と検出し(101〜401)、スキャン領域Aに対応する実世界座標上での移動体の位置を導出する(102〜402)ようにすればよい。
このように構成した場合、上記補足3で説明したように、監視装置1には発報部を設け、処理部10〜40が事故又は事件の検出に応じて発報部から発報させるようにすればよい。
5.監視装置1とカメラ2とは便宜上、ネットワークを介して接続されている例を示したが、いわゆるインターネット網やLAN等の通信回線に限らない。同軸線などの有線接続手段や、Bluetooth(登録商標)や赤外線等の無線接続手段など、監視装置1とカメラ2間で信号のやり取りができる手段であればよい。上記補足で示したレーザースキャナ3との接続も同様である。
6.監視装置1がカメラ2とネットワークで接続されている例を示したが、監視装置1の一部又は全ての構成とカメラ2とは同じ筐体に格納し、カメラ2に監視装置1の機能の一部又は全部を実行させるようにしてもよい。例えば、図20(a)及び(b)に示すように、カメラ2に処理部10を備え、カメラ2側で事故又は事件の検出を行い、検出結果に応じて監視装置1が表示や記録を行うようにしてもよいし、カメラ2に処理部10、表示部11、記録部12を備え、カメラ2が完全に監視装置として機能するようにしてもよい。
また、図21に示すように、処理部の機能の一部をカメラ2に実行させ、残りの機能を監視装置1に実行させるようにしてもよい。図21で示す例では、処理部10の処理のうち移動体検知処理101をカメラ2が実行し、残りの機能を監視装置1が実行する例を示しているがこれに限定されない。
<Supplement>
As mentioned above, although the monitoring apparatus was demonstrated based on Embodiment 1-4, it supplements as follows about the structure of the monitoring apparatus of this invention.
1. In the derivation of the position of the moving object (102 to 402), the
2. When the
3. Although the
4). The
The
When configured in this way, as described in
5. For the sake of convenience, the
6). Although an example in which the
In addition, as shown in FIG. 21, some functions of the processing unit may be executed by the
<まとめ>
以上のように、本発明の実施形態に係る監視装置1は、監視領域内で発生した複数の移動体間の事故又は事件を検出することができる。
特に、複数の移動体間の位置、移動情報(移動方向差、移動速度差)に基づいて検出を行うため、移動体が事故又は事件を起こした場合の動きの類型をデータベース化しておく必要が無く、簡素な構成で監視装置1を構成することができる。
<Summary>
As described above, the
In particular, since the detection is performed based on the position and movement information (movement direction difference, movement speed difference) between a plurality of moving bodies, it is necessary to create a database of movement types when the moving body has caused an accident or incident. The
本発明の監視装置は、所定の監視領域内の移動体を監視する監視装置に広く適用することができる。 The monitoring apparatus of the present invention can be widely applied to a monitoring apparatus that monitors a moving body in a predetermined monitoring area.
1 監視装置
2 カメラ
3 レーザースキャナ
10 処理部
11 表示部
12 記録部
100、200、300、400 フレーム表示処理
101、201、301、401 移動体検知処理
102、202、302、402 位置導出処理
103、203、303、305、403 移動情報導出処理
104、204、304、404 位置・移動情報比較処理
105、306、406 事故・事件検出処理
106、206、307、407 フラグ付与処理
205 事件発生蓋然性検出処理
405 座標比較処理
DESCRIPTION OF
Claims (8)
前記移動体検出手段により検出された移動体の、前記監視領域と対応する座標上での位置を導出する位置導出手段と、
前記移動体検出手段により複数の移動体が検出され、前記位置導出手段により各移動体の位置が導出されたとき、当該各移動体の位置の相互関係に基づいて、前記複数の移動体間の所定の行動を検出する検出手段とを備える
監視装置。 A moving body detecting means for detecting a moving body within a predetermined monitoring area;
Position deriving means for deriving a position of the moving body detected by the moving body detecting means on coordinates corresponding to the monitoring area;
When the plurality of moving bodies are detected by the moving body detecting means and the position of each moving body is derived by the position deriving means, the position between the moving bodies is determined based on the mutual relationship between the positions of the respective moving bodies. A monitoring device comprising: detecting means for detecting a predetermined action.
前記移動体検出手段は、前記入力手段で入力された映像内の移動体を検出する
請求項1記載の監視装置。 It further comprises input means for inputting the video imaged by the camera that images the monitoring area,
The monitoring apparatus according to claim 1, wherein the moving body detection unit detects a moving body in an image input by the input unit.
前記検出手段は、前記位置導出手段により導出された前記複数の移動体の位置間の距離に基づき前記所定の行動を検出する
請求項2記載の監視装置。 The position deriving means derives the position of the moving body for each frame constituting the video,
The monitoring apparatus according to claim 2, wherein the detection unit detects the predetermined action based on a distance between positions of the plurality of moving bodies derived by the position deriving unit.
前記検出手段は、前記複数の移動体の位置の相互関係と前記移動情報とに基づいて前記所定の行動を検出する
請求項1記載の監視装置。 For each moving body, further comprising movement information deriving means for deriving at least one of the moving direction and moving speed of each moving body as movement information based on the position derived by the position deriving means,
The monitoring device according to claim 1, wherein the detection unit detects the predetermined action based on a mutual relationship between positions of the plurality of moving bodies and the movement information.
前記検出手段は、前記位置導出手段が導出した位置より決まる前記複数の移動体間の距離の接近度と、前記移動情報導出手段が導出した移動情報より決まる前記複数の移動体間の移動方向と移動速度との少なくとも一方の近似度とに基づいて、前記所定の行動が発生した蓋然性を異ならせて検出を行う
請求項1記載の監視装置。 For each moving body, further comprising movement information deriving means for deriving at least one of the moving direction and moving speed of each moving body as movement information based on the position derived by the position deriving means,
The detection means includes an approach degree of the distance between the plurality of moving bodies determined from the position derived by the position deriving means, and a moving direction between the plurality of moving bodies determined from the movement information derived by the movement information deriving means. The monitoring apparatus according to claim 1, wherein the detection is performed by changing the probability that the predetermined action has occurred based on at least one of the approximate degrees of movement speed.
前記位置導出手段は、映像を構成するフレーム毎に位置を導出し、
前記検出手段は、前記位置導出手段により導出された前記複数の移動体の位置の相互関係に基づき前記所定の行動を検出し、
前記映像記録手段は、前記検出手段により前記所定の行動が検出されたフレームにこれを識別する識別情報を付して映像を記録する
請求項2記載の監視装置。 Video recording means for recording video captured by the camera;
The position deriving means derives a position for each frame constituting the video;
The detecting means detects the predetermined action based on the mutual relationship between the positions of the plurality of moving bodies derived by the position deriving means,
The monitoring apparatus according to claim 2, wherein the video recording unit records video by adding identification information for identifying the frame in which the predetermined action is detected by the detection unit.
移動体検知手段は、前記監視領域内に移動体が現れたことで当該移動体の検知を開始し、当該移動体が前記監視領域から離れたことで当該移動体の検知を終了する際、当該開始から終了までを一の検知として識別し、
前記位置導出手段は、映像を構成するフレーム毎に位置を導出するものであって、前記移動体検知手段が一の検知を行っている間に導出した移動体の位置を一の位置群として識別し、
前記検出手段は、前記位置導出手段により導出された前記複数の移動体の位置の相互関係に基づき前記所定の行動を検出し、
前記映像記録手段は、前記検出手段により前記所定の行動が検出されたフレームと、当該フレームと隣接フレームとから成るものであって前記位置導出手段が一の位置群として識別している複数の位置が導出された複数のフレームとを対応付けて記録する
請求項2記載の監視装置。 Video recording means for recording video captured by the camera;
The moving body detection means starts detecting the moving body when the moving body appears in the monitoring area, and ends the detection of the moving body when the moving body leaves the monitoring area. Identify from start to end as one detection,
The position deriving means derives a position for each frame constituting the video, and identifies the position of the moving body derived while the moving body detecting means performs one detection as one position group. And
The detecting means detects the predetermined action based on the mutual relationship between the positions of the plurality of moving bodies derived by the position deriving means,
The video recording means is composed of a frame in which the predetermined action is detected by the detection means, and a plurality of positions identified by the position deriving means as one position group. The monitoring apparatus according to claim 2, wherein the plurality of frames from which the is derived are recorded in association with each other.
前記監視領域内の移動体を検出する移動体検出工程と、
前記移動体検出工程で検出された移動体の位置を導出する位置導出工程と、
前記移動体検出工程で複数の移動体が検出され、前記位置導出工程で各移動体の位置が導出されたとき、当該各移動体の位置の相互関係に基づいて前記複数の移動体間の所定の行動を検出する検出工程とを含む
プログラム。 A program for causing a computer to execute a process for monitoring a predetermined monitoring area, wherein the process includes:
A moving body detecting step of detecting a moving body in the monitoring region;
A position deriving step for deriving the position of the moving body detected in the moving body detecting step;
When a plurality of moving bodies are detected in the moving body detecting step and the position of each moving body is derived in the position deriving step, a predetermined value between the plurality of moving bodies is determined based on the mutual relationship between the positions of the moving bodies. And a detection process for detecting the behavior of the person.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010050577A JP5787485B2 (en) | 2010-03-08 | 2010-03-08 | Monitoring device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010050577A JP5787485B2 (en) | 2010-03-08 | 2010-03-08 | Monitoring device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011186727A true JP2011186727A (en) | 2011-09-22 |
JP5787485B2 JP5787485B2 (en) | 2015-09-30 |
Family
ID=44792923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010050577A Active JP5787485B2 (en) | 2010-03-08 | 2010-03-08 | Monitoring device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5787485B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014194686A (en) * | 2013-03-29 | 2014-10-09 | Denso Corp | Crime prevention system |
JP2015115955A (en) * | 2013-12-13 | 2015-06-22 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Video synopsis method and apparatus |
JP2017046125A (en) * | 2015-08-25 | 2017-03-02 | 東京海上日動火災保険株式会社 | Information processing technology relating to customer service when accident occurs |
WO2019082742A1 (en) * | 2017-10-25 | 2019-05-02 | 株式会社Ihi | Information generation device |
CN109952491A (en) * | 2016-11-14 | 2019-06-28 | 伟摩有限责任公司 | The object smoothly generated from sensing data using cartographic information |
JP2020149521A (en) * | 2019-03-15 | 2020-09-17 | オムロン株式会社 | Specific event occurrence detection device, specific event occurrence detection method, and specific event occurrence detection program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001229487A (en) * | 2000-02-15 | 2001-08-24 | Minolta Co Ltd | Traffic monitor device |
WO2002021441A1 (en) * | 2000-09-06 | 2002-03-14 | Hitachi, Ltd. | Abnormal behavior detector |
JP2007300556A (en) * | 2006-05-02 | 2007-11-15 | Canon Inc | Moving image processor, and moving image processing method |
JP2009238152A (en) * | 2008-03-28 | 2009-10-15 | Brother Ind Ltd | Authority management system of operation equipment |
JP2011091705A (en) * | 2009-10-23 | 2011-05-06 | Canon Inc | Image processing apparatus, and image processing method |
-
2010
- 2010-03-08 JP JP2010050577A patent/JP5787485B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001229487A (en) * | 2000-02-15 | 2001-08-24 | Minolta Co Ltd | Traffic monitor device |
WO2002021441A1 (en) * | 2000-09-06 | 2002-03-14 | Hitachi, Ltd. | Abnormal behavior detector |
JP2007300556A (en) * | 2006-05-02 | 2007-11-15 | Canon Inc | Moving image processor, and moving image processing method |
JP2009238152A (en) * | 2008-03-28 | 2009-10-15 | Brother Ind Ltd | Authority management system of operation equipment |
JP2011091705A (en) * | 2009-10-23 | 2011-05-06 | Canon Inc | Image processing apparatus, and image processing method |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014194686A (en) * | 2013-03-29 | 2014-10-09 | Denso Corp | Crime prevention system |
JP2015115955A (en) * | 2013-12-13 | 2015-06-22 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Video synopsis method and apparatus |
US9454701B2 (en) | 2013-12-13 | 2016-09-27 | Huawei Technologies Co., Ltd. | Video synopsis method and apparatus |
JP2017046125A (en) * | 2015-08-25 | 2017-03-02 | 東京海上日動火災保険株式会社 | Information processing technology relating to customer service when accident occurs |
CN109952491A (en) * | 2016-11-14 | 2019-06-28 | 伟摩有限责任公司 | The object smoothly generated from sensing data using cartographic information |
JP2019079296A (en) * | 2017-10-25 | 2019-05-23 | 株式会社Ihi | Information generating device |
WO2019082742A1 (en) * | 2017-10-25 | 2019-05-02 | 株式会社Ihi | Information generation device |
CN111247574A (en) * | 2017-10-25 | 2020-06-05 | 株式会社Ihi | Information generating apparatus |
EP3703025A4 (en) * | 2017-10-25 | 2021-08-04 | IHI Corporation | Information generation device |
JP7043785B2 (en) | 2017-10-25 | 2022-03-30 | 株式会社Ihi | Information generator |
US11934746B2 (en) | 2017-10-25 | 2024-03-19 | Ihi Corporation | Information generation device |
JP2020149521A (en) * | 2019-03-15 | 2020-09-17 | オムロン株式会社 | Specific event occurrence detection device, specific event occurrence detection method, and specific event occurrence detection program |
JP7115373B2 (en) | 2019-03-15 | 2022-08-09 | オムロン株式会社 | Specific event occurrence detection device, specific event occurrence detection method, and specific event occurrence detection program |
Also Published As
Publication number | Publication date |
---|---|
JP5787485B2 (en) | 2015-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5787485B2 (en) | Monitoring device and program | |
JP6551512B2 (en) | Monitoring system, monitoring control device, monitoring method, and program | |
US9792434B1 (en) | Systems and methods for security data analysis and display | |
US9672440B2 (en) | Damage recognition assist system | |
JP5284599B2 (en) | Image processing device | |
JP7070683B2 (en) | Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, program | |
US20090128632A1 (en) | Camera and image processor | |
JP5743849B2 (en) | Video analysis apparatus and system | |
KR20210053534A (en) | Apparatus for Performing Recognition of Activity Based on Deep Learning and Driving Method Thereof | |
KR20140004291A (en) | Forward collision warning system and forward collision warning method | |
KR100916960B1 (en) | Monitoring system in railway station | |
JP2010220042A (en) | Video confirmation apparatus, method thereof and program | |
JP4852355B2 (en) | Abandoned object detection device and abandoned object detection method | |
JP2012128561A (en) | Abnormal vehicle detection device | |
JP7128577B2 (en) | monitoring device | |
JP2012243128A (en) | Monitoring device, monitoring method and monitoring program | |
CN110544312A (en) | Video display method and device in virtual scene, electronic equipment and storage device | |
JP2018148402A (en) | Image monitoring device and image monitoring method | |
CN104050785A (en) | Safety alert method based on virtualized boundary and face recognition technology | |
KR102438433B1 (en) | Control system capable of 3d visualization based on data and the method thereof | |
JP6405606B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2010238187A (en) | Security system and security method | |
JP2012222685A (en) | Detection system for abandoned or removed object | |
JP6648923B2 (en) | Control device, control method, and program | |
JP6570906B2 (en) | Monitoring system and monitoring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120523 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150721 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5787485 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |