JP5787485B2 - 監視装置、及びプログラム - Google Patents
監視装置、及びプログラム Download PDFInfo
- Publication number
- JP5787485B2 JP5787485B2 JP2010050577A JP2010050577A JP5787485B2 JP 5787485 B2 JP5787485 B2 JP 5787485B2 JP 2010050577 A JP2010050577 A JP 2010050577A JP 2010050577 A JP2010050577 A JP 2010050577A JP 5787485 B2 JP5787485 B2 JP 5787485B2
- Authority
- JP
- Japan
- Prior art keywords
- moving
- frame
- accident
- bodies
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 31
- 238000012544 monitoring process Methods 0.000 claims description 68
- 238000001514 detection method Methods 0.000 claims description 43
- 230000009471 action Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 description 85
- 238000010586 diagram Methods 0.000 description 28
- 238000000034 method Methods 0.000 description 22
- 238000009795 derivation Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 12
- 239000013589 supplement Substances 0.000 description 8
- 238000013459 approach Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Traffic Control Systems (AREA)
Description
このような監視システムは、所定の場所(監視領域)を撮像するよう設置されたカメラと、このカメラと回線等で接続された監視装置を含んで構成される。監視装置は、一般的にはパーソナルコンピュータやワークステーション等のコンピュータや、ビデオモニターによって実現される。
このような監視システムによれば、監視者は、監視装置を通じて監視領域の映像を確認することができる。
このような従来の監視装置の一例として、特許文献1〜2に記載のものがある。
実施形態1に係る監視装置は、カメラの映像から監視領域内の複数の移動体を検知し、複数の移動体の位置や移動情報の相互関係に基づいて事故や事件の発生の可能性を検出し、この検出結果を反映して映像を記録媒体に記録する。
ここで、処理部10が連続したフレームに渡って移動体検知を行う際、あるフレームで移動体検知を開始すると、検知されたこの移動体の検知が終了するまで、一の検知として識別する。例えば、移動体aが監視領域に入ってきたことにより、N番目のフレーム(Nは自然数)で移動体aの検知を開始し、(N+100)番目のフレームまで移動体aの検知が続いた場合、N〜(N+100)フレームに渡っての移動体aの検知をひとまとまりとして一の検知とする。具体的にはひとまとまりの検知にIDなどの識別情報を付せばよい。
同様に、処理部10が連続したフレームに渡って移動体の位置の導出を行う際、移動体の検知時にひとまとりとして一の検知として識別された複数フレームにおける移動体の位置をひとまとまりとして位置群として識別する。例えば、上記の通りN〜(N+100)フレームに渡っての移動体aの検知がひとまりとして識別されていれば、N〜(N+100)フレームに渡っての移動体aの連続した位置を位置群として識別する。具体的にはひとまとりの位置群にIDなどの識別情報を付せばよい。
なお、移動体検知手法はフレーム間での輝度変化に基づく方法等種々の方法があるが公知なので詳述はしない。同様に、キャリブレーション手法も射影変換法等種々の方法があるが公知なので詳述はしない。これらの手法は、本願出願人が先に出願し公開されている以下の特許公開公報内にも記載がある。
・特開2004−110280号公報
・特開2005−003377号公報
・特開2006−245795号公報
・特開2009−210331号公報
マップMは、カメラ2が設置されている監視領域を含む実世界に相当する座標上でのマップであり、カメラ2の監視領域がSで示されている。ここで、処理部10が導出した現フレームにおける移動体aの位置Paと、移動体bの位置Pbとをプロットして示している。また、移動体aと移動体bの位置の履歴を可視化するために、過去の複数フレームにおいて導出された移動体aの位置を結ぶことで移動履歴Haを作成し、同様に移動体bの位置を結ぶことで移動履歴Hbを作成する。また、例えば、移動情報として導出(103)した移動体aとbの移動方向を矢印で示し、移動体aとbの移動速度を数値で示している。
なお、本図では、移動体aとbとはともにほぼ同じ方向(図面上で上方向)に向かって移動しており、それぞれ2m/sと3m/sで移動していることを示している。
なお、処理部10は、記録部12に記録された映像を読み出し、表示部11に表示させることができる。
図4(a)に示すように、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが互いに所定の距離以上離間している場合、移動体aと移動体bのいずれも他方に対して危害を加えるような事故や事件は起こしていないとして、事故や事件の検知は行われない。
図4(b)に示すように、移動体aの位置Paと移動体bのPbとが所定距離以内であって、移動体a移動方向と移動体bの移動方向とが異なる方向にある場合、事故の検知を行う。これは移動体aと移動体bとが接近し衝突する事故が発生した可能性があるからである。
図4(c)に示すように、移動体aの位置Paと移動体bの位置Pbとが所定距離以内であって、かつ、移動体aと移動体bとが同じ移動方向にあり、さらに移動体aと移動体bとの間で移動速度に所定以上の差がある場合、事件の検知を行う。これは、移動速度が速い一方が遅い他方に対する「ひったくり」事件が発生した可能性があるからである。
処理部10は、複数の移動体が検知されると、移動体間の距離が所定の距離以内であるか否かを判断する(S10)。
移動体間の距離が所定の距離以上離間していれば(S10:N)、事故や事件の検出は行わない。所定の距離以内であれば(S10:Y)、処理部10はさらに両移動体の移動方向を判断する(S11)。
両移動体の移動方向が異なっていれば(S11:N)、処理部10は移動体同士の衝突の可能性があるとして事故を検出する(S12)。
両移動体の移動方向がほぼ同じであれば(S11:Y)、処理部10はさらに両移動体の移動速度差を判断する(S13)。
両移動体の移動速度に所定以上の差がなければ(S13:N)、処理部10は事故や事件を検出しないが、所定以上の差があれば(S13:Y)、速い方の移動体が遅い方の移動体に対してひったくりを仕掛けた可能性があるとして事件を検出する(S14)。
例えば、本図において、2010年02月15日の07:00:15のフレームにおいて衝突発生が検知されたフレームは、一の位置群として識別されている07:00:02〜07:01:18間の複数フレームから成る映像と対応付けられている。
なお、本図では、事故(衝突)の可能性を示すフラグを1として、事件(ひったくり)の可能性を示すフラグを2としている。
図7は、記録部12に記録された映像を処理部10が読み出し、表示部11に表示させた際の表示例を示す図である。
表示部11には、事故や事件のフラグが立てられたフレームの一覧Lが表示され、その隣に映像を表示するウインドウWが表示されている。
フラグが立てられたフレームが一覧表示されるため、監視者は映像を始めから最後まで見なくても、事故や事件が発生した可能性のある映像箇所を素早く見つけることができる。
監視者がフレーム一覧Lから所望のフレームを選択する操作を行うと、処理部10は、この選択操作に応答して、選択されたフレームを含む対象映像を記録部12から読み出し再生し、ウインドウWに表示させる。
こうすることで、監視者が事故や事件が発生した可能性のある所望のフレームを選択すると、この所望のフレームに含まれる移動体(事故や事件の原因となったであろう移動体)が監視領域内でどのような挙動をしたのかを表示でき、監視者が事故や事件の解明を素早く行うことができる。すなわち、対象映像は、事故や事件が発生に起因した移動体が監視領域に現れてから消えるまでの間の映像であるため、監視者は事故や事件が発生した状況を確認することができる。
実施形態1に係る監視装置では、複数の移動体の位置と移動情報とに基づき事故又は事件の発生を判別しているが、実施形態2では、位置と移動情報とに基づき事件の発生の蓋然性の高さを判別する。
フレーム表示処理(200)、移動体検知(201)、位置導出(202)、移動体情報の導出(203)、位置と移動情報の比較(204)は、実施形態1に係る処理部10が実行するフレーム表示処理(100)、移動体検知(101)、位置導出(102)、移動体情報の導出(103)、位置と移動情報の比較(104)と同様である。
図9に示すように、処理部20は、接近度と近似度とに基づきポイントを付与し、総合的なポイントの高さに応じて事件の発生の蓋然性の高さを判別する。
図9に示す例では、複数の移動体間の距離の近似度について、互いに1m以内であれば2ポイント、1m〜3m以内であれば1ポイント、3m以上であれば0ポイント付与する。また、複数の移動体間の移動方向の近似度について、互いに±30°以内であれば2ポイント、±30°〜±45°以内であれば1ポイント、±45°以上であれば0ポイントを付与する。また、複数の移動体間の移動速度の近似度については、互いに2.5m/h以上であれば2ポイント、2.5m/h未満であれば1ポイントを付与する。
ポイント付与後、処理部20は、例えば、距離の接近度と移動方向の近似度のいずれか一方に0ポイントがある場合には蓋然性を0(ゼロ)とし事件発生とは判別せず、いずれか一方に0ポイントが無い場合は全てのポイントの合計を蓋然性の高さとする。処理部20は、このように事件発生の蓋然性が導出されたフレームについて、蓋然性の高低を識別情報(フラグ)として付与し(206)、映像を記録部12に記録する。
時刻07:00:15のフレームでは、事件発生の蓋然性が4と判別されている。図9のテーブルに従えば、例えば、移動体間の距離が1m〜3m以内であって(1ポイント)、移動方向の差が±30°〜±45°以内であって(1ポイント)、移動速度差が2.5m以上ある(2ポイント)あるような場合に相当する。
時刻07:22:09のフレームでは、事件発生の蓋然性が6と判別されている。図9のテーブルに従えば、例えば、移動体間の距離が1m以上であって(2ポイント)、移動方向の差が±30°以内であって(2ポイント)、移動速度差が2.5m以上ある(2ポイント)あるような場合に相当する。
なお、処理部20がフラグを付して映像を記録部12に記録する際、フラグを付したフレームの前後フレームを含む映像(対象映像)と対応付けて記録するのは実施形態1と同様である。
表示部11にフレームの一覧LとウインドウWが表示され、フレーム一覧Lから選択されたフレームと対応付けられた対象映像がウインドウW上に表示されるのは実施形態1と同様であるが、本図に示すように、フレーム一覧Lにおいては、事件発生の蓋然性が高いフレームから順番にリスト表示される。
こうすることで、監視者は、事件発生の蓋然性の高い場面から映像を確認することができるため、犯罪捜査等をより効率的に行うことができる。
実施形態1及び2に係る監視装置は、あるフレームにおける移動体間の位置と移動情報の相互関係に基づいて事故又は事件を検出していたが、実施形態3では、あるフレームにおける移動体間の位置と移動情報の相互関係に加え、後続のフレームでの移動体情報に基づいてさらに詳細な事故又は事件を検出する。
処理部30は、あるフレームについて、導出した複数の移動体の位置と移動情報(移動方向、移動速度)とを比較し(304)、比較した結果事故又は事故発生の可能性がある場合はさらに、続く複数フレームでの移動情報を導出し(305)、導出結果に応じて詳細な事故又は事件を検出する(306)。
図13に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、両移動体a及びbの移動速度が著しく0(ゼロ)に近くなった場合、移動体aと移動体bとが衝突事故を起こしたことを検出する(306)。例えば、N番目(Nは自然数)のフレームにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動速度を検出し、両移動体の移動速度が0に近くなった場合、N番目のフレームで衝突事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、衝突事故を起こしたのであれば、それまで移動していた移動体がともに停止する蓋然性が高いからである。
図14に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、移動体aの移動速度が著しく0(ゼロ)に近くなり、かつ、移動体bの移動速度が0以外である場合、移動体bが移動体a衝突した後逃走した(轢き逃げを起こした)を検出する(306)。例えば、N番目(Nは自然数)のフレーにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動速度を検出し、移動体aの移動速度が0に近くなって移動体bの移動速度が0以外である場合、N番目のフレームで轢き逃げ事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、轢き逃げ事故の場合、被害者はその場で重傷を受けるか死亡する等して動きが止まる一方、加害者はその場から立ち去る蓋然性が高いからである。
図15に示すように、まず、あるフレームにおいて、移動体aの位置Paと移動体bの位置Pbとが所定距離以内である場合、このフレームで衝突事故が発生した可能性がある(304)。この場合、300〜303と同様の要領でさらに続くフレームで移動体aと移動体bの位置と移動情報とを導出し(305)、移動体aの移動情報が無くなり、つまり移動体検知されなくなり、かつ、移動体bのみ移動情報が得られ移動速度が0以外である場合、移動体bが移動体a衝突した後移動体aを引きずったまま逃走していることを検出する(306)。例えば、N番目(Nは自然数)のフレーにおいて、衝突事故を起こした可能性があることを検出すると、(N+1)〜(N+M)(Mは自然数)番目のフレームについて両移動体の移動情報を検出し、移動体aの移動情報が検出されず移動体bの移動速度が0以外である場合、N番目のフレームで引きずり事故が発生したことを検出し、N番目のフレームにその旨を示すフラグを立てる(307)。
このように判断するのは、引きずり事故の場合、被害者はその場で加害者の車両に巻き込まれ引きずられることから、両移動体が一つとして検出される蓋然性が高いからである。
なお、本実施形態においても、事故又は事件が発生した旨のフラグが立てられたフレームが記録部12において、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る対象映像と対応付けて記録されるのは実施形態1及び2と同様である。
<実施形態4>
実施形態1及び2に係る監視装置は、あるフレームにおける移動体間の位置と移動情報の相互関係に基づいて事故又は事件を検出していたが、実施形態3では、さらにフレーム内の事故又は事件が検出された場所に基づいて詳細な事故又は事件を検出する。
処理部40は、あるフレームについて、導出した複数の移動体の位置と移動情報(移動方向、移動速度)とを比較し(404)、比較した結果事故又は事故発生の可能性がある場合はさらに、導出した移動体の位置の座標を比較し(405)、比較結果に基づいて事故又は事件の詳細を検出する(406)。
そこで、監視装置1は予め、監視領域内において歩行者が歩行しそうな場所に相当する領域(歩行領域)の実世界の座標を記憶しておく。記憶する場所は記録部12であってもよいし、ROMやRAM等の記憶手段を監視装置1に設けておいてそこに記憶しておいてもよい。
処理部40は、検出結果に応じて、歩行者と車両による接触事故である旨のフラグもしくは車両同士による接触事故である旨のフラグをフレームに付与する(407)。
このように、事故又は事件の発生位置を監視領域と対応する実世界の座標上で判断することで、より詳細な事故又は事件の発生を検出することができる。
なお、本実施形態においても、事故又は事件が発生した旨のフラグが立てられたフレームが記録部12において、事故や事件の発生が検出されたフレームと隣接フレームであって移動情報が導出された複数のフレームから成る対象映像と対応付けて記録されるのは実施形態1〜3と同様である。
以上、実施形態1〜4に基づき、監視装置について説明したが、本発明の監視装置の構成について以下の通り補足する。
1.処理部10〜40は、移動体の位置の位置の導出(102〜402)において、過去のフレームでの位置検出結果に基づき移動平均化した位置を導出するようにすれば、ごく一時的もしくは急峻は移動体の動きに敏感に反応しすぎることなく滑らかに位置を導出することができる。
2.処理部10〜40が移動体の検知(101〜401)を行う際、人物歩行像(シルエット)に着目した人物検出を利用してもよい。このような移動体検知については、例えば、特開2010−038835号公報に開示されている。
3.監視装置1は記録部12を備え、処理部10〜40は映像を記録部12に記録するようにしているがこれに限らない。例えば、監視装置1は、図18に示すように、発報部22を備え、処理部10〜40は、事故又は事件の検出(105、205、306、406)を行ったとき、発報部22に発報させるようにしてもよい。発報部22は例えば、アラーム等の警告音を放音させるドライバで、外部のスピーカに警告音を鳴動させることができるものであればよい。
4.監視装置1はカメラ2と接続され、処理部10〜40は、カメラ2の撮像映像に基づいて監視領域内の移動体を検出する(101〜401)ようにしているが、これに限らない。例えば、監視装置1は、図19に示すように、カメラの代わりに監視領域にレーザースキャナ(レーザーセンサ)3と接続し、処理部10〜40は、レーザースキャナ3のスキャン結果に基づいて移動体を検出するようにしてもよい。
レーザースキャナ3は、スキャン領域A内において一端から他端まで順次レーザー光を照射し、スキャン領域A内でレーザー光が物体に当たるのを検出する装置である。処理部10〜40は例えば、レーザースキャナ3が物体を検出した場合、これを移動体と検出し(101〜401)、スキャン領域Aに対応する実世界座標上での移動体の位置を導出する(102〜402)ようにすればよい。
このように構成した場合、上記補足3で説明したように、監視装置1には発報部を設け、処理部10〜40が事故又は事件の検出に応じて発報部から発報させるようにすればよい。
5.監視装置1とカメラ2とは便宜上、ネットワークを介して接続されている例を示したが、いわゆるインターネット網やLAN等の通信回線に限らない。同軸線などの有線接続手段や、Bluetooth(登録商標)や赤外線等の無線接続手段など、監視装置1とカメラ2間で信号のやり取りができる手段であればよい。上記補足で示したレーザースキャナ3との接続も同様である。
6.監視装置1がカメラ2とネットワークで接続されている例を示したが、監視装置1の一部又は全ての構成とカメラ2とは同じ筐体に格納し、カメラ2に監視装置1の機能の一部又は全部を実行させるようにしてもよい。例えば、図20(a)及び(b)に示すように、カメラ2に処理部10を備え、カメラ2側で事故又は事件の検出を行い、検出結果に応じて監視装置1が表示や記録を行うようにしてもよいし、カメラ2に処理部10、表示部11、記録部12を備え、カメラ2が完全に監視装置として機能するようにしてもよい。
また、図21に示すように、処理部の機能の一部をカメラ2に実行させ、残りの機能を監視装置1に実行させるようにしてもよい。図21で示す例では、処理部10の処理のうち移動体検知処理101をカメラ2が実行し、残りの機能を監視装置1が実行する例を示しているがこれに限定されない。
以上のように、本発明の実施形態に係る監視装置1は、監視領域内で発生した複数の移動体間の事故又は事件を検出することができる。
特に、複数の移動体間の位置、移動情報(移動方向差、移動速度差)に基づいて検出を行うため、移動体が事故又は事件を起こした場合の動きの類型をデータベース化しておく必要が無く、簡素な構成で監視装置1を構成することができる。
2 カメラ
3 レーザースキャナ
10 処理部
11 表示部
12 記録部
100、200、300、400 フレーム表示処理
101、201、301、401 移動体検知処理
102、202、302、402 位置導出処理
103、203、303、305、403 移動情報導出処理
104、204、304、404 位置・移動情報比較処理
105、306、406 事故・事件検出処理
106、206、307、407 フラグ付与処理
205 事件発生蓋然性検出処理
405 座標比較処理
Claims (2)
- 所定の監視領域内を撮像するカメラが撮像した、複数のフレームから構成される映像に基づき、当該映像内の移動体を検出する移動体検出手段と、
前記移動体検出手段により検出された移動体の、前記監視領域と対応する座標上での位置をフレーム毎に導出する位置導出手段と、
各移動体について、前記位置導出手段が導出した位置に基づき、少なくとも各移動体の移動方向及び移動速度を移動情報として導出する移動情報導出手段と、
前記移動体検出手段により複数の移動体が検出され、前記位置導出手段により各移動体の位置が導出されたとき、当該各移動体の位置の相互関係と当該各移動体の移動情報とに基づいて、前記複数の移動体間の所定の行動を検出する検出手段とを備え、
前記検出手段は、(a)前記複数の移動体間の距離が所定範囲以内にあり且つ前記複数の移動体の移動方向が実質的に同じであってさらに前記複数の移動体間で移動速度に所定以上の差がある場合は、当該複数の移動体間の第1の行動であるとの検出であって当該検出時点のフレームと対応付けて読み出し可能に記録されるフラグとして前記第1の行動であるとの検出を行い、(b)前記複数の移動体間の距離が前記所定範囲以内にあり且つ前記複数の移動体の移動方向が実質的に異なる場合は、前記第1の行動とは異なる当該複数の移動体間の第2の行動であるとの検出であって当該検出時点のフレームと対応付けて読み出し可能に記録されるフラグとして前記第2の行動であるとの検出を行い、(c)前記複数の移動体間の距離が前記所定範囲内にない場合、及び前記複数の移動体間の距離が前記所定範囲内にあり且つ前記複数の移動体の移動方向が実質的に同じであるが前記複数の移動体間の移動速度に前記所定以上の差がない場合は前記第1の行動及び第2の行動のいずれもの検出を行わない監視装置。 - コンピュータを、請求項1に記載の監視装置の前記各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010050577A JP5787485B2 (ja) | 2010-03-08 | 2010-03-08 | 監視装置、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010050577A JP5787485B2 (ja) | 2010-03-08 | 2010-03-08 | 監視装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011186727A JP2011186727A (ja) | 2011-09-22 |
JP5787485B2 true JP5787485B2 (ja) | 2015-09-30 |
Family
ID=44792923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010050577A Active JP5787485B2 (ja) | 2010-03-08 | 2010-03-08 | 監視装置、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5787485B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018089435A3 (en) * | 2016-11-14 | 2018-06-28 | Waymo Llc | Using map information to smooth objects generated from sensor data |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6110183B2 (ja) * | 2013-03-29 | 2017-04-05 | 株式会社デンソー | 防犯システム |
CN104717457B (zh) * | 2013-12-13 | 2018-05-18 | 华为技术有限公司 | 一种视频浓缩方法及装置 |
JP6595842B2 (ja) * | 2015-08-25 | 2019-10-23 | 東京海上日動火災保険株式会社 | 事故発生時における顧客サービスに関連する情報処理技術 |
JP7043785B2 (ja) * | 2017-10-25 | 2022-03-30 | 株式会社Ihi | 情報生成装置 |
JP7115373B2 (ja) * | 2019-03-15 | 2022-08-09 | オムロン株式会社 | 特定事象発生検知装置、特定事象発生検知方法、および特定事象発生検知プログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001229487A (ja) * | 2000-02-15 | 2001-08-24 | Minolta Co Ltd | 交通監視装置 |
WO2002021441A1 (fr) * | 2000-09-06 | 2002-03-14 | Hitachi, Ltd. | Detecteur de comportement anormal |
JP4926533B2 (ja) * | 2006-05-02 | 2012-05-09 | キヤノン株式会社 | 動画像処理装置、動画像処理方法及びプログラム |
JP5077687B2 (ja) * | 2008-03-28 | 2012-11-21 | ブラザー工業株式会社 | 動作機器の権限管理システム |
JP5709367B2 (ja) * | 2009-10-23 | 2015-04-30 | キヤノン株式会社 | 画像処理装置、および画像処理方法 |
-
2010
- 2010-03-08 JP JP2010050577A patent/JP5787485B2/ja active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018089435A3 (en) * | 2016-11-14 | 2018-06-28 | Waymo Llc | Using map information to smooth objects generated from sensor data |
KR20190067851A (ko) * | 2016-11-14 | 2019-06-17 | 웨이모 엘엘씨 | 센서 데이터로부터 생성된 물체를 평활화하기 위한 맵 정보의 이용 |
KR102210140B1 (ko) | 2016-11-14 | 2021-02-02 | 웨이모 엘엘씨 | 센서 데이터로부터 생성된 물체를 평활화하기 위한 맵 정보의 이용 |
US11112237B2 (en) | 2016-11-14 | 2021-09-07 | Waymo Llc | Using map information to smooth objects generated from sensor data |
EP3839438A3 (en) * | 2016-11-14 | 2021-10-20 | Waymo Llc | Using map information to smooth objects generated from sensor data |
Also Published As
Publication number | Publication date |
---|---|
JP2011186727A (ja) | 2011-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5787485B2 (ja) | 監視装置、及びプログラム | |
EP3026880B1 (en) | Damage recognition assist system | |
JP6551512B2 (ja) | 監視システム、監視制御装置、監視方法、およびプログラム | |
US9792434B1 (en) | Systems and methods for security data analysis and display | |
JP7070683B2 (ja) | 劣化診断装置、劣化診断システム、劣化診断方法、プログラム | |
US11019268B2 (en) | Video surveillance system and video surveillance method | |
JP5284599B2 (ja) | 画像処理装置 | |
US20090128632A1 (en) | Camera and image processor | |
KR20210053534A (ko) | 딥러닝기반 행동인식장치 및 그 장치의 구동방법 | |
KR100916960B1 (ko) | 승강장 모니터링 시스템 | |
CN106341661A (zh) | 巡逻机器人 | |
JP4852355B2 (ja) | 放置物検出装置及び放置物検出方法 | |
JP2010220042A (ja) | 映像確認装置、その方法、及びプログラム | |
JP2019135653A (ja) | 監視システム、監視方法および監視プログラム | |
KR102514660B1 (ko) | 보차혼용도로에서의 보행자 사고 방지 방법 및 시스템 | |
JP7128577B2 (ja) | 監視装置 | |
JP2012128561A (ja) | 異常車両検出装置 | |
CN110544312A (zh) | 虚拟场景中的视频显示方法、装置、电子设备与存储装置 | |
KR102438433B1 (ko) | 데이터 기반의 3d 시각화가 가능한 관제 시스템 및 방법 | |
CN104050785A (zh) | 基于虚拟化边界与人脸识别技术的安全警戒方法 | |
JP2024009906A (ja) | 監視装置、監視方法、およびプログラム | |
JP6405606B2 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP6570906B2 (ja) | 監視システム及び監視方法 | |
JP2013161281A (ja) | 交通画像取得装置、交通画像取得方法および交通画像取得プログラム | |
KR20170102403A (ko) | 차량용 빅데이터 처리방법 및 차량용 빅데이터 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120523 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150721 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5787485 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |