JP2023157034A - 監視システム及び監視方法 - Google Patents

監視システム及び監視方法 Download PDF

Info

Publication number
JP2023157034A
JP2023157034A JP2022066666A JP2022066666A JP2023157034A JP 2023157034 A JP2023157034 A JP 2023157034A JP 2022066666 A JP2022066666 A JP 2022066666A JP 2022066666 A JP2022066666 A JP 2022066666A JP 2023157034 A JP2023157034 A JP 2023157034A
Authority
JP
Japan
Prior art keywords
sensor
point cloud
image
monitoring system
cloud information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022066666A
Other languages
English (en)
Inventor
雅史 保谷
Masafumi Hoya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2022066666A priority Critical patent/JP2023157034A/ja
Publication of JP2023157034A publication Critical patent/JP2023157034A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】距離や形状を検知できるセンサを用いながらユーザのより的確な状況判断を可能とする監視システム及び監視方法を提供することを目的とする。【解決手段】距離と形状を検知できるセンサと、前記センサからの点群情報を取得し検知物体をあらかじめ定めた種別に識別する処理を行う識別処理手段と、前記識別処理手段により特定した検知物体の種別に対応した画像又はアニメーションを選択して前記検知物体の点群情報に対応する位置に重畳する処理を行う重畳処理手段とを備える。【選択図】図4

Description

本発明は、監視システム及び監視方法に関し、特に、距離や形状を検知できるセンサを用いた監視システム及び監視方法に関する。
対象物までの距離や形状を検知できるセンサとしてLiDARセンサが存在する。LiDARセンサは、一般的に可視カメラでは物体を認識することは難しい夜間など著しく照度が低い環境下においても物体を認識することが可能である。LiDARセンサは、物体の点群情報を取得し、その点群情報から物体を認識することが可能である。この場合、可視カメラと連携することができる。例えば、LiDARセンサで検知した被写体に対して可視カメラの向きを制御する処理を行うことで、LiDARで取得した点群情報に対して可視カメラの情報を確認できる。可視カメラが無ければ点群情報に基づき解析した文字などによる情報通知のみとなる。
また、特許文献1には、検知空間を含む撮影範囲について奥行き情報を含む距離画像を生成する距離画像センサ部と、検知空間内の所定の検知面に関して3次元空間上の空間位置情報を記憶する検知面設定部と、距離画像を、検知面の空間位置情報に基づいて選別することによって、「前記検知面から進入する検知対象」を検知する空間検知部と、空間検知部において検知された検知対象について検知情報を出力する出力部とを備えた空間検知システムが開示されている。
国際公開第2021/059385号
しかしながら、LiDARセンサと可視カメラと連携した場合、可視カメラが不得意とする夜間撮影は被写体を適切に確認することができない場合が存在する。この場合、ユーザは、その状況判断を視覚的に確認することができないケースが生じる。そのため、外的要因による検知精度に影響が少ないLiDARセンサを採用しても、その結果を適切にユーザに伝えることができない。
また、特許文献1は、検知対象が所定の空間に入ったことを検知するための空間検知の技術を開示するが、上記と同様の課題が存在する。
本発明は、上記課題に鑑みて、距離や形状を検知できるセンサを用いながらユーザのより的確な状況判断を可能とする監視システム及び監視方法を提供することを目的とする。
上記目的を達成するため、代表的な本発明の監視システムの一つは、距離と形状を検知できるセンサと、前記センサからの点群情報を取得し検知物体をあらかじめ定めた種別に識別する処理を行う識別処理手段と、前記識別処理手段により特定した検知物体の種別に対応した画像又はアニメーションを選択して前記検知物体の点群情報に対応する位置に重畳する処理を行う重畳処理手段とを備えることを特徴とする。
さらに本発明の監視方法の一つは、コンピュータにより処理を行う監視方法であって、距離と形状を検知できるセンサからの点群情報を取得するステップと、前記取得した点群情報から検知物体をあらかじめ定めた種別に識別する処理を行うステップと、特定した検知物体の種別に対応した画像又はアニメーションを選択して前記検知物体の点群情報に対応する位置に重畳する処理を行うステップと、を有することを特徴とする。
本発明によれば、監視システム及び監視方法において、距離や形状を検知できるセンサを用いながらユーザのより的確な状況判断を可能とする。
上記以外の課題、構成及び効果は、以下の実施形態により明らかにされる。
図1は、本開示の実施形態による態様を実施するためのコンピュータシステムのブロック図である。 図2は、本発明の監視システムの一実施形態を示すブロック図を示す。 図3は、(A)可視カメラの表示例と、(B)LiDARセンサの点群表示例を示す。 図4は、本発明の監視システムのフローチャートの一例を示す。 図5は、本発明の監視システムの処理の流れの一例を示す。 図6は、本発明の監視システムの画像表示例を説明する図であり、(A)は暗い状態での可視カメラの画像、(B)は遠距離位置で検知した場合、(C)は近距離位置で検知した場合を示す。
本発明を実施するための形態を説明する。
<実施形態による態様を実施するためのコンピュータシステム>
図1は、本開示の実施形態による態様を実施するためのコンピュータシステム1のブロック図である。本明細書で開示される様々な実施形態の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム1の主要コンポーネントは、1つ以上のプロセッサ2、メモリ4、端末インターフェース12、ストレージインターフェース14、I/O(入出力)デバイスインターフェース16、及びネットワークインターフェース18を含む。これらのコンポーネントは、メモリバス6、I/Oバス8、バスインターフェースユニット9、及びI/Oバスインターフェースユニット10を介して、相互的に接続されてもよい。
コンピュータシステム1は、プロセッサ2と総称される1つ又は複数の処理装置2A及び2Bを含んでもよい。各プロセッサ2は、メモリ4に格納された命令を実行し、オンボードキャッシュを含んでもよい。ある実施形態では、コンピュータシステム1は複数のプロセッサを備えてもよく、また別の実施形態では、コンピュータシステム1は単一の処理装置によるシステムであってもよい。処理装置としては、CPU(Central Processing Unit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processong Unit)、DSP(Digital Signal Processor)等を適用できる。
ある実施形態では、メモリ4は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。ある実施形態では、メモリ4は、コンピュータシステム1の仮想メモリ全体を表しており、ネットワークを介してコンピュータシステム1に接続された他のコンピュータシステムの仮想メモリを含んでもよい。メモリ4は、概念的には単一のものとみなされてもよいが、他の実施形態では、このメモリ4は、キャッシュおよび他のメモリデバイスの階層など、より複雑な構成となる場合がある。例えば、メモリは複数のレベルのキャッシュとして存在し、これらのキャッシュは機能毎に分割されてもよい。その結果、1つのキャッシュは命令を保持し、他のキャッシュはプロセッサによって使用される非命令データを保持する構成であってもよい。メモリは、いわゆるNUMA(Non-Uniform Memory Access)コンピュータアーキテクチャのように、分散され、種々の異なる処理装置に関連付けられてもよい。
メモリ4は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ4は、潜在因子特定アプリケーション50を格納していてもよい。ある実施形態では、潜在因子特定アプリケーション50は、後述する機能をプロセッサ2上で実行する命令又は記述を含んでもよく、あるいは別の命令又は記述によって解釈される命令又は記述を含んでもよい。ある実施形態では、潜在因子特定アプリケーション50は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施形態では、潜在因子特定アプリケーション50は、命令又は記述以外のデータを含んでもよい。ある実施形態では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット9、プロセッサ2、またはコンピュータシステム1の他のハードウェアと直接通信するように提供されてもよい。このような構成では、プロセッサ2がメモリ4及び潜在因子識別アプリケーションにアクセスする必要性が低減する可能性がある。
コンピュータシステム1は、プロセッサ2、メモリ4、表示システム24、及びI/Oバスインターフェースユニット10間の通信を行うバスインターフェースユニット9を含んでもよい。I/Oバスインターフェースユニット10は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス8と連結していてもよい。I/Oバスインターフェースユニット10は、I/Oバス8を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインターフェースユニット12、14、16、及び18と通信してもよい。表示システム24は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置26に提供することができる。また、コンピュータシステム1は、データを収集し、プロセッサ2に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。例えば、コンピュータシステム1は、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示メモリは、ビデオデータをバッファするための専用メモリであってもよい。表示システム24は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置26に接続されてもよい。ある実施形態では、表示装置26は、オーディオをレンダリングするためスピーカを含んでもよい。あるいは、オーディオをレンダリングするためのスピーカは、I/Oインターフェースユニットと接続されてもよい。他の実施形態では、表示システム24が提供する機能は、プロセッサ2を含む集積回路によって実現されてもよい。同様に、バスインターフェースユニット9が提供する機能は、プロセッサ2を含む集積回路によって実現されてもよい。
I/Oインターフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インターフェースユニット12は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス20の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス20及びコンピュータシステム1に対して入力データや指示を入力し、コンピュータシステム1からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス20を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。
ストレージインターフェース14は、1つ又は複数のディスクドライブや直接アクセスストレージ装置22(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施形態では、ストレージ装置22は、任意の二次記憶装置として実装されてもよい。メモリ4の内容は、ストレージ装置22に記憶され、必要に応じてストレージ装置22から読み出されてもよい。ネットワークインターフェース18は、コンピュータシステム1と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク30であってもよい。
図1に示されるコンピュータシステム1は、プロセッサ2、メモリ4、バスインターフェース9、表示システム24、及びI/Oバスインターフェースユニット10の間の直接通信経路を提供するバス構造を備えているが、他の実施形態では、コンピュータシステム1は、階層構成、スター構成、又はウェブ構成のポイントツーポイントリンク、複数の階層バス、平行又は冗長の通信経路を含んでもよい。さらに、I/Oバスインターフェースユニット10及びI/Oバス8が単一のユニットとして示されているが、実際には、コンピュータシステム1は複数のI/Oバスインターフェースユニット10又は複数のI/Oバス8を備えてもよい。また、I/Oバス8を様々なI/Oデバイスに繋がる各種通信経路から分離するための複数のI/Oインターフェースユニットが示されているが、他の実施形態では、I/Oデバイスの一部または全部が、1つのシステムI/Oバスに直接接続されてもよい。
ある実施形態では、コンピュータシステム1は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施形態では、コンピュータシステム1は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
<監視システムのブロック図>
図2は、本発明の監視システムの一実施形態を示すブロック図を示す。
監視システム100は、センサ101、スイッチ103、識別処理サーバ104、重畳処理サーバ105、監視端末106を備える。さらに、必要に応じて可視カメラ102を備えることができる。
センサ101は、距離や形状を検知できるセンサである。特に、LiDAR(Light Detection And Ranging)センサを適用するとよい。ここで、LiDARセンサは、レーザー光を照射し、物体に当たって跳ね返ってくるまでの時間を計測し、物体までの距離や方向を測定するものである。このとき、物体までの距離に加え、位置や形状も点群情報により検知することが可能である。センサ101は、検知精度の高い方が(点群の点の数が多いほど)よりよい。センサ101は、リアルタイムで測定を行い、1秒に複数回以上の測定結果が識別処理サーバ104に送信される。
センサ101は、監視したい場所やエリアに設置する。複数のセンサ101を備え、異なる場所に設置してもよい。また、複数のセンサ101により異なる方向からセンシングを行ってもよい。そして、センサ101により、本来その場所に存在しない物体や侵入者などを検知して発報させることを可能とする。
スイッチ103は、センサ101、可視カメラ102、識別処理サーバ104、重畳処理サーバ105、監視端末106の間に設置される。センサ101が検知した物体の情報はスイッチ103を介して識別処理サーバ104に送信される。さらに、識別処理サーバ104で処理した情報は、スイッチ103を介して重畳処理サーバ105に送信される。さらに、重畳処理サーバ105で処理した情報は、スイッチ103を介して監視端末106に送信される。また、必要に応じて、可視カメラ102が検知した物体の情報はスイッチ103を介して識別処理サーバ104もしくは重畳処理サーバ105もしくは監視端末106に送信される。ここで、これらの情報の送信は有線で行っても無線で行ってもよいし、インターネット等のネットワークを介してもよい。
識別処理サーバ104は、センサ101で検知した物体の情報をふまえて、物体認識を行う。ここでの処理はAI(人工知能)を用いて行うことができる。例えば、センサ101からの物体の点群情報に基づいて、機械学習により得られた学習済みモデルを用いて行うことができる。このとき、例えば、ニューラルネットワークのモデル等を用いる。これにより、物体認識を行い、物体の種別を識別する。このときの物体の種別は、物体そのものの種類を判別する。さらに、物体の行動(状態)を判別してもよい。
重畳処理サーバ105は、識別処理サーバ104での物体の種別の識別に基づき、重畳処理を行う。ここでの重畳処理は、予め設定されている、その物体の種別に関連する画像情報等を重ね合わせる処理であり、具体例は後述する。そして、重畳した情報は、監視端末106に送信する。このときの送信は発報検知時に行ってもよい。また、画像情報等を重畳する際には識別処理サーバ104からの物体に関する検知距離や移動情報を元に画像情報等を最適な位置やサイズに変換して表示制御を行う。
識別処理サーバ104と重畳処理サーバ105は、連携することができ、これらは一体に構成してもよい。また、これらは、図1のコンピュータシステム1を適用できる。なお、識別処理サーバ104と重畳処理サーバ105のそれぞれは複数のサーバが連携して実現されていてもよい。
可視カメラ102は、レンズや絞りを介して撮像素子に入射光を結像して情報を得るカメラの構成を適用できる。ここでの撮像素子の例としては、CCD(Charge-Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等があげられる。可視カメラ102は、映像として、例えば、1秒間に3フレーム(3fps)以上等で撮影する。可視カメラ102は、センサ101と同じ範囲を撮影するようにしてもよい。また、発報検知と同時に重畳処理サーバ105が可視カメラ102を発報ポイントに向けるように制御を行なってもよい。
監視端末106は、重畳処理サーバ105で処理した内容を表示することができる表示機能を備えている。ここでの表示機能、例えば、液晶ディスプレイや有機EL(OLED)ディスプレイ等で構成することができる。監視端末106は、タッチパネルで構成してもよいし、キーボードやマウスなどの操作手段を付属していてもよい。監視端末106は、表示を切り替えることにより異なるセンサ101による結果を表示させる機能を有していてもよい。また、監視端末106は、図1のコンピュータシステム1を適用できる。
<可視カメラとLiDARセンサの表示例>
図3は、(A)可視カメラの表示例と、(B)LiDARセンサの点群表示例を示す。
図3では、同じ方向と大きさで検出した物体に対して、可視カメラとLiDARセンサの表示を比較している。図3(A)は可視カメラによる表示であり、ここでは小動物である猫201をとらえている。図3(B)は、LiDARセンサにより猫201を検出するが、複数の点による点群情報202として検出される。点群情報202は、同じ物体でも遠いほど点の物体上の点の数は少なくなり、近くなると物体上の点の数は多くなる特徴がある。また、LiDARセンサの検知精度が高いと点群情報も多くなる。図3(B)では、点群情報202による解析結果は文字情報203として表示されている。ここでは、「発報中」であることと「小動物」であることが特定されている。
図3(B)のように、LiDARセンサから出力される点群情報202をそのまま表示した場合、点の集合体の情報となる。このため、この点群情報202を見たユーザは、可視カメラで撮影された猫201のように、猫であることやその行動の状態を的確に判断することは難しい。このため、解析結果を点群情報202とは別に文字情報203などで画面に表示してユーザに状況を知らせる必要がある。しかしながら、ユーザが文字情報を確認する必要があり、加えて、対象物体が複数の場合もあるため、直感的に判断することはできない。
<フローチャート>
図4は、本発明の監視システムのフローチャートの一例を示す。
最初にステップS301では、センサ101から点群情報を取得する。点群情報の一例は図3に示した。また、取得した点群情報は、識別処理サーバ104に送られる。
次にステップS302では、点群情報の解析を行う。ここでの解析は、識別処理サーバ104により行われる。解析は、検知対象である物体を検知して、その物体の種別を特定する。
検知対象の物体の検知は、物体と識別できる点群情報のかたまりを検知して、このかたまりが所定の条件と比べて、異なる動きかどうかを判定して行うことができる。例えば、静止画像に対して移動物体が検知対象範囲に入って来た場合や、一定方向に物体が移動している状態に対して、逆方向等の異なる方向に物体が移動する場合等である。この場合に発報検知とすることができる。
検知対象の物体の種別の特定は、上述したようにAIを用いて行うことができ、物体のそのものの種類に加えて、物体の状態を判別してもよい。物体の種類は、例えば、人、動物、自転車、自動車等、目的とする監視に必要な種類を判別する。また、物体の状態は、人であれば、歩いている、走っている、座っている、かがんでいる等の行動等の状態であり、こちらも目的とする監視に必要な状態を判別する。これらの判別は、対象となる物体の点群情報の大きさ、形、反射率、移動状態(移動量)などに基づき判別することが可能である。
次にステップS303では、タグ付けを行う。タグ付けは、識別処理サーバ104により行われる。物体と識別できる点群情報のかたまりに対して、ステップS302で判別した物体の種別を特定してタグ付けを行う。例えば「物体の種類が人、物体の状態が歩いている状態」などである。物体の種類は、物体と識別できる点群情報のかたまりが移動した場合は、同じ物体としてのタグ付けを維持しておくようにしておく。また、物体の状態は、状況に応じてタグの情報を変化させてもよい。また、タグは監視に必要な種別のみをタグ付けすればよく、必要でないと判断される場合はタグ付けを行わなくてもよい。この場合はあらかじめ種別を登録しておくことで判定を行うことができる。このタグの登録は、監視端末106でユーザの操作により選択できるようにしておいてもよい。
次にステップS304では、画像等の重畳を行う。この処理は、重畳処理サーバ105によって行われる。重畳処理サーバ105は、物体と識別できる点群情報のかたまりに対して、そのタグに対応する画像又はアニメーションを選択して、この点群情報に対応する位置に重ねる。重ねることで、点群情報に画像又はアニメーションが薄く重ねられるか、点群情報が画像又はアニメーションに置き換わる。例えば、「物体の種類が人、物体の状態が歩いている状態」であれば、歩いている人の画像又はアニメーションを、対応する点群情報の上の位置に重畳する。画像又はアニメーションはタグの種類に応じて重畳処理サーバ105等にあらかじめ格納しておく。画像又はアニメーションは、その種別を人が視覚的に識別できる絵、写真、アニメーションなどである。また、重畳する画像又はアニメーションの大きさは、対応する点群情報の範囲に合わせて重畳する。その具体例には図6で後述する。
ここで、重畳のパターンは複数考えられる。1つめは、センサ101の画像に選択された画像又はアニメーションを重畳するパターンである。センサ101の画像は点群情報で表されるため、該当する物体の点群情報の部分に、点群情報の代わりに画像又はアニメーションが重畳される。この場合は、センサ101の画像を用いるため、加工処理の負荷が低減する。また、2つめは、センサ101の測定範囲に対応する静止画を用意しておき、静止画上の対応する位置に、選択された画像又はアニメーションを重畳するパターンである。この場合は、静止画が視覚的な背景画像なので、ユーザは状況をより認識しやすくなる。3つめは、センサ101の測定範囲に対応する可視カメラ102を用いる場合、可視カメラ102の画面上の対応する位置に、選択された画像又はアニメーションを重畳するパターンである。この場合は、センサ101と可視カメラ102の座標を合わせる等して、対応する位置を合わせることができる。これにより、暗い場合でも可視カメラ102の画像で発報中の物体を識別することが可能となる。
次にステップS305では、重畳したデータは重畳処理サーバ105から監視端末106に出力される。監視端末106では重畳した情報を表示機能に表示して、ユーザが確認できるようにする。
<監視システムの処理の流れの一例>
図5は、本発明の監視システムの処理の流れの一例を示す。図5では、人401と小動物402をセンサ101で検出した場合の例について説明している。なお、ここでは、物体の種類のみを考慮し、物体の状態は考慮しない例を示している。
人401であれば、まず、センサ101により、人401の部分の点群情報を取得する。次に識別処理サーバ104では、点群情報に基づき人と判断する。ここでの判断は、特定の距離に対する点群情報の数の多さや、全体の大きさ、移動スピード等をふまえて判断される。このため、所定時間の範囲内におけるセンサ101の点群情報が加味される。識別処理サーバ104で人と判断された場合は、タグを「人」とする。そして次に、重畳処理サーバ105では、タグの「人」に対応する画像A(人の画像)を当該点群情報の位置に重畳する処理を行う。重畳したその情報は監視端末106で表示される。
小動物402であれば、まず、センサ101により、小動物402の部分の点群情報を取得する。次に識別処理サーバ104では、点群情報に基づき小動物と判断する。ここでの判断は、特定の距離に対する点群情報の数の少なさ、全体の大きさ、移動スピード等をふまえて判断される。このため、所定時間の範囲内におけるセンサ101の点群情報が加味される。識別処理サーバ104で小動物と判断された場合は、タグを「小動物」とする。そして次に、重畳処理サーバ105では、タグの「小動物」に対応する画像B(小動物の画像)を当該点群情報の位置に重畳する処理を行う。重畳したその情報は監視端末106で表示される。
<監視システムの画像表示例>
図6は、本発明の監視システムの画像表示例を説明する図であり、(A)は暗い状態での可視カメラの画像、(B)は遠距離位置で検知した場合、(C)は近距離位置で検知した場合を示す。図6(A)は、可視カメラ102による画像を監視端末106で表示した例である。図6(B)(C)は、重畳処理サーバ105から出力した情報を監視端末106で表示した例を示す。
図6(A)に示すように、可視カメラの画像は暗い状態では、物体(ここでは人)を目視で確認することが難しい。このため、上記で説明したように、重畳処理サーバ105により検知対象物に対して画像情報などを重畳し、その情報を監視端末106の画面上に表示する。ここで、重畳する画像情報などを表示する際は被写体までの位置情報等から表示するサイズなども最適化して表示を行う。
最適化を行うことで、図6(B)のように、センサ101が物体を遠距離位置で検知した場合は、画像Cは小さく表示するように処理を行う。また、図6(C)のように、センサ101が物体を近距離位置で検知した場合は、画像Cを大きく表示するように処理を行う。
ここで最適化の方法としては次の方法があげられる。1つは、対象となる物体の点群の範囲により大きさを決める方法である。例えば、対象となる物体の点群の範囲が大きければその大きさに合わせて重畳する画像又はアニメーションの大きさを大きくする等である。もう1つは、センサ101は、物体までの距離を測れるセンサであるので、その距離に基づき遠近法で大きさを調整する方法である。また、これら2つの方法を組み合わせて最適化を行ってもよい。
また、物体が遠くにある場合は、センサ101が検知する点群の点の数が少ないため、種別を特定できない場合も存在する。その場合は、特定できないことを示す画像等の表示を重畳してもよい。例えば「?」のマークを重ねる等である。また、物体がセンサ101に近づき、点群の点の数が増加したため、物体の種別を特定できた時点で、それに対応する画像又はアニメーションを重畳することができる。
また、物体が近くにあるときに種別を特定して、それに対応する画像又はアニメーションを重畳した場合に、物体がセンサ101から遠くに離れていく場合について説明する。この場合は、途中で点群の点の数が減少して、その点群の情報からは、種別が特定できなくなる場合が存在する。このとき、その点群情報のかたまりが途切れずに連続して移動していると判断すれば、それまで重畳していた画像又はアニメーションを、その大きさを最適化しながら重畳したままとしてもよい。
<作用>
ユーザが可視カメラ102で監視可能な場合は監視端末106では可視カメラ102の映像を表示する。しかし、可視カメラ102で映像が見えない場合や可視カメラ102を備えていないシステムの場合は、上述した、センサ101に基づく情報を監視端末106の画面上に表示する。
また、条件によっては可視カメラ102の映像の上に画像又はアニメーションをオーバレイで表示することも可能とする。これは、図4のステップS304で説明した3つめの重畳のパターンである。このとき、周囲の明るさなどを検知して暗くなってきたら自動でモードが切り替わるようにしてもよい。また、夜間モードに切り替えるスイッチやスイッチ表示を設けて、ユーザの操作により切り替えてもよい。また、このとき、背景を明るく表示する、もしくは、昼等の明るい時間の背景を表示する機能が作用してもよい。
<具体的な適用例>
具体的な適用例について説明する。監視場所・対象エリアにLiDARセンサ等であるセンサ101を設置し、侵入者などの物体検知を行う。検知する条件は基本的にセンサ101からの点群情報から、物体の大きさや移動量、反射率といった各種パラメータから判断する。そして、識別処理サーバ104によるAI処理により物体の判定を行う。ここでは、複数の条件を組合わせることで複数の物体認識・判断を行うことができる。例えば人や動物、車と言ったいくつかの分類を行う。分類についてはユーザの要望に合わせてあらかじめ定めた条件により適用する。
重畳処理サーバ105のアプリケーション上では発報検知と同時に画面上に分類された種別の画像等を表示する。検知物体が侵入者などの移動体の場合はその画像をアニメーション等により動かしたりしてもよい。また、検知距離や移動情報から判断して実際の物体に合わせて画像の表示サイズを変更する処理・制御を行なうことによりユーザに最適な情報を画面上に表示をしてもよい。
<効果>
以上のような実施形態により、センサ101からの点群情報から物体の検知・認識は識別処理サーバ104により判定され、重畳処理サーバ105で、画像等の情報を重畳する。このことで、物体の認識・判断が可能な状態で、その情報をユーザが利用する監視端末106に表示することが可能となる。一般的な監視カメラに慣れているユーザから見た場合、発報時に端末に表示されるのが文字情報だけではどうしても判断し難いが、上記構成により、ユーザに最適な情報を提供することが可能となる。また、重畳する画像等は、最適なサイズとすることで分かり易い表示とすることができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
例えば、センサ101は、上述したLiDARセンサは長い距離の測定に適している。しかし、センサ101は距離や形状を検知できるセンサであればこれ以外に適用することができ、例えばTOF(Time of Flight)の方式を用いてもよい。
1…コンピュータシステム、2…プロセッサ、2A、2B…処理装置、4…メモリ、6…メモリバス、8…I/Oバス、9…バスインターフェースユニット、10…I/Oバスインターフェースユニット、12…端末インターフェースユニット、14…ストレージインターフェース、16…I/Oデバイスインターフェース、18…ネットワークインターフェース、20…ユーザI/Oデバイス、22…ストレージ装置、24…表示システム、26…表示装置、30…ネットワーク、50…潜在因子特定アプリケーション、100…監視システム、101…センサ、102…可視カメラ、103…スイッチ、104…識別処理サーバ、105…重畳処理サーバ、106…監視端末、201…猫、202…点群情報、203…文字情報、401…人、402…小動物

Claims (10)

  1. 距離と形状を検知できるセンサと、前記センサからの点群情報を取得し検知物体をあらかじめ定めた種別に識別する処理を行う識別処理手段と、前記識別処理手段により特定した検知物体の種別に対応した画像又はアニメーションを選択して前記検知物体の点群情報に対応する位置に重畳する処理を行う重畳処理手段とを備えることを特徴とする監視システム。
  2. 請求項1に記載の監視システムにおいて、
    前記センサは、LiDARセンサであることを特徴とする監視システム。
  3. 請求項1に記載の監視システムにおいて、
    前記識別処理手段による検知物体の種別の識別は、あらかじめ定めた物体の種別に判別してその種別のタグ付けを行うことを特徴とする監視システム。
  4. 請求項1に記載の監視システムにおいて、
    前記識別処理手段による検知物体の識別は、学習済みモデルを用いたAIを用いて行うことを特徴とする監視システム。
  5. 請求項1に記載の監視システムにおいて、
    前記重畳処理手段は、前記センサからの点群情報の背景として、前記センサが検知する範囲と同じ範囲の背景画像を組み合わせることを特徴とする監視システム。
  6. 請求項1に記載の監視システムにおいて、
    前記重畳処理手段は、前記検知物体の点群情報に重畳する前記画像又はアニメーションの大きさを、前記センサで取得した距離と、前記検知物体の点群情報の大きさ、の少なくとも1つを用いて最適化することを特徴とする監視システム。
  7. 請求項1に記載の監視システムにおいて、
    前記重畳処理手段は、検知物体の点群情報のかたまりが途切れずに連続して移動していると判断すれば、それまで重畳していた前記画像又はアニメーションを、大きさを最適化しながら重畳したままとする処理を行うことを特徴とする監視システム。
  8. 請求項1に記載の監視システムにおいて、
    監視端末を備え、前記重畳処理手段は、前記画像又はアニメーションを前記検知物体の点群情報に重畳した情報を前記監視端末に出力することを特徴とする監視システム。
  9. 距離と形状を検知できるセンサと、前記センサの検知範囲を撮影する可視カメラと、前記センサからの点群情報を取得し検知物体をあらかじめ定めた種別に識別する識別処理手段と、前記識別処理手段により特定した検知物体の種別に対応した画像又はアニメーションを選択して、前記検知物体の点群情報の位置に対応する前記可視カメラの画像の位置に重畳する重畳処理手段とを備えることを特徴とする監視システム。
  10. コンピュータにより処理を行う監視方法であって、
    距離と形状を検知できるセンサからの点群情報を取得するステップと、
    前記取得した点群情報から検知物体をあらかじめ定めた種別に識別する処理を行うステップと、
    特定した検知物体の種別に対応した画像又はアニメーションを選択して前記検知物体の点群情報に対応する位置に重畳する処理を行うステップと、を有することを特徴とする監視方法。
JP2022066666A 2022-04-14 2022-04-14 監視システム及び監視方法 Pending JP2023157034A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022066666A JP2023157034A (ja) 2022-04-14 2022-04-14 監視システム及び監視方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022066666A JP2023157034A (ja) 2022-04-14 2022-04-14 監視システム及び監視方法

Publications (1)

Publication Number Publication Date
JP2023157034A true JP2023157034A (ja) 2023-10-26

Family

ID=88469497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022066666A Pending JP2023157034A (ja) 2022-04-14 2022-04-14 監視システム及び監視方法

Country Status (1)

Country Link
JP (1) JP2023157034A (ja)

Similar Documents

Publication Publication Date Title
US11989861B2 (en) Deep learning-based real-time detection and correction of compromised sensors in autonomous machines
US10958896B2 (en) Fusing measured multifocal depth data with object data
JP6673508B2 (ja) 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
CN106952303B (zh) 车距检测方法、装置和系统
CN105554440B (zh) 监控方法和设备
CN104103030B (zh) 图像分析方法、照相机装置、控制装置及控制方法
US10417782B2 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
US10586115B2 (en) Information processing device, information processing method, and computer program product
JP2007310706A (ja) 車両周辺監視装置
Benito-Picazo et al. Deep learning-based video surveillance system managed by low cost hardware and panoramic cameras
JP2010211617A (ja) 撮像装置、動体検知方法、動体検知回路及びプログラム
CN107122743B (zh) 安防监控方法、装置和电子设备
JP2020057111A (ja) 表情判定システム、プログラム及び表情判定方法
Weimer et al. Gpu architecture for stationary multisensor pedestrian detection at smart intersections
JP2020109644A (ja) 転倒検出方法、転倒検出装置及び電子機器
CN112673377A (zh) 监测设备以及用于人员落水监测的方法
JP6991045B2 (ja) 画像処理装置、画像処理装置の制御方法
JP7271373B2 (ja) 映像処理装置、映像処理システムおよび映像処理方法
JP2023157034A (ja) 監視システム及び監視方法
JPWO2015025705A1 (ja) 映像処理装置、映像処理方法および映像処理プログラム
US20140037141A1 (en) Method for evaluating a plurality of time-offset pictures, device for evaluating pictures, and monitoring system
JP7235049B2 (ja) 評価装置、評価方法、及びコンピュータプログラム
JP2021092996A (ja) 計測システム、車両、計測方法、計測装置及び計測プログラム
JP4176558B2 (ja) 車両周辺表示装置
JP7319541B2 (ja) 作業機械周辺検出対象物位置検出システム、作業機械周辺検出対象物位置検出プログラム