JP2020102677A - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2020102677A JP2020102677A JP2018237906A JP2018237906A JP2020102677A JP 2020102677 A JP2020102677 A JP 2020102677A JP 2018237906 A JP2018237906 A JP 2018237906A JP 2018237906 A JP2018237906 A JP 2018237906A JP 2020102677 A JP2020102677 A JP 2020102677A
- Authority
- JP
- Japan
- Prior art keywords
- event
- information processing
- camera
- processing apparatus
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
Abstract
【課題】複数の撮像装置によって撮像された撮像画像のうち、イベントに関連する適切な撮像画像をユーザに提示する【解決手段】情報処理装置は、所定の事象に基づいて検知されたイベントに関するイベント情報を取得する第1の取得手段と、撮像装置が設けられた移動体の移動履歴を取得する第2の取得手段と、第1の取得手段により取得されたイベント情報と、第2の取得手段により取得された移動履歴とに基づいて、複数の撮像装置のうちイベントに関連する撮像画像を撮像する撮像装置を判別する判別手段と、判別手段により判別された撮像装置により撮像された撮像画像を表示させる表示制御手段と、を備える。【選択図】 図2
Description
本発明は、情報処理装置、情報処理方法およびプログラムに関する。
複数の監視カメラの映像を表示する映像表示システムにおいて、監視カメラが予め設定された事象に基づいてイベントを検知した場合、イベントを検知した監視カメラの映像をモニタ画面上に表示することが一般的に行われている。しかしながら、イベントを検知した監視カメラの映像を表示しただけでは、監視者が周囲の状況を把握することは難しい。
そこで、特許文献1には、イベントを検知した監視カメラの映像とその周辺にある監視カメラの映像とを表示する技術が開示されている。具体的には、この技術は、道路に設置された複数の監視カメラのうちの1つの監視カメラが道路上にある落下物を検知した際、落下物を検知した監視カメラの映像と、その上流または下流にある監視カメラの映像とを表示する技術である。
そこで、特許文献1には、イベントを検知した監視カメラの映像とその周辺にある監視カメラの映像とを表示する技術が開示されている。具体的には、この技術は、道路に設置された複数の監視カメラのうちの1つの監視カメラが道路上にある落下物を検知した際、落下物を検知した監視カメラの映像と、その上流または下流にある監視カメラの映像とを表示する技術である。
しかしながら、イベントが検知された場合に、イベントを検知した監視カメラの映像とその周辺にある監視カメラの映像とを表示することが必ずしも適切であるとは限らない。監視カメラが移動体に設けられている場合、移動体に設けられた監視カメラがイベント検知前に撮像していた映像によって、イベント検知時に表示すべき映像は異なる。
そこで、本発明は、複数の撮像装置によって撮像された撮像画像のうち、イベントに関連する適切な撮像画像をユーザに提示することを課題としている。
そこで、本発明は、複数の撮像装置によって撮像された撮像画像のうち、イベントに関連する適切な撮像画像をユーザに提示することを課題としている。
上記課題を解決するために、本発明に係る情報処理装置の一態様は、所定の事象に基づいて検知されたイベントに関するイベント情報を取得する第1の取得手段と、撮像装置が設けられた移動体の移動履歴を取得する第2の取得手段と、前記第1の取得手段により取得された前記イベント情報と、前記第2の取得手段により取得された前記移動履歴とに基づいて、複数の撮像装置のうち前記イベントに関連する撮像画像を撮像する撮像装置を判別する判別手段と、前記判別手段により判別された撮像装置により撮像された撮像画像を表示させる表示制御手段と、を備える。
本発明によれば、複数の撮像装置によって撮像された撮像画像のうち、イベントに関連する適切な撮像画像をユーザに提示することができる。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
本実施形態では、複数の撮像装置により撮像された映像を表示する映像表示システムとして、所定の事象に基づいてイベントを検知し、検知されたイベントに関連する映像を表示するシステムについて説明する。上記所定の事象は、侵入、悲鳴発生、不審者出現といった異常な事象である。
本実施形態における映像表示システムは、移動体に設けられた撮像装置を少なくとも1台備え、イベントが検知された際に、移動体の移動履歴を考慮してイベントに関連する映像を表示することで、監視者にとって所望な映像を提示する。
本実施形態では、複数の撮像装置により撮像された映像を表示する映像表示システムとして、所定の事象に基づいてイベントを検知し、検知されたイベントに関連する映像を表示するシステムについて説明する。上記所定の事象は、侵入、悲鳴発生、不審者出現といった異常な事象である。
本実施形態における映像表示システムは、移動体に設けられた撮像装置を少なくとも1台備え、イベントが検知された際に、移動体の移動履歴を考慮してイベントに関連する映像を表示することで、監視者にとって所望な映像を提示する。
図1は、本実施形態における映像表示システムが備える情報処理装置100のハードウェア構成例である。
情報処理装置100は、CPU101、ROM102、RAM103、システムバス104、入力I/F105、出力I/F106、入出力I/F107を備える。
CPU101は、各種処理のための演算や論理判断などを行い、情報処理装置100における動作を統括的に制御する。ROM102は、CPU101が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、当該プログラムは、情報処理装置100に接続された記憶装置130や着脱可能な記憶媒体に記憶されていてもよい。RAM103は、CPU103の主メモリ、ワークエリア等として機能する。CPU101は、処理の実行に際してROM102や記憶装置130などから必要なプログラム等をRAM103にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
システムバス104は、CPU101、ROM102、RAM103、入力I/F105、出力I/F106おより入出力I/F107を接続する。システムバス104は、アドレスバス、データバス及びコントロールバスなどを含むことができる。
情報処理装置100は、CPU101、ROM102、RAM103、システムバス104、入力I/F105、出力I/F106、入出力I/F107を備える。
CPU101は、各種処理のための演算や論理判断などを行い、情報処理装置100における動作を統括的に制御する。ROM102は、CPU101が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、当該プログラムは、情報処理装置100に接続された記憶装置130や着脱可能な記憶媒体に記憶されていてもよい。RAM103は、CPU103の主メモリ、ワークエリア等として機能する。CPU101は、処理の実行に際してROM102や記憶装置130などから必要なプログラム等をRAM103にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
システムバス104は、CPU101、ROM102、RAM103、入力I/F105、出力I/F106おより入出力I/F107を接続する。システムバス104は、アドレスバス、データバス及びコントロールバスなどを含むことができる。
入力I/F105は、複数の撮像装置110に接続され、複数の撮像装置110からそれぞれ出力される信号を取得する。
撮像装置110は、1枚以上の撮像画像を含む映像を撮像する監視カメラである。複数の撮像装置110(以下、「カメラ」という。)は、それぞれ異なる位置に設置され、それぞれ異なる撮像範囲を撮像することができる。カメラ110は、例えばネットワークを介して情報処理装置100に対して撮像画像(映像)を送信するネットワークカメラとすることができる。
また、カメラ110は、撮像画像(映像)をもとに、所定の事象に基づいてイベントを検知し、情報処理装置100に対して、イベントに関する情報(イベント情報)を示す信号を送信することもできる。つまり、入力I/F105がカメラ110から取得する信号は、カメラ110により撮像された映像と、カメラ110が検知したイベント情報とを含む。
撮像装置110は、1枚以上の撮像画像を含む映像を撮像する監視カメラである。複数の撮像装置110(以下、「カメラ」という。)は、それぞれ異なる位置に設置され、それぞれ異なる撮像範囲を撮像することができる。カメラ110は、例えばネットワークを介して情報処理装置100に対して撮像画像(映像)を送信するネットワークカメラとすることができる。
また、カメラ110は、撮像画像(映像)をもとに、所定の事象に基づいてイベントを検知し、情報処理装置100に対して、イベントに関する情報(イベント情報)を示す信号を送信することもできる。つまり、入力I/F105がカメラ110から取得する信号は、カメラ110により撮像された映像と、カメラ110が検知したイベント情報とを含む。
出力I/F106は、表示装置120に接続され、表示装置120に対してカメラ110から取得した映像を出力する。
表示装置120は、カメラ110により撮像された映像を表示するための装置である。表示装置120は、液晶ディスプレイ、CRTディスプレイ、プロジェクタなどを備えることができる。情報処理装置100は、後述する処理を実行して、複数のカメラ110の映像うち表示装置120に表示させる映像を決定し、決定した映像を表示装置120へ出力する。
表示装置120は、カメラ110により撮像された映像を表示するための装置である。表示装置120は、液晶ディスプレイ、CRTディスプレイ、プロジェクタなどを備えることができる。情報処理装置100は、後述する処理を実行して、複数のカメラ110の映像うち表示装置120に表示させる映像を決定し、決定した映像を表示装置120へ出力する。
入出力I/F107は、記憶装置130に接続され、記憶装置130に対してデータの入出力を行う。
記憶装置130は、情報処理装置100が備えるハードディスクドライブ(HDD)とすることができる。なお、記憶装置130は、情報処理装置100に外部から接続された外部記憶装置であってもよい。この場合、記憶装置130は、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとを備えることができる。このようなメディアとしては、例えば、USBメモリ、フラッシュメモリ等が知られている。また、記憶装置130は、情報処理装置100に対してネットワークを介して接続されたサーバ装置であってもよい。
情報処理装置100は、例えばパーソナルコンピュータ(PC)といったユーザ(監視者)が操作可能な端末装置とすることができる。なお、複数のカメラ110のうちの1台が情報処理装置100として動作してもよい。
記憶装置130は、情報処理装置100が備えるハードディスクドライブ(HDD)とすることができる。なお、記憶装置130は、情報処理装置100に外部から接続された外部記憶装置であってもよい。この場合、記憶装置130は、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとを備えることができる。このようなメディアとしては、例えば、USBメモリ、フラッシュメモリ等が知られている。また、記憶装置130は、情報処理装置100に対してネットワークを介して接続されたサーバ装置であってもよい。
情報処理装置100は、例えばパーソナルコンピュータ(PC)といったユーザ(監視者)が操作可能な端末装置とすることができる。なお、複数のカメラ110のうちの1台が情報処理装置100として動作してもよい。
図2は、情報処理装置100の機能構成の一例を示す図である。
この図2に示すように、情報処理装置100は、映像入力部11と、イベント検知部12と、位置情報取得部13と、表示制御部14と、を備える。この図2に示す情報処理装置100の各要素のうち少なくとも一部の機能は、図1に示すCPU101がプログラムを実行することで実現することができる。ただし、図2に示す情報処理装置100の各要素のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU101の制御に基づいて動作する。
この図2に示すように、情報処理装置100は、映像入力部11と、イベント検知部12と、位置情報取得部13と、表示制御部14と、を備える。この図2に示す情報処理装置100の各要素のうち少なくとも一部の機能は、図1に示すCPU101がプログラムを実行することで実現することができる。ただし、図2に示す情報処理装置100の各要素のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU101の制御に基づいて動作する。
映像入力部11は、複数のカメラ110から出力された映像を、ネットワーク150を介して取得し、情報処理装置100が制御する情報に変換する。ここで、カメラ110の少なくとも1つは移動体140に内蔵されている。移動体140は、例えば監視ロボットとすることができる。移動体140は、無線通信により情報処理装置100と通信が可能である。
ネットワーク150は、例えば、Ethernet(登録商標)の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から構成される。なお、ネットワーク150は、カメラ110と情報処理装置100との間で通信可能な構成であれば、その通信規格、規模および構成は問わない。ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)、若しくはこれらの複合により実現してもよい。
ネットワーク150は、例えば、Ethernet(登録商標)の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から構成される。なお、ネットワーク150は、カメラ110と情報処理装置100との間で通信可能な構成であれば、その通信規格、規模および構成は問わない。ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)、若しくはこれらの複合により実現してもよい。
イベント検知部12は、カメラ110から出力されたイベント情報を、ネットワーク150を介して取得し、情報処理装置100が制御する情報に変換する。ここで、イベント情報は、「不審者検知」、「悲鳴検知」、「侵入検知」といったイベントの内容を示す情報を含む。
本実施形態では、移動体140に内蔵されたカメラ(以下、「移動カメラ」という。)110がイベント検知を行い、イベント検知部12は、移動カメラ110から出力されたイベント情報を、ネットワーク150を介して取得する場合について説明する。また、本実施形態では、イベント情報が「不審者検知」である場合について説明する。
本実施形態では、移動体140に内蔵されたカメラ(以下、「移動カメラ」という。)110がイベント検知を行い、イベント検知部12は、移動カメラ110から出力されたイベント情報を、ネットワーク150を介して取得する場合について説明する。また、本実施形態では、イベント情報が「不審者検知」である場合について説明する。
位置情報取得部13は、移動カメラ110の位置情報を示す信号を取得し、情報処理装置100が制御する位置情報に変換する。位置情報取得部13は、移動体140の位置情報を取得し、所定間隔(本実施形態では、10秒間隔)で所定数(本実施形態では、最大で4つ)まで移動履歴としてRAM103に記憶する。なお、移動履歴の間隔および移動履歴の数は、監視者が変更可能であってもよい。
表示制御部14は、イベント情報と、移動体140の移動履歴と、複数のカメラ110の位置を示す位置情報(撮像位置情報)と、に基づいて、イベントが検知された場合にどのカメラ110の映像を表示装置120に表示するかを判別する。また、表示制御部14は、判別した結果であるカメラ110を表示対象カメラとし、当該表示対象カメラの映像を表示装置120へ出力する。
表示制御部14は、イベント情報と、移動体140の移動履歴と、複数のカメラ110の位置を示す位置情報(撮像位置情報)と、に基づいて、イベントが検知された場合にどのカメラ110の映像を表示装置120に表示するかを判別する。また、表示制御部14は、判別した結果であるカメラ110を表示対象カメラとし、当該表示対象カメラの映像を表示装置120へ出力する。
ここで、複数のカメラ110のうち固定されたカメラ(以下、「固定カメラ」という。)110の位置を示す撮像位置情報は、予め取得しておくことができる。この場合、撮像位置情報は、予め監視者により設定され、記憶装置130に記憶されているものとする。カメラ110の位置情報は、複数のカメラ110が存在する場所に関する情報であり、緯度情報、経度情報、図面上の位置座標情報などとすることができる。なお、カメラ110の位置情報は、カメラ110の位置が解る情報であればよく、上記に限定されるものではない。また、カメラ110がGPSを備えている場合、カメラ110から撮像位置情報を取得するようにしてもよい。
次に、本実施形態における情報処理装置100の動作について、図3(a)および図3(b)のフローチャートを用いて説明する。
図3(a)の処理は、例えば情報処理装置100が起動され、カメラ110と接続されたタイミングで実行される。ただし、図3(a)の処理の開始タイミングは、上記のタイミングに限らない。情報処理装置100は、CPU101が必要なプログラムを読み出して実行することにより、図3(a)および図3(b)に示す各処理を実現することができる。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
図3(a)の処理は、例えば情報処理装置100が起動され、カメラ110と接続されたタイミングで実行される。ただし、図3(a)の処理の開始タイミングは、上記のタイミングに限らない。情報処理装置100は、CPU101が必要なプログラムを読み出して実行することにより、図3(a)および図3(b)に示す各処理を実現することができる。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
以下、図4(a)に示すように、監視対象の倉庫200内に12台の固定カメラ(C1〜C12)が配置され、倉庫200内を1台の移動体(監視ロボット)140が巡回している場合を例に説明する。監視ロボット140は、移動カメラC13を内蔵し、破線で示す巡回ルート211を巡回しているものとする。
不審者検知の場合、図4(b)に示すように、ナイフ221を所持している人物222が存在するかどうかを判断することで、不審者を検知することができる。本実施形態では、移動カメラC13が、移動カメラC13の映像をもとに不審者を検知する。なお、本実施形態ではナイフ221を所持している人物222を不審者として判断する場合について説明するが、他の属性を設定することで不審者を検知するようにしてもよい。例えば、事前に登録された人物と顔が一致したかどうかで不審者を検知することもできる。
また、本実施形態では、移動カメラC13が不審者を検知する場合について説明するが、移動カメラC13が検知するイベントは侵入検知であってもよい。この場合、移動カメラC13は、移動カメラC13の映像、もしくは赤外線センサなどの他のセンサをもとに、予めフロア内に定められた検知線を人物が通過したか否かを判定し、人物が通過したことを検知した場合に侵入を検知することができる。
不審者検知の場合、図4(b)に示すように、ナイフ221を所持している人物222が存在するかどうかを判断することで、不審者を検知することができる。本実施形態では、移動カメラC13が、移動カメラC13の映像をもとに不審者を検知する。なお、本実施形態ではナイフ221を所持している人物222を不審者として判断する場合について説明するが、他の属性を設定することで不審者を検知するようにしてもよい。例えば、事前に登録された人物と顔が一致したかどうかで不審者を検知することもできる。
また、本実施形態では、移動カメラC13が不審者を検知する場合について説明するが、移動カメラC13が検知するイベントは侵入検知であってもよい。この場合、移動カメラC13は、移動カメラC13の映像、もしくは赤外線センサなどの他のセンサをもとに、予めフロア内に定められた検知線を人物が通過したか否かを判定し、人物が通過したことを検知した場合に侵入を検知することができる。
まず図3(a)のS1において、情報処理装置100は、複数のカメラC1〜C13の映像を取得し、予め設定されたカメラの映像を表示装置120のディスプレイへ出力する。表示画面の一例を図4(c)に示す。
図4(c)に示すように、表示装置120の表示画面には、情報処理装置100が接続されているカメラの一覧121と、カメラの映像ビュー122とを表示することができる。映像ビュー122に表示するカメラの映像およびビューレイアウトは、監視者が予め設定することができる。なお、図4(c)では、映像ビュー122を3×3の画面としているが、映像ビュー122の分割数は監視者が変更することができる。
本実施形態では、イベントが検知されていない場合、複数のカメラC1〜C13のうち、少なくとも監視ロボット140に設けられたカメラC13により撮像された映像を表示させる。この場合、図4(c)に示すように、監視ロボット140に搭載されたカメラC13の映像にフォーカスを当てるようにしてもよい。
図4(c)に示すように、表示装置120の表示画面には、情報処理装置100が接続されているカメラの一覧121と、カメラの映像ビュー122とを表示することができる。映像ビュー122に表示するカメラの映像およびビューレイアウトは、監視者が予め設定することができる。なお、図4(c)では、映像ビュー122を3×3の画面としているが、映像ビュー122の分割数は監視者が変更することができる。
本実施形態では、イベントが検知されていない場合、複数のカメラC1〜C13のうち、少なくとも監視ロボット140に設けられたカメラC13により撮像された映像を表示させる。この場合、図4(c)に示すように、監視ロボット140に搭載されたカメラC13の映像にフォーカスを当てるようにしてもよい。
図3(a)に戻ってS2では、情報処理装置100は、監視ロボット140の位置情報を取得する。また、情報処理装置100は、10秒ごとに監視ロボット140の位置情報をRAM103に記憶し、移動履歴とする。情報処理装置100は、例えば監視ロボット140に搭載されたGPSにより、監視ロボット140の位置情報を取得することができる。
なお、監視ロボット140の位置情報の取得方法は、GPSを用いた方法に限定されない。監視ロボット140の位置情報の取得方法は、監視対象エリア上の監視ロボット140の位置が取得可能な方法であればよく、例えば、基準の位置からの移動量に基づいて監視ロボット140の位置情報を取得することもできる。
なお、監視ロボット140の位置情報の取得方法は、GPSを用いた方法に限定されない。監視ロボット140の位置情報の取得方法は、監視対象エリア上の監視ロボット140の位置が取得可能な方法であればよく、例えば、基準の位置からの移動量に基づいて監視ロボット140の位置情報を取得することもできる。
次にS3では、情報処理装置100は、移動体140に設けられた移動カメラ110がイベントを検知したか否かを判定する。そして、情報処理装置100は、移動カメラ110がイベントを検知していないと判定した場合にはS2の処理を繰り返し、移動カメラ110がイベントを検知したと存在すると判定した場合にはS4に移行する。
S4では、情報処理装置100は、イベントの内容を示すイベント情報を検出し、RAM103に記憶する。本実施形態では、イベント情報は、「不審者検知」である。
S4では、情報処理装置100は、イベントの内容を示すイベント情報を検出し、RAM103に記憶する。本実施形態では、イベント情報は、「不審者検知」である。
S5では、情報処理装置100は、S2において取得された移動カメラ110の移動履歴と、S4において取得されたイベント情報と、記憶装置130に記憶された複数のカメラ110の位置情報とを用いて、表示装置120に映像を表示するカメラを判別する。ここで、情報処理装置100は、イベントに関連する映像として、イベントが検知された位置の周囲の状況を確認できる映像を撮像するカメラ110を判別し、表示装置120に映像を表示するカメラ(表示対象カメラ)とする。この表示対象判別処理の詳細については後述する。
S6では、情報処理装置100は、表示対象カメラの映像を表示装置120へ出力することで、これらの映像を表示装置120のディスプレイへ表示させる表示制御を行い、図3(a)の処理を終了する。
S6では、情報処理装置100は、表示対象カメラの映像を表示装置120へ出力することで、これらの映像を表示装置120のディスプレイへ表示させる表示制御を行い、図3(a)の処理を終了する。
以下、図3(a)のS5において実行される表示対象判別処理について、図3(b)をもとに詳細に説明する。
まずS5aにおいて、情報処理装置100は、イベントが検知された位置から所定距離以内に位置するカメラ110を抽出する。具体的には、図4(b)に示すように、カメラC13が不審者222を検知した場合、情報処理装置100は、イベント検知時のカメラC13の位置をイベントが検知された位置とし、カメラC13からカメラC1〜カメラC12までの距離をそれぞれ計算する。そして、情報処理装置100は、計算した距離が所定距離以内にあるカメラを抽出する。イベント検知時のカメラC13の位置は、図3(a)のS2において取得された監視ロボット140の位置情報をもとに検出することができる。
ここで、上記所定距離は、例えば10メートルに設定することができる。イベント検知時の監視ロボット140(カメラC13)から10メートル以内の距離に、カメラC3、C4、C5、C9、C10およびC11の計6台が配置されている場合、情報処理装置100は、上記の計6台のカメラを表示対象カメラの候補として抽出する。
なお、上記所定距離は、10メートルに限定されるものではなく、監視者が適宜変更することが可能である。
まずS5aにおいて、情報処理装置100は、イベントが検知された位置から所定距離以内に位置するカメラ110を抽出する。具体的には、図4(b)に示すように、カメラC13が不審者222を検知した場合、情報処理装置100は、イベント検知時のカメラC13の位置をイベントが検知された位置とし、カメラC13からカメラC1〜カメラC12までの距離をそれぞれ計算する。そして、情報処理装置100は、計算した距離が所定距離以内にあるカメラを抽出する。イベント検知時のカメラC13の位置は、図3(a)のS2において取得された監視ロボット140の位置情報をもとに検出することができる。
ここで、上記所定距離は、例えば10メートルに設定することができる。イベント検知時の監視ロボット140(カメラC13)から10メートル以内の距離に、カメラC3、C4、C5、C9、C10およびC11の計6台が配置されている場合、情報処理装置100は、上記の計6台のカメラを表示対象カメラの候補として抽出する。
なお、上記所定距離は、10メートルに限定されるものではなく、監視者が適宜変更することが可能である。
次にS5bにおいて、情報処理装置100は、移動カメラ110の移動履歴に基づいて、移動カメラ110によって監視済みのエリアにあるカメラ110を抽出する。具体的には、情報処理装置100は、RAM103に記憶されているカメラC13の10秒ごとの監視ロボット140位置情報をもとに、イベントが検知された時点から遡って所定時間以内のカメラC13の位置を判別する。そして、情報処理装置100は、移動履歴の各位置におけるカメラC13とカメラC1〜C12との距離をそれぞれ計算し、カメラC13の位置から所定距離以内に位置するカメラを、カメラC13によって監視済みのエリアにあるカメラとして特定する。本実施形態では、移動履歴の各位置におけるカメラC13から最も近いカメラを、監視済みのエリアにあるカメラとして特定する。
図4(b)の各地点231〜234は、10秒ごとの監視ロボット140の移動履歴の各位置に対応している。地点231に最も近いカメラはカメラC5であり、地点232に最も近いカメラはカメラC6であり、地点233に最も近いカメラはカメラC12であり、地点241に最も近いカメラはカメラC11である。したがって、情報処理装置100は、カメラC13によって監視済みのエリアにあるカメラとして、カメラC5、C6、C11およびC12を抽出する。
図4(b)の各地点231〜234は、10秒ごとの監視ロボット140の移動履歴の各位置に対応している。地点231に最も近いカメラはカメラC5であり、地点232に最も近いカメラはカメラC6であり、地点233に最も近いカメラはカメラC12であり、地点241に最も近いカメラはカメラC11である。したがって、情報処理装置100は、カメラC13によって監視済みのエリアにあるカメラとして、カメラC5、C6、C11およびC12を抽出する。
S5cでは、情報処理装置100は、S5aにおいて抽出された表示対象カメラの候補から、S5bにおいて抽出された監視済みのエリアにあるカメラ110を除外し、残ったカメラを表示対象カメラとする。つまり、情報処理装置100は、移動カメラ110によって監視済みのエリアの映像は表示対象とする必要がないと判断し、監視済みのエリアにあるカメラ110は表示対象カメラから除外する。
図4(b)の例では、表示対象カメラの候補であるカメラC3、C4、C5、C9、C10およびC11のうち、監視済みのエリアにあるカメラC5、C6、C11およびC12が除外され、カメラC3、C4、C9およびC10が表示対象カメラとなる。
図4(b)の例では、表示対象カメラの候補であるカメラC3、C4、C5、C9、C10およびC11のうち、監視済みのエリアにあるカメラC5、C6、C11およびC12が除外され、カメラC3、C4、C9およびC10が表示対象カメラとなる。
図4(c)はイベント検知時の映像表示の一例である。映像の表示に際し、情報処理装置100は、判別した表示対象カメラの映像を、実空間におけるカメラの設置位置に対応するよう配置して表示させるようにしてもよい。
また、情報処理装置100は、表示対象カメラの映像を、新しいウインドウで表示させるようにしてもよい。さらに、表示された複数の映像のうちイベントを検知したカメラの映像がどれであるかが分かるように、フォーカスを当てるようにしてもよい。なお、フォーカスは一例であり、イベントを検知したカメラの映像枠をハイライトしてもよいし、他のカメラの映像よりも大きく表示してもよい。つまり、他のカメラの映像と区別がつけばよい。
また、映像の表示方法は一例であり、上記に限定されるものではない。例えば、デュアルディスプレイの場合、イベント検知したカメラの映像をメインディスプレイに表示し、関連するカメラ映像をサブディスプレイに表示してもよい。
また、情報処理装置100は、表示対象カメラの映像を、新しいウインドウで表示させるようにしてもよい。さらに、表示された複数の映像のうちイベントを検知したカメラの映像がどれであるかが分かるように、フォーカスを当てるようにしてもよい。なお、フォーカスは一例であり、イベントを検知したカメラの映像枠をハイライトしてもよいし、他のカメラの映像よりも大きく表示してもよい。つまり、他のカメラの映像と区別がつけばよい。
また、映像の表示方法は一例であり、上記に限定されるものではない。例えば、デュアルディスプレイの場合、イベント検知したカメラの映像をメインディスプレイに表示し、関連するカメラ映像をサブディスプレイに表示してもよい。
なお、本実施形態では、カメラC1〜C12が固定カメラである場合について説明したが、カメラC1〜C12の少なくとも1台が移動体に内蔵されたカメラであってもよい。その場合、情報処理装置100は、カメラC13によってイベントが検知された際に、カメラC1〜C12のうち移動体に内蔵されたカメラの位置を示す撮像位置情報を取得し、取得した撮像位置情報を表示対象カメラの判別に用いる。
また、本実施形態では、移動体140が監視ロボットである場合について説明したが、移動体140は、例えば車や人であってもよい。つまり、車にカメラが取り付けられていてもよいし、人がウェアラブルカメラを身に着けていてもよい。つまり、移動体に対して撮像装置が外付けまたは内蔵されていればよい。
また、本実施形態では、移動体140が監視ロボットである場合について説明したが、移動体140は、例えば車や人であってもよい。つまり、車にカメラが取り付けられていてもよいし、人がウェアラブルカメラを身に着けていてもよい。つまり、移動体に対して撮像装置が外付けまたは内蔵されていればよい。
さらに、本実施形態では、監視ロボット140に内蔵された移動カメラ110がイベントを検知する場合について説明したが、これは一例であり、上記に限定されるものではない。例えば、固定カメラ110がイベントを検知し、その周囲にある固定カメラ110の映像を表示する際にも適用可能である。その場合、イベントを検知した固定カメラ110から所定距離以内に位置する固定カメラ110を表示対象カメラの候補とする。そして、当該候補のうち、監視ロボット140がイベント検知時点から遡って所定時間以内に監視したエリアにある固定カメラ110を表示対象カメラから除外する。
また、本実施形態では、イベントを検知したカメラから所定距離以内に位置するカメラを表示対象カメラの候補とする場合について説明したが、上記に限定されるものではない。例えば、各カメラの撮像範囲を検出し、イベント検知したカメラに近い範囲を撮像しているカメラ、より具体的には、イベントを検知したカメラから所定距離以内の範囲に撮像範囲が含まれるカメラを、表示対象カメラの候補としてもよい。なお、表示対象カメラの候補は、予め設定された固定のカメラセットであってもよいし、イベントが検知された位置ごとに予め設定されていてもよい。また、検知されたイベントの内容ごとに、異なる表示対象カメラの候補が予め設定されていてもよい。つまり、イベント情報のみに基づいて、表示対象カメラの候補を抽出することもできる。
さらに、本実施形態では、移動カメラの移動履歴の各位置から最も近いカメラを監視済みエリアあるカメラとして、表示対象カメラから除外する場合について説明したが、上記に限定されるものではない。例えば、各カメラの撮像範囲を検出し、イベントが検知された時点から遡って所定時間以内に移動カメラが撮像した範囲に撮像範囲が含まれるカメラを、表示対象カメラから除外するカメラとしてもよい。
また、監視済みエリアにあるカメラは、予め監視ロボット140が移動し得る各位置を示す位置情報と対応付けて記憶しておくこともできる。つまり、監視ロボット140の移動履歴のみに基づいて、監視済みエリアにあるカメラを特定することもできる。
また、監視済みエリアにあるカメラは、予め監視ロボット140が移動し得る各位置を示す位置情報と対応付けて記憶しておくこともできる。つまり、監視ロボット140の移動履歴のみに基づいて、監視済みエリアにあるカメラを特定することもできる。
さらに、本実施形態では、イベント情報が「不審者検知」である場合について説明したが、これは一例であり、上記に限定されるものではない。例えば「悲鳴検知」や「侵入検知」の場合にも、監視員は、イベントが検知された位置の周囲の状況を確認したい場合がある。したがって、上記のように周囲の状況を確認したいイベントである場合には適用可能である。
以上説明したように、本実施形態における情報処理装置100は、所定の事象に基づいて検知されたイベントに関するイベント情報と、移動カメラ110が設けられた移動体(監視ロボット)140の移動履歴と、を取得する。ここで、情報処理装置100は、移動カメラ110において撮像画像をもとに検知されたイベントに関するイベント情報を取得する。情報処理装置100は、取得されたイベント情報と、取得された移動履歴とに基づいて、複数のカメラ110のうちイベントに関連する撮像画像(映像)を撮像するカメラ110を判別する。そして、情報処理装置100は、判別されたカメラ110を、映像を優先的に表示させる表示対象カメラとして決定し、決定された表示対象カメラにより撮像された映像を、表示装置120に表示させる表示制御を行う。
このように、情報処理装置100は、移動体140に設けられた移動カメラ110の移動履歴を考慮して、イベントに関連するカメラ110の映像を表示させることができる。したがって、監視者にとって所望な映像(監視したい映像)を適切に表示させることができる。
ここで、情報処理装置100は、複数のカメラ110の位置を示す撮像位置情報を取得し、イベント情報、移動履歴および撮像位置情報に基づいて、上記表示対象カメラを判別することができる。撮像位置情報は、予め監視員の設定をもとに取得しておいてもよいし、イベントが検知された際に取得してもよい。これにより、情報処理装置100は、イベントに関連する映像を撮像するカメラ110を適切に判別することができる。
ここで、情報処理装置100は、複数のカメラ110の位置を示す撮像位置情報を取得し、イベント情報、移動履歴および撮像位置情報に基づいて、上記表示対象カメラを判別することができる。撮像位置情報は、予め監視員の設定をもとに取得しておいてもよいし、イベントが検知された際に取得してもよい。これにより、情報処理装置100は、イベントに関連する映像を撮像するカメラ110を適切に判別することができる。
具体的には、情報処理装置100は、イベントが検知されていない場合、移動体140に設けられた移動カメラ110により撮像された撮像画像(映像)を表示装置120に表示させる。イベントが検知された場合には、情報処理装置100は、イベントが検知された位置から所定距離以内に位置するカメラ110を、表示対象カメラの候補として判別する。そして、情報処理装置100は、移動履歴をもとに、イベントが検知された時点から遡って所定時間以内の移動体140の位置を判別し、判別された位置から所定距離以内に位置するカメラ110を表示対象カメラの候補から除外して、映像を表示する。
つまり、移動体140に設けられた移動カメラ110がイベント検知前の所定時間内に撮像した映像は、表示対象から除外することができる。これにより、監視済みのエリアの映像が表示装置120に表示されることがなくなり、監視員はイベントに関連する映像を効率的に確認することができる。
つまり、移動体140に設けられた移動カメラ110がイベント検知前の所定時間内に撮像した映像は、表示対象から除外することができる。これにより、監視済みのエリアの映像が表示装置120に表示されることがなくなり、監視員はイベントに関連する映像を効率的に確認することができる。
なお、情報処理装置100は、イベントが検知された時点から遡って所定時間以内に移動体140に設置された移動カメラ110が撮像した範囲に撮像範囲が含まれるカメラ110を、表示対象カメラから除外してもよい。この場合、移動カメラ110がイベント検知前の所定時間内に撮像した映像を適切に表示対象から除外することができる。
以上のように、情報処理装置100は、カメラ110が設けられた移動体140の移動履歴を考慮して、監視済みのエリアを撮像するカメラ110を表示対象から除外することができる。したがって、監視者はイベントに関連する映像のうち、監視が済んでいないエリアの映像を優先度の高い映像として確認することができ、安否確認など周囲の状況確認を効率的に行うことができる。
(第二の実施形態)
次に、本発明における第二の実施形態について説明する。
上述した第一の実施形態では、監視済みエリアにあるカメラを表示対象カメラから除外する場合について説明した。第二の実施形態では、監視済みエリアにおける検知結果をもとに表示対象カメラを判別する場合について説明する。
この第二の実施形態における情報処理装置100のハードウェア構成および機能構成は、図1および図2に示す第一の実施形態と同様である。
次に、本発明における第二の実施形態について説明する。
上述した第一の実施形態では、監視済みエリアにあるカメラを表示対象カメラから除外する場合について説明した。第二の実施形態では、監視済みエリアにおける検知結果をもとに表示対象カメラを判別する場合について説明する。
この第二の実施形態における情報処理装置100のハードウェア構成および機能構成は、図1および図2に示す第一の実施形態と同様である。
以下、本実施形態における情報処理装置100の動作について、図5(a)および図5(b)のフローチャートを用いて説明する。
この図5(a)の処理の開始タイミングは、図3(a)に示す第一の実施形態の処理と同様である。情報処理装置100は、CPU101が必要なプログラムを読み出して実行することにより、図5(a)および図5(b)に示す各処理を実現することができる。図5(a)において、図3(a)と同一処理を行うステップには同一ステップ番号を付し、以下、処理の異なる部分を中心に説明する。
この図5(a)の処理の開始タイミングは、図3(a)に示す第一の実施形態の処理と同様である。情報処理装置100は、CPU101が必要なプログラムを読み出して実行することにより、図5(a)および図5(b)に示す各処理を実現することができる。図5(a)において、図3(a)と同一処理を行うステップには同一ステップ番号を付し、以下、処理の異なる部分を中心に説明する。
本実施形態では、図6(a)に示すように、図4(b)と同様の倉庫200内に12台の固定カメラ(C1〜C12)が配置され、倉庫300内を1台の監視ロボット140が巡回している場合を例に説明する。図4(b)との違いは、監視ロボット140が地点225の位置において人物223を検知している点である。
情報処理装置100は、S2において監視ロボット140の位置情報を取得した後、S11に移行して、移動カメラ110の映像から所定のオブジェクトを検知する検知処理を行う。本実施形態では、上記所定のオブジェクトは人物であり、情報処理装置100は、移動カメラ110の映像から人物を検知する人物検知処理を行う。そして、情報処理装置100は、人物を検知している場合には、その時点での監視ロボット140の位置情報を人物が検知された際の位置情報としてRAM103に記憶する。
なお、本実施形態では、情報処理装置100が人物検知処理を行う場合について説明するが、移動カメラ110が人物検知処理を行うようにしてもよい。この場合、情報処理装置100は、移動カメラ110から人物検知処理の結果を取得し、人物が検知されている場合に、その時点での監視ロボット140の位置情報を人物が検知された際の位置情報としてRAM103に記憶する。
情報処理装置100は、S2において監視ロボット140の位置情報を取得した後、S11に移行して、移動カメラ110の映像から所定のオブジェクトを検知する検知処理を行う。本実施形態では、上記所定のオブジェクトは人物であり、情報処理装置100は、移動カメラ110の映像から人物を検知する人物検知処理を行う。そして、情報処理装置100は、人物を検知している場合には、その時点での監視ロボット140の位置情報を人物が検知された際の位置情報としてRAM103に記憶する。
なお、本実施形態では、情報処理装置100が人物検知処理を行う場合について説明するが、移動カメラ110が人物検知処理を行うようにしてもよい。この場合、情報処理装置100は、移動カメラ110から人物検知処理の結果を取得し、人物が検知されている場合に、その時点での監視ロボット140の位置情報を人物が検知された際の位置情報としてRAM103に記憶する。
S12では、情報処理装置100は、表示対象カメラを判別するための表示対象判別処理を行う。表示対象判別処理手順を図5(b)に示す。
まずS5dにおいて、情報処理装置100は、人物が検知された時点での監視ロボット140の位置情報をRAM103から読み出し、その位置から所定距離以内に位置するカメラ110を抽出する。上記所定距離は、例えば10メートルに設定することができる。なお、所定距離は、監視者により変更することが可能である。
具体的には、図6(a)に示すように、移動カメラ110であるカメラC13が地点225において人物223を検知した場合、情報処理装置100は、地点225から10メートル以内にあるカメラを抽出する。例えば、地点225から最も近い距離(5メートル)にカメラC12があり、次に近い距離(7メートル)にカメラC6、C11があり、その次に近い距離(10メートル)にカメラC5が配置されているものとする。この場合、情報処理装置100は、カメラC5、C6、C11およびC12を抽出する。
まずS5dにおいて、情報処理装置100は、人物が検知された時点での監視ロボット140の位置情報をRAM103から読み出し、その位置から所定距離以内に位置するカメラ110を抽出する。上記所定距離は、例えば10メートルに設定することができる。なお、所定距離は、監視者により変更することが可能である。
具体的には、図6(a)に示すように、移動カメラ110であるカメラC13が地点225において人物223を検知した場合、情報処理装置100は、地点225から10メートル以内にあるカメラを抽出する。例えば、地点225から最も近い距離(5メートル)にカメラC12があり、次に近い距離(7メートル)にカメラC6、C11があり、その次に近い距離(10メートル)にカメラC5が配置されているものとする。この場合、情報処理装置100は、カメラC5、C6、C11およびC12を抽出する。
S5eでは、情報処理装置100は、S5dにおいて抽出されたカメラを表示対象カメラとする。図6(a)の例では、カメラC5、C6、C11およびC12が表示対象カメラとなる。
図6(b)は映像表示の一例である。このように、カメラC13において不審者222を検知した場合、カメラC13の映像と、カメラC13が不審者222を検知する前に人物223を検知した位置に近いカメラC5、C6、C11およびC12の映像とが表示される。
図6(b)は映像表示の一例である。このように、カメラC13において不審者222を検知した場合、カメラC13の映像と、カメラC13が不審者222を検知する前に人物223を検知した位置に近いカメラC5、C6、C11およびC12の映像とが表示される。
なお、本実施形態ではイベントを検知する前に検知した人物が一人である場合について説明したが、複数の人物が検知された場合にも適用可能である。その場合、後から検知した人物の位置情報に基づいて表示対象カメラを判別する。ただし、表示対象カメラの判別方法は一例であり、上記に限定されるものではない。例えば、先に検知した人物の位置情報に基づいて表示対象カメラを判別してもよいし、検知した複数の位置の平均位置情報に基づいて表示対象カメラを判別してもよい。
また、本実施形態では、所定のオブジェクトを検知する検知処理として、人物検知処理を行う場合について説明したが、検知対象は人物に限定されない。検知対象は、イベントと関係のある可能性があるオブジェクトであればよい。
また、本実施形態では、所定のオブジェクトを検知する検知処理として、人物検知処理を行う場合について説明したが、検知対象は人物に限定されない。検知対象は、イベントと関係のある可能性があるオブジェクトであればよい。
以上説明したように、本実施形態における情報処理装置100は、移動体140に設けられたカメラ110の撮像画像をもとに所定のオブジェクト(本実施形態では、人物)が検知された際の移動体140の位置を示す位置情報を取得する。情報処理装置100は、イベントが検知された場合、移動体140の移動履歴をもとに、イベントが検知された時点よりも前の上記オブジェクトが検知された時点での移動体140の位置を判別する。そして、情報処理装置100は、判別された移動体140の位置から所定距離以内に位置するカメラ110を、表示対象カメラとして判別する。
このように、情報処理装置100は、移動体140に設置されたカメラ110によって監視済みのエリアのうち、人物を検知した位置に近いカメラの映像を表示対象とする。したがって、監視員は、不審者と関係のある可能性がある人物の周辺の映像を監視することが可能となる。
このように、情報処理装置100は、移動体140に設置されたカメラ110によって監視済みのエリアのうち、人物を検知した位置に近いカメラの映像を表示対象とする。したがって、監視員は、不審者と関係のある可能性がある人物の周辺の映像を監視することが可能となる。
(変形例)
なお、上記各実施形態においては、イベント検知をカメラ110が行う場合について説明したが、情報処理装置100がカメラ110の撮像画像(映像)を取得し、取得した撮像画像(映像)を解析してイベントを検知してもよい。この場合、情報処理装置100は、イベントの検知結果をもとに、イベントに関するイベント情報を取得する。このとき、情報処理装置100は、イベントが検知された位置を示す位置情報も取得することができる。具体的には、情報処理装置100は、複数のカメラ110の位置情報と、イベントが検知された撮像画像を撮像したカメラ110の識別情報とに基づいて、イベントが検知された撮像画像を撮像したカメラ110の位置情報を導出する。そして、情報処理装置100は、導出されたカメラ110の位置情報を、イベントが検知された位置を示す位置情報として取得することができる。
また、上記各実施形態において説明した内容は、適宜組み合わせることができる。
なお、上記各実施形態においては、イベント検知をカメラ110が行う場合について説明したが、情報処理装置100がカメラ110の撮像画像(映像)を取得し、取得した撮像画像(映像)を解析してイベントを検知してもよい。この場合、情報処理装置100は、イベントの検知結果をもとに、イベントに関するイベント情報を取得する。このとき、情報処理装置100は、イベントが検知された位置を示す位置情報も取得することができる。具体的には、情報処理装置100は、複数のカメラ110の位置情報と、イベントが検知された撮像画像を撮像したカメラ110の識別情報とに基づいて、イベントが検知された撮像画像を撮像したカメラ110の位置情報を導出する。そして、情報処理装置100は、導出されたカメラ110の位置情報を、イベントが検知された位置を示す位置情報として取得することができる。
また、上記各実施形態において説明した内容は、適宜組み合わせることができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
11…映像入力部、12…イベント検知部、13…位置情報取得部、14…表示制御部、100…情報処理装置、110…撮像装置、120…表示装置、130…記憶装置、140…移動体、150…ネットワーク
Claims (12)
- 所定の事象に基づいて検知されたイベントに関するイベント情報を取得する第1の取得手段と、
撮像装置が設けられた移動体の移動履歴を取得する第2の取得手段と、
前記第1の取得手段により取得された前記イベント情報と、前記第2の取得手段により取得された前記移動履歴とに基づいて、複数の撮像装置のうち前記イベントに関連する撮像画像を撮像する撮像装置を判別する判別手段と、
前記判別手段により判別された撮像装置により撮像された撮像画像を表示させる表示制御手段と、を備えることを特徴とする情報処理装置。 - 前記判別手段は、
前記移動履歴をもとに、前記イベントが検知された時点から遡って所定時間以内の前記移動体の位置を判別し、判別された前記移動体の位置から所定距離以内に位置する撮像装置を、前記イベントに関連する撮像画像を撮像する撮像装置から除外することを特徴とする請求項1に記載の情報処理装置。 - 前記判別手段は、
前記移動履歴をもとに、前記イベントが検知された時点から遡って所定時間以内に前記移動体に設置された撮像装置が撮像した範囲に撮像範囲が含まれる撮像装置を、前記イベントに関連する撮像画像を撮像する撮像装置から除外することを特徴とする請求項1に記載の情報処理装置。 - 前記表示制御手段は、
前記イベントが検知されていない場合、前記移動体に設けられた撮像装置により撮像された撮像画像を表示させることを特徴とする請求項2または3に記載の情報処理装置。 - 前記移動履歴は、前記移動体に設けられた撮像装置の撮像画像をもとに所定のオブジェクトが検知された際の前記移動体の位置を示す位置情報を含み、
前記判別手段は、
前記移動履歴をもとに、前記イベントが検知された時点よりも前の前記オブジェクトが検知された時点での前記移動体の位置を判別し、判別された前記移動体の位置から所定距離以内に位置する撮像装置を、前記イベントに関連する撮像画像を撮像する撮像装置として判別することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。 - 前記所定のオブジェクトは、人物であることを特徴とする請求項5に記載の情報処理装置。
- 前記複数の撮像装置の位置を示す撮像位置情報を取得する第3の取得手段をさらに備え、
前記判別手段は、
前記イベント情報、前記移動履歴および前記撮像位置情報に基づいて、前記イベントに関連する撮像画像を撮像する撮像装置を判別することを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。 - 前記第3の取得手段は、前記イベントが検知された際に、前記撮像位置情報を取得することを特徴とする請求項7に記載の情報処理装置。
- 前記第1の取得手段は、前記複数の撮像装置によりそれぞれ撮像された撮像画像をもとに検知されたイベントに関する前記イベント情報を取得することを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
- 前記第1の取得手段は、
前記複数の撮像装置によりそれぞれ撮像された撮像画像を取得し、取得された撮像画像から前記イベントを検知することで前記イベント情報を取得することを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。 - 所定の事象に基づいて検知されたイベントに関するイベント情報を取得するステップと、
撮像装置が設けられた移動体の移動履歴を取得するステップと、
前記イベント情報と前記移動履歴とに基づいて、複数の撮像装置のうち前記イベントに関連する撮像画像を撮像する撮像装置を判別するステップと、
判別された前記撮像装置により撮像された撮像画像を表示させるステップと、を含むことを特徴とする情報処理方法。 - コンピュータを、請求項1から10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018237906A JP2020102677A (ja) | 2018-12-20 | 2018-12-20 | 情報処理装置、情報処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018237906A JP2020102677A (ja) | 2018-12-20 | 2018-12-20 | 情報処理装置、情報処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020102677A true JP2020102677A (ja) | 2020-07-02 |
Family
ID=71139931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018237906A Pending JP2020102677A (ja) | 2018-12-20 | 2018-12-20 | 情報処理装置、情報処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020102677A (ja) |
-
2018
- 2018-12-20 JP JP2018237906A patent/JP2020102677A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9477891B2 (en) | Surveillance system and method based on accumulated feature of object | |
US10719946B2 (en) | Information processing apparatus, method thereof, and computer-readable storage medium | |
EP3016382B1 (en) | Monitoring methods and devices | |
US10235574B2 (en) | Image-capturing device, recording device, and video output control device | |
CN110199316B (zh) | 相机和相机的图像处理方法 | |
JP2009159448A (ja) | 物体検出装置及び物体検出方法 | |
JP2017162103A (ja) | 点検作業支援システム、点検作業支援方法、点検作業支援プログラム | |
KR20090026937A (ko) | 복수의 이벤트 영상을 표시하는 통합 감시 시스템 및 이를이용한 복수의 이벤트 영상 표시 방법 | |
JP6270488B2 (ja) | オペレータ監視制御装置およびオペレータ監視制御方法 | |
US20210090611A1 (en) | Information processing apparatus, control method, and program | |
JP2019135653A (ja) | 監視システム、監視方法および監視プログラム | |
JP6602067B2 (ja) | 表示制御装置、表示制御方法、プログラム | |
JP5202419B2 (ja) | 警備システムおよび警備方法 | |
JP2018207175A (ja) | 人数管理装置、人数管理方法およびプログラム | |
JP2007312271A (ja) | 監視システム | |
JP2019176380A (ja) | 制御装置及び監視システム | |
JP2005143016A (ja) | 監視システムおよび監視方法 | |
JP6941458B2 (ja) | 監視システム | |
JP2020102677A (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR101060414B1 (ko) | 감시 시스템 및 그 감시 방법 | |
JP2015176489A (ja) | 監視システムおよび監視方法ならびに監視プログラム | |
KR101445361B1 (ko) | 현장 모니터링 장치 | |
US20230401860A1 (en) | Management apparatus, management method, management system, computer program and recording medium | |
JP2021044692A (ja) | 監視システム | |
KR101926435B1 (ko) | 시간압축방식을 이용한 객체 추적 시스템 |