JP2020102676A - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2020102676A JP2020102676A JP2018237905A JP2018237905A JP2020102676A JP 2020102676 A JP2020102676 A JP 2020102676A JP 2018237905 A JP2018237905 A JP 2018237905A JP 2018237905 A JP2018237905 A JP 2018237905A JP 2020102676 A JP2020102676 A JP 2020102676A
- Authority
- JP
- Japan
- Prior art keywords
- event
- camera
- information processing
- information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
Abstract
【課題】複数の撮像装置によって撮像された撮像画像のうち、イベントに関連する適切な撮像画像をユーザに提示する。【解決手段】情報処理装置は、所定の事象に基づいて検知されたイベントの内容を示すイベント情報を取得する第1の取得手段と、第1の取得手段により取得されたイベント情報に応じて、異なる判別方法を用いて、複数の撮像装置のうちイベントに関連する撮像画像を撮像する撮像装置を判別する判別手段と、判別手段により判別された撮像装置により撮像された撮像画像を表示させる表示制御手段と、を備える。【選択図】 図2
Description
本発明は、情報処理装置、情報処理方法およびプログラムに関する。
複数の監視カメラの映像を表示する映像表示システムにおいて、監視カメラが予め設定された事象に基づいてイベントを検知した場合、イベントを検知した監視カメラの映像をモニタ画面上に表示することが一般的に行われている。しかしながら、イベントを検知した監視カメラの映像を表示しただけでは、監視者が周囲の状況を把握することは難しい。
そこで、特許文献1には、イベントを検知した監視カメラの映像とその周辺にある監視カメラの映像とを表示する技術が開示されている。具体的には、この技術は、道路に設置された複数の監視カメラのうちの1つの監視カメラが道路上にある落下物を検知した際、落下物を検知した監視カメラの映像と、その上流または下流にある監視カメラの映像とを表示する技術である。
そこで、特許文献1には、イベントを検知した監視カメラの映像とその周辺にある監視カメラの映像とを表示する技術が開示されている。具体的には、この技術は、道路に設置された複数の監視カメラのうちの1つの監視カメラが道路上にある落下物を検知した際、落下物を検知した監視カメラの映像と、その上流または下流にある監視カメラの映像とを表示する技術である。
しかしながら、検知されたイベントの内容に応じて、監視者が優先的に監視したい映像は異なる。例えば、侵入禁止エリアへの侵入が検知された場合、監視者は、侵入者とその周囲の状況とを優先的に監視したい。一方、備品等の持ち去りが検知された場合、犯人は逃走する可能性が高いため、監視者は犯人の逃走経路を優先的に監視したい。このように、イベントの内容によって優先的に表示すべき監視カメラの映像は異なり、必ずしもイベントを検知した監視カメラの周囲に存在する監視カメラの映像を表示することが適切であるとは限らない。
そこで、本発明は、複数の撮像装置によって撮像された撮像画像のうち、イベントに関連する適切な撮像画像をユーザに提示することを課題としている。
そこで、本発明は、複数の撮像装置によって撮像された撮像画像のうち、イベントに関連する適切な撮像画像をユーザに提示することを課題としている。
上記課題を解決するために、本発明に係る情報処理装置の一態様は、所定の事象に基づいて検知されたイベントの内容を示すイベント情報を取得する第1の取得手段と、前記第1の取得手段により取得された前記イベント情報に応じて、異なる判別方法を用いて、複数の撮像装置のうち前記イベントに関連する撮像画像を撮像する撮像装置を判別する判別手段と、前記判別手段により判別された撮像装置により撮像された撮像画像を表示させる表示制御手段と、を備える。
本発明によれば、複数の撮像装置によって撮像された撮像画像のうち、イベントに関連する適切な撮像画像をユーザに提示することができる。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
本実施形態では、複数の撮像装置により撮像された映像を表示する映像表示システムとして、所定の事象に基づいてイベントを検知し、検知されたイベントに関連する映像を表示するシステムについて説明する。上記所定の事象は、侵入、持ち去り、置き去り、悲鳴発生、不審者出現といった異常な事象である。
本実施形態における映像表示システムは、イベントが検知された際に、イベントの内容に応じて、当該イベントに関連する映像を表示することで、監視者にとって所望な映像を提示する。
本実施形態では、複数の撮像装置により撮像された映像を表示する映像表示システムとして、所定の事象に基づいてイベントを検知し、検知されたイベントに関連する映像を表示するシステムについて説明する。上記所定の事象は、侵入、持ち去り、置き去り、悲鳴発生、不審者出現といった異常な事象である。
本実施形態における映像表示システムは、イベントが検知された際に、イベントの内容に応じて、当該イベントに関連する映像を表示することで、監視者にとって所望な映像を提示する。
図1は、本実施形態における映像表示システムが備える情報処理装置100のハードウェア構成例である。
情報処理装置100は、CPU101、ROM102、RAM103、システムバス104、入力I/F105、出力I/F106、入出力I/F107を備える。
CPU101は、各種処理のための演算や論理判断などを行い、情報処理装置100における動作を統括的に制御する。ROM102は、CPU101が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、当該プログラムは、情報処理装置100に接続された記憶装置130や着脱可能な記憶媒体に記憶されていてもよい。RAM103は、CPU103の主メモリ、ワークエリア等として機能する。CPU101は、処理の実行に際してROM102や記憶装置130などから必要なプログラム等をRAM103にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
システムバス104は、CPU101、ROM102、RAM103、入力I/F105、出力I/F106おより入出力I/F107を接続する。システムバス104は、アドレスバス、データバス及びコントロールバスなどを含むことができる。
情報処理装置100は、CPU101、ROM102、RAM103、システムバス104、入力I/F105、出力I/F106、入出力I/F107を備える。
CPU101は、各種処理のための演算や論理判断などを行い、情報処理装置100における動作を統括的に制御する。ROM102は、CPU101が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、当該プログラムは、情報処理装置100に接続された記憶装置130や着脱可能な記憶媒体に記憶されていてもよい。RAM103は、CPU103の主メモリ、ワークエリア等として機能する。CPU101は、処理の実行に際してROM102や記憶装置130などから必要なプログラム等をRAM103にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
システムバス104は、CPU101、ROM102、RAM103、入力I/F105、出力I/F106おより入出力I/F107を接続する。システムバス104は、アドレスバス、データバス及びコントロールバスなどを含むことができる。
入力I/F105は、複数の撮像装置110に接続され、複数の撮像装置110からそれぞれ出力される信号を取得する。
撮像装置110は、1枚以上の撮像画像を含む映像を出力する監視カメラである。複数の撮像装置110(以下、「カメラ」という。)は、それぞれ異なる位置に設置され、それぞれ異なる撮像範囲を撮像することができる。カメラ110は、例えばネットワークを介して情報処理装置100に対して撮像画像(映像)を送信するネットワークカメラとすることができる。
また、カメラ110は、撮像画像(映像)をもとに、所定の事象に基づいてイベントを検知し、情報処理装置100に対して、カメラ110の個体を識別するための識別情報や、上記イベントに関する情報(イベント情報)を示す信号を送信することもできる。つまり、入力I/F105がカメラ110から取得する信号は、カメラ110により撮像された映像、カメラ110の識別情報、およびカメラ110が検知したイベントのイベント情報を含む。
撮像装置110は、1枚以上の撮像画像を含む映像を出力する監視カメラである。複数の撮像装置110(以下、「カメラ」という。)は、それぞれ異なる位置に設置され、それぞれ異なる撮像範囲を撮像することができる。カメラ110は、例えばネットワークを介して情報処理装置100に対して撮像画像(映像)を送信するネットワークカメラとすることができる。
また、カメラ110は、撮像画像(映像)をもとに、所定の事象に基づいてイベントを検知し、情報処理装置100に対して、カメラ110の個体を識別するための識別情報や、上記イベントに関する情報(イベント情報)を示す信号を送信することもできる。つまり、入力I/F105がカメラ110から取得する信号は、カメラ110により撮像された映像、カメラ110の識別情報、およびカメラ110が検知したイベントのイベント情報を含む。
出力I/F106は、表示装置120に接続され、表示装置120に対してカメラ110から取得した映像を出力する。
表示装置120は、カメラ110により撮像された映像を表示するための装置である。表示装置120は、液晶ディスプレイ、CRTディスプレイ、プロジェクタなどを備えることができる。情報処理装置100は、後述する処理を実行して、複数のカメラ110の映像うち表示装置120に表示させる映像を決定し、決定した映像を表示装置120へ出力する。
表示装置120は、カメラ110により撮像された映像を表示するための装置である。表示装置120は、液晶ディスプレイ、CRTディスプレイ、プロジェクタなどを備えることができる。情報処理装置100は、後述する処理を実行して、複数のカメラ110の映像うち表示装置120に表示させる映像を決定し、決定した映像を表示装置120へ出力する。
入出力I/F107は、記憶装置130に接続され、記憶装置130に対してデータの入出力を行う。
記憶装置130は、情報処理装置100が備えるハードディスクドライブ(HDD)とすることができる。なお、記憶装置130は、情報処理装置100に外部から接続された外部記憶装置であってもよい。この場合、記憶装置130は、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとを備えることができる。このようなメディアとしては、例えば、USBメモリ、フラッシュメモリ等が知られている。また、記憶装置130は、情報処理装置100に対してネットワークを介して接続されたサーバ装置であってもよい。
情報処理装置100は、例えばパーソナルコンピュータ(PC)といったユーザ(監視者)が操作可能な端末装置とすることができる。なお、複数のカメラ110のうちの1台が情報処理装置100として動作してもよい。
記憶装置130は、情報処理装置100が備えるハードディスクドライブ(HDD)とすることができる。なお、記憶装置130は、情報処理装置100に外部から接続された外部記憶装置であってもよい。この場合、記憶装置130は、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとを備えることができる。このようなメディアとしては、例えば、USBメモリ、フラッシュメモリ等が知られている。また、記憶装置130は、情報処理装置100に対してネットワークを介して接続されたサーバ装置であってもよい。
情報処理装置100は、例えばパーソナルコンピュータ(PC)といったユーザ(監視者)が操作可能な端末装置とすることができる。なお、複数のカメラ110のうちの1台が情報処理装置100として動作してもよい。
図2は、情報処理装置100の機能構成の一例を示す図である。
この図2に示すように、情報処理装置100は、映像入力部11と、イベント検知部12と、表示制御部13と、を備える。この図2に示す情報処理装置100の各要素のうち少なくとも一部の機能は、図1に示すCPU101がプログラムを実行することで実現することができる。ただし、図2に示す情報処理装置100の各要素のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU101の制御に基づいて動作する。
この図2に示すように、情報処理装置100は、映像入力部11と、イベント検知部12と、表示制御部13と、を備える。この図2に示す情報処理装置100の各要素のうち少なくとも一部の機能は、図1に示すCPU101がプログラムを実行することで実現することができる。ただし、図2に示す情報処理装置100の各要素のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU101の制御に基づいて動作する。
映像入力部11は、複数のカメラ110から出力された映像を、ネットワーク150を介して取得し、情報処理装置100が制御する情報に変換する。
ネットワーク150は、例えば、Ethernet(登録商標)の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から構成される。なお、ネットワーク150は、カメラ110と情報処理装置100との間で通信可能な構成であれば、その通信規格、規模および構成は問わない。ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)、若しくはこれらの複合により実現してもよい。
ネットワーク150は、例えば、Ethernet(登録商標)の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から構成される。なお、ネットワーク150は、カメラ110と情報処理装置100との間で通信可能な構成であれば、その通信規格、規模および構成は問わない。ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)、若しくはこれらの複合により実現してもよい。
イベント検知部12は、カメラ110から出力された信号を、ネットワーク150を介して取得し、情報処理装置100が制御する情報に変換する。イベント検知部12が取得する信号は、カメラ110の識別情報と、イベント情報と、を含む。ここで、イベント情報は、イベントの内容を示す情報であり、「侵入検知」、「持ち去り検知」、「不審者検知」などである。
複数のカメラ110の位置を示す位置情報(撮像位置情報)は、予め取得しておくことができる。この場合、撮像位置情報は、予め監視者により設定され、カメラ110の識別情報と対応付けて記憶装置130に記憶されているものとする。カメラ110の位置情報は、複数のカメラ110が存在する場所に関する情報であり、緯度情報、経度情報、図面上の位置座標情報などとすることができる。なお、カメラ110の位置情報は、カメラ110の位置が解る情報であればよく、上記に限定されるものではない。また、カメラ110がGPSを備えている場合、カメラ110から撮像位置情報を取得するようにしてもよい。
複数のカメラ110の位置を示す位置情報(撮像位置情報)は、予め取得しておくことができる。この場合、撮像位置情報は、予め監視者により設定され、カメラ110の識別情報と対応付けて記憶装置130に記憶されているものとする。カメラ110の位置情報は、複数のカメラ110が存在する場所に関する情報であり、緯度情報、経度情報、図面上の位置座標情報などとすることができる。なお、カメラ110の位置情報は、カメラ110の位置が解る情報であればよく、上記に限定されるものではない。また、カメラ110がGPSを備えている場合、カメラ110から撮像位置情報を取得するようにしてもよい。
イベント検知部12は、記憶装置130に記憶された複数のカメラ110の位置情報と、イベントを検知したカメラ110から取得された識別情報とに基づいて、イベントを検知したカメラ110の位置情報を取得することができる。本実施形態では、イベント検知部12は、イベントを検知したカメラ110の位置情報を、イベントが検知された位置を示す位置情報(検知位置情報)として取得する。
表示制御部13は、イベント情報(イベントの内容)と、イベントが検知された検知位置情報と、複数のカメラ110の撮像位置情報とに基づいて、イベントが検知された場合にどのカメラ110の映像を表示装置120に表示させるかを判別する。また、表示制御部13は、判別した結果であるカメラ110を表示対象カメラとし、当該表示対象カメラの映像を表示装置120へ出力する。
表示制御部13は、イベント情報(イベントの内容)と、イベントが検知された検知位置情報と、複数のカメラ110の撮像位置情報とに基づいて、イベントが検知された場合にどのカメラ110の映像を表示装置120に表示させるかを判別する。また、表示制御部13は、判別した結果であるカメラ110を表示対象カメラとし、当該表示対象カメラの映像を表示装置120へ出力する。
次に、本実施形態における情報処理装置100の動作について、図3のフローチャートを用いて説明する。
この図3の処理は、例えば情報処理装置100が起動され、カメラ110と接続されたタイミングで実行される。ただし、図3の処理の開始タイミングは、上記のタイミングに限らない。情報処理装置100は、CPU101が必要なプログラムを読み出して実行することにより、図3に示す各処理を実現することができる。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
この図3の処理は、例えば情報処理装置100が起動され、カメラ110と接続されたタイミングで実行される。ただし、図3の処理の開始タイミングは、上記のタイミングに限らない。情報処理装置100は、CPU101が必要なプログラムを読み出して実行することにより、図3に示す各処理を実現することができる。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
以下、複数のカメラ110が、図4(a)、図5(a)および図6(a)に示すように、監視対象の施設200内に30台(C1〜C30)配置されている場合を例に説明する。施設200内には、4つの部屋201〜204があり、各部屋にはカメラが四隅に設置されている。また、通路にもカメラが設置されている。
例えば侵入検知の場合、図4(a)に示すように、予め定められた検知線211を境に侵入者212がカメラC23に対して近づいてきたかどうかを判断することで、破線で囲まれた侵入禁止エリア213への侵入者212の侵入を検知することができる。この場合、カメラC23の映像をもとに侵入検知を行うことができる。ただし、カメラC23の映像を用いた侵入検知は一例であり、侵入検知の方法は上記に限定されない。例えば、赤外線センサなど、他のセンサを用いて侵入を検知することもできる。
例えば侵入検知の場合、図4(a)に示すように、予め定められた検知線211を境に侵入者212がカメラC23に対して近づいてきたかどうかを判断することで、破線で囲まれた侵入禁止エリア213への侵入者212の侵入を検知することができる。この場合、カメラC23の映像をもとに侵入検知を行うことができる。ただし、カメラC23の映像を用いた侵入検知は一例であり、侵入検知の方法は上記に限定されない。例えば、赤外線センサなど、他のセンサを用いて侵入を検知することもできる。
また、持ち去り検知の場合、図5(a)に示すように、部屋201にある予め定められた備品221が移動もしくは消失したかどうかを判断することで、備品221の持ち去りを検知することができる。例えば、カメラC6の撮像範囲内に備品221が含まれる場合、カメラC6の映像をもとに備品221の持ち去りを検知することができる。ただし、持ち去り検知の方法は上記に限定されるものではなく、赤外線センサなど、他のセンサを用いて持ち去りを検知することもできる。
さらに、不審者検知の場合には、図6(a)に示すように、ナイフ231を所持している人物232が存在するかどうかを判断することで、不審者を検知することができる。この場合、各カメラC1〜C30の映像をもとに不審者を検知する。なお、本実施形態ではナイフ231を所持している人物232を不審者として判断する場合について説明するが、他の属性を設定することで不審者を検知するようにしてもよい。例えば、事前に登録された人物と顔が一致したかどうかで不審者を検知してもよい。
さらに、不審者検知の場合には、図6(a)に示すように、ナイフ231を所持している人物232が存在するかどうかを判断することで、不審者を検知することができる。この場合、各カメラC1〜C30の映像をもとに不審者を検知する。なお、本実施形態ではナイフ231を所持している人物232を不審者として判断する場合について説明するが、他の属性を設定することで不審者を検知するようにしてもよい。例えば、事前に登録された人物と顔が一致したかどうかで不審者を検知してもよい。
図3のS1において、情報処理装置100は、複数のカメラC1〜C30の映像を取得し、予め設定されたカメラの映像を表示装置120のディスプレイへ出力する。表示画面の一例を図4(b)に示す。
図4(b)に示すように、表示装置120の表示画面には、情報処理装置100が接続されているカメラの一覧121と、カメラの映像ビュー122とを表示することができる。映像ビュー122に表示するカメラの映像およびビューレイアウトは、監視者が予め設定することができる。なお、図4(b)では、映像ビュー122を3×3の画面としているが、映像ビュー122の分割数は監視者が変更することができる。
図4(b)に示すように、表示装置120の表示画面には、情報処理装置100が接続されているカメラの一覧121と、カメラの映像ビュー122とを表示することができる。映像ビュー122に表示するカメラの映像およびビューレイアウトは、監視者が予め設定することができる。なお、図4(b)では、映像ビュー122を3×3の画面としているが、映像ビュー122の分割数は監視者が変更することができる。
図3に戻ってS2では、情報処理装置100は、カメラ110がイベントを検知したか否かを判定する。そして、情報処理装置100は、いずれのカメラ110もイベントを検知していないと判定した場合にはS2の処理を繰り返し、イベントを検知したカメラ110が存在すると判定した場合にはS3に移行する。
S3では、情報処理装置100は、イベントを検知したカメラ110から識別情報を取得し、RAM103に記憶する。次にS4では、情報処理装置100は、イベントを検知したカメラ110から検知したイベントの内容を示すイベント情報を取得し、RAM103に記憶する。
S3では、情報処理装置100は、イベントを検知したカメラ110から識別情報を取得し、RAM103に記憶する。次にS4では、情報処理装置100は、イベントを検知したカメラ110から検知したイベントの内容を示すイベント情報を取得し、RAM103に記憶する。
S5では、情報処理装置100は、S3において取得されたカメラ110の識別情報と、S4において取得されたイベント情報と、記憶装置130に記憶された複数のカメラ110の位置情報とを用いて、表示装置120に映像を表示するカメラを判別する。ここで、情報処理装置100は、イベントの内容に応じて、異なる判別方法を用いてイベントに関連する映像を撮像するカメラ110を判別し、表示装置120に映像を表示するカメラ(表示対象カメラ)とする。
例えば、イベント情報が「侵入検知」である場合、情報処理装置100は、イベントが検知された位置(イベントを検知したカメラ110の位置)から所定距離以内に位置するカメラ110を表示対象カメラとする。つまり、情報処理装置100は、イベントを検知したカメラ110と、当該イベントを検知したカメラ110の周囲に配置されたカメラとを表示対象カメラとする。
例えば、イベント情報が「侵入検知」である場合、情報処理装置100は、イベントが検知された位置(イベントを検知したカメラ110の位置)から所定距離以内に位置するカメラ110を表示対象カメラとする。つまり、情報処理装置100は、イベントを検知したカメラ110と、当該イベントを検知したカメラ110の周囲に配置されたカメラとを表示対象カメラとする。
一方、イベント情報が「持ち去り検知」である場合には、情報処理装置100は、イベントが検知された位置(イベントを検知したカメラ110の位置)から出口までの経路上に位置するカメラ110を表示対象カメラとする。つまり、情報処理装置100は、複数のカメラ110が配置された設置エリアにおける構造物の配置情報を用いて、表示対象カメラを判別する。
また、イベント情報が「不審者検知」である場合には、情報処理装置100は、イベントが検知された位置に配置されたカメラ110(イベントを検知したカメラ110)の撮像方向に位置するカメラ110を表示対象カメラとする。つまり、情報処理装置100は、不審者が通行した可能性の高い経路に近いカメラ110を表示対象カメラとする。
また、イベント情報が「不審者検知」である場合には、情報処理装置100は、イベントが検知された位置に配置されたカメラ110(イベントを検知したカメラ110)の撮像方向に位置するカメラ110を表示対象カメラとする。つまり、情報処理装置100は、不審者が通行した可能性の高い経路に近いカメラ110を表示対象カメラとする。
具体的には、図4(a)に示すように、侵入者212が侵入禁止エリア213に侵入した場合、カメラC23が侵入を検知する。この場合、情報処理装置100は、イベント情報が「侵入検知」であり、侵入を検知したカメラがカメラC23であることを検出する。そのため、情報処理装置100は、カメラC23との距離が近いカメラを表示対象カメラとして判別する。つまり、情報処理装置100は、カメラC23からカメラC1〜カメラC30までの距離をそれぞれ計算し、計算した距離が所定距離以内にあるカメラを表示対象カメラとする。
上記所定距離は、例えば10メートルに設定することができる。カメラC23と最も近い距離(8メートル)にカメラC28が配置されており、次に近い距離(10メートル)にカメラC22、C24、C27およびC29が配置されているものとする。この場合、カメラC22、C24、C27、C28およびC29が表示対象カメラとなる。なお、上記所定距離は、監視者が変更することが可能である。
なお、本実施形態では、イベントを検知したカメラから所定距離以内に位置するカメラを表示対象カメラとする場合について説明したが、上記に限定されるものではない。例えば、各カメラの撮像範囲を検出し、イベント検知したカメラに近い範囲を撮像しているカメラ、より具体的には、イベント検知したカメラから所定距離以内の範囲に撮像範囲が含まれるカメラを、表示対象カメラとしてもよい。
なお、本実施形態では、イベントを検知したカメラから所定距離以内に位置するカメラを表示対象カメラとする場合について説明したが、上記に限定されるものではない。例えば、各カメラの撮像範囲を検出し、イベント検知したカメラに近い範囲を撮像しているカメラ、より具体的には、イベント検知したカメラから所定距離以内の範囲に撮像範囲が含まれるカメラを、表示対象カメラとしてもよい。
一方、図5(a)に示すように、人物222が備品221を持ち去った場合、カメラC6が持ち去りを検知する。この場合、情報処理装置100は、イベント情報が「持ち去り検知」であり、持ち去りを検知したカメラがカメラC6であることを検出する。イベントが検知された位置(備品221が配置されていた位置)から出口までの最短の経路は、ドア223を通り出口224へ向かう経路225である。そのため、情報処理装置100は、経路225に近いカメラC7、C13、C8およびC3を表示対象カメラとする。
なお、カメラ毎に、「持ち去り検知」した際にどのカメラを表示対象カメラとするかを予め登録しておいてもよい。
なお、カメラ毎に、「持ち去り検知」した際にどのカメラを表示対象カメラとするかを予め登録しておいてもよい。
また、カメラC1〜C30の設置エリアにある出口224の位置情報やドア224の位置情報といった構造物の配置情報を予め登録しておくことで、表示対象カメラを判別することも可能である。この場合、まず、持ち去りを検知したカメラC6と、カメラC1〜カメラC30との距離をそれぞれ計算する。次に、出口224とカメラC1〜カメラC30との距離をそれぞれ計算する。同様に、イベントを検知したカメラC6と最も距離の近いドア223とカメラC1〜カメラC30との距離をそれぞれ計算する。そして、これらを加算した距離が小さい順に所定数のカメラを抽出し、表示対象カメラとする。
なお、ここでは「持ち去り検知」を例に説明したが、「置き去り検知」や「悲鳴検知」のように犯人が逃走する可能性が高いイベントであれば同様に適用可能である。また、ここでは、イベントが検知された位置から出口までの経路上にあるカメラを表示対象カメラとする場合について説明したが、上記に限定されるものではない。例えば、ドアや出口に設置されたカメラのみを表示対象カメラとしてもよいし、出口が複数存在する場合、複数の出口をそれぞれ撮像するカメラを表示対象カメラとしてもよい。
なお、ここでは「持ち去り検知」を例に説明したが、「置き去り検知」や「悲鳴検知」のように犯人が逃走する可能性が高いイベントであれば同様に適用可能である。また、ここでは、イベントが検知された位置から出口までの経路上にあるカメラを表示対象カメラとする場合について説明したが、上記に限定されるものではない。例えば、ドアや出口に設置されたカメラのみを表示対象カメラとしてもよいし、出口が複数存在する場合、複数の出口をそれぞれ撮像するカメラを表示対象カメラとしてもよい。
さらに、図6(a)に示すように、不審者232が通路に存在する場合には、カメラC13が当該不審者232を検知する。この場合、情報処理装置100は、不審者232が通行した経路233に近いカメラC3およびC8を表示対象カメラとする。ここで、表示対象カメラは、イベントを検知したカメラC13の撮像方向に基づいて、判別することができる。情報処理装置100は、カメラC13の向いている方向に不審者232が通行した経路233が存在すると推測し、カメラC13の向いている方向にあるカメラC3およびC8を、表示対象カメラとする。
このように、情報処理装置100は、イベントの内容を示すイベント情報、イベントが検知された位置を示す検知位置情報、および複数のカメラ110の位置を示す撮像位置情報に基づいて、表示対象カメラを判別することができる。
このように、情報処理装置100は、イベントの内容を示すイベント情報、イベントが検知された位置を示す検知位置情報、および複数のカメラ110の位置を示す撮像位置情報に基づいて、表示対象カメラを判別することができる。
なお、イベント情報が「侵入検知」であり、図4(a)に示す例のように侵入を検知するカメラが予め決まっている場合、表示対象カメラを予め設定しておくことも可能である。この場合、カメラ間の距離の計算は不要となる。また、イベント情報が「持ち去り検知」である場合にも同様である。図5(a)に示す例のように、予め決められた備品221の持ち去りを検知する場合には、持ち去り検知するカメラや犯人の最短の逃走経路が予め決まっているため、表示対象カメラを予め設定しておくことが可能である。つまり、情報処理装置100は、イベント情報のみに基づいて表示対象カメラを判別することもできる。
図3に戻ってS6では、情報処理装置100は、表示対象カメラの映像を表示装置120へ出力することで、これらの映像を表示装置120のディスプレイへ表示させる表示制御を行い、図3の処理を終了する。
図4(c)は侵入検知時の映像表示の一例であり、図5(b)は持ち去り検知時の映像表示の一例であり、図6(b)は不審者検知時の映像表示の一例である。映像の表示に際し、情報処理装置100は、判別した表示対象カメラの映像を、実空間におけるカメラの設置位置に対応するよう配置して表示させるようにしてもよい。
図4(c)は侵入検知時の映像表示の一例であり、図5(b)は持ち去り検知時の映像表示の一例であり、図6(b)は不審者検知時の映像表示の一例である。映像の表示に際し、情報処理装置100は、判別した表示対象カメラの映像を、実空間におけるカメラの設置位置に対応するよう配置して表示させるようにしてもよい。
また、情報処理装置100は、表示対象カメラの映像を、新しいウインドウで表示させるようにしてもよい。さらに、表示された複数の映像のうちイベントを検知したカメラの映像がどれであるかが分かるように、フォーカスを当てるようにしてもよい。なお、フォーカスは一例であり、イベントを検知したカメラの映像枠をハイライトしてもよいし、他のカメラの映像よりも大きく表示してもよい。つまり、他のカメラの映像と区別がつけばよい。
なお、映像の表示方法は一例であり、上記に限定されるものではない。例えば、デュアルディスプレイの場合、イベント検知したカメラの映像をメインディスプレイに表示し、関連するカメラ映像をサブディスプレイに表示してもよい。
なお、映像の表示方法は一例であり、上記に限定されるものではない。例えば、デュアルディスプレイの場合、イベント検知したカメラの映像をメインディスプレイに表示し、関連するカメラ映像をサブディスプレイに表示してもよい。
以上説明したように、本実施形態における情報処理装置100は、所定の事象に基づいて検知されたイベントの内容を示すイベント情報を取得する。ここで、情報処理装置100は、カメラ110において撮像画像をもとに検知されたイベントの内容を示すイベント情報を取得する。情報処理装置100は、取得されたイベント情報に応じて、異なる判別方法を用いて、複数のカメラ110うちイベントに関連する撮像画像(映像)を撮像するカメラ110を判別する。そして、情報処理装置100は、判別されたカメラ110を、映像を優先的に表示させる表示対象カメラとして決定し、決定された表示対象カメラにより撮像された映像を、表示装置120に表示させる表示制御を行う。
このように、情報処理装置100は、検知されたイベントの内容に応じて、当該イベントに関連するカメラ110の映像を表示させることができる。したがって、監視者にとって所望な映像(監視したい映像)を適切に表示させることができる。
ここで、情報処理装置100は、イベントが検知された位置を示す検知位置情報と、複数のカメラ110の位置を示す撮像位置情報とを取得し、イベント情報、検知位置情報および撮像位置情報に基づいて、上記表示対象カメラを判別することができる。撮像位置情報は、予め監視者の設定をもとに取得しておいてもよいし、イベントが検知された際に取得してもよい。これにより、情報処理装置100は、イベントに関連する映像を撮像するカメラ110を適切に判別することができる。
ここで、情報処理装置100は、イベントが検知された位置を示す検知位置情報と、複数のカメラ110の位置を示す撮像位置情報とを取得し、イベント情報、検知位置情報および撮像位置情報に基づいて、上記表示対象カメラを判別することができる。撮像位置情報は、予め監視者の設定をもとに取得しておいてもよいし、イベントが検知された際に取得してもよい。これにより、情報処理装置100は、イベントに関連する映像を撮像するカメラ110を適切に判別することができる。
具体的には、情報処理装置100は、イベントが検知された位置から所定距離以内に位置するカメラ110を、表示対象カメラとして判別することができる。例えば侵入禁止エリアへの侵入が検知された場合、監視者は、侵入者とその周囲の状況とを優先的に監視したい。情報処理装置100は、カメラが侵入を検知した際に、侵入を検知したカメラと当該カメラの近くにあるカメラとを表示対象カメラとすることができるので、監視者は、侵入者がどこに移動するかを監視することが可能となる。
なお、情報処理装置100は、イベントが検知された位置から所定距離以内の範囲に撮像範囲が含まれるカメラ110を、表示対象カメラとして判別してもよい。この場合、侵入を検知したカメラ110の位置に撮像範囲が近いカメラ110を表示対象カメラとすることができ、より適切に侵入を検知したカメラ110の周囲の映像を表示させることができる。
なお、情報処理装置100は、イベントが検知された位置から所定距離以内の範囲に撮像範囲が含まれるカメラ110を、表示対象カメラとして判別してもよい。この場合、侵入を検知したカメラ110の位置に撮像範囲が近いカメラ110を表示対象カメラとすることができ、より適切に侵入を検知したカメラ110の周囲の映像を表示させることができる。
また、情報処理装置100は、複数のカメラ110が配置されたエリアにおける構造物の配置情報を用いて、表示対象カメラを判別することもできる。例えば持ち去りや置き去り、悲鳴検知のように犯人が逃走する可能性が高いイベントが検知された場合、監視者は、犯人の逃走経路を優先的に監視したい。情報処理装置100は、カメラが持ち去り等のイベントを検知した際に、イベントを検知したカメラから出口までの経路上に位置するカメラを表示対象カメラとすることができるので、監視者は、犯人の逃走経路を適切に監視することが可能となる。
さらに、情報処理装置100は、イベントが検知された位置に配置されたカメラ110の撮像方向に位置するカメラ110を、表示対象カメラして判別することもできる。例えば不審者が検知された場合、監視者は、不審者の通行経路における安否を優先的に確認したい。情報処理装置100は、カメラが不審者を検知した際に、不審者の通行経路にあるカメラを表示対象カメラとすることができるので、監視者は、周囲の安否状況を適切に確認することが可能となる。
さらに、情報処理装置100は、イベントが検知された位置に配置されたカメラ110の撮像方向に位置するカメラ110を、表示対象カメラして判別することもできる。例えば不審者が検知された場合、監視者は、不審者の通行経路における安否を優先的に確認したい。情報処理装置100は、カメラが不審者を検知した際に、不審者の通行経路にあるカメラを表示対象カメラとすることができるので、監視者は、周囲の安否状況を適切に確認することが可能となる。
以上のように、情報処理装置100は、検知されたイベントの内容に応じて、表示の優先度の高い映像を適切に表示させることができるので、監視者はイベントに関連する所望の映像を適切に監視することができる。
(第二の実施形態)
次に、本発明における第二の実施形態について説明する。
上述した第一の実施形態では、固定されたカメラがイベントを検知した場合について説明した。第二の実施形態では、移動しているカメラがイベントを検知した場合について説明する。
この第二の実施形態における情報処理装置100のハードウェア構成は、図1に示す第一の実施形態と同様である。
次に、本発明における第二の実施形態について説明する。
上述した第一の実施形態では、固定されたカメラがイベントを検知した場合について説明した。第二の実施形態では、移動しているカメラがイベントを検知した場合について説明する。
この第二の実施形態における情報処理装置100のハードウェア構成は、図1に示す第一の実施形態と同様である。
図7は、本実施形態における情報処理装置100の機能構成の一例を示す図である。図2に示す第一の実施形態との違いは、カメラ110の少なくとも1つが移動体140に内蔵されていることと、情報処理装置100が位置情報取得部14をさらに備えることである。ここで、移動体140は、例えば監視ロボットとすることができる。移動体140は、無線通信により情報処理装置100と通信が可能である。
位置情報取得部14は、移動体140に内蔵されたカメラ(移動カメラ)110の位置情報を示す信号を取得し、情報処理装置100が制御する位置情報に変換する。
位置情報取得部14は、移動体140に内蔵されたカメラ(移動カメラ)110の位置情報を示す信号を取得し、情報処理装置100が制御する位置情報に変換する。
以下、本実施形態における情報処理装置100の動作について、図8のフローチャートを用いて説明する。
この図8の処理の開始タイミングは、図3に示す第一の実施形態の処理と同様である。情報処理装置100は、CPU101が必要なプログラムを読み出して実行することにより、図8に示す各処理を実現することができる。図8において、図3と同一処理を行うステップには同一ステップ番号を付し、以下、処理の異なる部分を中心に説明する。
また、本実施形態では、複数のカメラ110が、図9(a)に示すように、監視対象の倉庫300内に12台の固定カメラ(C101〜C112)が配置され、倉庫300を1台の監視ロボット140が巡回している場合を例に説明する。監視ロボット140は、移動カメラC121を内蔵し、破線で示す巡回ルート310を巡回しているものとする。
この図8の処理の開始タイミングは、図3に示す第一の実施形態の処理と同様である。情報処理装置100は、CPU101が必要なプログラムを読み出して実行することにより、図8に示す各処理を実現することができる。図8において、図3と同一処理を行うステップには同一ステップ番号を付し、以下、処理の異なる部分を中心に説明する。
また、本実施形態では、複数のカメラ110が、図9(a)に示すように、監視対象の倉庫300内に12台の固定カメラ(C101〜C112)が配置され、倉庫300を1台の監視ロボット140が巡回している場合を例に説明する。監視ロボット140は、移動カメラC121を内蔵し、破線で示す巡回ルート310を巡回しているものとする。
情報処理装置100は、図8のS2においてイベントを検知したカメラ110が存在すると判定した場合、S11に移行して移動カメラの位置情報を取得し、RAM103に記憶する。情報処理装置100は、例えば監視ロボット140に搭載されたGPSにより、移動カメラの位置情報を取得することができる。
なお、移動カメラの位置情報の取得方法は、GPSを用いた方法に限定されない。移動カメラの位置情報の取得方法は、監視対象エリア上の移動カメラの位置が取得可能な方法であればよく、例えば、基準の位置からの移動量に基づいて移動カメラの位置情報を取得することもできる。
なお、移動カメラの位置情報の取得方法は、GPSを用いた方法に限定されない。移動カメラの位置情報の取得方法は、監視対象エリア上の移動カメラの位置が取得可能な方法であればよく、例えば、基準の位置からの移動量に基づいて移動カメラの位置情報を取得することもできる。
S12では、情報処理装置100は、表示対象カメラを判別する。イベントを検知したカメラ110が固定カメラである場合の表示対象カメラの判別方法は、上述した第一の実施形態と同様である。イベントを検知したカメラ110が移動カメラである場合には、S11においてRAM103に記憶された位置情報を用いて表示対象カメラを判別する。具体的には、情報処理装置100は、イベントが検知された際に取得された移動カメラの位置情報をもとに、当該移動カメラに近いカメラ110を表示対象カメラとして判別する。
つまり、図9(a)に示すように、監視ロボット140が巡回中に倉庫300内に侵入した侵入者311を検知した場合、情報処理装置100は、イベントが検知された際の移動カメラC121の位置情報をもとに、表示対象カメラを判別する。図9(a)に示す例では、情報処理装置100は、移動カメラC121に近いカメラC103、C104、C105、C109、C110およびC111を表示対象カメラとする。
そして、図8のS6において、情報処理装置100は、イベントを検知した移動カメラC121および上記の表示対象カメラの映像を、図9(b)に示すように表示装置120へ表示させる。
そして、図8のS6において、情報処理装置100は、イベントを検知した移動カメラC121および上記の表示対象カメラの映像を、図9(b)に示すように表示装置120へ表示させる。
なお、本実施形態では、移動体140が監視ロボットである場合について説明したが、移動体140は、例えば車や人であってもよい。つまり、車にカメラが取り付けられていてもよいし、人がウェアラブルカメラを身に着けていてもよい。つまり、移動体に対して撮像装置が外付けまたは内蔵されていればよい。
例えば、移動体140がエレベータであり、移動カメラがエレベータ内に設置された監視カメラであってもよい。
例えば、移動体140がエレベータであり、移動カメラがエレベータ内に設置された監視カメラであってもよい。
図10(a)は、移動体140であるエレベータにカメラ(移動カメラ)C122が設置された建物400を示す図である。この図10(a)では、不審者321が乗ったエレベータが4階から2階に移動したことを表している。
カメラC122がエレベータ内において不審者321を検知した場合、監視者は、不審者321が降りた2階フロアに配置されたカメラの映像を監視したくなる。したがって、情報処理装置100は、エレベータの制御システムと連携し、エレベータから不審者321が降りた階数を取得し、その階のエレベータに近いカメラを表示対象カメラとして判別し、映像を優先して表示するようにする。
図10(b)は、不審者321降りた2階フロアのカメラの配置例である。このように、2階フロアには12台の固定カメラ(C101〜C112)が配置されているものとする。この場合、情報処理装置100は、エレベータに近いカメラC101、C102、C105、C106、C109およびC110を表示対象カメラとして判別する。図10(c)は、表示装置120に表示させる表示画面の一例である。
カメラC122がエレベータ内において不審者321を検知した場合、監視者は、不審者321が降りた2階フロアに配置されたカメラの映像を監視したくなる。したがって、情報処理装置100は、エレベータの制御システムと連携し、エレベータから不審者321が降りた階数を取得し、その階のエレベータに近いカメラを表示対象カメラとして判別し、映像を優先して表示するようにする。
図10(b)は、不審者321降りた2階フロアのカメラの配置例である。このように、2階フロアには12台の固定カメラ(C101〜C112)が配置されているものとする。この場合、情報処理装置100は、エレベータに近いカメラC101、C102、C105、C106、C109およびC110を表示対象カメラとして判別する。図10(c)は、表示装置120に表示させる表示画面の一例である。
なお、本実施形態では、情報処理装置100がエレベータの制御システムと連携して、不審者321がエレベータから降りた階数を取得する場合について説明したが、階数の取得方法は上記に限定されない。例えば、エレベータ内のカメラC122に気圧センサを搭載し、不審者321がエレベータから降りた階数を取得してもよい。
以上のように、移動体140はエレベータであってもよい。この場合、エレベータ内のカメラが不審者を検知した際に、不審者がエレベータを降りたフロアのカメラの映像を表示させることができ、監視者は不審者がどこに移動するかを監視することが可能となる。
以上のように、移動体140はエレベータであってもよい。この場合、エレベータ内のカメラが不審者を検知した際に、不審者がエレベータを降りたフロアのカメラの映像を表示させることができ、監視者は不審者がどこに移動するかを監視することが可能となる。
また、本実施形態では、図9(a)および図10(b)に示すように、カメラC101〜C112が固定カメラであり、移動カメラは、カメラC121もしくはカメラC122の1台のみである場合について説明した。しかしながら、移動カメラは複数台であってもよい。つまり、カメラC101〜C112の少なくとも1台が、移動体に内蔵されたカメラであってもよい。その場合、図8のS11において、情報処理装置100は、カメラC101〜C112のうち移動体に内蔵されたカメラの位置情報も取得し、取得した位置情報を表示対象カメラの判別に用いる。
以上説明したように、本実施形態における情報処理装置100は、イベントが検知された際に、カメラ110の位置を示す撮像位置情報を取得するので、イベントが検知された際のすべてのカメラ110の位置情報を適切に把握することができる。したがって、情報処理装置100は、カメラ110が移動しうる場合であっても、表示対象カメラを適切に判別することができ、イベントに関連する映像を適切に表示させることができる。
(変形例)
上記第一の実施形態においては、表示対象カメラとして判別されたカメラの台数が、イベント検知前の表示画面に表示されていた映像数よりも多い場合、イベント検知前後で表示画面のレイアウトを変更して映像を表示させることになる。しかしながら、イベント検知前後で表示画面のレイアウトが変わることを好まない監視者もいる。そこで、情報処理装置100は、イベント検知後の表示画面のレイアウトをイベント検知前の表示画面のレイアウトに合わせるようにしてもよい。
この場合、情報処理装置100は、図3の処理に替えて図11(a)および図11(b)の処理を実行する。図11(a)において、図3と同一処理を行うステップには図3と同一ステップ番号を付している。
上記第一の実施形態においては、表示対象カメラとして判別されたカメラの台数が、イベント検知前の表示画面に表示されていた映像数よりも多い場合、イベント検知前後で表示画面のレイアウトを変更して映像を表示させることになる。しかしながら、イベント検知前後で表示画面のレイアウトが変わることを好まない監視者もいる。そこで、情報処理装置100は、イベント検知後の表示画面のレイアウトをイベント検知前の表示画面のレイアウトに合わせるようにしてもよい。
この場合、情報処理装置100は、図3の処理に替えて図11(a)および図11(b)の処理を実行する。図11(a)において、図3と同一処理を行うステップには図3と同一ステップ番号を付している。
つまり、情報処理装置100は、S5において表示対象カメラを判別した後、S21に移行して、表示対象カメラの数が表示画面数以内であるか否かを判定する。図4(a)に示すように複数のカメラC1〜C30が配置されており、イベント検知前の表示画面が図4(b)である場合、イベント検知前の表示画面は図12(a)のように3×3の画面であり、領域1〜領域9に分割されている。そのため、この場合には、情報処理装置100は、表示対象カメラの数が9つ以下であるか否かを判定する。
そして、情報処理装置100は、表示対象カメラの数が表示画面数よりも多いと判定した場合にはS22に移行し、表示対象カメラの数が表示画面数以内であると判定した場合にはS23に移行する。
そして、情報処理装置100は、表示対象カメラの数が表示画面数よりも多いと判定した場合にはS22に移行し、表示対象カメラの数が表示画面数以内であると判定した場合にはS23に移行する。
S22では、情報処理装置100は、表示対象カメラの数を表示画面数に絞り、S23に移行する。具体的には、情報処理装置100は、S5において判別された表示対象カメラのうち、イベントを検知したカメラとの距離が近い順に表示画面数のカメラを選択することで、表示対象カメラの数を絞る。なお、上記距離が同じ場合は、カメラIDの小さいカメラを優先して選択する。
S23では、情報処理装置100は、表示対象カメラの映像を表示するカメラ映像表示処理を実行する。
S23では、情報処理装置100は、表示対象カメラの映像を表示するカメラ映像表示処理を実行する。
図11(b)は、情報処理装置100が図11(a)のS23において実行するカメラ映像表示処理手順を示すフローチャートである。
まずS23aでは、情報処理装置100は、各表示対象カメラのX座標のうち、最大値XMAXと最小値XMINとを算出し、RAM103に記憶する。次にS23bでは、情報処理装置100は、各表示対象カメラのY座標のうち、最大値YMAXと最小値YMINとを算出し、RAM103に記憶する。
S23cでは、情報処理装置100は、X座標の最小値XMINから最大値XMAXまでの距離を3分割する座標であるX1、X2を算出する。同様に、情報処理装置100は、Y座標の最小値YMINから最大値YMAXまでの距離を3分割する座標であるY1、Y2を算出する。そして、これらの座標をRAM103に記憶する。図12(b)は、座標X1、X2、Y1、Y2の一例を示す図である。なお、本実施形態では、3×3の画面であるため3分割を行ったが、たとえば4×4の画面である場合は、4分割する座標を算出すればよい。
まずS23aでは、情報処理装置100は、各表示対象カメラのX座標のうち、最大値XMAXと最小値XMINとを算出し、RAM103に記憶する。次にS23bでは、情報処理装置100は、各表示対象カメラのY座標のうち、最大値YMAXと最小値YMINとを算出し、RAM103に記憶する。
S23cでは、情報処理装置100は、X座標の最小値XMINから最大値XMAXまでの距離を3分割する座標であるX1、X2を算出する。同様に、情報処理装置100は、Y座標の最小値YMINから最大値YMAXまでの距離を3分割する座標であるY1、Y2を算出する。そして、これらの座標をRAM103に記憶する。図12(b)は、座標X1、X2、Y1、Y2の一例を示す図である。なお、本実施形態では、3×3の画面であるため3分割を行ったが、たとえば4×4の画面である場合は、4分割する座標を算出すればよい。
次にS23dでは、情報処理装置100は、表示画面の領域1〜領域9に表示対象カメラの映像を当てはめ、当該映像を表示させる表示制御を行う。
まず、情報処理装置100は、表示画面の上段である領域1〜領域3にカメラの映像を当てはめる。具体的には、表示対象カメラのうち、Y座標がY2以上のカメラを抽出し、さらにそのうちY座標が大きい順番に3つのカメラを抽出する。ここでは、上段の最大表示数は3であるため、抽出する最大数を3としている。なお、カメラのY座標が同じカメラが複数存在する場合は、カメラIDが小さいカメラを優先する。
また、情報処理装置100は、表示対象カメラから上段のカメラの抽出数を引いた残りのカメラの数が6(中段の最大表示数+下段の最大表示数)よりも大きいか否かを判定する。残りのカメラの数が6よりも大きい場合、中段と下段に残りのカメラの映像を表示しきれない。そのため、上段のカメラの抽出数が上段の最大表示数よりも小さい場合には、Y座標がY2以下であっても、次にY座標が大きいカメラの映像を上段に当てはめるものとする。
まず、情報処理装置100は、表示画面の上段である領域1〜領域3にカメラの映像を当てはめる。具体的には、表示対象カメラのうち、Y座標がY2以上のカメラを抽出し、さらにそのうちY座標が大きい順番に3つのカメラを抽出する。ここでは、上段の最大表示数は3であるため、抽出する最大数を3としている。なお、カメラのY座標が同じカメラが複数存在する場合は、カメラIDが小さいカメラを優先する。
また、情報処理装置100は、表示対象カメラから上段のカメラの抽出数を引いた残りのカメラの数が6(中段の最大表示数+下段の最大表示数)よりも大きいか否かを判定する。残りのカメラの数が6よりも大きい場合、中段と下段に残りのカメラの映像を表示しきれない。そのため、上段のカメラの抽出数が上段の最大表示数よりも小さい場合には、Y座標がY2以下であっても、次にY座標が大きいカメラの映像を上段に当てはめるものとする。
次に、情報処理装置100は、上段に当てはめる3つの映像を、領域1〜領域3のどこに当てはめるかを決定する。具体的には、情報処理装置100は、X座標がX1以下のカメラは領域1、X座標がX1より大きくX2以下のカメラは領域2、X座標がX2より大きいカメラは領域3に当てはめる。その際、1つの領域に複数のカメラが当てはまる場合、X座標が小さいカメラを領域1側、または、X座標が大きいカメラを領域3側に移すものとする。
そして、領域1〜領域3のうち、カメラが当てはまらなかった領域は、カメラの映像を表示せずにグレーアウトする。なお、グレーアウトは一例であり、上記に限定されるものではない。
情報処理装置100は、同様の処理を、表示画面の中段である領域4〜領域6、下段である領域7〜領域9に対しても行い、表示対象カメラの映像を表示画面に表示させた後、図11(b)の処理を終了する。
そして、領域1〜領域3のうち、カメラが当てはまらなかった領域は、カメラの映像を表示せずにグレーアウトする。なお、グレーアウトは一例であり、上記に限定されるものではない。
情報処理装置100は、同様の処理を、表示画面の中段である領域4〜領域6、下段である領域7〜領域9に対しても行い、表示対象カメラの映像を表示画面に表示させた後、図11(b)の処理を終了する。
以下、表示対象カメラの映像を表示する表示画面の生成方法について具体的に説明する。まず、図4(a)に示すように配置された複数のカメラC1〜C30のうち、カメラC23がイベントを検知し、表示対象カメラとして、カメラC22、C23、C24、C27、C28、C29の計6台が選択された場合について説明する。
この場合、図12(b)に示すように、Y2よりY座標が大きい位置にあるカメラは、カメラC22とカメラC27である。そのうち、X1以下の位置にカメラC22、X2より大きい位置にカメラC27が存在する。そのため、図12(c)に示すように、表示画面120における映像ビュー122の上段の領域1にはカメラC22、領域3にはカメラC27の映像が当てはまり、領域2はグレーアウトとなる。
この場合、図12(b)に示すように、Y2よりY座標が大きい位置にあるカメラは、カメラC22とカメラC27である。そのうち、X1以下の位置にカメラC22、X2より大きい位置にカメラC27が存在する。そのため、図12(c)に示すように、表示画面120における映像ビュー122の上段の領域1にはカメラC22、領域3にはカメラC27の映像が当てはまり、領域2はグレーアウトとなる。
続いて中段の領域にカメラの映像を当てはめる。残ったカメラのうち、Y1よりY座標が大きい位置にあるカメラは、カメラC23とカメラC28である。そのうち、X1より大きくX2以下の位置にカメラC23、X2より大きい位置にカメラ28Cが存在する。そのため、図12(c)に示すように、領域5にはカメラC23、領域6にはカメラC28の映像が当てはまり、領域4はグレーアウトとなる。
最後に下段の領域にカメラの映像を当てはめる。残ったカメラは、カメラC24とカメラC29である。そのうち、X1以下の位置にカメラC24、X2より大きい位置にカメラC29が存在する。そのため、図12(c)に示すように、領域7にはカメラC24、領域9にはカメラC29の映像が当てはまり、領域8はグレーアウトとなる。
最後に下段の領域にカメラの映像を当てはめる。残ったカメラは、カメラC24とカメラC29である。そのうち、X1以下の位置にカメラC24、X2より大きい位置にカメラC29が存在する。そのため、図12(c)に示すように、領域7にはカメラC24、領域9にはカメラC29の映像が当てはまり、領域8はグレーアウトとなる。
また、別の例についても説明する。
ここでは、図4(a)に示すように配置された複数のカメラC1〜C30のうち、カメラC9がイベントを検知し、表示対象カメラとして、カメラC3、C5、C7、C8、C9、C10、C13の計7台が選択された場合について説明する。
この場合、図12(d)に示すように、Y2よりY座標が大きい位置にあるカメラは、Y座標が大きい順、かつカメラIDが小さい順に、カメラC7、カメラC3、カメラC8、カメラC13である。上段の最大表示数は3であるため、ここではカメラC7、カメラC3、カメラC8が上段の領域の表示対象として抽出される。そのうち、X1以下の位置にカメラC3、X1より大きくX2以下の位置にカメラC7、カメラC8が存在する。同じ領域にカメラC7、C8の2台が存在する為、X座標の大きいカメラC8を領域3に当てはめる。つまり、図12(e)に示すように、領域1にはカメラC3、領域2にはカメラC7、領域3にはカメラC8の映像が当てはまる。
ここでは、図4(a)に示すように配置された複数のカメラC1〜C30のうち、カメラC9がイベントを検知し、表示対象カメラとして、カメラC3、C5、C7、C8、C9、C10、C13の計7台が選択された場合について説明する。
この場合、図12(d)に示すように、Y2よりY座標が大きい位置にあるカメラは、Y座標が大きい順、かつカメラIDが小さい順に、カメラC7、カメラC3、カメラC8、カメラC13である。上段の最大表示数は3であるため、ここではカメラC7、カメラC3、カメラC8が上段の領域の表示対象として抽出される。そのうち、X1以下の位置にカメラC3、X1より大きくX2以下の位置にカメラC7、カメラC8が存在する。同じ領域にカメラC7、C8の2台が存在する為、X座標の大きいカメラC8を領域3に当てはめる。つまり、図12(e)に示すように、領域1にはカメラC3、領域2にはカメラC7、領域3にはカメラC8の映像が当てはまる。
続いて、中段の領域にカメラの映像を当てはめる。残ったカメラのうち、Y1より大きい位置にあるカメラは、カメラC9、カメラC13である。そのうち、X1より大きくX2以下の位置にカメラC9、X2より大きい位置にカメラC13が存在する。そのため、図12(e)に示すように、領域5にはカメラC9、領域6にはカメラC13の映像が当てはまり、領域4はグレーアウトとなる。
最後に下段の領域にカメラの映像を当てはめる。残ったカメラは、カメラC5、カメラC10である。そのうち、X1以下の位置にカメラC5、X1より大きくX2以下の位置にカメラC10が存在する。そのため、図12(e)に示すように、領域7にはカメラC5、領域8にはカメラC10の映像が当てはまり、領域9はグレーアウトとなる。
このように、イベント検知前とイベント検知後とで表示画面のレイアウトを合わせることで、監視者にとって閲覧しやすい表示画面を提供することが可能となる。
最後に下段の領域にカメラの映像を当てはめる。残ったカメラは、カメラC5、カメラC10である。そのうち、X1以下の位置にカメラC5、X1より大きくX2以下の位置にカメラC10が存在する。そのため、図12(e)に示すように、領域7にはカメラC5、領域8にはカメラC10の映像が当てはまり、領域9はグレーアウトとなる。
このように、イベント検知前とイベント検知後とで表示画面のレイアウトを合わせることで、監視者にとって閲覧しやすい表示画面を提供することが可能となる。
(変形例)
なお、上記各実施形態においては、イベント検知をカメラ110が行う場合について説明したが、情報処理装置100がカメラ110の撮像画像(映像)を取得し、取得した撮像画像(映像)を解析してイベントを検知してもよい。この場合、情報処理装置100は、イベントの検知結果をもとに、イベントの内容を示すイベント情報と、イベントが検知された位置を示す位置情報とを取得する。具体的には、情報処理装置100は、複数のカメラ110の位置情報と、イベントが検知された撮像画像を撮像したカメラ110の識別情報とに基づいて、イベントが検知された撮像画像を撮像したカメラ110の位置情報を導出する。そして、情報処理装置100は、導出されたカメラ110の位置情報を、イベントが検知された位置を示す位置情報として取得することができる。
また、上記各実施形態において説明した内容は、適宜組み合わせることができる。
なお、上記各実施形態においては、イベント検知をカメラ110が行う場合について説明したが、情報処理装置100がカメラ110の撮像画像(映像)を取得し、取得した撮像画像(映像)を解析してイベントを検知してもよい。この場合、情報処理装置100は、イベントの検知結果をもとに、イベントの内容を示すイベント情報と、イベントが検知された位置を示す位置情報とを取得する。具体的には、情報処理装置100は、複数のカメラ110の位置情報と、イベントが検知された撮像画像を撮像したカメラ110の識別情報とに基づいて、イベントが検知された撮像画像を撮像したカメラ110の位置情報を導出する。そして、情報処理装置100は、導出されたカメラ110の位置情報を、イベントが検知された位置を示す位置情報として取得することができる。
また、上記各実施形態において説明した内容は、適宜組み合わせることができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
11…映像入力部、12…イベント検知部、13…表示制御部、100…情報処理装置、110…撮像装置、120…表示装置、130…記憶装置、140…移動体、150…ネットワーク
Claims (12)
- 所定の事象に基づいて検知されたイベントの内容を示すイベント情報を取得する第1の取得手段と、
前記第1の取得手段により取得された前記イベント情報に応じて、異なる判別方法を用いて、複数の撮像装置のうち前記イベントに関連する撮像画像を撮像する撮像装置を判別する判別手段と、
前記判別手段により判別された撮像装置により撮像された撮像画像を表示させる表示制御手段と、を備えることを特徴とする情報処理装置。 - 前記判別手段は、
前記イベントが検知された位置から所定距離以内に位置する撮像装置を、前記イベントに関連する撮像画像を撮像する撮像装置として判別することを特徴とする請求項1に記載の情報処理装置。 - 前記判別手段は、
前記イベントが検知された位置から所定距離以内の範囲に撮像範囲が含まれる撮像装置を、前記イベントに関連する撮像画像を撮像する撮像装置として判別することを特徴とする請求項1に記載の情報処理装置。 - 前記判別手段は、
前記イベントが検知された位置に配置された撮像装置の撮像方向に位置する撮像装置を、前記イベントに関連する撮像画像を撮像する撮像装置として判別することを特徴とする請求項1に記載の情報処理装置。 - 前記判別手段は、
前記複数の撮像装置が配置されたエリアにおける構造物の配置情報を用いて、前記イベントに関連する撮像画像を撮像する撮像装置を判別することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。 - 前記判別手段は、
前記イベントが検知された位置から出口までの経路上に位置する撮像装置を、前記イベントに関連する撮像画像を撮像する撮像装置として判別することを特徴とする請求項5に記載の情報処理装置。 - 前記イベントが検知された位置を示す検知位置情報を取得する第2の取得手段と、
前記複数の撮像装置の位置を示す撮像位置情報を取得する第3の取得手段と、をさらに備え、
前記判別手段は、
前記イベント情報、前記検知位置情報および前記撮像位置情報に基づいて、前記イベントに関連する撮像画像を撮像する撮像装置を判別することを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。 - 前記第3の取得手段は、前記イベントが検知された際に、前記撮像位置情報を取得することを特徴とする請求項7に記載の情報処理装置。
- 前記第1の取得手段は、前記複数の撮像装置によりそれぞれ撮像された撮像画像をもとに検知されたイベントの内容を示す前記イベント情報を取得することを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
- 前記第1の取得手段は、
前記複数の撮像装置によりそれぞれ撮像された撮像画像を取得し、取得された撮像画像から前記イベントを検知することで前記イベント情報を取得することを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。 - 所定の事象に基づいて検知されたイベントの内容を示すイベント情報を取得するステップと、
前記イベント情報に応じて、異なる判別方法を用いて、複数の撮像装置のうち前記イベントに関連する撮像画像を撮像する撮像装置を判別するステップと、
判別された前記撮像装置により撮像された撮像画像を表示させるステップと、を含むことを特徴とする情報処理方法。 - コンピュータを、請求項1から10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018237905A JP2020102676A (ja) | 2018-12-20 | 2018-12-20 | 情報処理装置、情報処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018237905A JP2020102676A (ja) | 2018-12-20 | 2018-12-20 | 情報処理装置、情報処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020102676A true JP2020102676A (ja) | 2020-07-02 |
Family
ID=71139928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018237905A Pending JP2020102676A (ja) | 2018-12-20 | 2018-12-20 | 情報処理装置、情報処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020102676A (ja) |
-
2018
- 2018-12-20 JP JP2018237905A patent/JP2020102676A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7173196B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP5866564B1 (ja) | モニタリング装置、モニタリングシステムおよびモニタリング方法 | |
US9684835B2 (en) | Image processing system, image processing method, and program | |
US10719946B2 (en) | Information processing apparatus, method thereof, and computer-readable storage medium | |
JP5284599B2 (ja) | 画像処理装置 | |
JP5954106B2 (ja) | 情報処理装置、情報処理方法、プログラム、及び情報処理システム | |
CN104980653A (zh) | 视频监控系统中的照相机参数更新的系统和方法 | |
US9589192B2 (en) | Information processing system, information processing method, and program | |
US9292939B2 (en) | Information processing system, information processing method and program | |
JP6210234B2 (ja) | 画像処理システム、画像処理方法及びプログラム | |
JP6747537B2 (ja) | 監視システム、監視方法および監視プログラム | |
WO2018179202A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
WO2014175356A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
TW201946029A (zh) | 影像監視裝置及其控制方法與電腦可讀取記錄媒體 | |
JP2009159448A (ja) | 物体検出装置及び物体検出方法 | |
JP2023126352A (ja) | プログラム、映像監視方法及び映像監視システム | |
WO2014069088A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
US20190304275A1 (en) | Control device and monitoring system | |
JP5370009B2 (ja) | 監視システム | |
US20110157355A1 (en) | Method and System for Detecting Events in Environments | |
US20110157431A1 (en) | Method and System for Directing Cameras | |
JP2021196741A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2020102676A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2007243270A (ja) | 映像監視システムおよび方法 | |
JPH0460880A (ja) | 動体識別解析管理システム |