JP2017076937A - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2017076937A JP2017076937A JP2015204836A JP2015204836A JP2017076937A JP 2017076937 A JP2017076937 A JP 2017076937A JP 2015204836 A JP2015204836 A JP 2015204836A JP 2015204836 A JP2015204836 A JP 2015204836A JP 2017076937 A JP2017076937 A JP 2017076937A
- Authority
- JP
- Japan
- Prior art keywords
- monitoring
- camera
- narrowing
- monitoring requirement
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】監視要件に合った適切なカメラの選択の支援を可能にすることを課題とする。【解決手段】情報処理装置は、監視カメラ(201,212,216)と監視カメラの視野範囲表示子オブジェクト(230〜232)とを図面上に配置し、図面上の任意の位置に監視要件オブジェクト(204〜207,209,214,245〜247)を付与する。そして、情報処理装置は、図面上の視野範囲表示子オブジェクトの内に含まれている監視要件と複数の監視カメラの仕様とに基づいて、図面上に配置可能な監視カメラのカメラリスト(250)を表示させる。【選択図】図2
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。
従来、建築図面上で監視カメラの配置等を決める際に、監視カメラの撮影可能範囲を図示することで、建築図面上で監視カメラの配置をシミュレーションする技術がある。
特許文献1には、撮影可能範囲内の任意の点が撮影点として指定されると、複数の監視カメラの中から、指定した撮影点を撮影可能なカメラを表示することにより、撮影点を撮影するのに適切な監視カメラが選択されるよう支援する技術が開示されている。
また特許文献2には、選択した監視カメラの高さ等の外形情報、視野角度、焦点距離等のカメラ情報が指定されると、そのカメラによる撮影イメージを撮影可能範囲と共に表示する技術が開示されている。
特許文献1には、撮影可能範囲内の任意の点が撮影点として指定されると、複数の監視カメラの中から、指定した撮影点を撮影可能なカメラを表示することにより、撮影点を撮影するのに適切な監視カメラが選択されるよう支援する技術が開示されている。
また特許文献2には、選択した監視カメラの高さ等の外形情報、視野角度、焦点距離等のカメラ情報が指定されると、そのカメラによる撮影イメージを撮影可能範囲と共に表示する技術が開示されている。
特許文献1では、撮影点を指定することで、設置済みの複数の監視カメラの中から適切なカメラを選択することが可能である。しかしながら、特許文献1に記載の技術では、カメラ情報は保持しているが、例えば、撮影点に、明るい・暗いなどの監視要件などの撮影点に関する特徴を考慮していない。
また特許文献2では、撮影可能範囲と撮影イメージを表示可能ではあるが、撮影点に関する特徴を考慮するものではない。
また特許文献2では、撮影可能範囲と撮影イメージを表示可能ではあるが、撮影点に関する特徴を考慮するものではない。
本発明はこのような問題点に鑑みてなされたものであり、更なる適切なカメラの種類の選択の支援を可能とする情報処理装置、情報処理方法、及びプログラムを提供することを目的とする。
本発明の情報処理装置は、少なくとも一つの監視カメラと、前記監視カメラの視野範囲とを、図面上に配置して表示させる配置手段と、図面上の任意の位置に監視要件を付与する付与手段と、前記図面上の前記視野範囲の内に前記監視要件が含まれるか検知する検知手段と、前記検知手段により前記視野範囲の内で検知された監視要件と、予め用意されている複数の監視カメラの仕様とに基づいて、前記複数の監視カメラの中から前記図面上に配置可能な前記監視カメラを絞り込む絞り込み手段とを有することを特徴とする。
本発明によれば、監視要件に合った適切なカメラの選択の支援が可能となる。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
<情報処理装置の構成>
図1は、本実施形態の情報処理装置の概略構成例を示す図である。本実施形態の情報処理装置は、例えば建築図面上で監視カメラの配置等を決める際に、建築図面上で監視カメラの配置(レイアウト)を支援するための装置である。
<情報処理装置の構成>
図1は、本実施形態の情報処理装置の概略構成例を示す図である。本実施形態の情報処理装置は、例えば建築図面上で監視カメラの配置等を決める際に、建築図面上で監視カメラの配置(レイアウト)を支援するための装置である。
図1において、CPU101は中央処理装置である。
ROM102は読み出し専用メモリであり、RAM103とともに、バス104を介してCPU101に接続されている。CPU101は、ROM102やRAM103に格納されたレイアウト支援プログラムを実行することにより、後述するような監視カメラの選択と監視カメラの配置を決定する際の支援のための各処理を実現する。
バス104には、入力インターフェース105、記憶装置インターフェース107、ビデオインターフェース109、出力インターフェース111も接続されている。
入力デバイス106は、キーボードやマウス、スキャナなどである。CPU101は、入力インターフェース105を経由して、入力デバイス106から入力された情報を取得可能である。
ROM102は読み出し専用メモリであり、RAM103とともに、バス104を介してCPU101に接続されている。CPU101は、ROM102やRAM103に格納されたレイアウト支援プログラムを実行することにより、後述するような監視カメラの選択と監視カメラの配置を決定する際の支援のための各処理を実現する。
バス104には、入力インターフェース105、記憶装置インターフェース107、ビデオインターフェース109、出力インターフェース111も接続されている。
入力デバイス106は、キーボードやマウス、スキャナなどである。CPU101は、入力インターフェース105を経由して、入力デバイス106から入力された情報を取得可能である。
二次記憶装置108は、ハードディスクデバイスや光ディスクデバイス、ソリッドステートドライブデバイスなどである。CPU101は、記憶装置インターフェース107を経由して、二次記憶装置108に対する各種情報の読み書きを行う。二次記憶装置108に格納されたデータは、RAM103上に展開可能である。同様に、RAM103上に展開されたデータは、二次記憶装置108に保存可能である。また、RAM103上に展開されるデータや二次記憶装置108に格納されるデータには、プログラムも含まれる。CPU101は、RAM103上に展開されたプログラム(図5に記載のレイアウト支援プログラム701も含む)や、二次記憶装置108に格納されたプログラムを実行することも可能である。
モニタ110は、表示装置である。CPU101は、ビデオインターフェース109を介して、モニタ110上に任意の文字や画像等を表示させることが可能である。
出力デバイス112は、プリンタやプロッタである。CPU101は、出力インターフェース111を経由することで、出力デバイス112に情報を送付することが可能である。また、CPU101は、出力インターフェース111を経由することで、出力デバイス112からデバイス情報を読み取ることも可能である。入力デバイス106や出力デバイス112は、ネットワークを介して共有されていてもよい。
出力デバイス112は、プリンタやプロッタである。CPU101は、出力インターフェース111を経由することで、出力デバイス112に情報を送付することが可能である。また、CPU101は、出力インターフェース111を経由することで、出力デバイス112からデバイス情報を読み取ることも可能である。入力デバイス106や出力デバイス112は、ネットワークを介して共有されていてもよい。
<レイアウト支援プログラムのユーザーインターフェースとデータ構造>
図2は、図1のCPU101が本実施形態に係るレイアウト支援プログラムを実行することで実現されるユーザーインターフェースのうち、モニタ110に表示される画面の一例を示す図である。
本実施形態のレイアウト支援プログラムの実行によりCPU101は、図2の画面上に、例えば、建築図面に基づくフロアマップの画像と共に、後述するカメラリスト250や監視要件リスト220等を表示させる。ここで、監視要件は、監視カメラにより監視される場所や環境、監視対象などについて、監視カメラが効率的な監視を実現するために必要な条件に相当し、ユーザによる指定が可能となされている。具体的には、図2の監視要件リスト220内には複数の監視要件の候補が表示される。図2の例では、監視要件リスト220内には、屋外221、屋内222、明るい223、暗い224、紙幣認識225、顔認識226、動線227、入口228や、図示しない車ナンバー認識、高温、低温、高湿度などの複数の監視要件の候補が用意されている。監視要件リスト220内に表示されている各監視要件の候補は、ユーザによる選択が可能となされている。そして、CPU101は、監視要件リスト220から選択された監視要件の候補を、ユーザにより指定されるフロアマップ上の任意に位置に、監視要件オブジェクト(204〜207、210、214、245〜247)として配置する。
図2は、図1のCPU101が本実施形態に係るレイアウト支援プログラムを実行することで実現されるユーザーインターフェースのうち、モニタ110に表示される画面の一例を示す図である。
本実施形態のレイアウト支援プログラムの実行によりCPU101は、図2の画面上に、例えば、建築図面に基づくフロアマップの画像と共に、後述するカメラリスト250や監視要件リスト220等を表示させる。ここで、監視要件は、監視カメラにより監視される場所や環境、監視対象などについて、監視カメラが効率的な監視を実現するために必要な条件に相当し、ユーザによる指定が可能となされている。具体的には、図2の監視要件リスト220内には複数の監視要件の候補が表示される。図2の例では、監視要件リスト220内には、屋外221、屋内222、明るい223、暗い224、紙幣認識225、顔認識226、動線227、入口228や、図示しない車ナンバー認識、高温、低温、高湿度などの複数の監視要件の候補が用意されている。監視要件リスト220内に表示されている各監視要件の候補は、ユーザによる選択が可能となされている。そして、CPU101は、監視要件リスト220から選択された監視要件の候補を、ユーザにより指定されるフロアマップ上の任意に位置に、監視要件オブジェクト(204〜207、210、214、245〜247)として配置する。
また、CPU101は、フロアマップに、例えば棚を表すオブジェクト、壁を表すオブジェクト、後述する監視カメラを表すオブジェクトや監視要件オブジェクト等も配置させる。また、CPU101は、フロアマップ上の各オブジェクトに対して、例えば入力デバイス106のマウスを介してユーザがドラッグアンドドロップ操作等を行った場合、その操作に応じて各オブジェクトの配置を変更する。なお、フロアマップの画像は、例えば二次記憶装置108に格納されている建築図面データを読み込むことで生成され、各オブジェクトの背景画像として画面上に表示される。また、メートルを単位として設定されている各種オブジェクトをモニタ110の画面上でフロアマップと共に表示するために、各オブジェクトには、フロアマップの縮尺に対応させて表示するための拡大縮小率k(ピクセル/メートル)が定義されている。
図2では、監視カメラを表すオブジェクトとして、カメラオブジェクト201、212、216がフロアマップ上に配された例を挙げている。以下、説明を簡略にするため、各カメラオブジェクト201、212、216をそれぞれ区別して説明する必要がない場合には「カメラオブジェクト」とのみ表記することとする。本実施形態において、フロアマップ上に複数のカメラオブジェクトが配置されている場合において、何れかのカメラオブジェクトに対してユーザによる例えばマウスの左クリック操作がなされた場合、CPU101は、そのカメラオブジェクトを選択状態とする。図2の例では、カメラオブジェクト201を太線で図示しており、その太線で示されたカメラオブジェクト201が選択状態となっていることを表している。CPU101は、例えばフロアマップの任意の位置にマウスカーソルが存在している状態で、ユーザによりマウスの右クリック操作がなされると、そのカーソル位置に複数のメニュー項目を表示(図示は省略する)させる。そして、その複数のメニュー項目の中から「カメラを追加」のメニュー項目(図示は省略する)の選択がなされた場合、CPU101は、マウスカーソルの位置にカメラオブジェクトを追加する。また、CPU101は、カメラオブジェクトが選択状態となっていて、例えばマウスの右クリックにより例えば「削除」のメニュー項目(図示は省略する)が選択された場合には、その選択状態のカメラオブジェクトを削除する。また、CPU101は、カメラオブジェクトが選択状態となっていて、マウスによるドラッグアンドドロップ操作がなされた場合には、そのドラッグアンドドロップ操作に応じてカメラオブジェクトを移動させる(図示は省略する)。
カメラリスト250は、フロアマップ上で選択されたカメラオブジェクトの代替となるカメラの候補を列挙するリストが表示される領域である。カメラリスト250には、チェックボックス256が設けられている。チェックボックス256は、後述するように監視要件により監視カメラの候補を絞り込むことを、ユーザが入力デバイス106を介して指示する際にチェックが入れられる場所である。また、カメラリスト250には、フィルター設定ボタン257が設けられている。ユーザによるマウスクリック等でフィルター設定ボタン257が選択(押下)されると、CPU101は、カメラリスト250に表示するカメラの候補を絞り込むフィルター処理を行う。ここで、フィルター処理とは、フロアマップ上に配置可能な全ての監視カメラの中で、カメラリスト250に候補として列挙されるカメラをどのような仕様のカメラにするかを、ユーザが指定できるようにするための絞り込みを行う処理である。カメラの仕様については後に図3を用いて詳述する。フィルター処理では、後述する図3のカメラ仕様の各項目である製品名、アスペクト比、最大水平画角、PTZ(パン・チルト・ズーム)、画像サイズなどのスペックを、数値や範囲を指定して絞り込むことができる。また、フィルター処理では、WDR(WDRは、Wide Dynamic Rangeの略であり、暗いところを明るく補正し、全体をくまなく見えるようにする機能のことである。)や逆光補正の有無、社名などに基づく絞り込みも可能となされている。
前述したチェックボックス256にチェックが入れられた状態でフィルター設定ボタン257が選択されると、CPU101は、フィルター処理された仕様に対応した各カメラの製品名(ProductName)を表す候補リスト251〜254を表示させる。カメラリスト250には、候補リスト251〜254の中から選択された候補リストのカメラの仕様が表示されるカメラ仕様エリア258も設けられている。図2の例では、製品名(ProductNameA)を表す候補リスト251のカメラの仕様が、カメラ仕様エリア258に表示されている。また、CPU101は、フロアマップで選択状態となされているカメラオブジェクト201のカメラの仕様を差し替えることも可能となされている。例えば、候補リスト251〜254の中から、マウスクリック操作等を介してユーザにより何れかの候補リストが選択されると、CPU101は、選択状態のカメラオブジェクト201を、カメラリスト250で選択された候補の仕様のカメラに設定する。
図3は、図2の候補リスト251〜254に挙げられている各カメラの仕様601の一例を示す図である。仕様601の各行は、カメラ毎の具体的なカメラ仕様を示している。カメラ仕様の項目としては、例えば製品名602、アスペクト比603、最大水平画角604、ズーム605、パン・チルト606、画像サイズ607、WDR608、逆光補正609などがある。なお、図3中に「・・・」で示された、その他項目610は、図示は省略しているが、例えば、最低被写体照度を表すモード(デイモード/ナイトモード)や、映像圧縮方式(JPEG/H.264)などの項目を挙げることができる。これらのカメラ仕様の情報は、ファイルとして二次記憶装置108等に格納されており、本実施形態のレイアウト支援プログラムを起動した際にCPU101が読み込んで利用する。なお、カメラ仕様を収めたファイルは、レイアウト支援プログラムとは別のツールで追加・更新・削除が可能であるが、レイアウト支援プログラムが追加・更新・削除等を行ってもよい。
図2に説明を戻し、棚オブジェクト203は、例えば商品展示に用いられる棚を表しており、本実施形態のレイアウト支援プログラムの実行によりCPU101が生成してフロアマップ上に配置したものである。壁オブジェクト233は、壁を表しており、棚オブジェクト203の場合と同様に、本実施形態のレイアウト支援プログラムの実行によりCPU101が生成してフロアマップ上に配置したものである。視野範囲表示子オブジェクト230、231、232は、それぞれ対応したカメラオブジェクト201、212、216の各カメラの視野範囲を表している。これら視野範囲表示子オブジェクト230、231、232は、本実施形態のレイアウト支援プログラムの実行により、CPU101が、各カメラオブジェクト201、212、216のカメラ仕様に合わせて表示している。以下、説明を簡略にするため、視野範囲表示子オブジェクト230、231、232をそれぞれ区別して説明する必要がない場合には「視野範囲表示子オブジェクト」とのみ表記することとする。また、CPU101は、図示は省略するが、ユーザによるマウスのドラッグアンドドロップ操作等に応じて、視野範囲表示子オブジェクト230、231、232のサイズや向きを変更することも可能である。本実施形態の例では、図3のカメラ仕様で示したように、カメラオブジェクト201、212、216に対応した各カメラは、少なくとも画角の調整が可能となされている。また、カメラオブジェクト201、216に対応した各カメラは、パン・チルトが可能なドーム型のカメラである。さらに、カメラオブジェクト212のカメラは、施工時のみパン・チルト調整が可能なボックス型であるとする。
また、各カメラオブジェクトには、実際のカメラが配置される場所と水平方向と垂直方向と有効視野と視野範囲表示子の各情報が対応付けられている。
ここでいう有効視野とは、カメラの配置位置、カメラが設置された高さ、水平方向及び垂直方向(俯角)、垂直画角、水平画角で定まる4つの属性で定義される。図4を用い、例えばカメラオブジェクト201に対応したカメラの有効視野と視野範囲表示子について簡単に説明する。以下、図4の説明において、「カメラオブジェクト201に対応したカメラ」を、「カメラ201」と略記する。
ここでいう有効視野とは、カメラの配置位置、カメラが設置された高さ、水平方向及び垂直方向(俯角)、垂直画角、水平画角で定まる4つの属性で定義される。図4を用い、例えばカメラオブジェクト201に対応したカメラの有効視野と視野範囲表示子について簡単に説明する。以下、図4の説明において、「カメラオブジェクト201に対応したカメラ」を、「カメラ201」と略記する。
図4において、カメラ201の水平画角は、図4の点Hと点Zを結ぶ線分と図4の点Zと点Iを結ぶ線分との間の角度で表されている。以下の説明では、カメラ201の水平画角を「水平画角HZI」と表記する。カメラ201の垂直画角は、図4の点Eと点Zを結ぶ線分と図4の点Zと点Gを結ぶ線分との間の角度で表される。以下、カメラ201の垂直画角を「垂直画角EZG」と表記する。そして、カメラ201は、(x,y,z)座標における座標Z(0,0,z0)に配置されているとする。図4の点Zと点Kを結ぶ線分は、x軸と平行な水平方向を表している。以下、カメラ201の水平方向を「水平方向ZK」と表記する。カメラ201の俯角は、図4の点Kと点Zを結ぶ線分と、図4の点Zと点Fを結ぶ線分との間の角度で表される。以下、カメラの俯角を「俯角KZF」と表記する。図4の点Zと点Fを結ぶ線分はカメラ201の光軸であり、以下、「光軸ZF」と表記する。その他、図4の点Pと点Fを結ぶ線分と図4の点Fと点Zを結ぶ線分との間の角度を「角PFZ」と表記する。図4の点Eと点Zを結ぶ線分と図4の点Zと点Fを結ぶ線分との間の角度を「角EZF」、図4の点Fと点Zを結ぶ線分と図4の点Zと点Gを結ぶ線分との間の角度を「角FZG」と表記する。図4の点Aと点Zを結ぶ線分と図4の点Zと点Eを結ぶ線分との間の角度を「角AZE」、図4の点Eと点Zを結ぶ線分と図4の点Zと点Bを結ぶ線分との間の角度を「角EZB」と表記する。図4の点Hと点Zを結ぶ線分と図4の点Zと点Fを結ぶ線分との間の角度を「角HZF」、図4の点Fと点Zを結ぶ線分と図4の点Zと点Iを結ぶ線分との間の角度を「角FZI」と表記する。図4の点Cと点Zを結ぶ線分と図4の点Zと点Gを結ぶ線分との間の角度を「角CZG」と表記し、図4の点Gと点Zを結ぶ線分と図4の点Zと点Dを結ぶ線分との間の角度を「角GZD」と表記する。図4の点Pと点Eを結ぶ線分と図4の点Eと点Zを結ぶ線分との間の角度を「角PEZ」と表記する。図4の点Pは、図4の点Zから下ろした垂線と地面との交点であるとする。
ここで、図4において、角EZF=角FZG、角AZE=角EZB、角HZF=角FZI、角CZG=角GZDであるとする。水平画角HZIで垂直画角EZGのカメラ201を座標Z(0,0,z0)に配置し、水平方向ZK(x軸と平行)を向いて、俯角KZF=角PFZに設定された場合、カメラ201の有効視野は、図4の点A,B,C,Dからなる台形ABCDで表される。また、角PEZは角PFZ+垂直画角EZG/2、角PFGは角PFZ−垂直画角EZG/2で与えられる。したがって、図4の点Pから点Eまでの線分PEの長さは下記式(1)、図4の点Pから点Gまでの線分PGの長さは下記式(2)で求められる。一方、図4の点Zから点Eまでの線分ZEの長さは下記式(3)、図4の点Zから点Gまでの線分ZGの長さは下記式(4)で求められる。また、図4の点Aから点Eまでの線分AEの長さと、図4の点Eから点Bまでの線分EBの長さは等しく、下記式(5)により求められる。図4の点Cから点Gまでの線分CGの長さと、図4の点Gから点Dまでの線分GDの長さは等しく、下記式(6)により求められる。
線分PEの長さ=PZ/tan(PFZ+EZG/2)・・・(1)
線分PGの長さ=PZ/tan(PFZ−EZG/2)・・・(2)
線分ZEの長さ=PZ/sin(PFZ+EZG/2)・・・(3)
線分ZGの長さ=PZ/sin(PFZ−EZG/2)・・・(4)
線分AEの長さ=線分EBの長さ=ZE×tan(HZI/2)×cos(EZG/2)・・・(5)
線分CGの長さ=線分GDの長さ=ZG×tan(HZI/2)×cos(EZG/2)・・・(6)
線分PGの長さ=PZ/tan(PFZ−EZG/2)・・・(2)
線分ZEの長さ=PZ/sin(PFZ+EZG/2)・・・(3)
線分ZGの長さ=PZ/sin(PFZ−EZG/2)・・・(4)
線分AEの長さ=線分EBの長さ=ZE×tan(HZI/2)×cos(EZG/2)・・・(5)
線分CGの長さ=線分GDの長さ=ZG×tan(HZI/2)×cos(EZG/2)・・・(6)
これらのことから、(x,y)座標において、図4の点Aの座標A(Ax,Ay)は、(PZ/tan(PFZ+EZG/2),−ZE×tan(HZI/2)×cos(EZG/2))で示される。また、図4の点Bの座標B(Bx,By)は、(PZ/tan(PFZ+EZG/2),ZE×tan(HZI/2)×cos(EZG/2))で示される。図4の点Cの座標C(Cx,Cy)は、(PZ/tan(PFZ−EZG/2),−ZG×tan(HZI/2)×cos(EZG/2))で示される。図4の点Dの座標D(Dx,Dy)は、(PZ/tan(PFZ−EZG/2),ZG×tan(HZI/2)×cos(EZG/2))で示される。
ところで、図4の点Pから点Jの方向(以下、「水平方向PJ」と表記する。)は、カメラ毎に異なり、一般にフロアマップ上のx軸とは平行にはならない。また、カメラ201は、一般にはフロアマップ上の(x,y)座標上で表した場合、図4の点Pの座標P(Px,Py)=P(0,0)に配置されている。このため、実際のフロアマップの(x,y)座標の平面上において、点A,B,C,Dの各座標A(Ax,Ay),B(Bx,By),C(Cx,Cy),D(Dx,Dy)と、点Pの座標P(Px,Py)とは、それぞれ適切にアフィン変換される必要がある。
したがって、CPU101は、式(7)で示すようなアフィン変換のための回転行列Rを用いて、式(8)で示すように各点A,B,C,Dに回転演算を行った後、点Pの原点からのずれを足し込むことにより、各点A',B',C',D'を得る。
したがって、CPU101は、式(7)で示すようなアフィン変換のための回転行列Rを用いて、式(8)で示すように各点A,B,C,Dに回転演算を行った後、点Pの原点からのずれを足し込むことにより、各点A',B',C',D'を得る。
更に、図2に示した視野範囲表示子オブジェクト230をモニタ110に表示するためには、カメラ201の有効視野(台形ABDC)と点Pの位置に対し、フロアマップと共に定義されている拡大縮小率kによるスケーリング処理を行う必要がある。なお、スケーリング処理とは、メートル値をピクセル数に変換する処理である。このため、CPU101は、式(9)に示すように、視野範囲表示子オブジェクト230に関する図4の各点P,A',B',C',D'の各々に対してスケーリング処理を行うことで、各点P",A",B",C",D"を算出する。これら点P",A",B",C",D"によりフロアマップ上の視野範囲表示子オブジェクト230の位置と形状が表される。なお、このようなスケーリング処理は、図2の他のカメラオブジェクト212、216の視野範囲表示子オブジェクト231、232をモニタ110に表示する際にも同様に行われる。
図2に説明を戻し、フロアマップ上に配置されたカメラオブジェクト201、212、216には、それぞれ現在の有効視野と視野範囲表示子オブジェクト230、231、232の両方の情報が関連付けられている。なお、図2のカメラオブジェクト216のカメラは真下を向いている。また、図2では、フロアマップのx軸がx軸240で表され、y軸がy軸241で表されている。図2のフロアマップ内には、複数の監視要件オブジェクト204〜207、210、214、245〜247が配置されている。以下、記載を簡略にするため、監視要件オブジェクト204〜207、210、214、245〜247の各オブジェクトを区別する必要が無い場合には「監視要件オブジェクト」とのみ表記することとする。監視要件リスト220には、ユーザの指示に応じて、フロアマップ上の任意の位置に対して付与できる監視要件(221〜228)、又は、フロアマップ上の各オブジェクトに対して付与できる監視要件(221〜228)が列挙されている。監視要件リスト220の監視要件は、前述したように屋外221、屋内222、明るい223、暗い224、紙幣認識225、顔認識226、動線227、入口228や、図示しない車ナンバー認識、高温、低温、高湿度などである。
フロアマップ上の各監視要件オブジェクトには、監視要件リスト220の監視要件(221〜228)がそれぞれ関連付けられている。CPU101は、例えばユーザのマウス操作により監視要件リスト220の何れかの監視要件が選択された後、マウスの左クリックでフロアマップ上の位置が指定された場合、その指定位置上に、選択された監視要件に対応した監視要件オブジェクトを追加する。CPU101は、例えばユーザのマウス操作により監視要件リスト220の何れかの監視要件がフロアマップ上にドラッグアンドドロップ操作された場合に、そのドロップ位置上に、選択された監視要件に対応した監視要件オブジェクトを追加してもよい。また、CPU101は、例えばユーザによるマウス操作により、フロアマップ上の監視要件オブジェクトが選択された後に、マウスの右クリックで「削除」のメニューが指定されたときには、その選択された監視要件オブジェクトを削除する。CPU101は、ユーザによるマウスのドラッグアンドドロップ操作により、フロアマップ上で監視要件オブジェクトの移動やサイズ変更、回転を行うこともできる。
さらに、CPU101は、監視要件オブジェクトに対して法線ベクトルを設定することもできる。この場合の法線ベクトルは、該監視要件オブジェクトが監視される面とその向きを表す。法線ベクトルの始点は、対応する監視要件オブジェクトの中央とする。CPU101は、ユーザによるマウス操作に応じて、法線ベクトルの向きを360度任意の方向に指定可能である。図2の例では、監視要件オブジェクト205について法線ベクトル209が描かれている。また、監視要件オブジェクトは、人間の動線に配置することもできる。例えば図2の監視要件オブジェクト204は、人間の動線を示すために、ユーザによる指示に基づいて配置されたものであり、フロアマップ上の通路に配置されている。また、CPU101は、各監視要件オブジェクトに対し、各オブジェクトの位置とサイズを定義するために、少なくとも前述のx軸240とy軸241で示される平面における四隅の点の座標を設定している。さらに、CPU101は、ユーザによるマウス操作に応じて、各監視要件オブジェクトの向きを360度任意の方向に設定可能である。
<レイアウト支援プログラムの構成>
図5は、ROM102からRAM103へ読みだされたレイアウト支援プログラム701によりCPU101が実行する処理のうち、特にカメラリスト250の候補リスト251〜254の中から何れかの候補リストへの絞り込みを行う際の各処理をそれぞれ分けて示すブロック図である。
図5において、制御部702は、レイアウト支援プログラム701による各処理全体を制御し、カメラ仕様管理部703、オブジェクト管理部704、監視要件管理部705、監視要件オブジェクト検知部706、カメラ絞り込み部707へ処理の指示を行う。
図5は、ROM102からRAM103へ読みだされたレイアウト支援プログラム701によりCPU101が実行する処理のうち、特にカメラリスト250の候補リスト251〜254の中から何れかの候補リストへの絞り込みを行う際の各処理をそれぞれ分けて示すブロック図である。
図5において、制御部702は、レイアウト支援プログラム701による各処理全体を制御し、カメラ仕様管理部703、オブジェクト管理部704、監視要件管理部705、監視要件オブジェクト検知部706、カメラ絞り込み部707へ処理の指示を行う。
カメラ仕様管理部703は、制御部702からの指示を受け、図3に示したカメラ仕様の情報を、ファイルから読み込み、読み込んだカメラ仕様の情報を必要に応じて呼び出す。オブジェクト管理部704は、制御部702からの指示を受けて、図2の、各監視要件オブジェクトや各カメラオブジェクト、視野範囲表示子オブジェクトなど、ユーザーインターフェースとしての各オブジェクトを管理する。オブジェクト管理部704が管理するユーザーインターフェース上の各オブジェクトは、図2の棚オブジェクト203、壁オブジェクト233も含まれる。また、オブジェクト管理部704は、例えば、各オブジェクトの生成、削除、移動、回転、サイズ変更などの操作だけではなく、各オブジェクトの状態のセーブ・ロードや、各オブジェクト間の関係付けなどをも行う。
監視要件管理部705は、制御部702からの指示を受けて、レイアウト支援プログラム701内に予め登録されている図2の監視要件リスト220の各監視要件(221〜228)等の情報を読み込み、必要に応じて呼び出す。監視要件オブジェクト検知部706は、制御部702からの指示を受けて、視野範囲表示子オブジェクト230、231、232の中に監視要件オブジェクト204等が含まれているかを検知する。カメラ絞り込み部707は、制御部702からの指示を受けて、カメラリスト250に候補リスト251〜254等として表示するカメラを絞り込む。
<プログラムの実行による処理のフローチャート>
図6には、本実施形態においてレイアウト支援プログラム701に基づいて、CPU101が実行する処理のフローチャートを示す。図6では、図5の監視要件オブジェクト検知部706における監視要件オブジェクトの検知処理、及び、カメラ絞り込み部707におけるカメラ絞り込み処理について詳細に説明する。以下の説明では、図6のステップS801〜ステップS812を、S801〜S812と略記する。
図6には、本実施形態においてレイアウト支援プログラム701に基づいて、CPU101が実行する処理のフローチャートを示す。図6では、図5の監視要件オブジェクト検知部706における監視要件オブジェクトの検知処理、及び、カメラ絞り込み部707におけるカメラ絞り込み処理について詳細に説明する。以下の説明では、図6のステップS801〜ステップS812を、S801〜S812と略記する。
図6において、S801では、CPU101のカメラ仕様管理部703は、二次記憶装置108に格納されたカメラ仕様の情報を含むファイルを、記憶装置インターフェース107を介して二次記憶装置108から読み出してRAM103に書き込む。S801のファイル読み込みは、レイアウト支援プログラム701の起動時に一度だけ行われてもよいし、ユーザによるカメラ仕様の情報読み込み指示のメニュー選択がなされたときに行われてもよい。S801の後、CPU101の処理は、オブジェクト管理部704にて行われるS802に移行する。
S802では、オブジェクト管理部704は、建築図面メニュー(図示せず)を選択するなどのユーザ操作がなされると、建築図面(平面図)の情報を、記憶装置インターフェース107を介して二次記憶装置108から読み出してRAM103に書き込む。そして、オブジェクト管理部704は、建築図面(平面図)を、ビデオインターフェース109を介してモニタ110に表示させる。より詳細には、図2のx軸240,y軸241で示される平面に、建築図面を表示させる。このとき、オブジェクト管理部704は、読み込んだ建築図面の拡大縮小率がフロアマップに定義されている拡大縮小率kと一致するように、建築図面を拡大又は縮小する。或いは、オブジェクト管理部704は、読み込んだ建築図面の拡大縮小率に合わせて、フロアマップに定義されている拡大縮小率kを変更する。S802の後、オブジェクト管理部704は、S803に処理を進める。
S803では、オブジェクト管理部704は、図2の説明で述べたように、棚オブジェクト203や壁オブジェクト233等を生成して配置し、また、ユーザのマウス操作等に応じて、移動、変形、削除などを実行する。また、図2や図4を用いて説明したカメラオブジェクトの場合と同様に、棚オブジェクト203等の各オブジェクトは、それらオブジェクトが配置された場所、水平方向、垂直方向の他、サイズと形の情報が設定されている。これらオブジェクトの場所、水平方向、垂直方向の他、サイズと形の情報は、RAM103に記憶される。なお、各オブジェクトの場所、方向、サイズなど規定値は、レイアウト支援プログラム701に予め用意されており、プログラムが起動されてRAM103に展開される際に同時にRAM103に展開される。S803の後、オブジェクト管理部704は、S804に処理を進める。
S804では、オブジェクト管理部704は、図2の説明で述べたようなユーザ操作などに基づいて、前述の各監視要件オブジェクトを生成して配置、移動、変形、削除などを実行する。各監視要件オブジェクトはS803で説明した棚オブジェクト203等と同様な特徴を有しているが、特に、各監視要件オブジェクトは、親のオブジェクトを持つことが可能となされている。監視要件オブジェクトが親オブジェクトを持つと、移動、変形の起点となる原点が親オブジェクトの中心となされる。オブジェクト管理部704は、例えば、親オブジェクトを移動させた場合には、子となる監視要件オブジェクトも親オブジェクトと相対位置を保ちながら一緒に移動させる。何れの監視要件オブジェクトが親オブジェクトとなり、また子オブジェクトになるかは、レイアウト支援プログラム701で予め設定されていてもよいし、ユーザにより任意に設定されてもよい。一例として、監視要件の屋外221が親オブジェクトである場合、子オブジェクトとして明るい223の監視要件が対応付けられていてもよい。この例の場合、オブジェクト管理部704は、屋外221の監視要件オブジェクトをフロアマップに対して配置したときには、子オブジェクトである明るい223の監視要件オブジェクトも同時に配置する。また例えば、監視要件の入口228が親オブジェクトである場合、子オブジェクトとして明るい223と暗い224のようなコントラストが大きいことを表せる各監視要件が対応付けられていてもよい。この例の場合、オブジェクト管理部704は、入口228の監視要件オブジェクトをフロアマップに対して配置したときには、子オブジェクトである明るい223、暗い224等の各監視要件オブジェクトも同時に配置する。なお、これら親オブジェクトと子オブジェクトの例はあくまでも一例であり、この例に限定されるものではない。規定の監視要件オブジェクトは、レイアウト支援プログラム701に予め用意されており、プログラムが起動されてRAM103に展開される際に同時にRAM103に展開される。S804の後、CPU101の処理は、カメラ絞り込み部707にて行われるS805に移行する。
S805では、カメラ絞り込み部707は、例えばユーザのマウス操作等により図2のフィルター設定ボタン257が押下されると、モニタ110の画面上にフィルター設定画面(図示は省略する。)を表示させる。図示は省略するが、カメラ絞り込み部707は、フィルター設定画面上には「フィルターを設定する」等のボタンを表示させる。「フィルターを設定する」のボタンは、カメラリスト250に表示するカメラの候補を絞り込む前述したフィルター処理を行うことを、ユーザが指示するためのボタンである。ユーザのマウス操作等により「フィルターを設定する」のボタンが押下等されると、カメラ絞り込み部707は、フィルターを設定して、その設定情報をRAM103に保存する。これにより、カメラ絞り込み部707は、図3で説明したカメラ仕様の項目である製品名やアスペクト比、最大水平画角、PTZ、画像サイズ、WDR、逆光補正、社名などのスペックを、数値や範囲を指定してカメラを絞り込むことができる。S805の後、CPU101の処理は、オブジェクト管理部704にて行われるS806に移行する。
S806では、オブジェクト管理部704は、図2の説明で述べたようなユーザ操作などに基づいて、前述した各カメラオブジェクトを生成して配置、選択、移動、変形、削除などを実行する。各カメラオブジェクトは、S803とS804で説明した棚オブジェクト203等や監視要件オブジェクトと同様な特徴を有する他に、図4で説明した各視野範囲表示子オブジェクトがそれぞれ関連付けられている。視野範囲表示子オブジェクト230〜232は、それぞれ対応したカメラオブジェクト201、212、216の一部であり、各カメラオブジェクトから離して移動させることは出来ない。ただし、オブジェクト管理部704は、視野範囲表示子オブジェクトの変形についてはカメラオブジェクトとは独立して実行可能となされている。S806の後、オブジェクト管理部704は、S807に処理を進める。
S807では、オブジェクト管理部704は、図2の説明で述べたようなユーザの操作等に基づいて、視野範囲表示子オブジェクトを移動、変形する。例えば、図4で説明したように、例えばカメラの水平画角が変更された場合には、オブジェクト管理部704は、そのカメラに対応した視野範囲表示子オブジェクトを変更することができる。視野範囲表示子オブジェクトを変更する際には、オブジェクト管理部704は、カメラオブジェクトに対応したカメラの仕様で定義される例えば最大水平画角を超えない範囲に収めるなどして、変更を制限する。なお、S806、S807で操作の対象となった最後のカメラオブジェクトについては、オブジェクト管理部704は、選択状態であるとして管理し、そのカメラオブジェクトが選択状態であることを示す情報をRAM103に記憶させておく。S807の後、CPU101の処理は、カメラ絞り込み部707にて行われるS808に移行する。
なお、図6のフローチャートでは、S807の処理が終わるとS808の処理に進むような流れで示されているが、S801〜S807の処理の順番は入れ替えられていてもよい。また、一例として壁オブジェクト等を配置しない場合など不要な処理があるときには、その処理のステップはスキップされてもよい。もちろん、S801〜S807の各処理が完了した後にS808に進むこととしてもよい。
S808では、カメラ絞り込み部707は、図2で説明したような「監視要件で絞り込む」のチェックボックス256にチェックが付けられているか否かを判定する。S808において、チェックが付けられているとカメラ絞り込み部707が判定した場合、CPU101の処理は、監視要件オブジェクト検知部706で行われるS809に移行する。一方、カメラ子絞り込み部707は、S808において、チェックが付けられていないと判定した場合には、S811に処理を進める。
S809に進んだ場合、監視要件オブジェクト検知部706は、この時点で選択状態にあるカメラオブジェクトの視野範囲表示子オブジェクトの中に、監視要件オブジェクトがあるか否かを判定する。S809において、監視要件オブジェクトの全て又は一部が含まれていると監視要件オブジェクト検知部706が判定した場合、CPU101の処理は、カメラ絞り込み部707で行われるS810に移行する。一方、S809において、監視要件オブジェクトが含まれていないと監視要件オブジェクト検知部706が判定した場合、CPU101の処理は、カメラ絞り込み部707で行われるS811に移行する。
S810に進んだ場合、カメラ絞り込み部707は、S809で検知された監視要件オブジェクトに関連付けられている監視要件を参照して、カメラを絞り込む。
以下、カメラ絞り込み部707がS810で行うカメラ絞り込み処理について具体例を挙げて説明する。
図2のカメラオブジェクト212を例に挙げて説明する。図2に示したように、カメラオブジェクト212の視野範囲表示子オブジェクト231の中には、「紙幣認識」の監視要件に対応した監視要件オブジェクト210が含まれている。ここで、紙幣を認識するために必要な解像度は5ピクセル/cmであるとする。したがって、「紙幣認識」の監視要件に対応した監視要件オブジェクト210に位置する領域を撮影する際に、必要な解像度は、5ピクセル/cmとなる。オブジェクト管理部704は、S804で説明した規定の監視要件オブジェクトをRAM103に展開する際に、その規定の監視要件オブジェクトに対し、この解像度の値を関連付けてRAM103に展開しておく。そして、或るカメラの画像サイズの横方向のピクセル数が1920ピクセルで、前述の図4の点Fの位置に監視要件オブジェクトがあると仮定したとする。この例の場合、カメラ絞り込み部707は、図4の点Iから点Hまでの長さが1920(ピクセル)/5(ピクセル/cm)に相当する384cm以上であるならば、そのカメラを絞り込み対象に含めるようにする。一方、図4の点Iから点Hまでの長さが384cmよりも短い場合には、カメラ絞り込み部707は、そのカメラを絞り込み対象から除外する。
以下、カメラ絞り込み部707がS810で行うカメラ絞り込み処理について具体例を挙げて説明する。
図2のカメラオブジェクト212を例に挙げて説明する。図2に示したように、カメラオブジェクト212の視野範囲表示子オブジェクト231の中には、「紙幣認識」の監視要件に対応した監視要件オブジェクト210が含まれている。ここで、紙幣を認識するために必要な解像度は5ピクセル/cmであるとする。したがって、「紙幣認識」の監視要件に対応した監視要件オブジェクト210に位置する領域を撮影する際に、必要な解像度は、5ピクセル/cmとなる。オブジェクト管理部704は、S804で説明した規定の監視要件オブジェクトをRAM103に展開する際に、その規定の監視要件オブジェクトに対し、この解像度の値を関連付けてRAM103に展開しておく。そして、或るカメラの画像サイズの横方向のピクセル数が1920ピクセルで、前述の図4の点Fの位置に監視要件オブジェクトがあると仮定したとする。この例の場合、カメラ絞り込み部707は、図4の点Iから点Hまでの長さが1920(ピクセル)/5(ピクセル/cm)に相当する384cm以上であるならば、そのカメラを絞り込み対象に含めるようにする。一方、図4の点Iから点Hまでの長さが384cmよりも短い場合には、カメラ絞り込み部707は、そのカメラを絞り込み対象から除外する。
また他の例として、図2のカメラオブジェクト201を例に挙げる。図2に示したように、カメラオブジェクト201の視野範囲表示子オブジェクト230の中には、「動線」、「顔認識」、「明るい」、「暗い」の各監視要件に各々対応した監視要件オブジェクト204、205、206、207が含まれている。ここで、監視要件に「動線」が含まれている場合、人の動線を追う必要が生じる可能性があるため、カメラは、PTZ(パン・チルト・ズーム)の機能を有していることが望ましい。このため、「動線」の監視要件に対しては、PTZのフィルター設定情報が関連付けられている。また、顔認識に必要な解像度は例えば1ピクセル/cmであるとする。監視要件に「顔認識」が含まれている場合、前述紙幣認識の場合と同様に、顔認識に必要な解像度の値と、カメラ仕様の画像サイズ、監視要件オブジェクトとカメラとの間の距離などからカメラを絞り込むことが可能であると考えられる。また、監視要件に「明るい」と「暗い」の組み合わせが含まれている場合には、例えば建物の入り口のように暗い屋内と明るい屋外との間の明るさの差が大きく、コントラストが大きい場合を想定していると考えられる。このため、「明るい」、「暗い」の各監視要件が設定されている場合には、それに加えて、例えば「屋外」、「入口」等に対応した監視要件オブジェクト(図示せず)が設定されていてもよい。或いは、例えば、「入口」の監視要件オブジェクトを前述した親オブジェクトとして、「明るい」、「暗い」の各監視要件オブジェクトが子オブジェクトとして設定されていてもよい。このように、監視要件に「明るい」と「暗い」の組み合わせや「入口」、「屋外」等が含まれている場合には、カメラは、WDRの機能を有していることが望ましいと考えられる。したがって、「明るい」と「暗い」の組み合わせや「入口」、「屋外」等の監視要件に対しては、WDRのフィルター設定情報が関連付けられている。そして、カメラ絞り込み部707は、監視要件に関連付けられているフィルターの設定情報を基に、カメラの絞り込みを行う。この例では、フィルターの設定情報として、PTZとWDRの有無、及び、前述の「紙幣認識」で説明したのと同様の解像度に対応した画像サイズから算出される図4の点Iから点Hまでの長さ等に基づいて、カメラを絞り込むことになる。
また、例えば、人の顔を上の方向や横の方向から撮影する場合には、顔認識ができなくなる可能性がある。このため、図2に示したように、「顔認識」の監視要件に対応した監視要件オブジェクト205には、法線ベクトル209が付与されている。この場合の法線ベクトル209は、顔認識ができなくなる可能性があるか否かの判断の際に用いることができる。例えば、カメラオブジェクト201の向き、つまり図4の点Zと点Fを結ぶ光軸ZFと、監視要件オブジェクト205の法線ベクトル209との成す角度が、所定の閾値として設定されている角度を超える場合には、顔認識が難しいと判断できる。このため、カメラ絞り込み部707は、光軸ZFと法線ベクトル209との成す角度が所定の閾値の角度を超える場合には、顔認識が難しいと判断して、例えばモニタ110上にメッセージダイアログなどにより警告を表示するようにしてもよい。これにより、顔認識が難しい状態でカメラが設置されてしまうことを、事前に防止することが可能となる。
その他にも、例えば、図2のカメラオブジェクト216と「紙幣認識」の監視要件オブジェクト214の例のように、オブジェクトとカメラとの間の距離が近く横からの撮影が難しい場合もある。したがって、このような場合には、カメラ絞り込み部707は、例えば魚眼レンズ等の画角が広いレンズを備えた全方位カメラに絞り込む。具体的には、カメラ絞り込み部707は、カメラオブジェクトと監視要件オブジェクトとの間の距離が所定の閾値以内である場合には、全方位カメラに絞り込む。
また、図2の「顔認識」の監視要件オブジェクト245と「明るい」の監視要件オブジェクト246、「暗い」の監視要件オブジェクト247は、カメラオブジェクト201,212,216の何れのカメラの視野範囲表示子オブジェクトにも含まれていない。このような、監視要件オブジェクト245〜247がある場合、カメラ絞り込み部707は、モニタ110上にメッセージダイアログなどにより警告を表示するようにしてもよい。これにより、カメラオブジェクトの設定忘れを防止でき、また、不要な監視要件オブジェクトの設定を無くすことができる。
前述したS810の後、カメラ絞り込み部707は、S811に処理を進める。
S811に進んだ場合、カメラ絞り込み部707は、S805で設定したフィルターの設定情報をRAM103から取得して、そのフィルターの設定情報に基づくフィルター処理(絞り込み処理)を実行する。例えば、フィルターの設定情報に「ズーム可」の設定が含まれていた場合において、図3に示した4つ製品の仕様601を例に挙げると、ズーム可の仕様のカメラは、製品名がProductNameA、ProductNameDの2つである。したがって、この例の場合、カメラ絞り込み部707は、それら製品名がProductNameA、ProductNameDの2つのカメラに絞り込む。S811の後、CPU101の処理は、オブジェクト管理部704で行われるS812に移行する。
S811に進んだ場合、カメラ絞り込み部707は、S805で設定したフィルターの設定情報をRAM103から取得して、そのフィルターの設定情報に基づくフィルター処理(絞り込み処理)を実行する。例えば、フィルターの設定情報に「ズーム可」の設定が含まれていた場合において、図3に示した4つ製品の仕様601を例に挙げると、ズーム可の仕様のカメラは、製品名がProductNameA、ProductNameDの2つである。したがって、この例の場合、カメラ絞り込み部707は、それら製品名がProductNameA、ProductNameDの2つのカメラに絞り込む。S811の後、CPU101の処理は、オブジェクト管理部704で行われるS812に移行する。
S812では、オブジェクト管理部704は、図2で述べたようなユーザの操作等に基づいて、選択状態のカメラに対応付けられているカメラについて、カメラリスト250に表示されるリストの中でユーザにより選択されたカメラに対応した仕様に差し替える。なお、カメラの仕様が差し替えられたときには、オブジェクト管理部704は、視野範囲表示子オブジェクトについても、その差し替え後のカメラの仕様に応じたものに変更する。S812の後、CPU101は、S801に処理を戻してもよいし、ユーザからの終了指示操作を受けて図6のフローチャートの処理を終了してもよい。
以上説明したように、本実施形態の情報処理装置によれば、監視要件に応じて、必要な仕様(スペック)のカメラのみが選択できるようになるため、カメラの選定を効率的に行うことができるようになる。したがって、本実施形態の情報処理装置によれば、適切な設定値を選択する手間を軽減することができるようになる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101 CPU、102 ROM、103 RAM、104 バス、105 入力インターフェース、106 入力デバイス、107 記憶装置インターフェース、108 二次記憶装置、109 ビデオインターフェース、110 モニタ、111 出力インターフェース、112 出力デバイス、201,212,216 監視カメラオブジェクト、230〜232 視野範囲表示子オブジェクト、204〜207,209,214,245〜247 監視要件オブジェクト
Claims (11)
- 少なくとも一つの監視カメラと、前記監視カメラの視野範囲とを、図面上に配置して表示する配置手段と、
前記図面上の任意の位置に監視要件を付与する付与手段と、
前記図面上の前記視野範囲の内に前記監視要件が含まれるか検知する検知手段と、
前記検知手段により前記視野範囲の内で検知された監視要件と、予め用意されている複数の監視カメラの仕様とに基づいて、前記複数の監視カメラの中から前記図面上に配置可能な前記監視カメラを絞り込む絞り込み手段と
を有することを特徴とする情報処理装置。 - 前記配置手段は、前記図面上に配置された前記監視カメラを、前記絞り込み手段により絞り込まれた監視カメラに差し替えることを特徴とする請求項1に記載の情報処理装置。
- 前記配置手段は、前記差し替えた監視カメラの仕様に応じて、前記図面上の前記視野範囲を変更することを特徴とする請求項2に記載の情報処理装置。
- 前記絞り込み手段は、
前記検知手段により前記視野範囲の内で検知された監視要件に基づいて、前記複数の監視カメラの中から前記監視カメラの絞り込みを行い、
前記監視要件に基づいて絞り込まれた複数の監視カメラの中から、更に、ユーザに指定された仕様に基づく監視カメラの絞り込みを行うことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 - 前記付与手段は、複数の監視要件の中からユーザにより選択された監視要件を、ユーザにより図面上に指定された任意の位置に付与することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 前記付与手段は、親となる監視要件と前記親の監視要件に対する子の監視要件が設定されている場合、前記親の監視要件に合わせて前記子の監視要件を前記図面上に付与することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
- 前記絞り込み手段は、前記図面上に付与された前記監視要件の監視される面と方向を表す法線ベクトルと前記監視カメラの光軸との成す角度が所定の閾値を超える場合には、所定の警告を行うことを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
- 前記絞り込み手段は、前記図面上に配置された監視カメラと前記図面上に付与された監視要件との間の距離が所定の閾値以内である場合には、前記複数の監視カメラの中から前記絞り込む監視カメラを全方位カメラとすることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- 前記検知手段は、前記図面上に前記監視カメラの視野範囲に含まれない前記監視要件がある場合には、所定の警告を行うことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
- 配置手段が、少なくとも一つの監視カメラと、前記監視カメラの視野範囲とを、図面上に配置して表示する配置ステップと、
付与手段が、前記図面上の任意の位置に監視要件を付与する付与ステップと、
検知手段が、前記図面上の前記視野範囲の内に前記監視要件が含まれるか検知する検知ステップと、
絞り込み手段が、前記検知ステップにより前記視野範囲の内で検知された監視要件と、予め用意されている複数の監視カメラの仕様とに基づいて、前記複数の監視カメラの中から前記図面上に配置可能な前記監視カメラを絞り込む絞り込みステップと
を含むことを特徴とする情報処理方法。 - コンピュータを、請求項1乃至9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015204836A JP2017076937A (ja) | 2015-10-16 | 2015-10-16 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015204836A JP2017076937A (ja) | 2015-10-16 | 2015-10-16 | 情報処理装置、情報処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017076937A true JP2017076937A (ja) | 2017-04-20 |
Family
ID=58551605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015204836A Pending JP2017076937A (ja) | 2015-10-16 | 2015-10-16 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017076937A (ja) |
-
2015
- 2015-10-16 JP JP2015204836A patent/JP2017076937A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4730431B2 (ja) | 目標追尾装置 | |
US10999635B2 (en) | Image processing system, image processing method, and program | |
CN109286755B (zh) | 信息处理装置及控制图像捕获装置的控制方法 | |
US10796543B2 (en) | Display control apparatus, display control method, camera system, control method for camera system, and storage medium | |
EP2849439B1 (en) | Display image formation device and display image formation method | |
JP2011061511A (ja) | 魚眼監視システム | |
RU2664770C1 (ru) | Устройство управления, способ управления этим устройством и программа | |
KR102337209B1 (ko) | 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체 | |
CN107710736A (zh) | 辅助用户捕获图像或视频的方法和系统 | |
JP2018113661A (ja) | 映像監視装置及びその制御方法及びシステム | |
US20160353021A1 (en) | Control apparatus, display control method and non-transitory computer readable medium | |
JP5177068B2 (ja) | 目標追尾装置、目標追尾方法 | |
US11729494B2 (en) | Information processing apparatus, control method therefor, and storage medium | |
JP2017076937A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20210201511A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US11700446B2 (en) | Information processing apparatus, system, control method of information processing apparatus, and non-transitory computer-readable storage medium | |
JP7298116B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2018124629A (ja) | 画像処理装置、情報処理方法及びプログラム | |
JP4478047B2 (ja) | 情報提示装置及び情報提示方法とそのプログラム | |
KR102339825B1 (ko) | 상황인식 장치 및 이의 영상 스티칭 방법 | |
WO2023223887A1 (ja) | 情報処理装置、情報処理方法、表示制御装置、表示制御方法 | |
JP5264274B2 (ja) | 通信装置、カメラシステム、制御方法およびプログラム | |
JP2010044651A (ja) | 複数画像間の関係付けおよび切り替え表示をするための方法、プログラム、および装置 | |
JP6624847B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2023173764A (ja) | 情報処理装置、情報処理方法 |