JP2017084004A - 警備シミュレーション装置 - Google Patents

警備シミュレーション装置 Download PDF

Info

Publication number
JP2017084004A
JP2017084004A JP2015209966A JP2015209966A JP2017084004A JP 2017084004 A JP2017084004 A JP 2017084004A JP 2015209966 A JP2015209966 A JP 2015209966A JP 2015209966 A JP2015209966 A JP 2015209966A JP 2017084004 A JP2017084004 A JP 2017084004A
Authority
JP
Japan
Prior art keywords
security
visual field
guard
gazing
planned movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015209966A
Other languages
English (en)
Other versions
JP2017084004A5 (ja
JP6358996B2 (ja
Inventor
利彦 櫻井
Toshihiko Sakurai
利彦 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2015209966A priority Critical patent/JP6358996B2/ja
Publication of JP2017084004A publication Critical patent/JP2017084004A/ja
Publication of JP2017084004A5 publication Critical patent/JP2017084004A5/ja
Application granted granted Critical
Publication of JP6358996B2 publication Critical patent/JP6358996B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】警備移動体からの視界のシミュレーションを容易化する警備シミュレーション装置を提供する。
【解決手段】警備空間内を所定の移動予定経路に沿って移動する警備移動体から警備対象を注視した視野をシミュレーションする警備シミュレーション装置。移動予定経路上の各位置から警備対象(注視点)に向かう方向を含む視野条件を求め、移動予定経路上の各位置にて警備移動体が注視点を可視か否かを判定し、移動予定経路上の各位置にて視野条件で空間モデルをレンダリングした画像を生成するとともに、該画像に対して判定結果を付与して時系列画像を生成することを特徴とする。
【選択図】図12

Description

本発明は、警備空間内を移動しながら警備する警備移動体(例えば、警備員、船舶、飛行船等)からVIP等の警備対象を見たときの仮想的な視界を再現する警備シミュレーション装置に関する。
近年、セキュリティを目的として、街やビルディングといった広い警備空間内に、多くの可視カメラや赤外線カメラ等の撮像装置を設置したり、警備員や警備ロボットなどの警備移動体を巡回警備させるケースが増加しつつある。このように多くの撮像装置や警備移動体を用いて広い警備空間を警備するような場合、これら撮像装置や警備移動体から警備対象がどのように見えるのかを、警備計画立案者が計画段階において容易に把握できることが管理上必要とされている。
例えば、特許文献1には、固定設置された撮像装置の設置位置、姿勢(光軸)、焦点距離等の情報を用いて、撮像装置から警備空間内をどのように見えるのかといった視界を立体的にシミュレーション表示する技術が開示されている。
特開2008−011433
しかしながら、従来技術では、固定設置された撮像装置からの視界をシミュレーション表示することができたとしても、警備空間内を移動する警備移動体からの視界をシミュレーション表示することはできなかった。そのため、警備空間内を所定のルート(移動予定経路)に沿って移動し、所定の警備対象を監視する警備移動体からの視界を容易に把握できるようにしたいといった警備上のニーズがあった。特に、警備移動体が移動予定経路上のどの位置では、警備対象の死角となるのかといったことを容易に把握したいといった警備上のニーズがあった。
本発明上記問題を鑑みてなされた者であり、警備移動体からの視界のシミュレーションを容易化し、警備計画立案者が警備計画の立案、確認および伝達を容易に行うことができるようにすることを目的とする。
上記した目的を達成するために、警備空間内を所定の移動予定経路に沿って移動する警備移動体から所定の警備対象を注視した視野をシミュレーションする警備シミュレーション装置であって、前記警備空間を3次元の仮想空間にて表現した空間モデルと、前記警備対象の位置である注視点を示す注視点情報と、前記移動予定経路と、が記憶された記憶部と、前記移動予定経路上の各位置から前記注視点に向かう方向を含む視野条件を該位置に対応付けた視野情報を生成する視野情報生成手段と、前記移動予定経路上の各位置にて前記警備移動体が前記注視点を可視か否かを前記空間モデルに基づいて判定する判定手段と、前記移動予定経路上の各位置にて前記視野条件で前記空間モデルをレンダリングした画像を生成するとともに、該画像に対して前記判定手段の判定結果を付与して時系列画像を生成する画像処理手段と、を有することを特徴とする警備シミュレーション装置を提供する。
かかる構成により、警備計画立案者は、出力された時系列画像を参照することによって、移動中の警備移動体からの警備対象(注視点)の見え方(視野)及び警備対象の可視/非可視(例えば、障害物に隠れていたり、距離が離れているときは非可視とする)を容易に把握することができる。したがって、警備計画立案者は、時系列画像を参考にして、警備移動体の移動予定経路の変更や警備移動体の増減などといった警備計画の立案を容易に行うことが可能となり、また、当該時系列画像を他の警備員等に参照させることにより警備計画の伝達を容易に行うことが可能となる。
また、本発明の好ましい態様として、前記判定手段は、前記移動予定経路上の各位置において複数存在する注視点のそれぞれが可視か否かを判定し、前記画像処理手段は、可視と判定された前記注視点と前記視野情報と前記空間モデルとに基づいて前記時系列画像を生成するものとする。
かかる構成により、設定された複数の注視点のうち、移動予定経路上の位置から見えない注視点については無視し、見える注視点に向けた視野条件で時系列画像を自動生成できるため、不要な視野を配した無駄のない警備計画を容易に策定することが可能となる。
また、本発明の好ましい態様として、前記画像処理手段は、前記視野情報算出部にて可視と判定された注視点が複数存在する前記移動予定経路上の位置が存在するとき、該注視点のうち該位置から最も近い注視点を選択し、該選択した注視点を用いて前記時系列画像を生成するものとする。
かかる構成により、移動予定経路上の所定の位置から複数の注視点が見えるとき、その位置から最も近い位置の注視点に向けた視野条件で時系列画像を自動生成できるため、遠方の注視点よりも近くの注視点に集中して警備する警備計画を容易に策定することが可能となる。
また、本発明の好ましい態様として、利用者からの選択を受け付ける入力部を更に有し、前記画像処理手段は、前記視野情報算出部にて可視と判定された注視点が複数存在する前記移動予定経路上の位置が存在するとき、該注視点のうち前記入力部にて選択された注視点を用いて前記時系列画像を出力するものとする。
かかる構成により、移動予定経路上の所定の位置から複数の注視点が見えるとき、警備計画立案者(利用者)からどの注視点を重視するのかを選択してもらい、選択された注視点に向けた視野条件で時系列画像を自動生成できるため、警備計画立案者が意図する注視点に集中した警備計画を容易に伝達することが可能となる。
また、本発明の好ましい態様として、前記移動予定経路上の位置と前記時系列画像の生成に用いた前記注視点に係る視野条件とを対応付けた情報を前記警備移動体が読み取り可能な形式により出力する出力部を更に有するものとする。
かかる構成により、出力部から出力された情報を警備移動体に搭載されたカメラ制御装置(カメラのパン、チルト、ズームを制御操作する装置)に入力することができ、これによって時系列画像と同じ視野からなるカメラ撮像画像を実際に撮像することが可能となる。
上記のように、本発明によれば、警備計画立案者は、警備空間内を移動する警備移動体からの仮想的な視野である時系列画像を参照することで、警備計画の立案、確認および伝達を容易に行うことができる。
警備シミュレーション装置の構成を示すブロック図 空間モデルを説明する図 注視点情報を示すテーブル 移動予定経路を示すテーブル 視野情報を示すテーブル 判定結果を示すテーブル 制御部の構成を示すブロック図 警備シミュレーション装置の処理を示すフローチャート 注視点及び移動予定経路を説明する図 可視か否かを移動予定経路に表現した図 仮想カメラ視野条件情報を説明する図 仮想カメラ画像を説明する図
以下、建物が存在する島を含む所定範囲のエリアを警備空間とし、当該警備空間内の海面を移動(巡回警備)する船舶を警備移動体としたとき、当該警備移動体に搭載された撮像装置から所定の警備対象に対する見え方(視野)を時系列画像(動画像)として出力すると共に、該時系列画像上に警備対象の位置である注視点が可視か否かを識別可能に表示する警備シミュレーション装置の実施形態について、添付した図面を参照しながら詳細に説明する。なお、本実施形態における警備移動体に搭載される撮像装置は、CCD素子やC−MOS素子等の撮像素子、光学系部品等を含んで構成される所謂監視カメラである。当該監視カメラは、カメラ制御装置に取り付けられており、当該カメラ制御装置によりパン、チルト、ズーム等の制御によって監視カメラの画角を自由に変更できるものであるが、詳細については、本発明の本質的なことでないので説明を省略する。
(警備シミュレーション装置の全体構成について)
図1に示すように、本実施形態の警備シミュレーション装置1は、記憶部11、制御部12、出力部13及び入力部14を含んで概略構成される。入力部14は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。警備シミュレーション装置1の管理者(例えば警備計画立案者)は、入力部14を用いて、例えば、後述する空間モデル111の3次元形状データなどを記憶部11に記憶させたり、様々な設定情報を設定することができる。
記憶部11は、ROM、RAM、HDD等の情報記憶装置である。記憶部11は、各種プログラムや各種データを記憶し、制御部12との間でこれらの情報を入出力する。各種データには、空間モデル111、注視点情報112、移動予定経路113、視野情報114、判定結果115、その他、制御部12の処理に使用される各種情報(例えば、後述する仮想カメラ視野条件情報、警備移動体の移動速度など)を記憶している。
空間モデル111は、警備空間に存在する現実世界の建造物・地面・樹木等の物体の3次元形状データを配置して、警備空間を3次元の仮想空間として表した情報である。より具体的には、3次元形状データを元に立体的な物体の平面や曲面をポリゴンにより表現し、ポリゴンデータに対して警備空間を実際に上空から撮影した静止画像をテクスチャマッピングすることにより生成した情報である。空間モデル111を生成するための3次元形状データは、上空から撮影した画像をステレオ法によって物体の形状・位置を認識することにより作成する。しかし、これに限らず、3次元形状データは、3次元CADで作成されたものでも良いし、3次元レーザースキャナー等により警備空間に存在する物体の3次元形状を取り込んだデータを利用しても良い。このようにして作成された空間モデル111は、管理者により入力部14から設定登録されることにより記憶部11に記憶される。図2は、本実施形態で利用する空間モデル111の一部を例示したものである。図2に示した空間モデル111では、符号111aと111bはそれぞれ警備空間に存在する陸地と海に相当し、符号111c〜符号111eは建物に相当する。
注視点情報112は、警備空間における警備対象の位置である注視点を表した情報であり、図3に表すように、一又は複数の注視点の識別子(注視点ID)と、各注視点の座標値(x,y,z)とを対応付けたテーブルとして記憶部11に記憶される。後述するように、注視点情報112は、管理者によって入力部14から設定されることにより、記憶部11に記憶される。
移動予定経路113は、警備移動体が移動を予定している経路を表した情報であり、図4に表すように、移動予定経路113上の各位置を表す座標の座標値列(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3)、・・・と当該位置の識別子(位置ID)とを対応付けたテーブルとして記憶部11に記憶される。後述するように、注視点情報112は、管理者によって入力部14から設定されることにより、記憶部11に記憶される。
視野情報114は、後述する視野情報生成手段121によって生成される情報であり、図5に表すように移動予定経路113上の各位置を示した位置IDと、当該位置から各注視点(A、B、・・・)に向かう方向(視野条件)とを対応付けた情報である。本実施形態では、右手系の直交座標系におけるヨー角(α°)・ピッチ角(β°)・ロール角(γ°)により方向(α,β,γ)を表現する。例えば、水平面における真北の方向を(0,0,0)とし、水平面における真南の方向を(180,0,0)、真北の俯角30°の方向を(0,−30,0)として表現する。
判定結果115は、後述する判定手段122によって生成される情報であり、図6に表すように、移動予定経路113上の各位置を示した位置IDと、当該位置から各注視点を見たときに可視と判定された注視点の注視点IDとを対応付けた情報である。例えば、図6の位置ID=00001の位置からは注視点A,Bが可視と判定されており、位置ID=00003の位置からはいずれの注視点についてもいずれも非可視と判定されていることを示している。なお、本実施形態では、判定結果115として可視の注視点IDのみを記憶しているが、これに限らず、非可視の注視点IDのみを記憶してもよいし、各注視点IDが可視であるか非可視であるかを示した情報を記憶してもよい。
制御部12は、CPU等を備えたコンピュータで構成され、図7に示すように、視野情報生成手段121、判定手段122、画像処理手段123を含んで構成される。
視野情報生成手段121は、移動予定経路113上の位置毎に注視点情報112の各注視点に向かう方向(視野条件)を求め、求めた方向(視野条件)を移動予定経路113上の各位置に対応付けて視野情報114として記憶部11に記憶する視野情報生成処理を行う。以下、視野情報生成処理の詳細について説明する。視野情報生成処理では、まず、移動予定経路113を記憶部11から読み出し、移動予定経路113を構成する位置(座標)の中から未処理の位置を選択する。そして選択した位置から注視点情報112に記憶された各注視点までの直線を求め、当該直線の方向をヨー角(α°)・ピッチ角(β°)・ロール角(γ°)に換算して視野情報114に記憶する。この処理を移動予定経路113を構成する全ての位置に対して繰り返し実行し、全ての位置に対して当該処理が完了した時点で視野情報生成処理を終了する。
判定手段122は、移動予定経路113上の位置毎に警備移動体が各注視点を可視か否かを判定して、その判定結果115を記憶部11に記憶する可視判定処理を行う。以下、可視判定処理の詳細について説明する。可視判定処理では、まず、移動予定経路113を記憶部11から読み出し、移動予定経路113を構成する位置の中から未処理の位置を選択する。そして選択した位置から注視点情報112に記憶された各注視点までの直線を求め、当該直線が空間モデル111で表現される物体(障害物)に干渉(交差)するか否かを幾何計算により判定する。直線が物体に干渉するとき、選択した位置から当該注視点を非可視であると判定し、反対に干渉しないときは可視であると判定する。また、直線の距離が予め定めた距離閾値以上であるときも非可視であると判定する。そして、選択した位置から可視であると判定された注視点の注視点IDを、記憶部11の判定結果115に選択した位置の位置IDに対応付けて記憶する。この処理を移動予定経路113を構成する全ての位置に対して繰り返し実行し、全ての位置に対して当該処理が完了した時点で可視判定処理を終了する。
画像処理手段123は、判定結果115と視野情報114と空間モデル111と移動予定経路113とに基づいて、各注視点を可視であるか否かを利用者が識別できる時系列画像を生成する時系列画像生成処理を行う。時系列画像生成処理の詳細については後述する。
出力部13は、ディスプレイ等の情報表示デバイス、記憶媒体への情報記憶デバイス、ネットワークを介して情報送信可能な通信デバイスなどである。画像処理手段123で生成された時系列画像は、出力部13により表示されたり、記憶されたり、送信されたりする。
(警備シミュレーション装置1が実行する処理について)
以下、本実施形態の警備シミュレーション装置1が実行する処理の流れについて、図8を参照しながら詳細に説明する。
警備シミュレーション装置1の処理では、まず、管理者が警備シミュレーション装置1の入力部14を用いて各種データを設定する初期設定が行われる(ST1)。初期設定では、空間モデル111の登録、仮想カメラの画角及びフレームレート・解像度の設定、警備移動体の移動速度、可視/非可視を判定するための距離閾値などが行なわれる(ST1)。本実施形態では、仮想カメラの画角として、警備移動体である船舶に搭載された撮像装置の画角が設定される。なお、警備移動体が警備員(人)である場合は、人の標準的な視野角(例えば、水平200°、垂直125°など)が設定されるものとする。また、仮想カメラのフレームレート及び解像度は、管理者が時系列画像として表示したい任意の値(例えば30fps、1920×1080)が設定されるものとする。また、警備移動体の移動速度は、警備移動体である船舶の巡回警備時における平均移動速度が設定されるものとする。また、空間モデル111として図2の3次元形状データ(ポリゴンデータ)が、初期設定にて登録されたとして以下の処理を説明する。
次に、管理者により入力部14から注視点が設定される(ST2)。図9の符号A〜Cは、空間モデル111上に設定された注視点を表している。マウスやタッチパネル等の入力部14を用いて管理者により空間モデル111内の任意の3次元位置を注視点として指定されることにより、制御部12は、指定された注視点の座標値を注視点情報112として記憶する。
次に、管理者により入力部14から移動予定経路113が設定される(ST3)。図9の符号Lは、空間モデル111に設定された移動予定経路113を線で図示している。マウスやタッチパネル等の入力部14から管理者により空間モデル111内の任意の経路Lが指定されることにより、制御部12は、指定された経路Lの座標列を移動予定経路113として記憶する。この際、管理者は、空間モデル111上の経路Lをマウス等によりドラックして移動予定経路113を指定してもよいし、空間モデル111上の経路Lの任意の位置(ポイント)を複数指定(クリック)して各ポイント間を移動予定経路113として設定してもよい。なお、本実施形態では、移動予定経路113として記憶される座標列を、ST1にて初期設定された仮想カメラのフレームレートと警備移動体(船舶)の平均移動速度とを用いて算出する。すなわち、フレームレートからフレーム間隔(期間)を求め、平均移動速度及びフレーム間隔からフレーム間に移動する距離を求め、当該距離の間隔となるように指定された経路上から座標値を求める。
次に、制御部12の視野情報生成手段121は、視野情報生成処理を行う(ST4)。図9の例では、注視点A〜Cの3か所が設定されているため、視野情報生成処理にて生成される視野情報114は、図5に表すように移動予定経路113の位置IDに対応付けて注視点A〜Cのそれぞれに対する方向(視野条件)が記憶される。視野情報生成処理の詳細については、前述したためここでは説明を省略する。
次に、制御部12の判定手段122は、可視判定処理を行う(ST5)。図9の例では、注視点A〜Cの3か所が設定されているため、可視判定処理にて生成される判定結果115は、図6に表すように移動予定経路113の位置IDに対応付けて注視点A〜Cのそれぞれが可視であるかどうかについて記憶される。可視判定処理の詳細については、前述したためここでは説明を省略する。
次に、制御部12は、判定結果115に基づいて移動予定経路113(=L)の表示を変更する経路表示変更処理を行う(ST6)。経路表示変更処理では、まず記憶部11から判定結果115を読み出し、空間モデル111上に表現された移動予定経路113(=L)について可視とされる位置(区間)を利用者が識別できるように着色したり、線の種類を変更したりする。図10に、本実施形態における経路表示変更処理の後の経路L’を表す。同図において、点線で示した区間は、いずれの注視点についても非可視であると判定された区間である。この例では、いずれの注視点からも閾値距離以上となる位置であることから非可視とされている。また、経路L’において「C」と示された区間は注視点Cについては可視と判定された区間であり、「BC」と示された区間は注視点BとCについては可視と判定された区間であり、「AB」と示された区間は注視点AとBについては可視と判定された区間である。このように経路表示変更処理によって表示変更された移動予定経路L’を参照することにより、管理者は、移動予定経路上の所定の位置において、どの注視点を見ることができるのかを容易に判定することが可能となる。
次に、管理者により入力部14から可視と判定された複数の注視点のうちの一つの注視点について選択される(ST7)。例えば、図10の移動予定経路L’において「BC」と示された区間について、管理者はBかCの何れかをマウスやキーボード等の入力部14を用いて選択する。同じように、移動予定経路L’において「AB」と示された区間について、管理者はAかBの何れかを選択する。移動予定経路L’においていずれの注視点も不可視とされた「点線」の区間については、管理者は注視点A〜Cの何れかを任意に選択する。管理者により選択された結果は、ST8の時系列画像生成処理にて利用される仮想カメラ視野条件情報として記憶部11に記憶される。図11に仮想カメラ視野条件情報の例を表す。同図に表すように、仮想カメラ視野条件情報は、移動予定経路113上の位置を示す位置IDと、当該位置における視野条件(方向)とを対応付けた情報である。ここで設定される視野条件は、視野情報114において管理者により選択された注視点に係る視野条件である。このように、仮想カメラ視野条件情報は、視野情報114と判定結果115とST7における管理者による選択とに基づいて生成される。
次に、制御部12の画像処理手段123は、時系列画像生成処理を行う(ST8)。以下、時系列画像生成処理の詳細について説明する。時系列画像生成処理では、まず、記憶部11から仮想カメラ視野条件情報を読み出す。そして、仮想カメラ視野条件情報における移動予定経路113の所定の位置IDの視野条件を選択する。当該位置IDの座標値を移動予定経路113を参照して求め、当該座標値を仮想カメラの撮像条件として設定するとともに、仮想カメラ視野条件情報から選択した視野条件(方向)とST1の初期設定にて設定した視野条件(画角)とを仮想カメラの撮像条件として設定する。そして、仮想カメラの撮像条件に基づいて、当該仮想カメラから空間モデル111を撮像したときの静止画像に相当する仮想カメラ画像を出力する。この際、仮想カメラ画像を、既知のコンピュータグラフィックス技術によるレンダリング処理にて求める。なお、その手法については、例えば、「コンピュータグラフィックス」(コンピュータグラフィックス編集委員会 編集・出版、平成18年刊)に詳細に記述されている
続いて、時系列画像生成処理では、出力された仮想カメラ画像に対して、注視点の3次元位置に相当する画像位置に注視点を示すラベルとフキダシをオーバーレイする。図12は、移動予定経路113上の所定の位置(図10におけるBCが可視とされる区間内の位置)から、(管理者に選択された)注視点Bの方向を仮想カメラで撮像した際の仮想カメラ画像2である。同図において、符号2a〜2cで示した画像領域は、それぞれ空間モデル111における海、陸地、建物に相当する画像領域であり、符号24及び符号25はそれぞれオーバーレイされたラベル及びフキダシに相当する画像領域である。同図に示したように、本実施形態における時系列画像生成処理では、判定結果115を参照し、可視/非可視に応じて注視点を示すフキダシの色を異ならせてオーバーレイ表示させている。同図では、注視点A及び注視点Cについては可視であることからフキダシの色を「白色」として表現している。一方、注視点Aについては(注視点Bが示す建物の陰に隠れているために)非可視と判定されていることからフキダシの色を「黒色」として表現している。なお、注視点Cは可視と判定されてはいるが、仮想カメラの撮像範囲外に位置しているため、フキダシの引き出し線及び枠線を点線にて表現している。
時系列画像生成処理では、このような仮想カメラ画像(オーバーレイ済み)を、全ての移動予定経路113上の位置に対して生成し、これらの複数の仮想カメラ画像をフレームレートに従って合成することにより、時系列画像(動画像)を生成する。
次に、制御部12は、ST8の時系列画像生成処理にて生成した時系列画像をディスプレイ等の出力部13により表示出力する出力処理を行う(ST9)。
以上のように、本実施形態の警備シミュレーション装置1は、表示出力された時系列画像を警備計画立案者が閲覧することにより、警備計画立案者は、警備空間内を移動する警備移動体からの仮想的な視野(時系列画像)を容易に把握できる。特に、時系列画像にオーバーレイ表示された注視点を示すラベル及びフキダシを閲覧することにより、その視野における位置において、各注視点が可視であるか非可視であるかを一目で判別することができるため、その位置でどの注視点を重点監視すべきかを判断することが容易となる。したがって、警備計画立案者は、警備計画の立案、確認および伝達を容易に行うことが可能となる。
ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。
上記実施形態では、視野情報114及び仮想カメラ視野条件情報において、視野条件として「方向」のみを位置IDに対応付けているが、これに限らず、画角や焦点距離等の他の視野条件を対応付けて記憶してもよい。すなわち、上記実施形態では、ST1にて初期設定した画角を固定値として利用していたが、これを可変値として扱うことにより、移動予定経路113上の位置に応じて方向・画角等を変更した視野条件の視野を表す時系列画像を得ることができる。例えば、注視点からの距離が遠くなるほど、ズームするような画角を求めて、視野情報114及び仮想カメラ視野条件情報の視野条件として方向と共に記憶する。これにより、注視点から離れても、注視点を所定の大きさのままの時系列画像を得ることができる。
上記実施形態では、ST7にて、可視と判定された注視点が複数存在する移動予定経路113上の位置が存在するとき、当該複数の注視点の中から一つの注視点を管理者により選択されているが、これに限らず、自動的に選択できるようにしてもよい。例えば、可視と判定された複数の注視点のうち、その移動予定経路113上の位置から最も近い注視点を自動選択してもよい。
上記実施形態では、ST9の出力処理にて、時系列画像を表示出力しているが、これに限らず、移動予定経路113の各位置における時系列画像の生成に用いた注視点に係る視野条件(仮想カメラ視野条件情報)を警備移動体が読み取り可能な形式からなるデータとして可搬記憶媒体やネットワーク等に出力(エクスポート)してもよい。出力されたデータを警備移動体に搭載されたカメラ制御装置(カメラのパン、チルト、ズームを制御操作する装置)に入力(インポート)することにより、警備移動体においてカメラを自動制御により、時系列画像と同じ視野からなるカメラ撮像画像を取得することが可能となる。
上記本実施形態では、注視点情報112を警備空間における所定の一点を示した座標値として記憶しているが、これに限らず、所定の面(面範囲)を表した座標値(座標により面の範囲を指定)であってもよい。この場合、視野情報114の視野条件(方向)は、移動予定経路113上の位置から面の重心位置に向かう方向(角度)として算出すればよい。また、可視判定処理は、移動予定経路113上の位置から面の重心位置に向かう直線を求め、当該直線が障害物に干渉しないときに可視としてもよいし、同様に算出してもよいし、面上に複数のサンプル位置を設け、各サンプル位置に向かう直線を求めて何れかの直線が障害物に干渉しないときに可視としてもよい。
上記本実施形態では、警備対象(注視点)が動かないとみなして注視点情報112を警備空間における固定的な座標値として記憶しているが、これに限らず、注視点情報112を動的に変化させてもよい。例えば、VIP等の警備対象の移動ルートが判明している場合は、当該警備対象(注視点)と当該移動ルートを示す座標列と時刻とを対応付けた情報として注視点情報112を記憶してもよい。この場合、視野情報生成処理、可視判定処理、経路表示変更処理、時系列画像生成処理等の各処理にて利用する注視点の座標値は、移動予定経路113上の所定の位置に警備移動体(仮想カメラ)が存在している時刻を求め、当該求めた時刻に対応する注視点情報112における注視点の座標値を利用して処理すればよい。
1・・・警備シミュレーション装置
11・・・記憶部
12・・・制御部
13・・・出力部
14・・・入力部
111・・・空間モデル
112・・・注視点情報
113・・・移動予定経路
114・・・視野情報
115・・・判定結果
121・・・視野情報生成手段
122・・・判定手段
123・・・画像処理手段
2・・・仮想カメラ画像
24・・・注視点のラベル
25・・・注視点のフキダシ

Claims (5)

  1. 警備空間内を所定の移動予定経路に沿って移動する警備移動体から所定の警備対象を注視した視野をシミュレーションする警備シミュレーション装置であって、
    前記警備空間を3次元の仮想空間にて表現した空間モデルと、前記警備対象の位置である注視点を示す注視点情報と、前記移動予定経路と、が記憶された記憶部と、
    前記移動予定経路上の各位置から前記注視点に向かう方向を含む視野条件を該位置に対応付けた視野情報を生成する視野情報生成手段と、
    前記移動予定経路上の各位置にて前記警備移動体が前記注視点を可視か否かを前記空間モデルに基づいて判定する判定手段と、
    前記移動予定経路上の各位置にて前記視野条件で前記空間モデルをレンダリングした画像を生成するとともに、該画像に対して前記判定手段の判定結果を付与して時系列画像を生成する画像処理手段と、
    を有することを特徴とする警備シミュレーション装置。
  2. 前記判定手段は、前記移動予定経路上の各位置において複数存在する注視点のそれぞれが可視か否かを判定し、
    前記画像処理手段は、可視と判定された前記注視点と前記視野情報と前記空間モデルとに基づいて前記時系列画像を生成する請求項1に記載した警備シミュレーション装置。
  3. 前記画像処理手段は、前記視野情報算出部にて可視と判定された注視点が複数存在する前記移動予定経路上の位置が存在するとき、該注視点のうち該位置から最も近い注視点を選択し、該選択した注視点を用いて前記時系列画像を生成する請求項2に記載した警備シミュレーション装置。
  4. 利用者からの選択を受け付ける入力部を更に有し、
    前記画像処理手段は、前記視野情報算出部にて可視と判定された注視点が複数存在する前記移動予定経路上の位置が存在するとき、該注視点のうち前記入力部にて選択された注視点を用いて前記時系列画像を出力する請求項2に記載した警備シミュレーション装置。
  5. 前記移動予定経路上の位置と前記時系列画像の生成に用いた前記注視点に係る視野条件とを対応付けた情報を前記警備移動体が読み取り可能な形式により出力する出力部を更に有する請求項1〜請求項4の何れか一項に記載の警備シミュレーション装置。
JP2015209966A 2015-10-26 2015-10-26 警備シミュレーション装置 Active JP6358996B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015209966A JP6358996B2 (ja) 2015-10-26 2015-10-26 警備シミュレーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015209966A JP6358996B2 (ja) 2015-10-26 2015-10-26 警備シミュレーション装置

Publications (3)

Publication Number Publication Date
JP2017084004A true JP2017084004A (ja) 2017-05-18
JP2017084004A5 JP2017084004A5 (ja) 2017-06-29
JP6358996B2 JP6358996B2 (ja) 2018-07-18

Family

ID=58712054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015209966A Active JP6358996B2 (ja) 2015-10-26 2015-10-26 警備シミュレーション装置

Country Status (1)

Country Link
JP (1) JP6358996B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11956532B2 (en) 2019-03-05 2024-04-09 Panasonic Intellectual Property Management Co., Ltd. Displacement detection method, image-capturing instruction method, displacement detection device, and image-capturing instruction device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07282299A (ja) * 1994-04-13 1995-10-27 Toshiba Corp 表示方法及び表示装置
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
JP2003337959A (ja) * 2002-05-21 2003-11-28 Cad Center:Kk 3次元データ処理システム、3次元データ処理方法、並びにコンピュータ上で動作する情報処理プログラム
JP2008259154A (ja) * 2007-04-06 2008-10-23 Kubo Tex Corp 3次元仮想空間を利用した感知装置のリアルタイム状態把握、制御の方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07282299A (ja) * 1994-04-13 1995-10-27 Toshiba Corp 表示方法及び表示装置
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
JP2003337959A (ja) * 2002-05-21 2003-11-28 Cad Center:Kk 3次元データ処理システム、3次元データ処理方法、並びにコンピュータ上で動作する情報処理プログラム
JP2008259154A (ja) * 2007-04-06 2008-10-23 Kubo Tex Corp 3次元仮想空間を利用した感知装置のリアルタイム状態把握、制御の方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11956532B2 (en) 2019-03-05 2024-04-09 Panasonic Intellectual Property Management Co., Ltd. Displacement detection method, image-capturing instruction method, displacement detection device, and image-capturing instruction device

Also Published As

Publication number Publication date
JP6358996B2 (ja) 2018-07-18

Similar Documents

Publication Publication Date Title
US11238666B2 (en) Display of an occluded object in a hybrid-reality system
US20230087230A1 (en) Virtual reality system and method
US10089794B2 (en) System and method for defining an augmented reality view in a specific location
CN112926428B (zh) 使用合成图像训练对象检测算法的方法和系统和存储介质
JP5966510B2 (ja) 情報処理システム
JP5617246B2 (ja) 画像処理装置、物体選択方法及びプログラム
CN107004279A (zh) 自然用户界面相机校准
CA3016539A1 (en) Image processing method, display device, and inspection system
US20130010111A1 (en) Effortless Navigation Across Cameras and Cooperative Control of Cameras
CN108377361B (zh) 一种监控视频的显示控制方法及装置
US20180204387A1 (en) Image generation device, image generation system, and image generation method
CN106980378B (zh) 虚拟显示方法和系统
JP2021136017A (ja) 仮想オブジェクトを作成し、レンダリングするための視覚的オブジェクト認識及び記憶された幾何学形状を使用する拡張現実システム
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
KR20110088995A (ko) 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체
US11341716B1 (en) Augmented-reality system and method
JP6687510B2 (ja) Ar情報表示装置及びプログラム
JP6358996B2 (ja) 警備シミュレーション装置
US9967544B2 (en) Remote monitoring system and monitoring method
JP6358998B2 (ja) 警備シミュレーション装置
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JPWO2020144848A1 (ja) オーサリング装置、オーサリング方法、及びオーサリングプログラム
JP6473872B2 (ja) 映像構築装置、擬似視覚体験システム、および映像構築プログラム
WO2012091537A1 (en) System and method for navigation and visualization

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180619

R150 Certificate of patent or registration of utility model

Ref document number: 6358996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250