JP2010182138A - システム設計支援装置 - Google Patents

システム設計支援装置 Download PDF

Info

Publication number
JP2010182138A
JP2010182138A JP2009025781A JP2009025781A JP2010182138A JP 2010182138 A JP2010182138 A JP 2010182138A JP 2009025781 A JP2009025781 A JP 2009025781A JP 2009025781 A JP2009025781 A JP 2009025781A JP 2010182138 A JP2010182138 A JP 2010182138A
Authority
JP
Japan
Prior art keywords
sensor
detection
arrangement
information
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009025781A
Other languages
English (en)
Inventor
Toshihiko Hata
淑彦 秦
Tsuneji Sakata
恒次 阪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009025781A priority Critical patent/JP2010182138A/ja
Publication of JP2010182138A publication Critical patent/JP2010182138A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】センサ検知に機器が連動するシステムの設計において、センサと機器を効果的又は効率的に連動させるための配置設計や機器の動作設定を支援できるシステム設計支援装置を提供する。
【解決手段】配置空間15に配置されたセンサオブジェクト14と機器オブジェクト13に対し、所望の連動動作を行うようにカバー条件を設定し、オブジェクト制御手段6が、そのカバー条件を満足するように機器オブジェクト13の動作制御を行って、その結果を表示手段3が表示する。
【選択図】図1

Description

この発明は、センサの検知信号に応じてカメラ等の機器を連動させるシステムの設計を支援するシステム設計支援装置に関するものである。
従来では、センサや機器をモデル化したオブジェクトをフロア図面上に配置し、オブジェクトを制御して検知範囲や動作範囲をグラフィカルに表示することにより、システム設計者が、オブジェクトの検知又は動作状態を視認しながら、オブジェクトの配置設計を行うことができるシステムが知られている(例えば、非特許文献1参照)。
非特許文献1は、カメラの配置設計を支援するCAD(Computer Aided Design)システムを開示しており、フロア図面上に配置したセンサオブジェクトに対して、パン、チルト、ズームといったカメラ制御を対話的に行うことにより、これに合わせてフロア図面上にカメラの撮影範囲が表示される。なお、撮影範囲は、撮像素子の大きさと焦点距離で決まる画角を有する四角錐台として算出され、画角を変更することでズームが制御される。
この他、携帯電話のアンテナの配置設計を対象とし、サービス地域の3次元空間モデルとアンテナモデルを用いて電波伝搬状況をシミュレートし、要求条件を満たす最適なアンテナの配置位置を求める設計支援システムもある。
Stanislav Utochkin,"The principles of CCTV design in VideoCAD",CCTV focus Issue 36,2006
従来の設計支援ツールは、機器やセンサを個々に効果的又は効率的に配置する設計を支援することはできるが、センサと機器を連動させるための配置設計や機器の動作設定を支援する機能がなかった。
例えば、空間的な検知範囲を有する動きセンサが人物の動きを検知した際、旋回カメラの撮影範囲が検知範囲を含むようにPTZ(Pan Tilt Zoom)を制御して人物を撮影するシステムの場合、設計者が、設計支援ツールのオブジェクト配置空間に表示された動きセンサの検知範囲と旋回カメラの撮影範囲を見ながら、手動によって旋回カメラの位置と撮影範囲を調整しなければならず、設計作業に時間を要していた。
また、多数のセンサの検知に対して、できるだけ少ない数のカメラで撮影できるように最適に設計するには、設計者個人の経験と知識が必要とされ、設計者ごとの設計品質のばらつきが不可避的に生じるという課題があった。さらに、センサ検知とカメラの対応付けや動作設定を設計者が別途手動で行っていたため、設計作業時間を要する上、対応付けの定義を誤る可能性があった。
この発明は、上記のような課題を解決するためになされたもので、センサ検知に機器が連動するシステムの設計において、センサと機器を効果的又は効率的に連動させるための配置設計や機器の動作設定を支援できるシステム設計支援装置を得ることを目的とする。
この発明に係るシステム設計支援装置は、センサをモデル化したセンサオブジェクト及び機器をモデル化した機器オブジェクトを、センサ及び機器を配置する実空間をモデル化した配置空間に配置する配置手段と、センサの検知可能な空間である検知範囲と、機器が動作を及ぼす空間であり、機器オブジェクトの動作に伴って配置空間において変化する動作範囲と、の対応関係を示すカバー条件を満たすように配置空間内の機器オブジェクトの動きを制御するオブジェクト制御手段と、センサオブジェクト、機器オブジェクト、検知範囲及び動作範囲が配置された配置空間を表示する表示手段とを備えるものである。
この発明によれば、センサの検知可能な空間である検知範囲と、機器が動作を及ぼす空間であり、機器オブジェクトの動作に伴って配置空間において変化する動作範囲と、の対応関係を示すカバー条件を満たすように配置空間内の機器オブジェクトの動きを制御し、この制御中のオブジェクトの動きを表示手段によって表示する。このようにすることで、センサと機器が効率的又は効果的に連動するカバー条件を設定すれば、自動でカバー条件を満足するよう機器の配置や動作設定を行うことができ、設計者のレベルに依らず精度の高い設計が短時間に行えるといった従来にない顕著な効果が得られる。
この発明の実施の形態1によるシステム設計支援装置の構成を示すブロック図である。 実施の形態1によるシステム設計支援装置を用いたシステム設計の処理手順を示すフローチャートである。 配置情報及び動作情報の一例を示す図である。 空間的要素を含むカバー条件の例を示す図である。 時間的要素を含むカバー条件を示す図である。 検知情報に基づくカバー条件を示す図である。 検知範囲を内包する撮影範囲の算出方法を説明するための図である。 複数のセンサと複数のカメラとの動作制御を示す図である。 センサの検知後に指定時間内で検知範囲を撮影するカバー条件を示す図である。 この発明の実施の形態2によるシステム設計支援装置を用いたシステム設計の処理手順を示すフローチャートである。 実施の形態2による機器オブジェクトの配置位置の算出方法を説明するための図である。 この発明の実施の形態3によるシステム設計支援装置の構成を示すブロック図である。 実施の形態3によるシステム設計支援装置を用いたシステム設計の処理手順を示すフローチャートである。 検知オブジェクトを用いた処理の概要を示す図である。
実施の形態1.
図1は、この発明の実施の形態1によるシステム設計支援装置の構成を示すブロック図である。図1において、実施の形態1によるシステム設計支援装置1は、対話手段2、表示手段3、配置手段4、条件設定手段5、オブジェクト制御手段6、設計情報出力手段7及び記憶手段8を備える。これら手段2〜8は、この発明の趣旨に従う処理を実行させるためのシステム設計支援用プログラムをコンピュータに読み込ませ、当該コンピュータのCPUが実行することにより、ソフトウェアとハードウェアが協働した具体的手段として実現することができる。
対話手段2は、ユーザである設計者からの操作入力や操作結果の提示等を対話的に実行する手段であり、例えば上記コンピュータが備えるキーボードやマウス等の入力装置及び表示手段3を構成する表示装置をマンマシンインタフェースとする。表示手段3は、設計内容を表示する表示装置及びその表示画面上の表示処理を実行する表示処理部からなり、設計処理で使用されるフロア図面や地図、センサオブジェクト14や機器オブジェクト13を配置した配置空間15を表示する。
配置手段4は、対話手段2で入力されたユーザ指示に従い、記憶手段8から読み出したオブジェクト情報9に基づいて配置空間15にオブジェクト13,14を配置する手段である。条件設定手段5は、対話手段2で入力されたユーザ指示に従い、機器オブジェクト13の動作範囲13aとセンサオブジェクト14の検知範囲14aとの対応関係(センサの検知信号とその目的に応じて機器が所望の動作を行う対応関係)を示すカバー条件情報10を定義して設定する手段である。
オブジェクト制御手段6は、対話手段2で入力されたユーザ指示に従い、配置空間15に配置されたオブジェクト13,14が、カバー条件情報10で示したカバー条件を満足するように機器オブジェクト13の動作をオブジェクト情報9に基づいて制御する手段である。設計情報出力手段7は、対話手段2で入力されたユーザ指示に従い、記憶手段8から読み出した設計情報11を出力先に対応したファイル形式に変換して出力する手段である。
記憶手段8は、オブジェクト情報9、カバー条件情報10及び設計情報11を記憶する記憶装置であり、例えばシステム設計支援装置1として機能する上記コンピュータが標準的に備えるメインメモリ、ハードディスク装置、外部記憶メディア及びそのドライブ装置、あるいは、上記コンピュータとネットワークを介して通信接続したデータサーバなどに構築することができる。
オブジェクト情報9は、設計対象のシステムで扱われるオブジェクト13,14の機種や機能又は性能に関する仕様等から構成され、オブジェクトの識別、機器オブジェクト13の動作範囲13a、センサオブジェクト14の検知範囲14aを規定する情報である。
また、カバー条件情報10とは、機器オブジェクト13の動作範囲13aとセンサオブジェクト14の検知範囲14aとの対応関係を示す情報である。例えば、センサオブジェクト14が動きセンサ、機器オブジェクト13がカメラで、動きセンサの検知範囲14a全体をカメラで撮影する場合、カメラオブジェクトの動作範囲13aである撮影範囲が検知範囲14aを内包する設定がカバー条件となる。また、上記対応関係を満たす機器オブジェクト13の動作パターンをカバー条件に含めてもよい。予め用意されたカバー条件や、対話手段2を用いてユーザが対話的に設定したカバー条件は、カバー条件情報10として記憶手段8に保持される。
設計情報11は、オブジェクト13,14ごとに対応付けられた配置情報12a及び動作情報12bから構成される情報である。配置情報12aは、オブジェクト13,14を識別するためのオブジェクトID及びオブジェクト13,14の機種等を示す基本的な情報と配置空間15におけるオブジェクト13,14の配置に関する情報とからなる情報である。
オブジェクト13,14の配置に関する情報としては、少なくとも配置空間15での位置座標を有し、その他センサや機器に応じた情報も記述される。例えば、動きセンサやカメラであれば、配置空間15におけるオブジェクト13,14を設置する基準方向(ベクトル情報)が定義される。
動作情報12bは、配置情報12aと同様にオブジェクト13,14を識別するためのオブジェクトID及びオブジェクト13,14の機種等を示す基本的な情報と機器オブジェクト13の動作制御に関する情報とからなる情報である。機器オブジェクト13の動作制御に関する情報としては、センサオブジェクト14の検知範囲14aを示す情報及び当該センサオブジェクト14に対する機器オブジェクト13の動作を規定する情報がある。
例えば、機器がカメラである場合、カメラの動作制御に関する情報としては、対応するセンサの検知範囲14a、センサを識別するためのID情報及びセンサの検知範囲14aとのカバー条件を満足する撮影範囲13aを規定するPTZ値が挙げられる。なお、検知範囲14aを調整可能なセンサであれば、その検知範囲14aに対応する制御パラメータ等が記述される。
機器オブジェクト13は、センサの検知信号に連動して動作するカメラや照明等の機器をモデル化したオブジェクトである。ここで、機器オブジェクト13の動作範囲13aとは、機器が動作を及ぼす空間を示す情報として機器オブジェクト13に規定される情報であり、動作範囲13aは、機器オブジェクト13の動作に伴って配置空間15内で変化する。例えば、機器がカメラであればその撮影動作が及ぶ空間である撮影範囲であり、照明器具であればその投光動作によって一定以上の明るさで投光される範囲であり、音響装置であればその音声出力動作によって音が一定以上の音量をもって到達する範囲等が挙げられる。
センサオブジェクト14は、対象の動きや振動などを検知するセンサをモデル化したオブジェクトである。なお、センサオブジェクト14の検知範囲14aとは、センサの機種や機能、性能から導かれる、配置空間15内で当該センサが検知可能な空間を示す情報としてセンサオブジェクト14に規定される情報である。また、配置空間15は、センサや機器が実際に設置される実空間をモデル化したものであり、建物のフロア図面や敷地の地図などが配置空間15の基準面に配置される。
次に動作について説明する。
図2は、実施の形態1によるシステム設計支援装置を用いたシステム設計の処理手順を示すフローチャートであり、この図に沿ってセンサ検知に応じて機器が連動するシステムの設計の詳細を説明する。なお、以降では、センサ検知に連動して当該検知された現象を撮影するカメラを用いたセンサ連動システムを設計する場合を例に挙げる。
システム設計支援装置1を起動すると、表示手段3が、その表示画面上にフロア図面が配置された配置空間15を表示する(ステップST1)。設計者であるユーザが配置空間15のフロア図面を参照しながら、対話手段2を用いて指示することにより、配置手段4が、事象を検知したい箇所にセンサオブジェクト14及びその検知に連動させたい機器オブジェクト(以下、カメラオブジェクトと呼ぶ)13を配置する(ステップST2)。ここでは、配置手段4が、予め記述されたオブジェクト情報9を記憶手段8から読み出してユーザに対話手段2を介して提示する。ユーザは、対話手段2を介して検知したい事象、連動する内容、配置する箇所の環境に応じてセンサや機器の機種を選択する。
また、オブジェクト制御手段6は、ユーザによって選択された機種に対応するオブジェクト情報9からセンサオブジェクト14の機能又は性能の仕様を示す情報を読み出し、これら機能又は性能の仕様に基づいて、センサオブジェクト14の検知範囲14aを設定する。同様に、オブジェクト制御手段6は、ユーザによって選択された機種に対応するオブジェクト情報9からカメラオブジェクト13の機能又は性能の仕様を示す情報を読み出し、これら機能又は性能の仕様に基づいて、カメラオブジェクト13の動作範囲(以下、撮影範囲と呼ぶ)13aを初期設定する。
上述のようにして配置されたセンサオブジェクト14及びその検知範囲14a、カメラオブジェクト13及び撮影範囲13aは、表示手段3により配置空間15に表示される。
また、配置空間15内のオブジェクト13,14の配置位置に関する情報は、配置手段4によって配置情報12aとして記憶手段8に保持され、カメラオブジェクト13の撮影範囲13aに関する情報は、オブジェクト制御手段6によって動作情報12bとして記憶手段8に保持される。
次に、条件設定手段5は、記憶手段8から読み出したカバー条件情報10を対話手段2を介してユーザに提示する。ユーザは、上記ステップまでで配置空間15に配置した機器オブジェクト13に設定したいカバー条件として、提示されたカバー条件情報10から、対話手段2を介して選択するか、あるいは、新規な条件を設定する(ステップST3)。ここで、新規に設定されたカバー条件は、条件設定手段5によって記憶手段8のカバー条件情報10に記述される。
上述のようなカバー条件が設定され、ユーザが、対話手段2を介してセンサと連動させたいカメラオブジェクト13を選択すると、オブジェクト制御手段6は、当該カバー条件を満足するようにカメラオブジェクト13の動作を制御する(ステップST4)。このとき、カメラオブジェクト13が制御される様子は、表示手段3によって配置空間15が表示画面上に表示され、ユーザが、オブジェクトが意図した動作をしているか否かをチェックする。
ステップST5において、対話手段2を介してカバー条件の変更や追加の指示があるか否かがチェックされる。ここで、カバー条件の変更又は追加がある場合には、変更又は追加のあったカバー条件について、ステップST3及びステップST4の処理を繰り返す。
ステップST6において、対話手段2を介してカメラオブジェクト(機器オブジェクト)13又はセンサオブジェクト14の変更や追加の指示があるか否かがチェックされる。ここで、カメラオブジェクト13又はセンサオブジェクト14の変更又は追加がある場合には、変更又は追加のあったオブジェクトについて、ステップST2からステップST5までの処理を繰り返す。
オブジェクトの変更、追加がなければ、ステップST7において、設計情報出力手段7が、記憶手段8から設計情報11を読み出し、対話手段2を介してネットワーク伝送やファイル形式で出力する。
この設計情報11は、例えば、動作設定ツールやセンサ連動システムのソフトウェアが読み込んで処理することにより、機器の動作やシステム連動の設定を自動で行うことができる。この他、表計算ツールが、設計情報11の配置情報12aをファイル形式で読み込んで機器リストを作成することにより、機器購入手配に利用することができる。また、図面CADツールが、設計情報11から機器配置図を作成し、設置工事に利用してもよい。
図3は、配置情報及び動作情報の一例を示す図である。
図2のステップST2で配置されたオブジェクトは、図3に示すような配置情報と動作情報とを各々有する。図3(a)に示す配置情報は、そのオブジェクトを識別するためのオブジェクトIDや機種等の基本的な情報であるオブジェクト基本情報と、オブジェクト13,14の配置に関する情報とからなる。また、図3(b)に示す動作情報は、同様にオブジェクト基本情報とオブジェクト13の動作制御に関する情報とからなる。配置情報は、少なくとも配置空間での位置座標を有し、その他センサや機器に応じた情報も記述される。例えば、動きセンサやカメラであれば、設置する基準方向が定義される。
一方、カメラの動作情報は、対応するセンサオブジェクト14のセンサIDとカバー条件を満足する撮影範囲(PTZ値)に関する情報を有し、さらに当該センサオブジェクト14のセンサID等に対応する検知範囲14aを示す情報が記述される。
ここで、カバー条件情報10で示されるカバー条件を例を挙げて説明する。
図4は、空間的要素を含むカバー条件の一例を示す図であり、検知範囲と動作範囲との空間的な関係を示す基本的なカバー条件である。なお、空間的要素を含むカバー条件以外の他の全てのカバー条件においても、空間的要素は必ず含まれる。図4(a)は、センサがパッシブ動きセンサなどであり、このセンサの3次元の検知範囲全体をカメラが撮影するように、カメラオブジェクト13の撮影範囲13aが検知範囲14aを内包するという基本的なカバー条件によるカメラオブジェクト13とその撮影範囲13a及びセンサオブジェクト14とその検知範囲14aの関係を模式的に示している。
カメラオブジェクト13の撮影範囲13aは、撮影方向と画角とで決定される四角錘台であり、撮影方向は、旋回カメラであればPT(Pan and Tilt)制御により得られ、画角は、レンズの焦点距離に対応するZ(Zoom)制御により得られる。なお、図4(b)は、図4(a)中のカメラオブジェクト13とその撮影範囲13a及びセンサオブジェクト14とその検知範囲14aの関係を真上方向から2次元的に表示した図である。
図4(c)は、検知範囲14aの一部を撮影範囲13aが内包するカバー条件であり、対話手段2を介して指定された高さHlから高さHhまでの検知範囲14aを撮影範囲13aが内包する様子を真横方向から2次元で示している。例えば、人物検知で上半身を詳細に撮影したい場合などに適している。
図4(d)は、検知範囲14aとその周辺を撮影範囲13aが内包するカバー条件であり、真上方向から2次元的に示している。センサオブジェクト14位置から下ろした垂線が通る点を中心とする半径r1の円錐底面で表現される検知範囲14aと当該中心から半径r2(r1<r2)の周辺範囲が、撮影範囲13aに内包されている。これは、センサオブジェクト14が検知信号を出力すると、これに応じてカメラオブジェクト13のPTZ制御を行い、検知範囲14aを撮影するまでの間に、人物が検知範囲14a外に移動するような場合に適している。
図5は、時間的要素を含むカバー条件を示す図であり、動作範囲の時間変化を指定するカバー条件を示している。図5(a)は、センサオブジェクト14による検知信号の出力に応じて、これに対応付けられたカメラオブジェクト13が検知範囲14aを内包するようにPTZ制御し、一定時間検知がなければ、初期の基準方向にカメラオブジェクト13を戻すカバー条件を示している。
図5(b)は、センサ14による検知直後に、撮影範囲13aが検知範囲14aを内包するようにカメラ13をPTZ制御し、その後画角を広げて検知範囲14aの周囲も撮影するようにしたカバー条件を示している。このカバー条件では、例えば、検知信号の出力後、検知された人物が移動して検知範囲14aを出て行くような場合に適している。
図5(c)は、センサ14による検知直後に、検知範囲14aの周囲も含めて撮影するようにカメラ13をPTZ制御し、その後検知範囲14aにズームする。なお、一定時間内に検知信号が出力されるというような、検知パターンを含むカバー条件によって、検知範囲14aにズームしてもよい。例えば、人物の動きを検出した際、先ず周囲を含む全景を撮影し、人物がそこに止まるようであれば、人物の詳細が見えるようにズームインさせる場合に適している。
図6は、検知情報に基づくカバー条件を示す図であり、センサの検知状態やセンサの優先度等の検知情報に基づくカバー条件を示している。図6(a)は、検知したセンサの検知範囲を撮影している際に別のセンサが検知したときの撮影条件を示している。最初に検知信号を出力したセンサオブジェクトS2の検知範囲14a2を撮影するようにカメラ13をPTZ制御し、この後、センサオブジェクトS1が検知信号を出力しても、センサオブジェクトS2の検知範囲14a2の撮影を継続し、外部からの切り替え指示に応じてセンサオブジェクトS1の検知範囲14a1を撮影する。このカバー条件は、例えば監視員がモニタで最初の事象を確認し、次に発生した事象の撮影を指示して撮影範囲を切り替える場合などに適している。
図6(b)は、センサ(若しくは検知アラーム)の優先度に基づくカバー条件であり、センサ優先順位がS1>S2>S3である場合を示している。図6(b)の例では、最初に検知信号を出力したセンサオブジェクトS2の検知範囲14a2を撮影し、その後、センサオブジェクトS2より優先順位の低いセンサオブジェクトS3が検知信号を出力しても撮影範囲13aは変えず、優先順位の高いセンサオブジェクトS1が検知信号を出力すると、センサオブジェクトS1の検知範囲14a1を撮影する。このカバー条件は、検知場所や検知内容が重要なものを優先して撮影する場合に適している。
図6(c)は、複数のセンサが検知した際の1台のカメラによる撮影の仕方を示すカバー条件である。図6(c)の例では、最初に検知信号を出力したセンサオブジェクトS2の検知範囲14a2を撮影し、続いてセンサオブジェクトS3が検知信号を出力すると、センサオブジェクトS2及びセンサオブジェクトS3の両方の検知範囲14a2,14a3が内包されるように、カメラオブジェクト13の撮影範囲13aを制御する。このカバー条件では、検知した複数の事象を同時に観察する場合に適している。
図6(d)は、複数のセンサが検知した際の1台のカメラによる撮影の仕方を示すカバー条件である。図6(d)の例では、最初に検知信号を出力したセンサオブジェクトS1及びセンサオブジェクトS2の両方の検知範囲14a1,14a2を撮影した後(時間的要素)、センサオブジェクトS1の検知範囲14a1を撮影し、続いてセンサオブジェクトS2の検知範囲14a2を撮影する。このカバー条件は、前述のように時間的要素を含むカバー条件でもあり、例えば、先ず複数の事象を同時に観察し、この後で個々の事象を詳細に観察する場合に適している。
続いて、検知範囲14aを内包する撮影範囲13aの決定方法について説明する。
図7は、検知範囲を内包する撮影範囲の算出方法を説明するための図である。ここでは、説明の簡単のため、検知範囲14aを含む外接球を内包する撮影範囲13aを求める場合を示す。先ず、カメラオブジェクト13の撮影方向を上記外接球の中心に向くようにPTの値を算出する。次に、カメラオブジェクト13からその外接球への接線を求め、2つの接線のなす角度θが求める画角である。
カメラオブジェクト13から外接球までの距離をLとし、外接球の半径をrとした場合、θ=2*arcsin(r/L)となる。条件設定手段5は、この画角θに対応したZ値をレンズに応じて算出することにより、動作情報12bのPTZ値が得られる。なお、検知範囲14aを内包する撮影範囲13aは、例えば外接多面体でも算出することができる。この詳細については、発明の本質から逸脱するため、説明は省略する。
図8は、複数のセンサと複数のカメラとの動作制御を示す図であり、複数のセンサと複数のカメラに対するカバー条件を満たすように、カメラオブジェクトの探索と動作制御を行う場合を示している。図8に示すカバー条件では、センサオブジェクトS1〜S4が検知信号を出力すると、カメラオブジェクトC1,C2のうち、センサ近傍に位置するカメラオブジェクトが各々の検知範囲を撮影する。
オブジェクト制御手段6は、先ず、図8(a)に示すように、センサ近傍に位置するカメラオブジェクトを探索し、センサオブジェクトS1,S2に対してカメラオブジェクトC1、センサオブジェクトS3,S4に対してカメラオブジェクトC2を対応付ける。続いて、オブジェクト制御手段6は、図8(b)に示すように、センサオブジェクトS1及びセンサオブジェクトS3が検知信号を出力した場合、センサオブジェクトS1の近傍に位置するカメラオブジェクトC1が検知範囲14a1を撮影し、センサオブジェクトS3の近傍に位置するカメラオブジェクトC2が検知範囲14a3を撮影する。
なお、上述のカバー条件を拡張して、センサオブジェクトS3,S4が検知信号を出力していなければ、センサオブジェクトS1,S2の検知範囲14a1,14a2を撮影するようにしてもよい。例えば、センサオブジェクトS1,S2が検知信号を出力した際、カメラオブジェクトC1がセンサオブジェクトS1の検知範囲14a1を撮影し、センサオブジェクトS2の検知範囲14a2をカメラオブジェクトC2が撮影する。あるいは、センサオブジェクトS1が検知信号を出力した場合、カメラオブジェクトC1,C2が、センサオブジェクトS1の検知範囲14a1を撮影する。
このようにすることで、複数のカメラを有効に活用し、より少ない台数のカメラで目的とする連動を実現することができる。また、あるセンサに対するカメラを探索する場合、半径L内に存在するカメラオブジェクトや、センサオブジェクトに連動するカメラオブジェクトの数が指定数未満といった条件を与えることもできる。
実際の機器の動作は、その機能又は性能仕様により色々な制約が存在する。例えば、旋回カメラであれば、PTZ各々の可動範囲と動作速度がある。Pは、左右の旋回角度と回転速度、Tは上下の旋回角度と回転速度、Zは焦点範囲と焦点を合わせるまでの時間となる。空間的なカバー条件を満足するためには、検知範囲が旋回カメラの可動範囲に入るよう基準方向を調整する。
また、センサが検知信号を出力した後、所定の時間内に空間的なカバー条件が満足されるようカメラを制御しなければならない場合もある。例えば、移動する人物を確実にカメラで捉えるために、センサ検知後PTZを高速に制御し、1秒後には所定の撮影範囲を撮影する。これには、図9に示すように、旋回カメラの回転速度も考慮して、適切なカメラの基準方向を決める。図9(a)(b)において、センサS1とS2の検知範囲を撮影するまでに要する時間は、センサ側にカメラの基準方向を向けると各々時間t1及びt2、センサと反対側に基準方向を向けると各々時間t3及びt4となる。カバー条件の設定時間Tに対してt1,t2<T<t3,t4であるので、カメラの基準方向は、図9(a)のセンサ側に設定する。
もし選択したカメラ機種でカメラの配置や基準方向を変えてもカバー条件を満足しない場合は、可動範囲の大きいあるいは動作速度の速い機種に変更する。このような連動機器の仕様をオブジェクト情報として記録しておくことにより、オブジェクト制御手段6は、機器の仕様に基づき、上記のような動作シミュレーション及び動作情報の設定ができる。センサも機種により検知範囲や検知応答速度等の機能又は性能仕様があり、これをオブジェクト情報に記録してオブジェクト制御手段6が利用するように構成すれば、さらに現実に近いシミュレーションと設計が可能となる。
以上のように、この実施の形態1によれば、配置空間15に配置されたセンサオブジェクト14と機器オブジェクト13に対し、所望の連動動作を行うようにカバー条件を設定し、オブジェクト制御手段6が、そのカバー条件を満足するように機器オブジェクト13の動作制御を行って、その結果を表示手段3が表示するので、表示手段3の表示内容から連動させたいカバー条件を満足するか否かを判断でき、満足するのであればその動作情報12bを正確に素早く求めることができる。
また、この実施の形態1によれば、オブジェクト13,14の配置情報12a及び動作情報12bのうちの少なくとも一方を含む設計情報11をファイル等の形式で出力するので、動作設定ツールやセンサ連動システムのソフトウェアが読み込んで機器の動作やシステム連動を自動設定すれば、動作情報を別途手動で定義あるいは入力しなおすことなく、短時間で正確に実際の機器の動作設定が行える。
さらに、この実施の形態1によれば、カバー条件が、検知範囲14aと動作範囲13aとの空間的な関係を示す空間的要素に加え、動作範囲13aの時間変化を指定する時間要素も含むので、検知後一定時間内に機器を動作する等の時間的なカバー条件の判定及び計算が、正確に短時間で行える。
さらに、この実施の形態1によれば、カバー条件が、センサ14の検知状態やセンサ14の優先度等の検知情報に基づくカバー条件も含むので、目的に応じた種々の連動動作をシミュレーションして動作情報を得ることができる。
さらに、この実施の形態1によれば、オブジェクト制御手段6が、センサ及び機器のうちの少なくとも一方の仕様に基づいて、カバー条件を満たすように機器オブジェクト13の動きを制御する。例えば、センサや機器の機能又は性能の仕様をオブジェクト情報9に記録し、オブジェクト制御手段6が上記仕様に基づいて機器オブジェクト13の動作を制御するため、より現実に近いシミュレーションや設計ができる。
さらに、この実施の形態1によれば、オブジェクト制御手段6が、複数のセンサオブジェクト14と1つの機器オブジェクト13に対するカバー条件、1つのセンサオブジェクト14と複数の機器オブジェクト13に対するカバー条件、及び複数のセンサオブジェクト14と複数の機器オブジェクト13に対するカバー条件のうちのいずれかを満たすように機器オブジェクト13の動きを制御する。このようにカバー条件を満足するよう動作制御を行うため、センサや機器の少なくとも一方が複数である場合においても、最適な配置及び動作設定を正確に短時間で行うことができる。
実施の形態2.
この実施の形態2は、上記実施の形態1の構成と同様であるが、カバー条件及び機器条件を満足するように、オブジェクト制御手段が、機器オブジェクトの配置に関する計算を行うこと、空間オブジェクトを考慮して機器オブジェクトの配置計算や動作制御を行う点が上記実施の形態1と異なる。以下、上記実施の形態1と異なる部分について説明する。また、実施の形態2によるシステム設計支援装置の構成は、図1を参照するものとする。
次に動作について説明する。
図10は、この発明の実施の形態2によるシステム設計支援装置を用いたシステム設計の処理手順を示すフローチャートであり、この図に沿ってセンサ検知に応じて機器が連動するシステムの設計の詳細を説明する。なお、以降では、センサ検知に連動して当該検知された現象を撮影するカメラを用いたセンサ連動システムを設計する場合を例に挙げる。
システム設計支援装置1を起動すると、表示手段3が、その表示画面上にフロア図面が配置された配置空間15を表示する(ステップST1a)。設計者であるユーザが、上記実施の形態1と同様にして、配置空間15のフロア図面を参照しながら、対話手段2を用いて指示することにより、配置手段4が、事象を検知したい箇所に空間オブジェクト及びセンサオブジェクト14を配置する(ステップST2a)。ここで、空間オブジェクトとは、建物の壁や柱、家具等の対象となる空間を構成する物体(配置空間15内の空間を占有する物体)をモデル化したものである。
条件設定手段5は、記憶手段8から読み出したカバー条件情報10及び機器条件を示す情報を対話手段2を介してユーザに提示する。ユーザは、上記ステップまでで配置空間15に配置したセンサオブジェクト14に設定したいカバー条件として、提示されたカバー条件情報10から、対話手段2を介して選択するか、あるいは、新規な条件を設定する。
また、ユーザは、当該センサオブジェクト14に対応する機器オブジェクト13に設定したい機器条件として、提示された機器条件を示す情報から、対話手段2を介して選択するか、あるいは、新規な条件を設定する(ステップST3a)。なお、機器条件とは、機器の機種や、機器の配置や動作制御に関する制約を示す情報である。例えば、カメラの場合では、機種Aを使用すること、高さ2m〜3mの範囲で壁又は天井に取り付けること、旋回は基準方向から左右30度及び上下15度以内とすること等を機器条件とする。
続いて、オブジェクト制御手段6は、上述のように設定されたカバー条件及び機器条件を満足するように機器オブジェクト(以下、カメラオブジェクトと呼ぶ)13の配置位置を算出する(ステップST4a)。算出されたカメラオブジェクト13の配置位置を示す情報は、配置情報12aとして記憶手段8に保持される。
表示手段3は、記憶手段8から読み出した配置情報12aに基づいてカメラオブジェクト13の配置位置を表示画面上の配置空間15に表示する(ステップST5a)。なお、カメラオブジェクト13の配置位置は、通常唯一の一点とは限らず、複数の候補点や配置可能エリアとして求められ、これを配置位置として表示する。
この後、ユーザが、対話手段2を用いて、配置空間15に表示されたカメラオブジェクト13の配置位置の中から配置したい位置を決定する。さらに、ユーザが配置空間15のフロア図面を参照しながら、対話手段2を用いて指示することにより、配置手段4が、ユーザに指定された配置位置にカメラオブジェクト13を配置する(ステップST6a)。
オブジェクト制御手段6は、上述のように設定されたカバー条件及び機器条件を満足するように、カメラオブジェクト13を制御する(ステップST7a)。このとき、カメラオブジェクト13が制御される様子は、表示手段3によって配置空間15が表示画面上に表示され、ユーザが、オブジェクトが意図した動作をしているか否かをチェックする。
ステップST8aにおいて、対話手段2を介してカメラオブジェクト(機器オブジェクト)13の変更や追加の指示があるか否かがチェックされる。ここで、カメラオブジェクト13の変更又は追加がある場合には、変更又は追加のあったカメラオブジェクト13について、ステップST6a及びステップST7aの処理を繰り返す。
ステップST9aにおいて、対話手段2を介してカバー条件又は機器条件の変更や追加の指示があるか否かがチェックされる。ここで、カバー条件又は機器条件の変更又は追加がある場合は、変更又は追加のあった条件について、ステップST3aからステップST8aまでの処理を繰り返す。
ステップST10aにおいて、対話手段2を介して、空間オブジェクト又はセンサオブジェクト14の変更や追加の指示があるか否かがチェックされる。ここで、空間オブジェクト又はセンサオブジェクト14の変更又は追加がある場合には、変更又は追加のあった空間オブジェクト又はセンサオブジェクト14について、ステップST2a及びステップST9aの処理を繰り返す。
設計作業が完了すると、オブジェクトの配置情報12a及び動作情報12bは、設計情報11として記憶手段8に格納される。設計情報出力手段7は、対話手段2を介して、記憶手段8から設計情報11を、ネットワーク伝送やファイル形式で出力する(ステップST11a)。
次に、ステップST4aにおける機器オブジェクト13の配置位置の算出処理を具体例を挙げて説明する。
図11は、実施の形態2による機器オブジェクトの配置位置の算出方法を説明するための図である。ここでは、説明の簡単のため、機器オブジェクト13としてカメラを想定し、この機器条件で示されるカメラの機種や、カメラオブジェクトの配置や動作制御に関する制約を満足しつつ、カメラオブジェクトの画角をθとした際、検知範囲14aに外接する外接球が撮影範囲13aに内包されるカバー条件を満足するカメラオブジェクトの配置位置16を算出する場合を例に挙げる。
図11(a)に示すように空間オブジェクトが存在しない場合、検知範囲14aである外接球の半径をrとすれば、上記カバー条件を満足するカメラオブジェクトの配置位置16は、外接球の中心から半径L=r/sin(θ/2)の球面上の点となる。また、図11(b)に示すように、センサオブジェクト14とカメラオブジェクトとの間に空間オブジェクト17が存在する場合は、カバー条件を満足しないカメラ配置位置を算出し、それを除かなければならない。
ここで、さらに説明を容易にするため、外接球を平面に投影した外接円を考える。
図11(b)に示すように、オブジェクト制御手段6は、外接円の中心から空間オブジェクト17を見て一番外側の点P1及び点P2を求め、さらに点P1を通り外接球に接する接線P1Q1、点P2を通り外接球に接する接線P2Q2を算出し、それらの接線がカメラ配置位置である円と交差する点Q3,Q4を求める。空間オブジェクト17に妨害されるカメラ配置位置18は、図11(b)に示す円弧Q3Q6Q4であり、空間オブジェクト17に妨害されないカメラ配置位置16は、図11(b)の太線で示す円弧Q3Q5Q4となる。
なお、説明を容易にするため検知範囲14aの外接球、さらには外接円を用いて説明したが、検知範囲14aに外接する多面体等としても、同様の考え方でカメラ配置位置を算出することは可能である。
また、1台のセンサと1台のカメラに対する計算方法を説明したが、複数のセンサや複数のカメラの場合にも計算方法を拡張することができる。複数のカメラを用いる場合は、カバー条件を満足する最小のカメラ台数など、自動的に最適な配置計算をすることも可能である。これら計算方法は、本発明の本質ではないため説明は省略する。
以上のように、この実施の形態2によれば、配置手段4が、配置空間15内の空間を占有する物体をモデル化した空間オブジェクト17を配置空間15に配置し、オブジェクト制御手段6が、空間オブジェクト17が配置された配置空間15においてカバー条件を満たすように機器オブジェクト13の動きを制御する。また、オブジェクト制御手段6が、カバー条件を満足するように機器オブジェクト13の配置を計算するので、機器オブジェクト13の配置位置を正確に素早く求めることができる。
また、この実施の形態2によれば、オブジェクト制御手段6が、空間オブジェクト17によりカバー条件が満足されない配置位置を計算し除去するため、建物や地物など配置する空間の構造を考慮した配置及び動作設定を正確に短時間で行うことができる。
実施の形態3.
この実施の形態3では、配置空間に検知オブジェクトを配置してセンサの検知と機器の動作の様子を確認する点で上記実施の形態1と異なる。以下、上記実施の形態1と異なる部分について説明する。
図12は、この発明の実施の形態3によるシステム設計支援装置の構成を示すブロック図である。実施の形態3によるシステム設計支援装置1Aは、上記実施の形態1の構成に加え、検知手段19を備える。検知手段19は、配置空間15上でセンサオブジェクト14の検知範囲14aに検知オブジェクトが存在するか否かをチェックし、存在すれば、検知信号をオブジェクト制御手段6に出力する手段である。なお、この他の構成は、図1と同一又はこれに相当する構成であるので、同一符号を付して重複する説明を省略する。
次に動作について説明する。
図13は、実施の形態3によるシステム設計支援装置を用いたシステム設計の処理手順を示すフローチャートであり、この図に沿ってセンサ検知に応じて機器が連動するシステムの設計の詳細を説明する。
システム設計支援装置1を起動すると、表示手段3が、その表示画面上にフロア図面が配置された配置空間15を表示する(ステップST1b)。設計者であるユーザが、対話手段2を用いて指示することにより、所望のモードを選択する(ステップST2b)。ここでは、設定モード、動作確認モード及び終了モードのうちのいずれかが選択される。
設定モードが選択されると、配置手段4、条件設定手段5及びオブジェクト制御手段6が起動して、ステップST3bからステップST7bまでの処理を実行する。なお、ステップST3bからステップST7bまでの処理は、上記実施の形態1で示した図2のステップST2からステップST6までの処理と同様であるため、説明を省略する。これら一連の処理によって、カバー条件の設定と機器の動作制御が実行され、これらの処理が完了すると、ステップST2bの処理へ戻る。
また、ステップST2bにおいて終了モードが選択されると、設計情報出力手段7が、記憶手段8から設計情報11を読み出し、対話手段2を介してネットワーク伝送やファイル形式で出力する(ステップST12b)。これにより、システム設計支援装置1Aは、処理を終了する。
一方、ステップST2bで動作確認モードが選択されると、配置手段4が、記憶手段8からオブジェクト情報9読み出し、当該オブジェクト情報9で特定される所定の検知オブジェクトを配置空間15に配置して移動させる(ステップST8b)。なお、検知オブジェクトとは、例えば、人物や車輌のようなセンサが検知する物体をモデル化したオブジェクトである。
この後、検知手段19は、配置空間15でセンサオブジェクト14の検知範囲14aに上記検知オブジェクトが存在するか否かをチェックする(ステップST9b)。ここで、検知オブジェクトが存在しなければ、ステップST11bの処理に移行する。また、検知オブジェクトが存在する場合、検知手段19は、検知信号をオブジェクト制御手段6に出力する。
オブジェクト制御手段6は、検知手段19から検知信号を受けると、設定モードで定義された動作情報12bに基づいて、当該検知信号で特定される、検知オブジェクトが検知範囲14a内に存在するセンサオブジェクト14に対応する機器オブジェクト13の動作を制御する(ステップST10b)。このとき、カメラオブジェクト(機器オブジェクト)13が制御される様子は、表示手段3によって配置空間15が表示画面上に表示され、ユーザが、カメラオブジェクト13が意図した動作をしているか否かをチェックする。
ここで、検知オブジェクトのさらなる移動又は変更を行う場合は、ステップST8bで検知オブジェクトのさらなる移動又は変更を行い、ステップST9bからステップST10までの処理を実行する。つまり、検知オブジェクトのさらなる移動又は変更について、ステップST8bからステップST10bまでの処理を繰り返す。これらの処理が完了すると、ステップST2bの処理へ戻る。
図14は、検知オブジェクトを用いた処理の概要を示す図であり、図14(a)は検知オブジェクトを検知して機器オブジェクトの動作を確認する場合を示しており、図14(b)は3次元空間で検知オブジェクトを検知して機器オブジェクトの動作を確認する場合を示している。図14(a)において、対話手段2及び配置手段4を用いて、ユーザが、検知オブジェクト20を配置空間15に配置して移動させる。検知オブジェクト20が、センサオブジェクトS1〜S3の各々の検知範囲14a1〜14a3に入ると、検知手段19が、センサオブジェクトS1〜S3に対応する検知信号をオブジェクト制御手段6に出力する。
検知手段19から検知信号を受けると、オブジェクト制御手段6が、当該検知信号に応じてカメラオブジェクト(機器オブジェクト)13の動作を制御して各検知範囲14a1〜14a3を撮影し、検知オブジェクト20の移動に応じてカメラオブジェクト13の撮影範囲13aが次々と切り替わる。この様子は、表示手段3によって配置空間15が表示画面上に表示され、ユーザが、カメラオブジェクト13が意図した動作をしているか否かを確認することができる。
なお、図14(b)に示すように、表示手段3が、検知オブジェクト20が検知範囲14aに存在する様子を3次元的に表示することにより、上述のようなカメラオブジェクト13の動作確認に加え、カメラビュー21から検知オブジェクト20の写り具合も確認することができる。
以上のように、この実施の形態3によれば、センサの検知対象となる物体をモデル化した検知オブジェクト20が検知範囲14a内に存在するか否かを検知する検知手段19を備え、配置手段4が、検知オブジェクト20を配置空間15に配置し、オブジェクト制御手段6が、検知手段19により検知範囲14a内に検知オブジェクト20が存在することが検知されると、当該検知範囲14aのセンサオブジェクト14とのカバー条件を満たすように機器オブジェクト13の動きを制御する。このようにすることで、センサの検知とその連動動作の状態をシミュレーションでき、設計結果をより現実に近い形で確認することができる。
また、上記実施の形態1〜3では、動き検知センサとPTZ機能を有する旋回カメラを中心に説明したが、本発明はこれに限定されるものではない。PT機能を有さない固定カメラでは、その取り付け方向とZの動作制御を設計する際、旋回カメラと同様の効果を有する。さらに、振動、温度、湿度など様々な事象を検知するセンサ、照明、音響機器、空調、ロボットなど、種々な機器と組み合わせたセンサ連動システムの設計に適用することができる。出力する設計情報11は、オブジェクトの配置情報12a及び動作情報12bとしたが、カバー条件情報10も合わせて出力すれば、設計条件を説明する資料として活用できる。
1,1A システム設計支援装置、2 対話手段、3 表示手段、4 配置手段、5 条件設定手段、6 オブジェクト制御手段、7 設計情報出力手段、8 記憶手段、9 オブジェクト情報、10 カバー条件情報、11 設計情報、12a 配置情報、12b 動作情報、13 カメラオブジェクト(機器オブジェクト)、13a 撮影範囲(動作範囲)、14 センサオブジェクト、14a,14a1〜14a4 検知範囲、15 配置空間、16 空間オブジェクトに妨害されないカメラ配置位置、17 空間オブジェクト、18 空間オブジェクトに妨害されるカメラ配置位置、19 検知手段、20 検知オブジェクト。

Claims (9)

  1. センサと前記センサの検知に連動する機器とを備えたセンサ連動システムの設計を支援するシステム設計支援装置において、
    前記センサをモデル化したセンサオブジェクト及び前記機器をモデル化した機器オブジェクトを、前記センサ及び前記機器を配置する実空間をモデル化した配置空間に配置する配置手段と、
    前記センサの検知可能な空間である検知範囲と、前記機器が動作を及ぼす空間であり、前記機器オブジェクトの動作に伴って前記配置空間において変化する動作範囲と、の対応関係を示すカバー条件を満たすように前記配置空間内の前記機器オブジェクトの動きを制御するオブジェクト制御手段と、
    前記センサオブジェクト、前記機器オブジェクト、前記検知範囲及び前記動作範囲が配置された前記配置空間を表示する表示手段とを備えたことを特徴とするシステム設計支援装置。
  2. オブジェクト制御手段は、カバー条件を満たすように配置空間内の機器オブジェクトの配置位置を算出し、
    配置手段は、前記オブジェクト制御手段により算出された配置位置に前記機器オブジェクトを配置することを特徴とする請求項1記載のシステム設計支援装置。
  3. 配置空間のセンサオブジェクトと機器オブジェクトの配置位置を示す配置情報及び前記機器オブジェクトの動きを規定する動作情報のうちの少なくとも一方を設計情報として出力する設計情報出力手段を備えたことを特徴とする請求項1または請求項2記載のシステム設計支援装置。
  4. カバー条件は、検知範囲と動作範囲との空間的な関係を示す空間的要素に加え、前記動作範囲の時間変化を指定する時間的要素を含み、
    オブジェクト制御手段は、前記カバー条件を満たすように前記機器オブジェクトの時間経過に伴う動きを制御することを特徴とする請求項1から請求項3のうちのいずれか1項記載のシステム設計支援装置。
  5. カバー条件は、検知範囲と動作範囲との空間的な関係を示す空間的要素に加え、センサオブジェクトの検知状態又はセンサオブジェクトの優先順位を示す検知情報を含み、
    オブジェクト制御手段は、前記カバー条件を満たすように前記検知情報に基づき、前記機器オブジェクトの動きを制御することを特徴とする請求項1から請求項4のうちのいずれか1項記載のシステム設計支援装置。
  6. オブジェクト制御手段は、センサ及び機器のうちの少なくとも一方の仕様に基づいて、カバー条件を満たすように機器オブジェクトの動きを制御することを特徴とする請求項1から請求項5のうちのいずれか1項記載のシステム設計支援装置。
  7. オブジェクト制御手段は、複数のセンサオブジェクトと1つの機器オブジェクトに対するカバー条件、1つのセンサオブジェクトと複数の機器オブジェクトに対するカバー条件及び複数のセンサオブジェクトと複数の機器オブジェクトに対するカバー条件のうちのいずれかを満たすように前記機器オブジェクトの動きを制御することを特徴とする請求項1から請求項6のうちのいずれか1項記載のシステム設計支援装置。
  8. 配置手段は、配置空間内の空間を占有する物体をモデル化した空間オブジェクトを前記配置空間に配置し、
    オブジェクト制御手段は、前記空間オブジェクトが配置された配置空間においてカバー条件を満たすように機器オブジェクトの動きを制御することを特徴とする請求項1から請求項7のうちのいずれか1項記載のシステム設計支援装置。
  9. センサの検知対象となる物体をモデル化した検知オブジェクトが前記センサをモデル化したセンサオブジェクトの検知範囲内に存在するか否かを検知する検知手段を備え、
    配置手段は、前記検知オブジェクトを配置空間に配置し、
    オブジェクト制御手段は、前記検知手段により前記検知範囲内に前記検知オブジェクトが存在することが検知されると、当該検知範囲の前記センサオブジェクトとのカバー条件を満たすように機器オブジェクトの動きを制御することを特徴とする請求項1から請求項8のうちのいずれか1項記載のシステム設計支援装置。
JP2009025781A 2009-02-06 2009-02-06 システム設計支援装置 Pending JP2010182138A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009025781A JP2010182138A (ja) 2009-02-06 2009-02-06 システム設計支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009025781A JP2010182138A (ja) 2009-02-06 2009-02-06 システム設計支援装置

Publications (1)

Publication Number Publication Date
JP2010182138A true JP2010182138A (ja) 2010-08-19

Family

ID=42763694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009025781A Pending JP2010182138A (ja) 2009-02-06 2009-02-06 システム設計支援装置

Country Status (1)

Country Link
JP (1) JP2010182138A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014074948A (ja) * 2012-10-02 2014-04-24 Toshiba Corp 設計支援装置および設計支援方法
JP2018128961A (ja) * 2017-02-10 2018-08-16 セコム株式会社 最適配置探索装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014074948A (ja) * 2012-10-02 2014-04-24 Toshiba Corp 設計支援装置および設計支援方法
JP2018128961A (ja) * 2017-02-10 2018-08-16 セコム株式会社 最適配置探索装置

Similar Documents

Publication Publication Date Title
JP4278979B2 (ja) ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム
KR101467663B1 (ko) 영상 모니터링 시스템에서 영상 제공 방법 및 시스템
KR100869447B1 (ko) 3차원 모델링 없이 이미지 처리에 의해 타겟을 지시하는 장치 및 방법
KR102036545B1 (ko) 오디오, 비주얼 및 모션 분석 기능을 갖는 디지털 카메라
US10084994B2 (en) Live streaming video over 3D
EP3314581B1 (en) Augmented reality device for visualizing luminaire fixtures
JP5016443B2 (ja) カメラ設置シミュレータプログラム
JP5727207B2 (ja) 画像監視装置
US10565786B1 (en) Sensor placement interface
JP2020523668A (ja) 仮想カメラを構成するシステム及び方法
JP2012155678A (ja) 表示システム、表示処理装置、表示方法、および表示プログラム
JP6240328B2 (ja) オプティカルフロー場を構築する方法
JP2010182138A (ja) システム設計支援装置
JP7119384B2 (ja) 情報処理装置、情報処理システム及びプログラム
WO2014102995A1 (ja) モニタリングシステム、方法およびプログラムを記憶した情報記録媒体
WO2020017600A1 (ja) 表示制御装置、表示制御方法及びプログラム
JP2004165790A (ja) カメラ制御システム
CN113542679B (zh) 一种图像播放方法及装置
CN114640800B (zh) 摄像头布置的方法及系统
JP7346245B2 (ja) 施工現場記録用プログラム
CN107102794A (zh) 操作处理方法及装置
JP2022012900A (ja) 情報処理装置、表示方法、及び、プログラム
US11189107B2 (en) 3D device simulator visualizer platform as a service
JP5229141B2 (ja) 表示制御装置および表示制御方法
JPWO2010125638A1 (ja) カメラシンボル表示装置及びコンピュータプログラム