JP2009080513A - センサ配置設計支援システム - Google Patents
センサ配置設計支援システム Download PDFInfo
- Publication number
- JP2009080513A JP2009080513A JP2007247015A JP2007247015A JP2009080513A JP 2009080513 A JP2009080513 A JP 2009080513A JP 2007247015 A JP2007247015 A JP 2007247015A JP 2007247015 A JP2007247015 A JP 2007247015A JP 2009080513 A JP2009080513 A JP 2009080513A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- sensing
- space
- sensing state
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013461 design Methods 0.000 title claims abstract description 49
- 238000004364 calculation method Methods 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 description 43
- 238000001514 detection method Methods 0.000 description 28
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000011960 computer-aided design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
【課題】感知オブジェクトの正確な感知状態を知ることができるとともに、所望の感知状態となるよう正確にセンサ制御することにより、精度の高いセンサ配置設計が可能なセンサ配置設計支援システムを提供する。
【解決手段】オブジェクト感知状態計算手段6がセンサオブジェクトにより感知される感知オブジェクトの感知状態を計算し、表示手段2においてオブジェクトとオブジェクト感知状態を表示する。また、感知条件設定手段3がセンサオブジェクトと感知オブジェクト間の感知条件を設定し、センサ制御手段4が感知条件を満足するようセンサ制御パラメータを計算し、空間感知状態計算手段7がセンサオブジェクトの空間での感知状態を計算し、表示手段2においてオブジェクトと空間感知状態を表示する。
【選択図】図1
【解決手段】オブジェクト感知状態計算手段6がセンサオブジェクトにより感知される感知オブジェクトの感知状態を計算し、表示手段2においてオブジェクトとオブジェクト感知状態を表示する。また、感知条件設定手段3がセンサオブジェクトと感知オブジェクト間の感知条件を設定し、センサ制御手段4が感知条件を満足するようセンサ制御パラメータを計算し、空間感知状態計算手段7がセンサオブジェクトの空間での感知状態を計算し、表示手段2においてオブジェクトと空間感知状態を表示する。
【選択図】図1
Description
本発明はセンサ配置設計支援システムに関し、特に、カメラや侵入検知装置等のセンサを建物や敷地のどこに配置するかを決めるセンサ配置設計において、適切かつ効率的な設計を可能とするセンサ配置設計支援システムに関する。
従来のセンサ配置設計支援システムでは、例えば非特許文献1に示されるように、フロア図面上にセンサをモデル化したセンサオブジェクトやセンサにより感知される物体をモデル化した感知オブジェクトをグラフィックス空間に配置し、センサオブジェクトを制御して感知する範囲や大きさなどの感知状態をグラフィカルに表示することにより、設計者が感知状態を目視確認しながら配置設計を行えるようにしている。
非特許文献1は、カメラの配置設計を支援するCAD(Computer Aided Design)システムについての文献であり、配置したカメラオブジェクト(センサオブジェクト)に対して、位置の移動やパン/チルト/ズームといったカメラ制御を対話的に行い、それに連動してフロア図面上にカメラの撮影範囲(カメラにおける空間感知状態)が表示されることが示されている(図5)。
また、撮影範囲は撮像素子の大きさと焦点距離で決まる画角を有する四角錐として計算しており、画角を変更することによりズームを制御することが示されている(図1)。
また、人物や車両等の被写体オブジェクト(感知オブジェクト)を配置し、カメラオブジェクトの視点から見た画像を表示し、被写体オブジェクトの写り具合(カメラにおけるオブジェクトの感知状態)を観察できることが示されている(図2)。
Stanislav Utochkin, "The principles of CCTV design in VideoCAD", CCTV focus Issue 36, 2006,p.20-28
以上説明したような従来のセンサ配置設計支援システムにあっては、感知オブジェクトはセンサオブジェクトの位置に置かれた視点(ビュー)から見える単なるオブジェクトであるため、感知オブジェクトの感知状態を正確に知ることができない。また、所望の感知状態にするにはセンサオブジェクトを対話的に制御しながら、おおよその感知状態に調整するしかなく、正確にセンサを制御することができないと言う問題を有していた。
本発明は、上記のような問題点を解決するためになされたものであり、感知オブジェクトの正確な感知状態を知ることができるとともに、所望の感知状態となるよう正確にセンサ制御することにより、精度の高いセンサ配置設計が可能なセンサ配置設計支援システムを提供することを目的とする。
本発明に係る請求項1記載のセンサ配置設計支援システムは、センサをモデル化したセンサオブジェクトと、前記センサにより感知される物体をモデル化した感知オブジェクトとをグラフィックス空間に配置するオブジェクト配置手段と、各種オブジェクトの属性データを設定し変更する属性設定手段と、センサ制御パラメータを計算し前記属性設定手段を介してセンサオブジェクト属性データとして設定するセンサ制御手段と、前記センサオブジェクトの空間における感知状態である空間感知状態を計算する空間感知状態計算手段と、前記感知オブジェクトが前記センサオブジェクトにより感知される状態であるオブジェクト感知状態を計算するオブジェクト感知状態計算手段と、前記各種オブジェクトの前記属性データと、前記空間感知状態計算手段および前記オブジェクト感知状態計算手段での計算結果とに基づき、前記各種オブジェクト、前記空間感知状態および前記オブジェクト感知状態を表示する表示手段とを備えている。
本発明に係る請求項2記載のセンサ配置設計支援システムは、センサをモデル化したセンサオブジェクトと、前記センサにより感知される物体をモデル化した感知オブジェクトとをグラフィックス空間に配置するオブジェクト配置手段と、各種オブジェクトの属性データを設定し変更する属性設定手段と、前記センサオブジェクトと前記感知オブジェクトとの間の感知条件を設定する感知条件設定手段と、前記感知条件を満足するようセンサ制御パラメータを計算し、前記属性設定手段を介して前記センサオブジェクト属性データとして設定するセンサ制御手段と、前記センサオブジェクトの空間における感知状態である空間感知状態を計算する空間感知状態計算手段と、前記各種オブジェクトの前記属性データと、前記空間感知状態計算手段での計算結果とに基づき、前記各種オブジェクトおよび前記空間感知状態を表示する表示手段とを備えている。
本発明に係る請求項1記載のセンサ配置設計支援システムによれば、感知オブジェクトがセンサオブジェクトにより感知される状態を計算して表示手段に表示することにより、感知オブジェクトの正確な感知状態を観察することができ、精度の高いセンサ配置設計が可能となる。
本発明に係る請求項2記載のセンサ配置設計支援システムによれば、センサオブジェクトと感知オブジェクト間の感知条件を満足するようセンサオブジェクトを自動的に制御することができ、センサの制御パラメータについての詳細な知識がなくとも所望の感知状態となるよう正確にセンサ制御することができて、精度の高いセンサ配置設計が可能となる。
<実施の形態>
<システムの構成>
図1は本発明に係る実施の形態のセンサ配置設計支援システム100の構成を示すブロック図である。センサ配置設計支援システム100においては、ユーザの対話操作による要求を受け付け対応する手段に指示を与える対話手段1、オブジェクトの属性データ13を設定し変更する属性設定手段8、センサオブジェクトと感知オブジェクト間の感知条件9を設定する感知条件設定手段3、この感知条件を満足するようセンサ制御パラメータを計算し、属性設定手段8を介してセンサオブジェクトの属性データとして設定するセンサ制御手段4、および種々のオブジェクトをグラフィックス空間に配置するオブジェクト配置手段5を有している。
<システムの構成>
図1は本発明に係る実施の形態のセンサ配置設計支援システム100の構成を示すブロック図である。センサ配置設計支援システム100においては、ユーザの対話操作による要求を受け付け対応する手段に指示を与える対話手段1、オブジェクトの属性データ13を設定し変更する属性設定手段8、センサオブジェクトと感知オブジェクト間の感知条件9を設定する感知条件設定手段3、この感知条件を満足するようセンサ制御パラメータを計算し、属性設定手段8を介してセンサオブジェクトの属性データとして設定するセンサ制御手段4、および種々のオブジェクトをグラフィックス空間に配置するオブジェクト配置手段5を有している。
また、感知オブジェクトがセンサオブジェクトにより感知される状態を計算するオブジェクト感知状態計算手段6、センサオブジェクトの空間での感知状態を計算する空間感知状態計算手段7、およびオブジェクトの属性データと上記計算結果に基づいて、オブジェクト、空間感知状態およびオブジェクト感知状態を表示する表示手段2を有している。
なお、オブジェクトとしては、センサをモデル化したセンサオブジェクト10、センサにより感知される物体をモデル化した感知オブジェクト11、空間を構成する空間オブジェクト12がある。ここで、センサオブジェクトはカメラ(イメージセンサ)や赤外線動きセンサなどに相当し、感知オブジェクトは人物や車両などに相当し、空間オブジェクトは壁、家具、植栽、フロア図面などに相当し、それぞれのオブジェクトが、属性データ13を有している。
なお、図1においては、センサオブジェクト10として、オブジェクトS1、S2などの複数のオブジェクトを有し、それぞれが属性データ13として、位置、形状、制御などのデータを有していることを模式的に示している。同様に、感知オブジェクト11として、オブジェクトO1、O2などの複数のオブジェクトを有し、それぞれが属性データ13として、位置、形状などのデータを有していることを模式的に示している。また、空間オブジェクト12として、オブジェクトP1、P2などの複数のオブジェクトを有し、それぞれが属性データ13として、位置、形状などのデータを有していることを模式的に示している。
また、図1においては、感知条件9として、センサオブジェクトS1と感知オブジェクトO1との間の感知条件Q1、センサオブジェクトS2と感知オブジェクトO2との間の感知条件Q2などを有していることを模式的に示している。
これらの機能を有するセンサ配置設計支援システム100は、グラフィックス機能を備えたコンピュータシステム(図15を用いて後に説明)にソフトウェアとして実装されることで、実現することができる。なお、属性データ13等のデータは、当該コンピュータシステムのデータ記憶部に記憶されている。
<システムの機能>
<表示機能>
図2および図3は、センサ配置設計支援システム100の使用時における表示手段2のディスプレイ画面の構成の一例を示す図である。図2においては、平面ビュー20、センサビュー22およびプロパティウィンドウ23を表示する場合を示し、図3においては、3次元ビュー21を表示する場合を示している。
<表示機能>
図2および図3は、センサ配置設計支援システム100の使用時における表示手段2のディスプレイ画面の構成の一例を示す図である。図2においては、平面ビュー20、センサビュー22およびプロパティウィンドウ23を表示する場合を示し、図3においては、3次元ビュー21を表示する場合を示している。
ここで、平面ビュー20、3次元ビュー21およびセンサビュー22は3次元グラフィックス空間に配置されたセンサオブジェクト10や感知オブジェクト11、空間オブジェクト12などを異なる視点から表示するものであり、平面ビュー20は、オブジェクトや空間感知状態24を2次元平面として観察するものであって、床や地面などの空間基準面と平行あるいは垂直なスクリーンに直交投影すれば、それぞれ平面図あるいは立面図が表示される、空間基準面に2次元のフロア図面や地図等の空間オブジェクトを配置すれば、センサ配置図が得られる。
3次元ビュー21は、オブジェクトや空間感知状態24を俯瞰図的に観察するものであり、3次元グラフィックス空間に置かれた視点のスクリーンに透視投影することにより生成される。なお、平面ビュー20と3次元ビュー21とは同時に表示することも、相互に切り替えて表示することも可能である。
センサビュー22は、センサオブジェクトの位置に視点を置き、センサオブジェクトの周囲に存在するオブジェクトを観察するものである。どのビューに対しても表示する範囲や倍率の変更といったビュー制御を対話的に行うことができる。また、後述するように、センサビューはセンサオブジェクトの制御状態に連動してビュー制御を行うこともできる。プロパティウィンドウ23は、選択したオブジェクトの属性データ13、オブジェクト感知状態25、感知条件9などのオブジェクトに関連する情報を文字や数値等の形式で表示するウィンドウである。
<空間感知状態について>
次に、図4〜図7を用いて空間感知状態について説明する。
図4は、センサオブジェクトとして、カメラ31(イメージセンサ)、指向性センサ32およびビームセンサ33を例に採って、それぞれの空間感知状態24を例示している。空間感知状態24はセンサオブジェクトの検知感度の空間分布など、センサの周辺空間の感知状態を表すものである。
次に、図4〜図7を用いて空間感知状態について説明する。
図4は、センサオブジェクトとして、カメラ31(イメージセンサ)、指向性センサ32およびビームセンサ33を例に採って、それぞれの空間感知状態24を例示している。空間感知状態24はセンサオブジェクトの検知感度の空間分布など、センサの周辺空間の感知状態を表すものである。
カメラ31を例に採ると、その空間感知状態24は撮像素子に投影される空間を表す撮影範囲となる。ここで、カメラの撮影モデルを図7に示す。図7に示すように、レンズの焦点距離f、撮像素子の大きさh、カメラから被写体までの距離D、距離Dにおける撮影範囲Hの間にf/h=D/Hという関係が成立し、撮影範囲は2次元的には三角形、3次元的には四角錐となる。また、カメラの画角θ、焦点距離f、撮像素子の大きさhとの間にはf/h=1/2tan−1(θ/2)という関係が成立する。これは歪のないレンズの場合であるが、通常のレンズであれば近似的に成立する。厳密な撮影範囲が要求される場合や魚眼レンズなどの歪が大きい場合には、特性を測定してモデル化することでセンサオブジェクトの属性データとして設定することも可能である。
また、指向性センサ32として、無線電波やレーザスキャナ等を用いる場合は、センサ(無線の場合はアンテナ)の方向や信号強度に応じて空間的指向性のある感知強度の空間分布が存在し、これが空間感知状態24となる。これら空間感知状態24は電波やレーザ光の空間伝播シミュレーションにより計算することができる。シミュレーション方式は公知であり本発明の本質ではないため詳細説明は省略する。
ビームセンサ33も指向性センサの一種であるが、直線性の強いビームを送信装置から受信装置に送り、物体が遮ったことを検知する用途に使用される。このビームの到達範囲が空間感知状態24となる。一般的に、壁や柱といった空間オブジェクトにより空間感知状態は変化する。
図5はカメラ31における空間感知状態24を2次元的に表示した図であり、図6は空間オブジェクト12により生ずるカメラの死角を考慮し、真に見える範囲のみを表した撮影範囲を空間感知状態24として2次元的に表示している。なお、レイトレーシング等の技術を利用して空間オブジェクトを考慮した空間感知状態を計算する方式は公知であり、本発明の本質ではないため詳細な説明は省略する。
<オブジェクト感知状態について>
また、オブジェクト感知状態は1つの感知オブジェクトがセンサオブジェクトから感知される状態で定義され、カメラであれば、被写体オブジェクトが撮像素子に写る大きさ(例えば、被写体全身が縦方向比0.8の大きさで写るなど)や、撮影される向き(例えば、正面から30度左を向いているなど)、また明るさなどの情報がオブジェクト感知状態となる。
また、オブジェクト感知状態は1つの感知オブジェクトがセンサオブジェクトから感知される状態で定義され、カメラであれば、被写体オブジェクトが撮像素子に写る大きさ(例えば、被写体全身が縦方向比0.8の大きさで写るなど)や、撮影される向き(例えば、正面から30度左を向いているなど)、また明るさなどの情報がオブジェクト感知状態となる。
また、無線電波や赤外線を用いたセンサであれば、その感知オブジェクトに対する検知感度(例えば感知オブジェクトの大きさ×単位面積当たりの検知感度など)がオブジェクト感知状態となり、センサオブジェクトの感知特性と感知オブジェクトの位置などの属性データから計算することができる。
<オブジェクト属性データについて>
次に、図8を用いてオブジェクトの属性データについて説明する。
図8は、一例としてセンサオブジェクトの属性データを示しているが、各オブジェクトはその種別に関係なく共通のデータ項目としてオブジェクト情報51と図形情報52とを有している。
次に、図8を用いてオブジェクトの属性データについて説明する。
図8は、一例としてセンサオブジェクトの属性データを示しているが、各オブジェクトはその種別に関係なく共通のデータ項目としてオブジェクト情報51と図形情報52とを有している。
センサオブジェクトのオブジェクト情報51は、オブジェクトを識別するためのID(識別番号)、種別、オブジェクト種別ごとに細分化したモデル(例えば、カメラ/パッシブ動きセンサ/レーザスキャンセンサ/ビームセンサなど)、個々のセンサ機器の機種仕様などが記述される。
図形情報52はグラフィックス空間に配置される際の図形情報であり、位置や方向、オブジェクトに外接する直方体、形状や色などが含まれる。
さらにオブジェクトの種別/モデル/機種に特有なデータ項目の1つとして、センサ制御情報53があり、カメラであれば画角、パン/チルト角度、明るさや焦点深度など、無線電波利用のセンサであればアンテナの方向や無線出力レベルなどがセンサ制御情報53となる。
<システムの動作>
<全体の動作>
次に、図1を参照しつつ、図9に示すフローチャートを用いて、センサ配置設計支援システム100の全体の動作について説明する。
まず、対話処理ST1では、対話手段1においてユーザの対話操作を受け付け、要求を解析し、関連する処理を実行する。
<全体の動作>
次に、図1を参照しつつ、図9に示すフローチャートを用いて、センサ配置設計支援システム100の全体の動作について説明する。
まず、対話処理ST1では、対話手段1においてユーザの対話操作を受け付け、要求を解析し、関連する処理を実行する。
ユーザがディスプレイの画面上で新たなオブジェクトを空間に配置する場合やオブジェクトの位置を変更する場合は、対話処理ST1を経由して、オブジェクト配置手段5によりオブジェクト配置処理ST2が実行される。オブジェクト配置処理後は、属性設定手段8により、属性設定/変更処理ST5を行って、新たなオブジェクトとその属性データの生成や、位置情報の変更を行う。
また、ユーザがプロパティウィンドウなどを介してオブジェクトの属性データを変更する場合、対話処理ST1の後、属性設定手段8により属性設定/変更処理ST5が実行される。
属性設定/変更処理ST5により、オブジェクトの属性データが新たに生成されたり、関連する属性データが変更されたり、オブジェクトの属性データが削除されたりするごとに、表示手段2による表示処理ST8が実行される、あるいは必要に応じて空間感知状態計算手段7による空間感知状態計算処理ST6や、オブジェクト感知状態計算手段6によるオブジェクト感知状態計算処理ST7が実行され、その後、表示手段2による表示処理ST8が実行される。
また、ユーザが表示手段2のディスプレイの画面上でセンサ制御GUI(Graphical User Interface)、例えば、カメラのパン/チルト/ズーム制御を行う画面上のボタンを用いてセンサ制御を行うと、対話処理ST1を介して、センサ制御手段4によりセンサ制御処理ST3が実行され、センサ制御パラメータが計算される。計算結果は属性設定/変更処理ST5により、該当するセンサオブジェクトの属性データが変更されて、表示手段2による表示処理ST8が実行され、あるいは必要に応じて空間感知状態計算処理ST6、オブジェクト感知状態計算処理ST7が実行され、表示処理ST8を経て画面が更新される。
また、ユーザがセンサ制御を対話モードから感知条件モードに変更し、該当するセンサオブジェクトと感知オブジェクトを選択して感知条件を入力すると、対話処理ST1を介して、感知条件設定手段3により感知条件設定処理ST4が実行され、感知条件が新たに生成され、感知条件が変更される。感知条件の生成および変更に応じてセンサ制御処理ST3が実行され、感知条件を満足するセンサ制御パラメータが計算され、属性設定/変更処理ST5により該当するセンサオブジェクトの属性データが変更される。以下、表示手段2による表示処理ST8、あるいは必要に応じて空間感知状態計算処理ST6、オブジェクト感知状態計算処理ST7が実行され、表示処理ST8を経て画面が更新される。
また、感知条件モードにあるセンサオブジェクトや感知オブジェクトの位置や方向など属性データが変更されると、属性設定/変更処理ST5を介してセンサ制御処理が実行され、感知条件を満足するセンサ制御パラメータが再計算される。
なお、オブジェクト感知状態計算処理ST7を実行せずに空間感知状態計算処理ST6のみを実行する場合としては、例えば、新しいセンサオブジェクトを配置したものの、そのセンサオブジェクトの空間感知状態として計算される検知範囲には、感知オブジェクトが存在しない(配置されていない)場合が考えられる。
また、空間感知状態計算処理ST6もオブジェクト感知状態計算処理ST7も実行しない場合としては、例えば、新しい空間オブジェクトを配置したものの、それがどのセンサの検知範囲にも含まれておらず、センサの空間感知状態も感知オブジェクトの感知状態も変化しない場合が考えられる。
また、図9には記載していないが、各ビューに対する制御を実施した場合も、表示処理ST8が実行され画面内容が更新される。
次に、図10を用いて表示処理ST8(図9)における図形表示処理について説明する。
表示処理ST8においては、オブジェクトの属性データ13と空間感知状態やオブジェクト感知状態の感知状態計算結果71に基づいて、図形データ生成処理72により、3次元グラフィックス空間における図形要素を生成/変更するとともに、それら図形要素から構成される3次元空間でのシーンを記述するシーングラフ73の生成/変更処理を実行する。そして、変更されたシーングラフに基づき、図形要素を視点のスクリーン上に投影されるイメージデータ(画素データ)に変換する幾何計算/レンダリング処理74を実行し、当該イメージデータをフレームメモリ75(表示手段2に含まれる)に書き込む。
表示処理ST8においては、オブジェクトの属性データ13と空間感知状態やオブジェクト感知状態の感知状態計算結果71に基づいて、図形データ生成処理72により、3次元グラフィックス空間における図形要素を生成/変更するとともに、それら図形要素から構成される3次元空間でのシーンを記述するシーングラフ73の生成/変更処理を実行する。そして、変更されたシーングラフに基づき、図形要素を視点のスクリーン上に投影されるイメージデータ(画素データ)に変換する幾何計算/レンダリング処理74を実行し、当該イメージデータをフレームメモリ75(表示手段2に含まれる)に書き込む。
そして、ディスプレイ表示処理76により、フレームメモリ75に蓄積されたイメージデータを読み出して表示手段2のディスプレイ77に表示する。
また、各ビューに対してビュー制御を実行した場合は、視点のスクリーンへの投影処理を実行して画面を更新する。この3次元グラフィックス表示処理は公知の技術である。
ここで、センサビューのビュー制御はユーザの対話操作だけでなく、センサオブジェクトのセンサ制御に連動させることも可能である。
すなわち、センサオブジェクトがカメラの場合は、センサオブジェクトのセンサ制御に関する属性データに撮影方向や画角が記述されており、表示処理がこれらデータを参照してセンサビューのビュー制御を行う。これにより、カメラの制御状態に応じた被写体オブジェクトの写り具合を確認することができる。また、空間指向性のある無線センサ等であれば、アンテナの方向や無線電波の広がり等に応じてビュー制御を行うことにより、感知オブジェクトのどの部分までを感知できるのかなどについて、ビジュアルな確認が可能となる。
<センサ制御の例>
次に、図1を参照しつつ、図11〜図14を用いて、感知条件に基づくセンサ制御の一例について説明する。
図11は1台のカメラオブジェクト31で、1つの被写体オブジェクトAを感知する場合を例示しており、被写体オブジェクトAの移動に伴って、カメラオブジェクト31の方向転換と、空間感知状態24の変更を模式的に示している。図11の例では、“撮像素子に写る被写体の大きさが0.8、撮像素子の中心に被写体が写る”を感知条件として設定している。センサ制御手段4は、属性データに設定されたカメラオブジェクトと被写体オブジェクトの位置情報を属性設定手段8経由で取得し、図7の撮影モデルを用いて感知条件を満たす画角と方向(パン/チルト角度)を計算した後、属性設定手段8を介してカメラオブジェクト31の制御情報を変更する。被写体オブジェクトAの位置を変更すれば、属性設定手段8を介してセンサ制御手段4に通知され、感知条件を満足するようにセンサ制御パラメータが再計算される。また、カメラオブジェクト31の位置を変更した場合も同様の処理によりカメラオブジェクト31の制御パラメータが再計算され、ディスプレイの画面が更新される。
次に、図1を参照しつつ、図11〜図14を用いて、感知条件に基づくセンサ制御の一例について説明する。
図11は1台のカメラオブジェクト31で、1つの被写体オブジェクトAを感知する場合を例示しており、被写体オブジェクトAの移動に伴って、カメラオブジェクト31の方向転換と、空間感知状態24の変更を模式的に示している。図11の例では、“撮像素子に写る被写体の大きさが0.8、撮像素子の中心に被写体が写る”を感知条件として設定している。センサ制御手段4は、属性データに設定されたカメラオブジェクトと被写体オブジェクトの位置情報を属性設定手段8経由で取得し、図7の撮影モデルを用いて感知条件を満たす画角と方向(パン/チルト角度)を計算した後、属性設定手段8を介してカメラオブジェクト31の制御情報を変更する。被写体オブジェクトAの位置を変更すれば、属性設定手段8を介してセンサ制御手段4に通知され、感知条件を満足するようにセンサ制御パラメータが再計算される。また、カメラオブジェクト31の位置を変更した場合も同様の処理によりカメラオブジェクト31の制御パラメータが再計算され、ディスプレイの画面が更新される。
なお、被写体オブジェクトAあるいはカメラオブジェクト31を対話的に動かしながら、リアルタイムに制御パラメータを計算し、画面を更新することも可能である。感知条件として被写体オブジェクトAが撮影される向きを指定すると、感知条件を満足するようにカメラオブジェクト31の位置が変更される。
図12は、1台のカメラオブジェクト31で、複数の被写体オブジェクトA、BおよびCを感知する場合を例示しており、複数の被写体オブジェクトに対し、“撮像素子に写る被写体の大きさは0.2以上0.8以下、複数オブジェクトが撮像素子の中央に写る” ことを感知条件として設定している。
センサ制御手段4がこの感知条件に基づきセンサ制御パラメータを計算し、3つのオブジェクトA〜Cが各々0.3、0.4および0.7の大きさで撮影されている。なお、他の感知条件の例としては、“複数オブジェクトの撮影向きができるだけ正面を向く”、“少なくとも指定した被写体オブジェクトが0.5の大きさで撮影され、他のオブジェクトができるだけ撮影範囲に入る”など種々の感知条件が考えられる。被写体オブジェクトの大きさや位置によっては感知条件を満足できない場合があり、その際はその旨を画面にメッセージとして表示するように設定することもできる。
図13は複数のカメラオブジェクト31で、1つの被写体オブジェクトAを感知する場合を例示しており、複数のカメラオブジェクト31と被写体オブジェクトAに対し、“被写体オブジェクトに一番近いカメラが大きさ0.6で撮影する”を感知条件として設定している。
図13の(a)部に示されるように、センサ制御手段4は、カメラオブジェクト31と被写体オブジェクトAとの位置に基づき、一番近くにあるカメラオブジェクト31を選択し、与えられた大きさに写るように制御パラメータを計算する。
次に、図13の(b)部、(c)部に示されるように、被写体オブジェクトAの位置が次々と変更されると、属性設定手段8を介してセンサ制御手段4に通知され、感知条件を満足するようにセンサ制御パラメータが再計算される。
他の感知条件の例としては、“被写体オブジェクトを正面に近い角度から撮影できるカメラを選択し、大きさ0.7で撮影”、“1台のカメラは被写体オブジェクトの顔を大きさ0.4で撮影し、もう1台のカメラは被写体オブジェクトの全身を大きさ0.5で撮影”など種々の感知条件が挙げられる。
図14は、複数のカメラオブジェクト31で複数の被写体オブジェクトA〜Eを感知する場合を例示しており、複数のカメラオブジェクトと複数の被写体オブジェクトに対し、“全ての被写体が何れかのカメラにより大きさ0.3以上で撮影”を感知条件として設定している。
この場合、センサ制御手段4は複数のカメラオブジェクト31と複数の被写体オブジェクトA〜Eの属性データに基づき、カメラオブジェクトと撮影する被写体オブジェクトの組み合せを決定し、感知条件を満足する制御パラメータを計算する。他の感知条件の例としては、“1台のカメラが全ての被写体を撮影し、他のカメラは各被写体を大きさ0.8で撮影”、“1つの被写体を少なくとも2台のカメラが撮影”など種々の感知条件が挙げられる。
<センサ配置設計支援システムの実現例>
以上説明した、実施の形態に係るセンサ配置設計支援システム100の実現にあたっては、例えば図15に示すようなコンピュータシステムを利用すれば良い。
以上説明した、実施の形態に係るセンサ配置設計支援システム100の実現にあたっては、例えば図15に示すようなコンピュータシステムを利用すれば良い。
すなわち、図15に示すコンピュータ本体201、ディスプレイ装置202、磁気記録媒体204が装着される磁気記録再生装置203、キーボード205、マウス206、CD−ROM(Compact DISC-READ ONLY MEMORY)等の光学式記録媒体208が装着される光学式記録再生装置207、および通信モデム209を備えたコンピュータシステムに、ソフトウェアとして実装されることで実現可能である。
なお、当該ソフトウェアは磁気記録媒体204あるいは光学式記録媒体208等の記録媒体によって供給される。また、信号の形態で通信路上を伝搬させ通信モデム209を介して供給することも可能である。
<効果>
以上説明した、本実施の形態に係るセンサ配置設計支援システム100によれば、オブジェクト感知状態計算手段6が、センサオブジェクトにより感知される感知オブジェクトの感知状態を計算し、表示手段2がオブジェクトと空間感知状態に加え、オブジェクト感知状態を、例えばプロパティウィンドウ25に表示するようにしたので、感知オブジェクトの正確な感知状態を確認することができる。
以上説明した、本実施の形態に係るセンサ配置設計支援システム100によれば、オブジェクト感知状態計算手段6が、センサオブジェクトにより感知される感知オブジェクトの感知状態を計算し、表示手段2がオブジェクトと空間感知状態に加え、オブジェクト感知状態を、例えばプロパティウィンドウ25に表示するようにしたので、感知オブジェクトの正確な感知状態を確認することができる。
また、感知条件設定手段3がセンサオブジェクトと感知オブジェクト間の感知条件を設定し、センサ制御手段4が感知条件を満足するようにセンサ制御パラメータを計算し、属性設定手段8を介してセンサオブジェクトの属性データとして設定し、表示手段2がオブジェクトの属性データと計算結果に基づいてオブジェクトと空間感知状態を表示するようにしたので、センサオブジェクトと感知オブジェクトとを配置し、感知条件を入力するという簡単な操作により、センサの制御パラメータなどの詳細情報を知らなくても、感知条件を満足するように本システムが自動的にセンサオブジェクトを制御するので、その空間感知状態を視覚的に確認することができる。
さらに、感知条件設定手段3は、少なくとも1つのセンサオブジェクトと、少なくとも1つの感知オブジェクトとの感知条件を設定することができるので、本システムによれば、センサオブジェクトと感知オブジェクトとの比率が、1対1だけでなく、1対多、多対1、多対多の場合の感知条件を満足するようにセンサオブジェクトを制御し、その感知状態を視覚的に確認することができる。
また、オブジェクト配置手段5は、センサが配置される空間を構成する空間オブジェクトを含むオブジェクトをグラフィックス空間に配置し、属性設定手段8は空間オブジェクトを含むオブジェクトの属性を設定し、表示手段2は属性データと感知状態の計算結果に基づいて空間オブジェクトを含むオブジェクトと感知状態とを表示するようにしたので、センサを配置する建物や敷地といった空間を背景として、センサオブジェクトと感知オブジェクトおよび感知状態を視覚的に確認することができる。
また、センサをカメラとした場合、被写体の写り具合、例えば、撮像面での被写体の大きさなどにより感知条件を設定することができ、また、指定した被写体の写り具合を満足するように、カメラのパン/チルト/ズームを自動制御して撮影範囲を表示することができる。
なお、以上説明した実施の形態では、3次元グラフィックス空間を用いて説明したが、2次元の空間感知状態を観察するだけであれば2次元グラフィックス空間を用いる構成でもよい。
また、オブジェクト感知状態はプロパティウィンドウ25に表示するものとしたが、3次元グラフィックス空間の図形の一部として表示する構成でも構わない。例えば、感知オブジェクトにアンカーを持つビルボード(吹き出し表示)やセンサビューの文字重畳表示などの機能を利用できる。
1 センサオブジェクト、11 感知オブジェクト、12 空間オブジェクト、20 平面ビュー、21 3次元ビュー、22 センサビュー、23 プロパティウィンドウ、24 空間感知状態。
Claims (6)
- センサをモデル化したセンサオブジェクトと、前記センサにより感知される物体をモデル化した感知オブジェクトとをグラフィックス空間に配置するオブジェクト配置手段と、
各種オブジェクトの属性データを設定し変更する属性設定手段と、
センサ制御パラメータを計算し前記属性設定手段を介してセンサオブジェクト属性データとして設定するセンサ制御手段と、
前記センサオブジェクトの空間における感知状態である空間感知状態を計算する空間感知状態計算手段と、
前記感知オブジェクトが前記センサオブジェクトにより感知される状態であるオブジェクト感知状態を計算するオブジェクト感知状態計算手段と、
前記各種オブジェクトの前記属性データと、前記空間感知状態計算手段および前記オブジェクト感知状態計算手段での計算結果とに基づき、前記各種オブジェクト、前記空間感知状態および前記オブジェクト感知状態を表示する表示手段とを備える、センサ配置設計支援システム。 - センサをモデル化したセンサオブジェクトと、前記センサにより感知される物体をモデル化した感知オブジェクトとをグラフィックス空間に配置するオブジェクト配置手段と、
各種オブジェクトの属性データを設定し変更する属性設定手段と、
前記センサオブジェクトと前記感知オブジェクトとの間の感知条件を設定する感知条件設定手段と、
前記感知条件を満足するようセンサ制御パラメータを計算し、前記属性設定手段を介して前記センサオブジェクト属性データとして設定するセンサ制御手段と、
前記センサオブジェクトの空間における感知状態である空間感知状態を計算する空間感知状態計算手段と、
前記各種オブジェクトの前記属性データと、前記空間感知状態計算手段での計算結果とに基づき、前記各種オブジェクトおよび前記空間感知状態を表示する表示手段とを備える、センサ配置設計支援システム。 - 前記感知オブジェクトが前記センサオブジェクトにより感知される状態であるオブジェクト感知状態を計算するオブジェクト感知状態計算手段を、備え、
前記表示手段は、
前記各種オブジェクトの前記属性データと、前記空間感知状態計算手段および前記オブジェクト感知状態計算手段での計算結果とに基づき、前記各種オブジェクト、前記空間感知状態および前記オブジェクト感知状態を表示する、請求項2記載のセンサ配置設計支援システム。 - 前記感知条件設定手段は、前記センサオブジェクトの少なくとも1つと、前記感知オブジェクトの少なくとも1つについて、前記感知条件を設定する、請求項3記載のセンサ配置設計支援システム。
- 前記オブジェクト配置手段は、前記センサが配置される空間を構成する空間オブジェクトを含むオブジェクトを前記グラフィックス空間に配置し、
前記属性設定手段は、前記空間オブジェクトを含む前記オブジェクトの属性を設定し、
前記表示手段は、前記空間オブジェクトを含む前記オブジェクトを併せて表示する、請求項1または請求項2記載のセンサ配置設計支援システム。 - 前記センサはカメラであって、前記センサに感知される前記物体は、前記カメラにより撮影される被写体である、請求項1または請求項2記載のセンサ配置設計支援システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007247015A JP2009080513A (ja) | 2007-09-25 | 2007-09-25 | センサ配置設計支援システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007247015A JP2009080513A (ja) | 2007-09-25 | 2007-09-25 | センサ配置設計支援システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009080513A true JP2009080513A (ja) | 2009-04-16 |
Family
ID=40655242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007247015A Pending JP2009080513A (ja) | 2007-09-25 | 2007-09-25 | センサ配置設計支援システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009080513A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021521690A (ja) * | 2018-04-09 | 2021-08-26 | シグニファイ ホールディング ビー ヴィSignify Holding B.V. | 画像上へのセンサ及びその検出ゾーンの仮想表現の重畳 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001268425A (ja) * | 2000-03-16 | 2001-09-28 | Fuji Photo Optical Co Ltd | 自動追尾装置 |
JP2002342691A (ja) * | 2001-05-11 | 2002-11-29 | Toshiba Corp | シミュレーションシステム及び画像データ発生装置 |
JP2005027948A (ja) * | 2003-07-08 | 2005-02-03 | Nintendo Co Ltd | 画像生成プログラム及びゲーム装置 |
-
2007
- 2007-09-25 JP JP2007247015A patent/JP2009080513A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001268425A (ja) * | 2000-03-16 | 2001-09-28 | Fuji Photo Optical Co Ltd | 自動追尾装置 |
JP2002342691A (ja) * | 2001-05-11 | 2002-11-29 | Toshiba Corp | シミュレーションシステム及び画像データ発生装置 |
JP2005027948A (ja) * | 2003-07-08 | 2005-02-03 | Nintendo Co Ltd | 画像生成プログラム及びゲーム装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021521690A (ja) * | 2018-04-09 | 2021-08-26 | シグニファイ ホールディング ビー ヴィSignify Holding B.V. | 画像上へのセンサ及びその検出ゾーンの仮想表現の重畳 |
JP7335266B2 (ja) | 2018-04-09 | 2023-08-29 | シグニファイ ホールディング ビー ヴィ | 画像上へのセンサ及びその検出ゾーンの仮想表現の重畳 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101835434B1 (ko) | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 | |
US10127712B2 (en) | Immersive content framing | |
AU2004254628B2 (en) | Method and apparatus for placing sensors using 3D models | |
JP5093053B2 (ja) | 電子カメラ | |
US8390617B1 (en) | Visualizing oblique images | |
US20140218354A1 (en) | View image providing device and method using omnidirectional image and 3-dimensional data | |
TW201709718A (zh) | 在使用者裝置上顯示光場為基影像之方法及裝置,及對應之電腦程式產品 | |
CN108769462B (zh) | 自由视角场景漫游方法及装置 | |
JP2009080514A (ja) | センサ配置設計支援システム | |
US20190089911A1 (en) | Digital camera with audio, visual and motion analysis | |
JP7182976B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20210038975A1 (en) | Calibration to be used in an augmented reality method and system | |
JP5016443B2 (ja) | カメラ設置シミュレータプログラム | |
KR20140121529A (ko) | 광 필드 영상을 생성하는 방법 및 장치 | |
US20180204387A1 (en) | Image generation device, image generation system, and image generation method | |
JP2006098256A (ja) | 3次元サーフェスモデル作成システム、画像処理システム、プログラム及び情報記録媒体 | |
KR20110088995A (ko) | 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체 | |
CN113870213A (zh) | 图像显示方法、装置、存储介质以及电子设备 | |
JP6143612B2 (ja) | パノラマ画像表示装置 | |
US9881419B1 (en) | Technique for providing an initial pose for a 3-D model | |
JP7006810B2 (ja) | 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法 | |
JP2009080513A (ja) | センサ配置設計支援システム | |
JP2020067960A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6405539B2 (ja) | 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法 | |
CN108353120A (zh) | 用于生成表示像素束的数据的装置和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111108 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120228 |