JP2009080514A - センサ配置設計支援システム - Google Patents
センサ配置設計支援システム Download PDFInfo
- Publication number
- JP2009080514A JP2009080514A JP2007247016A JP2007247016A JP2009080514A JP 2009080514 A JP2009080514 A JP 2009080514A JP 2007247016 A JP2007247016 A JP 2007247016A JP 2007247016 A JP2007247016 A JP 2007247016A JP 2009080514 A JP2009080514 A JP 2009080514A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- data
- control
- support system
- sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013461 design Methods 0.000 title claims abstract description 76
- 238000005259 measurement Methods 0.000 claims description 53
- 238000004364 calculation method Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 20
- 238000013500 data storage Methods 0.000 claims description 15
- 238000004088 simulation Methods 0.000 claims description 13
- 230000008571 general function Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 40
- 238000001514 detection method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000002452 interceptive effect Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011960 computer-aided design Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000013215 result calculation Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
【課題】豊富な知識と経験を持たない設計者であっても正しく短時間にセンサ配置設計が行えるセンサ配置設計支援システムを提供する。
【解決手段】センサ制御に関するデータを含むセンサ機器データを蓄積するセンサ機器データを蓄積手段(7)を備え、センサモデル選択手段(3)が特定のセンサ機器に対応した個別モデルの中からセンサオブジェクトのモデルを選択し、センサ制御手段(4)がセンサ機器データと選択された個別モデルに基づきセンサオブジェクトの制御を行い、センサオブジェクトおよび感知状態をグラフィカルに表示する。また、各センサ機器により測定した計測データをセンサ機器データとして蓄積し、表示手段(2)が、センサオブジェクトの属性データに含まれるセンサ制御に関するデータに基づく制御と近い制御状態で得られた計測データをセンサ機器データ蓄積手段7から読み出して表示する。
【選択図】図1
【解決手段】センサ制御に関するデータを含むセンサ機器データを蓄積するセンサ機器データを蓄積手段(7)を備え、センサモデル選択手段(3)が特定のセンサ機器に対応した個別モデルの中からセンサオブジェクトのモデルを選択し、センサ制御手段(4)がセンサ機器データと選択された個別モデルに基づきセンサオブジェクトの制御を行い、センサオブジェクトおよび感知状態をグラフィカルに表示する。また、各センサ機器により測定した計測データをセンサ機器データとして蓄積し、表示手段(2)が、センサオブジェクトの属性データに含まれるセンサ制御に関するデータに基づく制御と近い制御状態で得られた計測データをセンサ機器データ蓄積手段7から読み出して表示する。
【選択図】図1
Description
本発明はセンサ配置設計支援システムに関し、特に、カメラや侵入検知装置等のセンサを建物や敷地のどこに配置するかを決めるセンサ配置設計において、適切かつ効率的な設計を可能とするセンサ配置設計支援システムに関する。
従来のセンサ配置設計支援システムでは、例えば非特許文献1に示されるように、フロア図面上にセンサをモデル化したセンサオブジェクトやセンサにより感知される物体をモデル化した感知オブジェクトをグラフィックス空間に配置し、センサオブジェクトを制御して感知する範囲や大きさなどの感知状態をグラフィカルに表示することにより、設計者が感知状態を目視確認しながら配置設計を行えるようにしている。
非特許文献1は、カメラの配置設計を支援するCAD(Computer Aided Design)システムについての文献であり、配置したカメラオブジェクト(センサオブジェクト)に対して、位置の移動やパン/チルト/ズームといったカメラ制御を対話的に行い、それに連動してフロア図面上にカメラの撮影範囲(カメラにおける空間感知状態)が表示されることが示されている(図5)。
また、撮影範囲は撮像素子の大きさと焦点距離で決まる画角を有する四角錐として計算しており、画角を変更することによりズームを制御することが示されている(図1)。
また、人物や車両等の被写体オブジェクト(感知オブジェクト)を配置し、カメラオブジェクトの視点から見た画像を表示し、被写体オブジェクトの写り具合(カメラにおけるオブジェクトの感知状態)を観察できることが示されている(図2)。
Stanislav Utochkin, "The principles of CCTV design in VideoCAD", CCTV focus Issue 36, 2006,p.20-28
このようなセンサ配置設計支援システムにあっては、センサオブジェクトとして一般的なモデルを使用しているため、一般モデルと比べて機能および性能上の制約を有する実際のセンサ機器を想定して詳細な配置設計を行う場合、設計者自身が仕様書に記述されたそれら制約を理解した上でセンサ制御を行い、感知状態を確認しなければならず、センサ機器の詳細な知識を要求するとともに、設計ミスなど設計品質が低下する恐れがある。また、一般モデルを用いたシミュレーション結果と実際のセンサ機器による計測結果の違いも設計者自身が把握していなければならない。
このように、従来のセンサ配置設計支援システムは設計者に多くの経験と知識を要求し、設計コストの増加や設計品質の低下を招くといった問題を有していた。
本発明は、上記のような問題点を解決するためになされたものであり、豊富な知識と経験を持たない設計者であっても正しく短時間にセンサ配置設計が行えるセンサ配置設計支援システムを提供することを目的とする。
本発明に係る請求項1記載のセンサ配置設計支援システムは、センサをモデル化し、センサ制御に関するデータを含むセンサオブジェクト属性データを有するセンサオブジェクトと、前記センサオブジェクトをグラフィックス空間に配置するオブジェクト配置手段と、前記センサオブジェクト属性データを設定し変更する属性設定手段と、少なくとも前記センサオブジェクトの空間における感知状態を計算する感知状態計算手段と、センサ制御に関するセンサ制御データを含むセンサ機器データを蓄積するセンサ機器データ蓄積手段と、前記センサ機器データに基づいて前記センサオブジェクトの制御データを計算し、前記属性設定手段を介して前記センサオブジェクト属性データとして設定するセンサ制御手段と、前記センサオブジェクト属性データと、前記感知状態計算手段での計算結果とに基づき、前記センサオブジェクトおよび前記感知状態を表示する表示手段とを備えている。
本発明に係る請求項1記載のセンサ配置設計支援システムによれば、センサ機器データに基づいてセンサオブジェクトの制御データを計算し、属性設定手段を介してセンサオブジェクト属性データとして設定し、センサオブジェクト属性データと、感知状態計算手段での計算結果とに基づいて、センサオブジェクトおよび感知状態を表示するので、センサの機能や性能に関する制約に基づいてセンサオブジェクトの制御を行うことができ、感知状態を視覚的に確認することができる。このため各センサの詳細な知識や豊富な設計経験を持たない設計者であっても正しく短時間に配置設計が可能となる。
<実施の形態1>
<システムの構成>
図1は本発明に係る実施の形態1のセンサ配置設計支援システム100の構成を示すブロック図である。センサ配置設計支援システム100においては、ユーザの対話操作による要求を受け付け対応する手段に指示を与える対話手段1、機能や性能が特定された特定のセンサ機器に対応した個別モデルおよび機能および性能が特定されず、一般的な機能や性能を有する一般モデルからセンサオブジェクトのモデルを選択するセンサモデル選択手段3、オブジェクトの属性データ13を設定し変更する属性設定手段8、選択されたセンサモデルおよびセンサ機器データに基づきセンサ制御パラメータを計算し、属性設定手段8を介してセンサオブジェクトの属性データとして設定するセンサ制御手段4、種々のオブジェクトをグラフィックス空間に配置するオブジェクト配置手段5、およびセンサ機器データ蓄積手段7を有している。センサ機器データ蓄積手段7は、各種センサ機器の機能および性能仕様や機器制御に関するデータで構成されたセンサ機器データ9を記録するとともに、当該データの読み出しを行い、属性設定手段8に与える機能を有している。
<システムの構成>
図1は本発明に係る実施の形態1のセンサ配置設計支援システム100の構成を示すブロック図である。センサ配置設計支援システム100においては、ユーザの対話操作による要求を受け付け対応する手段に指示を与える対話手段1、機能や性能が特定された特定のセンサ機器に対応した個別モデルおよび機能および性能が特定されず、一般的な機能や性能を有する一般モデルからセンサオブジェクトのモデルを選択するセンサモデル選択手段3、オブジェクトの属性データ13を設定し変更する属性設定手段8、選択されたセンサモデルおよびセンサ機器データに基づきセンサ制御パラメータを計算し、属性設定手段8を介してセンサオブジェクトの属性データとして設定するセンサ制御手段4、種々のオブジェクトをグラフィックス空間に配置するオブジェクト配置手段5、およびセンサ機器データ蓄積手段7を有している。センサ機器データ蓄積手段7は、各種センサ機器の機能および性能仕様や機器制御に関するデータで構成されたセンサ機器データ9を記録するとともに、当該データの読み出しを行い、属性設定手段8に与える機能を有している。
また、センサオブジェクトの空間での感知状態や感知オブジェクトがセンサオブジェクトにより感知される状態を計算する感知状態計算手段6、およびオブジェクトの属性データと上記計算結果に基づきオブジェクトと感知状態を表示する表示手段2を有している。
なお、オブジェクトとしては、センサをモデル化したセンサオブジェクト10、センサにより感知される物体をモデル化した感知オブジェクト11、空間を構成する空間オブジェクト12がある。ここで、センサオブジェクトはカメラ(イメージセンサ)や赤外線動きセンサなどに相当し、感知オブジェクトは人物や車両などに相当し、空間オブジェクトは壁、家具、植栽、フロア図面などに相当し、それぞれのオブジェクトが、属性データ13を有している。
なお、図1においては、センサ機器データ9として、機器AおよびBなどの複数の機器についてのデータを有し、それぞれが仕様、制御などのデータを有していることを模式的に示している。
また、センサオブジェクト10として、オブジェクトS1、S2などの複数のオブジェクトを有し、それぞれが属性データ13として、位置、形状、制御などのデータを有していることを模式的に示している。なお、オブジェクトS1はセンサ機器データ9の機器Bに対応するセンサオブジェクト(モデルB)であり、その制御データはセンサ機器データ9から与えられる。なお、オブジェクトS2は一般モデルのセンサオブジェクトである。
感知オブジェクト11としては、オブジェクトO1、O2などの複数のオブジェクトを有し、それぞれが属性データ13として、位置、形状などのデータを有していることを模式的に示している。また、空間オブジェクト12として、オブジェクトP1、P2などの複数のオブジェクトを有し、それぞれが属性データ13として、位置、形状などのデータを有していることを模式的に示している。
これらの機能を有するセンサ配置設計支援システム100は、グラフィックス機能を備えたコンピュータシステム(図19を用いて後に説明)にソフトウェアとして実装されることで、実現することができる。なお、属性データ13等のデータは、当該コンピュータシステムのデータ記憶部に記憶されている。
<システムの機能>
<表示機能>
図2および図3は、センサ配置設計支援システム100の使用時における表示手段2のディスプレイ画面の構成の一例を示す図である。図2においては、平面ビュー20、センサビュー22およびプロパティウィンドウ23を表示する場合を示し、図3においては、3次元ビュー21を表示する場合を示している。
<表示機能>
図2および図3は、センサ配置設計支援システム100の使用時における表示手段2のディスプレイ画面の構成の一例を示す図である。図2においては、平面ビュー20、センサビュー22およびプロパティウィンドウ23を表示する場合を示し、図3においては、3次元ビュー21を表示する場合を示している。
ここで、平面ビュー20、3次元ビュー21およびセンサビュー22は3次元グラフィックス空間に配置されたセンサオブジェクト10や感知オブジェクト11、空間オブジェクト12などを異なる視点から表示するものであり、平面ビュー20は、オブジェクトや空間感知状態24を2次元平面として観察するものであって、床や地面などの空間基準面と平行あるいは垂直なスクリーンに直交投影すれば、それぞれ平面図あるいは立面図が表示される、空間基準面に2次元のフロア図面や地図等の空間オブジェクトを配置すれば、センサ配置図が得られる。
3次元ビュー21は、オブジェクトや空間感知状態24を俯瞰図的に観察するものであり、3次元グラフィックス空間に置かれた視点のスクリーンに透視投影することにより生成される。なお、平面ビュー20と3次元ビュー21とは同時に表示することも、相互に切り替えて表示することも可能である。
センサビュー22は、センサオブジェクトの位置に視点を置き、センサオブジェクトの周囲に存在するオブジェクトを観察するものである。どのビューに対しても表示する範囲や倍率の変更といったビュー制御を対話的に行うことができる。また、後述するように、センサビューはセンサオブジェクトの制御状態に連動してビュー制御を行うこともできる。プロパティウィンドウ23は、選択したオブジェクトの属性データ13、オブジェクト感知状態25などのオブジェクトに関連する情報を文字や数値等の形式で表示するウィンドウである。
<空間感知状態について>
次に、図4〜図7を用いて空間感知状態について説明する。
図4は、センサオブジェクトとして、カメラ31(イメージセンサ)、指向性センサ32およびビームセンサ33を例に採って、それぞれの空間感知状態24を例示している。空間感知状態24はセンサオブジェクトの検知感度の空間分布など、センサの周辺空間の感知状態を表すものである。
次に、図4〜図7を用いて空間感知状態について説明する。
図4は、センサオブジェクトとして、カメラ31(イメージセンサ)、指向性センサ32およびビームセンサ33を例に採って、それぞれの空間感知状態24を例示している。空間感知状態24はセンサオブジェクトの検知感度の空間分布など、センサの周辺空間の感知状態を表すものである。
カメラ31を例に採ると、その空間感知状態24は撮像素子に投影される空間を表す撮影範囲となる。ここで、カメラの撮影モデルを図7に示す。図7に示すように、レンズの焦点距離f、撮像素子の大きさh、カメラから被写体までの距離D、距離Dにおける撮影範囲Hの間にf/h=D/Hという関係が成立し、撮影範囲は2次元的には三角形、3次元的には四角錐となる。また、カメラの画角θ、焦点距離f、撮像素子の大きさhとの間にはf/h=1/2tan-1(θ/2)という関係が成立する。これは歪のないレンズの場合であるが、通常のレンズであれば近似的に成立する。厳密な撮影範囲が要求される場合や魚眼レンズなどの歪が大きい場合には、特性を測定してモデル化することでセンサオブジェクトの属性データとして設定することも可能である。
また、指向性センサ32として、無線電波やレーザスキャナ等を用いる場合は、センサ(無線の場合はアンテナ)の方向や信号強度に応じて空間的指向性のある感知強度の空間分布が存在し、これが空間感知状態24となる。これら空間感知状態24は電波やレーザ光の空間伝播シミュレーションにより計算することができる。シミュレーション方式は公知であり本発明の本質ではないため詳細説明は省略する。
ビームセンサ33も指向性センサの一種であるが、直線性の強いビームを送信装置から受信装置に送り、物体が遮ったことを検知する用途に使用される。このビームの到達範囲が空間感知状態24となる。一般的に、壁や柱といった空間オブジェクトにより空間感知状態は変化する。
図5はカメラ31における空間感知状態24を2次元的に表示した図であり、図6は空間オブジェクト12により生ずるカメラの死角を考慮し、真に見える範囲のみを表した撮影範囲を空間感知状態24として2次元的に表示している。なお、レイトレーシング等の技術を利用して空間オブジェクトを考慮した空間感知状態を計算する方式は公知であり、本発明の本質ではないため詳細な説明は省略する。
<オブジェクト感知状態について>
また、オブジェクト感知状態は1つの感知オブジェクトがセンサオブジェクトから感知される状態で定義され、カメラであれば、被写体オブジェクトが撮像素子に写る大きさ(例えば、被写体全身が縦方向比0.8の大きさで写るなど)や、撮影される向き(例えば、正面から30度左を向いているなど)、また明るさなどの情報がオブジェクト感知状態となる。
また、オブジェクト感知状態は1つの感知オブジェクトがセンサオブジェクトから感知される状態で定義され、カメラであれば、被写体オブジェクトが撮像素子に写る大きさ(例えば、被写体全身が縦方向比0.8の大きさで写るなど)や、撮影される向き(例えば、正面から30度左を向いているなど)、また明るさなどの情報がオブジェクト感知状態となる。
また、無線電波や赤外線を用いたセンサであれば、その感知オブジェクトに対する検知感度(例えば感知オブジェクトの大きさ×単位面積当たりの検知感度など)がオブジェクト感知状態となり、センサオブジェクトの感知特性と感知オブジェクトの位置などの属性データから計算することができる。
<センサ機器データについて>
次に、図8を用いてセンサ機器データ9について説明する。
図8は、一例としてカメラの機器データを示しているが、センサ機器データ9には、個々のセンサ機種に対して、機種、制御、入出力、筐体、動作環境など機器の機能および性能仕様に関する情報が記述されている。
次に、図8を用いてセンサ機器データ9について説明する。
図8は、一例としてカメラの機器データを示しているが、センサ機器データ9には、個々のセンサ機種に対して、機種、制御、入出力、筐体、動作環境など機器の機能および性能仕様に関する情報が記述されている。
機種情報としては、当該センサ機器の型名、メーカ名、価格などの情報を含んでいる。センサ制御とは、センサ機器の初期設定や外部制御により検知の範囲や感度等を調整する機能であり、制御情報には、制御機能の種類や設定範囲等を定義した情報を含んでいる。
カメラの場合は、水平および垂直の画角、焦点距離、旋回の角度と速度、絞り、シャッター速度の範囲(例えば最小値と最大値)、撮像素子の縦と横のサイズなどが制御情報となる。
赤外線動き検知センサであれば検知可能範囲(角度と距離)、無線電波利用のセンサであればアンテナの稼動範囲(角度)、出力強度、放射角度、検知信号レベルなどが制御情報となる。また、レーザスキャナであれば、出力強度、スキャン角度、検知信号レベルなどが制御情報となる。
入出力情報としては、出力画像フォーマット、出力音声フォーマットおよび制御インタフェースなどの情報を含んでいる。
また、筐体情報としては、当該センサ機器の筐体の、縦、横および奥行きのサイズや、重量などの情報を含んでいる。
また、動作環境情報としては、動作可能な最高温度、最低温度、最高湿度および最低湿度などの情報を含んでいる。
<オブジェクト属性データについて>
次に、図9を用いてオブジェクトの属性データについて説明する。
図9は、一例としてセンサオブジェクトの属性データを示しているが、各オブジェクトはその種別(センサオブジェクト、感知オブジェクト、空間オブジェクト)に関係なく共通のデータ項目としてオブジェクト情報61と図形情報62とを有している。
次に、図9を用いてオブジェクトの属性データについて説明する。
図9は、一例としてセンサオブジェクトの属性データを示しているが、各オブジェクトはその種別(センサオブジェクト、感知オブジェクト、空間オブジェクト)に関係なく共通のデータ項目としてオブジェクト情報61と図形情報62とを有している。
センサオブジェクトのオブジェクト情報61は、オブジェクトを識別するためのID(識別番号)、種別、オブジェクト種別ごとに細分化したタイプ(例えば、カメラ/パッシブ動きセンサ/レーザスキャンセンサ/ビームセンサなど)、個々のセンサ機器の機種仕様などが記述される。
図形情報62はグラフィックス空間に配置される際の図形情報であり、位置や方向、オブジェクトに外接する直方体、形状や色などが含まれる。
さらにオブジェクトの種別/タイプ/機種に特有なデータ項目の1つとして、センサ制御情報63があり、カメラであれば旋回(パン/チルト角度)、画角、明るさや焦点深度など、無線電波利用のセンサであればアンテナの方向や無線出力レベルなどがセンサ制御情報63となる。
カメラの制御情報を例に採れば、旋回の項目では水平および垂直方向における角度と速度、画角の項目では水平および垂直角度と焦点距離、明るさの項目では絞りとシャッター速度について現在値と制御範囲(例えば最大値と最小値)が記述される。
なお、撮像素子の大きさは焦点距離に基づいて画角を求めるのに必要であるため属性データとして記述されている。
各種制御機能の範囲や撮像素子の大きさはカメラの機種により決まり、センサモデル選択手段3(図1)により各機種に対応した個別モデルが選択されると、センサ機器データ9(図1)から該当する制御情報が属性設定手段8(図1)を介してセンサオブジェクトの属性データとして設定される。
また、個別の機種に依存しない一般モデルの場合は、各種制御機能の範囲に関する物理的制約がなく、各種センサタイプ(例えばカメラや赤外パッシブセンサなど)の論理モデルの範囲を示す値が設定される。個別モデルであるカメラ機器の場合、例えば旋回角度の範囲が+120°〜−90°であるのに対して、一般モデルであるカメラ機器の旋回角度の範囲は+180°と−180°となる。
この一般モデルの使い方は色々あるが、例えば、まず一般モデルをグラフィックス空間に配置し、所望の空間を所望の感知条件で検知するための機能および性能をチェックした後、その機能および性能を満たすセンサ機器の個別モデルをセンサ機器データに登録された一覧リストから選択し、再度詳細に確認するという利用方法が挙げられる。
<プロパティ画面について>
次に、図10を用いてカメラオブジェクトのプロパティ画面(プロパティウィンドウ)について説明する。
図2に示した平面ビュー20においてカメラオブジェクトを選択し、そのプロパティ画面を開くと、例えば、図10に示されるような画面が表示される。
次に、図10を用いてカメラオブジェクトのプロパティ画面(プロパティウィンドウ)について説明する。
図2に示した平面ビュー20においてカメラオブジェクトを選択し、そのプロパティ画面を開くと、例えば、図10に示されるような画面が表示される。
図10に示されるように、センサモデルの選択はプルダウンメニュー付きの文字ボックス71で行い、矢印をクリックすると選択可能なセンサモデル一覧が表示され、選択したモデルの名称が表示される。詳細情報表示ボタン72をクリックすると、選択されているセンサモデルに関する詳細情報がポップアップウィンドウで表示される。
カメラ制御のエリア75には上述の各種制御機能に対する現在値が数値ボックス73に表示され、キーボード等により入力および変更できる。その隣には選択されているセンサモデルの制御範囲値が表示される。カメラ制御ボタン74は旋回(パンとチルト)と画角(ズーム)に関する制御を行うGUI(Graphical User Interface)であり、各ボタンをマウスクリックすることにより現在値を変更することができる。なお、制御範囲を超える値は設定できず、そのような値を入力しても最大値や最小値が設定される。
カメラオブジェクトのエリア76にはオブジェクトが配置されている位置や方向、大きさや色の現在値が数値ボックス73に表示されている。キーボードによる数値変更やグラフィックス空間におけるマウス操作により変更される。
<システムの動作>
<全体の動作>
次に、図1を参照しつつ、図11に示すフローチャートを用いて、センサ配置設計支援システム100の全体の動作について説明する。
まず、対話処理ST1では、対話手段1においてユーザの対話操作を受け付け、要求を解析し、関連する処理を実行する。
<全体の動作>
次に、図1を参照しつつ、図11に示すフローチャートを用いて、センサ配置設計支援システム100の全体の動作について説明する。
まず、対話処理ST1では、対話手段1においてユーザの対話操作を受け付け、要求を解析し、関連する処理を実行する。
ユーザがディスプレイの画面上で新たなオブジェクトを空間に配置する場合やオブジェクトの位置を変更する場合は、対話処理ST1を経由して、オブジェクト配置手段5によりオブジェクト配置処理ST4が実行される。オブジェクト配置処理後は、属性設定手段8により、属性設定/変更処理ST6を行って、新たなオブジェクトとその属性データの生成や、位置情報の変更を行う。
また、ユーザがプロパティウィンドウなどを介してオブジェクトの属性データを変更する場合、対話処理ST1の後、属性設定手段8により属性設定/変更処理ST6が実行される。
属性設定/変更処理ST6により、オブジェクトの属性データが新たに生成されたり、関連する属性データが変更されたり、オブジェクトの属性データが削除されたりするごとに、表示手段2による表示処理ST8が実行される、あるいは必要に応じて感知状態計算手段6による感知状態計算処理ST7が実行され、その後、表示手段2による表示処理ST8が実行される。
また、ユーザが表示手段2のディスプレイの画面上でセンサオブジェクトとそのセンサモデルを指定すると、センサモデル選択処理ST2を経て、センサ機器データ参照処理ST5により、センサ機器データ蓄積手段7を介して、指定されたセンサモデルに対応するセンサ機器の制御情報が読み出され、属性設定/変更処理ST6において、センサオブジェクトの属性データの設定あるいは変更が実行される。
ここで、センサモデルとして一般モデルを選択した場合は、そのセンサオブジェクトが属する種別の一般モデルの制御情報が設定される。さらにGUI画面上でカメラ制御ボタンを操作してセンサ制御を行うと、対話処理を介してセンサ制御処理ST3が実行され、センサオブジェクトの属性データに基づいてセンサ制御パラメータが計算される。計算結果は属性設定/変更処理ST6において、該当するセンサオブジェクトの属性データが変更され、必要に応じて感知状態計算処理ST7が実行され、表示処理ST8を経て画面が更新される。
また、図11には記載していないが、各ビューに対する制御を実施した場合も、表示処理ST8が実行され画面内容が更新される。
次に、図12を用いて表示処理ST8(図11)における図形表示処理について説明する。
表示処理ST8においては、オブジェクトの属性データ13と感知状態計算手段6による感知状態計算結果91に基づいて、図形データ生成処理92により、3次元グラフィックス空間における図形要素を生成/変更するとともに、それら図形要素から構成される3次元空間でのシーンを記述するシーングラフ93の生成/変更処理を実行する。そして、変更されたシーングラフに基づき、図形要素を視点のスクリーン上に投影されるイメージデータ(画素データ)に変換する幾何計算/レンダリング処理94を実行し、当該イメージデータをフレームメモリ95(表示手段2に含まれる)に書き込む。
表示処理ST8においては、オブジェクトの属性データ13と感知状態計算手段6による感知状態計算結果91に基づいて、図形データ生成処理92により、3次元グラフィックス空間における図形要素を生成/変更するとともに、それら図形要素から構成される3次元空間でのシーンを記述するシーングラフ93の生成/変更処理を実行する。そして、変更されたシーングラフに基づき、図形要素を視点のスクリーン上に投影されるイメージデータ(画素データ)に変換する幾何計算/レンダリング処理94を実行し、当該イメージデータをフレームメモリ95(表示手段2に含まれる)に書き込む。
そして、ディスプレイ表示処理96により、フレームメモリ95に蓄積されたイメージデータを読み出して表示手段2のディスプレイ97に表示する。
また、各ビューに対してビュー制御を実行した場合は、視点のスクリーンへの投影処理を実行して画面を更新する。この3次元グラフィックス表示処理は公知の技術である。
ここで、センサビューのビュー制御はユーザの対話操作だけでなく、センサオブジェクトのセンサ制御に連動させることも可能である。
すなわち、センサオブジェクトがカメラの場合は、センサオブジェクトのセンサ制御に関する属性データに撮影方向や画角が記述されており、表示処理がこれらデータを参照してセンサビューのビュー制御を行う。これにより、カメラの制御状態に応じた被写体オブジェクトの写り具合を確認することができる。また、空間指向性のある無線センサ等であれば、アンテナの方向や無線電波の広がり等に応じてビュー制御を行うことにより、感知オブジェクトのどの部分までを感知できるのかなどについて、ビジュアルな確認が可能となる。
<効果>
以上説明した、実施の形態1に係るセンサ配置設計支援システム100によれば、センサ制御に関するデータを含むセンサ機器データ9を蓄積し、センサ機器データ9に基づいてセンサオブジェクトの制御を行い、センサオブジェクトおよび感知状態をグラフィカルに表示することで、センサ機器の詳細な知識や豊富な設計経験を持たない設計者であっても正しく短時間に配置設計できる。
以上説明した、実施の形態1に係るセンサ配置設計支援システム100によれば、センサ制御に関するデータを含むセンサ機器データ9を蓄積し、センサ機器データ9に基づいてセンサオブジェクトの制御を行い、センサオブジェクトおよび感知状態をグラフィカルに表示することで、センサ機器の詳細な知識や豊富な設計経験を持たない設計者であっても正しく短時間に配置設計できる。
また、特定のセンサ機器に対応した個別モデルの中からセンサオブジェクトのモデルを選択し、センサ機器データと選択された個別モデルに基づいてセンサオブジェクトの制御を行うようにすることで、 多くのセンサ機器を扱う場合でも間違いなく正しい配置設計を行うことができる。
さらに、特定のセンサ機器に対応した個別モデルに加え、センサ機器を特定しない一般モデルも選択できるようにすることで、例えば、最初は一般モデルを用いて制約なしにセンサオブジェクトを制御して大まかな配置設計を行い、その後で、現実の機器により適したセンサ機器を選択することで、機器の制約を考慮した詳細な配置設計を行うことができる。
また、センサオブジェクトに加えて、センサにより感知される物体をモデル化した感知オブジェクトをグラフィックス空間に配置し、感知オブジェクトとオブジェクト感知状態を表示するようにすることで、センサオブジェクトと感知オブジェクトの位置関係や感知オブジェクトによって影響される感知状態を視覚的に確認することができる。
さらに、センサが配置される空間を構成する空間オブジェクトを含むオブジェクトをグラフィックス空間に配置し、空間オブジェクトと空間感知状態を表示することで、センサ配置空間を背景として、センサオブジェクトと感知オブジェクトおよび感知状態を視覚的に確認することができる。
<実施の形態2>
次に、図13〜図16を用いて、本発明に係る実施の形態2のセンサ配置設計支援システムについて説明する。
次に、図13〜図16を用いて、本発明に係る実施の形態2のセンサ配置設計支援システムについて説明する。
なお、システムの基本的な構成や機能については、図1に示したセンサ配置設計支援システム100と同様であるが、センサ機器で計測したデータをセンサ機器データ9として記録し、配置設計支援に利用する点が異なるので、以下この相違点を中心に説明する。
図13は、実施の形態2に係るセンサ配置設計支援システムでのセンサ機器データ9を示す図である。図13に示すセンサ機器データ9Aにおいては、機種や制御など図8を用いて説明したデータ項目に加え、計測データ101を含んでいる。
計測データ101は、各々のセンサ機器を実際に使用し、センサ制御パラメータや周囲環境などの測定環境を種々変化させて測定した実測データを表している。
例えばカメラの場合、カメラの画角、方向、明るさなどのカメラの制御パラメータ、昼夜、照明、天候などの周辺環境、性別、服装、距離などの被写体条件を色々変えて撮影した静止画または動画のサンプル画像105が計測データとなる。
また、赤外線や無線電波を用いたセンサであれば、放射角度、出力強度、方向などのセンサ制御パラメータ、天候などの周辺環境、被写体条件を変化させて測定した数値データ104が計測データとなる。
図13のデータ構造では、計測データの実測データ(数値データ104や画像データ105)とその所在を示すデータポインタ103に加え、計測日時や計測条件(被写体情報、距離、向き、動作、焦点距離、明るさ、環境)など実測データを説明するメタデータ102も記述される。
<システムの動作>
<全体の動作>
次に、図1を参照しつつ、図14に示すフローチャートを用いて、実施の形態2に係るセンサ配置設計支援システムの全体の動作について説明する。
<全体の動作>
次に、図1を参照しつつ、図14に示すフローチャートを用いて、実施の形態2に係るセンサ配置設計支援システムの全体の動作について説明する。
図14に示すフローチャートにおいては、図11を用いて説明した処理ST1〜ST8に加えて、計測データ表示処理ST9が追加されている。
対話手段1においてユーザが計測データ表示を選択する対話処理ST1を行うと、計測データ表示処理ST9を経て、センサ機器データ参照処理ST5により、センサ機器データ蓄積手段7を介して、現在選択されているセンサモデルに対応するセンサ機器の計測データが読み出され、表示手段2による表示処理ST8により該当する計測データが、計測データ表示画面としてポップアップウィンドウ等に表示される。なお、その他の処理については図11を用いて説明した処理と同じであるので、説明は省略する。
<計測データ表示画面の一例>
図15を用いて、計測データ表示画面の一例を説明する。
まず、図15の(d)部に示すように、表示手段2のディスプレイ画面において示される平面ビュー20から、カメラオブジェクト31を選択し、そのプロパティ画面(図10参照)の詳細情報ボタン72を選択するとセンサ機器データの項目一覧が表示され、さらに計測データ項目を選択すると、図15の(a)部に示されるような撮影画像一覧がサムネイル表示される。これにより、選択したカメラオブジェクト31に対応する実写画像を目視し、実際の写り具合を確認することができる。
図15を用いて、計測データ表示画面の一例を説明する。
まず、図15の(d)部に示すように、表示手段2のディスプレイ画面において示される平面ビュー20から、カメラオブジェクト31を選択し、そのプロパティ画面(図10参照)の詳細情報ボタン72を選択するとセンサ機器データの項目一覧が表示され、さらに計測データ項目を選択すると、図15の(a)部に示されるような撮影画像一覧がサムネイル表示される。これにより、選択したカメラオブジェクト31に対応する実写画像を目視し、実際の写り具合を確認することができる。
また、図15の(b)部に示すように、選択したカメラモデルの現在の制御状態(画角や明るさ)、周囲環境(グラフィックス空間における照明など)、被写体と同じあるいはそれに近い撮影条件で撮影したサンプル画像を選択して表示することにより、カメラオブジェクトのシミュレーション状態と同じあるいは近い状態の実写画像を確認することができ、また、センサビュー22のグラフィックス画像と比較することもできる。
平面ビュー20から、赤外線動きセンサなどのセンサオブジェクト32を選択し、そのプロパティ画面から、図15の(c)部に示されるような、実際のセンサで測定した検知強度を示す数値データを表示させることもできる。当該数値データは、検知強度を縦軸に取り、横軸を感知オブジェクトまでの距離とした感知オブジェクトの感知状態のグラフで表示されている。
例えば、選択した被写体の位置を変えることにより、図15の(c)部に示す感知オブジェクトまでの距離に対応するカーソル121の位置が連動して変化し、実測値を直ちに読み取ることができる。なお、図15には示されていないが、感知オブジェクトの感知状態としてセンサモデルの理論計算値を同時に画面表示して比較することもできる。
<計測データの処理の一例>
次に、図16を用いて、実測したデータの処理の一例について説明する。
例えば、センサ機器データ9に記録されるサンプル画像が、焦点距離f1およびf2で撮影された画像A、Bであり、カメラオブジェクトの属性データにおける焦点距離がf3(f1>f3>f2)である場合に、どちらか焦点距離が近いほうのサンプル画像から幾何補正計算をして焦点距離f3の画像Cを合成する、あるいは焦点距離f1とf2の2枚のサンプル画像からモーフィング等の画像合成処理を行い焦点距離f3の画像を生成する。これにより、よりセンサオブジェクトの制御状態に近い画像を表示し確認することができる。焦点距離だけでなく、他の制御パラメータ、周囲環境、被写体の測定条件から、センサオブジェクトのシミュレーション状況により近い計測データを表示することができる。
次に、図16を用いて、実測したデータの処理の一例について説明する。
例えば、センサ機器データ9に記録されるサンプル画像が、焦点距離f1およびf2で撮影された画像A、Bであり、カメラオブジェクトの属性データにおける焦点距離がf3(f1>f3>f2)である場合に、どちらか焦点距離が近いほうのサンプル画像から幾何補正計算をして焦点距離f3の画像Cを合成する、あるいは焦点距離f1とf2の2枚のサンプル画像からモーフィング等の画像合成処理を行い焦点距離f3の画像を生成する。これにより、よりセンサオブジェクトの制御状態に近い画像を表示し確認することができる。焦点距離だけでなく、他の制御パラメータ、周囲環境、被写体の測定条件から、センサオブジェクトのシミュレーション状況により近い計測データを表示することができる。
<効果>
以上説明した、実施の形態2に係るセンサ配置設計支援システムによれば、センサ機器により計測した計測データをセンサ機器データ9として記録し、センサオブジェクトに対応するセンサ機器の計測データを読み出して表示することで、センサオブジェクトとその属性データからシミュレートした結果だけでなく、実測したデータを付き合わせて配置設計を確認することができる。
以上説明した、実施の形態2に係るセンサ配置設計支援システムによれば、センサ機器により計測した計測データをセンサ機器データ9として記録し、センサオブジェクトに対応するセンサ機器の計測データを読み出して表示することで、センサオブジェクトとその属性データからシミュレートした結果だけでなく、実測したデータを付き合わせて配置設計を確認することができる。
また、センサオブジェクトの属性データに含まれるセンサ制御に関するデータに基づく制御と近い制御状態で得られた計測データをセンサ機器データ蓄積手段7から読み出して表示することで、センサオブジェクトのシミュレーション状態に近い計測データを表示し、より近い実測データと付き合わせて配置設計を確認することができる。
さらに、センサオブジェクトの属性データに含まれるセンサ制御に関するデータに基づく制御と近い制御状態で得られた計測データを、センサ機器データ蓄積手段7から読み出し、これを、センサ制御に関するデータに基づく制御で得られたシミュレーション結果に適合するように補正して表示することで、センサオブジェクトのシミュレーション状況により近い計測データを表示することができる。
<実施の形態3>
<システムの構成>
次に、図17および図18を用いて、本発明に係る実施の形態3のセンサ配置設計支援システムについて説明する。
<システムの構成>
次に、図17および図18を用いて、本発明に係る実施の形態3のセンサ配置設計支援システムについて説明する。
図17は、本発明に係る実施の形態3のセンサ配置設計支援システム200の構成を示すブロック図である。なお、図1に示したセンサ配置設計支援システム100と同一の構成については同一の符号を付し、重複する説明は省略する。
図17に示すセンサ配置設計支援システム200においては、ハードウェア構成要素として、カメラ151や赤外線動きセンサ152等の実際のセンサ機器15が接続され、当該センサ機器15で計測された計測データを取得する、計測データ取得手段16を備えており、表示手段2では、シミュレート結果とともにセンサ機器15で計測された計測データを表示することができる。
そして、センサ制御手段4はセンサオブジェクトの制御と連動して、接続された実際のセンサ機器15も制御するように構成されている。例えば、カメラであれば同じ方向、画角、明るさになるようにセンサオブジェクトと、実際に接続されたカメラ151の制御パラメータが設定される。
<計測データ表示画面の一例>
図18を用いて、計測データ表示画面の一例を説明する。
まず、図18の(c)部に示すように、表示手段2のディスプレイ画面において示される平面ビュー20から、カメラオブジェクト31を選択すると、実際に接続されたカメラ151からのライブ映像が計測データ取得手段16を介して表示される。なお、当該カメラ151は、選択したカメラオブジェクト31と同じ状態に制御されている。
図18を用いて、計測データ表示画面の一例を説明する。
まず、図18の(c)部に示すように、表示手段2のディスプレイ画面において示される平面ビュー20から、カメラオブジェクト31を選択すると、実際に接続されたカメラ151からのライブ映像が計測データ取得手段16を介して表示される。なお、当該カメラ151は、選択したカメラオブジェクト31と同じ状態に制御されている。
また、平面ビュー20から、赤外線動きセンサなどのセンサオブジェクト32を選択し、そのプロパティ画面から、図18の(b)部に示されるような、実際に接続された赤外線動きセンサ152で計測中の計測データをリアルタイムで表示させることもできる。当該計測データは、検知強度を縦軸に取り、横軸に時間を取って、選択されたセンサオブジェクト32と同じ制御状態で測定された検知強度を、現在時刻での計測値とそれ以前の時刻での計測値としてグラフ表示している。
<効果>
以上説明した、実施の形態3に係るセンサ配置設計支援システム200によれば、当該システムに、実際のセンサ機器15を接続し、センサオブジェクトの制御と連動してセンサ機器15を制御し、その計測データを取得してシミュレーション結果とともに表示するので、シミュレーション結果と実測値をその場で付き合わせて確認することができる。実施の形態2と比較すると、図16のようにセンサオブジェクトの制御状態に近い計測データを得るために近似的な補正をする必要がなく、任意の制御状態の計測データを取得できる。
以上説明した、実施の形態3に係るセンサ配置設計支援システム200によれば、当該システムに、実際のセンサ機器15を接続し、センサオブジェクトの制御と連動してセンサ機器15を制御し、その計測データを取得してシミュレーション結果とともに表示するので、シミュレーション結果と実測値をその場で付き合わせて確認することができる。実施の形態2と比較すると、図16のようにセンサオブジェクトの制御状態に近い計測データを得るために近似的な補正をする必要がなく、任意の制御状態の計測データを取得できる。
<センサ配置設計支援システムの実現例>
以上説明した、実施の形態1〜3に係るセンサ配置設計支援システム100および200の実現にあたっては、例えば図19に示すようなコンピュータシステムを利用すれば良い。
以上説明した、実施の形態1〜3に係るセンサ配置設計支援システム100および200の実現にあたっては、例えば図19に示すようなコンピュータシステムを利用すれば良い。
すなわち、図19に示すコンピュータ本体201、ディスプレイ装置202、磁気記録媒体204が装着される磁気記録再生装置203、キーボード205、マウス206、CD−ROM(Compact DISC-READ ONLY MEMORY)等の光学式記録媒体208が装着される光学式記録再生装置207、および通信モデム209を備えたコンピュータシステムに、ソフトウェアとして実装されることで実現可能である。
なお、当該ソフトウェアは磁気記録媒体204あるいは光学式記録媒体208等の記録媒体によって供給される。また、信号の形態で通信路上を伝搬させ通信モデム209を介して供給することも可能である。
また、実施の形態3において示したカメラ151や赤外線動きセンサ152等のセンサ機器15を、コンピュータ本体201に接続することで、本システムを構成することになる。
また、センサをカメラとした場合、被写体の写り具合、例えば、撮像面での被写体の大きさなどにより感知条件を設定することができ、また、指定した被写体の写り具合を満足するように、カメラのパン/チルト/ズームを自動制御して撮影範囲を表示することができる。
なお、以上説明した実施の形態では、3次元グラフィックス空間を用いて説明したが、2次元の空間感知状態を観察するだけであれば2次元グラフィックス空間を用いる構成でもよい。
また、ユーザに提供するセンサオブジェクトの制御インタフェースは、センサ機器の制御インタフェースと同じである必要はない。センサオブジェクトのタイプ、例えばセンサのタイプごとに共通制御インタフェースや操作のしやすい抽象化インタフェースを定義し、センサ制御手段が個々のセンサ特有の制御インタフェースに変換すれば、ユーザは個々の機器に依存した、あるいは低レベルの制御インタフェースに関する知識なしに、センサオブジェクトを制御し配置設計をすることができる。
1 センサオブジェクト、11 感知オブジェクト、12 空間オブジェクト、20 平面ビュー、21 3次元ビュー、22 センサビュー、23 プロパティウィンドウ、24 空間感知状態。
Claims (10)
- センサをモデル化し、センサ制御に関するデータを含むセンサオブジェクト属性データを有するセンサオブジェクトと、
前記センサオブジェクトをグラフィックス空間に配置するオブジェクト配置手段と、
前記センサオブジェクト属性データを設定し変更する属性設定手段と、
少なくとも前記センサオブジェクトの空間における感知状態を計算する感知状態計算手段と、
センサ制御に関するセンサ制御データを含むセンサ機器データを蓄積するセンサ機器データ蓄積手段と、
前記センサ機器データに基づいて前記センサオブジェクトの制御データを計算し、前記属性設定手段を介して前記センサオブジェクト属性データとして設定するセンサ制御手段と、
前記センサオブジェクト属性データと、前記感知状態計算手段での計算結果とに基づき、前記センサオブジェクトおよび前記感知状態を表示する表示手段とを備える、センサ配置設計支援システム。 - 前記センサ機器データ蓄積手段は、機能および性能の少なくとも一つが特定された実際のセンサ機器に対応した個別モデルに関しての前記センサ制御データを、前記個別モデルごとに含み、
前記個別モデルのグループ中から前記センサオブジェクトとして使用するセンサモデルを選択するセンサモデル選択手段を備え、
前記センサ制御手段は、
選択された前記センサモデルに関する前記センサ制御データを前記センサ機器データ蓄積手段から読み出し、それに基づいて前記センサオブジェクトの前記制御データを計算して前記属性設定手段を介して前記センサオブジェクト属性データとして設定する、請求項1記載のセンサ配置設計支援システム。 - 前記センサ機器データ蓄積手段は、前記個別モデルの他に、機能または性能を特定せず、一般的な機能または性能を与えられた一般モデルに関しての前記センサ制御データを、前記一般モデルごとに含み、
前記センサモデル選択手段は、前記個別モデルの他に前記一般モデルのグループ中からも前記センサオブジェクトとして使用する前記センサモデルを選択する、請求項2記載のセンサ配置設計支援システム。 - 前記オブジェクト配置手段は、
前記センサにより感知される物体をモデル化した感知オブジェクトを含むオブジェクトを前記グラフィックス空間に配置し、
前記属性設定手段は前記感知オブジェクトが含む感知オブジェクト属性データを設定し、
前記感知状態計算手段は、
前記感知オブジェクトが前記センサオブジェクトにより感知される状態であるオブジェクト感知状態を計算し、
前記表示手段は、
前記感知オブジェクト属性データと、前記感知状態計算手段での計算結果に基づき、前記感知オブジェクトおよび前記オブジェクト感知状態を併せて表示する、請求項1記載のセンサ配置設計支援システム。 - 前記オブジェクト配置手段は、
前記センサが配置される空間を構成する空間オブジェクトを含むオブジェクトを前記グラフィックス空間に配置し、
前記属性設定手段は前記空間オブジェクトが含む空間オブジェクト属性データを設定し、
前記感知状態計算手段は、
前記センサオブジェクトの空間における感知状態である空間感知状態を計算し、
前記表示手段は、
前記空間オブジェクト属性データと、前記感知状態計算手段での計算結果に基づき、前記空間オブジェクトおよび前記空間感知状態を併せて表示する、請求項1記載のセンサ配置設計支援システム。 - 前記センサ機器データは、前記センサオブジェクトに対応するセンサ機器により予め計測した計測データを含み、
前記表示手段は、前記センサ機器データ蓄積手段から前記計測データを読み出して表示する、請求項1記載のセンサ配置設計支援システム。 - 前記表示手段は、前記センサオブジェクト属性データに含まれる前記センサ制御に関するデータに基づく制御と近い制御状態で得られた前記計測データを前記センサ機器データ蓄積手段から読み出して表示する、請求項6記載のセンサ配置設計支援システム。
- 前記表示手段は、前記センサオブジェクト属性データに含まれる前記センサ制御に関するデータに基づく制御と近い制御状態で得られた前記計測データを前記センサ機器データ蓄積手段から読み出し、これを、前記センサ制御に関するデータに基づく制御で得られたシミュレーション結果に適合するように補正して表示する、請求項6記載のセンサ配置設計支援システム。
- 前記センサオブジェクトに対応するセンサ機器と、
前記センサ機器で計測した計測データを取得する計測データ取得手段と、をさらに備え、
前記センサ制御手段は前記センサオブジェクトの制御と連動して前記センサ機器を制御し、
前記表示手段は、取得した前記計測データを表示する、請求項1記載のセンサ配置設計支援システム。 - 前記センサはカメラである、請求項1記載のセンサ配置設計支援システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007247016A JP2009080514A (ja) | 2007-09-25 | 2007-09-25 | センサ配置設計支援システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007247016A JP2009080514A (ja) | 2007-09-25 | 2007-09-25 | センサ配置設計支援システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009080514A true JP2009080514A (ja) | 2009-04-16 |
Family
ID=40655243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007247016A Pending JP2009080514A (ja) | 2007-09-25 | 2007-09-25 | センサ配置設計支援システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009080514A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011065399A (ja) * | 2009-09-17 | 2011-03-31 | Fujitsu Ltd | シミュレーション装置,シミュレーション方法およびシミュレーションプログラム |
JP2011065517A (ja) * | 2009-09-18 | 2011-03-31 | Fujitsu Ltd | カメラの視野範囲の三次元モデル生成方法及び三次元モデル生成プログラム |
JP2012023414A (ja) * | 2010-07-12 | 2012-02-02 | Kozo Keikaku Engineering Inc | シミュレーション装置、シミュレーション方法、およびプログラム |
JP2012213083A (ja) * | 2011-03-31 | 2012-11-01 | Secom Co Ltd | 監視範囲検知装置 |
JP2012213084A (ja) * | 2011-03-31 | 2012-11-01 | Secom Co Ltd | 監視検知装置 |
WO2020166346A1 (ja) * | 2019-02-15 | 2020-08-20 | 株式会社日立製作所 | 製造監視支援装置、製造監視支援方法及び製造監視支援プログラム |
JP7051031B1 (ja) * | 2021-08-19 | 2022-04-08 | 三菱電機株式会社 | 情報処理装置及び検知システム |
JP7098081B1 (ja) * | 2021-08-19 | 2022-07-08 | 三菱電機株式会社 | 検知システム |
WO2023047705A1 (ja) * | 2021-09-21 | 2023-03-30 | 株式会社日立製作所 | ライン設計装置およびライン設計方法 |
WO2023135985A1 (ja) * | 2022-01-13 | 2023-07-20 | 住友電気工業株式会社 | 電波センサの設置支援装置、コンピュータプログラム、及び電波センサの設置位置決定方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001042759A (ja) * | 1999-07-28 | 2001-02-16 | Taisei Corp | センサ設置条件の評価シミュレーション装置及び評価方法 |
JP2006072903A (ja) * | 2004-09-06 | 2006-03-16 | Canon Inc | 画像合成方法及び装置 |
-
2007
- 2007-09-25 JP JP2007247016A patent/JP2009080514A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001042759A (ja) * | 1999-07-28 | 2001-02-16 | Taisei Corp | センサ設置条件の評価シミュレーション装置及び評価方法 |
JP2006072903A (ja) * | 2004-09-06 | 2006-03-16 | Canon Inc | 画像合成方法及び装置 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011065399A (ja) * | 2009-09-17 | 2011-03-31 | Fujitsu Ltd | シミュレーション装置,シミュレーション方法およびシミュレーションプログラム |
JP2011065517A (ja) * | 2009-09-18 | 2011-03-31 | Fujitsu Ltd | カメラの視野範囲の三次元モデル生成方法及び三次元モデル生成プログラム |
JP2012023414A (ja) * | 2010-07-12 | 2012-02-02 | Kozo Keikaku Engineering Inc | シミュレーション装置、シミュレーション方法、およびプログラム |
JP2012213083A (ja) * | 2011-03-31 | 2012-11-01 | Secom Co Ltd | 監視範囲検知装置 |
JP2012213084A (ja) * | 2011-03-31 | 2012-11-01 | Secom Co Ltd | 監視検知装置 |
WO2020166346A1 (ja) * | 2019-02-15 | 2020-08-20 | 株式会社日立製作所 | 製造監視支援装置、製造監視支援方法及び製造監視支援プログラム |
JP2020135158A (ja) * | 2019-02-15 | 2020-08-31 | 株式会社日立製作所 | 製造監視支援装置、製造監視支援方法及び製造監視支援プログラム |
JP7051031B1 (ja) * | 2021-08-19 | 2022-04-08 | 三菱電機株式会社 | 情報処理装置及び検知システム |
JP7098081B1 (ja) * | 2021-08-19 | 2022-07-08 | 三菱電機株式会社 | 検知システム |
WO2023021640A1 (ja) * | 2021-08-19 | 2023-02-23 | 三菱電機株式会社 | 情報処理プログラム及び検知システム |
WO2023021639A1 (ja) * | 2021-08-19 | 2023-02-23 | 三菱電機株式会社 | 情報処理装置及び検知システム |
WO2023047705A1 (ja) * | 2021-09-21 | 2023-03-30 | 株式会社日立製作所 | ライン設計装置およびライン設計方法 |
WO2023135985A1 (ja) * | 2022-01-13 | 2023-07-20 | 住友電気工業株式会社 | 電波センサの設置支援装置、コンピュータプログラム、及び電波センサの設置位置決定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009080514A (ja) | センサ配置設計支援システム | |
JP6951595B2 (ja) | 住宅のデータ収集およびモデル生成方法 | |
US10587864B2 (en) | Image processing device and method | |
KR101835434B1 (ko) | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 | |
KR102227129B1 (ko) | 화상 처리 장치 및 방법 | |
AU2011312140B2 (en) | Rapid 3D modeling | |
JP5093053B2 (ja) | 電子カメラ | |
CN110199322A (zh) | 从内部空间的3d网格表示提取2d平面图 | |
US20150369593A1 (en) | Orthographic image capture system | |
JP6310149B2 (ja) | 画像生成装置、画像生成システム及び画像生成方法 | |
WO2016206997A1 (en) | Augmented reality device for visualizing luminaire fixtures | |
US11062422B2 (en) | Image processing apparatus, image communication system, image processing method, and recording medium | |
US20230334803A1 (en) | Image processing method, recording medium, and image processing system | |
JP2023546739A (ja) | シーンの3次元モデルを生成するための方法、装置、およびシステム | |
CN108780574A (zh) | 用于校准光学采集系统的装置和方法 | |
JP6405539B2 (ja) | 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法 | |
CN108353120A (zh) | 用于生成表示像素束的数据的装置和方法 | |
JP2009080513A (ja) | センサ配置設計支援システム | |
JP5122508B2 (ja) | 3次元空間データ作成方法及び3次元空間データ作成装置 | |
JP7099597B2 (ja) | 情報処理装置、移動体、撮影システム、撮影制御方法およびプログラム | |
CN115830162B (zh) | 户型图展示方法、装置、电子设备及存储介质 | |
JP2018151793A (ja) | プログラム、情報処理装置 | |
US20240022806A1 (en) | Information processing apparatus, mobile machine, image capturing system, image capturing control method, and program | |
Guan | Spherical image processing for immersive visualisation and view generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111025 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120228 |