JP2007066045A - シミュレーション装置 - Google Patents

シミュレーション装置 Download PDF

Info

Publication number
JP2007066045A
JP2007066045A JP2005252008A JP2005252008A JP2007066045A JP 2007066045 A JP2007066045 A JP 2007066045A JP 2005252008 A JP2005252008 A JP 2005252008A JP 2005252008 A JP2005252008 A JP 2005252008A JP 2007066045 A JP2007066045 A JP 2007066045A
Authority
JP
Japan
Prior art keywords
data
sensor
depth value
polygon
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005252008A
Other languages
English (en)
Inventor
Fumiko Kureyama
史子 紅山
Toshio Moriya
俊夫 守屋
Hitoshi Ikui
仁 生井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005252008A priority Critical patent/JP2007066045A/ja
Priority to US11/512,252 priority patent/US20070103463A1/en
Publication of JP2007066045A publication Critical patent/JP2007066045A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】 シミュレーションの高速化を図る。
【解決手段】 本シミュレーション装置は、3次元ポリゴンデータが表す各ポリゴンの深度値が格納されるデプスバッファを有するグラフィックボードを備える。このグラフィックボードにおいて、カメラパラメータ及び3次元ポリゴンデータに基づき各ポリゴンの深度値が算出され、当該算出値で、デプスバッファ内の深度値が逐次更新される。この深度値に基づきセンサデータが生成、出力される。
【選択図】図2

Description

本発明は、移動ロボット、自動車等の移動体の自律走行を支援する走行支援システムに係り、特に、ハードウェアを用いたセンサシミュレーション装置に関する。
移動体(走行移動ロボット、自走車等)の自律走行制御においては、周辺の障害物及び壁面等との位置関係の認識が必要となる。このため、移動体には、カメラ等の視覚センサ、周辺の障害物との間の距離を計測するレーザセンサ、赤外線レーザ等の各種センサが必要に応じて移動体に搭載されている。このセンサのセンシングデータの解析により、例えば、未知の進路上の三次元環境が認識される。
実機による実験では、セッティングに時間を要する等、容易には動作検証を行うことができない。このため、一般に、事前にコンピュータでシミュレーションを行い、その結果に基づき、障害物の位置及び角度等が検討される。例えば、このようなシミュレーションに関連する技術として、特許文献1記載の技術が知られている。この技術によれば、自律走行する移動体の自己位置同定処理及び誘導制御処理において、移動体の近傍領域における位置分解能の向上、及び、シミュレーションの高速化が図られる。
特開2003-15739号公報
上記従来の技術においては、ソフトウエアのアルゴリズムの工夫によって処理の高速化が図られている。ところが、ソフトウエアのアルゴリズムの工夫によるシミュレーション高速化には限界がある。
そこで、本発明は、より高速なシミュレーションを実行することができるシミュレーション装置を提供することを目的とする。
本発明は、汎用のハードウェアを用いてシミュレーション速度を向上させる。具体的には、
センサの測定に関するセンサ仕様及びセンサの位置及び姿勢を示すセンサ位置・姿勢パラメータに基づき、3次元CGにおけるカメラパラメータを作成するカメラパラメータ作成手段と、
前記3次元ポリゴンデータが表す各ポリゴンの深度値が格納されるデプスバッファを有し、前記カメラパラメータ、前記3次元ポリゴンデータ及び前記誤差モデルに基づき前記各ポリゴンの深度値を算出して、当該算出値で、前記デプスバッファ内の前記深度値を逐次更新するグラフィックボードと、
前記深度値をセンサデータに変換して出力するセンサデータ出力手段と、
を有することを特徴とするセンサシミュレーション装置を提供する。
以下、添付の図面を参照しながら、本発明に係る実施の一形態について説明する。
まず、図1により、本実施形態に係るシミュレーションシステムの構成について説明する。
本シミュレーションシステム10は、(1)メモリ等の主記憶100、(2)後述のシミュレーション処理を実現するためのプログラムがインストールされるとともに、各種データが格納されるハードディスク等の補助記憶装置200、(3)補助記憶装置200から主記憶100上にロードされたプログラムを実行するCPU20、(4)3次元グラフィックス処理を高速実行する専用回路と、イメージデータを保持するためのメモリと、視点からの距離データが画素ごとに格納されるデプスバッファ40とが搭載されたグラフィックスボード30、(5)これらを相互に接続するバス50、等を有している。
このようなハードウェア構成上において、主記憶100にロードされたプログラムが実行されると、グラフィックボード30に入力データを与えるための構成が実現される。具体的には、図2に示すように、センサ位置・姿勢パラメータ210及びセンサ仕様データ220に基づきカメラパラメータ240を算出するカメラデータ作成部110、デプスバッファ内の距離データとセンサ仕様220とに基づきセンサデータ260を出力するセンサデータ出力部120、が実現される。
このような構成により、センサ位置・姿勢パラメータ210及びセンサ仕様220がカメラパラメータ240に変換され、さらに、グラフィックボード30が、このカメラパラメータ240と3次元ポリゴンデータ230とに基づき、カメラからの距離を表す距離画像を生成する。ここで、3次元ポリゴンデータ230の各ポリゴンに対する深度値の算出が行われるが、本実施の形態においては、グラフィックスボード30内のデプスバッファ40で遠近判定を行い、各画素においてより視点位置より近い値を順次更新格納する。つまり、この処理をハードウェアで直接行うため、計算時間を短縮することができる。そして、デプスバッファ40に蓄積される深度値と、センサ仕様情報220である角度分解能及び視野角とを基に、センサデータ出力部120において、各角度における距離データが算出され、センサデータ260として出力される。
つぎに、補助記憶装置200に格納されるデータについて説明する。
補助記憶装置200には、さらに、シミュレーション処理において用いられる入力データ、シミュレートにより得られるカメラデータ240、及び、シミュレート結果であるセンサデータ(各角度における、センサからの距離データ)260、センシング対象のポリゴンデータ230が格納される。
入力データには、センサ位置・姿勢パラメータ210、センサ仕様データ220、シミュレーション誤差モデル250、が含まれる。
センサ位置・姿勢パラメータには、移動体(自走車、ロボット等)に取り付けたセンサの位置・姿勢を時間ごとに記録したデータが含まれる。具体的センサ位置・姿勢パラメータには、図5に示すように、フレームごとに、フレー番号と、XYZ座標系におけるセンサの位置座標(X,Y,Z)と、センサの方向ベクトルとが格納される。なお、センサの傾きを変えながらセンシングを行なう場合には、さらに、センサの傾きを表すデータを追加することが好ましい。
センサ仕様データには、センサの仕様を表すデータが含まれる。図4に、センシング対象を走査しながら所定の角度ごとの離散的なデータを取得することによって最終的に線データを得るレーザセンサのセンサ仕様データの例を示す。このようなレーザセンサのセンサ仕様データには、距離データを取得する角度間隔を表す角度分解能、距離データの分解能を表す距離分解能、距離計測の正確度を表す測定誤差範囲情報、センサで測定可能な範囲を表す測定範囲情報、が含まれている。測定範囲情報には、測定可能な視野角(線データを取得する場合には水平視野角のみ)、センサで測定可能な距離の範囲等が含まれる。なお、センシング方法が異なる他のレーザセンサ(点データが得られるもの、面データが得られるもの)に関するセンサ仕様データには、取得されるデータに応じたデータが含まれる。
誤差モデルデータには、シミュレート時の想定誤差を表すデータが含まれる。例えば、シミュレート時の誤差を正規分布にしたがうと仮定した場合には、図6に示すように、その分散値及び標準偏差を誤差モデルデータとして用いることができる。なお、この誤差モデルデータは、カメラデータを生成する際、実機を用いた計測で得られる実値に含まれる測定誤差を考慮するために利用される。すなわち、距離データは、実値により近くなるように、3次元ポリゴンデータ230とカメラパラメータ240と誤差モデル250とに基づき算出される。
これらの入力データは、所定のフォーマットにしたがってデータが記述されたデータファイルから読み込まれてもよいし、入力装置から手入力されてもよい。シミュレーションシステムに表示装置を設けた場合には、これらの入力データの入力を支援するために、例えば、図7に示すような画面を表示させてもよい。
この画面上には、センサ仕様データに含まれる各データの入力を受け付ける入力フィールド51、仕様ファイルからのセンサ仕様データの読込み指示を受け付ける参照ボタン52、センサ位置・姿勢パラメータに含まれる各データの入力を受け付ける入力フィールド53、動作ファイルからのセンサ位置・姿勢パラメータの読込み指示を受け付ける参照ボタン54、誤差ファイルからの誤差モデルデータの読込み指示を受け付ける参照ボタン55、この画面上の設定の登録指示を受け付けるOKボタン56、この画面上の設定の取消指示を受け付けるキャンセルボタン57が配置されている。
この画面を利用すれば、ユーザは、センサ仕様データ及びセンサ位置・姿勢パラメータを直接手入力することもできるし、指定ファイルから読み出させることもできる。なお、センサ位置・姿勢パラメータのデータ量は、通常、膨大になるため、キーフレームにおけるデータを入力フィールド53に入力させるようにして、それらのデータを補間することが望ましい。
カメラパラメータには、3次元CGのレンダリング機能を用いたシミュレーションを行うために必要な、カメラに関するデータが含まれる。例えば、図8に示すように、カメラの位置を示す視点座標、カメラの向きを示す注視点座標、フレームごとのカメラの傾き(アニメーションデータ)、水平視野角、垂直視野角、デプスバッファに確保すべき領域の大きさを定める出力画像サイズ、クリッピング領域の範囲、が含まれる。
センサデータには、図9に示すように、フレームごとに、視野角の範囲内において、角度分解能が示す角度おきに算出された距離データが含まれる。具体的には、フレームごとに、フレーム番号、視野角0度からの角度と距離データとの対応情報のリストが格納される。
つぎに、図3により、図2の構成により実行される処理について説明する。なお、以下において、グラフィックスボード30において行われる処理の実行主体をたんにグラフィックスボード30ということにする。
まず、グラフィックスボード30は、センシング対象となる3次元ポリゴンデータ及び誤差モデル240を補助記憶装置から読み込み(S1000)、センサの初期状態におけるセンサパラメータ(光学中心、光軸、センシング領域)を読み込む(S1100)。さらに、パラメータnに1を設定する(S1110)。
その後、各ポリゴンについて、ぞれぞれ、以下の処理を実行する。
グラフィックスボード30は、パラメータnの値とポリゴン数とを比較する(S1200)。
その結果、パラメータnの値がポリゴン数以上であれば、センサデータ出力部120が、グラフィックスボードの出力に基づきセンサデータを生成する(S1700)。
一方、パラメータnの値がポリゴン数未満であれば、グラフィックスボード30は、n番目のポリゴンの深度値を算出する(S1300)。
グラフィックスボード30は、この深度値でポリゴンを透視投影面上に投影したときに対応するピクセルについてデプスデプスバッファに記録された深度値と、n番目のポリゴンの深度値とを比較する(S1400)。その結果、n番目ポリゴンの深度値の方が小さい場合にだけ、デプスバッファ内の、対応ピクセルの深度値を更新する(S1500)。
その後、つぎのポリゴンについて同様な処理を実行すべく、グラフィックスボードは、nの値を+1だけインクリメントする(S1510)。そして、S1200以降の処理が再度実行される。
以上においては、シミュレーションによりセンサデータを生成しているが、センサデータとともに、そのセンサデータの数値を視覚的に把握可能な表示画像を作成してもよい。以下、そのようにする場合について説明する。
図10に、センサデータとともに表示画像を作成するシミュレーションシステムのハードウェア構成、図11に、このシミュレーションシステムにより実現される構成を示す。
このシミュレーションシステムは、図1のハードウェア構成に加え、さらに、グラフィックスボード30に搭載されたフレームバッファ45、出力画像を表示するための表示装置60を備えている。そして、補助記憶装置200には、前述のデータに加えて、さらに、各画素における色データ(ピクセル色データ)、センサデータとともに生成された表示画像280が格納される。
また、このシミュレーションシステムは、図2の構成に加え、さらに、各画素における深度値の大小に応じてピクセル色を更新するピクセル色更新部130、センサデータの数値を視覚的に把握可能な表示画像280を生成する表示画像作成部140を実現する。
図12に、このシミュレーションシステムで実行される処理のフローチャートを示す。
この場合には、前述の場合と異なり、S1200の比較処理の結果、パラメータnの値がポリゴン数以上であれば、表示画像作成部140が、各ピクセルの色情報に基づき画像を生成し(S1800)、その画像を表示装置60に表示させる(S1900)。ここで、画像の表示を終了する旨の指示を受け付けた場合(S2000)には、表示画像作成部140は、その指示が、視点の位置変更に起因するものか否かを判断する(S2100)。
その結果、画像の表示終了指示が視点の位置変更に起因するものである場合には、センサパラメータが更新され、S1100以降の処理が再度実行される。
一方、画像の表示終了指示が視点の位置変更に起因するものでない場合(ここでは、シミュレーション終了の場合)には、全処理が終了したものとして、シミュレーションを終了する。
この場合、最も深度値の低いポリゴン(すなわち最前面のポリゴン)を優先的に表示するため、デプスバッファ40には最小の深度値が格納されており、S1400において、グラフィックスボード30は、n番目ポリゴンの深度値が、その最小の深度値よりも小さいか否かを判断する。
その結果、n番目ポリゴンの深度値の方が小さいと判断すると、グラフィックスボード30は、デプスバッファ内の深度値をn番目ポリゴンの深度値で置き換えるとともに、n番目ポリゴンの色情報をフレームバッファ45に格納する(S1500)。これにより、デプスバッファ40の深度値が、より深度値の小さいポリゴンの深度値で更新されるとともに、デプスバッファ40の深度値が更新されるごとに、より深度値の小さなポリゴンの色情報がフレームバッファ45に格納されてゆく。
さらに、ピクセル色更新部130は、より深度値が小さいポリゴンの色情報がフレームバッファ45に格納された場合、この色情報をフレームバッファから取り出し、この色情報で、対応ピクセルのピクセル色データ270を更新する(S1600)。
一方、S1400において、n番目ポリゴンの深度値が、デプスデプスバッファに記録された最小の深度値以上であると判断した場合には、グラフィックスボード30は、デプスバッファの更新及びピクセル色データの更新を行わない。
その後、前述の場合と同様、つぎのポリゴンについて同様な処理を実行すべく、グラフィックスボード30がnの値を+1だけインクリメントし(S1510)、S1200以降の処理が再度実行される。
このような処理によれば、センサデータの数値を視覚的に把握可能な表示画像を表示させることができる。
本発明は、未知物体の三次元計測システム、移動体(自走車、ロボット)の自律走行システム等、距離センサを利用するシステムにおいて利用可能である。
本発明の一実施形態に係るシミュレーションシステムの概略構成を示した図である。 本発明の第1実施形態に係るシミュレーションシステムの構成図である。 本発明の第1実施形態に係るシミュレーションシステムで実行される処理のフローチャートである。 センサ仕様データのデータ構造を示した図である。 センサ位置・姿勢パラメータのデータ構造を示した図である。 誤差モデルデータに含まれるデータを示した図である。 データ入力用のインタフェースを示した図である。 カメラパラメータのデータ構造を示した図である。 センサデータのデータ構造を示した図である。 本発明の第2の実施形態に係るシミュレーションシステムの概略構成図である。 本発明の第2実施形態に係るシミュレーションシステムの構成図である。 本発明の第2実施形態に係るシミュレーションシステムで実行される処理のフローチャートである。
符号の説明
20…CPU、30…グラフィックスボード、40…デプスバッファ、45…フレームバッファ、50…バス、60…表示装置、110…カメラパラメータ作成部、120…センサデータ出力部、130…ピクセル色更新部、140…表示画像作成部、270…ピクセル色格納部

Claims (3)

  1. センサの測定に関するセンサ仕様情報及びセンサの位置及び姿勢を示すセンサ位置・姿勢パラメータに基づき、3次元CGにおけるカメラパラメータを作成するカメラパラメータ作成手段と、
    3次元ポリゴンデータが表す各ポリゴンの深度値が格納されるデプスバッファを有し、前記カメラパラメータ及び前記3次元ポリゴンデータに基づき前記各ポリゴンの深度値を算出して、当該算出値で、前記デプスバッファ内の前記深度値を逐次更新するグラフィックボードと、
    前記深度値をセンサデータに変換して出力するセンサデータ出力手段と、
    を有することを特徴とするシミュレーション装置。
  2. 請求項1記載のシミュレーション装置であって、
    前記グラフィックボードは、前記カメラパラメータ、前記センサの測定誤差を表す誤差モデル、及び、前記3次元ポリゴンデータに基づき、前記各ポリゴンの深度値を算出することを特徴とするシミュレーション装置。
  3. 請求項1記載のシミュレーション装置であって、
    グラフィックスボードは、さらにフレームバッファを有し、
    当該シミュレーション装置は、
    前記算出された深度値が前記デプスバッファ内の深度値よりも小さい場合、対応するポリゴンの色をピクセル色とする表示画像を生成するピクセル色更新手段を備えることを特徴とするシミュレーション装置。
JP2005252008A 2005-08-31 2005-08-31 シミュレーション装置 Pending JP2007066045A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005252008A JP2007066045A (ja) 2005-08-31 2005-08-31 シミュレーション装置
US11/512,252 US20070103463A1 (en) 2005-08-31 2006-08-30 Simulation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005252008A JP2007066045A (ja) 2005-08-31 2005-08-31 シミュレーション装置

Publications (1)

Publication Number Publication Date
JP2007066045A true JP2007066045A (ja) 2007-03-15

Family

ID=37928161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005252008A Pending JP2007066045A (ja) 2005-08-31 2005-08-31 シミュレーション装置

Country Status (2)

Country Link
US (1) US20070103463A1 (ja)
JP (1) JP2007066045A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9192869B2 (en) 2008-06-09 2015-11-24 Hitachi, Ltd. Autonomous mobile robot system
WO2018066352A1 (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
WO2018066351A1 (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4855938A (en) * 1987-10-30 1989-08-08 International Business Machines Corporation Hidden line removal method with modified depth buffer
US5913820A (en) * 1992-08-14 1999-06-22 British Telecommunications Public Limited Company Position location system
FR2735936B1 (fr) * 1995-06-22 1997-08-29 Allio Pierre Procede d'acquisition d'images autostereoscopiques simulees
JP3349871B2 (ja) * 1995-07-10 2002-11-25 株式会社リコー 画像処理装置
US6262738B1 (en) * 1998-12-04 2001-07-17 Sarah F. F. Gibson Method for estimating volumetric distance maps from 2D depth images
US6990681B2 (en) * 2001-08-09 2006-01-24 Sony Corporation Enhancing broadcast of an event with synthetic scene using a depth map

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9192869B2 (en) 2008-06-09 2015-11-24 Hitachi, Ltd. Autonomous mobile robot system
WO2018066352A1 (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
WO2018066351A1 (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
US10565458B2 (en) 2016-10-06 2020-02-18 Advanced Data Controls Corp. Simulation system, simulation program and simulation method

Also Published As

Publication number Publication date
US20070103463A1 (en) 2007-05-10

Similar Documents

Publication Publication Date Title
JP5248806B2 (ja) 情報処理装置、情報処理方法
US20180234673A1 (en) Online compensation of thermal distortions in a stereo depth camera
US8515613B2 (en) Environmental map correction device and autonomous mobile device
WO2012173141A1 (ja) 画像処理装置、画像処理方法、およびプログラム
KR20120049927A (ko) 자율 이동 장치
US20170358048A1 (en) Information processing apparatus, information processing method, and program
JP5340280B2 (ja) 遠隔操作装置及び遠隔操作方法
JP2003150219A (ja) 作業機械のシミュレーション装置
JP2003280785A (ja) 画像表示処理装置、および画像表示処理方法、並びにコンピュータ・プログラム
JP7011472B2 (ja) 情報処理装置、情報処理方法
US11209277B2 (en) Systems and methods for electronic mapping and localization within a facility
JP7070127B2 (ja) ロボット制御システム
US11951637B2 (en) Calibration apparatus and calibration method for coordinate system of robotic arm
CN107754310A (zh) 手持式装置以及其定位方法
JP2007066045A (ja) シミュレーション装置
JP4835243B2 (ja) 画像合成装置及び画像合成プログラム
US20180293751A1 (en) Measuring apparatus and corresponding measuring method
JP4926598B2 (ja) 情報処理方法、情報処理装置
US20220284667A1 (en) Image processing method and image processing device for generating 3d content by means of 2d images
JP2009086842A (ja) ハーネス設計支援装置及び方法及びプログラム
KR102370326B1 (ko) 2d 이미지를 활용하여 3d 컨텐츠를 생성하는 영상 처리 방법 및 영상 처리 장치
KR101714700B1 (ko) 스캔 데이터 정합 장치
JP2018132847A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021136009A (ja) 情報処理装置、情報処理方法およびプログラム
JP2022075500A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091022

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100209