JP5168580B2 - 運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置 - Google Patents

運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置 Download PDF

Info

Publication number
JP5168580B2
JP5168580B2 JP2008306768A JP2008306768A JP5168580B2 JP 5168580 B2 JP5168580 B2 JP 5168580B2 JP 2008306768 A JP2008306768 A JP 2008306768A JP 2008306768 A JP2008306768 A JP 2008306768A JP 5168580 B2 JP5168580 B2 JP 5168580B2
Authority
JP
Japan
Prior art keywords
wide
angle camera
vehicle
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008306768A
Other languages
English (en)
Other versions
JP2010129063A (ja
Inventor
亮介 宮田
卓志 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008306768A priority Critical patent/JP5168580B2/ja
Priority to DE200910041431 priority patent/DE102009041431B4/de
Priority to US12/568,841 priority patent/US8907950B2/en
Publication of JP2010129063A publication Critical patent/JP2010129063A/ja
Application granted granted Critical
Publication of JP5168580B2 publication Critical patent/JP5168580B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/05Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles the view from a vehicle being simulated

Description

本発明は、広角カメラ画像のシミュレータまたはそれを用いた画像変形合成装置と、それを用いたドライビングシミュレータと、それを実現するためのプログラムと方法に関する。
従来、ドライビングゲームやドライビングシミュレータにおいて、車両の座標系に固定された視点からの仮想環境の映像を生成する処理が行われてきた。このような映像は、仮想環境中の車両の動作に合わせてリアルタイムに更新されることが求められる。このような映像をコンピュータグラフィックスによりリアルタイムで生成するためには、透視投影による高速な描画が可能なハードウエアを利用することが一般的である。
一方、コンピュータグラフィックスの分野では、そのようなハードウエアを用いて、リアリティの高い映像をリアルタイムで生成するための、テクスチャマッピングを利用したレンダリング方法が開発されている(例えば、特許文献1参照)。
特開平10-105734公報
しかしながら、従来の映像生成方式では、画角が約130度以上の広角カメラの映像をリアルタイムで模擬することができなかった。例えば、レイトレーシングなどのカメラレンズを直接シミュレートできるCG映像生成方式では、広角カメラの映像を生成することは可能であるが、処理が重過ぎてリアルタイムでの映像生成ができない。
また、レンダリング支援ハードウエアを用いて高速に映像を生成できるリアルタイムのCG映像生成方式では、映像生成を透視投影によって行うが、透視投影では広い画角の映像が生成できなかった。なぜなら、透視投影は原理的に画角が180度未満でないと計算が行えず、かつ画角を180度に近づけると映像面積の大半が視野の周辺部に費やされる形となって実用的でないからである(実用になるのは120度程度まで)。また、実際のカメラによって撮影される映像はレンズ特性等に応じて歪むため、透視投影法では正しく模擬することができない。特に、魚眼レンズ等の画角が180度に近い広角レンズを用いたカメラで撮影される映像は歪みが大きく、透視投影による映像は実際の画像とは大きく異なることになる。
ゆえに、本発明は、広角カメラの映像をシミュレーションに合わせてリアルタイムに出力可能なシミュレータを提供することを目的とする。
仮想環境における車両に対する動作指示の入力を受け付ける入力部と、
前記動作指示の入力に応じてリアルタイムで前記仮想環境内の前記車両の位置および向きを算出する車両シミュレーション部と、
前記車両の位置および向きから前記車載広角カメラの視点位置および視方向を求めるカメラ状態算出部と、
前記車載広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ状態算出部で算出された前記車載広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画部と、
予め記録された前記車載広角カメラのレンズ特性に関するパラメータに基づいて、前記複数の中間画像を変形合成することで、前記車載広角カメラの映像を生成する映像描画部とを含む広角カメラ模擬部を一つないし複数備える運転模擬装置。
上記構成においては、動作指示の入力に応じてリアルタイムに算出された車両の位置および向きから、車載広角カメラの視点位置および視方向が算出される。そして、複数の中間投影面に対して、これらの車載広角カメラの視点位置および視方向からの透視投影を行うことにより複数の中間画像が生成される。これら複数の中間投影面は、それらを組み合わることにより所定の視野がカバーされるように設定されている。そして、車載広角カメラのレンズ特性から生成されるパラメータに基づいて、中間画像を変形合成することにより、車載広角カメラの映像を生成することができる。これにより、車載広角カメラの視点位置および視方向から透視投影して複数の中間画像を生成する処理と、複数の中間画像を、レンズ特性から生成されるパラメータに応じた映像に変形合成する処理との2段階で、車載広角カメラの映像が生成されることになる。これらの2段階の処理は、例えば、専用のハードウエアを用いることよりそれぞれ高速に実行することができる処理なので、動作指示の入力に応じてリアルタイムで算出された車両の位置および向きに対応した、リアルタイムな車載広角カメラの映像を生成することが可能になる。その結果、車載広角カメラの映像を車両の動作に合わせてリアルタイムに出力可能な運転模擬装置が実現される。
本発明の実施形態において、映像描画部は、前記複数の中間投影面と前記車載広角カメラの撮像面との対応関係を示すデータを前記パラ−メタとして生成し、当該対応関係を示すデータを用いて、前記複数の中間画像のテクスチャを前記撮像面へマッピングすることにより、前記車載広角カメラの映像を生成する態様であってもよい。
これにより、車載広角カメラのレンズ特性に応じたテクスチャマッピングにより、複数の中間画像から車載広角カメラの映像を生成することができる。
本発明の実施形態において、前記中間画像描画部は、前記車載広角カメラの視点位置および視方向からの透視投影を行って複数の中間画像を生成する処理をハードウエアに実行させ、前記中間画像描画部は、前記車載広角カメラのレンズ特性から得られるパラメータを用いて前記複数の中間画像を変形合成することで、前記車載広角カメラの映像を生成する処理をハードウエアにより実行させる態様であってもよい。
これにより、複数の中間画像を生成する処理と、複数の中間画像から車載広角カメラの映像を生成する処理が、それぞれハードウエアで実行される。そのため、より高速に車載広角カメラの映像を生成することができる。なお、ここで、ハードウエアで実行される処理とは、汎用コンピュータのCPUではなく特定の画像データ処理専用のハードウエアによって実行される処理を指す。このようなハードウエアには、例えば、GPU(Graphics Processing Unit)、VPU(Visual Processing Unit)、ジオメトリエンジン、その他のASIC(Application Specific Integrated Circuit)等が含まれる。
本発明の実施形態において、前記中間画像描画部は、前記車載広角カメラの視点を内部に含む立方体の6面のうち少なくとも2つの面を前記複数の中間投影面として、前記車載広角カメラの視点位置および視方向からの前記仮想環境を透視投影して前記複数の中間画像を生成し、前記生成される車載広角カメラの映像の画面に配置される二次元メッシュの各ノードと、前記複数の中間投影面上の位置とを対応付ける方向ベクトルを、前記車載広角カメラのレンズ特性から得られるパラメータに基づいて算出する方向ベクトル付加部をさらに備え、前記映像描画部は、前記方向ベクトルを用いて、前記複数の中間画像のテクスチャを前記二次元メッシュにマッピングすることにより前記車載広角カメラの映像を生成する態様であってもよい。
上記構成において、中間画像描画部は、車載広角カメラの視点を含む立方体の面を中間投影面として透視投影を実行する。映像描画部は、方向ベクトル付加部が、車載広角カメラのレンズ特性に関するパラメータに基づいて算出した方向ベクトルを用いて、前記立方体の面に透視投影された複数の中間画像のテクスチャを、車載広角カメラの映像の画面における二次元メッシュにマッピングする。これにより、映像描画部は、キューブマッピング機能を用いて車載広角カメラの映像を生成することができる。その結果、車載広角カメラの映像の画面における二次元メッシュのポリゴン内部に中間投影面の境界が来ないように設定する必要がなくなる。このため、二次元メッシュの設計自由度が増し、画像処理の単純化が可能になる。また、例えば、レンズの特性に関するパラメータが変更される度に二次元メッシュも変更する必要もなくなるので、二次元メッシュ生成処理が簡単になる。
本発明の実施形態において、前記中間画像描画部は、前記車載広角カメラの視点を内部に含む直方体の6面のうち少なくとも2つの面を前記複数の中間投影面として、前記車載広角カメラの視点位置および視方向からの前記仮想環境を透視投影して前記複数の中間画像を生成し、前記複数の中間投影面上の位置と、前記車載広角カメラの映像の画面に配置される二次元メッシュの各ノードとを対応付ける方向ベクトルを、前記車載広角カメラのレンズ特性から得られるパラメータに基づいて算出する方向ベクトル付加部と、前記方向ベクトル付加部が算出した方向ベクトルを、前記直方体と前記車載広角カメラの視点との位置関係に基づいて、前記直方体をカメラ視点を中心とする立方体になるように変形したときの変形後の立方体の面上における位置と前記二次元メッシュの各ノードとを対応付けるベクトルに変換する、ベクトル変換部とをさらに備え、前記映像描画部は、前記方向ベクトルを用いて、前記複数の中間画像のテクスチャを前記二次元メッシュにマッピングすることにより前記車載広角カメラの映像を生成する態様であってもよい。
上記構成により、映像描画部は、キューブマッピング機能を用いて車載広角カメラの映像を生成することができる。さらに、ベクトル変換部が、直方体と視点との位置関係に基づいて、方向ベクトルを変換するので、車載広角カメラの視点と直方体との位置関係を自由に設定することが可能になる。その結果、例えば、キューブマッピング機能を効率よく使えるように、複数の中間投影面に対する車載広角カメラの視点位置を設定することが可能になる。
本発明の実施形態において、前記方向ベクトルを用いて複数の中間画像のテクスチャを前記二次元メッシュにマッピングする処理にはキューブマッピング機能が用いられてもよい。これにより、方向ベクトルを用いて、前記複数の中間画像のテクスチャを前記二次元メッシュにマッピングする処理を効率よく実行することができる。
本発明の実施形態において、運転模擬装置は、あらかじめ記録された映像変形パターンに従って、画面座標を変換する画面座標変換部をさらに備えてもよい。
これにより、例えば、DSP(Digital Signal Processor)内蔵の車載広角カメラのように、撮影信号に処理して映像を変形して表示するカメラの映像をシミュレートすることができる。
本発明の実施形態において、前記生成される車載広角カメラの映像の画面に配置される二次元メッシュの分割線は、中間投影面の境界境界線のうち前記生成される車載広角カメラ映像の画面上において直線となるものに重なるように設定されていてもよい。これにより、複数の中間投影面の境界付近におけるテクスチャの歪みを抑えることができる。
仮想環境における広角カメラの視点位置および視方向を示すデータを入力するカメラ情報入力部と、前記広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ情報入力部で入力された前記広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画部と、予め記録された前記広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記広角カメラの映像を生成する映像描画部とを含む広角カメラ映像模擬装置も本発明の実施形態の一つである。
上記構成においては、複数の中間投影面に対して、入力された広角カメラの視点位置および視方向からの透視投影を行うことにより複数の中間画像が生成される。これら複数の中間投影面は、それらを組み合わることにより所定の視野がカバーされるように設定されている。そして、広角カメラのレンズ特性に関するパラメータに基づいて、中間画像を変形合成することにより、広角カメラの映像を生成することができる。これにより、広角カメラの視点位置および視方向から透視投影して複数の中間画像を生成する処理と、複数の中間画像を、レンズ特性のパラメータに応じた映像に変形合成する処理との2段階で、広角カメラの映像が生成されることになる。これらの2段階の処理は、例えば、ハードウエアによりそれぞれ高速に実行することができる処理なので、広角カメラの映像を高速に生成することが可能になる。例えば、仮想環境において広角カメラの位置または向きが変化した場合に、リアルタイムに広角カメラの映像を更新して出力することが可能になる。
なお、前記広角カメラ映像模擬装置に組み込まれる画像変形合成装置も、本発明の一実施形態である。また、コンピュータを前記運転模擬装置、前記広角カメラ映像模擬装置または画像変形合成装置として機能させるためのプログラムおよびそのようなプログラムを記録した記録媒体も、本発明の実施形態に含まれる。さらに、上記コンピュータによる、運転模擬方法、広角カメラ映像模擬方法および画像変形合成方法も、本発明の実施形態に含まれる。
本願明細書の開示によれば、広角カメラの映像をシミュレーションに合わせてリアルタイムに出力可能なシミュレータを提供することができる。
(第1の実施形態)
本実施形態は、コンピュータを用いた画像変形合成装置を組み込んだドライビングシミュレータに関する。このドライビングシミュレータは、例えば、車載カメラを用いた運転視界補助システムの検証に利用することができる。
図1は、第1の実施形態にかかるドライビングシミュレータの構成を示す機能ブロック図である。図1に示すドライビングシミュレータ1は、入力部2、車両シミュレーション部3、カメラ状態算出部4、広角カメラ模擬部5、シーン描画部7、シーンデータ記録部11、カメラ位置記録部12、カメラ視野記録部13を備える。
入力部2は、ハンドルやペダルなどの入力装置に接続され、利用者のハンドル操作やペダル操作を入力する。シーンデータ記録部11は、仮想環境(仮想空間)を表すデータである。仮想環境を示すデータには、例えば、道路、信号、車、仮想運転者、建物、背景、光源、カメラなどの要素が含まれる。仮想環境のそれぞれの要素は、描画用のモデルデータとテクスチャ画像、シミュレーション計算用の設定データ、仮想環境内での現在の状態データなどを持つ。状態データは、例えば、仮想環境内における物体の位置や速度、エンジンやトランスミッション、サスペンションなどを含む車の状態、仮想運転者の意図や操作の状態、カメラの位置と向きなどを表す。
車両シミュレーション部3は、入力部2からの入力や時間の経過を受けて、物理現象のシミュレーションや仮想運転者の行動のシミュレーションを行い、例えば、一定時間間隔でシーンデータを更新する。更新の結果、例えば、状態データが示す車の位置や向きが更新される。
特に、車両の挙動については車両シミュレーション部3がシミュレーションを実行する。例えば、車両シミュレーション部3は、入力部2からの運転操作の入力や仮想運転者による運転操作に基づいて各車両の位置や向きを更新する。
車両シミュレーション部3による車両の位置および向きの更新に伴って、カメラ状態算出部4は、カメラ位置記録部12に記録されたカメラ位置情報を用いて、カメラの視点および視方向を更新する。例えば、運転者視点のカメラや、車に追随するカメラ、および車載広角カメラの位置と向き(例えば、視点と視方向)が更新される。
カメラ位置記録部12のカメラ位置情報は、例えば、車両ごとに各車両を基準とした相対的なカメラの位置や向きを表した情報である。更新されたカメラの位置および向きの情報(例えば、カメラの視点および視方向)は、シーン描画部7、広角カメラ模擬部5に伝えられる。例えば、運転者視点のカメラや、車に追随するカメラの視点および視方向は、シーン描画部7へ、車載広角カメラの視点および視方向は、広角カメラ模擬部5へ伝えられる。
車両や車載広角カメラが複数ある場合は、そのうちの一つが1つの広角カメラ模擬部5に対して描画対象に選ばれる。すなわち、カメラの選択はあらかじめ設定しておいても良いし、実行時の操作(切り替えボタンの入力など)で切り替えても良い。なお、広角カメラ模擬部5は、複数の車両や複数の車載広角カメラのシミュレーションを実行するために、複数備えられてもよい。
シーン描画部7は、更新されたシーンデータとカメラの位置および向き、およびカメラ視野記録部13に記録されたカメラの視野情報に基づいて仮想環境内の様子を可視化する。視野情報は、視野のどの範囲を切り取って描画するかを表す情報である。視野情報は、カメラの視点位置に対する投影面(または透視面とも称される)の位置と大きさの設定(位置関係の設定)と言い換えることができる。
シーン描画部7は、視野情報により定められた投影面に対し、シーン内のモデルデータを透視投影することによってシーンの描画処理を実行する。これにより、シーン描画部7は、カメラに写るシーンの映像をリアルタイムに生成することができる。生成された映像はディスプレイやプロジェクタなどの映像提示装置8に送られてユーザに提示される。
上記各機能部の働きにより、入力部2での運転操作の入力から、シーンの更新、描画までを高速に(秒間数回〜数十回)繰り返し行うことによって、仮想環境の時間が進み、動く映像(動画)が生成される。
ドライビングシミュレータ1では、さらに広角カメラ模擬部5が設けられている。広角カメラ模擬部5は、カメラ状態算出部4から、車載広角カメラの視点および視方向を示すデータを受け取り、車載広角カメラが撮影する仮想環境の映像を生成して出力する。広角カメラ模擬部5の映像の出力先は検証対象システム6となっている。検証対象システム6は、例えば、カーナビゲーションシステムに組み込まれる運転視界補助システムの検証等を行うためのシステムである。
なお、広角カメラ模擬部5は、シーン描画部7の一部として設けられてもよい。その場合、広角カメラ模擬部5の出力先は、映像提示装置8になる。この場合、例えば、運転者視点のカメラの映像や車に追随するカメラの映像とともに、広角カメラの映像も映像提示装置8に表示される。
広角カメラ模擬部5は、一つの広角カメラ映像を生成するために、一つの視点位置において、複数の中間投影面へ仮想環境の透視投影を実行して中間画像を生成してバッファに記録する。そして、それらの複数の中間画像を、予め記録された広角カメラのレンズの特性を示すパラメータに基づいて、変形合成して映像を生成する。
[ドライビングシミュレータ1の動作例]
図2Aは、ドライビングシミュレータ1の動作例を示すフローチャートである。ドライビングシミュレータ1は、初めに初期化処理を実行した後(Op1)、シーンの更新(Op1)およびシーンの描画(Op2)を繰り返す。
図2Bは、Op1の初期化処理における広角カメラ模擬部5による初期化処理の一例を示すフローチャートである。図2Bに示す例では、広角カメラ模擬部5は、各種パラメータを初期化し(Op11)、さらに、二次元メッシュを生成する(Op12)。
Op1の初期化処理が終わると、例えば、入力部2がユーザから車両の運転操作を受け付けて(Op2)、入力された運転操作に基づいて、車両シミュレーション部3において車両の位置および向きが更新されるとともに、カメラ状態算出部4でカメラの視点および視方向も更新される(Op3)。
Op4のシーン描画では、シーン描画部7および広角カメラ模擬部5が、Op2で更新されたカメラの視点および視方向により撮影される画像を生成する。
図2Cは、シーン描画(Op4)における広角カメラ模擬部5の処理の一例である。図2Cに示す例では、広角カメラ模擬部5は、複数の中間投影面への透視投影によって中間画像群を生成するステップ(Op31)と、中間画像群を用いて、例えば、二次元メッシュを描画することで、出力画像を生成するステップ(Op32)の2段階によって映像を生成している。
以上のように、ドライビングシミュレータ1では、広角カメラ模擬部5において、一つの広角カメラ映像を生成するために、一つの視点位置における複数の透視投影を行ってそれらを合成して映像を生成する処理が実行される。これにより、広角カメラ画像のリアルタイム生成が可能になる。なお、広角カメラ模擬部5の詳細は後述する。
[広角カメラ模擬部5の詳細]
図3は、広角カメラ模擬部5の構成を示す機能ブロック図である。広角カメラ模擬部5は、視野を複数の90度程度の画角に分割してそれぞれについて透視投影による中間画像の生成を行い、それら中間画像をテクスチャマッピングによって一つの二次元メッシュに貼り付けて合成することで、映像生成を行う。二次元メッシュは、平面を、隙間無く、多数のポリゴンに分割したものである。分割線(ポリゴンのエッジ)が交わる点をノードと呼ぶ。1つのノードが1つないし複数のポリゴンの頂点に対応する。
図3に示す例では、広角カメラ模擬部5は、中間画像描画部15、テクスチャ参照部16、映像描画部17、テクスチャ割付部18、レンズ投影変換部19、中間画像バッファ21、中間投影面配置情報記録部22、直行メッシュ記録部23、広角レンズ特性記録部24および二次元メッシュ記録部25を備える。
中間画像描画部15は、複数の中間投影面に対して、広角カメラの視点位置および視方向からシーンデータが示す仮想環境を透視投影することにより複数の中間画像を生成する。生成された中間画像は、中間画像バッファ21に格納される。
中間投影面配置情報記録部22には、広角カメラの視点位置と複数の中間投影面との位置関係を示すデータが記録されている。中間画像描画部15は、この広角カメラの視点位置と複数の中間投影面との位置関係を示すデータを参照して、透視投影する中間投影面を決定する。なお、中間投影面配置情報記録部22のデータは、複数の中間投影面は、広角カメラの視点からの所定の視野をカバーするように設定される。中間投影面配置情報記録部22のデータは、例えば、シミュレータの初期化処理(上記Op11)において記録される。
図4〜図6は、中間投影面の設定例を示す図である。図4A、図5Aおよび図6Aは、視点位置を上から見た図であり、図4B、図5Bおよび図6Bは斜視図である。図4A、Bに示す例では、視点位置を中心にした立方体の各面が中間投影面に設定されている(立方体型配置)。図5A、Bに示す例では、視点位置を含む直方体の各面が中間投影面に設定されている(直方体型配置)。図6A、Bに示す例では、4つの側面が台形である6面体の各面が中間投影面に設定されている(台形型配置)。図4A〜6Aにおいて、Lは広角レンズの視野角を示している。図4B〜6Bにおいて、Sは広角カメラの視点位置を、視点位置Sから延びる矢印は視方向を示している。
テクスチャ割付部18は、シミュレータ初期化処理(Op1)において、中間画像上の位置と出力映像の画面の二次元メッシュとを対応付けるデータを生成し、二次元メッシュ記録部25に記録する。例えば、テクスチャ割付部18は、予め直行メッシュ記録部23に記録された直行メッシュの各ノードに対応する中間投影面のテクスチャIDおよび座標を算出する。この場合、二次元メッシュ記録部25には、直行メッシュの各ノードと、中間投影面のテクスチャIDおよび座標が対応付けられて記録される。図7は、広角カメラの映像の出力画面における直行メッシュの例を示す図である。図7に示す例は、出力画面において格子状に作成された二次元メッシュである。
なお、テクスチャ割付部18は、二次元メッシュのノードと中間投影面のテクスチャIDおよび座標とを対応付ける際、レンズ投影変換部19に二次元メッシュのノードの画面座標を渡す。レンズ投影変換部19は、広角レンズ特性記録部24に記録されたレンズの特性データを基に、画面座標を方向ベクトルに変換し、テクスチャ割付部18に返す。さらにテクスチャ割付部18は、方向ベクトルと交差する中間投影面(のテクスチャID)およびその投影面における座標を算出する。
上記例では、レンズ投影変換部19は、画面座標と方向ベクトルを対応付ける。そして、テクスチャ割付部18は、方向ベクトルと中間投影面とを対応づける幾何学的な計算を実行し、テクスチャを割り付ける。ここで、レンズ特性データは、例えば、後述する、レンズ映像の歪み特性を示すデータのように、レンズにより結ばれる像と実際の像との関係を示すデータである。
映像描画部17は、二次元メッシュ記録部25に記録された直行メッシュにおけるポリゴンのノードのテクスチャIDおよび座標を、テクスチャ参照部16に渡し、そのポリゴンの色情報を受け取る。テクスチャ参照部16は、入力されたテクスチャIDおよび座標が示す中間画像におけるテクスチャのデータを返す機能部である。この処理を、直行メッシュの全てのポリゴンについて実行することによって、出力画像全体の色情報が得られる。これにより、広角カメラの映像が生成される。
[ハードウエア構成]
ドライビングシミュレータ1は、パーソナルコンピュータやワークステーション等の汎用コンピュータに、所定のプログラムをインストールすることで構築することができる。また、コンピュータを、ドライビングシミュレータ1や広角カメラ模擬部5として機能させるプログラムおよびそれを記録した記録媒体も本発明の実施形態に含まれる。
図8は、ドライビングシミュレータ1として機能することができるコンピュータのハードウエア構成の一例を示す図である。図8に示す例では、CPU26、GPU27、外部インタフェース(外部IF)29、ROM31、RAM32、HDD33がバスによって接続されている。GPU27は、映像提示装置8およびVRAMに接続されている。外部IF29は、コンピュータの外部とデータ入出力を行うインタフェースである。外部IF29には、例えば、マウス、キーボード、外部記録装置等の周辺機器が接続される。
上記の入力部2、車両シミュレーション部3、カメラ状態算出部4、広角カメラ模擬部5およびシーン描画部7の各機能部の機能は、CPU26またはGPU27が所定の処理を実行することにより実現される。例えば、広角カメラ模擬部5の中間画像描画部15および映像描画部17の処理は、CPUよりGPUの方が速く実行することができる。なお、ハードウエア構成は、図8に示した例に限られない。
(第2の実施形態)
第2の実施形態は、広角カメラ模擬部の変形例である。本実施形態における広角カメラ模擬部は、キューブマッピング機能を用いて、広角カメラの映像を生成する。
キューブマッピング機能は、複数のテクスチャ画像を用いて行う特殊なテクスチャマッピング機能である。例えば、既存のリアルタイムCG用ソフトウェアライブラリ、およびそれらに対応するレンダリング支援ハードウエアによって標準的に機能が提供されている。
図9は、通常のテクスチャマッピングを説明するための図である。図5に示すように、テクスチャマッピングでは、ポリゴンの頂点〇、△、□にそれぞれ割り当てられたテクスチャ座標(u1、v1)(u1、v1)(u1、v1)に従って、テクスチャ画像におけるテクスチャが参照され、ポリゴンに貼り付けられる。
図10は、キューブマッピング機能を用いたテクスチャマッピングを説明するための図である。図10に示すように、キューブマッピングでは、ポリゴンの頂点〇、△、□に割り当てられた方向ベクトルV1、V2、V3に従ってキューブマップテクスチャが参照され、ポリゴンに貼り付けられる。キューブマップテクスチャは立方体の各面がテクスチャ画像になったもので、6枚のテクスチャ画像から成る。立方体の中心からの方向ベクトルを与えると、方向ベクトルの指す先が立方体のどの面のどの位置であるかが計算され(交点計算)、その面に対応するテクスチャ画像のその位置の画像がポリゴンに貼り付けられる(テクスチャ参照)。方向ベクトルはポリゴン内部についても補間されてキューブマップテクスチャの参照に用いられる。ポリゴンが複数の面にまたがる(各頂点の方向ベクトルが異なる面を指す)場合には、複数のテクスチャ画像によってポリゴンの内部が塗り分けられる。
なお、キューブマッピング機能では、従来立体的なメッシュ(とその法線ベクトル)が使われていた。これに対し、本実施形態では、方向ベクトル計算手段を設けることにより、出力画像の二次元メッシュの各ノードに対して、レンズ特性データから導き出した方向ベクトルを割り当てたものを用いることを可能にしている。
図11は、第2の実施形態における広角カメラ模擬部5aの構成を示す機能ブロック図である。図11において、図3と同じ機能ブロックには同じ番号を付す。図11に示す広角カメラ模擬部5aでは、中間投影面配置情報記録部22には、図4に示した立方体型の中間画像配置を示すデータが格納される。広角カメラ模擬部5aは、キューブマッピング機能部36および方向ベクトル付加部39を備える。
キューブマッピング機能部36は、ポリゴンの方向ベクトルを受け取って、対応するキューブテクスチャのピクセル色情報を返す。キューブマッピング機能部36は、方向ベクトルを与えられると、立方体の中心を起点とする方向ベクトルの指す先が立方体のどの面のどの位置であるかを計算する交点計算部37と、立方体の面上の位置を示す座標を受け付けて、その座標に対応するテクスチャを中間画像バッファ21から取り出して出力するテクスチャ参照部38を有する。なお、キャビティ機能部26における交点計算部37とテクスチャ参照部38の機能は、GPU等の専用ハードウエアで実現することができる。
立方体中間投影面配置情報35には、中間投影面の配置を示すデータが格納される。ここでは、一例として、視点を中心とする立方体の6面がそれぞれ中間投影面であることを示すデータが格納されている。交点計算部37は、このデータを基に方向ベクトルに対応する中間投影面上の位置を計算することができる。
また、広角カメラ模擬部5は、ドライビングシミュレータ1の初期化時に、出力画面における二次元メッシュの生成を行う(図2BのOp12)。二次元メッシュは出力画面を埋め尽くすようにポリゴンを並べたもので、形状は問わない。本実施形態では、一例として、図12に示すように、画面を格子状に分割し、各格子をさらに半分に分割してできた三角形をポリゴンとする。この二次元メッシュは直行メッシュ記録部23に記録される。
方向ベクトル付加部39は、二次元メッシュの各ノードと、視点を中心とする立方体の中間投影面上の位置とを対応付ける方向ベクトルを、広角カメラのレンズ特性に関するパラメータに基づいて算出する。広角カメラのレンズ特性に関するパラメータは、広角レンズ特性記録部24に予め記録されている。方向ベクトル付加部39による方向ベクトル算出処理の詳細は後述する。
二次元メッシュのノードごとに算出された方向ベクトルは、各々ノードに対応付けられて二次元メッシュ記録部25に記録される。映像描画部17は、二次メッシュのポリゴンのノードに対応する方向ベクトルをキューブマッピング機能部36に渡して、そのポリゴンのテクスチャを取得する。二次元メッシュの全てのポリゴンについてテクスチャを取得すると出力画像が生成される。
〔方向ベクトル付加〕
ここで、方向ベクトル付加部39による方向ベクトル算出の具体例を説明する。方向ベクトル付加部39は、二次元メッシュの各ノード(ポリゴンの頂点)に方向ベクトルを割り当てる。ここで、図13Aに示すように、広角レンズ41に入射光aおよび入射光bが入射したところを考える。入射光a、bに対応する方向ベクトルa、bは、図13Bに示すように入射光a、bの逆向きのベクトルで表すことができる。図13Cは、入射光aおよび入射光bが映像画面上に像を結ぶ点a、bを示している。このように、レンズに対しある方向から入射した光は、映像面上のある点に像を結ぶ。この時、入射光の向きを逆にした方向ベクトルを考えると、映像面M上のある点の色は対応する方向ベクトルが指す先の色である、と言い換えることができる。
このような映像面上の点と方向ベクトルの対応関係は広角レンズ映像の歪み特性から求めることができる。一例として、映像の歪み特性は、光線の入射角と画像高の関係を示すデータで表すことができる。図14Aは、映像面Mに垂直な面における入射光、広角レンズ41および画像高との関係を表す図である。図14Aに示すように、入射角はレンズの光軸(中心軸)と入射光のなす角度であり、画像高は入射光が映像面Mに到達した位置の画像中心からの距離である。図14Bは、映像面を上から見た場合の入射光とレンズ41の関係を示す図である。図14Cは、入射角が等しい入射光が映像面において到達し得る位置を点線で表した図である。図14Dは、光の入射角と画像高との関係により表される広角レンズ映像の歪み特性の一例である。
レンズにおいては一般に、同じ入射角の入射光は映像中心から同じ距離の位置に到達するため(図14C参照)、光線の入射角と画像高の関係により歪み特性を表すことができる。光軸周りの方角は映像面上でも保たれる(図14Bおよび図14C参照)。入射光を映像面上の点に対応付けるこの関係を逆に用いれば、映像面上の点に対応する入射光のベクトルを求めることができ、入射光ベクトルを反転したものが方向ベクトルとなる。この計算をレンズ投影変換部19が行い、二次元メッシュの各ノードについて映像面上の位置から方向ベクトルを求め、ノードに割り当てる。
映像の歪み特性を表す曲線は、数式で定義しても良いし、入射角と画像高の値ペアを列挙したデータから補間によって算出しても良い。この曲線が原点を通る直線となる場合は特に等距離射影と呼ばれ、理想的な魚眼レンズを表す。
次に、方向ベクトル付加部39による二次元メッシュに方向ベクトルを割り当てる処理をより詳しく説明する。二次元メッシュを、画面を横にN分割、縦にM分割した直交格子とする場合を例にとる。この場合、生成の結果は、例えば、ノードの画面座標を格納する(N+1)x(M+1)サイズの二次元配列vertexと、方向ベクトルを格納する(N+1)x(M+1)サイズの二次元配列directionのデータとして得られる。画面の座標系は、中央が原点、画面横方向(x座標)が-1.0から1.0、縦方向(y座標)も-1.0から1.0となるように定める。この時、1つの格子の幅dxおよび高さdyは以下のようになる。
x=2.0/N
y=2.0/M
ここで、以下の手順1を実行することで、配列vertexとdirectionの各要素のベクトル値を算出する。
手順1
縦方向の繰り返し(以下を、整数mを0からMまで1ずつ増やしながら繰り返す)
横方向の繰り返し(以下を、整数nを0からNまで1ずつ増やしながら繰り返す)
画面座標vertex[n][m]=(ndx−1.0, mdy−1.0)
方向ベクトルdirection[n][m]=レンズ投影変換(vertex[n][m])
上記手順1におけるレンズ投影変換()は、以下の手順により画面座標から方向ベクトルを算出する。画面座標を(vx,vy)=vertex[n][m]、求める方向ベクトルを(ux,uy,uy)=direction [n][m]とし、模擬したい広角カメラのイメージセンサのサイズを横幅SW、縦幅SH、イメージセンサ上での座標を(sx,sy)とする。
この時、まず、イメージセンサ上の座標が以下のように求められる。
x=vxSW/2.0
y=vySH/2.0
次に、この座標に基づき、入射光の方位角αと画像高hが、例えば、下記式(1)(2)により求められる。
Figure 0005168580
さらに、映像の歪み特性を用いて、画像高から入射光の入射角θが求められる。歪み特性を等距離射影とする場合、入射角は、例えば、θ=hCにより計算できる。ここで、Cは歪みの度合いを表す定数で、模擬したい特性に合わせてあらかじめ定めておく。
歪み特性を画像高と入射角の値ペアの集合からなる特性データによって定める場合は、次のように線形補間によって入射角を計算できる。図15は、画像高と入射角の値ペアの集合をプロットしたグラフの一例である。特性データに含まれる画像高と入射角の値ペアを(hi,θi)(iは0 〜 ペア個数-1、hiは昇順に並んでいる)とすると、上記で求まった画像高hは、あるiの元で、hi≦h<hi+1という関係になる。この時、hに対応する入射角θは、例えば、下記式(3)により求めることができる。
Figure 0005168580
線形補間の代わりに、二次以上の関数や指数関数、ベジェ曲線などを用いてより精度の高い補間を行っても良い。
入射光の方位角αと入射角θが求まれば、これらから、例えば、下記式(4)〜(6)を用いて、方向ベクトルを求めることができる。
Figure 0005168580
なお、上記例は、広角レンズ映像の歪み特性をレンズ特性として用いて方向ベクトルを計算する例であるが、レンズ特性を用いた方向ベクトルの計算は、上記例に限定されない。例えば、レンズ特性として、その他のパラメータ(例えば、焦点距離、画角または写角等)を用いても、出力画像中におけるメッシュの各ノードの位置と、中間画像における位置との対応を示すデータを計算することもできる。また、上記例では、出力画像のメッシュが二次元メッシュであるが、出力画像のメッシュは、三次元メッシュであってもよい。
[本実施形態における効果]
従来、テクスチャマッピングを用いる場合、中間画像を貼り付けるための二次元メッシュの辺を、中間投影面の境界線に合わせて配置する必要があった。例えば、図16Aに示すように、中心が視点位置の立方体の各面が中間投影面である場合に、中間画像を広角レンズの投影変換した出力画像では、中間画像における境界線の境界は曲線になる。そのため、図16Bに示すように、中間投影面のメッシュT1を投影変換した出力画像の二次元メッシュT2は、投影面境界Kに合わせた曲線の二次元メッシュにする設定する必要があった。なぜなら、通常のテクスチャマッピングを用いる場合、1つのポリゴンを複数のテクスチャ(中間画像)で塗り分けることはできないので、メッシュを構成するポリゴンの内部に中間投影面の境界が来ないようにする必要があるからである。しかし、このような二次元メッシュを生成するためには、三次元の中間投影面について一旦広角レンズによる投影を行って画面上での形状を求める必要がある。従って、レンズの特性を変更するたびに二次元メッシュを作り直すための投影計算を行わなければならず、計算負荷が高い。
そこで、本実施形態の広角カメラ模擬部5aは、キューブマッピング機能を使い、さらに二次元メッシュの各ノードに、前記キューブマッピング機能におけるキューブマップ画像のピクセルを参照するインデックスとしての方向ベクトルを適切に割り当てる。これにより、二次元メッシュの辺を、中間投影面の境界線に合わせて配置することは必ずしも必要ではなくなる。また、二次元メッシュとして、出力画面上で単純な処理で生成できる形状を用いることができる(例えば、図12に示す三角形のポリゴン)。
(第3の実施形態)
第3の実施形態は、広角カメラ模擬部の変形例である。図17は、第3の実施形態における広角カメラ模擬部5bの構成を示す機能ブロック図である。図17において、図11と同じ機能ブロックには同じ番号を付す。
本実施形態では、各中間投影面は、通常のシーン描画部7で用いられるカメラの投影面と同様に透視投影の視野設定によって定義され、全体として広角カメラの視野全体を覆うように配置される。ここでは、一例として、図5A,Bに示した直方体の各面がそれぞれ中間投影面に設定される場合を説明する。これは、非立方体型投影面配置の一例である。広角カメラ視点の位置および視方向を基準とした各中間投影面の配置情報が、予め中間投影面配置情報記録部22に記録される。
図18Aは、前記直方体と広角各カメラの視点位置を上から見た平面図であり、図18Bは、前記直方体の投影面の展開図である。図19Aは、上記第2の実施形態の立法体型投影面配置における立方体と広角各カメラの視点位置の平面図、図19Bは、その立方体の投影面の展開図である。本実施形態では、中間投影面の枚数は、立方体型に配置した場合と同じ6枚とし、各投影面の配置情報は、立方体型配置の場合の各投影面と対応付けて記録される。例えば、図18Bにおける上方向、下方向、正面、右方向、左方向の投影面と図19Bの上方向、下方向、正面、右方向、左方向の投影面とがそれぞれ対応付けられて記録される。
広角カメラ模擬部5bは、このように、広角カメラの視点を内部の任意の位置に含む直方体の各面を中間投影面とした場合に、キューブマッピング機能を使用して映像を生成するものである。そのため、図17に示すように、広角カメラ模擬部5bは、方向ベクトル変換部42をさらに備える。
まず、中間画像描画部15が、広角カメラ視点を含む直方体の各面に配置された中間投影面に対して透視投影を実行し、中間画像バッファ21に中間画像を格納する。このとき、中間画像バッファ21は、キューブマップ用のテクスチャメモリである。そのため、格納される中間画像は、N×N画素(Nは自然数)の画像となる。
一方、方向ベクトル付加部39は、二次元メッシュの各頂点に対応付ける方向ベクトルを生成する。この二次元メッシュの各頂点に対応付ける方向ベクトルを、方向ベクトル変換部42が、上記の直方体の中間投影面配置に基づいて変換する。変換の具体例については後述する。その後、映像描画部17が、キューブマッピング機能部36を用いて出力画像のレンダリングを行う。これにより、キューブマッピング機能を用いながら、立方体型でない中間投影面配置で映像生成を行ったのと同等の映像を得る。その結果、キューブマッピング機能を利用しつつテクスチャメモリを効率的に利用できるようになる。
〔方向ベクトル変換の具体例〕
立方体型でない中間投影面の配置を実現するために、方向ベクトル変換部42が方向ベクトルの変換を行う。図20Aは、非立方体型投影面配置における前記直方体と広角各カメラの視点位置を上から見た平面図であり、視点位置を起点とする方向ベクトルの一例が示されている。図20Bは、キューブマッピング機能部36において処理される立法体系投影面配置と方向ベクトルとの位置関係を上から見た平面図である。
図20Aおよび図20Bに示す配置の場合、一例として、方向ベクトルを変換する計算は以下のように行われる。まず、実際の(非立方体型の)投影面配置において、方向ベクトルが交わる投影面(投影面X)と、投影面X上での投影位置(投影面の幅に対する比率mとn)を求める。次に、投影面Xに対応するキューブマップの投影面(投影面X’)において、比率mとnを用いて変換後の投影位置を求める。さらに、視点位置から変換後の投影位置へ向かうベクトルを求めれば、これが変換後の方向ベクトルである。なお、方向ベクトルの変換方法は、この例に限られない。
〔広角カメラ映像の生成の具体例〕
シーンの描画時には、広角カメラ模擬部5bにおいて、以下の手順で広角カメラ映像が生成される。
まず、シーンの更新によって広角カメラ本体の視点および視方向が更新されると、広角カメラ模擬部5bは、中間投影面配置情報に基づいて各中間投影面の位置および向きを算出する。そして、中間画像描画部15は、各中間投影面に対し透視投影による複数の中間画像の描画を実行し、中間画像バッファ21に保存する。このとき、中間画像バッファ21はキューブマップ画像のバッファなので形状が正方形であるのに対し、中間投影面の画角は縦横で同じとは限らないが、正方サイズのピクセル数を持つキューブマッピング用のバッファに格納する。
次に、映像描画部17が二次元メッシュの描画を行う。すなわち、中間画像バッファ21をキューブマップ画像としてキューブマッピングを行いながら、二次元メッシュを構成するポリゴンを一つ一つ描画していく。ポリゴンに割り当てられた方向ベクトルに従ってキューブマップ画像が参照されて各ポリゴンに貼り込まれた結果、二次元メッシュ全体が、中間画像群を変形・合成して生成された広角カメラ映像として描画される。二次元メッシュが前述の横N分割、縦M分割の直交格子から成る場合、この出力画像描画処理は以下の手順2となる。なお、図21は、出力画像における横N分割、縦M分割の直交格子を示す図である。図22は、直交格子に含まれるポリゴンの例を示す図である。
手順2
縦方向の繰り返し(以下を、整数mを0からMまで1ずつ増やしながら繰り返す)
横方向の繰り返し(以下を、整数nを0からNまで1ずつ増やしながら繰り返す)
格子の左下半分の三角形ポリゴンを描画
〔頂点1〕座標vertex[n][m]、方向ベクトルdirection[n][m]
〔頂点2〕座標vertex[n+1][m]、方向ベクトルdirection[n+1][m]
〔頂点3〕座標vertex[n][m+1]、方向ベクトルdirection[n][m+1]
格子の右上半分の三角形ポリゴンを描画
〔頂点1〕座標vertex[n+1][m]、方向ベクトルdirection[n+1][m]
〔頂点2〕座標vertex[n+1][m+1]、方向ベクトルdirection[n+1][m+1]
〔頂点3〕座標vertex[n][m+1]、方向ベクトルdirection[n][m+1]
以上、本実施形態によれば、キューブマッピング機能を用いる場合でも、中間投影面が立方体型配置に限定されない。従来、キューブマッピング機能を用いると中間投影面が立方体方配置に限定されていた。広角レンズの視野角は広い場合で180度をやや超える程度であるので、立方体型だと上下左右の面が半分強しか使われないことになり、テクスチャメモリの利用効率が悪い。また、中間画像の解像度は正面と側面に均等に割り振られるため、広角レンズで特に引き伸ばされる画像中央付近の解像度が不足しやすい。ここで、本実施形態によれば、広角レンズの視野角が直方体の5つの面を略カバーするように、視点位置を配置してキューブマッピングを実行することができる。そのため、テクスチャメモリの利用効率は良くなる。また、画像中央付近の解像度は低くなることも防がれる。
(第4の実施形態)
本実施形態は、中間投影面の設定方法に関する。上記第3の実施形態では、方向ベクトル変換の副作用で、主に中間投影面の境界付近において、テクスチャの歪みが若干目立つ場合が起こり得る。本実施形態の中間投影面を用いることで中間投影面の境界付近でテクスチャの歪みを抑えることができる。
中間投影面を上下左右で同じ形状になるように設定すると、上下左右の中間投影面間の境界は最終映像において中心から斜め45度方向へ向かう直線となる。そこで、二次元メッシュを正方形格子によって作成し、さらに各格子の分割線が映像の中心から周辺へ向かう方向になるようにする。図23は、そのような二次元メッシュの一例を示す図である。このように、中間投影面の境界線の一部がメッシュの分割線と揃うので、その分割線上では方向ベクトル変換の副作用による歪みの問題が発生しにくくなる。かつ、処理上のコスト増加はほぼ無い。
(第5の実施形態)
図24は、第5の実施形態における広角カメラ模擬部5cの構成を示す機能ブロック図である。図24において、図17と同じ機能ブロックには同じ番号を付す。図17に示す広角カメラ模擬部5aは、画像座標変換部43および映像変形パターン記録部44を備える。
映像変形パターン記録部44には、例えば、広角カメラ内蔵のDSPによる映像の変形パターンを定義するデータが記録される。画像座標変換部43は、模擬したい映像変形のパターンに従って画面座標の変換を行う。方向ベクトル付加部39は、画面座標変換部43が二次元メッシュのノードの画面座標を変換した後に、レンズ投影変換部19に方向ベクトルを計算させる。なお、画面座標変換部43による画面座標の変換は、方向ベクトルの変換と同様に、初期化時のみに行われればよい。映像描画部17の処理は、上記第3の実施形態と同様としてもよい。以下に、具体例を示す。
〔DSPによる映像変形の模擬〕
例えば、広角カメラに内蔵されたDSPによる映像変形処理の模擬を行う場合に、さらに画面座標変換部43が追加される。DSPによる映像の変形により、例えば、魚眼レンズ映像の一部分が切り出され歪みが除去される。
図25は、カメラ内蔵DSPによる映像変形の一例を模式的に示す図である。この時、入力映像上のある点は変換後の映像上のある点に一対一で対応付けられる。これを模擬するために、方向ベクトル付加部39は、例えば、次のような処理を行う。
図26は、映像変形時の方向ベクトル付加部39の動作例を示すフローチャートである。
まず、Op51で読み込んだメッシュのノードについて、画面座標変換部43により座標が変換される(Op53)。図画面座標変換部43は、映像変形による画面座標の対応関係を逆に辿って、映像変形後の画面(出力映像)上の座標から、映像変形前の画面上の座標を求める。図27は画面座標変換部43による変換の一例を模式的に表す図である。次に、レンズ投影変換部19が変換後の画面座標から方向ベクトルを求める(Op54)。そして、方向ベクトル変換部42を用いる場合には、方向ベクトル変換部42が方向ベクトルを変換する(Op55)。求まった方向ベクトルはメッシュのノードに付加されて二次元メッシュ記録部25に記録される(Op56)。このようにして方向ベクトルが付加されたメッシュを映像描画部17が描画すると、模擬された広角カメラ映像にさらに、DSPによる変形が加わった映像が描画される。
近年、DSPを内蔵し、映像歪みの除去やパースの変換などの映像変形処理をカメラ内部で行うような車載カメラが登場してきている。本実施形態によれば、そのような車載カメラもドライビングシミュレータ上で模擬できる。
(効果等)
運転視界補助システムなどの車載カメラを用いたアプリケーションを開発するためには、計算機上の仮想環境での検証が有効である。上記の第1〜5の実施形態にかかるドライビングシミュレータによれば、この仮想環境での車載広角カメラの車載広角カメラの映像模擬をリアルタイムで実行することができる。その結果、車載カメラアプリケーションを実行する実際の車載機をシミュレータに接続して様々な検証を行うことができる。また、カメラ種別や設置位置、周辺環境、交通状況などに関するさまざまな条件を作り出したり、条件を変えながら実験を繰り返したりするためには、実車を用いた検証だけでは高いコストがかかるが、これらコストを削減できる。さらに、事故に繋がる危険な検証は実車で行うことができないが、本実施形態にかかるドライビングシミュレータによれば可能になる。
なお、上記本発明にかかる広角カメラ模擬部は、ドライビングシミュレータ以外にも利用することができる。例えば、ドライビングゲームや、計算機システム上にモデリングされた3次元世界の事象を体験あるいは検証するためのシミュレーションシステム等にも、本発明にかかる広角カメラ模擬部の機能を利用することができる。
以上の第1〜第4の実施形態に関し、さらに以下の付記を開示する。
(付記1)
仮想環境における車両に対する動作指示の入力を受け付ける入力部と、
前記動作指示の入力に応じてリアルタイムで前記仮想環境内の前記車両の位置および向きを算出する車両シミュレーション部と、
前記車両の位置および向きから前記車載広角カメラの視点位置および視方向を求めるカメラ状態算出部と、
前記車載広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ状態算出部で算出された前記車載広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画部と、
予め記録された前記車載広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記車載広角カメラの映像を生成する映像描画部とを含む広角カメラ模擬部を一つないし複数備える運転模擬装置。
(付記2)
映像描画部は、前記複数の中間投影面と前記車載広角カメラの撮像面との対応関係を示すデータを前記パラ−メタとして生成し、当該対応関係を示すデータを用いて、前記複数の中間画像のテクスチャを前記撮像面へマッピングすることにより、前記車載広角カメラの映像を生成する、付記1に記載の運転模擬装置。
(付記3)
前記中間画像描画部は、前記車載広角カメラの視点位置および視方向からの透視投影を行って複数の中間画像を生成する処理をハードウエアに実行させ、
前記中間画像描画部は、前記車載広角カメラのレンズ特性から得られるパラメータを用いて前記複数の中間画像を変形合成することで、前記車載広角カメラの映像を生成する処理をハードウエアにより実行させる、付記1または2に記載の運転模擬装置。
(付記4)
前記中間画像描画部は、前記車載広角カメラの視点を内部に含む立方体の6面のうち少なくとも2つの面を前記複数の中間投影面として、前記車載広角カメラの視点位置および視方向からの前記仮想環境を透視投影して前記複数の中間画像を生成し、
前記生成される車載広角カメラの映像の画面に配置される二次元メッシュの各ノードと、前記複数の中間投影面上の位置とを対応付ける方向ベクトルを、前記車載広角カメラのレンズ特性から得られる前記パラメータに基づいて算出する方向ベクトル付加部をさらに備え、
前記映像描画部は、前記方向ベクトルを用いて、前記複数の中間画像のテクスチャを前記二次元メッシュにマッピングすることにより前記車載広角カメラの映像を生成する、付記1〜3のいずれか1項に記載の運転模擬装置。
(付記5)
前記中間画像描画部は、前記車載広角カメラの視点を内部に含む直方体の6面のうち少なくとも2つの面を前記複数の中間投影面として、前記車載広角カメラの視点位置および視方向からの前記仮想環境を透視投影して前記複数の中間画像を生成し、
複数の中間投影面上の位置と、前記車載広角カメラの映像の画面に配置される二次元メッシュの各ノードとを対応付ける方向ベクトルを、前記車載広角カメラのレンズ特性から得られる前記パラメータに基づいて算出する方向ベクトル付加部と、
前記方向ベクトル付加部が算出した方向ベクトルを、前記直方体と前記車載広角カメラの視点との位置関係に基づいて、前記直方体をカメラ視点を中心とする立方体になるように変形したときの変形後の立方体の面上における位置と前記二次元メッシュの各ノードとを対応付けるベクトルに変換する、ベクトル変換部とをさらに備え、
前記映像描画部は、前記方向ベクトルを用いて、前記複数の中間画像のテクスチャを前記二次元メッシュにマッピングすることにより前記車載広角カメラの映像を生成する、付記1〜3のいずれか1項に記載の運転模擬装置。
(付記6)
前記方向ベクトルを用いて複数の中間画像のテクスチャを前記二次元メッシュにマッピングする処理にはキューブマッピング機能を用いる、付記4また5に記載の運転模擬装置。
(付記7)
あらかじめ記録された映像変形パターンに従って、画面座標を変換する画面座標変換部をさらに備える、付記1〜6のいずれか1項に記載の運転模擬装置。
(付記8)
前記生成される車載広角カメラの映像の画面に配置される二次元メッシュの分割線は、中間投影面の境界線のうち前記生成される車載広角カメラ映像の画面上において直線となるものに重なるように設定されている、付記4〜6のいずれか1項に記載の運転模擬装置。
(付記9)
仮想環境における広角カメラの視点位置および視方向を示すデータを入力するカメラ情報入力部と、
前記広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ情報入力部で入力された前記広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画部と、
予め記録された前記広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記広角カメラの映像を生成する映像描画部とを含む広角カメラ映像模擬装置。
(付記10)
仮想環境における広角カメラの視点位置および視方向を示すデータを入力するカメラ情報入力部と、
前記広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ情報入力部で入力された前記広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画部と、
予め記録された前記広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記広角カメラの映像を生成する映像描画部とを含む画像変形合成装置。
(付記11)
仮想環境における車両に対する動作指示の入力を受け付ける入力処理と、
前記動作指示の入力に応じてリアルタイムで前記仮想環境内の前記車両の位置および向きを算出する車両状態算出処理と、
前記車両の位置および向きから前記車載広角カメラの視点位置および視方向を求めるカメラ状態算出処理と、
前記車載広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ状態算出処理で算出された前記車載広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画処理と、
予め記録された前記車載広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記車載広角カメラの映像を生成する映像描画処理とをコンピュータに実行させる、運転模擬プログラム。
(付記12)
仮想環境における広角カメラの視点位置および視方向を示すデータを入力するカメラ情報入力処理と、
前記広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ情報入力処理で入力された前記広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画処理と、
予め記録された前記広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記広角カメラの映像を生成する映像描画処理とをコンピュータに実行させる広角カメラ映像模擬プログラムまたは画像変形合成プログラム。
(付記12)
仮想環境における車両に対する動作指示の入力を受け付ける入力ステップと、
前記動作指示の入力に応じてリアルタイムで前記仮想環境内の前記車両の位置および向きを算出する車両状態算出ステップと、
予め記録された前記車両の車載広角カメラの搭載位置情報を用いて、前記車両の位置および向きから前記車載広角カメラの視点位置および視方向を求めるカメラ状態算出ステップと、
前記車載広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ状態算出ステップで算出された前記車載広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画ステップと、
予め記録された前記車載広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記車載広角カメラの映像を生成する映像描画ステップとを含む、運転模擬方法。
(付記13)
仮想環境における広角カメラの視点位置および視方向を示すデータを入力するカメラ情報入力ステップと、
前記広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ情報入力ステップで入力された前記広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画ステップと、
予め記録された前記広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記広角カメラの映像を生成する映像描画ステップとを含む広角カメラ映像模擬方法または画像変形合成方法。
第1の実施形態にかかるドライビングシミュレータの構成を示す機能ブロック図 ドライビングシミュレータ1の動作例を示すフローチャート 広角カメラ模擬部による初期化処理の一例を示すフローチャート シーン描画における広角カメラ模擬部の処理の一例 広角カメラ模擬部の構成を示す機能ブロック図 立方体型投影面配置を上から見た図 立方体型投影面配置を示す斜視図 直方体型投影面配置を上から見た図 直方体型投影面配置を示す斜視図 台形型投影面配置を上から見た図 台形型投影面配置を示す斜視図 広角カメラの映像の出力画面における直行メッシュの例を示す図 コンピュータのハードウエア構成の一例を示す図 テクスチャマッピングを説明するための図 キューブマッピング機能を用いたテクスチャマッピングを説明するための図 第2の実施形態における広角カメラ模擬部の構成を示す機能ブロック図 出力画面の二次元メッシュの例を示す図 広角レンズと入射光の関係を示す図 入射光に対応する方向ベクトルを示す図 入射光が映像画面上に結ぶ像の位置を表す図 入射光、広角レンズ41および画像高との関係を表す図 映像面を上から見た場合の入射光とレンズの関係を示す図 入射角が等しい入射光が映像面において到達し得る位置を点線で表した図 光の入射角と画像高との関係により表される広角レンズ映像の歪み特性の一例を示す図 画像高と入射角の値ペアの集合をプロットしたグラフの一例 中間投影面と、それを投影変換した出力画像を示す図 中間投影面のメッシュと、それを投影変換した出力画像のメッシュを示す図 第3の実施形態における広角カメラ模擬部の構成を示す機能ブロック図 直方体と広角各カメラの視点位置を上から見た平面図 直方体の投影面の展開図 立方体と広角各カメラの視点位置の平面図 立方体の投影面の展開図 直方体と広角各カメラの視点位置を上から見た平面図 立法体系投影面配置と方向ベクトルとの位置関係を上から見た平面図 出力画像における横N分割、縦M分割の直交格子を示す図 直交格子に含まれるポリゴンの例を示す図 第4の実施形態における二次元メッシュの一例を示す図 第5の実施形態における広角カメラ模擬部の構成を示す機能ブロック図 カメラ内蔵DSPによる映像変形の一例を模式的に示す図 映像変形時の方向ベクトル付加部の動作例を示すフローチャート 画面座標変換部43による変換の一例を模式的に表す図
符号の説明
1 ドライビングシミュレータ
2 入力部
3 車両シミュレーション部
4 カメラ状態算出部
5、5a、5b、5c 広角カメラ模擬部
6 検証対象システム
7 シーン描画部
8 映像提示装置
11 シーンデータ記録部
12 カメラ位置記録部
13 カメラ視野記録部
15 中間画像描画部
16 テクスチャ参照部
17 映像描画部
18 テクスチャ割付部
19 レンズ投影変換部
21 中間画像バッファ
22 中間投影面配置情報記録部
23 直行メッシュ記録部
24 広角レンズ特性記録部
25 二次元メッシュ記録部
26 キャビティ機能部
35 立方体中間投影面配置情報
36 キューブマッピング機能部
37 交点計算部
38 テクスチャ参照部
39 方向ベクトル付加部
41 広角レンズ
41 レンズ
42 方向ベクトル変換部
44 映像変形パターン記録部
43 画像座標変換部

Claims (9)

  1. 仮想環境における車両に対する動作指示の入力を受け付ける入力部と、
    前記動作指示の入力に応じてリアルタイムで前記仮想環境内の前記車両の位置および向きを算出する車両シミュレーション部と、
    前記車両の位置および向きから前記車両の車載広角カメラの視点位置および視方向を求めるカメラ状態算出部と、
    前記車載広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ状態算出部で算出された前記車載広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画部と、
    予め記録された前記車載広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記車載広角カメラの映像を生成する映像描画部とを含む広角カメラ模擬部を一つないし複数備え
    前記中間画像描画部は、前記車載広角カメラの視点を内部に含む直方体の6面のうち少なくとも2つの面を前記複数の中間投影面として、前記車載広角カメラの視点位置および視方向からの前記仮想環境を透視投影して前記複数の中間画像を生成し、
    前記複数の中間投影面上の位置と、前記車載広角カメラの映像の画面に配置される二次元メッシュの各ノードとを対応付ける方向ベクトルを、前記車載広角カメラのレンズ特性から得られる前記パラメータに基づいて算出する方向ベクトル付加部と、
    前記方向ベクトル付加部が算出した方向ベクトルを、前記直方体と前記車載広角カメラの視点との位置関係に基づいて、前記直方体をカメラ視点を中心とする立方体になるように変形したときの変形後の立方体の面上における位置と前記二次元メッシュの各ノードとを対応付けるベクトルに変換する、ベクトル変換部とをさらに備え、
    前記映像描画部は、前記方向ベクトルを用いて、前記複数の中間画像のテクスチャを前記二次元メッシュにマッピングすることにより前記車載広角カメラの映像を生成する、運転模擬装置。
  2. 映像描画部は、前記複数の中間投影面と前記車載広角カメラの撮像面との対応関係を示すデータを前記パラメ−タとして生成し、当該対応関係を示すデータを用いて、前記複数の中間画像のテクスチャを前記撮像面へマッピングすることにより、前記車載広角カメラの映像を生成する、請求項1に記載の運転模擬装置。
  3. 仮想環境における車両に対する動作指示の入力を受け付ける入力部と、
    前記動作指示の入力に応じてリアルタイムで前記仮想環境内の前記車両の位置および向きを算出する車両シミュレーション部と、
    前記車両の位置および向きから前記車両の車載広角カメラの視点位置および視方向を求めるカメラ状態算出部と、
    前記車載広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ状態算出部で算出された前記車載広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画部と、
    予め記録された前記車載広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記車載広角カメラの映像を生成する映像描画部とを含む広角カメラ模擬部を一つないし複数備え、
    前記中間画像描画部は、前記車載広角カメラの視点を内部に含む立方体の6面のうち少なくとも2つの面を前記複数の中間投影面として、前記車載広角カメラの視点位置および視方向からの前記仮想環境を透視投影して前記複数の中間画像を生成し、
    前記生成される車載広角カメラの映像の画面に配置される二次元メッシュの各ノードと、前記複数の中間投影面上の位置とを対応付ける方向ベクトルを、前記車載広角カメラのレンズ特性から得られる前記パラメータに基づいて算出する方向ベクトル付加部をさらに備え、
    前記映像描画部は、前記方向ベクトルを用いて、前記複数の中間画像のテクスチャを前記二次元メッシュにマッピングすることにより前記車載広角カメラの映像を生成する、運転模擬装置。
  4. 前記方向ベクトルを用いて複数の中間画像のテクスチャを前記二次元メッシュにマッピングする処理にはキューブマッピング機能を用いる、請求項1〜3のいずれか1項に記載の運転模擬装置。
  5. あらかじめ記録された映像変形パターンに従って、画面座標を変換する画面座標変換部
    をさらに備える、請求項1〜のいずれか1項に記載の運転模擬装置。
  6. 前記生成される車載広角カメラの映像の画面に配置される二次元メッシュの分割線は、中間投影面の境界線のうち前記生成される車載広角カメラ映像の画面上において直線となるものに重なるように設定されている、請求項〜5のいずれか1項に記載の運転模擬装置。
  7. 仮想環境における広角カメラの視点位置および視方向を示すデータを入力するカメラ情報入力部と、
    前記広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ情報入力部で入力された前記広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画部と、
    予め記録された前記広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記広角カメラの映像を生成する映像描画部とを含
    前記中間画像描画部は、前記広角カメラの視点を内部に含む直方体の6面のうち少なくとも2つの面を前記複数の中間投影面として、前記広角カメラの視点位置および視方向からの前記仮想環境を透視投影して前記複数の中間画像を生成し、
    前記複数の中間投影面上の位置と、前記広角カメラの映像の画面に配置される二次元メッシュの各ノードとを対応付ける方向ベクトルを、前記広角カメラのレンズ特性から得られる前記パラメータに基づいて算出する方向ベクトル付加部と、
    前記方向ベクトル付加部が算出した方向ベクトルを、前記直方体と前記広角カメラの視点との位置関係に基づいて、前記直方体をカメラ視点を中心とする立方体になるように変形したときの変形後の立方体の面上における位置と前記二次元メッシュの各ノードとを対応付けるベクトルに変換する、ベクトル変換部とをさらに備え、
    前記映像描画部は、前記方向ベクトルを用いて、前記複数の中間画像のテクスチャを前記二次元メッシュにマッピングすることにより前記広角カメラの映像を生成する、広角カメラ映像模擬装置。
  8. 仮想環境における広角カメラの視点位置および視方向を示すデータを入力するカメラ情報入力部と、
    前記広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ情報入力部で入力された前記広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画部と、
    予め記録された前記広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記広角カメラの映像を生成する映像描画部とを含み、
    前記中間画像描画部は、前記広角カメラの視点を内部に含む直方体の6面のうち少なくとも2つの面を前記複数の中間投影面として、前記広角カメラの視点位置および視方向からの前記仮想環境を透視投影して前記複数の中間画像を生成し、
    前記複数の中間投影面上の位置と、前記広角カメラの映像の画面に配置される二次元メッシュの各ノードとを対応付ける方向ベクトルを、前記広角カメラのレンズ特性から得られる前記パラメータに基づいて算出する方向ベクトル付加部と、
    前記方向ベクトル付加部が算出した方向ベクトルを、前記直方体と前記広角カメラの視点との位置関係に基づいて、前記直方体をカメラ視点を中心とする立方体になるように変形したときの変形後の立方体の面上における位置と前記二次元メッシュの各ノードとを対応付けるベクトルに変換する、ベクトル変換部とをさらに備え、
    前記映像描画部は、前記方向ベクトルを用いて、前記複数の中間画像のテクスチャを前記二次元メッシュにマッピングすることにより前記広角カメラの映像を生成する、画像変形合成装置。
  9. 仮想環境における車両に対する動作指示の入力を受け付ける入力処理と、
    前記動作指示の入力に応じてリアルタイムで前記仮想環境内の前記車両の位置および向きを算出する車両状態算出処理と、
    前記車両の位置および向きから前記車両の車載広角カメラの視点位置および視方向を求めるカメラ状態算出処理と、
    前記車載広角カメラからの所定の視野をカバーする複数の中間投影面に対して、前記カメラ状態算出処理で算出された前記車載広角カメラの視点位置および視方向から前記仮想環境を透視投影した複数の中間画像を生成する中間画像描画処理と、
    予め記録された前記車載広角カメラのレンズ特性に基づいて、中間画像の変形合成に関するパラメータを生成し、前記複数の中間画像を変形合成することで、前記車載広角カメラの映像を生成する映像描画処理とをコンピュータに実行させ
    前記中間画像描画処理では、前記広角カメラの視点を内部に含む直方体の6面のうち少なくとも2つの面を前記複数の中間投影面として、前記広角カメラの視点位置および視方向からの前記仮想環境を透視投影して前記複数の中間画像を生成し、
    前記複数の中間投影面上の位置と、前記広角カメラの映像の画面に配置される二次元メッシュの各ノードとを対応付ける方向ベクトルを、前記広角カメラのレンズ特性から得られる前記パラメータに基づいて算出する方向ベクトル付加処理と、
    前記方向ベクトル付加処理で算出した方向ベクトルを、前記直方体と前記広角カメラの視点との位置関係に基づいて、前記直方体をカメラ視点を中心とする立方体になるように変形したときの変形後の立方体の面上における位置と前記二次元メッシュの各ノードとを対応付けるベクトルに変換する、ベクトル変換処理とをさらにコンピュータに実行させ、
    前記映像描画処理では、前記方向ベクトルを用いて、前記複数の中間画像のテクスチャを前記二次元メッシュにマッピングすることにより前記広角カメラの映像を生成する、運転模擬プログラム。
JP2008306768A 2008-12-01 2008-12-01 運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置 Expired - Fee Related JP5168580B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008306768A JP5168580B2 (ja) 2008-12-01 2008-12-01 運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置
DE200910041431 DE102009041431B4 (de) 2008-12-01 2009-09-16 Fahrsimulationsvorrichtung, Weitwinkelkamera-Videosimulationsvorrichtung und Bilddeformierungs-/-zusammensetzungsvorrichtung
US12/568,841 US8907950B2 (en) 2008-12-01 2009-09-29 Driving simulation apparatus, wide-angle camera video simulation apparatus, and image deforming/compositing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008306768A JP5168580B2 (ja) 2008-12-01 2008-12-01 運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置

Publications (2)

Publication Number Publication Date
JP2010129063A JP2010129063A (ja) 2010-06-10
JP5168580B2 true JP5168580B2 (ja) 2013-03-21

Family

ID=42194282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008306768A Expired - Fee Related JP5168580B2 (ja) 2008-12-01 2008-12-01 運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置

Country Status (3)

Country Link
US (1) US8907950B2 (ja)
JP (1) JP5168580B2 (ja)
DE (1) DE102009041431B4 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011223558A (ja) * 2010-03-26 2011-11-04 Panasonic Corp 映像信号処理装置およびアクティブシャッターメガネ
JP5521750B2 (ja) * 2010-05-10 2014-06-18 富士通株式会社 シミュレーションプログラム、シミュレーション装置及びシミュレーション方法
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
EP2395769B1 (en) * 2010-06-11 2015-03-04 Nintendo Co., Ltd. Image display program, image display system, and image display method
US8451346B2 (en) * 2010-06-30 2013-05-28 Apple Inc. Optically projected mosaic rendering
TW201215126A (en) * 2010-09-27 2012-04-01 Hon Hai Prec Ind Co Ltd Image dividing system for cameras and using method of the same
JP5739674B2 (ja) 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
DE102011107458A1 (de) * 2011-07-15 2013-01-17 Audi Ag Verfahren zum Evaluieren einer Objekterkennungseinrichtung eines Kraftfahrzeugs
US9860520B2 (en) * 2013-07-23 2018-01-02 Sirona Dental Systems Gmbh Method, system, apparatus, and computer program for 3D acquisition and caries detection
US9892556B2 (en) * 2014-03-11 2018-02-13 Amazon Technologies, Inc. Real-time exploration of video content
KR101491423B1 (ko) * 2014-09-24 2015-02-06 현대자동차주식회사 차량의 후진 보조 장치 및 그의 방법
US10970843B1 (en) 2015-06-24 2021-04-06 Amazon Technologies, Inc. Generating interactive content using a media universe database
US10096158B2 (en) * 2016-03-24 2018-10-09 Ford Global Technologies, Llc Method and system for virtual sensor data generation with depth ground truth annotation
JP6553012B2 (ja) * 2016-10-26 2019-07-31 株式会社タムラ製作所 音声調整卓
US10839591B2 (en) * 2017-01-04 2020-11-17 Nvidia Corporation Stereoscopic rendering using raymarching and a virtual view broadcaster for such rendering
US10497150B2 (en) * 2017-01-11 2019-12-03 Arm Limited Graphics processing fragment shading by plural processing passes
US11220291B2 (en) * 2017-01-25 2022-01-11 Ford Global Technologies, Llc Virtual reality remote valet parking
US10318822B2 (en) * 2017-04-06 2019-06-11 GM Global Technology Operations LLC Object tracking
CN107424218B (zh) * 2017-07-25 2020-11-06 成都通甲优博科技有限责任公司 一种基于3d试戴的序列图校正方法及装置
US11042974B2 (en) * 2018-01-09 2021-06-22 Robert Bosch Gmbh Method and system for determining a degree of correlation between a simulated camera image and an actual camera image
WO2019185986A2 (en) 2018-03-28 2019-10-03 Nokia Technologies Oy A method, an apparatus and a computer program product for virtual reality
KR102103418B1 (ko) * 2018-04-06 2020-04-23 주식회사 와이즈오토모티브 조감도 이미지 생성 장치 및 방법
CN112911147B (zh) * 2021-01-27 2023-04-25 维沃移动通信有限公司 显示控制方法、显示控制装置及电子设备
US11812153B2 (en) * 2022-03-07 2023-11-07 Volvo Car Corporation Systems and methods for fisheye camera calibration and bird's-eye-view image generation in a simulation environment

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2450486A1 (fr) * 1979-03-02 1980-09-26 Materiel Telephonique Procede et systemes de generation electronique d'image animee a grand angle pour ensemble d'entrainement a la conduite des navires
US4479784A (en) * 1981-03-03 1984-10-30 The Singer Company Eye line-of-sight responsive wide angle visual system
JP3358169B2 (ja) * 1996-08-30 2002-12-16 インターナショナル・ビジネス・マシーンズ・コーポレーション 鏡面レンダリング方法及び装置
US7375728B2 (en) * 2001-10-01 2008-05-20 University Of Minnesota Virtual mirror
JP4592917B2 (ja) * 2000-10-24 2010-12-08 株式会社バンダイナムコゲームス 画像生成装置及びゲーム装置
JP2003085586A (ja) * 2001-06-27 2003-03-20 Namco Ltd 画像表示装置、画像表示方法、情報記憶媒体および画像表示プログラム
DE10226917A1 (de) * 2002-06-17 2004-01-08 Richard Loch Verfahren zum Steuern eines Simulators
US20090237396A1 (en) * 2008-03-24 2009-09-24 Harris Corporation, Corporation Of The State Of Delaware System and method for correlating and synchronizing a three-dimensional site model and two-dimensional imagery

Also Published As

Publication number Publication date
US20100136507A1 (en) 2010-06-03
JP2010129063A (ja) 2010-06-10
US8907950B2 (en) 2014-12-09
DE102009041431B4 (de) 2014-12-24
DE102009041431A1 (de) 2010-06-24

Similar Documents

Publication Publication Date Title
JP5168580B2 (ja) 運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置
US5694533A (en) 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism
JPH0757117A (ja) テクスチャマップへの索引を生成する方法及びコンピュータ制御表示システム
JP2008287696A (ja) 画像処理方法と装置
JP3200163B2 (ja) 3次元シミュレーション画像形成システム
WO2020136929A1 (ja) 画像処理装置及び画像処理方法
JP3124999B1 (ja) レンダリング方法及び装置、ゲーム装置、並びに仮想空間内のオブジェクトの陰影に関するデータを計算するためのプログラムを格納するコンピュータ読み取り可能な記録媒体
Yang et al. Nonlinear perspective projections and magic lenses: 3D view deformation
KR20210087043A (ko) 병행 텍스처 샘플링
US9401044B1 (en) Method for conformal visualization
JP3453119B2 (ja) 情報記憶媒体及びゲーム装置
EP3573018B1 (en) Image generation device, and image display control device
KR100489572B1 (ko) 화상 처리 방법
KR100875297B1 (ko) 영상 생성 기능을 갖는 시뮬레이션 장치 및 영상 생성단계를 갖는 시뮬레이션 방법
JP3850080B2 (ja) 画像生成表示装置
JP4530214B2 (ja) 模擬視界発生装置
JP4201207B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP5146054B2 (ja) 仮想空間における音源より発生される音の生成制御プログラム
JP4566120B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP7281782B2 (ja) 映像投影システム
JP2023163713A (ja) 画像処理装置
JP3867071B2 (ja) 画像処理装置、画像処理方法
KR0166253B1 (ko) 원근지형의 영상 생성 방법
JP3734744B2 (ja) 3次元情報合成装置、3次元情報表示装置及び3次元情報合成方法
JP2004152047A (ja) 画像分割合成方法およびシステム、そのためのプログラムおよび記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121029

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121212

LAPS Cancellation because of no payment of annual fees