JP2007094080A - 移動体シミュレータ装置およびその制御方法並びに制御プログラム - Google Patents
移動体シミュレータ装置およびその制御方法並びに制御プログラム Download PDFInfo
- Publication number
- JP2007094080A JP2007094080A JP2005284243A JP2005284243A JP2007094080A JP 2007094080 A JP2007094080 A JP 2007094080A JP 2005284243 A JP2005284243 A JP 2005284243A JP 2005284243 A JP2005284243 A JP 2005284243A JP 2007094080 A JP2007094080 A JP 2007094080A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- behavior
- data
- virtual
- inter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】よりリアルに実地の運転状況を再現することができる移動体シミュレータ装置は提供される。
【解決手段】 移動体シミュレータ装置11の記憶装置43には、任意の座標系で特定される仮想移動経路上で仮想自車位置を特定する自車位置データ58と、所定の経過時間ごとに自車および先行車の間の車間距離を特定する車間距離データ59とが格納される。自車位置データ59および車間距離データ59に基づき仮想自車位置に対して仮想移動経路上で先行車の挙動が特定される。特定される挙動に基づき、運転者の視界を再現する画像が作成される。こういった画像に基づき移動体シミュレータ装置11の使用者は車間距離を体感することができる。しかも、仮想移動経路上では正確に運転手の視点は設定されることができる。先行車の画像はリアルに再現されることができる。
【選択図】図2
【解決手段】 移動体シミュレータ装置11の記憶装置43には、任意の座標系で特定される仮想移動経路上で仮想自車位置を特定する自車位置データ58と、所定の経過時間ごとに自車および先行車の間の車間距離を特定する車間距離データ59とが格納される。自車位置データ59および車間距離データ59に基づき仮想自車位置に対して仮想移動経路上で先行車の挙動が特定される。特定される挙動に基づき、運転者の視界を再現する画像が作成される。こういった画像に基づき移動体シミュレータ装置11の使用者は車間距離を体感することができる。しかも、仮想移動経路上では正確に運転手の視点は設定されることができる。先行車の画像はリアルに再現されることができる。
【選択図】図2
Description
本発明は、例えば自動車といった移動体の挙動を再現するシミュレータ装置に関する。
例えば特許文献1に開示されるように、自動車教習用のシミュレータ装置は広く知られる。このシミュレータ装置では、実地の教習時に撮影された映像に基づき教習生の運転状況が再現されることができる。座席の前方ではディスプレイの画面上に運転手の視界が再現される。教習生は再現に基づき客観的に自己の運転状況を観察することができる。
特開2000−47570号公報
撮影時にカメラは自動車の特定位置に固定される。したがって、カメラの視点は必ずしも運転手の視点とは一致しない。教習生は、シミュレータ装置で再現される映像に違和感を感じてしまう。リアルさに欠ける。
本発明は、上記実状に鑑みてなされたもので、よりリアルに実地の運転状況を再現することができる移動体シミュレータ装置を提供することを目的とする。本発明は、そういった移動体シミュレータ装置の実現に大いに貢献する制御方法や制御プログラムを提供することを目的とする。
上記目的を達成するために、第1発明によれば、任意の座標系で特定される仮想移動経路上で仮想自車位置を特定する自車位置データを記憶する第1記憶装置と、所定の経過時間ごとに自車および先行車の間の車間距離を特定する車間距離データを記憶する第2記憶装置と、自車位置データおよび車間距離データに基づき仮想自車位置に対して仮想移動経路上で先行車の挙動を特定する挙動特定手段と、特定される挙動に基づき、運転者の視界を再現する画像を作成する画像作成手段とを備えることを特徴とする移動体シミュレータ装置が提供される。
こういった移動体シミュレータ装置では、例えば実測される車間距離データに基づき仮想移動経路上で先行車の挙動は特定される。こうして特定される挙動に基づき先行車の画像は生成されることができる。こういった画像に基づき使用者は車間距離を体感することができる。しかも、仮想移動経路上では正確に運転手の視点は設定されることができる。したがって、先行車の画像はリアルに再現されることができる。移動体シミュレータ装置ではよりリアルに実地の運転状況が再現されることができる。
移動体シミュレータ装置は、車間距離データに不備が検出されると、不備以前の先行車の挙動に基づき仮想移動経路上で先行車の挙動を予測する挙動予測手段をさらに備えてもよい。
この移動体シミュレータ装置では、車間距離データの欠落といった具合に車間距離データに不備が検出されると、挙動予測手段は先行車の挙動を予測する。こうして予測される挙動に基づき先行車の画像は生成されることができる。先行車の画像は途切れなく映し出されることができる。一般に、例えばミリ波レーダといった車載型の測定装置が用いられる場合にはカーブや上り坂、下り坂で車間距離データの生成に不備が生じやすい。
移動体シミュレータ装置は、仮想移動経路上で予め設定される先行車の挙動特性を特定する挙動特性データを記憶する第3記憶装置をさらに備えてもよい。このとき、挙動予測手段は、挙動特性データで特定される挙動特性および前記不備以前の先行車の挙動に基づき先行車の挙動を特定すればよい。こうした挙動の特定によれば、比較的に高い精度で先行車の挙動は予測されることができる。
第2発明によれば、移動経路上で自車の位置を特定する自車位置データに基づき、任意の座標系で特定される仮想移動経路上で仮想自車位置を特定する手順と、所定の経過時間ごとに自車および先行車の間の車間距離を特定する車間距離データを取得する手順と、自車位置データおよび車間距離データに基づき仮想自車位置に対して仮想移動経路上で先行車の挙動を特定する手順と、特定される挙動に基づき、運転者の視界を再現する画像を作成する手順とを備えることを特徴とする移動体シミュレータ装置の制御方法が提供される。こういった制御方法によれば、前述のような移動体シミュレータ装置は提供されることができる。前述と同様に、この制御方法では、車間距離データに不備が検出されると、不備以前の先行車の挙動に基づき仮想移動経路上で先行車の挙動が予測されてもよい。その他、前述と同様に、挙動の予測にあたって、この制御方法は、仮想移動経路上で予め設定される先行車の挙動特性を特定する挙動特性データを取得する手順と、挙動特性および前記不備以前の先行車の挙動に基づき先行車の挙動を特定する手順とをさらに備えてもよい。
こういった制御方法の実現にあたって、所定の移動体シミュレータ装置用制御プログラムが提供されればよい。この移動体シミュレータ装置用制御プログラムは、移動経路上で自車の位置を特定する自車位置データに基づき、任意の座標系で特定される仮想移動経路上で仮想自車位置を特定する手順と、所定の経過時間ごとに自車および先行車の間の車間距離を特定する車間距離データを取得する手順と、自車位置データおよび車間距離データに基づき仮想自車位置に対して仮想移動経路上で先行車の挙動を特定する手順と、特定される挙動に基づき、運転者の視界を再現する画像を作成する手順とを演算処理回路に実行させればよい。移動体シミュレータ装置用プログラムは、車間距離データに不備が検出されると、不備以前の先行車の挙動に基づき仮想移動経路上で先行車の挙動を予測する手順とをさらに演算処理回路に実行させてもよい。ここで、移動体シミュレータ装置用制御プログラムは、挙動の予測にあたって、仮想移動経路上で予め設定される先行車の挙動特性を特定する挙動特性データを取得する手順と、挙動特性および前記不備以前の先行車の挙動に基づき先行車の挙動を特定する手順とをさらに演算処理回路に実行させてもよい。移動体シミュレータ装置用制御プログラムは、車間距離データに不備が検出されると、自車位置データおよび不備前の車間距離データに基づき仮想移動経路上で不備前の先行車の位置を特定する手順と、仮想移動経路の直線上で自車および先行車が特定されると、自車および先行車の間で一定の車間距離を設定する手順とをさらに演算処理回路に実行させてもよい。
以上のように本発明によれば、よりリアルに実地の運転状況を再現することができる移動体シミュレータ装置は提供される。そういった移動体シミュレータ装置の実現に大いに貢献する制御方法や制御プログラムは提供される。
以下、添付図面を参照しつつ本発明の一実施形態を説明する。
図1は本発明に係る移動体シミュレータ装置の一具体例すなわち自動車教習用4輪シミュレータ装置11の外観を概略的に示す。この4輪シミュレータ装置11は模擬車体12を備える。模擬車体12にはCPU(中央演算処理装置)やその他の電子部品が収容される。模擬車体12には例えば6軸のサーボシリンダ13、13…が連結される。個々のサーボシリンダ13は土台14から立ち上がる。土台14は例えば床面に設置されればよい。
サーボシリンダ13には電動モータ(図示されず)が組み込まれる。電動モータの働きでサーボシリンダ13は伸縮する。サーボシリンダ13の伸縮に基づき模擬車体12は床面に対して姿勢を変化させる。後述されるように、サーボシリンダ13の伸縮はCPUの演算処理に基づき実現される。
ここで、4輪シミュレータ装置11には三次元座標系が設定される。三次元座標系には例えば直交3軸座標系すなわちxyz座標系が用いられればよい。三次元座標系の原点は模擬車体12の重心に位置合わせされればよい。三次元座標系のy軸は重力の方向に合わせ込まれればよい。三次元座標系のx軸は例えば車両の車軸に平行に設定されればよい。すなわち、x軸は重力の方向に直交する水平面に沿って車両の横方向を規定する。三次元座標系のz軸は水平面に沿って車両の前後方向を規定する。こうして模擬車体12では、x軸回りで車両のピッチ角は規定されることができる。同様に、z軸回りで車両のロール角は規定されることができる。y軸回りで車両のヨー角は規定されることができる。こういったロール角、ピッチ角およびヨー角に基づき模擬車体12の姿勢は特定されることができる。
模擬車体12内には運転席が構築される。運転席には座席15が設置される。座席15の前方にはダッシュボード16が配置される。ダッシュボード16には、ステアリング17やアクセルペダル(図示されず)、ブレーキペダル(図示されず)が組み込まれる。その他、ダッシュボード16には、スピードメータやタコメータといった計器類やヘッドライトスイッチといったスイッチ類(いずれも図示されず)が組み込まれる。
ダッシュボード16の上方にはスクリーン18が配置される。スクリーン18にはいわゆるプロジェクタ19が向き合わせられる。後述されるように、プロジェクタ19からスクリーン18に画像が投影される。こうしてスクリーン18には、車両のフロントガラスから前方に広がる「視界」が再現されることができる。後述されるように、スクリーン18上の画像はCPUの働きに基づき形成される。
模擬車体12には模擬バックミラー21および1対の模擬サイドミラー22が関連付けられる。模擬バックミラー21や模擬サイドミラー22にはディスプレイ装置23、24が組み込まれる。ディスプレイ装置23、24の画面がミラーに模される。こうして模擬バックミラー21や模擬サイドミラー22には、車両のバックミラーやサイドミラーの映像が再現される。ディスプレイ装置23、24には例えば液晶ディスプレイパネルが利用されればよい。後述されるように、ディスプレイ装置23、24の画面に映し出される画像はCPUの働きに基づき形成される。
図2に示されるように、CPU31には個々のサーボシリンダ13、13…ごとにドライバ回路32、32…が接続される。CPU31では個々のサーボシリンダ13、13…ごとに伸縮量が決定される。決定された伸縮量に応じてCPU31から個々のドライバ回路32、32…に指令信号が供給される。供給される指令信号に応じてドライバ回路32、32…は対応のサーボシリンダ13、13…に駆動信号を供給する。駆動信号は電動モータの回転量を規定する。指定の回転量で電動モータが回転する結果、サーボシリンダ13、13…は指定の伸縮量で伸縮することができる。
アクセルペダル33にはペダルセンサ34が接続される。このペダルセンサ34はアクセルペダル33の踏み込み量を検出する。ペダルセンサ34にはCPU31が接続される。検出される踏み込み量はCPU31に通知される。同様に、ブレーキペダル35にはペダルセンサ36が接続される。このペダルセンサ36はブレーキペダル35の踏み込み量を検出する。ペダルセンサ36にはCPU31が接続される。検出される踏み込み量はCPU31に通知される。
ステアリング17にはステアリングセンサ37が接続される。このステアリングセンサ37はステアリング17の回転量を検出する。ステアリングセンサ37にはCPU31が接続される。検出される回転量はCPU31に通知される。
CPU31には描画回路38が接続される。描画回路38は、CPU31から供給される指令信号に基づき、スクリーン18やディスプレイ装置23、24の画面上に映し出される画像を生成する。こうして生成される画像に基づきドライバ回路39、41やプロジェクタドライバ回路42に画像信号が供給される。こういった画像信号の受信に応じて、ドライバ回路39、41やプロジェクタドライバ回路42は対応のディスプレイ装置23、24やプロジェクタ19に駆動信号を供給する。こうして供給される駆動信号に基づきディスプレイ装置23、24の画面上やスクリーン18上に画像は映し出される。
CPU31にはハードディスク駆動装置(HDD)や大容量フラッシュメモリといった記憶装置43が接続される。記憶装置43には例えばリアルタイムOS(オペレーティングシステム)44のほか、シミュレーションプログラム45や実地検証モジュール46といったソフトウェアプログラムが格納される。後述されるように、CPU31はリアルタイムOS44上でシミュレーションプログラム45や実地検証モジュール46を実行する。実行にあたって例えばCPU31はRAMメモリ47といった高速記憶装置に一時的にリアルタイムOS44やソフトウェアプログラム45、46を取り込む。シミュレーションプログラム45の実行にあたってCPU31は道路データ48や不動産データ49、自車座標系データ51を利用する。同様に、実地検証モジュール46の実行にあたってCPU31は仮想移動経路データ52や周辺地理データ53、先行車座標系データ54、加速度特性データ55を利用する。これらデータ48、49、51〜55の詳細は後述される。
CPU31にはメモリカードドライブ56が接続される。メモリカードドライブ56は可搬性のメモリカード57から情報を読み出すことができる。読み出された情報はCPU31に受け渡される。図2から明らかなように、メモリカード57から読み出される速度データ58や車間距離データ59は例えば記憶装置43に取り込まれてもよい。メモリカード57には例えばフラッシュメモリが利用されればよい。
その他、模擬車体12にはスピーカ61が関連付けられてもよい。スピーカ61には例えばドライバ回路62が接続される。ドライバ回路62はCPU31に接続される。CPU31では音響データが生成される。こういった音響データは、例えばスクリーン18に映し出される画像に関連付けられればよい。ドライバ回路62は、CPU31から供給される音響データに基づきスピーカ61に駆動信号を供給する。供給される駆動信号に基づきスピーカ61からエンジン音といった音響は再現される。
ここで、個々のデータ48、49、51〜55、58、59を詳述する。道路データ48には、仮想三次元空間内で道路の位置を特定する道路情報が記述される。位置の特定にあたって仮想三次元空間に固有の三次元座標系は用いられる。道路は例えば両側の側縁で規定されればよい。この道路データ48には同時に道路のポリゴンデータが記述される。こういったポリゴンデータに基づき仮想三次元空間内に仮想的に道路は再現される。こうして再現される道路には周囲の建物や樹木、標識といった不動産が関連付けられる。不動産の位置情報が記述される。この位置情報では不動産の基準点ごとに座標値が特定される。
不動産データ49には個々の不動産ごとにポリゴンデータが記述される。ポリゴンデータに基づき不動産の外観が特定される。このポリゴンデータが道路データ48内の位置情報に関連付けられると、前述の仮想三次元空間内で建物や樹木、標識といった不動産は再現される。こうして仮想三次元空間内に地理は構築される。
自車座標系データ51には、模擬車体12に対応する車両に固有の三次元座標系が記述される。この三次元座標系内で運転手の視点やフロントガラス、サイドウィンドウ、バックミラー、サイドミラーの位置が特定される。視点およびフロントガラスやサイドウィンドウの相対位置に応じて車両から外側に広がる視野が設定される。同様に、視点およびバックミラーの相対位置や視点およびサイドミラーの相対位置に基づきバックミラーやサイドミラーに映し出される映像の範囲は設定される。前述の仮想三次元空間内でこの三次元座標系の姿勢が相対的に変化すると、仮想三次元空間内で視野や映像の範囲は移動する。
仮想移動経路データ52には、仮想三次元空間内で教習行路の位置を特定する行路情報が記述される。位置は、前述と同様に、仮想三次元空間に固有の三次元座標系に基づき特定される。ここでは、教習行路は1本の「線」で表現される。この「線」には勾配データおよびヨー角データが関連付けられる。勾配データには所定の距離間隔で教習行路の勾配が記述される。勾配は重力方向に直交する水平面に対して設定される。したがって、勾配データに基づき上り坂や下り坂は特定される。一方で、ヨー角データには所定の距離間隔で仮想車両のヨー角が記述される。ヨー角は例えば仮想三次元空間に固有のx軸に基づき設定される。このx軸は重力方向に直交する水平面内に設定される。加えて、仮想移動経路データ52には教習行路のポリゴンデータが記述される。こういったポリゴンデータに基づき仮想三次元空間内に仮想的に教習行路は再現される。こうして再現される教習行路には、前述と同様に、周囲の建物や樹木、標識といった不動産が関連付けられてもよい。
周辺地理データ53には個々の不動産ごとにポリゴンデータが記述される。ポリゴンデータに基づき不動産の外観が特定される。このポリゴンデータが仮想移動経路データ52内の位置情報に関連付けられると、前述の仮想三次元空間内で建物や樹木、標識といった不動産は再現される。こうして仮想三次元空間内に地理は構築される。
先行車座標系データ54には先行車すなわち1台の車両に固有の三次元座標系が記述される。この三次元座標系内で車両の外観のポリゴンデータが設定される。前述の仮想三次元空間内でこの三次元座標系の姿勢が相対的に変化すると、仮想三次元空間内で先行車の姿勢は変化する。
加速度特性データ55には、教習行路中のカーブ、上り坂および下り坂ごとに走行車の加速度特性が記述される。この加速度特性では、カーブや上り坂、下り坂を通過する走行車の加速度の時間的変化が特定される。一定の時間間隔ごとに加速度の値は特定される。こういった加速度の値はカーブの曲率や上り坂および下り坂の斜度から幾何学的に導き出されてもよく走行中の車両の実測に基づき導き出されてもよい。こういった加速度特性データはカーブや上り坂、下り坂への進入速度ごとに特定されてもよい。
速度データ58には一定の時間間隔で車両の速度が記述される。時間間隔は例えば0.1秒に設定されればよい。車間距離データ59には一定の時間間隔で先行車と後続車との車間距離が記述される。時間間隔は例えば0.1秒に設定されればよい。
シミュレーションプログラム45がCPU31で実行されると、描画回路38で生成される画像データに基づきスクリーン18やディスプレイ装置23、24の画面上に画像は表示される。同時に、サーボシリンダ13、13…の伸縮に基づき模擬車体12の姿勢は変化する。こうして視覚および加速度の体感に基づき座席15上の教習生は4輪シミュレータ装置11上で運転感覚を体験することができる。
画像データの生成にあたってCPU31では道路データ48に基づき仮想三次元空間が構築される。この仮想三次元空間内で仮想車両の位置が特定される。位置の特定は所定の時間間隔で実施される。こういった位置に基づき自車座標系データ51内の三次元座標系は仮想三次元空間内に座標変換される。その結果、仮想三次元空間内に運転手の視点や視野は設定される。こういった視点や視野に基づき仮想三次元空間内で道路データ48中のポリゴンデータや不動産データ49中のポリゴンデータは特定される。特定されたポリゴンデータは規定の投影面上に座標変換される。こうして描画回路38ではポリゴンデータに基づきスクリーン18に映し出される画像が形成される。同様に、ディスプレイ装置23、24で映し出される画像は形成される。画像は所定の時間間隔で変化する。
仮想車両の位置の特定にあたってCPU31では所定の時間間隔ごとに仮想車両の移動距離が算出される。移動距離の算出にあたってCPU31は仮想車両の車速を算出する。算出にあたってCPU31は一定の時間間隔でアクセルペダル33の踏み込み量およびブレーキペダル35の踏み込み量を参照する。
4輪シミュレータ装置11上で運転手がアクセルペダル33を踏むと、踏み込み量が検出される。こういった検出は例えば一定の時間間隔(例えば0.1秒間隔)で実施されればよい。検出された踏み込み量はCPU31に通知される。CPU31は、予め決められた関係式に基づき踏み込み量から車両の加速度を導き出す。加速度は車両の前進方向で特定される。同時に、CPU31はその位置の仮想車両で重力に基づく減速度を算出する。この減速度の算出にあたってその位置の勾配が参照される。勾配は例えば道路データ48に基づき算出されればよい。こうして得られる加速度および減速度に基づき仮想車両の前進加速度が算出される。
続いてCPU31は前進加速度から仮想車両の車速を算出する。例えば前述の時間間隔で前進加速度の積分値が算出される。この車速に基づき移動距離は導き出される。例えば前述の時間間隔で車速の積分値が算出されればよい。こうして所定の時間間隔ごとに移動距離は特定される。こういった移動距離に基づき道路上で仮想車両の位置は特定される。こうして時間の経過に伴って仮想三次元空間内で仮想車両は走行する。
4輪シミュレータ装置11上で運転手がブレーキペダル35を踏むと、踏み込み量が検出される。こういった検出は例えば一定の時間間隔(例えば0.1秒間隔)で実施されればよい。検出された踏み込み量はCPU31に通知される。CPU31は、予め決められた関係式に基づき踏み込み量から車両の減速度を導き出す。減速度は車両の前進方向で特定される。同時に、CPU31はその位置の仮想車両で重力に基づく減速度を算出する。この減速度の算出にあたって前述と同様にその位置の勾配が参照される。こうして得られる減速度に基づき仮想車両の前進減速度が算出される。
続いてCPU31は前進減速度から仮想車両の車速を算出する。前述と同様に、前進減速度の積分値が算出される。この積分値は車速の減速分に相当する。以前の車速から積分値が差し引かれると、その位置の車速が得られる。車速に基づき移動距離は導き出される。こうして時間の経過に伴って仮想三次元空間内で仮想車両の減速は再現される。
自車座標系データ51の座標変換にあたってCPU31では所定の時間間隔で自車座標系データ51に固有の三次元座標系の姿勢が特定される。こういった特定にあたってCPU31は仮想車両のピッチ角およびロール角を算出する。ピッチ角の算出にあたってCPU31は前述の加減速度を利用する。同時にCPU31は道路の勾配を参照してもよい。勾配は仮想三次元空間内の位置に基づき例えば道路データ48から算出されればよい。ロール角の算出にあたってCPU31は仮想車両のヨー角を特定する。ヨー角の特定にあたってCPU31は一定の時間間隔でステアリング17の回転量を参照する。
4輪シミュレータ装置11上で運転手がステアリング17を回すと、回転量が検出される。こういった検出は、前述と同様に、例えば一定の時間間隔(例えば0.1秒間隔)で実施されればよい。検出された回転量はCPU31に通知される。CPU31は、予め決められた関係式に基づき回転量から車両のヨー角を導き出す。こうして一定の時間間隔ごとにヨー角の変化量は特定される。CPU31は、ヨー角の変化量と前述の車速とに基づき所定の関係式に従って仮想車両の横方向加速度を導き出す。この横方向加速度は旋回時の慣性力に相当する。こうして算出される横方向加速度に基づきCPU31は仮想車両のロール角を算出する。算出にあたって任意の関係式が用いられればよい。
サーボシリンダ13、13…の制御にあたってCPU31は前述のピッチ角およびロール角を利用する。例えば、ピッチ角の確立にあたって個々のサーボシリンダ13、13…に要求される伸縮量と、ロール角の確立にあたって個々のサーボシリンダ13、13…に要求される伸縮量とが個別に算出される。2つの伸縮量は重ね合わせられる。こうして模擬車体12では車両の挙動が再現される。設定されるピッチ角に基づき模擬車体12はx軸回りで回転する。こうして教習生は加速感や減速感を体験することができる。同時に、教習生は旋回時の横方向加速感を体験することができる。こういった模擬車体12の挙動がスクリーン18の視覚効果と相俟って4輪シミュレータ装置11では臨場感に溢れる模擬走行が実現されることができる。
いま、4輪シミュレータ装置11で実際の教習行路上の走行が再現される場面を想定する。走行の再現にあたってCPU31は速度データ58および車間距離データ59を取得する。ここでは、4輪シミュレータ装置11のメモリカードドライブ56にメモリカード57が差し込まれる。メモリカード57には予め教習用車両から速度データ58および車間距離データ59が取り込まれる。実地検証モジュール46の実行にあたってCPU31はRAMメモリ47上に速度データ58および車間距離データ59を保持すればよい。速度データ58や車間距離データ59は実地検証モジュール46の実行に先立って予めメモリカード57から記憶装置43に取り込まれてもよい。
図3に示されるように、教習用車両65上にはCAN(コントローラエリアネットワーク)66が構築される。CAN66には例えば速度計67およびミリ波レーダ68が接続される。コントローラ69は任意の時間間隔(例えば0.1秒間隔)で速度計67から車速[km/h]を取得する。同様に、コントローラ69は任意の時間間隔(例えば0.1秒間隔)でミリ波レーダ68から車間距離[m]を取得する。車間距離の取得にあたってミリ波レーダ68は前方に向かってミリ波を発信する。このミリ波レーダ68は先行車から反射するミリ波に基づき車間距離を計測する。ミリ波レーダ68は、16°の放射角で前方100[m]の放射範囲71内に存在する先行車に対して車間距離を計測することができる。取得された車速や車間距離は任意の記憶装置(図示されず)に格納されればよい。
教習用車両65上にはPCカード拡張パック72が搭載される。PCカード拡張パック72はCAN66に接続される。PCカード拡張パック72はCANインターフェースカード73を受け入れる。CANインターフェースカード73には例えば一般のPDA(携帯情報端末)74やモバイルPC(パーソナルコンピュータ)が接続されることができる。こういったPDA74やモバイルPCの働きでメモリカード57には速度データ58および車間距離データ59が取り込まれることができる。
前述のように、仮想移動経路データ52では教習行路は直線および曲線で表現される。ここでは、図4から明らかなように、教習行路75は長さ1000[m]の第1直線域76aと、長さ700[m]の第2および第3直線域76b、76cと、長さ400[m]の第4直線域76dとを備える。第1直線域76aと第2直線域76bとの間や第2直線域76bと第3直線域76cとの間、第4直線域76dと第1直線域76aとの間はそれぞれ曲率半径50[m]のカーブ77a〜77cで接続される。第3直線域76cと第4直線域76dとの間は曲率半径350[m]のカーブ77dで接続される。直線域76a〜76d同士の内角は90°に設定される。しかも、第3直線域76cには長さ100[m]の上り坂78aおよび長さ100[m]の下り坂78bが設定される。上り坂78aおよび下り坂78bの傾斜角は例えば15°に設定される。第1直線域76a上に走行開始位置79が設定される。個々のカーブ77a〜77dの開始位置や終了位置並びに上り坂78aおよび下り坂78bの開始位置および終了位置は走行開始位置79からの走行距離に基づき特定される。こうして教習行路75が決定されると、図5に示されるように、この教習行路75に固有の加速度特性データ55が確立される。
こういった教習行路75に基づき仮想移動経路データ52では勾配データおよびヨー角データが構築される。例えば、勾配データでは、開始位置および終了位置の間で所定の走行距離ごとに教習行路75の勾配が記述される。ヨー角データでは、個々のカーブ77a〜77dに対して開始位置および終了位置の間で所定の走行距離ごとにヨー角が記述される。ヨー角の計測にあたって、例えば走行開始位置79に設定される自車座標系データ51の三次元座標系が基準に設定される。
実地検証モジュール46が実行されると、規定の時間間隔で速度データ58および車間距離データ59がCPU31に取り込まれる。こういった速度データ58および車間距離データ59に基づき前述のシミュレーションプログラム45に従って画像データが生成されると同時にサーボシリンダ13、13…の伸縮は制御される。こうして視覚および加速度の体感に基づき座席15上の教習生は4輪シミュレータ装置11上で客観的に自己の運転を体感することができる。前述のように仮想三次元空間内で正確に運転手の視点や視線が再現されることから、スクリーン18上には違和感なく画像が映し出されることができる。
ここでは、画像データの作成にあたってCPU31では仮想移動経路データ52に基づき仮想三次元空間内に教習行路75が構築される。教習行路75上で車両の位置は特定される。位置の特定にあたって車両の走行距離が算出される。仮想三次元空間内では教習行路75は「線」で表現されることから、走行距離だけで教習行路75上で車両の位置は特定されることができる。こういった位置に基づき仮想三次元空間内で教習生の視点や視野は設定される。設定される視点や視野に基づき仮想移動経路データ52中のポリゴンデータや周辺地理データ53中のポリゴンデータが特定される。前述と同様に、描画回路38でポリゴンデータに基づきスクリーン18に映し出される画像は形成される。ただし、CPU31は、走行距離の算出にあたって速度データ58から実測値の車速を取り込む。ピッチ角やロール角の算出にあたってCPU31では仮想移動経路データ52中の勾配データやヨー角データが利用される。アクセルペダル33、ブレーキペダル35およびステアリング17が操作されなくても、時々刻々とスクリーン18上には画像が映し出される。同時に、時々刻々と模擬車体12の姿勢は変化する。
例えば図6に示されるように、画像の形成にあたって描画回路38では先行車座標系データ54中のポリゴンデータが併せて特定される。CPU31は、まずステップS1で、規定の経過時間ごとに時系列に車間距離データ59を取り込む。車間距離データ59が取り込まれると、CPU31はステップS2で先行車の位置を特定する。前述のように仮想三次元空間内では教習行路75は「線」で表現されることから、前述の走行距離に実測の車間距離が足し合わせられると、教習行路75上で先行車の位置は特定されることができる。こうして先行車の位置が決定されると、CPU31はステップS3で仮想移動経路データ52中のヨー角データに基づき先行車のヨー角すなわち向きを特定する。CPU31はステップS4で先行車座標系データ54に基づき仮想三次元空間内で先行車のポリゴンデータを特定する。特定されたポリゴンデータは規定の投影面上に座標変換される。こうしてスクリーン18に映し出される画像内では、例えば図7に示されるように、先行車の後ろ姿81は再現されることができる。教習生は客観的に自己の車間距離を体感することができる。
例えば実際の教習行路上では、カーブや上り坂、下り坂で先行車がミリ波の放射範囲71(放射角16°)から左右方向や上下方向に逸脱すると、ミリ波レーダ68は車間距離を計測することができない。同様に、実際の教習行路上で先行車および教習用車両65の車間距離が100[m]を超えると、ミリ波レーダ68は車間距離を計測することができない。こういった場合にはその時刻で車間距離データが欠落する。したがって、ステップS1でCPUは車間距離データを取り込むことができない。このとき、CPUの処理はステップS5に進む。
ステップS5で、CPU31は直前の先行車の位置に基づき先行車の位置を予測する。予測にあたってCPU31は前回の車間距離データの有無を確認する。ステップS5で車間距離データの取り込みが確認されると、ステップS6でCPU31は教習行路75上で直前の先行車の位置を確認する。その位置が第1〜第4カーブ77a〜77dや上り坂78a、下り坂78bで特定されると、CPU31の処理はステップS7に移行する。このステップS7でCPU31は直前の先行車の位置に対応する第1〜第4カーブ77a〜77d、上り坂78aまたは下り坂78bに固有の加速度特性データ55を参照する。CPU31は規定の時間間隔で加速度の変化量を読み出す。このとき、加速度特性データ55では経過時間が記録される。
続くステップS8でCPU31は加速度の変化量から先行車の速度を予測する。予測にあたって加速度の積分値が算出されればよい。積分値は車速に足し合わせられる。こうして予測車速は導き出される。ステップS9でCPU31は予測車速に基づき予測走行距離を算出する。この予測走行距離に基づきステップS10で先行車の予測位置は特定されることができる。
ステップS5で車間距離データの取り込みが否定されると、CPU31はステップS11で前回の処理で利用された加速度特性データ55を再び参照する。CPU31は、記録された経過時間に後続する規定の時間間隔で加速度の変化量を読み出す。こうして前述と同様に加速度の変化量に基づきステップS12で先行車の予測車速は特定される。加速度の積分値は前回の予測車速に足し合わせられる。こうして計算し直された予測車速に基づきステップS13で予測走行距離は算出される。こうして再び予測走行距離に基づきステップS14で先行車の予測位置は特定されることができる。
以上のように先行車の予測位置が特定されると、ステップS3で予測位置に応じてヨー角は特定される。前述と同様に、CPU31はステップS4で先行車座標系データ54に基づき仮想三次元空間内で先行車のポリゴンデータを特定する。こうしてスクリーン18には車間距離データの欠落にも拘わらず先行車の後ろ姿は映し出される。教習生は途切れなく自己の車間距離を体感することができる。
ステップS6で直前の先行車の位置が第1〜第4直線域76a〜76d(上り坂78aおよび下り坂78bは除かれる)で確認されると、CPU31の処理はステップS15に移行する。このステップS15で、CPU31は、教習用車両65の位置が第1〜第4カーブ77a〜77d、上り坂78aおよび下り坂78bの手前100[m]の範囲内で特定されるか否を判定する。この範囲内で特定されれば、CPU31では、直前の先行車の位置は第1〜第4直線域76a〜76d上で特定されたものの、現在の先行車は第1〜第4カーブ77a〜77dや上り坂78a、下り坂78bに進入したと判断される。こうしてCPU31は前述と同様に第1〜第4カーブ77a〜77d、上り坂78aおよび下り坂78b上で先行車の位置を特定する。すなわち、CPU31の処理はステップS7に移行する。第1〜第4直線域76a〜76d上であって前述の範囲以外で教習用車両65の位置が特定されると、先行車は教習用車両65の前方100[m]の範囲よりも前方に位置すると判断される。CPU31はステップS16で車間距離に一定値すなわち100[m]を設定する。CPU31はステップS16で設定された車間距離に基づき先行車の位置を特定する。その後、CPU31の処理はステップS3に移行する。こうして教習生は一層正確に自己の車間距離を体感することができる。
なお、前述の実地検証モジュール46では、教習行路75上に上り坂78aや下り坂78bが存在しなければ、上り坂78aや下り坂78bの処理は省略されればよい。実地検証モジュール46では、先行車の位置の予測にあたって、前述の加速度特性データ55に代えて速度特性その他のパラメータが用いられてもよい。
11 移動体シミュレータ装置としての4輪シミュレータ装置、31 挙動特定手段、挙動予測手段および画像作成手段としてのCPU(中央演算処理装置)、38 画像作成手段としての描画回路、43 第1〜第3記憶装置、45 移動体シミュレータ装置用制御プログラムとしてのシミュレーションプログラム、46 移動体シミュレータ装置用制御プログラムとしての実地検証モジュール、47 第1および第2記憶装置としてのRAMメモリ、55 挙動特性データとしての加速度特性データ、57 第1および第2記憶装置としてのメモリーカード、58 自車位置データ、59 車間距離データ。
Claims (10)
- 任意の座標系で特定される仮想移動経路上で仮想自車位置を特定する自車位置データを記憶する第1記憶装置と、所定の経過時間ごとに自車および先行車の間の車間距離を特定する車間距離データを記憶する第2記憶装置と、自車位置データおよび車間距離データに基づき仮想自車位置に対して仮想移動経路上で先行車の挙動を特定する挙動特定手段と、特定される挙動に基づき、運転者の視界を再現する画像を作成する画像作成手段とを備えることを特徴とする移動体シミュレータ装置。
- 請求項1に記載の移動体シミュレータ装置において、車間距離データに不備が検出されると、不備以前の先行車の挙動に基づき仮想移動経路上で先行車の挙動を予測する挙動予測手段をさらに備えることを特徴とする移動体シミュレータ装置。
- 請求項2に記載の移動体シミュレータ装置において、仮想移動経路上で予め設定される先行車の挙動特性を特定する挙動特性データを記憶する第3記憶装置をさらに備え、前記挙動予測手段は、挙動特性データで特定される挙動特性および前記不備以前の先行車の挙動に基づき先行車の挙動を特定することを特徴とする移動体シミュレータ装置。
- 移動経路上で自車の位置を特定する自車位置データに基づき、任意の座標系で特定される仮想移動経路上で仮想自車位置を特定する手順と、所定の経過時間ごとに自車および先行車の間の車間距離を特定する車間距離データを取得する手順と、自車位置データおよび車間距離データに基づき仮想自車位置に対して仮想移動経路上で先行車の挙動を特定する手順と、特定される挙動に基づき、運転者の視界を再現する画像を作成する手順とを備えることを特徴とする移動体シミュレータ装置の制御方法。
- 請求項4に記載の移動体シミュレータ装置の制御方法において、車間距離データに不備が検出されると、不備以前の先行車の挙動に基づき仮想移動経路上で先行車の挙動を予測する手順をさらに備えることを特徴とする移動体シミュレータ装置の制御方法。
- 請求項5に記載の移動体シミュレータ装置の制御方法において、前記挙動の予測にあたって、仮想移動経路上で予め設定される先行車の挙動特性を特定する挙動特性データを取得する手順と、挙動特性および前記不備以前の先行車の挙動に基づき先行車の挙動を特定する手順とをさらに備えることを特徴とする移動体シミュレータ装置の制御方法。
- 移動経路上で自車の位置を特定する自車位置データに基づき、任意の座標系で特定される仮想移動経路上で仮想自車位置を特定する手順と、所定の経過時間ごとに自車および先行車の間の車間距離を特定する車間距離データを取得する手順と、自車位置データおよび車間距離データに基づき仮想自車位置に対して仮想移動経路上で先行車の挙動を特定する手順と、特定される挙動に基づき、運転者の視界を再現する画像を作成する手順とを演算処理回路に実行させることを特徴とする移動体シミュレータ装置用制御プログラム。
- 請求項7に記載の移動体シミュレータ装置用制御プログラムにおいて、車間距離データに不備が検出されると、不備以前の先行車の挙動に基づき仮想移動経路上で先行車の挙動を予測する手順をさらに演算処理回路に実行させることを特徴とする移動体シミュレータ装置用制御プログラム。
- 請求項8に記載の移動体シミュレータ装置用制御プログラムにおいて、前記挙動の予測にあたって、仮想移動経路上で予め設定される先行車の挙動特性を特定する挙動特性データを取得する手順と、挙動特性および前記不備以前の先行車の挙動に基づき先行車の挙動を特定する手順とをさらに演算処理回路に実行させることを特徴とする移動体シミュレータ装置用制御プログラム。
- 請求項8に記載の移動体シミュレータ装置用制御プログラムにおいて、車間距離データに不備が検出されると、自車位置データおよび不備前の車間距離データに基づき仮想移動経路上で不備前の先行車の位置を特定する手順と、仮想移動経路の直線上で自車および先行車が特定されると、自車および先行車の間で一定の車間距離を設定する手順とをさらに演算処理回路に実行させることを特徴とする移動体シミュレータ装置用制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005284243A JP2007094080A (ja) | 2005-09-29 | 2005-09-29 | 移動体シミュレータ装置およびその制御方法並びに制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005284243A JP2007094080A (ja) | 2005-09-29 | 2005-09-29 | 移動体シミュレータ装置およびその制御方法並びに制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007094080A true JP2007094080A (ja) | 2007-04-12 |
Family
ID=37979872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005284243A Pending JP2007094080A (ja) | 2005-09-29 | 2005-09-29 | 移動体シミュレータ装置およびその制御方法並びに制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007094080A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108806371A (zh) * | 2018-08-31 | 2018-11-13 | 成都杏仁网络科技有限公司 | 一种基于驾考科目训练的智能判定方法及系统 |
-
2005
- 2005-09-29 JP JP2005284243A patent/JP2007094080A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108806371A (zh) * | 2018-08-31 | 2018-11-13 | 成都杏仁网络科技有限公司 | 一种基于驾考科目训练的智能判定方法及系统 |
CN108806371B (zh) * | 2018-08-31 | 2020-06-26 | 成都的卢青创网络科技有限公司 | 一种基于驾考科目训练的智能判定方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109215433B (zh) | 用于自动驾驶仿真的基于视觉的驾驶场景生成器 | |
US11378956B2 (en) | Perception and planning collaboration framework for autonomous driving | |
EP3345086B1 (en) | A physical model and machine learning combined method to simulate autonomous vehicle movement | |
US11113971B2 (en) | V2X communication-based vehicle lane system for autonomous vehicles | |
KR102042946B1 (ko) | 자율 주행 차량을 위한 감속 연석 기반 방향 검출 및 차선 유지 시스템 | |
JP2022524168A (ja) | 半自動車両のステアリングにおける運転者の意図を判定するための方法およびシステム | |
US20180178791A1 (en) | Method to dynamically adjusting speed control rates of autonomous vehicles | |
EP3518066A1 (en) | Method and system for generating reference lines for autonomous driving vehicles using multiple threads | |
US20200334985A1 (en) | Parking management architecture for parking autonomous driving vehicles | |
JP7371629B2 (ja) | 情報処理装置、情報処理方法、プログラム、及び、車両 | |
JP2017109616A (ja) | 車両用制御装置 | |
JP2008236403A (ja) | 車両用運転支援装置 | |
Goedicke et al. | Xr-oom: Mixing virtual driving simulation with real cars and environments safely | |
US11126763B1 (en) | Realism metric for testing software for controlling autonomous vehicles | |
JP4493575B2 (ja) | 移動体シミュレータ装置およびその制御方法並びに制御プログラム | |
US11392140B2 (en) | Two inertial measurement units and GPS based localization system for an autonomous driving truck | |
JP2007094080A (ja) | 移動体シミュレータ装置およびその制御方法並びに制御プログラム | |
JPH08248871A (ja) | 自動車模擬運転装置 | |
JP2007094081A (ja) | 移動体シミュレータ装置およびその制御方法並びに制御プログラム | |
US10788839B2 (en) | Planning-control collaboration design for low cost autonomous driving technology | |
JP2010151939A (ja) | 運転模擬試験装置、及びプログラム | |
JP2007323001A (ja) | 画像表示装置 | |
Weiss et al. | Combining virtual reality and steer-by-wire systems to validate driver assistance concepts | |
JP2003233298A (ja) | ナビゲーション装置の評価システム | |
JP7442726B1 (ja) | 情報処理装置及び情報処理方法 |