JP4493575B2 - 移動体シミュレータ装置およびその制御方法並びに制御プログラム - Google Patents

移動体シミュレータ装置およびその制御方法並びに制御プログラム Download PDF

Info

Publication number
JP4493575B2
JP4493575B2 JP2005284245A JP2005284245A JP4493575B2 JP 4493575 B2 JP4493575 B2 JP 4493575B2 JP 2005284245 A JP2005284245 A JP 2005284245A JP 2005284245 A JP2005284245 A JP 2005284245A JP 4493575 B2 JP4493575 B2 JP 4493575B2
Authority
JP
Japan
Prior art keywords
image
course
virtual
vehicle
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005284245A
Other languages
English (en)
Other versions
JP2007094082A (ja
Inventor
達彦 阿波根
啓一郎 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2005284245A priority Critical patent/JP4493575B2/ja
Publication of JP2007094082A publication Critical patent/JP2007094082A/ja
Application granted granted Critical
Publication of JP4493575B2 publication Critical patent/JP4493575B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、例えば自動車といった移動体の挙動を再現するシミュレータ装置に関する。
例えば特許文献1に開示されるように、自動車教習用のシミュレータ装置は広く知られる。このシミュレータ装置では、座席の前方でスクリーンに映し出される画像に基づき教習生は脇見運転の危険性を体感することができる。
特開平11−3027号公報
しかしながら、前述のシミュレータ装置では脇見運転の再現にあたって進路上に突然に車両が映し出される。脇見運転とはいえ、教習生は正しく前方の進路を注視し続けることができる。教習生は突然の車両の出現に違和感を感じてしまう。リアルさに欠ける。
本発明は、上記実状に鑑みてなされたもので、よりリアルに脇見運転を再現することができる移動体シミュレータ装置を提供することを目的とする。本発明は、そういった移動体シミュレータ装置の実現に大いに貢献する制御方法や制御プログラムを提供することを目的とする。
上記目的を達成するために、第1発明によれば、座席と、座席の前方に配置されて、運転手の視界を再現する画像中に進路上の前方注視点を映し出す画像表示装置と、第1タイミングで、前方注視点から離れた脇見注視点に視線の移動を誘引する事象を生成する第1事象生成手段と、第1タイミングから所定時間経過後の第2タイミングで、第1タイミングでは予測不可能な事象を生成する第2事象生成手段とを備えることを特徴とする移動体シミュレータ装置が提供される。
移動体シミュレータ装置の動作中、画像上で運転手の視界は再現される。座席上の使用者は画像上で進路上の前方注視点に視線を向ける。使用者の意識は前方注視点に集中する。第1タイミングで事象が生成されると、使用者の視線は前方注視点から脇見注視点に移行する。使用者の意識は脇見注視点に集中する。いわゆる脇見は実現される。脇見に応じて第2タイミングで事象は生成されることができる。こういった事象に基づき使用者は脇見運転の危険性をリアルに体感することができる。
こういった移動体シミュレータ装置の実現にあたって特定の制御方法は提供される。この制御方法は、例えば、画像表示装置上で、運転手の視界を再現する画像中に進路上の前方注視点を映し出す手順と、第1タイミングで、前方注視点から離れた脇見注視点に視線の移動を誘引する事象を第1事象生成手段で生成させる手順と、第1タイミングから所定時間経過後の第2タイミングで、第1タイミングでは予測不可能な事象を第2事象生成手段で生成させる手順とを備えればよい。このとき、画像表示装置には、運転手の視界を再現する画像中に進路上の前方注視点を映し出す画像データが供給されればよい。
この種の制御方法の実現にあたって特定の制御プログラムが提供されてもよい。この制御プログラムは、例えば、画像表示装置上で、運転手の視界を再現する画像中に進路上の前方注視点を映し出す手順と、第1タイミングで、前方注視点から離れた脇見注視点に視線の移動を誘引する事象を第1事象生成手段で生成させる手順と、第1タイミングから所定時間経過後の第2タイミングで、第1タイミングでは予測不可能な事象を第2事象生成手段で生成させる手順とを演算処理回路に実行させればよい。その他、任意の座標系で特定される仮想三次元空間内で基準位置を特定する手順と、基準位置の移動体の速度を特定する速度データに基づき、所定時間経過後の第1タイミングで移動体の予測到達位置を特定する手順と、第1タイミングで、運転手の視界を再現する画像中に映し出される進路上の前方注視点から離れた脇見注視点に視線の移動を誘引する事象を生成させる第1事象データを出力する手順と、第1タイミングから所定時間経過後の第2タイミングで、第1タイミングでは予測不可能な事象を生成させる第2事象データを出力する手順とを演算処理回路に実行させる制御プログラムが提供されてもよい。このとき、画像表示装置には、運転手の視界を再現する画像中に進路上の前方注視点を映し出す画像データが供給されればよい。画像データは、演算処理回路で生成されてもよく、演算処理回路からの指示に基づき画像処理回路で生成されてもよい。
第2発明によれば、座席と、座席の前方に配置されて、運転手の視界を再現する画像中に進路を映し出す画像表示装置と、仮想三次元空間内で特定される基準位置の移動体の速度に基づき所定時間経過後の移動体の予測到達位置を算出し、画像上で予測到達位置を特定する演算手段と、特定された予測到達位置に基づき、画像上で進路から外れた位置に注視物を描き出す画像生成手段とを備えることを特徴とする移動体シミュレータ装置が提供される。
移動体シミュレータ装置の動作中、座席上の使用者は画像中の進路に意識を集中する。画像中に注視物が描き出されると、使用者の視線は進路から注視物に移行する。使用者の意識は進路から離れる。いわゆる脇見は実現される。脇見に応じて何らかの事象が生成されると、こういった事象に基づき使用者は脇見運転の危険性をリアルに体感することができる。
ここで、演算手段は、予測到達位置の算出にあたって、基準位置の移動体の加速度をさらに参照してもよい。加速度の参照によれば、予測到達位置の精度は高められることができる。画像生成手段は、注視物を描き出した後、画像中の進路上で移動を停止する先行移動体を描き出してもよい。こういった事象に基づき使用者は脇見運転の危険性をリアルに体感することができる。
こういった移動体シミュレータ装置の実現にあたって特定の制御方法は提供される。この制御方法は、例えば、画像表示装置上で、運転手の視界を再現する画像中に進路を映し出す手順と、仮想三次元空間内で特定される基準位置での移動体の速度に基づき、所定時間経過後の移動体の予測到達位置を算出する手順と、画像上で予測到達位置を特定する手順と、特定された予測到達位置に基づき、画像上で進路から外れた位置に注視物を映し出す手順とを備えればよい。このとき、画像表示装置には、運転手の視界を再現する画像中に進路上の前方注視点を映し出す画像データが供給されればよい。基準位置の特定にあたって仮想三次元空間は任意の座標系に従って特定されればよい。
この種の制御方法の実現にあたって特定の制御プログラムが提供されてもよい。この制御プログラムは、例えば、画像表示装置上で、運転手の視界を再現する画像中に進路を映し出す手順と、仮想三次元空間内で特定される基準位置での移動体の速度に基づき、所定時間経過後の移動体の予測到達位置を算出する手順と、画像上で予測到達位置を特定する手順と、特定された予測到達位置に基づき、画像上で進路から外れた位置に注視物を映し出す手順とを演算処理回路に実行させればよい。その他、運転手の視界を再現する画像中に進路を映し出す画像データを提供する手順と、任意の座標系で特定される仮想三次元空間内で基準位置を特定する手順と、基準位置の移動体の速度を特定する速度データに基づき、所定時間経過後の移動体の予測到達位置を算出する手順と、画像上で予測到達位置を特定する手順と、特定された予測到達位置に基づき、画像上で進路から外れた位置に注視物を映し出す画像データを提供する手順とを演算処理回路に実行させる制御プログラムが提供されてもよい。このとき、画像データは、演算処理回路で生成されてもよく、演算処理回路からの指示に基づき画像処理回路で生成されてもよい。
以上のように本発明によれば、よりリアルに脇見運転は再現されることができる。
以下、添付図面を参照しつつ本発明の一実施形態を説明する。
図1は本発明に係る移動体シミュレータ装置の一具体例すなわち自動車教習用4輪シミュレータ装置11の外観を概略的に示す。この4輪シミュレータ装置11は模擬車体12を備える。模擬車体12にはCPU(中央演算処理装置)やその他の電子部品が収容される。模擬車体12には例えば6軸のサーボシリンダ13、13…が連結される。個々のサーボシリンダ13は土台14から立ち上がる。土台14は例えば床面に設置されればよい。
サーボシリンダ13には電動モータ(図示されず)が組み込まれる。電動モータの働きでサーボシリンダ13は伸縮する。サーボシリンダ13の伸縮に基づき模擬車体12は床面に対して姿勢を変化させる。後述されるように、サーボシリンダ13の伸縮はCPUの演算処理に基づき実現される。
ここで、4輪シミュレータ装置11には三次元座標系が設定される。三次元座標系には例えば直交3軸座標系すなわちxyz座標系が用いられればよい。三次元座標系の原点は模擬車体12の重心に位置合わせされればよい。三次元座標系のy軸は重力の方向に合わせ込まれればよい。三次元座標系のx軸は例えば車両の車軸に平行に設定されればよい。すなわち、x軸は重力の方向に直交する水平面に沿って車両の横方向を規定する。三次元座標系のz軸は水平面に沿って車両の前後方向を規定する。こうして模擬車体12では、x軸回りで車両のピッチ角は規定されることができる。同様に、z軸回りで車両のロール角は規定されることができる。y軸回りで車両のヨー角は規定されることができる。こういったロール角、ピッチ角およびヨー角に基づき模擬車体12の姿勢は特定されることができる。
模擬車体12内には運転席が構築される。運転席には座席15が設置される。座席15の前方にはダッシュボード16が配置される。ダッシュボード16には、ステアリング17やアクセルペダル(図示されず)、ブレーキペダル(図示されず)が組み込まれる。その他、ダッシュボード16には、スピードメータやタコメータといった計器類やヘッドライトスイッチといったスイッチ類(いずれも図示されず)が組み込まれる。
ダッシュボード16の上方にはスクリーン18が配置される。スクリーン18にはいわゆるプロジェクタ19が向き合わせられる。後述されるように、プロジェクタ19からスクリーン18に画像が投影される。こうしてスクリーン18には、車両のフロントガラスから前方に広がる「視界」が再現されることができる。後述されるように、スクリーン18上の画像はCPUの働きに基づき形成される。
模擬車体12には模擬バックミラー21および1対の模擬サイドミラー22が関連付けられる。模擬バックミラー21や模擬サイドミラー22にはディスプレイ装置23、24が組み込まれる。ディスプレイ装置23、24の画面がミラーに模される。こうして模擬バックミラー21や模擬サイドミラー22には、車両のバックミラーやサイドミラーの映像が再現される。ディスプレイ装置23、24には例えば液晶ディスプレイパネルが利用されればよい。後述されるように、ディスプレイ装置23、24の画面に映し出される画像はCPUの働きに基づき形成される。
図2に示されるように、CPU31には個々のサーボシリンダ13、13…ごとにドライバ回路32、32…が接続される。CPU31では個々のサーボシリンダ13、13…ごとに伸縮量が決定される。決定された伸縮量に応じてCPU31から個々のドライバ回路32、32…に指令信号が供給される。供給される指令信号に応じてドライバ回路32、32…は対応のサーボシリンダ13、13…に駆動信号を供給する。駆動信号は電動モータの回転量を規定する。指定の回転量で電動モータが回転する結果、サーボシリンダ13、13…は指定の伸縮量で伸縮することができる。
アクセルペダル33にはペダルセンサ34が接続される。このペダルセンサ34はアクセルペダル33の踏み込み量を検出する。ペダルセンサ34にはCPU31が接続される。検出される踏み込み量はCPU31に通知される。同様に、ブレーキペダル35にはペダルセンサ36が接続される。このペダルセンサ36はブレーキペダル35の踏み込み量を検出する。ペダルセンサ36にはCPU31が接続される。検出される踏み込み量はCPU31に通知される。
ステアリング17にはステアリングセンサ37が接続される。このステアリングセンサ37はステアリング17の回転量を検出する。ステアリングセンサ37にはCPU31が接続される。検出される回転量はCPU31に通知される。
CPU31には描画回路38が接続される。描画回路38は、CPU31から供給される指令信号に基づき、スクリーン18やディスプレイ装置23、24の画面上に映し出される画像を生成する。こうして生成される画像に基づきドライバ回路39、41やプロジェクタドライバ回路42に画像信号が供給される。こういった画像信号の受信に応じて、ドライバ回路39、41やプロジェクタドライバ回路42は対応のディスプレイ装置23、24やプロジェクタ19に駆動信号を供給する。こうして供給される駆動信号に基づきディスプレイ装置23、24の画面上やスクリーン18上に画像は映し出される。
CPU31にはハードディスク駆動装置(HDD)や大容量フラッシュメモリといった記憶装置43が接続される。記憶装置43には例えばリアルタイムOS(オペレーティングシステム)44のほか、シミュレーションプログラム45や脇見運転モジュール46といったソフトウェアプログラムが格納される。後述されるように、CPU31はリアルタイムOS44上でシミュレーションプログラム45や脇見運転モジュール46を実行する。実行にあたって例えばCPU31はRAMメモリ47といった高速記憶装置に一時的にリアルタイムOS44やソフトウェアプログラム45、46を取り込む。シミュレーションプログラム45の実行にあたってCPU31は道路データ48や不動産データ49、自車座標系データ51を利用する。同様に、脇見運転モジュール46の実行にあたってCPU31は仮想移動経路データ52や周辺地理データ53、先行車座標系データ54、注視物データ55、色データ56を利用する。これらデータ48、49、51〜56の詳細は後述される。
CPU31にはタイマ57が接続される。このタイマ57は、CPU31から出力されるトリガ信号の受信に応じて計時を開始する。決められた時間が経過すると、タイマ57はCPU31に向かって通知信号を出力する。
その他、模擬車体12にはスピーカ58が関連付けられてもよい。スピーカ58には例えばドライバ回路59が接続される。ドライバ回路59はCPU31に接続される。CPU31では音響データが生成される。こういった音響データは、例えばスクリーン18に映し出される画像に関連付けられればよい。ドライバ回路59は、CPU31から供給される音響データに基づきスピーカ58に駆動信号を供給する。供給される駆動信号に基づきスピーカ58からエンジン音といった音響は再現される。
ここで、個々のデータ48、49、51〜56を詳述する。道路データ48には、仮想三次元空間内で道路の位置を特定する道路情報が記述される。位置の特定にあたって仮想三次元空間に固有の三次元座標系は用いられる。道路は例えば両側の側縁で規定されればよい。この道路データ48には同時に道路のポリゴンデータが記述される。こういったポリゴンデータに基づき仮想三次元空間内に仮想的に道路は再現される。こうして再現される道路には周囲の建物や樹木、標識といった不動産が関連付けられる。不動産の位置情報が記述される。この位置情報では不動産の基準点ごとに座標値が特定される。
不動産データ49には個々の不動産ごとにポリゴンデータが記述される。ポリゴンデータに基づき不動産の外観が特定される。このポリゴンデータが道路データ48内の位置情報に関連付けられると、前述の仮想三次元空間内で建物や樹木、標識といった不動産は再現される。こうして仮想三次元空間内に地理は構築される。
自車座標系データ51には、模擬車体12に対応する車両に固有の三次元座標系が記述される。この三次元座標系内で運転手の視点やフロントガラス、サイドウィンドウ、バックミラー、サイドミラーの位置が特定される。視点およびフロントガラスやサイドウィンドウの相対位置に応じて車両から外側に広がる視野が設定される。同様に、視点およびバックミラーの相対位置や視点およびサイドミラーの相対位置に基づきバックミラーやサイドミラーに映し出される映像の範囲は設定される。前述の仮想三次元空間内でこの三次元座標系の姿勢が相対的に変化すると、仮想三次元空間内で視野や映像の範囲は移動する。
仮想移動経路データ52には、仮想三次元空間内で教習行路の位置を特定する行路情報が記述される。位置は、前述と同様に、仮想三次元空間に固有の三次元座標系に基づき特定される。ここでは、教習行路は1本の「線」で表現される。この「線」には勾配データおよびヨー角データが関連付けられる。勾配データには所定の距離間隔で教習行路の勾配が記述される。勾配は重力方向に直交する水平面に対して設定される。したがって、勾配データに基づき上り坂や下り坂は特定される。一方で、ヨー角データには所定の距離間隔で仮想車両のヨー角が記述される。ヨー角は例えば仮想三次元空間に固有のx軸に基づき設定される。このx軸は重力方向に直交する水平面内に設定される。加えて、仮想移動経路データ52には教習行路のポリゴンデータが記述される。こういったポリゴンデータに基づき仮想三次元空間内に仮想的に教習行路は再現される。こうして再現される教習行路には、前述と同様に、周囲の建物や樹木、標識といった不動産が関連付けられてもよい。
周辺地理データ53には個々の不動産ごとにポリゴンデータが記述される。ポリゴンデータに基づき不動産の外観が特定される。このポリゴンデータが仮想移動経路データ52内の位置情報に関連付けられると、前述の仮想三次元空間内で建物や樹木、標識といった不動産は再現される。こうして仮想三次元空間内に地理は構築される。
先行車座標系データ54には先行車すなわち1台の車両に固有の三次元座標系が記述される。この三次元座標系内で車両の外観のポリゴンデータが設定される。前述の仮想三次元空間内でこの三次元座標系の姿勢が相対的に変化すると、仮想三次元空間内で先行車の姿勢は変化する。
注視物データ55には注視物のポリゴンデータが記述される。ポリゴンデータに基づき注視物の外観は特定される。このポリゴンデータが仮想移動経路データ52中の教習行路に関連付けられると、前述の三次元空間内に注視物は再現される。色データ56には注視物の色が記述される。色は背景色の種類に応じてそれぞれ設定される。個々の色には、背景色中で目立つ色が選択されればよい。例えば背景色が黄色や白といった明るい色であれば注視物の色には濃い青や黒といった濃い色が選択される。反対に、例えば背景色が濃い青や黒といった濃い色であれば注視物の色には黄色や白といった明るい色が選択される。
シミュレーションプログラム45がCPU31で実行されると、描画回路38で生成される画像データに基づきスクリーン18やディスプレイ装置23、24の画面上に画像は表示される。同時に、サーボシリンダ13、13…の伸縮に基づき模擬車体12の姿勢は変化する。こうして視覚および加速度の体感に基づき座席15上の教習生は4輪シミュレータ装置11上で運転感覚を体験することができる。
画像データの生成にあたってCPU31では道路データ48に基づき仮想三次元空間が構築される。この仮想三次元空間内で仮想車両の位置が特定される。位置の特定は所定の時間間隔で実施される。こういった位置に基づき自車座標系データ51内の三次元座標系は仮想三次元空間内に座標変換される。その結果、仮想三次元空間内に運転手の視点や視野は設定される。こういった視点や視野に基づき仮想三次元空間内で道路データ48中のポリゴンデータや不動産データ49中のポリゴンデータは特定される。特定されたポリゴンデータは規定の投影面上に座標変換される。こうして描画回路38ではポリゴンデータに基づきスクリーン18に映し出される画像が形成される。同様に、ディスプレイ装置23、24で映し出される画像は形成される。画像は所定の時間間隔で変化する。
仮想車両の位置の特定にあたってCPU31では所定の時間間隔ごとに仮想車両の移動距離が算出される。移動距離の算出にあたってCPU31は仮想車両の車速を算出する。算出にあたってCPU31は一定の時間間隔でアクセルペダル33の踏み込み量およびブレーキペダル35の踏み込み量を参照する。
4輪シミュレータ装置11上で運転手がアクセルペダル33を踏むと、踏み込み量が検出される。こういった検出は例えば一定の時間間隔(例えば0.1秒間隔)で実施されればよい。検出された踏み込み量はCPU31に通知される。CPU31は、予め決められた関係式に基づき踏み込み量から車両の加速度を導き出す。加速度は車両の前進方向で特定される。同時に、CPU31はその位置の仮想車両で重力に基づく減速度を算出する。この減速度の算出にあたってその位置の勾配が参照される。勾配は例えば道路データ48に基づき算出されればよい。こうして得られる加速度および減速度に基づき仮想車両の前進加速度が算出される。
続いてCPU31は前進加速度から仮想車両の車速を算出する。例えば前述の時間間隔で前進加速度の積分値が算出される。この車速に基づき移動距離は導き出される。例えば前述の時間間隔で車速の積分値が算出されればよい。こうして所定の時間間隔ごとに移動距離は特定される。こういった移動距離に基づき道路上で仮想車両の位置は特定される。こうして時間の経過に伴って仮想三次元空間内で仮想車両は走行する。
4輪シミュレータ装置11上で運転手がブレーキペダル35を踏むと、踏み込み量が検出される。こういった検出は例えば一定の時間間隔(例えば0.1秒間隔)で実施されればよい。検出された踏み込み量はCPU31に通知される。CPU31は、予め決められた関係式に基づき踏み込み量から車両の減速度を導き出す。減速度は車両の前進方向で特定される。同時に、CPU31はその位置の仮想車両で重力に基づく減速度を算出する。この減速度の算出にあたって前述と同様にその位置の勾配が参照される。こうして得られる減速度に基づき仮想車両の前進減速度が算出される。
続いてCPU31は前進減速度から仮想車両の車速を算出する。前述と同様に、前進減速度の積分値が算出される。この積分値は車速の減速分に相当する。以前の車速から積分値が差し引かれると、その位置の車速が得られる。車速に基づき移動距離は導き出される。こうして時間の経過に伴って仮想三次元空間内で仮想車両の減速は再現される。
自車座標系データ51の座標変換にあたってCPU31では所定の時間間隔で自車座標系データ51に固有の三次元座標系の姿勢が特定される。こういった特定にあたってCPU31は仮想車両のピッチ角およびロール角を算出する。ピッチ角の算出にあたってCPU31は前述の加減速度を利用する。同時にCPU31は道路の勾配を参照してもよい。勾配は仮想三次元空間内の位置に基づき例えば道路データ48から算出されればよい。ロール角の算出にあたってCPU31は仮想車両のヨー角を特定する。ヨー角の特定にあたってCPU31は一定の時間間隔でステアリング17の回転量を参照する。
4輪シミュレータ装置11上で運転手がステアリング17を回すと、回転量が検出される。こういった検出は、前述と同様に、例えば一定の時間間隔(例えば0.1秒間隔)で実施されればよい。検出された回転量はCPU31に通知される。CPU31は、予め決められた関係式に基づき回転量から車両のヨー角を導き出す。こうして一定の時間間隔ごとにヨー角の変化量は特定される。CPU31は、ヨー角の変化量と前述の車速とに基づき所定の関係式に従って仮想車両の横方向加速度を導き出す。この横方向加速度は旋回時の慣性力に相当する。こうして算出される横方向加速度に基づきCPU31は仮想車両のロール角を算出する。算出にあたって任意の関係式が用いられればよい。
サーボシリンダ13、13…の制御にあたってCPU31は前述のピッチ角およびロール角を利用する。例えば、ピッチ角の確立にあたって個々のサーボシリンダ13、13…に要求される伸縮量と、ロール角の確立にあたって個々のサーボシリンダ13、13…に要求される伸縮量とが個別に算出される。2つの伸縮量は重ね合わせられる。こうして模擬車体12では車両の挙動が再現される。設定されるピッチ角に基づき模擬車体12はx軸回りで回転する。こうして教習生は加速感や減速感を体験することができる。同時に、教習生は旋回時の横方向加速感を体験することができる。こういった模擬車体12の挙動がスクリーン18の視覚効果と相俟って4輪シミュレータ装置11では臨場感に溢れる模擬走行が実現されることができる。
いま、脇見運転モジュール46が実行される場面を想定する。実行にあたって前述の仮想移動経路データ52に基づき仮想三次元空間内で所定の教習行路が設定される。ここでは、教習行路は直線および曲線で表現される。図3から明らかなように、教習行路61は長さ1000[m]の第1直線域62aと、長さ700[m]の第2および第3直線域62b、62cと、長さ400[m]の第4直線域62dとを備える。第1直線域62aと第2直線域62bとの間や第2直線域62bと第3直線域62cとの間、第4直線域62dと第1直線域62aとの間はそれぞれ曲率半径50[m]のカーブ63a〜63cで接続される。第3直線域62cと第4直線域62dとの間は曲率半径350[m]のカーブ63dで接続される。直線域62a〜62d同士の内角は90°に設定される。しかも、第3直線域62cには長さ100[m]の上り坂64aおよび長さ100[m]の下り坂64bが設定される。上り坂64aおよび下り坂64bの傾斜角は例えば15°に設定される。第1直線域62a上に走行開始位置65が設定される。
こういった教習行路61に基づき仮想移動経路データ52では勾配データおよびヨー角データが構築される。例えば、勾配データでは、開始位置および終了位置の間で所定の走行距離ごとに教習行路61の勾配が記述される。ヨー角データでは、個々のカーブ63a〜63dに対して開始位置および終了位置の間で所定の走行距離ごとにヨー角が記述される。ヨー角の計測にあたって、例えば走行開始位置65に設定される自車座標系データ51の三次元座標系が基準に設定される。
脇見運転モジュール46が実行されると、CPU31は前述のシミュレーションプログラム45に基づき仮想三次元空間を構築する。ただし、CPU31は前述の道路データ48に代えて仮想移動経路データ52を利用する。車両の位置は教習行路61上で特定される。位置の特定にあたって車両の走行距離が算出される。算出にあたって前述の車速が利用される。前述のように、車速はアクセルペダル33やブレーキペダル35の踏み込み量に基づき特定される。仮想三次元空間内では教習行路61は「線」で表現されることから、走行距離だけで教習行路61上で車両の位置は特定されることができる。こういった位置に基づき仮想三次元空間内で教習生の視点や視野は設定される。設定される視点や視野に基づき仮想移動経路データ52中のポリゴンデータや周辺地理データ53中のポリゴンデータが特定される。前述と同様に、描画回路38でポリゴンデータに基づきスクリーン18に映し出される画像は形成される。こうして画像中には、図4に示されるように、教習行路61すなわち進路が描き出される。ただし、ピッチ角やロール角の算出にあたってCPU31では仮想移動経路データ52中の勾配データやヨー角データが利用される。
画像の形成にあたって描画回路38では先行車座標系データ54中のポリゴンデータが併せて特定される。まず、CPU31は車間時間を設定する。CPU31は一定の車間時間を維持する。「車間時間」は、1地点で先行車の通過から後続車の通過までに経過する時間をいう。車間時間は予め特定の値に設定されればよい。車間時間は例えば3秒程度に設定される。設定された車間時間および車速に基づきCPU31は車間距離を算出する。こういった車間距離の算出にあたってCPU31は所定の時間間隔で車速を参照する。
こうして車間距離が算出されると、CPU31は先行車の位置を特定する。前述のように仮想三次元空間内では教習行路61は「線」で表現されることから、前述の走行距離に車間距離が足し合わせられると、教習行路61上で先行車の位置は特定されることができる。こうして先行車の位置が決定されると、CPU31は仮想移動経路データ52中のヨー角データに基づき先行車のヨー角すなわち向きを特定する。続いてCPU31は先行車座標系データ54に基づき仮想三次元空間内で先行車のポリゴンデータを特定する。特定されたポリゴンデータは規定の投影面上に座標変換される。こうしてスクリーン18に映し出される画像内では、例えば図4に示されるように、先行車の後ろ姿66は再現されることができる。教習生はリアルに車間距離を体感することができる。先行車の後ろ姿66は進路上の前方注視点67として機能する。
脇見運転の実現にあたって、CPU31は、例えば図5に示されるように、ステップS1で基準位置を設定する。この基準位置は教習行路61上で任意に配置されればよい。基準位置は予め決められた位置に設定されてもよくランダムに設定されてもよい。こうして基準位置が設定されると、ステップS2で、基準位置に仮想車両が到達したか否かが判定される。このとき、スクリーン18上には、前述のように、教習生の視界を再現する画像が映し出され続ける。
仮想車両が基準位置に到達すると、例えば図6に示されるように、CPU31はステップS3でスクリーン18上の画像上に注視物68を映し出す。注視物68は教習行路61すなわち進路から外れた位置に表示される。注視物68には例えばタレントその他の有名人や動物などが用いられればよい。こうして教習生の視線は先行車の後ろ姿66から注視物68に移行する。注視物68は脇見注視点69として機能する。教習生の意識は脇見注視点69に集中する。こうして前方注視点67から離れた脇見注視点69に意識の集中を誘引する事象は生成される。注視物68の生成方法は後述される。
注視物68の描画と同時にCPU31はタイマ57に向けてトリガ信号を出力する。その結果、第1タイミングでタイマ57の計時が開始される。ステップS4でCPU31はタイマ57の計時を監視する。タイマ57で予め決められた時間が経過すると、CPU31は第2タイミングで通知信号を受信する。こうしてステップS4で通知信号を受信すると、CPU31の処理はステップS5に移行する。
ステップS5でCPU31はスクリーン18の画像上で先行車を急停車させる。こういった急停車の実現にあたってCPU31は仮想三次元空間内で急激に先行車の移動を減速させる。ここでは、先行車の位置の特定にあたって、設定された車間時間は無視されればよい。こうして第1タイミングでは予測不可能な事象が第1タイミングから所定時間経過後の第2タイミングで生成される。教習生が急激にブレーキペダル35を踏まない限り、スクリーン18上で先行車の後ろ姿66は急激に接近する。こうして教習生はリアルに脇見運転の危険性を体感することができる。
ここで、注視物68の生成方法を詳述する。図7に示されるように、ステップT1でCPU31は基準位置の仮想車両の車速を特定する。続くステップT2で、CPU31は、所定時間経過後の仮想車両の予測到達位置を特定する。特定にあたってCPU31は基準位置からの予測走行距離を算出する。算出にあたってCPU31は所定時間経過中に一定速度の持続を仮定する。所定時間にわたって車速の積分値が算出されればよい。予測到達位置は仮想三次元空間内で特定される。特定された予測到達位置に基づき、CPU31はステップT3で仮想三次元空間内で注視物68を構築する。構築にあたってCPU31は注視物データ55内のポリゴンデータを利用する。
ステップT4でCPU31は前述と同様に自車座標系データ51で特定される視点や視野に基づき注視物68の画像を描画する。描画にあたってCPU31は色データ56を参照する。色データ56から最適な色が選択される。色の選択にあたってCPU31は背景色を確認する。背景色に応じて注視物68は色塗りされる。
予測走行距離の算出にあたってCPU31は基準位置で車速に加えて加速度を参照してもよい。CPU31は所定時間経過中に一定加速度の維持を仮定する。こうした仮定に基づき所定時間にわたって車速の積分値が算出されればよい。
なお、前述の脇見運転モジュール46では、教習行路61上に上り坂64aや下り坂64bが必ずしも存在しなくてもよい。前述のように脇見の実現にあたって、必ずしも画像が利用される必要はなく、模擬車体12内で教習生の気を引く事象が生成されればよい。
本発明に係る移動体シミュレータ装置の一具体例すなわち自動車教習用4輪シミュレータ装置の外観を概略的に示す斜視図である。 4輪シミュレータ装置の制御系を概略的に示すブロック図である。 仮想移動経路データの構造を概略的に示す概念図である。 先行車の後ろ姿すなわち前方注視点を含む画像を概略的に示す概念図である。 脇見運転モジュールの処理を概略的に示すフローチャートである。 注視物すなわち脇見注視点を含む画像を概略的に示す概念図である。 注視物の生成工程を概略的に示すフローチャートである。
符号の説明
11 移動体シミュレータ装置としての4輪シミュレータ装置、15 座席、18 画像表示装置(スクリーン)、31 第1事象生成手段および第2事象生成手段(演算手段)としてのCPU、38 画像生成手段としての描画回路、46 移動体シュミレータ装置用プログラム(脇見運転モジュール)、61 進路(教習行路)、67 前方注視点、68 注視物、69 脇見注視点。

Claims (4)

  1. 座席と、前記座席の前方に配置されて、運転手の視界を再現する画像中に進路および前記進路上の前方注視点である先行移動体を映し出す画像表示装置と、仮想三次元空間内で特定される基準位置の移動体の速度に基づき所定時間経過後の前記移動体の予測到達位置を算出し、前記画像上で前記予測到達位置を特定する演算手段と、特定された前記予測到達位置に基づき前記画像上で前記進路から外れた位置に注視物を描き出した後、前記画像中の前記進路上で移動を停止する前記先行移動体を描き出す画像生成手段とを備えることを特徴とする移動体シミュレータ装置。
  2. 請求項1に記載の移動体シミュレータ装置において、前記演算手段は、前記予測到達位置の算出にあたって、前記基準位置の前記移動体の加速度をさらに参照することを特徴とする移動体シミュレータ装置。
  3. 画像表示装置上で、運転手の視界を再現する画像中に進路および前記進路上の前方注視点である先行移動体を演算処理回路が映し出す手順と、仮想三次元空間内で特定される基準位置での移動体の速度に基づき、所定時間経過後の前記移動体の予測到達位置を前記演算処理回路が算出する手順と、前記画像上で前記予測到達位置を前記演算処理回路が特定する手順と、特定された前記予測到達位置に基づき、前記画像上で前記進路から外れた位置に注視物を前記演算処理回路が映し出す手順と、前記注視物を描き出した後に前記画像中の前記進路上で移動を停止する前記先行移動体を前記演算処理回路が描き出す手順とを備えることを特徴とする移動体シミュレータの制御方法。
  4. 画像表示装置上で、運転手の視界を再現する画像中に進路および前記進路上の前方注視点である先行移動体を映し出す手順と、仮想三次元空間内で特定される基準位置での移動体の速度に基づき、所定時間経過後の前記移動体の予測到達位置を算出する手順と、前記画像上で前記予測到達位置を特定する手順と、特定された前記予測到達位置に基づき、前記画像上で前記進路から外れた位置に注視物を映し出す手順と、前記注視物を描き出した後に前記画像中の前記進路上で移動を停止する前記先行移動体を描き出す手順とを演算処理回路に実行させることを特徴とする移動体シミュレータ装置用制御プログラム。
JP2005284245A 2005-09-29 2005-09-29 移動体シミュレータ装置およびその制御方法並びに制御プログラム Active JP4493575B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005284245A JP4493575B2 (ja) 2005-09-29 2005-09-29 移動体シミュレータ装置およびその制御方法並びに制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005284245A JP4493575B2 (ja) 2005-09-29 2005-09-29 移動体シミュレータ装置およびその制御方法並びに制御プログラム

Publications (2)

Publication Number Publication Date
JP2007094082A JP2007094082A (ja) 2007-04-12
JP4493575B2 true JP4493575B2 (ja) 2010-06-30

Family

ID=37979874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005284245A Active JP4493575B2 (ja) 2005-09-29 2005-09-29 移動体シミュレータ装置およびその制御方法並びに制御プログラム

Country Status (1)

Country Link
JP (1) JP4493575B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010002714A (ja) * 2008-06-20 2010-01-07 Toyota Motor Corp シミュレータ装置、運転課題提供方法
JP2010151942A (ja) * 2008-12-24 2010-07-08 Toyota Motor Corp ドライビングシミュレータ
KR101242162B1 (ko) 2011-03-22 2013-03-11 성균관대학교산학협력단 주변시 훈련 장치 및 방법
JP7075741B2 (ja) * 2017-11-10 2022-05-26 株式会社アイロック 四輪自動車の自動ブレーキ模擬体験装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH113027A (ja) * 1997-06-10 1999-01-06 Mitsubishi Precision Co Ltd 運転教育用シミュレータ
JP2003263099A (ja) * 2002-03-07 2003-09-19 Honda Motor Co Ltd 運転シミュレータを使用した運転教習システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH113027A (ja) * 1997-06-10 1999-01-06 Mitsubishi Precision Co Ltd 運転教育用シミュレータ
JP2003263099A (ja) * 2002-03-07 2003-09-19 Honda Motor Co Ltd 運転シミュレータを使用した運転教習システム

Also Published As

Publication number Publication date
JP2007094082A (ja) 2007-04-12

Similar Documents

Publication Publication Date Title
JP6608146B2 (ja) ライブ映像を有する仮想透過型インストルメントクラスタ
US9902403B2 (en) Sensory stimulation for an autonomous vehicle
US20190061655A1 (en) Method and apparatus for motion sickness prevention
US5184956A (en) Method and device for training in the driving of vehicles
JP2020527432A (ja) レーシングシミュレーション
US20180278920A1 (en) Entertainment apparatus for a self-driving motor vehicle
WO2006004044A1 (ja) ナビゲーションシステム及び指標画像表示システム
JP3400969B2 (ja) 4輪車運転シミュレータ
Laschinsky et al. Evaluation of an active safety light using virtual test drive within vehicle in the loop
Kim et al. Effects on productivity and safety of map and augmented reality navigation paradigms
JP4493575B2 (ja) 移動体シミュレータ装置およびその制御方法並びに制御プログラム
JP2010002714A (ja) シミュレータ装置、運転課題提供方法
CN110782738A (zh) 一种模拟驾驶训练装置
CN111798718A (zh) 一种基于虚拟现实的驾驶适应性训练方法、主机及装置
JP4312977B2 (ja) 運転模擬装置及び画像表示制御方法
JP2015018074A (ja) 乗り物の運転シミュレーション装置
JP2011227242A (ja) 運転模擬装置、運転模擬装置の制御プログラム及び運転模擬装置の制御方法。
JP5687879B2 (ja) 情報処理装置、自動車、情報処理方法及びプログラム
JP2003263099A (ja) 運転シミュレータを使用した運転教習システム
WO2019131296A1 (ja) ヘッドアップディスプレイ装置
CN114506278B (zh) 用于车载娱乐的全景虚拟环境
US20200265736A1 (en) Automatic-brake simulator for four-wheel vehicle
JP7310729B2 (ja) 情報処理装置、情報処理システム、プログラム、及び車両
JP2009151187A (ja) 安全運転教示システム
Sakamura et al. A virtual boarding system of an autonomous vehicle for investigating the effect of an AR display on passenger comfort

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100406

R150 Certificate of patent or registration of utility model

Ref document number: 4493575

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140416

Year of fee payment: 4