JP2007094082A - Mobile object simulator system, control method and control program thereof - Google Patents

Mobile object simulator system, control method and control program thereof Download PDF

Info

Publication number
JP2007094082A
JP2007094082A JP2005284245A JP2005284245A JP2007094082A JP 2007094082 A JP2007094082 A JP 2007094082A JP 2005284245 A JP2005284245 A JP 2005284245A JP 2005284245 A JP2005284245 A JP 2005284245A JP 2007094082 A JP2007094082 A JP 2007094082A
Authority
JP
Japan
Prior art keywords
image
procedure
timing
event
course
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005284245A
Other languages
Japanese (ja)
Other versions
JP4493575B2 (en
Inventor
Tatsuhiko Awane
達彦 阿波根
Keiichiro Minami
啓一郎 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2005284245A priority Critical patent/JP4493575B2/en
Publication of JP2007094082A publication Critical patent/JP2007094082A/en
Application granted granted Critical
Publication of JP4493575B2 publication Critical patent/JP4493575B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile object simulator capable of more realistically reproducing inattentive driving. <P>SOLUTION: A driver's field of view is reproduced on an image during an operation of the mobile object simulator system. A user on a seat turns look to a front gazing point 67 on a course 61 on the image. User's consciousness is concentrated on the front gazing point 67. A gazed object 68 is drawn at a position distant from the course 61 in first timing. User's visual lines shift from the front gazing point 67 to a lookaside gazing point 69. The user's consciousness is concentrated on the lookaside gazing point. So called inattentive driving is attained. A leading vehicle 66 suddenly stops in second timing according to lookaside. The user can realistically feel the danger of the inattentive driving. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、例えば自動車といった移動体の挙動を再現するシミュレータ装置に関する。   The present invention relates to a simulator device that reproduces the behavior of a moving object such as an automobile.

例えば特許文献1に開示されるように、自動車教習用のシミュレータ装置は広く知られる。このシミュレータ装置では、座席の前方でスクリーンに映し出される画像に基づき教習生は脇見運転の危険性を体感することができる。
特開平11−3027号公報
For example, as disclosed in Patent Document 1, a simulator device for automobile training is widely known. In this simulator device, the trainee can experience the danger of driving aside, based on the image displayed on the screen in front of the seat.
Japanese Patent Laid-Open No. 11-3027

しかしながら、前述のシミュレータ装置では脇見運転の再現にあたって進路上に突然に車両が映し出される。脇見運転とはいえ、教習生は正しく前方の進路を注視し続けることができる。教習生は突然の車両の出現に違和感を感じてしまう。リアルさに欠ける。   However, in the simulator device described above, a vehicle is suddenly displayed on the course when reproducing the side-view driving. Although it is a driving aside, the trainee can continue to keep an eye on the path ahead. The trainees feel uncomfortable with the sudden appearance of the vehicle. It lacks realism.

本発明は、上記実状に鑑みてなされたもので、よりリアルに脇見運転を再現することができる移動体シミュレータ装置を提供することを目的とする。本発明は、そういった移動体シミュレータ装置の実現に大いに貢献する制御方法や制御プログラムを提供することを目的とする。   This invention is made | formed in view of the said actual condition, and it aims at providing the mobile body simulator apparatus which can reproduce a look-aside driving | running more realistically. An object of the present invention is to provide a control method and a control program that greatly contribute to the realization of such a mobile simulator device.

上記目的を達成するために、第1発明によれば、座席と、座席の前方に配置されて、運転手の視界を再現する画像中に進路上の前方注視点を映し出す画像表示装置と、第1タイミングで、前方注視点から離れた脇見注視点に視線の移動を誘引する事象を生成する第1事象生成手段と、第1タイミングから所定時間経過後の第2タイミングで、第1タイミングでは予測不可能な事象を生成する第2事象生成手段とを備えることを特徴とする移動体シミュレータ装置が提供される。   In order to achieve the above object, according to the first invention, a seat, an image display device that is disposed in front of the seat and displays a forward gazing point on the course in an image that reproduces the driver's field of view, A first event generating means for generating an event that induces a movement of the line of sight to a side gaze point distant from the forward gaze point at one timing, and a second timing after a lapse of a predetermined time from the first timing. There is provided a mobile simulator device comprising second event generation means for generating an impossible event.

移動体シミュレータ装置の動作中、画像上で運転手の視界は再現される。座席上の使用者は画像上で進路上の前方注視点に視線を向ける。使用者の意識は前方注視点に集中する。第1タイミングで事象が生成されると、使用者の視線は前方注視点から脇見注視点に移行する。使用者の意識は脇見注視点に集中する。いわゆる脇見は実現される。脇見に応じて第2タイミングで事象は生成されることができる。こういった事象に基づき使用者は脇見運転の危険性をリアルに体感することができる。   During operation of the mobile simulator device, the driver's field of view is reproduced on the image. The user on the seat turns his gaze toward the forward gazing point on the course on the image. The user's consciousness concentrates on the forward gaze point. When an event is generated at the first timing, the user's line of sight shifts from the forward gaze point to the side gaze point. The user's consciousness concentrates on the gaze point. So-called side-arming is realized. An event can be generated at the second timing according to the aside. Based on these events, the user can experience the danger of driving aside.

こういった移動体シミュレータ装置の実現にあたって特定の制御方法は提供される。この制御方法は、例えば、画像表示装置上で、運転手の視界を再現する画像中に進路上の前方注視点を映し出す手順と、第1タイミングで、前方注視点から離れた脇見注視点に視線の移動を誘引する事象を第1事象生成手段で生成させる手順と、第1タイミングから所定時間経過後の第2タイミングで、第1タイミングでは予測不可能な事象を第2事象生成手段で生成させる手順とを備えればよい。このとき、画像表示装置には、運転手の視界を再現する画像中に進路上の前方注視点を映し出す画像データが供給されればよい。   A specific control method is provided for realizing such a mobile simulator device. This control method includes, for example, a procedure for projecting a forward gazing point on a course in an image that reproduces a driver's field of view on an image display device, and a gaze at a first gazing point at a side gazing point away from the forward gazing point. The second event generation unit generates an event that cannot be predicted at the first timing at the second timing after a predetermined time elapses from the first timing. And a procedure. At this time, the image display device only needs to be supplied with image data that shows the forward gazing point on the course in the image that reproduces the driver's field of view.

この種の制御方法の実現にあたって特定の制御プログラムが提供されてもよい。この制御プログラムは、例えば、画像表示装置上で、運転手の視界を再現する画像中に進路上の前方注視点を映し出す手順と、第1タイミングで、前方注視点から離れた脇見注視点に視線の移動を誘引する事象を第1事象生成手段で生成させる手順と、第1タイミングから所定時間経過後の第2タイミングで、第1タイミングでは予測不可能な事象を第2事象生成手段で生成させる手順とを演算処理回路に実行させればよい。その他、任意の座標系で特定される仮想三次元空間内で基準位置を特定する手順と、基準位置の移動体の速度を特定する速度データに基づき、所定時間経過後の第1タイミングで移動体の予測到達位置を特定する手順と、第1タイミングで、運転手の視界を再現する画像中に映し出される進路上の前方注視点から離れた脇見注視点に視線の移動を誘引する事象を生成させる第1事象データを出力する手順と、第1タイミングから所定時間経過後の第2タイミングで、第1タイミングでは予測不可能な事象を生成させる第2事象データを出力する手順とを演算処理回路に実行させる制御プログラムが提供されてもよい。このとき、画像表示装置には、運転手の視界を再現する画像中に進路上の前方注視点を映し出す画像データが供給されればよい。画像データは、演算処理回路で生成されてもよく、演算処理回路からの指示に基づき画像処理回路で生成されてもよい。   A specific control program may be provided to realize this type of control method. This control program is, for example, a procedure for projecting a forward gazing point on a course in an image that reproduces a driver's field of view on an image display device, and a gaze at a first gazing point at a side gazing point away from the forward gazing point. The second event generation unit generates an event that cannot be predicted at the first timing at the second timing after a predetermined time elapses from the first timing. The procedure may be executed by the arithmetic processing circuit. In addition, based on the procedure for specifying the reference position in the virtual three-dimensional space specified by an arbitrary coordinate system and the speed data for specifying the speed of the moving object at the reference position, the moving object at the first timing after a predetermined time has elapsed. At the first timing, an event that induces the movement of the line of sight to the side gaze point away from the front gaze point on the course displayed in the image that reproduces the driver's field of view is generated at the first timing. An arithmetic processing circuit includes a procedure for outputting first event data and a procedure for outputting second event data for generating an event that cannot be predicted at the first timing at a second timing after a predetermined time has elapsed from the first timing. A control program to be executed may be provided. At this time, the image display device only needs to be supplied with image data that shows the forward gazing point on the course in the image that reproduces the driver's field of view. The image data may be generated by the arithmetic processing circuit, or may be generated by the image processing circuit based on an instruction from the arithmetic processing circuit.

第2発明によれば、座席と、座席の前方に配置されて、運転手の視界を再現する画像中に進路を映し出す画像表示装置と、仮想三次元空間内で特定される基準位置の移動体の速度に基づき所定時間経過後の移動体の予測到達位置を算出し、画像上で予測到達位置を特定する演算手段と、特定された予測到達位置に基づき、画像上で進路から外れた位置に注視物を描き出す画像生成手段とを備えることを特徴とする移動体シミュレータ装置が提供される。   According to the second invention, the seat, the image display device that is arranged in front of the seat and displays the course in the image that reproduces the driver's field of view, and the moving body at the reference position specified in the virtual three-dimensional space The predicted arrival position of the mobile object after a predetermined time has been calculated based on the speed of the vehicle, the calculation means for specifying the predicted arrival position on the image, and the position on the image that is out of the course based on the specified predicted arrival position There is provided a moving body simulator device comprising image generation means for drawing a gaze object.

移動体シミュレータ装置の動作中、座席上の使用者は画像中の進路に意識を集中する。画像中に注視物が描き出されると、使用者の視線は進路から注視物に移行する。使用者の意識は進路から離れる。いわゆる脇見は実現される。脇見に応じて何らかの事象が生成されると、こういった事象に基づき使用者は脇見運転の危険性をリアルに体感することができる。   During the operation of the mobile simulator device, the user on the seat concentrates on the course in the image. When the gaze object is drawn in the image, the user's line of sight shifts from the course to the gaze object. The user's consciousness leaves the path. So-called side-arming is realized. When any event is generated in response to the aside look, the user can experience the danger of aside look driving realistically based on such an event.

ここで、演算手段は、予測到達位置の算出にあたって、基準位置の移動体の加速度をさらに参照してもよい。加速度の参照によれば、予測到達位置の精度は高められることができる。画像生成手段は、注視物を描き出した後、画像中の進路上で移動を停止する先行移動体を描き出してもよい。こういった事象に基づき使用者は脇見運転の危険性をリアルに体感することができる。   Here, the calculation means may further refer to the acceleration of the moving body at the reference position when calculating the predicted arrival position. According to the acceleration reference, the accuracy of the predicted arrival position can be increased. The image generation means may draw a preceding moving body that stops moving on the course in the image after drawing the gaze object. Based on these events, the user can experience the danger of driving aside.

こういった移動体シミュレータ装置の実現にあたって特定の制御方法は提供される。この制御方法は、例えば、画像表示装置上で、運転手の視界を再現する画像中に進路を映し出す手順と、仮想三次元空間内で特定される基準位置での移動体の速度に基づき、所定時間経過後の移動体の予測到達位置を算出する手順と、画像上で予測到達位置を特定する手順と、特定された予測到達位置に基づき、画像上で進路から外れた位置に注視物を映し出す手順とを備えればよい。このとき、画像表示装置には、運転手の視界を再現する画像中に進路上の前方注視点を映し出す画像データが供給されればよい。基準位置の特定にあたって仮想三次元空間は任意の座標系に従って特定されればよい。   A specific control method is provided for realizing such a mobile simulator device. This control method is based on, for example, a procedure for projecting a course in an image that reproduces a driver's field of view on an image display device, and a speed of a moving body at a reference position specified in a virtual three-dimensional space. Based on the procedure for calculating the predicted arrival position of the mobile object after the elapse of time, the procedure for specifying the predicted arrival position on the image, and the identified predicted arrival position, the target object is projected at a position off the course on the image. And a procedure. At this time, the image display device only needs to be supplied with image data that shows the forward gazing point on the course in the image that reproduces the driver's field of view. In specifying the reference position, the virtual three-dimensional space may be specified according to an arbitrary coordinate system.

この種の制御方法の実現にあたって特定の制御プログラムが提供されてもよい。この制御プログラムは、例えば、画像表示装置上で、運転手の視界を再現する画像中に進路を映し出す手順と、仮想三次元空間内で特定される基準位置での移動体の速度に基づき、所定時間経過後の移動体の予測到達位置を算出する手順と、画像上で予測到達位置を特定する手順と、特定された予測到達位置に基づき、画像上で進路から外れた位置に注視物を映し出す手順とを演算処理回路に実行させればよい。その他、運転手の視界を再現する画像中に進路を映し出す画像データを提供する手順と、任意の座標系で特定される仮想三次元空間内で基準位置を特定する手順と、基準位置の移動体の速度を特定する速度データに基づき、所定時間経過後の移動体の予測到達位置を算出する手順と、画像上で予測到達位置を特定する手順と、特定された予測到達位置に基づき、画像上で進路から外れた位置に注視物を映し出す画像データを提供する手順とを演算処理回路に実行させる制御プログラムが提供されてもよい。このとき、画像データは、演算処理回路で生成されてもよく、演算処理回路からの指示に基づき画像処理回路で生成されてもよい。   A specific control program may be provided to realize this type of control method. This control program is based on, for example, a procedure for projecting a course in an image that reproduces the driver's field of view on the image display device, and the speed of the moving object at a reference position specified in the virtual three-dimensional space. Based on the procedure for calculating the predicted arrival position of the mobile object after the elapse of time, the procedure for specifying the predicted arrival position on the image, and the identified predicted arrival position, the target object is projected at a position off the course on the image. The procedure may be executed by the arithmetic processing circuit. In addition, a procedure for providing image data that shows a course in an image that reproduces the driver's field of view, a procedure for specifying a reference position in a virtual three-dimensional space specified by an arbitrary coordinate system, and a moving body of the reference position On the basis of the speed data for specifying the speed of the vehicle, on the basis of the procedure for calculating the predicted arrival position of the mobile object after the lapse of the predetermined time, the procedure for specifying the predicted arrival position on the image, and the And a control program for causing the arithmetic processing circuit to execute a procedure for providing image data for projecting a gaze object at a position off the course. At this time, the image data may be generated by the arithmetic processing circuit, or may be generated by the image processing circuit based on an instruction from the arithmetic processing circuit.

以上のように本発明によれば、よりリアルに脇見運転は再現されることができる。   As described above, according to the present invention, the armpit driving can be reproduced more realistically.

以下、添付図面を参照しつつ本発明の一実施形態を説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

図1は本発明に係る移動体シミュレータ装置の一具体例すなわち自動車教習用4輪シミュレータ装置11の外観を概略的に示す。この4輪シミュレータ装置11は模擬車体12を備える。模擬車体12にはCPU(中央演算処理装置)やその他の電子部品が収容される。模擬車体12には例えば6軸のサーボシリンダ13、13…が連結される。個々のサーボシリンダ13は土台14から立ち上がる。土台14は例えば床面に設置されればよい。   FIG. 1 schematically shows an external appearance of a specific example of a mobile simulator apparatus according to the present invention, that is, a four-wheel simulator apparatus 11 for automobile training. The four-wheel simulator device 11 includes a simulated vehicle body 12. The simulated vehicle body 12 houses a CPU (Central Processing Unit) and other electronic components. For example, six-axis servo cylinders 13 are connected to the simulated vehicle body 12. Each servo cylinder 13 rises from a base 14. The foundation 14 may be installed on the floor surface, for example.

サーボシリンダ13には電動モータ(図示されず)が組み込まれる。電動モータの働きでサーボシリンダ13は伸縮する。サーボシリンダ13の伸縮に基づき模擬車体12は床面に対して姿勢を変化させる。後述されるように、サーボシリンダ13の伸縮はCPUの演算処理に基づき実現される。   An electric motor (not shown) is incorporated in the servo cylinder 13. The servo cylinder 13 expands and contracts by the action of the electric motor. Based on the expansion and contraction of the servo cylinder 13, the simulated vehicle body 12 changes its posture with respect to the floor surface. As will be described later, the expansion and contraction of the servo cylinder 13 is realized based on the arithmetic processing of the CPU.

ここで、4輪シミュレータ装置11には三次元座標系が設定される。三次元座標系には例えば直交3軸座標系すなわちxyz座標系が用いられればよい。三次元座標系の原点は模擬車体12の重心に位置合わせされればよい。三次元座標系のy軸は重力の方向に合わせ込まれればよい。三次元座標系のx軸は例えば車両の車軸に平行に設定されればよい。すなわち、x軸は重力の方向に直交する水平面に沿って車両の横方向を規定する。三次元座標系のz軸は水平面に沿って車両の前後方向を規定する。こうして模擬車体12では、x軸回りで車両のピッチ角は規定されることができる。同様に、z軸回りで車両のロール角は規定されることができる。y軸回りで車両のヨー角は規定されることができる。こういったロール角、ピッチ角およびヨー角に基づき模擬車体12の姿勢は特定されることができる。   Here, a three-dimensional coordinate system is set in the four-wheel simulator device 11. For example, an orthogonal three-axis coordinate system, that is, an xyz coordinate system may be used as the three-dimensional coordinate system. The origin of the three-dimensional coordinate system may be aligned with the center of gravity of the simulated vehicle body 12. The y-axis of the three-dimensional coordinate system may be adjusted to the direction of gravity. For example, the x-axis of the three-dimensional coordinate system may be set parallel to the vehicle axle. That is, the x-axis defines the lateral direction of the vehicle along a horizontal plane perpendicular to the direction of gravity. The z-axis of the three-dimensional coordinate system defines the longitudinal direction of the vehicle along the horizontal plane. Thus, in the simulated vehicle body 12, the pitch angle of the vehicle can be defined around the x axis. Similarly, the roll angle of the vehicle can be defined around the z axis. The yaw angle of the vehicle can be defined around the y axis. The posture of the simulated vehicle body 12 can be specified based on the roll angle, the pitch angle, and the yaw angle.

模擬車体12内には運転席が構築される。運転席には座席15が設置される。座席15の前方にはダッシュボード16が配置される。ダッシュボード16には、ステアリング17やアクセルペダル(図示されず)、ブレーキペダル(図示されず)が組み込まれる。その他、ダッシュボード16には、スピードメータやタコメータといった計器類やヘッドライトスイッチといったスイッチ類(いずれも図示されず)が組み込まれる。   A driver's seat is constructed in the simulated vehicle body 12. A seat 15 is installed in the driver's seat. A dashboard 16 is disposed in front of the seat 15. The dashboard 16 includes a steering wheel 17, an accelerator pedal (not shown), and a brake pedal (not shown). In addition, the dashboard 16 incorporates instruments such as a speedometer and a tachometer and switches such as a headlight switch (both not shown).

ダッシュボード16の上方にはスクリーン18が配置される。スクリーン18にはいわゆるプロジェクタ19が向き合わせられる。後述されるように、プロジェクタ19からスクリーン18に画像が投影される。こうしてスクリーン18には、車両のフロントガラスから前方に広がる「視界」が再現されることができる。後述されるように、スクリーン18上の画像はCPUの働きに基づき形成される。   A screen 18 is disposed above the dashboard 16. A so-called projector 19 faces the screen 18. As will be described later, an image is projected from the projector 19 onto the screen 18. In this way, a “field of view” spreading forward from the windshield of the vehicle can be reproduced on the screen 18. As will be described later, the image on the screen 18 is formed based on the function of the CPU.

模擬車体12には模擬バックミラー21および1対の模擬サイドミラー22が関連付けられる。模擬バックミラー21や模擬サイドミラー22にはディスプレイ装置23、24が組み込まれる。ディスプレイ装置23、24の画面がミラーに模される。こうして模擬バックミラー21や模擬サイドミラー22には、車両のバックミラーやサイドミラーの映像が再現される。ディスプレイ装置23、24には例えば液晶ディスプレイパネルが利用されればよい。後述されるように、ディスプレイ装置23、24の画面に映し出される画像はCPUの働きに基づき形成される。   A simulated rearview mirror 21 and a pair of simulated side mirrors 22 are associated with the simulated vehicle body 12. Display devices 23 and 24 are incorporated in the simulated rearview mirror 21 and the simulated side mirror 22. The screens of the display devices 23 and 24 are imitated by mirrors. In this way, the simulated rearview mirror 21 and the simulated side mirror 22 reproduce the video of the rearview mirror and the side mirror of the vehicle. For the display devices 23 and 24, for example, a liquid crystal display panel may be used. As will be described later, images displayed on the screens of the display devices 23 and 24 are formed based on the function of the CPU.

図2に示されるように、CPU31には個々のサーボシリンダ13、13…ごとにドライバ回路32、32…が接続される。CPU31では個々のサーボシリンダ13、13…ごとに伸縮量が決定される。決定された伸縮量に応じてCPU31から個々のドライバ回路32、32…に指令信号が供給される。供給される指令信号に応じてドライバ回路32、32…は対応のサーボシリンダ13、13…に駆動信号を供給する。駆動信号は電動モータの回転量を規定する。指定の回転量で電動モータが回転する結果、サーボシリンダ13、13…は指定の伸縮量で伸縮することができる。   As shown in FIG. 2, driver circuits 32, 32... Are connected to the CPU 31 for each servo cylinder 13, 13. The CPU 31 determines the amount of expansion / contraction for each servo cylinder 13, 13,. A command signal is supplied from the CPU 31 to the individual driver circuits 32, 32... According to the determined expansion / contraction amount. In response to the supplied command signal, the driver circuits 32, 32,... Supply drive signals to the corresponding servo cylinders 13, 13,. The drive signal defines the amount of rotation of the electric motor. As a result of the rotation of the electric motor by the designated amount of rotation, the servo cylinders 13, 13.

アクセルペダル33にはペダルセンサ34が接続される。このペダルセンサ34はアクセルペダル33の踏み込み量を検出する。ペダルセンサ34にはCPU31が接続される。検出される踏み込み量はCPU31に通知される。同様に、ブレーキペダル35にはペダルセンサ36が接続される。このペダルセンサ36はブレーキペダル35の踏み込み量を検出する。ペダルセンサ36にはCPU31が接続される。検出される踏み込み量はCPU31に通知される。   A pedal sensor 34 is connected to the accelerator pedal 33. The pedal sensor 34 detects the amount of depression of the accelerator pedal 33. A CPU 31 is connected to the pedal sensor 34. The detected depression amount is notified to the CPU 31. Similarly, a pedal sensor 36 is connected to the brake pedal 35. This pedal sensor 36 detects the depression amount of the brake pedal 35. A CPU 31 is connected to the pedal sensor 36. The detected depression amount is notified to the CPU 31.

ステアリング17にはステアリングセンサ37が接続される。このステアリングセンサ37はステアリング17の回転量を検出する。ステアリングセンサ37にはCPU31が接続される。検出される回転量はCPU31に通知される。   A steering sensor 37 is connected to the steering wheel 17. This steering sensor 37 detects the amount of rotation of the steering wheel 17. A CPU 31 is connected to the steering sensor 37. The detected rotation amount is notified to the CPU 31.

CPU31には描画回路38が接続される。描画回路38は、CPU31から供給される指令信号に基づき、スクリーン18やディスプレイ装置23、24の画面上に映し出される画像を生成する。こうして生成される画像に基づきドライバ回路39、41やプロジェクタドライバ回路42に画像信号が供給される。こういった画像信号の受信に応じて、ドライバ回路39、41やプロジェクタドライバ回路42は対応のディスプレイ装置23、24やプロジェクタ19に駆動信号を供給する。こうして供給される駆動信号に基づきディスプレイ装置23、24の画面上やスクリーン18上に画像は映し出される。   A drawing circuit 38 is connected to the CPU 31. The drawing circuit 38 generates an image to be displayed on the screen 18 or the display devices 23 and 24 based on a command signal supplied from the CPU 31. An image signal is supplied to the driver circuits 39 and 41 and the projector driver circuit 42 based on the generated image. In response to the reception of such image signals, the driver circuits 39 and 41 and the projector driver circuit 42 supply drive signals to the corresponding display devices 23 and 24 and the projector 19. Based on the drive signal thus supplied, an image is displayed on the screens of the display devices 23 and 24 and on the screen 18.

CPU31にはハードディスク駆動装置(HDD)や大容量フラッシュメモリといった記憶装置43が接続される。記憶装置43には例えばリアルタイムOS(オペレーティングシステム)44のほか、シミュレーションプログラム45や脇見運転モジュール46といったソフトウェアプログラムが格納される。後述されるように、CPU31はリアルタイムOS44上でシミュレーションプログラム45や脇見運転モジュール46を実行する。実行にあたって例えばCPU31はRAMメモリ47といった高速記憶装置に一時的にリアルタイムOS44やソフトウェアプログラム45、46を取り込む。シミュレーションプログラム45の実行にあたってCPU31は道路データ48や不動産データ49、自車座標系データ51を利用する。同様に、脇見運転モジュール46の実行にあたってCPU31は仮想移動経路データ52や周辺地理データ53、先行車座標系データ54、注視物データ55、色データ56を利用する。これらデータ48、49、51〜56の詳細は後述される。   A storage device 43 such as a hard disk drive (HDD) or a large-capacity flash memory is connected to the CPU 31. The storage device 43 stores, for example, a real-time OS (operating system) 44 and software programs such as a simulation program 45 and an armpit operation module 46. As will be described later, the CPU 31 executes the simulation program 45 and the aside operation module 46 on the real-time OS 44. For execution, for example, the CPU 31 temporarily loads the real-time OS 44 and software programs 45 and 46 into a high-speed storage device such as the RAM memory 47. In executing the simulation program 45, the CPU 31 uses road data 48, real estate data 49, and host vehicle coordinate system data 51. Similarly, the CPU 31 uses the virtual movement route data 52, the surrounding geographic data 53, the preceding vehicle coordinate system data 54, the gaze object data 55, and the color data 56 in executing the armpit driving module 46. Details of these data 48, 49, 51-56 will be described later.

CPU31にはタイマ57が接続される。このタイマ57は、CPU31から出力されるトリガ信号の受信に応じて計時を開始する。決められた時間が経過すると、タイマ57はCPU31に向かって通知信号を出力する。   A timer 57 is connected to the CPU 31. The timer 57 starts measuring time in response to receiving a trigger signal output from the CPU 31. When the determined time has elapsed, the timer 57 outputs a notification signal toward the CPU 31.

その他、模擬車体12にはスピーカ58が関連付けられてもよい。スピーカ58には例えばドライバ回路59が接続される。ドライバ回路59はCPU31に接続される。CPU31では音響データが生成される。こういった音響データは、例えばスクリーン18に映し出される画像に関連付けられればよい。ドライバ回路59は、CPU31から供給される音響データに基づきスピーカ58に駆動信号を供給する。供給される駆動信号に基づきスピーカ58からエンジン音といった音響は再現される。   In addition, a speaker 58 may be associated with the simulated vehicle body 12. For example, a driver circuit 59 is connected to the speaker 58. The driver circuit 59 is connected to the CPU 31. The CPU 31 generates acoustic data. Such acoustic data may be associated with, for example, an image displayed on the screen 18. The driver circuit 59 supplies a drive signal to the speaker 58 based on the acoustic data supplied from the CPU 31. Sound such as engine sound is reproduced from the speaker 58 based on the supplied drive signal.

ここで、個々のデータ48、49、51〜56を詳述する。道路データ48には、仮想三次元空間内で道路の位置を特定する道路情報が記述される。位置の特定にあたって仮想三次元空間に固有の三次元座標系は用いられる。道路は例えば両側の側縁で規定されればよい。この道路データ48には同時に道路のポリゴンデータが記述される。こういったポリゴンデータに基づき仮想三次元空間内に仮想的に道路は再現される。こうして再現される道路には周囲の建物や樹木、標識といった不動産が関連付けられる。不動産の位置情報が記述される。この位置情報では不動産の基準点ごとに座標値が特定される。   Here, the individual data 48, 49, 51-56 will be described in detail. In the road data 48, road information for specifying the position of the road in the virtual three-dimensional space is described. A three-dimensional coordinate system unique to the virtual three-dimensional space is used for specifying the position. For example, the road may be defined by side edges on both sides. This road data 48 describes road polygon data at the same time. A road is virtually reproduced in the virtual three-dimensional space based on such polygon data. Real estate such as surrounding buildings, trees, and signs are associated with the road thus reproduced. Real estate location information is described. In this position information, a coordinate value is specified for each real estate reference point.

不動産データ49には個々の不動産ごとにポリゴンデータが記述される。ポリゴンデータに基づき不動産の外観が特定される。このポリゴンデータが道路データ48内の位置情報に関連付けられると、前述の仮想三次元空間内で建物や樹木、標識といった不動産は再現される。こうして仮想三次元空間内に地理は構築される。   In the real estate data 49, polygon data is described for each individual real estate. The appearance of the real estate is specified based on the polygon data. When the polygon data is associated with position information in the road data 48, real estate such as buildings, trees, and signs are reproduced in the virtual three-dimensional space described above. Thus, geography is constructed in the virtual three-dimensional space.

自車座標系データ51には、模擬車体12に対応する車両に固有の三次元座標系が記述される。この三次元座標系内で運転手の視点やフロントガラス、サイドウィンドウ、バックミラー、サイドミラーの位置が特定される。視点およびフロントガラスやサイドウィンドウの相対位置に応じて車両から外側に広がる視野が設定される。同様に、視点およびバックミラーの相対位置や視点およびサイドミラーの相対位置に基づきバックミラーやサイドミラーに映し出される映像の範囲は設定される。前述の仮想三次元空間内でこの三次元座標系の姿勢が相対的に変化すると、仮想三次元空間内で視野や映像の範囲は移動する。   The own vehicle coordinate system data 51 describes a three-dimensional coordinate system unique to the vehicle corresponding to the simulated vehicle body 12. Within this three-dimensional coordinate system, the viewpoint of the driver and the positions of the windshield, side window, rearview mirror, and side mirror are specified. A field of view extending outward from the vehicle is set according to the viewpoint and the relative position of the windshield and side window. Similarly, the range of the image displayed on the rearview mirror and the side mirror is set based on the relative position of the viewpoint and the rearview mirror and the relative position of the viewpoint and the rearview mirror. When the attitude of the three-dimensional coordinate system changes relatively in the virtual three-dimensional space, the field of view and the range of the image move in the virtual three-dimensional space.

仮想移動経路データ52には、仮想三次元空間内で教習行路の位置を特定する行路情報が記述される。位置は、前述と同様に、仮想三次元空間に固有の三次元座標系に基づき特定される。ここでは、教習行路は1本の「線」で表現される。この「線」には勾配データおよびヨー角データが関連付けられる。勾配データには所定の距離間隔で教習行路の勾配が記述される。勾配は重力方向に直交する水平面に対して設定される。したがって、勾配データに基づき上り坂や下り坂は特定される。一方で、ヨー角データには所定の距離間隔で仮想車両のヨー角が記述される。ヨー角は例えば仮想三次元空間に固有のx軸に基づき設定される。このx軸は重力方向に直交する水平面内に設定される。加えて、仮想移動経路データ52には教習行路のポリゴンデータが記述される。こういったポリゴンデータに基づき仮想三次元空間内に仮想的に教習行路は再現される。こうして再現される教習行路には、前述と同様に、周囲の建物や樹木、標識といった不動産が関連付けられてもよい。   In the virtual movement route data 52, route information for specifying the position of the learning route in the virtual three-dimensional space is described. As described above, the position is specified based on a three-dimensional coordinate system unique to the virtual three-dimensional space. Here, the learning path is represented by a single “line”. The “line” is associated with gradient data and yaw angle data. The gradient data describes the gradient of the learning path at predetermined distance intervals. The gradient is set with respect to a horizontal plane orthogonal to the direction of gravity. Therefore, the uphill and the downhill are specified based on the gradient data. On the other hand, the yaw angle of the virtual vehicle is described in the yaw angle data at predetermined distance intervals. The yaw angle is set based on, for example, the x axis unique to the virtual three-dimensional space. The x axis is set in a horizontal plane orthogonal to the direction of gravity. In addition, the polygon data of the learning route is described in the virtual movement route data 52. The learning path is virtually reproduced in the virtual three-dimensional space based on the polygon data. In the same way as described above, real estate such as surrounding buildings, trees, and signs may be associated with the learning path reproduced in this way.

周辺地理データ53には個々の不動産ごとにポリゴンデータが記述される。ポリゴンデータに基づき不動産の外観が特定される。このポリゴンデータが仮想移動経路データ52内の位置情報に関連付けられると、前述の仮想三次元空間内で建物や樹木、標識といった不動産は再現される。こうして仮想三次元空間内に地理は構築される。   In the peripheral geographic data 53, polygon data is described for each individual real estate. The appearance of the real estate is specified based on the polygon data. When this polygon data is associated with position information in the virtual movement route data 52, real estate such as buildings, trees, and signs are reproduced in the virtual three-dimensional space. Thus, geography is constructed in the virtual three-dimensional space.

先行車座標系データ54には先行車すなわち1台の車両に固有の三次元座標系が記述される。この三次元座標系内で車両の外観のポリゴンデータが設定される。前述の仮想三次元空間内でこの三次元座標系の姿勢が相対的に変化すると、仮想三次元空間内で先行車の姿勢は変化する。   The preceding vehicle coordinate system data 54 describes a three-dimensional coordinate system unique to the preceding vehicle, that is, one vehicle. The polygon data of the appearance of the vehicle is set in this three-dimensional coordinate system. When the posture of the three-dimensional coordinate system relatively changes in the virtual three-dimensional space, the posture of the preceding vehicle changes in the virtual three-dimensional space.

注視物データ55には注視物のポリゴンデータが記述される。ポリゴンデータに基づき注視物の外観は特定される。このポリゴンデータが仮想移動経路データ52中の教習行路に関連付けられると、前述の三次元空間内に注視物は再現される。色データ56には注視物の色が記述される。色は背景色の種類に応じてそれぞれ設定される。個々の色には、背景色中で目立つ色が選択されればよい。例えば背景色が黄色や白といった明るい色であれば注視物の色には濃い青や黒といった濃い色が選択される。反対に、例えば背景色が濃い青や黒といった濃い色であれば注視物の色には黄色や白といった明るい色が選択される。   The gaze object data 55 describes the polygon data of the gaze object. The appearance of the gaze object is specified based on the polygon data. When this polygon data is associated with the learning path in the virtual movement path data 52, the gaze object is reproduced in the aforementioned three-dimensional space. The color data 56 describes the color of the gaze object. Each color is set according to the type of background color. For each color, a conspicuous color in the background color may be selected. For example, if the background color is a bright color such as yellow or white, a dark color such as dark blue or black is selected as the color of the gaze object. On the other hand, if the background color is a dark color such as dark blue or black, a bright color such as yellow or white is selected as the color of the gaze object.

シミュレーションプログラム45がCPU31で実行されると、描画回路38で生成される画像データに基づきスクリーン18やディスプレイ装置23、24の画面上に画像は表示される。同時に、サーボシリンダ13、13…の伸縮に基づき模擬車体12の姿勢は変化する。こうして視覚および加速度の体感に基づき座席15上の教習生は4輪シミュレータ装置11上で運転感覚を体験することができる。   When the simulation program 45 is executed by the CPU 31, an image is displayed on the screen 18 or the display devices 23 and 24 based on the image data generated by the drawing circuit 38. At the same time, the posture of the simulated vehicle body 12 changes based on the expansion and contraction of the servo cylinders 13. Thus, the instructor on the seat 15 can experience a driving sensation on the four-wheel simulator device 11 based on the visual and acceleration sensations.

画像データの生成にあたってCPU31では道路データ48に基づき仮想三次元空間が構築される。この仮想三次元空間内で仮想車両の位置が特定される。位置の特定は所定の時間間隔で実施される。こういった位置に基づき自車座標系データ51内の三次元座標系は仮想三次元空間内に座標変換される。その結果、仮想三次元空間内に運転手の視点や視野は設定される。こういった視点や視野に基づき仮想三次元空間内で道路データ48中のポリゴンデータや不動産データ49中のポリゴンデータは特定される。特定されたポリゴンデータは規定の投影面上に座標変換される。こうして描画回路38ではポリゴンデータに基づきスクリーン18に映し出される画像が形成される。同様に、ディスプレイ装置23、24で映し出される画像は形成される。画像は所定の時間間隔で変化する。   In generating the image data, the CPU 31 constructs a virtual three-dimensional space based on the road data 48. The position of the virtual vehicle is specified in the virtual three-dimensional space. The position is specified at predetermined time intervals. Based on these positions, the three-dimensional coordinate system in the host vehicle coordinate system data 51 is transformed into a virtual three-dimensional space. As a result, the viewpoint and field of view of the driver are set in the virtual three-dimensional space. Based on these viewpoints and fields of view, polygon data in the road data 48 and polygon data in the real estate data 49 are specified in the virtual three-dimensional space. The specified polygon data is coordinate-transformed on a prescribed projection plane. In this way, the drawing circuit 38 forms an image displayed on the screen 18 based on the polygon data. Similarly, images displayed on the display devices 23 and 24 are formed. The image changes at predetermined time intervals.

仮想車両の位置の特定にあたってCPU31では所定の時間間隔ごとに仮想車両の移動距離が算出される。移動距離の算出にあたってCPU31は仮想車両の車速を算出する。算出にあたってCPU31は一定の時間間隔でアクセルペダル33の踏み込み量およびブレーキペダル35の踏み込み量を参照する。   In specifying the position of the virtual vehicle, the CPU 31 calculates the moving distance of the virtual vehicle at predetermined time intervals. In calculating the movement distance, the CPU 31 calculates the vehicle speed of the virtual vehicle. In the calculation, the CPU 31 refers to the depression amount of the accelerator pedal 33 and the depression amount of the brake pedal 35 at regular time intervals.

4輪シミュレータ装置11上で運転手がアクセルペダル33を踏むと、踏み込み量が検出される。こういった検出は例えば一定の時間間隔(例えば0.1秒間隔)で実施されればよい。検出された踏み込み量はCPU31に通知される。CPU31は、予め決められた関係式に基づき踏み込み量から車両の加速度を導き出す。加速度は車両の前進方向で特定される。同時に、CPU31はその位置の仮想車両で重力に基づく減速度を算出する。この減速度の算出にあたってその位置の勾配が参照される。勾配は例えば道路データ48に基づき算出されればよい。こうして得られる加速度および減速度に基づき仮想車両の前進加速度が算出される。   When the driver steps on the accelerator pedal 33 on the four-wheel simulator device 11, the amount of depression is detected. Such detection may be performed, for example, at regular time intervals (for example, at intervals of 0.1 seconds). The detected amount of depression is notified to the CPU 31. The CPU 31 derives the acceleration of the vehicle from the depression amount based on a predetermined relational expression. The acceleration is specified in the forward direction of the vehicle. At the same time, the CPU 31 calculates a deceleration based on gravity in the virtual vehicle at that position. In calculating the deceleration, the gradient of the position is referred to. The gradient may be calculated based on the road data 48, for example. Based on the acceleration and deceleration obtained in this way, the forward acceleration of the virtual vehicle is calculated.

続いてCPU31は前進加速度から仮想車両の車速を算出する。例えば前述の時間間隔で前進加速度の積分値が算出される。この車速に基づき移動距離は導き出される。例えば前述の時間間隔で車速の積分値が算出されればよい。こうして所定の時間間隔ごとに移動距離は特定される。こういった移動距離に基づき道路上で仮想車両の位置は特定される。こうして時間の経過に伴って仮想三次元空間内で仮想車両は走行する。   Subsequently, the CPU 31 calculates the vehicle speed of the virtual vehicle from the forward acceleration. For example, the integral value of the forward acceleration is calculated at the aforementioned time interval. The travel distance is derived based on the vehicle speed. For example, the integrated value of the vehicle speed may be calculated at the aforementioned time interval. Thus, the moving distance is specified at every predetermined time interval. Based on these travel distances, the position of the virtual vehicle is identified on the road. Thus, the virtual vehicle travels in the virtual three-dimensional space as time passes.

4輪シミュレータ装置11上で運転手がブレーキペダル35を踏むと、踏み込み量が検出される。こういった検出は例えば一定の時間間隔(例えば0.1秒間隔)で実施されればよい。検出された踏み込み量はCPU31に通知される。CPU31は、予め決められた関係式に基づき踏み込み量から車両の減速度を導き出す。減速度は車両の前進方向で特定される。同時に、CPU31はその位置の仮想車両で重力に基づく減速度を算出する。この減速度の算出にあたって前述と同様にその位置の勾配が参照される。こうして得られる減速度に基づき仮想車両の前進減速度が算出される。   When the driver steps on the brake pedal 35 on the four-wheel simulator device 11, the amount of depression is detected. Such detection may be performed, for example, at regular time intervals (for example, at intervals of 0.1 seconds). The detected amount of depression is notified to the CPU 31. The CPU 31 derives the deceleration of the vehicle from the depression amount based on a predetermined relational expression. The deceleration is specified by the forward direction of the vehicle. At the same time, the CPU 31 calculates a deceleration based on gravity in the virtual vehicle at that position. In calculating the deceleration, the gradient of the position is referred to as described above. Based on the deceleration thus obtained, the forward deceleration of the virtual vehicle is calculated.

続いてCPU31は前進減速度から仮想車両の車速を算出する。前述と同様に、前進減速度の積分値が算出される。この積分値は車速の減速分に相当する。以前の車速から積分値が差し引かれると、その位置の車速が得られる。車速に基づき移動距離は導き出される。こうして時間の経過に伴って仮想三次元空間内で仮想車両の減速は再現される。   Subsequently, the CPU 31 calculates the vehicle speed of the virtual vehicle from the forward deceleration. Similar to the above, the integrated value of the forward deceleration is calculated. This integrated value corresponds to the deceleration of the vehicle speed. When the integrated value is subtracted from the previous vehicle speed, the vehicle speed at that position is obtained. The travel distance is derived based on the vehicle speed. Thus, the deceleration of the virtual vehicle is reproduced in the virtual three-dimensional space with the passage of time.

自車座標系データ51の座標変換にあたってCPU31では所定の時間間隔で自車座標系データ51に固有の三次元座標系の姿勢が特定される。こういった特定にあたってCPU31は仮想車両のピッチ角およびロール角を算出する。ピッチ角の算出にあたってCPU31は前述の加減速度を利用する。同時にCPU31は道路の勾配を参照してもよい。勾配は仮想三次元空間内の位置に基づき例えば道路データ48から算出されればよい。ロール角の算出にあたってCPU31は仮想車両のヨー角を特定する。ヨー角の特定にあたってCPU31は一定の時間間隔でステアリング17の回転量を参照する。   In the coordinate conversion of the host vehicle coordinate system data 51, the CPU 31 specifies the posture of the three-dimensional coordinate system unique to the host vehicle coordinate system data 51 at predetermined time intervals. In such identification, the CPU 31 calculates the pitch angle and roll angle of the virtual vehicle. In calculating the pitch angle, the CPU 31 uses the acceleration / deceleration described above. At the same time, the CPU 31 may refer to the road gradient. For example, the gradient may be calculated from the road data 48 based on the position in the virtual three-dimensional space. In calculating the roll angle, the CPU 31 specifies the yaw angle of the virtual vehicle. In specifying the yaw angle, the CPU 31 refers to the rotation amount of the steering wheel 17 at regular time intervals.

4輪シミュレータ装置11上で運転手がステアリング17を回すと、回転量が検出される。こういった検出は、前述と同様に、例えば一定の時間間隔(例えば0.1秒間隔)で実施されればよい。検出された回転量はCPU31に通知される。CPU31は、予め決められた関係式に基づき回転量から車両のヨー角を導き出す。こうして一定の時間間隔ごとにヨー角の変化量は特定される。CPU31は、ヨー角の変化量と前述の車速とに基づき所定の関係式に従って仮想車両の横方向加速度を導き出す。この横方向加速度は旋回時の慣性力に相当する。こうして算出される横方向加速度に基づきCPU31は仮想車両のロール角を算出する。算出にあたって任意の関係式が用いられればよい。   When the driver turns the steering wheel 17 on the four-wheel simulator device 11, the amount of rotation is detected. Such detection may be performed, for example, at regular time intervals (for example, at intervals of 0.1 seconds) as described above. The detected rotation amount is notified to the CPU 31. The CPU 31 derives the yaw angle of the vehicle from the rotation amount based on a predetermined relational expression. In this way, the amount of change in yaw angle is specified at regular time intervals. The CPU 31 derives the lateral acceleration of the virtual vehicle according to a predetermined relational expression based on the change amount of the yaw angle and the vehicle speed described above. This lateral acceleration corresponds to the inertial force when turning. Based on the lateral acceleration thus calculated, the CPU 31 calculates the roll angle of the virtual vehicle. Any relational expression may be used for the calculation.

サーボシリンダ13、13…の制御にあたってCPU31は前述のピッチ角およびロール角を利用する。例えば、ピッチ角の確立にあたって個々のサーボシリンダ13、13…に要求される伸縮量と、ロール角の確立にあたって個々のサーボシリンダ13、13…に要求される伸縮量とが個別に算出される。2つの伸縮量は重ね合わせられる。こうして模擬車体12では車両の挙動が再現される。設定されるピッチ角に基づき模擬車体12はx軸回りで回転する。こうして教習生は加速感や減速感を体験することができる。同時に、教習生は旋回時の横方向加速感を体験することができる。こういった模擬車体12の挙動がスクリーン18の視覚効果と相俟って4輪シミュレータ装置11では臨場感に溢れる模擬走行が実現されることができる。   In controlling the servo cylinders 13, 13,..., The CPU 31 uses the pitch angle and roll angle described above. For example, the amount of expansion / contraction required for the individual servo cylinders 13, 13... For establishing the pitch angle and the amount of expansion / contraction required for the individual servo cylinders 13, 13. The two expansion / contraction amounts are superimposed. In this way, the behavior of the vehicle is reproduced in the simulated vehicle body 12. Based on the set pitch angle, the simulated vehicle body 12 rotates around the x axis. In this way, trainees can experience a sense of acceleration and deceleration. At the same time, trainees can experience a sense of lateral acceleration when turning. The behavior of the simulated vehicle body 12 combined with the visual effect of the screen 18 can realize a realistic running simulation in the four-wheel simulator device 11.

いま、脇見運転モジュール46が実行される場面を想定する。実行にあたって前述の仮想移動経路データ52に基づき仮想三次元空間内で所定の教習行路が設定される。ここでは、教習行路は直線および曲線で表現される。図3から明らかなように、教習行路61は長さ1000[m]の第1直線域62aと、長さ700[m]の第2および第3直線域62b、62cと、長さ400[m]の第4直線域62dとを備える。第1直線域62aと第2直線域62bとの間や第2直線域62bと第3直線域62cとの間、第4直線域62dと第1直線域62aとの間はそれぞれ曲率半径50[m]のカーブ63a〜63cで接続される。第3直線域62cと第4直線域62dとの間は曲率半径350[m]のカーブ63dで接続される。直線域62a〜62d同士の内角は90°に設定される。しかも、第3直線域62cには長さ100[m]の上り坂64aおよび長さ100[m]の下り坂64bが設定される。上り坂64aおよび下り坂64bの傾斜角は例えば15°に設定される。第1直線域62a上に走行開始位置65が設定される。   Now, a scene in which the armpit driving module 46 is executed is assumed. In execution, a predetermined learning path is set in the virtual three-dimensional space based on the virtual movement path data 52 described above. Here, the learning path is expressed by straight lines and curves. As is apparent from FIG. 3, the learning path 61 has a first straight area 62a having a length of 1000 [m], second and third straight areas 62b and 62c having a length of 700 [m], and a length of 400 [m. ] A fourth linear region 62d. A curvature radius of 50 [between the first linear region 62a and the second linear region 62b, between the second linear region 62b and the third linear region 62c, and between the fourth linear region 62d and the first linear region 62a, respectively. m] curves 63a to 63c. The third linear region 62c and the fourth linear region 62d are connected by a curve 63d having a curvature radius of 350 [m]. The internal angle between the linear regions 62a to 62d is set to 90 °. Moreover, an uphill 64a having a length of 100 [m] and a downhill 64b having a length of 100 [m] are set in the third linear area 62c. The inclination angles of the uphill 64a and the downhill 64b are set to 15 °, for example. A travel start position 65 is set on the first linear area 62a.

こういった教習行路61に基づき仮想移動経路データ52では勾配データおよびヨー角データが構築される。例えば、勾配データでは、開始位置および終了位置の間で所定の走行距離ごとに教習行路61の勾配が記述される。ヨー角データでは、個々のカーブ63a〜63dに対して開始位置および終了位置の間で所定の走行距離ごとにヨー角が記述される。ヨー角の計測にあたって、例えば走行開始位置65に設定される自車座標系データ51の三次元座標系が基準に設定される。   Based on these learning paths 61, gradient data and yaw angle data are constructed in the virtual movement route data 52. For example, in the gradient data, the gradient of the learning path 61 is described for each predetermined travel distance between the start position and the end position. In the yaw angle data, the yaw angle is described for each predetermined travel distance between the start position and the end position for each of the curves 63a to 63d. In measuring the yaw angle, for example, the three-dimensional coordinate system of the host vehicle coordinate system data 51 set at the travel start position 65 is set as a reference.

脇見運転モジュール46が実行されると、CPU31は前述のシミュレーションプログラム45に基づき仮想三次元空間を構築する。ただし、CPU31は前述の道路データ48に代えて仮想移動経路データ52を利用する。車両の位置は教習行路61上で特定される。位置の特定にあたって車両の走行距離が算出される。算出にあたって前述の車速が利用される。前述のように、車速はアクセルペダル33やブレーキペダル35の踏み込み量に基づき特定される。仮想三次元空間内では教習行路61は「線」で表現されることから、走行距離だけで教習行路61上で車両の位置は特定されることができる。こういった位置に基づき仮想三次元空間内で教習生の視点や視野は設定される。設定される視点や視野に基づき仮想移動経路データ52中のポリゴンデータや周辺地理データ53中のポリゴンデータが特定される。前述と同様に、描画回路38でポリゴンデータに基づきスクリーン18に映し出される画像は形成される。こうして画像中には、図4に示されるように、教習行路61すなわち進路が描き出される。ただし、ピッチ角やロール角の算出にあたってCPU31では仮想移動経路データ52中の勾配データやヨー角データが利用される。   When the armpit operation module 46 is executed, the CPU 31 constructs a virtual three-dimensional space based on the simulation program 45 described above. However, the CPU 31 uses the virtual movement route data 52 instead of the road data 48 described above. The position of the vehicle is specified on the learning route 61. When the position is specified, the travel distance of the vehicle is calculated. The aforementioned vehicle speed is used for the calculation. As described above, the vehicle speed is specified based on the depression amount of the accelerator pedal 33 and the brake pedal 35. In the virtual three-dimensional space, the learning path 61 is expressed by a “line”, so that the position of the vehicle on the learning path 61 can be specified only by the travel distance. Based on these positions, the trainee's viewpoint and field of view are set in the virtual three-dimensional space. Based on the set viewpoint and field of view, the polygon data in the virtual movement route data 52 and the polygon data in the surrounding geographic data 53 are specified. Similar to the above, an image displayed on the screen 18 is formed by the drawing circuit 38 based on the polygon data. In this way, as shown in FIG. 4, a learning path 61, that is, a course is drawn in the image. However, in calculating the pitch angle and roll angle, the CPU 31 uses gradient data and yaw angle data in the virtual movement path data 52.

画像の形成にあたって描画回路38では先行車座標系データ54中のポリゴンデータが併せて特定される。まず、CPU31は車間時間を設定する。CPU31は一定の車間時間を維持する。「車間時間」は、1地点で先行車の通過から後続車の通過までに経過する時間をいう。車間時間は予め特定の値に設定されればよい。車間時間は例えば3秒程度に設定される。設定された車間時間および車速に基づきCPU31は車間距離を算出する。こういった車間距離の算出にあたってCPU31は所定の時間間隔で車速を参照する。   In forming the image, the drawing circuit 38 specifies the polygon data in the preceding vehicle coordinate system data 54 together. First, the CPU 31 sets an inter-vehicle time. The CPU 31 maintains a certain inter-vehicle time. “Inter-vehicle time” refers to the time elapsed from the passage of the preceding vehicle to the passage of the subsequent vehicle at one point. The inter-vehicle time may be set to a specific value in advance. The inter-vehicle time is set to about 3 seconds, for example. Based on the set inter-vehicle time and the vehicle speed, the CPU 31 calculates the inter-vehicle distance. In calculating the inter-vehicle distance, the CPU 31 refers to the vehicle speed at predetermined time intervals.

こうして車間距離が算出されると、CPU31は先行車の位置を特定する。前述のように仮想三次元空間内では教習行路61は「線」で表現されることから、前述の走行距離に車間距離が足し合わせられると、教習行路61上で先行車の位置は特定されることができる。こうして先行車の位置が決定されると、CPU31は仮想移動経路データ52中のヨー角データに基づき先行車のヨー角すなわち向きを特定する。続いてCPU31は先行車座標系データ54に基づき仮想三次元空間内で先行車のポリゴンデータを特定する。特定されたポリゴンデータは規定の投影面上に座標変換される。こうしてスクリーン18に映し出される画像内では、例えば図4に示されるように、先行車の後ろ姿66は再現されることができる。教習生はリアルに車間距離を体感することができる。先行車の後ろ姿66は進路上の前方注視点67として機能する。   When the inter-vehicle distance is thus calculated, the CPU 31 specifies the position of the preceding vehicle. As described above, the learning path 61 is represented by a “line” in the virtual three-dimensional space. Therefore, when the inter-vehicle distance is added to the travel distance, the position of the preceding vehicle is specified on the learning path 61. be able to. When the position of the preceding vehicle is thus determined, the CPU 31 specifies the yaw angle, that is, the direction of the preceding vehicle based on the yaw angle data in the virtual movement route data 52. Subsequently, the CPU 31 specifies the polygon data of the preceding vehicle in the virtual three-dimensional space based on the preceding vehicle coordinate system data 54. The specified polygon data is coordinate-transformed on a prescribed projection plane. In this way, in the image displayed on the screen 18, the rear view 66 of the preceding vehicle can be reproduced, for example, as shown in FIG. The trainee can experience the distance between the cars realistically. The rear view 66 of the preceding vehicle functions as a forward gazing point 67 on the course.

脇見運転の実現にあたって、CPU31は、例えば図5に示されるように、ステップS1で基準位置を設定する。この基準位置は教習行路61上で任意に配置されればよい。基準位置は予め決められた位置に設定されてもよくランダムに設定されてもよい。こうして基準位置が設定されると、ステップS2で、基準位置に仮想車両が到達したか否かが判定される。このとき、スクリーン18上には、前述のように、教習生の視界を再現する画像が映し出され続ける。   In realizing the side-viewing operation, the CPU 31 sets a reference position in step S1, for example, as shown in FIG. This reference position may be arbitrarily arranged on the learning path 61. The reference position may be set at a predetermined position or may be set at random. When the reference position is set in this way, it is determined in step S2 whether or not the virtual vehicle has reached the reference position. At this time, as described above, an image that reproduces the trainee's field of vision continues to be displayed on the screen 18.

仮想車両が基準位置に到達すると、例えば図6に示されるように、CPU31はステップS3でスクリーン18上の画像上に注視物68を映し出す。注視物68は教習行路61すなわち進路から外れた位置に表示される。注視物68には例えばタレントその他の有名人や動物などが用いられればよい。こうして教習生の視線は先行車の後ろ姿66から注視物68に移行する。注視物68は脇見注視点69として機能する。教習生の意識は脇見注視点69に集中する。こうして前方注視点67から離れた脇見注視点69に意識の集中を誘引する事象は生成される。注視物68の生成方法は後述される。   When the virtual vehicle reaches the reference position, for example, as shown in FIG. 6, the CPU 31 projects a gaze object 68 on the image on the screen 18 in step S <b> 3. The gaze object 68 is displayed at a position away from the learning path 61, that is, the course. For the gaze object 68, for example, a talent or other famous person or animal may be used. Thus, the trainee's line of sight shifts from the rear view 66 of the preceding vehicle to the gaze 68. The gaze object 68 functions as a side look gaze point 69. The consciousness of the trainee concentrates on the watchful gaze point 69. In this way, an event that induces concentration of consciousness at the side gaze point 69 away from the front gaze point 67 is generated. A method for generating the gaze object 68 will be described later.

注視物68の描画と同時にCPU31はタイマ57に向けてトリガ信号を出力する。その結果、第1タイミングでタイマ57の計時が開始される。ステップS4でCPU31はタイマ57の計時を監視する。タイマ57で予め決められた時間が経過すると、CPU31は第2タイミングで通知信号を受信する。こうしてステップS4で通知信号を受信すると、CPU31の処理はステップS5に移行する。   The CPU 31 outputs a trigger signal toward the timer 57 simultaneously with the drawing of the gaze object 68. As a result, the timer 57 starts counting at the first timing. In step S4, the CPU 31 monitors the timer 57. When the time predetermined by the timer 57 elapses, the CPU 31 receives the notification signal at the second timing. When the notification signal is received in step S4, the process of the CPU 31 proceeds to step S5.

ステップS5でCPU31はスクリーン18の画像上で先行車を急停車させる。こういった急停車の実現にあたってCPU31は仮想三次元空間内で急激に先行車の移動を減速させる。ここでは、先行車の位置の特定にあたって、設定された車間時間は無視されればよい。こうして第1タイミングでは予測不可能な事象が第1タイミングから所定時間経過後の第2タイミングで生成される。教習生が急激にブレーキペダル35を踏まない限り、スクリーン18上で先行車の後ろ姿66は急激に接近する。こうして教習生はリアルに脇見運転の危険性を体感することができる。   In step S5, the CPU 31 causes the preceding vehicle to stop suddenly on the screen 18 image. In realizing such a sudden stop, the CPU 31 decelerates the movement of the preceding vehicle rapidly in the virtual three-dimensional space. Here, when the position of the preceding vehicle is specified, the set inter-vehicle time may be ignored. Thus, an event that cannot be predicted at the first timing is generated at the second timing after a predetermined time has elapsed from the first timing. Unless the trainee steps on the brake pedal 35 suddenly, the rear view 66 of the preceding vehicle approaches rapidly on the screen 18. In this way, trainees can experience the danger of driving aside.

ここで、注視物68の生成方法を詳述する。図7に示されるように、ステップT1でCPU31は基準位置の仮想車両の車速を特定する。続くステップT2で、CPU31は、所定時間経過後の仮想車両の予測到達位置を特定する。特定にあたってCPU31は基準位置からの予測走行距離を算出する。算出にあたってCPU31は所定時間経過中に一定速度の持続を仮定する。所定時間にわたって車速の積分値が算出されればよい。予測到達位置は仮想三次元空間内で特定される。特定された予測到達位置に基づき、CPU31はステップT3で仮想三次元空間内で注視物68を構築する。構築にあたってCPU31は注視物データ55内のポリゴンデータを利用する。   Here, a method of generating the gaze object 68 will be described in detail. As shown in FIG. 7, in step T1, the CPU 31 specifies the vehicle speed of the virtual vehicle at the reference position. In subsequent step T2, the CPU 31 specifies the predicted arrival position of the virtual vehicle after a predetermined time has elapsed. In specifying, the CPU 31 calculates a predicted travel distance from the reference position. In the calculation, the CPU 31 assumes a constant speed during a predetermined time. The integrated value of the vehicle speed may be calculated over a predetermined time. The predicted arrival position is specified in the virtual three-dimensional space. Based on the identified predicted arrival position, the CPU 31 constructs the gaze object 68 in the virtual three-dimensional space in step T3. In the construction, the CPU 31 uses polygon data in the gaze object data 55.

ステップT4でCPU31は前述と同様に自車座標系データ51で特定される視点や視野に基づき注視物68の画像を描画する。描画にあたってCPU31は色データ56を参照する。色データ56から最適な色が選択される。色の選択にあたってCPU31は背景色を確認する。背景色に応じて注視物68は色塗りされる。   In step T4, the CPU 31 draws an image of the watched object 68 based on the viewpoint and field of view specified by the host vehicle coordinate system data 51 as described above. In drawing, the CPU 31 refers to the color data 56. An optimum color is selected from the color data 56. In selecting a color, the CPU 31 confirms the background color. The gaze object 68 is colored according to the background color.

予測走行距離の算出にあたってCPU31は基準位置で車速に加えて加速度を参照してもよい。CPU31は所定時間経過中に一定加速度の維持を仮定する。こうした仮定に基づき所定時間にわたって車速の積分値が算出されればよい。   In calculating the predicted travel distance, the CPU 31 may refer to the acceleration in addition to the vehicle speed at the reference position. The CPU 31 assumes that constant acceleration is maintained during a predetermined time. Based on these assumptions, the integrated value of the vehicle speed may be calculated over a predetermined time.

なお、前述の脇見運転モジュール46では、教習行路61上に上り坂64aや下り坂64bが必ずしも存在しなくてもよい。前述のように脇見の実現にあたって、必ずしも画像が利用される必要はなく、模擬車体12内で教習生の気を引く事象が生成されればよい。   In the above-described armpit driving module 46, the uphill 64a and the downhill 64b do not necessarily exist on the learning path 61. As described above, it is not always necessary to use an image for realizing a side look, and an event that draws attention from the trainee in the simulated vehicle body 12 may be generated.

本発明に係る移動体シミュレータ装置の一具体例すなわち自動車教習用4輪シミュレータ装置の外観を概略的に示す斜視図である。1 is a perspective view schematically showing an external appearance of a specific example of a mobile simulator device according to the present invention, that is, a four-wheel simulator device for automobile training. FIG. 4輪シミュレータ装置の制御系を概略的に示すブロック図である。It is a block diagram which shows roughly the control system of a four-wheel simulator apparatus. 仮想移動経路データの構造を概略的に示す概念図である。It is a conceptual diagram which shows roughly the structure of virtual movement path | route data. 先行車の後ろ姿すなわち前方注視点を含む画像を概略的に示す概念図である。It is a conceptual diagram which shows roughly the image containing the back figure of a preceding vehicle, ie, a front gaze point. 脇見運転モジュールの処理を概略的に示すフローチャートである。It is a flowchart which shows the process of an armpit driving | operation module roughly. 注視物すなわち脇見注視点を含む画像を概略的に示す概念図である。It is a conceptual diagram which shows roughly the image containing a gaze thing, ie, a side look point. 注視物の生成工程を概略的に示すフローチャートである。It is a flowchart which shows the production | generation process of a gaze object roughly.

符号の説明Explanation of symbols

11 移動体シミュレータ装置としての4輪シミュレータ装置、15 座席、18 画像表示装置(スクリーン)、31 第1事象生成手段および第2事象生成手段(演算手段)としてのCPU、38 画像生成手段としての描画回路、46 移動体シュミレータ装置用プログラム(脇見運転モジュール)、61 進路(教習行路)、67 前方注視点、68 注視物、69 脇見注視点。   DESCRIPTION OF SYMBOLS 11 Four-wheel simulator apparatus as a mobile body simulator apparatus, 15 seats, 18 Image display apparatuses (screen), 31 CPU as 1st event generation means and 2nd event generation means (calculation means), 38 Drawing as image generation means Circuit, 46 Program for moving body simulator device (armpit driving module), 61 course (training path), 67 forward gaze point, 68 gaze object, 69 side gaze gaze point.

Claims (8)

座席と、座席の前方に配置されて、運転手の視界を再現する画像中に進路上の前方注視点を映し出す画像表示装置と、第1タイミングで、前方注視点から離れた脇見注視点に視線の移動を誘引する事象を生成する第1事象生成手段と、第1タイミングから所定時間経過後の第2タイミングで、第1タイミングでは予測不可能な事象を生成する第2事象生成手段とを備えることを特徴とする移動体シミュレータ装置。   A seat, an image display device that is arranged in front of the seat and displays a forward gazing point on the course in an image that reproduces the driver's field of view, and at the first timing, gazing at a side gazing point that is away from the forward gazing point First event generation means for generating an event that induces the movement of the second event generation means, and second event generation means for generating an event unpredictable at the first timing at a second timing after a predetermined time has elapsed from the first timing. A mobile simulator apparatus characterized by the above. 座席と、座席の前方に配置されて、運転手の視界を再現する画像中に進路を映し出す画像表示装置と、仮想三次元空間内で特定される基準位置の移動体の速度に基づき所定時間経過後の移動体の予測到達位置を算出し、画像上で予測到達位置を特定する演算手段と、特定された予測到達位置に基づき、画像上で進路から外れた位置に注視物を描き出す画像生成手段とを備えることを特徴とする移動体シミュレータ装置。   A predetermined time elapses based on the speed of the seat, the image display device arranged in front of the seat and displaying the course in the image that reproduces the driver's field of view, and the moving body at the reference position specified in the virtual three-dimensional space Calculation means for calculating the predicted arrival position of the subsequent moving body and specifying the predicted arrival position on the image, and image generation means for drawing a gaze object at a position off the course on the image based on the specified predicted arrival position A moving body simulator device comprising: 請求項2に記載の移動体シミュレータ装置において、前記演算手段は、前記予測到達位置の算出にあたって、基準位置の移動体の加速度をさらに参照することを特徴とする移動体シミュレータ装置。   3. The moving body simulator apparatus according to claim 2, wherein the calculation means further refers to an acceleration of the moving body at a reference position when calculating the predicted arrival position. 請求項2に記載の移動体シミュレータ装置において、前記画像生成手段は、前記注視物を描き出した後、画像中の進路上で移動を停止する先行移動体を描き出すことを特徴とする移動体シミュレータ装置。   3. The moving body simulator apparatus according to claim 2, wherein the image generation means draws a preceding moving body that stops moving on a course in the image after drawing the gaze object. . 画像表示装置上で、運転手の視界を再現する画像中に進路上の前方注視点を映し出す手順と、第1タイミングで、前方注視点から離れた脇見注視点に視線の移動を誘引する事象を第1事象生成手段で生成させる手順と、第1タイミングから所定時間経過後の第2タイミングで、第1タイミングでは予測不可能な事象を第2事象生成手段で生成させる手順とを備えることを特徴とする移動体シミュレータ装置の制御方法。   On the image display device, a procedure for projecting a forward gazing point on the course in an image that reproduces the driver's field of view, and an event that induces the movement of the line of sight to the side gazing point away from the forward gazing point at the first timing. A procedure for generating by the first event generating means; and a procedure for generating an event unpredictable at the first timing by the second event generating means at the second timing after a lapse of a predetermined time from the first timing. A control method for a mobile simulator device. 画像表示装置上で、運転手の視界を再現する画像中に進路を映し出す手順と、仮想三次元空間内で特定される基準位置での移動体の速度に基づき、所定時間経過後の移動体の予測到達位置を算出する手順と、画像上で予測到達位置を特定する手順と、特定された予測到達位置に基づき、画像上で進路から外れた位置に注視物を映し出す手順とを備えることを特徴とする移動体シミュレータの制御方法。   On the image display device, based on the procedure for projecting the course in the image that reproduces the driver's field of view and the speed of the moving body at the reference position specified in the virtual three-dimensional space, the moving body after a predetermined time has elapsed. A procedure for calculating a predicted arrival position, a procedure for specifying the predicted arrival position on the image, and a procedure for projecting a gaze object at a position off the course on the image based on the specified predicted arrival position. A control method for a mobile simulator. 画像表示装置上で、運転手の視界を再現する画像中に進路上の前方注視点を映し出す手順と、第1タイミングで、前方注視点から離れた脇見注視点に視線の移動を誘引する事象を第1事象生成手段で生成させる手順と、第1タイミングから所定時間経過後の第2タイミングで、第1タイミングでは予測不可能な事象を第2事象生成手段で生成させる手順とを演算処理回路に実行させることを特徴とする移動体シミュレータ装置用制御プログラム。   On the image display device, a procedure for projecting a forward gazing point on the course in an image that reproduces the driver's field of view, and an event that induces the movement of the line of sight to the side gazing point away from the forward gazing point at the first timing. The arithmetic processing circuit includes a procedure for generating by the first event generating means and a procedure for generating by the second event generating means an event that cannot be predicted at the first timing at the second timing after a lapse of a predetermined time from the first timing. A control program for a mobile simulator device, characterized by being executed. 画像表示装置上で、運転手の視界を再現する画像中に進路を映し出す手順と、仮想三次元空間内で特定される基準位置での移動体の速度に基づき、所定時間経過後の移動体の予測到達位置を算出する手順と、画像上で予測到達位置を特定する手順と、特定された予測到達位置に基づき、画像上で進路から外れた位置に注視物を映し出す手順とを演算処理回路に実行させることを特徴とする移動体シミュレータ装置用制御プログラム。
On the image display device, based on the procedure for projecting the course in the image that reproduces the driver's field of view and the speed of the moving body at the reference position specified in the virtual three-dimensional space, the moving body after a predetermined time has elapsed. The calculation processing circuit includes a procedure for calculating the predicted arrival position, a procedure for specifying the predicted arrival position on the image, and a procedure for projecting a gaze object at a position off the course on the image based on the specified predicted arrival position. A control program for a mobile simulator device, characterized by being executed.
JP2005284245A 2005-09-29 2005-09-29 MOBILE BODY SIMULATOR, ITS CONTROL METHOD, AND CONTROL PROGRAM Active JP4493575B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005284245A JP4493575B2 (en) 2005-09-29 2005-09-29 MOBILE BODY SIMULATOR, ITS CONTROL METHOD, AND CONTROL PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005284245A JP4493575B2 (en) 2005-09-29 2005-09-29 MOBILE BODY SIMULATOR, ITS CONTROL METHOD, AND CONTROL PROGRAM

Publications (2)

Publication Number Publication Date
JP2007094082A true JP2007094082A (en) 2007-04-12
JP4493575B2 JP4493575B2 (en) 2010-06-30

Family

ID=37979874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005284245A Active JP4493575B2 (en) 2005-09-29 2005-09-29 MOBILE BODY SIMULATOR, ITS CONTROL METHOD, AND CONTROL PROGRAM

Country Status (1)

Country Link
JP (1) JP4493575B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010002714A (en) * 2008-06-20 2010-01-07 Toyota Motor Corp Simulator device and operation challenge providing method
JP2010151942A (en) * 2008-12-24 2010-07-08 Toyota Motor Corp Driving simulator
KR101242162B1 (en) 2011-03-22 2013-03-11 성균관대학교산학협력단 Apparatus and method for training peripheral vision
WO2019092897A1 (en) * 2017-11-10 2019-05-16 株式会社アイロック Simulated experience apparatus for automatic brake in four-wheeled vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH113027A (en) * 1997-06-10 1999-01-06 Mitsubishi Precision Co Ltd Simulator for training drive
JP2003263099A (en) * 2002-03-07 2003-09-19 Honda Motor Co Ltd Driving training system using driving simulator

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH113027A (en) * 1997-06-10 1999-01-06 Mitsubishi Precision Co Ltd Simulator for training drive
JP2003263099A (en) * 2002-03-07 2003-09-19 Honda Motor Co Ltd Driving training system using driving simulator

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010002714A (en) * 2008-06-20 2010-01-07 Toyota Motor Corp Simulator device and operation challenge providing method
JP2010151942A (en) * 2008-12-24 2010-07-08 Toyota Motor Corp Driving simulator
KR101242162B1 (en) 2011-03-22 2013-03-11 성균관대학교산학협력단 Apparatus and method for training peripheral vision
WO2019092897A1 (en) * 2017-11-10 2019-05-16 株式会社アイロック Simulated experience apparatus for automatic brake in four-wheeled vehicle
JP2019086741A (en) * 2017-11-10 2019-06-06 株式会社アイロック Automatic braking simulation experience device of four-wheel automobile

Also Published As

Publication number Publication date
JP4493575B2 (en) 2010-06-30

Similar Documents

Publication Publication Date Title
JP6608146B2 (en) Virtually transparent instrument cluster with live video
US10825350B2 (en) Virtual reality driver training and assessment system
US9902403B2 (en) Sensory stimulation for an autonomous vehicle
US20190061655A1 (en) Method and apparatus for motion sickness prevention
US5184956A (en) Method and device for training in the driving of vehicles
JP2020527432A (en) Racing simulation
WO2019124158A1 (en) Information processing device, information processing method, program, display system, and moving body
JP3400969B2 (en) 4-wheel driving simulator
Kim et al. Effects on productivity and safety of map and augmented reality navigation paradigms
JP2006248450A (en) On-vehicle information providing device
US20180182261A1 (en) Real Time Car Driving Simulator
JP2010002714A (en) Simulator device and operation challenge providing method
JP4493575B2 (en) MOBILE BODY SIMULATOR, ITS CONTROL METHOD, AND CONTROL PROGRAM
JP2021075219A (en) Display control device and display control program
JP2011227242A (en) Drive simulation device, control program of drive simulation device, and control method of drive simulation device
JP4312977B2 (en) Driving simulation device and image display control method
CN114506278B (en) Panoramic virtual environment for in-vehicle entertainment
JP2015018074A (en) Vehicle drive simulation device
JP5687879B2 (en) Information processing apparatus, automobile, information processing method and program
JP2003263099A (en) Driving training system using driving simulator
US20240095418A1 (en) System and method for an augmented-virtual reality driving simulator using a vehicle
US20200265736A1 (en) Automatic-brake simulator for four-wheel vehicle
JP2013167732A (en) Display, screen and image conversion apparatus
Sakamura et al. A virtual boarding system of an autonomous vehicle for investigating the effect of an AR display on passenger comfort
JP2007323001A (en) Image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100406

R150 Certificate of patent or registration of utility model

Ref document number: 4493575

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140416

Year of fee payment: 4