JP2012048105A - Driving simulator and control program thereof - Google Patents

Driving simulator and control program thereof Download PDF

Info

Publication number
JP2012048105A
JP2012048105A JP2010191968A JP2010191968A JP2012048105A JP 2012048105 A JP2012048105 A JP 2012048105A JP 2010191968 A JP2010191968 A JP 2010191968A JP 2010191968 A JP2010191968 A JP 2010191968A JP 2012048105 A JP2012048105 A JP 2012048105A
Authority
JP
Japan
Prior art keywords
image
moving body
driving
view
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010191968A
Other languages
Japanese (ja)
Inventor
Kazuhiko Oshiba
和彦 大芝
Masato Harada
正人 原田
Katsuyoshi Watanabe
克好 渡辺
Keisuke Yamanaka
圭介 山中
Hiroyuki Shiba
宏幸 柴
Yoshihisa Izumi
佳久 和泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP2010191968A priority Critical patent/JP2012048105A/en
Publication of JP2012048105A publication Critical patent/JP2012048105A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a driving simulator for simulating the driving, which especially is capable of providing a driving state/view field state close to the reality according to various conditions.SOLUTION: This driving simulator, in response to an operator's operation, displays a simulation image of the view field from a driver and allows the operator to experience a driving simulation. This driving simulator includes: display means for displaying the simulation image; operation means for generating operation information; and control means acquiring a motion state of a mobile body in a virtual space to be driven based on the operation information and data representing the virtual space, generating a front view field simulation image in the front based on motion state information and the data representing the virtual space, and allowing the display means to display it. When either of the position of the mobile body, the moving speed and the moving direction, which are the motion state information, satisfies a prescribed condition, the control means generates another view field simulation image in the direction other than the front, synthesizes it with a partial region in the front view field simulation image, and allows the display means to display it.

Description

本発明は、自動車などの運転を模擬するための運転模擬装置等に関し、特に、様々な状況に応じてより現実に近い運転状態/視界状態を与えることのできる運転模擬装置等に関する。   The present invention relates to a driving simulation device for simulating driving of an automobile or the like, and more particularly to a driving simulation device that can give a driving state / viewing state closer to reality according to various situations.

従来、運転教習所では、教習の初期段階等において実際の自動車を運転する代わりに運転模擬装置を用いる場合がある。かかる運転模擬装置は、操作者の操作に応答して仮想空間内の仮想自動車を移動させ、当該仮想自動車の運転席から見える景観を操作者に表示するように構成されている。また、ドライビングゲームも予てより普及しており、ここでも同様の運転模擬装置が用いられている。   Conventionally, in a driving school, a driving simulation device may be used instead of driving an actual car in an initial stage of the training or the like. Such a driving simulation device is configured to move a virtual vehicle in a virtual space in response to an operation of the operator, and to display a landscape seen from the driver's seat of the virtual vehicle to the operator. In addition, driving games are prevailing in advance, and a similar driving simulation device is used here.

このような運転模擬装置においては、実際の運転により近い状態を作り出すために様々な工夫がなされており、特に、最近の表示処理能力の向上に伴って、複数の視界の画像を操作者に提供するための改良がなされている。   In such a driving simulation device, various devices have been devised to create a state closer to actual driving, and in particular, with the recent improvement in display processing capability, images of multiple views are provided to the operator. Improvements have been made.

例えば、下記特許文献1には、左折時などには左後方の交通状態が確認でき、運転者が不安を感ぜず十分な道路走行の教習を行える自動車運転模擬表示方法等について記載され、方向指示器スイッチレバーを左側方向指示器が点灯するように操作した場合、表示画面の左側に設けた左ドアミラー表示画像領域に左ドアミラーの画像を表示することなどが示されている。   For example, the following Patent Document 1 describes an automobile driving simulation display method or the like in which the left rear traffic state can be confirmed at the time of a left turn, etc., and the driver can learn sufficient road driving without feeling uneasy. For example, when the indicator switch lever is operated so that the left direction indicator lights up, an image of the left door mirror is displayed in the left door mirror display image area provided on the left side of the display screen.

また、自動車の前方以外の方向の画像をスイッチ操作で表示させるようにした運転模擬装置もある。   There is also a driving simulation device that displays an image in a direction other than the front of the automobile by a switch operation.

特開2010−66533号公報JP 2010-66533 A

しかしながら、上記特許文献1に記載の装置では、ある決まった状況でドアミラー画像を出すというものであり、それ以外の運転状況には対応できず、また、運転者が首を振って左右の状況を確認するような場合の画像も提供されないので、実際の運転に近づけるためには未だ機能不足である。   However, in the device described in Patent Document 1, the door mirror image is output in a certain situation, and it is not possible to deal with other driving situations. Since no image is provided for confirmation, the function is still insufficient to bring it closer to actual driving.

また、上述したスイッチ操作を伴う画像表示は、実際には運転者が首を振って直接見る画像を提供するものであるので、実際には必要としないスイッチ操作をする必要があり不自然であると共に、運転を煩雑にし危険発見の遅れにつながる虞がある。   In addition, since the image display accompanied by the switch operation described above is to provide an image that the driver directly sees by shaking his / her head, it is unnatural because it is necessary to perform a switch operation that is not actually required. At the same time, driving may be complicated, leading to delays in finding danger.

そこで、本発明の目的は、自動車などの運転を模擬するための運転模擬装置であって、特に、様々な状況に応じてより現実に近い運転状態/視界状態を与えることのできる運転模擬装置、等を提供することである。   Accordingly, an object of the present invention is a driving simulation device for simulating driving of an automobile or the like, and in particular, a driving simulation device capable of giving a driving state / viewing state closer to reality according to various situations, Etc. is to provide.

上記の目的を達成するために、本発明の一つの側面は、操作者の操作に応答して運転席からの視界の模擬画像を表示し、当該操作者に模擬運転を体験させる運転模擬装置が、前記模擬画像を表示する表示手段と、前記操作者の操作の状態を示す操作情報を生成する操作手段と、前記操作情報と予め用意された仮想空間を表現するデータに基づいて、前記操作者の操作によって運転される前記仮想空間内の移動体の運動状態を求め、当該求めた運動状態を表す運動状態情報と前記仮想空間を表現するデータに基づいて、前記移動体における前方についての前記模擬画像である前方視界模擬画像を生成して前記表示手段に表示させる制御手段と、を有し、前記制御手段は、前記運動状態情報である、前記移動体の位置、前記移動体の移動速度、及び、前記移動体の移動方向のうちの何れかが所定の条件を満たす場合に、前記移動体の前方以外の方向についての前記模擬画像である他視界模擬画像を生成し、当該他視界模擬画像を前記前方視界模擬画像内の一部の領域に合成して、前記表示手段に表示させる、ことである。   In order to achieve the above object, according to one aspect of the present invention, there is provided a driving simulation device that displays a simulated image of a field of view from a driver's seat in response to an operation of the operator and allows the operator to experience the simulated driving. A display unit that displays the simulated image; an operation unit that generates operation information indicating a state of operation of the operator; and the operator based on the operation information and data representing a virtual space prepared in advance. The movement state of the moving body in the virtual space driven by the operation is obtained, and the simulation of the front of the moving body based on the movement state information representing the obtained movement state and the data representing the virtual space Control means for generating a front view simulation image that is an image and displaying it on the display means, the control means being the movement state information, the position of the moving body, the moving speed of the moving body, And When any of the moving directions of the moving body satisfies a predetermined condition, the other view simulated image that is the simulated image in a direction other than the front of the moving body is generated, It is combined with a partial area in the forward view simulation image and displayed on the display means.

更に、上記の発明において、一つの態様は、前記制御手段は、当該移動体の位置が前記仮想空間内の所定領域に入っていることを前記所定の条件とする、ことを特徴とする。   Furthermore, in the above-mentioned invention, one aspect is characterized in that the control means uses the predetermined condition that the position of the moving body is in a predetermined area in the virtual space.

更に、上記の発明において、一つの態様は、前記制御手段は、当該移動体の移動速度が所定範囲に入っていることを前記所定の条件とする、ことを特徴とする。   Furthermore, in the above-described invention, one aspect is characterized in that the control means sets the predetermined condition that the moving speed of the moving body is within a predetermined range.

更にまた、上記の発明において、一つの態様は、前記制御手段は、所定の前記操作情報が生成されたことに応じて前記他視界模擬画像を前記表示手段に表示させる、ことを特徴とする。   Furthermore, in the above invention, one aspect is characterized in that the control means causes the display means to display the other-view simulated image in response to the generation of the predetermined operation information.

更に、上記の発明において、一つの態様は、前記所定の操作情報は、前記操作手段が備える方向指示器スイッチレバーがオンであることを示す情報である、ことを特徴とする。   Further, in the above invention, one aspect is characterized in that the predetermined operation information is information indicating that a direction indicator switch lever included in the operation means is on.

更にまた、上記の発明において、好ましい態様は、更に、前記操作者の視線の方向を検出する検出手段を有し、前記制御手段は、前記検出手段が前記視線の方向が前方をはずれたことを検出したことに応じて前記他視界模擬画像を前記表示手段に表示させる、ことを特徴とする。   Furthermore, in the above-described invention, a preferable aspect further includes a detection unit that detects a direction of the line of sight of the operator, and the control unit is configured so that the direction of the line of sight deviates from the front. The other view simulation image is displayed on the display unit in response to the detection.

上記の目的を達成するために、本発明の別の側面は、操作者の操作に応答して運転席からの視界の模擬画像を表示し、当該操作者に模擬運転を体験させる運転模擬装置用の制御プログラムにおいて、前記運転模擬装置には、前記模擬画像を表示する表示部と、前記操作者の操作の状態を示す操作情報を生成する操作部と、制御部とが備えられ、前記制御部に、前記操作情報と予め用意された仮想空間を表現するデータに基づいて、前記操作者の操作によって運転される前記仮想空間内の移動体の運動状態を求め、当該求めた運動状態を表す運動状態情報と前記仮想空間を表現するデータに基づいて、前記移動体における前方についての前記模擬画像である前方視界模擬画像を生成して前記表示ぶに表示させる、処理を実行させ、前記制御部に、前記運動状態情報である、前記移動体の位置、前記移動体の移動速度、及び、前記移動体の移動方向のうちの何れかが所定の条件を満たす場合に、前記移動体の前方以外の方向についての前記模擬画像である他視界模擬画像を生成し、当該他視界模擬画像を前記前方視界模擬画像内の一部の領域に合成して、前記表示部に表示させる、処理を実行させる、ことである。   In order to achieve the above object, another aspect of the present invention is for a driving simulation apparatus that displays a simulated image of a field of view from a driver's seat in response to an operation of the operator and allows the operator to experience the simulated driving. In the control program, the driving simulation device includes a display unit that displays the simulated image, an operation unit that generates operation information indicating a state of operation of the operator, and a control unit, and the control unit In addition, based on the operation information and data representing a virtual space prepared in advance, the motion state of the moving body in the virtual space driven by the operation of the operator is obtained, and the motion representing the obtained motion state Based on the state information and the data representing the virtual space, a process for generating a front view simulation image that is a simulation image of the front of the moving object and displaying it on the display is executed, and the control unit is executed. A direction other than the front of the moving body when any one of the position of the moving body, the moving speed of the moving body, and the moving direction of the moving body, which is the motion state information, satisfies a predetermined condition Generating another view simulation image that is the simulation image of the image, combining the other view simulation image with a partial region in the front view simulation image, and causing the display unit to display the image. It is.

本発明の更なる目的及び、特徴は、以下に説明する発明の実施の形態から明らかになる。   Further objects and features of the present invention will become apparent from the embodiments of the invention described below.

本発明を適用した運転模擬装置の実施の形態例に係る概略構成図である。It is a schematic block diagram concerning the example of an embodiment of the driving simulation device to which the present invention is applied. 本運転模擬装置1の外観斜視図である。1 is an external perspective view of a driving simulation apparatus 1. FIG. 制御部3の概略機能構成図である。3 is a schematic functional configuration diagram of a control unit 3. FIG. 制御部3の処理内容を例示したフローチャートである。4 is a flowchart illustrating an example of processing contents of a control unit 3. 画像生成部33が生成する3画面モニタ用の画像を例示した図である。It is the figure which illustrated the image for 3 screen monitors which the image generation part 33 produces | generates. 画像生成部33が生成する1画面モニタ用の画像を例示した図である。It is the figure which illustrated the image for 1 screen monitors which the image generation part 33 produces | generates. 3画面モニタ用の画像の視点と視界を例示した図である。It is the figure which illustrated the viewpoint and view of the image for 3 screen monitors. 1画面モニタ用の画像の視点と視界を例示した図である。It is the figure which illustrated the viewpoint and view of the image for 1 screen monitors. 交差点での右左折を行う状況を説明するための図である。It is a figure for demonstrating the condition which performs the left-right turn in an intersection. 停止状態から発進する状況を説明するための図である。It is a figure for demonstrating the condition which starts from a stop state.

以下、図面を参照して本発明の実施の形態例を説明する。しかしながら、かかる実施の形態例が、本発明の技術的範囲を限定するものではない。なお、図において、同一又は類似のものには同一の参照番号又は参照記号を付して説明する。   Embodiments of the present invention will be described below with reference to the drawings. However, such an embodiment does not limit the technical scope of the present invention. In the drawings, the same or similar elements are denoted by the same reference numerals or reference symbols.

図1は、本発明を適用した運転模擬装置の実施の形態例に係る概略構成図である。図1に示す運転模擬装置1が本発明を適用した運転模擬装置であり、少なくとも、操作者の操作に応じて仮想空間内を移動する移動体100(仮想自動車)の運動状態が所定の条件を満たした場合に、前方以外の所定の方向の視界についての模擬画像を操作者に提供し、より現実に近い運転状態を実現しようとするものである。   FIG. 1 is a schematic configuration diagram according to an embodiment of a driving simulation apparatus to which the present invention is applied. A driving simulation apparatus 1 shown in FIG. 1 is a driving simulation apparatus to which the present invention is applied, and at least a motion state of a moving body 100 (virtual car) that moves in a virtual space in accordance with an operation of an operator satisfies a predetermined condition. When the condition is satisfied, a simulated image for a field of view in a predetermined direction other than the front is provided to the operator to achieve a more realistic driving state.

図1に示す本実施の形態例に係る運転模擬装置1は、図に示すように、表示部2、制御部3、操作部4、スピーカー5、データ格納部6、及びセンサ7等を備え、操作者の操作部4に対する操作に応答して仮想空間内の移動体100を移動させ、その運転席101からの視界の模擬画像を随時表示部2に表示させるように構成されている。また、ここでは、運転模擬装置1は、運転教習用の装置であるものとする。   A driving simulation apparatus 1 according to the present embodiment shown in FIG. 1 includes a display unit 2, a control unit 3, an operation unit 4, a speaker 5, a data storage unit 6, a sensor 7, and the like, as shown in the figure. In response to the operator's operation on the operation unit 4, the moving body 100 is moved in the virtual space, and a simulated image of the field of view from the driver's seat 101 is displayed on the display unit 2 as needed. Here, it is assumed that the driving simulation device 1 is a device for driving training.

まず、操作部4は、操作者が模擬運転を行うための操作手段であり、通常の自動車が備えるハンドル、アクセル、ブレーキ、シフトレバー、方向指示器スイッチレバー等を備えている。当該操作部4は、操作部の状態、すなわち、操作者の操作の状態を示す操作情報を生成する。   First, the operation unit 4 is an operation means for an operator to perform a simulated operation, and includes a handle, an accelerator, a brake, a shift lever, a direction indicator switch lever, and the like that are provided in a normal automobile. The operation unit 4 generates operation information indicating the state of the operation unit, that is, the operation state of the operator.

図2は、本運転模擬装置1の外観斜視図である。図2には、操作部4の一部として、ハンドルユニット40、ステアリングホイール41、ハンドブレーキ42、チェンジレバー43、コンビネーションスイッチ44、コンビネーションメータユニット45が示されている。また、運転模擬装置1には、操作者が前方を向いて座るように座席46が設けられている。   FIG. 2 is an external perspective view of the actual driving simulation device 1. FIG. 2 shows a handle unit 40, a steering wheel 41, a hand brake 42, a change lever 43, a combination switch 44, and a combination meter unit 45 as a part of the operation unit 4. In addition, the driving simulation device 1 is provided with a seat 46 so that an operator can sit facing forward.

次に、センサ7は、操作者の視線の方向を検出する検出手段であり、ここでは、一例として、図2に示されるカメラ71とそれに接続されるルックセンサシステムによって構成される。なお、この画像による方法ではなく、操作者に装着したジャイロを用いて頭の動きを捉え操作者の視線方向を検出する方法など、操作者の視線方向を検出できるものであれば他の方法を用いることができる。   Next, the sensor 7 is a detection unit that detects the direction of the line of sight of the operator. Here, as an example, the sensor 7 includes a camera 71 shown in FIG. 2 and a look sensor system connected thereto. Note that this method is not based on this image, but other methods can be used as long as they can detect the direction of the operator's line of sight, such as a method of detecting the direction of the line of sight of the operator using a gyro attached to the operator. Can be used.

表示部2は、座席46に座った操作者に上記模擬画像を表示するためのモニタであり、図2に示すように、座席46の前面に設置される。ここでは、左側モニタ21、中央モニタ22、及び右側モニタ23を備えた3画面のモニタを示しているが1画面のモニタであってもよい。この表示部2には、模擬運転中、通常表示されている通常視界画像と、所定の状況のときに表示される他視界画像が表示される。通常視界画像には、操作者によって操作される仮想空間内の移動体100の運転席101から前方を見た時の前方視界画像(600、900)と運転席101から各ミラーを用いて見た時の画像(603−605、903−905)含まれる。また、他視界画像は、運転席101から前方以外の方向を見た時の視界の画像(601、602、901、902)であり、状況に応じて、また、操作者の視線方向に応じて様々な方向の画像が含まれる。   The display unit 2 is a monitor for displaying the simulated image to an operator sitting on the seat 46, and is installed on the front surface of the seat 46 as shown in FIG. Here, a three-screen monitor including a left monitor 21, a central monitor 22, and a right monitor 23 is shown, but a single-screen monitor may be used. The display unit 2 displays a normal view image that is normally displayed during simulated driving and another view image that is displayed in a predetermined situation. The normal view image is viewed using the front view image (600, 900) when the front is viewed from the driver's seat 101 of the moving body 100 in the virtual space operated by the operator and each mirror from the driver's seat 101. Time images (603-605, 903-905) are included. Further, the other view image is an image (601, 602, 901, 902) of the view when looking from the driver's seat 101 in a direction other than the front, depending on the situation and depending on the line of sight of the operator. Images in various directions are included.

スピーカー5は、操作者に対する案内や警告を行うための音声を出力する部分である。   The speaker 5 is a part that outputs sound for providing guidance and warning to the operator.

データ格納部6は、車両や通行人などを含む仮想空間を構成する各オブジェクトの3Dデータ等、移動体100の運動計算や表示部2に表示する模擬画像の生成に必要なデータを収めたHDDなどのデータ格納手段である。   The data storage unit 6 is an HDD that stores data necessary for motion calculation of the moving body 100 and generation of a simulated image to be displayed on the display unit 2, such as 3D data of each object constituting a virtual space including vehicles and passersby. Data storage means.

次に、制御部3は、上記表示部2に表示される画像及び上記スピーカー5から出力される音声を制御する部分であり、CPU、ROM、RAM、ASICなどで構成されている。制御部3は、模擬運転中、所定のタイムサイクルで、上記操作部4に対して操作者によって行われた操作の情報(操作情報)、及び、上記センサ7が検出した操作者の動作の情報(動作情報)を受信して、上記データ格納部6に格納されるデータを用い、その時点での仮想空間内での移動体100の運動状態を求め、その運動状態の情報(運動状態情報)に基づいて上記模擬画像を生成し、表示部2に表示させる。   Next, the control unit 3 controls the image displayed on the display unit 2 and the sound output from the speaker 5, and includes a CPU, a ROM, a RAM, an ASIC, and the like. The control unit 3 is information on the operation performed by the operator on the operation unit 4 (operation information) and information on the operation of the operator detected by the sensor 7 in a predetermined time cycle during the simulation operation. (Motion information) is received, and the data stored in the data storage unit 6 is used to determine the motion state of the moving body 100 in the virtual space at that time, and information on the motion state (motion state information) Based on the above, the simulated image is generated and displayed on the display unit 2.

図3は、制御部3の概略機能構成図である。図3に示すように、制御部3は、画像の表示に係る機能については、運動計算部31、表示判定部32、画像生成部33、画像合成部34、及び表示制御部35を備えている。運動計算部31は、上記仮想空間内での移動体100の運動状態を演算する部分であり、表示判定部32は、その時点で表示すべき上記模擬画像を決定する部分であり、画像生成部33は、表示する上記模擬画像を生成する部分であり、画像合成部34は、生成された複数の上記模擬画像を合成する部分であり、表示制御部35は、合成された上記模擬画像を表示部2に表示する部分である。また、画像生成部33は、通常視界画像生成部331と他視界画像生成部332を備え、前者は、上述した通常視界画像を生成し、後者は、上述した他視界画像を生成する。   FIG. 3 is a schematic functional configuration diagram of the control unit 3. As shown in FIG. 3, the control unit 3 includes a motion calculation unit 31, a display determination unit 32, an image generation unit 33, an image composition unit 34, and a display control unit 35 for functions related to image display. . The motion calculation unit 31 is a part that calculates the motion state of the moving body 100 in the virtual space, and the display determination unit 32 is a part that determines the simulated image to be displayed at that time, and an image generation unit Reference numeral 33 denotes a part for generating the simulated image to be displayed, the image composition unit 34 is a part for combining the plurality of generated simulated images, and the display control unit 35 displays the synthesized simulation image. This is the part displayed on part 2. The image generation unit 33 includes a normal view image generation unit 331 and another view image generation unit 332, the former generates the above-described normal view image, and the latter generates the above-described other view image.

なお、これらの各機能構成部(31−35)は、上記ROM等に格納されたプログラムと、当該プログラムに従って処理を実行する上記CPU等によって構成されている。   Each of these functional components (31-35) includes a program stored in the ROM or the like, and the CPU or the like that executes processing according to the program.

以上説明したような構成を有する本実施の形態例に係る運転模擬装置1は、上記表示判定部32の判定により、所定の状況になった際に他視界画像を生成、表示することに特徴があり、以下その点を中心に、画像が表示されるまでの処理について具体的に説明する。   The driving simulation apparatus 1 according to the present embodiment having the configuration as described above is characterized in that the other-view image is generated and displayed when a predetermined situation is reached by the determination of the display determination unit 32. There will be described specifically the processing until an image is displayed, focusing on this point.

図4は、制御部3の処理内容を例示したフローチャートである。制御部3は、模擬運転が開始されると、所定の時間間隔で図4のステップS1からステップS8の処理を、模擬運転が終了するまで繰り返し実行する。   FIG. 4 is a flowchart illustrating the processing content of the control unit 3. When the simulated operation is started, the control unit 3 repeatedly executes the processing from step S1 to step S8 in FIG. 4 at predetermined time intervals until the simulated operation is completed.

まず、その時点の操作部4の状態を示す操作情報を操作部4から受信する(ステップS1)。当該操作情報には、少なくとも、方向指示器スイッチレバーのON/OFF情報、アクセルの角度情報、ハンドルの回転情報などが含まれる。   First, operation information indicating the state of the operation unit 4 at that time is received from the operation unit 4 (step S1). The operation information includes at least ON / OFF information of the direction indicator switch lever, accelerator angle information, steering wheel rotation information, and the like.

次に、運動計算部31は、上記受信した操作情報により操作の内容を把握し、当該操作によって仮想空間内の移動体100の状態がどのように変化するかを演算する(ステップS2)。その結果、少なくとも、移動体100の仮想空間内での位置情報、移動体100の移動速度情報、移動体100の移動方向情報を含む運動状態情報が生成される。また、移動体100の位置に基づいて仮想空間内の他のオブジェクトとの干渉等についてもチェックがなされる。   Next, the motion calculation unit 31 grasps the content of the operation based on the received operation information, and calculates how the state of the moving body 100 in the virtual space changes due to the operation (step S2). As a result, motion state information including at least position information of the moving body 100 in the virtual space, moving speed information of the moving body 100, and moving direction information of the moving body 100 is generated. In addition, interference with other objects in the virtual space is also checked based on the position of the moving body 100.

次に、通常視界画像生成部331が、上記生成された運動状態情報に基づいて、データ格納部6に格納されるデータを用い、通常視界画像を生成する(ステップS3)。すなわち、上述した前方視界画像と各ミラーを用いて見た時の画像を生成する。   Next, the normal view image generation unit 331 generates a normal view image using the data stored in the data storage unit 6 based on the generated motion state information (step S3). That is, an image when viewed using the above-described forward view image and each mirror is generated.

図5は、画像生成部33が生成する3画面モニタ用の画像を例示した図である。また、図6は、画像生成部33が生成する1画面モニタ用の画像を例示した図である。また、図7は、3画面モニタ用の画像の視点と視界を例示した図である。また、図8は、1画面モニタ用の画像の視点と視界を例示した図である。   FIG. 5 is a diagram illustrating an example of a three-screen monitor image generated by the image generation unit 33. FIG. 6 is a diagram illustrating an image for a single screen monitor generated by the image generation unit 33. FIG. 7 is a diagram illustrating the viewpoint and field of view of an image for a three-screen monitor. FIG. 8 is a diagram illustrating the viewpoint and field of view of an image for a single screen monitor.

3画面のモニタを用いる場合の前方視界画像600は、例えば、図5に示される600(L)、600(C)、及び600(R)である。この場合には、前方視界画像600が、左側モニタ21、中央モニタ22、及び右側モニタ23のそれぞれに合わせて、3分割されている。また、1画面のモニタの場合には、例えば、図6に示される前方視界画像900のようになる。   For example, 600 (L), 600 (C), and 600 (R) shown in FIG. 5 are used as the front view image 600 when a three-screen monitor is used. In this case, the front view image 600 is divided into three according to each of the left monitor 21, the central monitor 22, and the right monitor 23. In the case of a one-screen monitor, for example, a front view image 900 shown in FIG. 6 is obtained.

また、上記前方視界画像600(L)、600(C)、及び600(R)は、それぞれ、図7に示す視点400からの視界500(L)、500(C)、及び500(R)による画像である。言い換えれば、視点400の位置に仮想カメラを置いてそれぞれの視界を捉えた際の仮想空間内での模擬画像である。同様に、上記前方視界画像900は、図8に示す視点700からの視界800による画像である。   The forward view images 600 (L), 600 (C), and 600 (R) are respectively based on the views 500 (L), 500 (C), and 500 (R) from the viewpoint 400 shown in FIG. It is an image. In other words, it is a simulated image in a virtual space when a virtual camera is placed at the position of the viewpoint 400 and each field of view is captured. Similarly, the front view image 900 is an image of the view 800 from the viewpoint 700 shown in FIG.

なお、視点400、700の位置は、移動体100の運転席101の位置に相当する。   Note that the positions of the viewpoints 400 and 700 correspond to the position of the driver's seat 101 of the moving body 100.

次に、サイドミラーを用いて見える画像は、3画面モニタでは、例えば、図5の右サイドミラー画像603及び左サイドミラー画像604であり、1画面モニタでは、例えば、図6の右サイドミラー画像903及び左サイドミラー画像904である。   Next, the images that can be viewed using the side mirror are, for example, the right side mirror image 603 and the left side mirror image 604 in FIG. 5 on a three-screen monitor, and the right side mirror image in FIG. 903 and the left side mirror image 904.

これらサイドミラー画像のそれぞれの視点(仮想カメラの位置)とその視界は、それぞれ、図7の視点403及び404、視界503及び504、並びに、図8の視点703及び704、視界803及び804である。   The viewpoints (the positions of the virtual cameras) and the field of view of these side mirror images are the viewpoints 403 and 404, the fields of view 503 and 504, and the viewpoints 703 and 704 and fields of view 803 and 804 of FIG. 8, respectively. .

また、バックミラーを用いて見える画像は、3画面モニタでは、例えば、図5のバックミラー画像605であり、1画面モニタでは、例えば、図6のバックミラー画像905である。これらバックミラー画像のそれぞれの視点(仮想カメラの位置)とその視界は、それぞれ、図7の視点405及び視界505、並びに、図8の視点705及び視界805である。   Further, the image that can be seen using the rearview mirror is, for example, the rearview mirror image 605 in FIG. 5 on a three-screen monitor, and the rearview mirror image 905 in FIG. The respective viewpoints (virtual camera positions) of these rearview mirror images and their fields of view are the viewpoints 405 and 505 in FIG. 7, and the viewpoints 705 and 805 in FIG. 8, respectively.

なお、上記ミラーを用いた場合に見える画像の実際の視点は400と700である。   Note that 400 and 700 are actual viewpoints of the image that can be seen when the mirror is used.

次に、制御部3の表示判定部32は、上述した他視界画像をこの時点で表示するか否かの判定を行う(ステップS4)。当該判定が本運転模擬装置1の大きな特徴である。   Next, the display determination unit 32 of the control unit 3 determines whether or not to display the above-described other view image at this time (step S4). This determination is a major feature of the driving simulation apparatus 1.

当該判定では、移動体の運転者(運転模擬装置1の操作者)が、首を振るなどして視線を前方からはずす、本運転模擬装置1のように教習用の場合には視線をはずすべき、状況であるか否かを判断する。言い換えれば、前方以外の方向をミラーを用いずに見る状況であるか否かを判断する。   In this determination, the driver of the moving body (operator of the driving simulation apparatus 1) takes his / her line of sight from the front by shaking his / her head. , Determine whether the situation. In other words, it is determined whether or not it is a situation in which directions other than the front are viewed without using a mirror.

具体的には、当該状況になったか否かを、少なくとも、その時点の移動体100の運動状態に基づいて、より具体的には、上記運動計算(S2)で生成された運動状態情報を用いて判断する。また、以下に具体例として説明するように、上記運動状態と、その時点の操作部4の状態、すなわち、上記操作情報に基づいて判断しても良いし、その時点の操作者の視線方向、すなわち、上記動作情報に基づいて判断しても良い。   Specifically, whether or not the situation has been reached is determined based on at least the motion state of the moving body 100 at that time, and more specifically, the motion state information generated in the motion calculation (S2). Judgment. Further, as will be described below as a specific example, it may be determined based on the motion state and the state of the operation unit 4 at that time, that is, the operation information, or the line-of-sight direction of the operator at that time, That is, the determination may be made based on the operation information.

上記判断する状況は、例えば、交差点において左折又は右折をする状況、停止している状態から発進する状況、車線を変更する状況、交差点を通過する状況などである。   The situation to be judged includes, for example, a situation where a left or right turn is made at an intersection, a situation where the vehicle starts from a stopped state, a situation where a lane is changed, and a situation where an intersection is passed.

本運転模擬装置1では、これらの状況を判断するための条件が設けられており、表示判定部32は、具体的には、当該条件を満たしているか否かを判定する処理を行う。当該条件と具体的な判定については後述する。   The driving simulation device 1 is provided with conditions for determining these situations, and the display determination unit 32 specifically performs a process of determining whether or not the conditions are satisfied. The conditions and specific determination will be described later.

なお、通常の場合は、当該表示判定部32による判定は、上記生成された通常視界画像を常に表示するものとして、他視界画像の表示・非表示について判定するが、判断された上記状況によっては、通常視界画像を表示せずに他視界画像のみを表示するという判定を行っても良い。   In a normal case, the determination by the display determination unit 32 determines whether to display the generated normal view image at all times, and whether to display or not display other view images. However, depending on the determined situation, Alternatively, it may be determined that only the other view image is displayed without displaying the normal view image.

また、上記他視界画像のモニタ上の表示位置(表示領域)は、固定にしても良いし可変にしてもよい。可変にする場合には、当該表示判定部32が判断した上記状況に応じて表示位置を決定する。   The display position (display area) of the other field-of-view image on the monitor may be fixed or variable. In the case of making it variable, the display position is determined according to the situation determined by the display determination unit 32.

かかる判定の結果、表示判定部32が上記条件を満たしている、すなわち、他視界画像を表示すべきと判定した場合には(ステップS4のYes)、他視界画像生成部332が他視界画像を生成する(ステップS5)。一方、上記条件を満たしていない場合には(ステップS4のNo)、処理がステップS6に移行する。   As a result of the determination, when the display determination unit 32 satisfies the above-described condition, that is, determines that the other view image should be displayed (Yes in step S4), the other view image generation unit 332 displays the other view image. Generate (step S5). On the other hand, if the above condition is not satisfied (No in step S4), the process proceeds to step S6.

他視界画像生成部332による生成が行われる場合には、上記判断されたその時点の状況に相応しい視線方向の視界画像を、上記その時点の運動状態情報に基づいてデータ格納部6に格納されるデータを用い生成する。具体的状況とそれに相応する視点及び視界については後述する。   When the generation by the other view image generation unit 332 is performed, the view image in the gaze direction appropriate for the determined situation at the time is stored in the data storage unit 6 based on the motion state information at the time. Generate using data. The specific situation and the corresponding viewpoint and field of view will be described later.

次に、ステップS6では、画像合成部34が画像の合成処理を行う。具体的には、上記生成された通常視界画像の上述した前方視界画像とミラーを用いてみた画像を、例えば、図5及び図6に示すような配置で合成し、さらに、上記判定(S4)により他視界画像を表示する場合には、生成された他視界画像をさらに合成する。   In step S6, the image composition unit 34 performs image composition processing. Specifically, the above-described forward view image of the generated normal view image and an image viewed using a mirror are combined, for example, in an arrangement as shown in FIGS. 5 and 6, and the determination (S4) When the other view image is displayed by the above, the generated other view image is further synthesized.

3画面モニタの場合には、例えば、図5に示す画像601及び602が他視界画像であり、1画面モニタの場合には、例えば、図6に示す画像901及び902が他視界画像である。これらの図に示すように、一例としては、モニタの左側と右側の比較的小さい領域に(小窓のように)表示されるように、他視界画像が通常視界画像に合成される。   In the case of a three-screen monitor, for example, images 601 and 602 shown in FIG. 5 are other view images, and in the case of a one-screen monitor, for example, images 901 and 902 shown in FIG. 6 are other view images. As shown in these figures, as an example, the other view image is combined with the normal view image so as to be displayed in a relatively small area (like a small window) on the left and right sides of the monitor.

また、左右の他視界画像は、その時点の状況に応じて、片方のみを表示したり両方を表示したりすることができる。さらに、上述のとおり、他視界画像のみをモニタに表示するように画像の合成を行ってもよい。また、図5及び図6に示す他視界画像の大きさは一例であり、その時点の状況に応じて可変にするようにしてもよい。   In addition, the left and right other view images can display only one or both according to the situation at that time. Furthermore, as described above, the images may be combined so that only the other view image is displayed on the monitor. Moreover, the size of the other view image shown in FIGS. 5 and 6 is an example, and may be made variable according to the situation at that time.

次に、当該合成された画像を、表示制御部35がモニタ(表示部2)に表示させる(ステップS7)。この際、表示制御部35は、モニタに移動体100のダッシュボードを表示する場合には、当該ダッシュボード上のメータユニットに表示するデータを上記運転状態情報や操作情報から取得して、上記画像に合成して表示する。例えば、その時点の移動体100の移動速度や方向指示器のオン・オフの状態が合成される。   Next, the display control unit 35 causes the monitor (display unit 2) to display the combined image (step S7). At this time, when displaying the dashboard of the moving body 100 on the monitor, the display control unit 35 acquires data to be displayed on the meter unit on the dashboard from the operation state information and the operation information, and the image And display it. For example, the moving speed of the moving body 100 at that time and the on / off state of the direction indicator are combined.

当該表示処理が終了すると、当該1サイクルの処理が終了し、制御部3は、現在行っている模擬運転を終了するか否かの終了判定を行う(ステップS8)。具体的には、当該模擬運転の用意されたカリキュラムが全て終了した場合、あるいは、移動体100(仮想自動車)が通行人や障害物に接触した場合などに終了であると判定される(ステップS8のYes)。また、終了と判定されない場合には(ステップS8のNo)、次のサイクルの処理が上述したステップS1から開始される。   When the display process ends, the process of the one cycle ends, and the control unit 3 determines whether or not to end the currently performed simulated operation (step S8). Specifically, it is determined that the curriculum prepared for the simulated driving is completed, or when the moving body 100 (virtual car) contacts a passerby or an obstacle (step S8). Yes). On the other hand, if it is not determined that the process is finished (No in step S8), the process in the next cycle is started from step S1 described above.

そして、上記終了判定がなされれば、当該模擬運転の処理が終了する。   And if the said completion | finish determination is made, the process of the said simulation driving | operation will be complete | finished.

次に、上述した他視界画像を表示するか否かの判定及び他視界画像の視界について、具体的な例を説明する。まず、一例として、表示判定部32は、仮想空間内の移動体100が交差点での右左折を行う状況であると判断した場合に、他視界画像の表示を行うと判定する。図9は、かかる場合の状況を説明するための図である。そして、この場合の判定条件は、以下の三つである。
条件(1):仮想空間内の移動体100の現在位置が交差点領域(図9の領域102、例えば、交差点の中心位置から進行方向前後及び左右に30m以内の領域)内であること
条件(2):仮想空間内の移動体100の移動速度が時速0km以上時速15km以下であること
条件(3):操作部4の方向指示器スイッチレバーが左方向又は右方向を指示させる状態である(オンであること)
上記条件(1)及び(2)は、上述したように移動体100の運動状態情報から満足するか否かが判断され、上記条件(3)については、上述した操作情報から満足するか否かが判断される。その結果、全ての条件が満たされている場合に、他視界画像の表示を行うと判定する。
Next, specific examples of the above-described determination of whether or not to display the other view image and the view of the other view image will be described. First, as an example, the display determination unit 32 determines to display another view image when it is determined that the moving body 100 in the virtual space is in a situation of making a right / left turn at an intersection. FIG. 9 is a diagram for explaining the situation in such a case. And the determination conditions in this case are the following three.
Condition (1): The current position of the moving body 100 in the virtual space is within an intersection area (area 102 in FIG. 9, for example, an area within 30 m from the center position of the intersection in the forward and backward directions and right and left) ): The moving speed of the moving body 100 in the virtual space is 0 km / h or more and 15 km / h or less (3): The direction indicator switch lever of the operation unit 4 is in a state of pointing left or right (ON) Be)
As described above, it is determined whether or not the conditions (1) and (2) are satisfied from the motion state information of the moving body 100, and the condition (3) is satisfied from the operation information described above. Is judged. As a result, when all the conditions are satisfied, it is determined that the other view image is displayed.

そして、この場合に生成、表示される他視界画像は以下の視点と視界によって生成されるものである。
視点位置:移動体100の運転席101(具体的には、運転者の頭部位置)
視界方向:移動体100の進行方向から左又は右に70度の方向
視界角度:45度
なお、方向指示器スイッチレバーが左方向を指示させる状態であれば(すなわち、左折中の状況であると判断されれば)、上記視界方向は左に70度の方向であり、方向指示器スイッチレバーが右方向を指示させる状態であれば(すなわち、右折中の状況であると判断されれば)、上記視界方向は右に70度の方向である。
In this case, the other view image generated and displayed is generated by the following viewpoint and view.
Viewpoint position: Driver's seat 101 of the moving body 100 (specifically, the driver's head position)
Visibility direction: 70 degrees to the left or right from the traveling direction of the moving body 100 Visibility angle: 45 degrees Note that if the direction indicator switch lever is in a state in which the left direction is indicated (that is, the situation is in a left turn) If it is determined that the viewing direction is 70 degrees to the left and the direction indicator switch lever indicates the right direction (ie, it is determined that the situation is turning right) The viewing direction is a direction of 70 degrees to the right.

図9には、左折時の視点402、702と視界502、802、及び、右折時の視点401、701と視界501、801が例示されている。   FIG. 9 illustrates viewpoints 402 and 702 and views 502 and 802 when turning left, and viewpoints 401 and 701 and views 501 and 801 when turning right.

次の例として、表示判定部32は、仮想空間内の移動体100が停止状態から発進する状況であると判断した場合に、他視界画像の表示を行うと判定する。図10は、かかる場合の状況を説明するための図である。そして、この場合の判定条件は、以下の三つである。
条件(4):仮想空間内の移動体100の現在位置が停止領域(図10の領域103、例えば、最初の発進位置など教習カリキュラムの停止すべき位置を含む領域)内であること
条件(5):仮想空間内の移動体100の移動速度が時速0kmであること
条件(6):操作部4の方向指示器スイッチレバーが左方向又は右方向を指示させる状態である(オンであること)
上記条件(4)及び(5)は、上述したように運動状態情報から満足するか否かが判断され、上記条件(6)については、上述した操作情報から満足するか否かが判断される。その結果、全ての条件が満たされている場合に、他視界画像の表示を行うと判定する。
As a next example, the display determination unit 32 determines to display the other view image when it is determined that the moving body 100 in the virtual space starts from a stopped state. FIG. 10 is a diagram for explaining the situation in such a case. And the determination conditions in this case are the following three.
Condition (4): The current position of the moving body 100 in the virtual space is within a stop area (area 103 in FIG. 10, for example, an area including a position where the training curriculum should be stopped, such as the first start position) (5 ): Condition that the moving speed of the moving body 100 in the virtual space is 0 km per hour (6): The direction indicator switch lever of the operation unit 4 is in a state of pointing left or right (turned on).
As described above, it is determined whether or not the conditions (4) and (5) are satisfied from the motion state information, and the condition (6) is determined from whether or not the conditions (6) are satisfied from the operation information described above. . As a result, when all the conditions are satisfied, it is determined that the other view image is displayed.

そして、この場合に生成、表示される他視界画像は以下の視点と視界によって生成されるものである。
視点位置:移動体100の運転席101(具体的には、運転者の頭部位置)
視界方向:移動体100の進行方向から左又は右に135度の方向
視界角度:45度
なお、方向指示器スイッチレバーが左方向を指示させる状態であれば(すなわち、左側に発進する状況であると判断されれば)、上記視界方向は左に135度の方向であり、方向指示器スイッチレバーが右方向を指示させる状態であれば(すなわち、右側に発進する状況であると判断されれば)、上記視界方向は右に135度の方向である。
In this case, the other view image generated and displayed is generated by the following viewpoint and view.
Viewpoint position: Driver's seat 101 of the moving body 100 (specifically, the driver's head position)
Visibility direction: 135 degrees to the left or right from the traveling direction of the moving body 100 Visibility angle: 45 degrees Note that the direction indicator switch lever is in a state in which the left direction is indicated (that is, the vehicle starts to the left). If the direction of view is 135 degrees to the left and the direction indicator switch lever is in a state of pointing to the right (that is, it is determined that the vehicle is starting to the right) ), The viewing direction is 135 degrees to the right.

図10には、左側発進時の視点402、702と視界502、802、及び、右側発進時の視点401、701と視界501、801が例示されている。   FIG. 10 illustrates viewpoints 402 and 702 and fields of view 502 and 802 when starting from the left side, and viewpoints 401 and 701 and fields of view 501 and 801 when starting from the right side.

また、別の例として、表示判定部32は、仮想空間内の移動体100が車線変更をする状況であると判断した場合に、他視界画像の表示を行うと判定する。この場合の判定条件は、以下の通りである。
条件(7):仮想空間内の移動体100の移動速度が時速30km以上であること
条件(8):操作部4の方向指示器スイッチレバーが左方向又は右方向を指示させる状態である(オンであること)
そして、この場合に生成、表示される他視界画像は、以下の視点と視界によって生成されるものである。
視点位置:移動体100の運転席101(具体的には、運転者の頭部位置)
視界方向:移動体100の進行方向から左又は右に135度の方向
視界角度:45度
なお、移動体100の車線変更可能領域を設けて、移動体100の位置がその領域内であるか否かを条件として加えてもよい。
As another example, the display determination unit 32 determines to display the other view image when it is determined that the moving body 100 in the virtual space is in a state of changing lanes. The determination conditions in this case are as follows.
Condition (7): The moving speed of the moving body 100 in the virtual space is 30 km / h or more Condition (8): The direction indicator switch lever of the operation unit 4 is in a state of pointing left or right (ON Be)
In this case, the other view image generated and displayed is generated by the following viewpoint and view.
Viewpoint position: Driver's seat 101 of the moving body 100 (specifically, the driver's head position)
Visibility direction: 135 degrees direction viewing angle from the traveling direction of the moving body 100 Leftward viewing angle: 45 degrees Whether or not the lane changeable area of the moving body 100 is provided and the position of the moving body 100 is within that area May be added as a condition.

また、上記運転状態情報だけの条件で判定する例として、交差点を直進する状況である場合に他視界画像の表示を行うと判定する。かかる場合には、例えば、移動体100が上記交差点領域内に位置し、所定の速度以下で移動中である、という判定条件が用いられる。そして、その条件が満足された場合には、移動体100の進行方向に対して左右を運転者が目視した場合の画像が生成されて表示される。   In addition, as an example of determination based on the condition of only the driving state information, it is determined that the other view image is displayed when the vehicle travels straight through the intersection. In such a case, for example, a determination condition that the moving body 100 is located in the intersection area and is moving at a predetermined speed or less is used. When the condition is satisfied, an image is generated and displayed when the driver visually observes the left and right of the moving body 100 in the traveling direction.

以上説明したように、本運転模擬装置1では、運転者が視線を向けて目視である方向の状態を確認すべき状況を捉えて、その状況で運転者が目視で見た場合の画像を提供する。   As described above, the present driving simulation apparatus 1 captures a situation in which the driver should check the state of the visual direction with the line of sight, and provides an image when the driver visually observes the situation. To do.

なお、上述の例などにおいて、運転者が左側を見た場合の他視界画像は、図5及び図6の画像602及び画像902のように、モニタの左側に表示され、運転者が右側を見た場合の他視界画像は、図5及び図6の画像601及び画像901のように、モニタの右側に表示される。   In the above-described example, the other view image when the driver looks at the left side is displayed on the left side of the monitor as in the images 602 and 902 in FIGS. 5 and 6, and the driver looks at the right side. In this case, the other view image is displayed on the right side of the monitor like the image 601 and the image 901 in FIGS.

また、以上の具体的説明では、他視界画像の表示を行うか否かの判定を上記運転状態情報と上記操作情報に基づいて行った場合であったが、上述したように上記動作情報に基づいて行ってもよい。具体的には、センサ7が検出する操作者の視線方向が前方でない方向であること、より具体的には、左側又は右側の所定範囲内の方向であることを、上記判定の条件に加えるようにしてもよい。   Further, in the above specific description, the determination as to whether or not to display the other view image is made based on the driving state information and the operation information. However, as described above, based on the operation information. You may go. Specifically, an operator's line-of-sight direction detected by the sensor 7 is a direction that is not forward, and more specifically, a direction within a predetermined range on the left side or the right side is added to the determination condition. It may be.

例えば、上述した交差点の右左折時や発進時の条件に上記視線方向の条件を加えるようにすることができる。かかる場合には、操作者が実際に首を振って確認行為を行った場合にのみ他視界画像が提供されるので、より現実に近い状態にすることができる。なお、この場合には、提供する画像を上記検出された視線方向で得られる視界の画像とするようにしてもよい。   For example, the line-of-sight condition can be added to the above-mentioned conditions for turning right and left at the intersection and for starting. In such a case, since the other view image is provided only when the operator actually performs a confirmation action by shaking his / her head, the state can be made closer to reality. In this case, the provided image may be an image of a field of view obtained in the detected line-of-sight direction.

また、上記検出した視線方向の条件のみを判定条件としてもよい。この場合には、操作者が、視線を前方からある一定程度以上ずらした場合に、その方向の視界の画像が生成されて表示されるようになる。   Further, only the condition of the detected gaze direction may be set as the determination condition. In this case, when the operator shifts the line of sight from the front by a certain amount or more, an image of the field of view in that direction is generated and displayed.

また、上述の説明では、各ミラーを用いて見た画像は通常前方視界画像に合成されて、通常、表示されるものとしたが、当該ミラー画像も、運転者がミラーを見るべき状況を判定して、又は、操作者が視線を変えてミラー方向を見たことを検出して、かかる状況である場合にのみ表示するようにしてもよい。   In the above description, the image viewed using each mirror is normally combined with the front view image and normally displayed. However, the mirror image also determines the situation in which the driver should look at the mirror. Alternatively, it may be displayed only in such a situation by detecting that the operator changes the line of sight and looks at the mirror direction.

また、本運転模擬装置1では、上述したような他視界画像の表示を実行可能なモードと、実行可能でないモード、すなわち、通常視界画像のみを表示するモードを切り換えて設定可能にするようにすることができる。後者のモードでは、図4のステップS4及びS5が省かれた処理が行なわれ、一連の模擬運転が終了するまで他視界画像は表示されない。   Further, in the present driving simulation device 1, a mode in which the display of other view images as described above can be executed and a mode in which execution of the other view images cannot be executed, that is, a mode in which only the normal view image is displayed can be switched and set. be able to. In the latter mode, processing in which steps S4 and S5 in FIG. 4 are omitted is performed, and no other view image is displayed until a series of simulated driving operations are completed.

なお、本運転模擬装置1を教習所等で用いる場合には、複数の当該装置1と一つの管理用装置をネットワークで接続した構成とすることができる。この場合、当該管理用装置は、データ処理部やモニタ等を備え、各運転模擬装置1の教習用コース及び上記モードの設定や操作状態及び運転状態の監視ができる機能を有する。   In addition, when using this driving | running simulation apparatus 1 in a training school etc., it can be set as the structure which connected the said some apparatus 1 and one management apparatus with the network. In this case, the management device includes a data processing unit, a monitor, and the like, and has a function of monitoring the training course of each driving simulation device 1 and the mode setting, operation state, and driving state.

以上説明したように、本実施の形態例に係る運転模擬装置1では、運転者が前方以外の方向を目視で確認する状況、確認すべき状況を、少なくとも、模擬運転される車両の運動状態に基づいて捉え、その場合に、当該確認によって見られる画像を提供するので、従来よりも実際の運転に近い状態を実現でき、教習の効果を向上させることができる。   As described above, in the driving simulation apparatus 1 according to this embodiment, the situation in which the driver visually confirms directions other than the front and the situation to be confirmed are at least the motion state of the vehicle to be simulated. In this case, since an image seen by the confirmation is provided, a state closer to the actual driving than before can be realized, and the effect of learning can be improved.

また、上記目視確認を必要とする状況は、模擬運転に必要な模擬画像の生成のために計算される車両の運動状態や運転者の操作内容による条件で設定できるので、より現実に近い様々な運転状況を模擬することができるようになる。   In addition, the situation requiring the visual confirmation can be set by conditions based on the vehicle motion state and the driver's operation content that are calculated for the generation of the simulation image necessary for the simulation operation. The driving situation can be simulated.

また、上述したように、他視界画像を表示しないモードを設定可能とすることにより、両モードの模擬運転を通じて、教習を受ける者に対して目視確認の必要性をより強く認識させることができる。   Further, as described above, by enabling the setting of a mode in which no other view image is displayed, it is possible to make the person receiving the training more strongly aware of the necessity of visual confirmation through simulated operation in both modes.

なお、本実施の形態例では、運転模擬装置を自動車の教習用装置として説明したが、本発明は、運転が必要な他の乗り物の教習用装置やゲーム機としての模擬装置に適用することもできる。   In the present embodiment, the driving simulation device has been described as a vehicle training device. However, the present invention may also be applied to a training device for other vehicles that require driving or a simulation device as a game machine. it can.

本発明の保護範囲は、上記の実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。   The protection scope of the present invention is not limited to the above-described embodiment, but covers the invention described in the claims and equivalents thereof.

1 運転模擬装置
2 表示部(表示手段)
3 制御部(制御手段)
4 操作部(操作手段)
5 スピーカー
6 データ格納部
7 センサ(検出手段)
21 左側モニタ
22 中央モニタ
23 右側モニタ
31 運動計算部
32 表示判定部
33 画像生成部
34 画像合成部
35 表示制御部
40 ハンドルユニット
41 ステアリングホイール
42 ハンドブレーキ
43 チェンジレバー
44 コンビネーションスイッチ
45 コンビネーションメータユニット
46 座席
71 カメラ
100 移動体
101 運転席
102 交差点領域
103 発進領域
331 通常視界画像生成部
332 他視界画像生成部
400−405 視点(仮想カメラ)
500−505 視界
600−605 画像
700−705 視点(仮想カメラ)
800−805 視界
900−905 画像
1 driving simulator 2 display unit (display means)
3 Control unit (control means)
4 Operation part (operation means)
5 Speaker 6 Data storage 7 Sensor (detection means)
DESCRIPTION OF SYMBOLS 21 Left monitor 22 Central monitor 23 Right monitor 31 Motion calculation part 32 Display determination part 33 Image generation part 34 Image composition part 35 Display control part 40 Handle unit 41 Steering wheel 42 Hand brake 43 Change lever 44 Combination switch 45 Combination meter unit 46 Seat 71 Camera 100 Moving object 101 Driver's seat 102 Intersection area 103 Starting area 331 Normal view image generation unit 332 Other view image generation unit 400-405 Viewpoint (virtual camera)
500-505 field of view 600-605 image 700-705 viewpoint (virtual camera)
800-805 view 900-905 image

Claims (7)

操作者の操作に応答して運転席からの視界の模擬画像を表示し、当該操作者に模擬運転を体験させる運転模擬装置であって、
前記模擬画像を表示する表示手段と、
前記操作者の操作の状態を示す操作情報を生成する操作手段と、
前記操作情報と予め用意された仮想空間を表現するデータに基づいて、前記操作者の操作によって運転される前記仮想空間内の移動体の運動状態を求め、当該求めた運動状態を表す運動状態情報と前記仮想空間を表現するデータに基づいて、前記移動体における前方についての前記模擬画像である前方視界模擬画像を生成して前記表示手段に表示させる制御手段と、を有し、
前記制御手段は、前記運動状態情報である、前記移動体の位置、前記移動体の移動速度、及び、前記移動体の移動方向のうちの何れかが所定の条件を満たす場合に、前記移動体の前方以外の方向についての前記模擬画像である他視界模擬画像を生成し、当該他視界模擬画像を前記前方視界模擬画像内の一部の領域に合成して、前記表示手段に表示させる
ことを特徴とする運転模擬装置。
A driving simulation device that displays a simulated image of the field of view from the driver's seat in response to the operation of the operator and allows the operator to experience the simulated driving,
Display means for displaying the simulated image;
Operation means for generating operation information indicating a state of operation of the operator;
Based on the operation information and data representing the virtual space prepared in advance, the motion state information representing the motion state obtained by obtaining the motion state of the moving body in the virtual space driven by the operation of the operator. And a control means for generating a front view simulation image which is the simulation image of the front of the moving body based on the data representing the virtual space and displaying the simulation on the display means,
The control means, when any one of the position of the moving body, the moving speed of the moving body, and the moving direction of the moving body, which is the motion state information, satisfies a predetermined condition. Generating another view simulation image, which is the simulated image in a direction other than the front, and synthesizing the other view simulation image with a partial region in the front view simulation image and displaying the image on the display means. A driving simulation device characterized.
請求項1において、
前記制御手段は、当該移動体の位置が前記仮想空間内の所定領域に入っていることを前記所定の条件とする
ことを特徴とする運転模擬装置。
In claim 1,
The operation simulation device characterized in that the control means uses the predetermined condition that the position of the moving body is in a predetermined area in the virtual space.
請求項1乃至2のいずれかにおいて、
前記制御手段は、当該移動体の移動速度が所定範囲に入っていることを前記所定の条件とする
ことを特徴とする運転模擬装置。
In any one of Claims 1 thru | or 2.
The operation simulation device characterized in that the control means sets the predetermined condition that the moving speed of the moving body is within a predetermined range.
請求項1乃至3のいずれかにおいて、
前記制御手段は、所定の前記操作情報が生成されたことに応じて前記他視界模擬画像を前記表示手段に表示させる
ことを特徴とする運転模擬装置。
In any one of Claims 1 thru | or 3,
The said control means displays the said other visual field simulation image on the said display means according to the said predetermined | prescribed said operation information being produced | generated. The driving | running simulation apparatus characterized by the above-mentioned.
請求項4において、
前記所定の操作情報は、前記操作手段が備える方向指示器スイッチレバーがオンであることを示す情報である
ことを特徴とする運転模擬装置。
In claim 4,
The driving simulation device, wherein the predetermined operation information is information indicating that a direction indicator switch lever included in the operation means is on.
請求項1乃至3のいずれかにおいて、
更に、前記操作者の視線の方向を検出する検出手段を有し、
前記制御手段は、前記検出手段が前記視線の方向が前方をはずれたことを検出したことに応じて前記他視界模擬画像を前記表示手段に表示させる
ことを特徴とする運転模擬装置。
In any one of Claims 1 thru | or 3,
Furthermore, it has detection means for detecting the direction of the line of sight of the operator,
The driving simulation apparatus, wherein the control means causes the display means to display the other view simulation image in response to the detection means detecting that the direction of the line of sight deviates from the front.
操作者の操作に応答して運転席からの視界の模擬画像を表示し、当該操作者に模擬運転を体験させる運転模擬装置用の制御プログラムであって、
前記運転模擬装置には、前記模擬画像を表示する表示部と、前記操作者の操作の状態を示す操作情報を生成する操作部と、制御部とが備えられ、
前記制御部に、
前記操作情報と予め用意された仮想空間を表現するデータに基づいて、前記操作者の操作によって運転される前記仮想空間内の移動体の運動状態を求め、当該求めた運動状態を表す運動状態情報と前記仮想空間を表現するデータに基づいて、前記移動体における前方についての前記模擬画像である前方視界模擬画像を生成して前記表示ぶに表示させる、処理を実行させ、
前記制御部に、前記運動状態情報である、前記移動体の位置、前記移動体の移動速度、及び、前記移動体の移動方向のうちの何れかが所定の条件を満たす場合に、前記移動体の前方以外の方向についての前記模擬画像である他視界模擬画像を生成し、当該他視界模擬画像を前記前方視界模擬画像内の一部の領域に合成して、前記表示部に表示させる、処理を実行させる
ことを特徴とする運転模擬装置用の制御プログラム。
A control program for a driving simulation device that displays a simulated image of the field of view from the driver's seat in response to the operation of the operator and allows the operator to experience the simulated driving,
The driving simulation device includes a display unit that displays the simulated image, an operation unit that generates operation information indicating the operation state of the operator, and a control unit.
In the control unit,
Based on the operation information and data representing the virtual space prepared in advance, the motion state information representing the motion state obtained by obtaining the motion state of the moving body in the virtual space driven by the operation of the operator. Based on the data representing the virtual space, the front view simulated image that is the simulated image about the front of the moving body is generated and displayed on the display,
When any one of the position of the moving body, the moving speed of the moving body, and the moving direction of the moving body, which is the motion state information, satisfies the predetermined condition in the control unit, the moving body Generating another view simulation image that is the simulated image in a direction other than the front of the image, combining the other view simulation image with a partial region in the front view simulation image, and causing the display unit to display the image. A control program for a driving simulation device, characterized in that
JP2010191968A 2010-08-30 2010-08-30 Driving simulator and control program thereof Pending JP2012048105A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010191968A JP2012048105A (en) 2010-08-30 2010-08-30 Driving simulator and control program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010191968A JP2012048105A (en) 2010-08-30 2010-08-30 Driving simulator and control program thereof

Publications (1)

Publication Number Publication Date
JP2012048105A true JP2012048105A (en) 2012-03-08

Family

ID=45903017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010191968A Pending JP2012048105A (en) 2010-08-30 2010-08-30 Driving simulator and control program thereof

Country Status (1)

Country Link
JP (1) JP2012048105A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019086961A (en) * 2017-11-06 2019-06-06 株式会社タイトー Apparatus and program for image processing

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10215407A (en) * 1997-01-30 1998-08-11 Osaka Gas Co Ltd Image fetching device, and drive support image fetching device
JPH10282877A (en) * 1997-04-08 1998-10-23 Canon Inc Image forming method, its device, simulation system and storage medium
JP2001236010A (en) * 2000-02-25 2001-08-31 Kawasaki Heavy Ind Ltd Four-wheeled vehicle driving simulator
JP2003150038A (en) * 2001-11-08 2003-05-21 Sega Corp Apparatus and method for driving simulation
JP2008083126A (en) * 2006-09-26 2008-04-10 Honda Motor Co Ltd Driving simulation device
JP2009265429A (en) * 2008-04-25 2009-11-12 Yanmar Co Ltd Farming machine simulation device
JP2010066533A (en) * 2008-09-11 2010-03-25 Mitsubishi Precision Co Ltd Automobile driving simulation display method and apparatus therefor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10215407A (en) * 1997-01-30 1998-08-11 Osaka Gas Co Ltd Image fetching device, and drive support image fetching device
JPH10282877A (en) * 1997-04-08 1998-10-23 Canon Inc Image forming method, its device, simulation system and storage medium
JP2001236010A (en) * 2000-02-25 2001-08-31 Kawasaki Heavy Ind Ltd Four-wheeled vehicle driving simulator
JP2003150038A (en) * 2001-11-08 2003-05-21 Sega Corp Apparatus and method for driving simulation
JP2008083126A (en) * 2006-09-26 2008-04-10 Honda Motor Co Ltd Driving simulation device
JP2009265429A (en) * 2008-04-25 2009-11-12 Yanmar Co Ltd Farming machine simulation device
JP2010066533A (en) * 2008-09-11 2010-03-25 Mitsubishi Precision Co Ltd Automobile driving simulation display method and apparatus therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019086961A (en) * 2017-11-06 2019-06-06 株式会社タイトー Apparatus and program for image processing
JP7051374B2 (en) 2017-11-06 2022-04-11 株式会社タイトー Image processing device, image processing program

Similar Documents

Publication Publication Date Title
JP6608146B2 (en) Virtually transparent instrument cluster with live video
US11528413B2 (en) Image processing apparatus and image processing method to generate and display an image based on a vehicle movement
CA3069114C (en) Parking assistance method and parking assistance device
CN109484299A (en) Control method, apparatus, the storage medium of the display of augmented reality display device
JP2007158426A (en) Vehicle periphery image display device
JP2014210568A5 (en)
WO2006004044A1 (en) Navigation system and index image display system
JP2006243248A (en) Device for driving evaluation and server
JP2010128794A (en) Surrounding recognition assisting device for vehicle
US20180182261A1 (en) Real Time Car Driving Simulator
WO2018100377A1 (en) Multi-dimensional display
JP2016063390A (en) Image processing system and image display system
WO2019008824A1 (en) Surrounding-area monitoring device
JP2019054420A (en) Image processing system
JP2015018074A (en) Vehicle drive simulation device
JP4493575B2 (en) MOBILE BODY SIMULATOR, ITS CONTROL METHOD, AND CONTROL PROGRAM
JP5687879B2 (en) Information processing apparatus, automobile, information processing method and program
JP2006330360A (en) Information display for vehicle
CN110293840B (en) Method and display system for displaying information relating to the operation of a vehicle
JP2006279511A (en) Peripheral supervisory system
JP2019081450A (en) Display device, display control method, and program
JP2010066533A (en) Automobile driving simulation display method and apparatus therefor
JP2005214730A (en) Image display device, method, and program for vehicle
JP2012048105A (en) Driving simulator and control program thereof
TWI232417B (en) Motorcycle riding simulation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140507