JP7026902B2 - Program and train driving simulator - Google Patents

Program and train driving simulator Download PDF

Info

Publication number
JP7026902B2
JP7026902B2 JP2018017957A JP2018017957A JP7026902B2 JP 7026902 B2 JP7026902 B2 JP 7026902B2 JP 2018017957 A JP2018017957 A JP 2018017957A JP 2018017957 A JP2018017957 A JP 2018017957A JP 7026902 B2 JP7026902 B2 JP 7026902B2
Authority
JP
Japan
Prior art keywords
gaze
distance
driving
simulation
railroad track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018017957A
Other languages
Japanese (ja)
Other versions
JP2019135505A (en
Inventor
大輔 鈴木
香奈 山内
▲隆▼治 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Railway Technical Research Institute
Original Assignee
Railway Technical Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Railway Technical Research Institute filed Critical Railway Technical Research Institute
Priority to JP2018017957A priority Critical patent/JP7026902B2/en
Publication of JP2019135505A publication Critical patent/JP2019135505A/en
Application granted granted Critical
Publication of JP7026902B2 publication Critical patent/JP7026902B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Train Traffic Observation, Control, And Security (AREA)

Description

本発明は、運転画面を表示して列車の運転シミュレーションを実行させるためのプログラム等に関する。 The present invention relates to a program for displaying a driving screen and executing a train driving simulation.

列車の運転訓練に係る技術として、列車(鉄道車両)の模擬運転をシミュレーションしてユーザの確認動作を評価する技術(例えば、特許文献1を参照)が知られている。 As a technique related to train operation training, a technique of simulating simulated operation of a train (railroad vehicle) to evaluate a user's confirmation operation (see, for example, Patent Document 1) is known.

特開2014-71319号公報Japanese Unexamined Patent Publication No. 2014-71319

特許文献1の技術によれば、模擬鉄道運行区間に設定されている信号機等に対してユーザが正しく視線を向けることができたかどうかを評価することはできる。しかし、列車の運転全体におけるユーザの視線を総体的に示すことができなかった。 According to the technique of Patent Document 1, it is possible to evaluate whether or not the user can correctly turn his / her line of sight to the traffic light or the like set in the simulated railway operating section. However, it was not possible to show the user's line of sight as a whole in the overall operation of the train.

本発明は、運転シミュレーションによる列車運転時の注視傾向をユーザに提示することができる技術の提供を目的とする。 An object of the present invention is to provide a technique capable of presenting a user with a gaze tendency during train operation by driving simulation.

上述した課題を解決するための第1の発明は、
ユーザの視線を追跡検出するアイトラッキング手段(例えば、図1のアイトラッカー1202)を備えたコンピュータに、運転画面を表示させて列車の運転シミュレーションを実行させるためのプログラム(例えば、図8のシミュレーションプログラム501)であって、
前記運転シミュレーションの実行中、現在の走行位置において前記ユーザの視線が向けられている前記運転画面内のオブジェクトを、当該走行位置における注視物として特定する注視物特定手段(例えば、図7の注視物特定部216)、
前記運転シミュレーションの実行後、前記注視物特定手段によって特定された前記走行位置毎の注視物に基づく所定の統計処理を行って、所定種類のオブジェクトを注視していた時間或いは距離に係る統計値を算出する統計処理手段(例えば、図7の統計処理部220)、
前記統計値に基づく注視結果を表示制御する表示制御手段(例えば、図7の注視結果表示制御部222)、
として前記コンピュータを機能させるためのプログラムである。
The first invention for solving the above-mentioned problems is
A program for displaying a driving screen and executing a train driving simulation (for example, a simulation program of FIG. 8) on a computer equipped with an eye tracking means (for example, the eye tracker 1202 of FIG. 1) for tracking and detecting a user's line of sight. 501)
During the execution of the driving simulation, the gaze object specifying means for specifying the object in the driving screen to which the user's line of sight is directed at the current driving position as the gaze object at the driving position (for example, the gaze object of FIG. 7). Specific part 216),
After executing the driving simulation, a predetermined statistical process is performed based on the gaze object for each traveling position specified by the gaze object specifying means, and a statistical value related to the time or distance at which the object of a predetermined type is gazed is obtained. Statistical processing means to calculate (for example, statistical processing unit 220 in FIG. 7),
A display control means for displaying and controlling the gaze result based on the statistical value (for example, the gaze result display control unit 222 in FIG. 7).
It is a program for making the computer function.

第1の発明によれば、運転シミュレーションの実行中、ユーザの注視物を走行位置毎に特定することができる。そして、運転シミュレーションの実行後、所定種類のオブジェクト(対象物)を注視していた時間或いは距離に係る統計値を算出して注視結果を表示制御することができ、当該運転シミュレーションによる列車運転時の注視傾向を、ユーザに提示できる。模擬運転全体におけるユーザの注視傾向を総体的に示すことができる。 According to the first invention, the user's gaze object can be specified for each traveling position during the execution of the driving simulation. Then, after the execution of the driving simulation, it is possible to calculate the statistical value related to the time or distance at which the predetermined type of object (object) was gazed and control the display of the gaze result, and when the train is operated by the driving simulation. The gaze tendency can be presented to the user. It is possible to show the user's gaze tendency as a whole in the simulated driving as a whole.

また、第2の発明は、
前記所定種類のオブジェクトには、鉄道信号に係るオブジェクトと、線路に係るオブジェクトとが少なくとも含まれる、
第1の発明のプログラムである。
Moreover, the second invention is
The predetermined type of object includes at least an object related to a railway signal and an object related to a railroad track.
This is the program of the first invention.

第2の発明によれば、鉄道信号に係るオブジェクトと、線路に係るオブジェクトとを注視物として特定することができる。よって、模擬運転全体における鉄道信号に対する注視傾向や、線路に対する注視傾向をユーザに提示できる。 According to the second invention, the object related to the railway signal and the object related to the railroad track can be specified as a gaze object. Therefore, it is possible to present to the user the tendency to gaze at the railway signal and the tendency to gaze at the railroad track in the entire simulated operation.

また、第3の発明は、
前記線路に係るオブジェクトは、所定の距離閾値に基づき現在の走行位置からの距離が近距離側に位置する線路近傍に係るオブジェクトと、前記距離閾値に基づき現在の走行位置からの距離が遠距離側に位置する線路前方に係るオブジェクトとがあり、
前記注視物特定手段は、前記ユーザの視線が向けられているオブジェクトが前記線路に係るオブジェクトの場合に、前記線路近傍に係るオブジェクトか前記線路前方に係るオブジェクトかを更に特定することで前記注視物を特定する、
第2の発明のプログラムである。
Moreover, the third invention is
The objects related to the railroad track are the object related to the vicinity of the railroad track where the distance from the current running position is located on the short distance side based on the predetermined distance threshold, and the distance from the current running position based on the distance threshold is the long distance side. There is an object related to the front of the track located in
When the object to which the user's line of sight is directed is an object related to the railroad track, the gaze object specifying means further specifies whether the object is related to the vicinity of the railroad track or the object related to the front of the railroad track. To identify,
This is the program of the second invention.

第3の発明によれば、ユーザの視線が線路に係るオブジェクトに向けられている場合に、注視物が、現在の走行位置から近距離側の線路近傍に係るオブジェクトなのか、遠距離側の線路前方に係るオブジェクトなのかをさらに特定することができる。よって、近距離側の線路近傍を注視する傾向と、遠距離側の線路前方を注視する傾向とをユーザに提示できる。 According to the third invention, when the user's line of sight is directed to the object related to the railroad track, whether the gaze object is an object related to the vicinity of the railroad track on the short-distance side from the current traveling position or the railroad track on the long-distance side. It is possible to further specify whether the object is related to the front. Therefore, it is possible to present to the user the tendency to gaze at the vicinity of the railroad track on the short-distance side and the tendency to gaze at the front of the railroad track on the long-distance side.

また、第4の発明は、
前記距離閾値は、列車の速度域毎に段階的に定められ、
前記注視物特定手段は、前記ユーザの視線が向けられているオブジェクトが前記線路に係るオブジェクトの場合に、現在の走行速度に応じた距離閾値を用いて、前記線路近傍に係るオブジェクトか前記線路前方に係るオブジェクトかを更に特定することで前記注視物を特定する、
第3の発明のプログラムである。
Moreover, the fourth invention is
The distance threshold is set stepwise for each train speed range.
When the object to which the user's line of sight is directed is an object related to the railroad track, the gaze object specifying means uses a distance threshold according to the current traveling speed to use the object related to the vicinity of the railroad track or the front of the railroad track. The gaze object is specified by further specifying whether it is an object related to the above.
This is the program of the third invention.

第4の発明によれば、線路近傍に係るオブジェクトなのか線路前方に係るオブジェクトなのかの特定に用いる距離閾値を列車の現在の走行速度に応じて設定でき、ユーザが線路近傍を見ていたのか線路前方を見ていたのかを走行速度に応じて適切に判別できる。 According to the fourth invention, the distance threshold used for specifying whether the object is related to the vicinity of the railroad track or the object related to the front of the railroad track can be set according to the current traveling speed of the train, and is the user looking near the railroad track? Whether you were looking in front of the track can be properly determined according to the traveling speed.

また、第5の発明は、
前記所定種類のオブジェクトには、信号機に係るオブジェクトが含まれ、
前記注視物特定手段によって特定された注視物が、前記信号機に係るオブジェクトであった場合に、前記ユーザの視線が当該注視物に向けられていたときの走行位置から当該注視物までの注視距離を算出する信号機注視距離算出手段(例えば、図7の信号機注視距離算出部218)、
を更に備え、
前記統計処理手段は、前記信号機に係るオブジェクトを注視していた前記注視距離に係る統計値を算出する、
第1~第4の何れかの発明のプログラムである。
Moreover, the fifth invention is
The predetermined type of object includes an object related to a traffic light.
When the gaze object specified by the gaze object specifying means is an object related to the traffic light, the gaze distance from the traveling position when the user's line of sight is directed to the gaze object is determined. Calculated traffic light gaze distance calculation means (for example, traffic light gaze distance calculation unit 218 in FIG. 7),
Further prepare
The statistical processing means calculates a statistical value related to the gaze distance that was gaze at the object related to the traffic light.
It is a program of any one of the first to fourth inventions.

第5の発明によれば、信号機に係るオブジェクトを注視物として特定することができる。そして、ユーザの視線が当該注視物である信号機に係るオブジェクトに向けられていたときの走行位置から注視物までの注視距離について統計値を算出し、注視結果としてユーザに提示することができる。 According to the fifth invention, the object related to the traffic light can be specified as a gaze object. Then, a statistical value can be calculated for the gaze distance from the traveling position to the gaze object when the user's gaze is directed at the object related to the traffic light, which is the gaze object, and can be presented to the user as the gaze result.

また、第6の発明は、
前記統計処理手段は、前記運転シミュレーションによる運転区間の全部又は一部として設定された対象区間における前記統計値を算出する、
第1~第5の何れかの発明のプログラムである。
Moreover, the sixth invention is
The statistical processing means calculates the statistical value in the target section set as all or a part of the driving section by the driving simulation.
It is a program of any one of the first to fifth inventions.

また、第7の発明は、
前記対象区間は、駅発車時の区間、惰行運転の区間、駅到着時の区間、及び踏切通過時の区間のうちの何れか1つ又は複数の区間である、
第6の発明のプログラムである。
Moreover, the seventh invention is
The target section is any one or more sections of a section at the time of departure from a station, a section at coasting operation, a section at the time of arrival at a station, and a section at the time of passing a railroad crossing.
This is the program of the sixth invention.

第6の発明によれば、運転区間の全部または一部の区間である対象区間について統計値を算出し、注視結果をユーザに提示することができる。そして、第7の発明によれば、駅発車時の区間、惰行運転の区間、駅到着時の区間、及び踏切通過時の区間のうちの何れか1つの区間又は複数の区間を対象区間に設定することができる。 According to the sixth invention, statistical values can be calculated for a target section which is all or a part of the driving section, and the gaze result can be presented to the user. Then, according to the seventh invention, any one section or a plurality of sections of the section at the time of departure from the station, the section of coasting operation, the section at the time of arrival at the station, and the section at the time of passing the railroad crossing are set as the target section. can do.

また、第8の発明は、
前記コンピュータは、前記運転シミュレーションのための操作卓及び/又は計器架を備え、
前記統計処理手段は、前記運転シミュレーションの実行中、さらに、前記ユーザの視線が前記運転画面外となった時間或いは距離に係る統計値を算出する、
第1~第7の何れかの発明のプログラムである。
Moreover, the eighth invention is
The computer comprises a console and / or instrument rack for the driving simulation.
The statistical processing means further calculates a statistical value relating to the time or distance when the user's line of sight is out of the driving screen while the driving simulation is being executed.
It is a program of any one of the first to seventh inventions.

第8の発明によれば、運転シミュレーションのための操作卓や計器架が設置される運転画面外にユーザの視線が向けられていた時間或いは距離に係る統計値を算出して、注視結果をユーザに提示することができる。 According to the eighth invention, a statistical value relating to the time or distance at which the user's line of sight was directed outside the operation screen where the operation console or instrument rack for driving simulation is installed is calculated, and the gaze result is obtained by the user. Can be presented to.

また、第9の発明は、
前記表示制御手段は、模範ユーザが前記運転シミュレーションを行ったときの前記統計値に基づく模範注視結果を更に表示制御する、
第1~第8の何れかの発明のプログラムである。
Moreover, the ninth invention is
The display control means further displays and controls the model gaze result based on the statistical value when the model user performs the driving simulation.
It is a program of any one of the first to eighth inventions.

第9の発明によれば、例えば、ユーザの注視結果を、教官等の熟練者である模範ユーザが運転シミュレーションを行ったときの模範注視結果と対比させて表示するといったことが可能となる。 According to the ninth invention, for example, it is possible to display a user's gaze result in comparison with a model gaze result when a model user who is an expert such as an instructor performs a driving simulation.

また、第10の発明は、
運転画面を表示して列車の運転シミュレーションを実行する列車運転シミュレータ(例えば、図1の列車運転シミュレータ1000)であって、
前記運転シミュレーションの実行中、ユーザの視線を追跡検出する視線検出手段と、
前記運転シミュレーションの実行中、現在の走行位置において前記ユーザの視線が向けられている前記運転画面内のオブジェクトを、当該走行位置における注視物として特定する注視物特定手段と、
前記運転シミュレーションの実行後、前記注視物特定手段によって特定された前記走行位置毎の注視物に基づく所定の統計処理を行って、所定種類のオブジェクトを注視していた時間或いは距離に係る統計値を算出する統計処理手段と、
前記統計値に基づく注視結果を表示制御する表示制御手段と、
を備えた列車運転シミュレータである。
Moreover, the tenth invention is a tenth invention.
A train driving simulator (for example, the train driving simulator 1000 in FIG. 1) that displays a driving screen and executes a train driving simulation.
A line-of-sight detection means for tracking and detecting a user's line of sight during execution of the driving simulation,
During the execution of the driving simulation, the gaze object specifying means for specifying the object in the driving screen to which the user's line of sight is directed at the current driving position as the gaze object at the driving position,
After executing the driving simulation, a predetermined statistical process is performed based on the gaze object for each traveling position specified by the gaze object specifying means, and a statistical value related to the time or distance at which the object of a predetermined type is gazed is obtained. Statistical processing means to calculate and
A display control means for displaying and controlling the gaze result based on the statistical value,
It is a train driving simulator equipped with.

第10の発明によれば、第1の発明と同様の効果を奏する列車運転シミュレータを実現できる。 According to the tenth invention, it is possible to realize a train operation simulator having the same effect as that of the first invention.

列車運転シミュレータの全体構成例を示す図。The figure which shows the whole composition example of a train operation simulator. 運転画面の一例を示す図。The figure which shows an example of the operation screen. 注視物特定処理を説明する図。The figure explaining the gaze object identification process. 距離閾値の設定例を示す図。The figure which shows the setting example of the distance threshold value. 注視結果の表示例を示す図。The figure which shows the display example of the gaze result. 注視結果の他の表示例を示す図。The figure which shows the other display example of the gaze result. 列車運転シミュレータの機能構成例を示すブロック図。A block diagram showing a functional configuration example of a train operation simulator. 記憶部が記憶するプログラムやデータの例を示す図。The figure which shows the example of the program and data which a storage part stores. シミュレーション環境別オブジェクト位置定義データのデータ構成例を示す図。The figure which shows the data composition example of the object position definition data by simulation environment. 注視物特定結果データのデータ構成例を示す図。The figure which shows the data composition example of the gaze object identification result data. シミュレーション制御データのデータ構成例を示す図。The figure which shows the data composition example of the simulation control data. コンピュータにおける処理の流れを説明するためのフローチャート。A flowchart for explaining the flow of processing in a computer. 注視物特定処理の流れを説明するためのフローチャート。A flowchart for explaining the flow of the gaze object identification process. 統計処理の流れを説明するためのフローチャート。A flowchart for explaining the flow of statistical processing.

以下、図面を参照して、本発明の好適な実施形態について説明する。なお、以下説明する実施形態によって本発明が限定されるものではなく、本発明を適用可能な形態が以下の実施形態に限定されるものでもない。また、図面の記載において、同一部分には同一の符号を付す。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. It should be noted that the embodiments described below do not limit the present invention, and the embodiments to which the present invention can be applied are not limited to the following embodiments. Further, in the description of the drawings, the same parts are designated by the same reference numerals.

[全体構成例]
図1は、本実施形態における列車運転シミュレータ1000の全体構成例を示す図である。本実施形態の列車運転シミュレータ1000は、列車の運転を訓練するための装置であり、通信回線9により通信可能に接続されたコンピュータ1100と、アイトラッカー1202と、ビデオモニタ1204と、計器架1208を有する操作卓1206と、を含むコンピュータシステムである。図1の例では、一人用の列車運転シミュレータ1000を想定しているので、アイトラッカー1202、ビデオモニタ1204及び操作卓1206のセットを1セットのみ図示しているが、複数人が同時に訓練できるようにする場合には、当該セットを複数設けるものとする。また、図示していないが、操作卓1206付近には、ダイヤ(各駅の到着時刻や出発時刻を記載した運転士が携帯する時刻表)や、運転士手帳等が配置される。すなわち、訓練ユーザの使用において、その形態が、運転台ないし乗務員室を模擬した態様となっている。
[Overall configuration example]
FIG. 1 is a diagram showing an overall configuration example of the train operation simulator 1000 according to the present embodiment. The train operation simulator 1000 of the present embodiment is a device for training train operation, and includes a computer 1100, an eye tracker 1202, a video monitor 1204, and an instrument rack 1208, which are communicably connected by a communication line 9. It is a computer system including an operation console 1206 and the like. In the example of FIG. 1, since a train operation simulator 1000 for one person is assumed, only one set of the eye tracker 1202, the video monitor 1204, and the operation console 1206 is shown, but it is possible for a plurality of people to train at the same time. In the case of, a plurality of such sets shall be provided. Although not shown, a timetable (a timetable carried by the driver that describes the arrival time and departure time of each station), a driver's notebook, and the like are arranged near the operation console 1206. That is, in the use of the training user, the form is a mode simulating a driver's cab or a crew room.

通信回線9は、データ通信が可能な通信路を意味する。すなわち、通信回線9とは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLAN(Local Area Network)の他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。 The communication line 9 means a communication path capable of data communication. That is, the communication line 9 includes a telephone communication network, a cable network, a communication network such as the Internet, as well as a LAN (Local Area Network) using a dedicated line (dedicated cable) for direct connection and Ethernet (registered trademark). It is meaningful, and the communication method may be wired or wireless.

コンピュータ1100は、本体装置1101と、キーボード1106と、タッチパネル1108とを有し、本体装置1101には制御基板1150を搭載する。 The computer 1100 has a main body device 1101, a keyboard 1106, and a touch panel 1108, and a control board 1150 is mounted on the main body device 1101.

制御基板1150には、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等の各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、通信装置1153が搭載されている。なお、制御基板1150の一部又は全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(field-programmable gate array)、SoC(System on a Chip)により実現するとしてもよい。 The control board 1150 is equipped with various microprocessors such as CPU (Central Processing Unit) 1151, GPU (Graphics Processing Unit) and DSP (Digital Signal Processor), various IC memories 1152 such as VRAM, RAM and ROM, and communication device 1153. Has been done. A part or all of the control board 1150 may be realized by an ASIC (Application Specific Integrated Circuit), an FPGA (field-programmable gate array), or a SoC (System on a Chip).

そして、コンピュータ1100は、制御基板1150が所定のプログラム及びデータに基づいて演算処理することにより、列車運転シミュレータ1000を統合的に制御する。 Then, the computer 1100 controls the train operation simulator 1000 in an integrated manner by performing arithmetic processing on the control board 1150 based on a predetermined program and data.

なお、コンピュータ1100は単体として記しているが、各機能を分担する複数のコンピュータを搭載して相互に内部バスを介してデータ通信可能に接続した構成であってもよい。或いは、離れた場所に設置された独立した複数のコンピュータを、通信回線9を介してデータ通信させることで、全体としてコンピュータ1100として機能させる構成であってもよい。 Although the computer 1100 is described as a single unit, it may be configured such that a plurality of computers sharing each function are mounted and connected to each other via an internal bus so that data communication is possible. Alternatively, a plurality of independent computers installed at remote locations may be configured to function as the computer 1100 as a whole by performing data communication via the communication line 9.

アイトラッカー1202と、ビデオモニタ1204と、操作卓1206とのセットは、訓練ユーザ1人で1セットを使用する。 As for the set of the eye tracker 1202, the video monitor 1204, and the operation console 1206, one training user uses one set.

アイトラッカー1202は、ユーザの視線の動きを所定の追跡周期で検出・追跡・分析することを第1の機能とし、ユーザの頭部の向きを検出・追跡・分析することを第2の機能とする装置であって、視線及び頭部の動きを検出するためのデータ、或いは視線及び頭部の動きを追跡・分析した演算結果のデータをコンピュータ1100へ送信することができる。 The eye tracker 1202 has a first function of detecting, tracking, and analyzing the movement of the user's line of sight in a predetermined tracking cycle, and a second function of detecting, tracking, and analyzing the orientation of the user's head. It is possible to transmit data for detecting the movement of the line of sight and the head, or data of the calculation result obtained by tracking and analyzing the movement of the line of sight and the head to the computer 1100.

アイトラッカー1202は、図1のようなユーザの正面に設置される非装着型の据え置き装置として実現することとしてもよいし、メガネやゴーグルの形態としてユーザが装着する装着型の装置として実現してもよい。また、視線の動きを検出する方法も特には問わない。例えば、撮像センサでユーザを正面から撮影し、撮影画像を画像処理して瞳が写っている部分を検出して、検出した瞳の向きを判定して視線方向を演算して求めるとしてもよい。ユーザの頭部の向きを検出する方法も、撮影画像を画像処理することで検出する方法など、何れの方法を採用することとしてもよい。アイトラッカー1202を装着型の装置とする場合には、加速度センサやジャイロセンサを内蔵してこれらのセンサの検出値に基づいて頭部の向きを検出する方法を採用することもできる。また、アイトラッカー1202のうち、撮像センサ等のセンサ部分と、演算処理する装置とは一体であってもよいし、後者をコンピュータ1100にて実現する構成としてもよい。 The eye tracker 1202 may be realized as a non-wearable stationary device installed in front of the user as shown in FIG. 1, or as a wearable device worn by the user in the form of glasses or goggles. May be good. Further, the method of detecting the movement of the line of sight is not particularly limited. For example, the user may be photographed from the front with an image pickup sensor, the captured image may be image-processed to detect a portion where the pupil is reflected, the direction of the detected pupil may be determined, and the line-of-sight direction may be calculated. Any method may be adopted, such as a method of detecting the orientation of the user's head or a method of detecting the captured image by image processing. When the eye tracker 1202 is a wearable device, a method of incorporating an acceleration sensor or a gyro sensor and detecting the orientation of the head based on the detection values of these sensors can also be adopted. Further, in the eye tracker 1202, a sensor portion such as an image pickup sensor and a device for performing arithmetic processing may be integrated, or the latter may be realized by a computer 1100.

ビデオモニタ1204は、運転シミュレーションにおける運転席から見た仮想景観画像である運転画面を表示するための表示装置であり、コンピュータ1100から出力される信号に従って映像を表示することができる。具体的には、据置型のフラットパネルディスプレイや、ヘッドマウントディスプレイ、ビデオプロジェクタ等を適宜利用して実現できる。なお、ヘッドマウントディスプレイで実現する場合には、ゴーグル型のアイトラッカー1202を兼ねる構成としてもよい。 The video monitor 1204 is a display device for displaying a driving screen which is a virtual landscape image seen from the driver's seat in the driving simulation, and can display an image according to a signal output from the computer 1100. Specifically, it can be realized by appropriately using a stationary flat panel display, a head-mounted display, a video projector, or the like. When realized by a head-mounted display, it may be configured to also serve as a goggle-type eye tracker 1202.

運転画面は、所定位置に鉄道信号が設置された所定の運転区間を走行する列車の運転台の様子や運転台の車窓から見える風景・景観に、各種情報表示を含めたシミュレーション画面である。鉄道信号とは、列車に対して現示や表示により運転する条件を示すもののことであり、信号機等の信号の他、合図や標識等を含む。 The operation screen is a simulation screen that includes various information displays on the state of the cab of a train traveling in a predetermined operation section in which a railway signal is installed at a predetermined position and the scenery / landscape seen from the window of the cab. The railroad signal indicates a condition for operating a train by a display or a display, and includes signals such as traffic lights, signals, signs, and the like.

図2に、運転画面の画面例を示す。本実施形態では、運転画面W1には、運転シミュレーション中に追跡検出される訓練ユーザの視線位置(訓練ユーザ視線位置)Prが表示される。訓練ユーザ視線位置Prは、例えば、アイトラッカー1202で検出される訓練ユーザの視線が運転画面W1を貫いている位置である。 FIG. 2 shows a screen example of the operation screen. In the present embodiment, the operation screen W1 displays the line-of-sight position (training user line-of-sight position) Pr of the training user, which is tracked and detected during the operation simulation. The training user line-of-sight position Pr is, for example, a position where the line-of-sight of the training user detected by the eye tracker 1202 penetrates the driving screen W1.

操作卓1206は、実際の列車の運転席を模擬する操作入力装置であって、例えば、マスコンに相当する入力レバー等を備え、操作入力信号をコンピュータ1100へ送信することができる。また、操作卓1206は、速度計等の計器やスイッチ類が配置された計器架1208を備える。ただし、計器架1208は、入力レバー等を備えた操作卓1206と一体である必要はなく、別体であってもよい。 The operation console 1206 is an operation input device that simulates the driver's seat of an actual train, and is provided with, for example, an input lever corresponding to a mascon, and can transmit an operation input signal to the computer 1100. Further, the operation console 1206 includes an instrument rack 1208 in which an instrument such as a speedometer and switches are arranged. However, the instrument rack 1208 does not have to be integrated with the operation console 1206 provided with an input lever or the like, and may be a separate body.

[原理]
本実施形態では、列車運転シミュレータ1000は、運転シミュレーションの実行中、シミュレーション走行位置毎に、訓練ユーザの視線がどこに向けられていたのかを特定する注視物特定処理を行う。そして、運転シミュレーションの実行後に所定の統計処理を行い、当該シミュレーション中の訓練ユーザの注視結果を表示する制御を行う。
[principle]
In the present embodiment, the train driving simulator 1000 performs a gaze object specifying process for specifying where the line of sight of the training user is directed for each simulation running position during the execution of the driving simulation. Then, after executing the driving simulation, predetermined statistical processing is performed, and control is performed to display the gaze result of the training user during the simulation.

(1)注視物特定処理
図3は、注視物特定処理を説明する図であり、図2に示す瞬間の仮想景観画像について定められるオブジェクトの位置情報を摸式的に示している。本実施形態では、シミュレーション走行位置毎に、当該シミュレーション走行位置の走行時における運転画面(仮想景観画像)に含まれる所定種類のオブジェクトの位置情報を、予め設定しておく。
(1) Gaze Object Identification Process FIG. 3 is a diagram for explaining the gaze object identification process, and shows the position information of an object defined for the virtual landscape image at the moment shown in FIG. 2 in an exemplary manner. In the present embodiment, the position information of a predetermined type of object included in the driving screen (virtual landscape image) at the time of traveling at the simulation traveling position is set in advance for each simulation traveling position.

所定種類のオブジェクトには、鉄道信号に係るオブジェクトと、線路に係るオブジェクトとが少なくとも含まれる。本実施形態では、鉄道信号に係るオブジェクトのうちの信号機に係るオブジェクト(信号機オブジェクト)及び標識に係るオブジェクト(標識オブジェクト)と、線路に係るオブジェクトのうちの線路近傍に係るオブジェクト(線路近傍オブジェクト)及び線路前方に係るオブジェクト(線路前方オブジェクト)と、風景に係るオブジェクト(風景オブジェクト)と、その他の領域オブジェクトとの6種類のオブジェクトが、注視物特定処理で特定される。そして、そのうちの信号機オブジェクト、標識オブジェクト、風景オブジェクト及びその他の領域オブジェクトの各領域と、線路近傍オブジェクト又は線路前方オブジェクトの領域となる線路全体の領域について、予め位置情報が設定される。なお、オブジェクトの種類は例示した6種類に限らず、適宜設定してよい。 The predetermined type of object includes at least an object related to a railway signal and an object related to a railroad track. In the present embodiment, among the objects related to the railway signal, the object related to the signal (signal object) and the object related to the sign (marking object), the object related to the line, the object related to the vicinity of the line (the object near the line), and the object. Six types of objects, an object related to the front of the line (object in front of the line), an object related to the landscape (landscape object), and other area objects, are specified by the gaze object identification process. Then, the position information is set in advance for each area of the signal object, the sign object, the landscape object, and the other area object, and the area of the entire line which is the area of the line vicinity object or the line front object. The types of objects are not limited to the six types shown in the examples, and may be set as appropriate.

具体的には、図3に例示するように、仮想景観画像内の信号機の領域A21には信号機オブジェクトを示すフラグ情報が設定され、線路の領域A23には線路オブジェクトを示すフラグ情報が設定され、風景の領域A25には風景オブジェクトを示すフラグ情報が設定される。また、標識の領域には標識オブジェクトを示すフラグ情報が設定され、これらの何れにも属さない領域にはその他の領域オブジェクトを示すフラグ情報が設定される。 Specifically, as illustrated in FIG. 3, the flag information indicating the signal object is set in the signal area A21 in the virtual landscape image, and the flag information indicating the line object is set in the line area A23. Flag information indicating a landscape object is set in the landscape area A25. Further, flag information indicating a sign object is set in the area of the sign, and flag information indicating other area objects is set in the area not belonging to any of these.

そして、注視物特定処理では、運転シミュレーションの実行中、現在のシミュレーション走行位置において訓練ユーザの視線が運転画面内なのか運転画面外なのかを先ず判定し、運転画面外であればそのシミュレーション走行位置における訓練ユーザの注視物を「運転画面外」として特定する一方、運転画面内の場合は、当該視線が向けられている運転画面内のオブジェクトを注視物として特定する処理を繰り返す。具体的には、現在のシミュレーション走行位置について定められたオブジェクトの位置情報を参照し、現在の訓練ユーザ視線位置Prのオブジェクトが、信号機オブジェクト、標識オブジェクト、風景オブジェクト又はその他の領域オブジェクトであれば、そのオブジェクトを当該シミュレーション走行位置の注視物とする。図2の例では、訓練ユーザ視線位置Prは、図3に示す信号機の領域A21に属していることから、そのシミュレーション走行位置における注視物は信号機オブジェクトとして特定される。 Then, in the gaze object identification process, during the execution of the driving simulation, it is first determined whether the line of sight of the training user is inside the driving screen or outside the driving screen at the current simulation running position, and if it is outside the driving screen, the simulated running position. While the gaze object of the training user in the above is specified as "outside the operation screen", in the case of the inside of the operation screen, the process of specifying the object in the operation screen to which the line of sight is directed is repeated as the gaze object. Specifically, if the object of the current training user line-of-sight position Pr is a signal object, a sign object, a landscape object, or another area object by referring to the position information of the object defined for the current simulation travel position. The object is used as a gaze object at the simulation traveling position. In the example of FIG. 2, since the training user line-of-sight position Pr belongs to the area A21 of the traffic light shown in FIG. 3, the gaze object at the simulated travel position is specified as a traffic light object.

その後、特定した注視物が信号機オブジェクトの場合は、信号機注視距離算出処理を行い、現在のシミュレーション走行位置から注視物とされた信号機オブジェクトまでの注視距離を算出する。本実施形態では、仮想景観画像に信号機オブジェクトが含まれるシミュレーション走行位置について、当該シミュレーション走行位置から信号機オブジェクトまでの距離(信号機距離)を予め設定しておく。そして、現在のシミュレーション走行位置について設定されている信号機距離を、注視距離とする。 After that, when the specified gaze object is a traffic light object, the traffic light gaze distance calculation process is performed to calculate the gaze distance from the current simulation running position to the traffic light object as the gaze object. In the present embodiment, the distance (traffic light distance) from the simulated running position to the traffic light object is set in advance for the simulated running position in which the traffic light object is included in the virtual landscape image. Then, the traffic light distance set for the current simulation travel position is defined as the gaze distance.

また、現在の訓練ユーザ視線位置Prのオブジェクトが線路オブジェクトの場合は、そのシミュレーション走行位置からの距離をもとに、線路近傍オブジェクトなのか線路前方オブジェクトなのかを更に特定する。線路近傍オブジェクトは、線路オブジェクトのうち、現在のシミュレーション走行位置からの距離が近距離側に位置する領域をいい、線路前方オブジェクトは、当該距離が遠距離側に位置する列車の進行方向前方の領域をいう。本実施形態では、所定の距離閾値を用いて線路の領域を現在のシミュレーション走行位置の近距離側と遠距離側とに分けて、各領域を線路近傍オブジェクト及び線路前方オブジェクトとする。例えば、図3中のD2に相当する距離が距離閾値とされた場合、破線を境に手前側が線路近傍オブジェクトA231、奥側が線路前方オブジェクトA233となる。よって、仮に図2中に示す位置Pr1が訓練ユーザ視線位置であった場合は、線路前方オブジェクトが注視物として特定されることとなる。 Further, when the object of the current training user's line-of-sight position Pr is a railroad track object, it is further specified whether it is a railroad track neighborhood object or a railroad track front object based on the distance from the simulated running position. The track near object refers to the area of the track object where the distance from the current simulated travel position is located on the short-distance side, and the track front object is the region ahead of the train traveling where the distance is located on the long-distance side. To say. In the present embodiment, the track area is divided into a short-distance side and a long-distance side of the current simulation running position using a predetermined distance threshold, and each area is designated as a track proximity object and a track front object. For example, when the distance corresponding to D2 in FIG. 3 is set as the distance threshold value, the front side is the line proximity object A231 and the back side is the line front object A233 with the broken line as the boundary. Therefore, if the position Pr1 shown in FIG. 2 is the line-of-sight position of the training user, the object in front of the track is specified as the gaze object.

より詳細には、距離閾値は、予め列車の速度域毎に段階的に定められる。図4は、距離閾値の設定例を示す図である。図4の例では、低速域、中速域及び高速域の3つの速度域毎に距離閾値Ta,Tb,Tcが設定されている。この距離閾値の値は、速い速度域ほど長距離とされる(Tc>Tb>Ta)。そして、現在のシミュレーション走行速度が何れの速度域に属するのかに応じて距離閾値Ta,Tb,Tcを選択的に用い、現在のシミュレーション走行位置における仮想景観画像内の線路の領域を線路近傍オブジェクト及び線路前方オブジェクトの各領域に分割した上で、注視物を特定する。運転画面は、画面下端が列車に最も近い位置となり、画像上方にいくにしたがって列車から離れた位置となる。従って、距離閾値は運転画面の画面下端からの距離として定めることもできる。 More specifically, the distance threshold is set in advance for each speed range of the train in stages. FIG. 4 is a diagram showing an example of setting the distance threshold value. In the example of FIG. 4, the distance thresholds Ta, Tb, and Tc are set for each of the three speed ranges of low speed range, medium speed range, and high speed range. The value of this distance threshold value is such that the faster the speed range, the longer the distance (Tc> Tb> Ta). Then, the distance thresholds Ta, Tb, and Tc are selectively used according to which speed range the current simulation running speed belongs to, and the area of the railroad track in the virtual landscape image at the current simulation running position is used as the railroad track neighborhood object and After dividing into each area of the object in front of the track, the gaze point is specified. On the operation screen, the lower end of the screen is the position closest to the train, and the position becomes farther from the train as it goes to the upper part of the image. Therefore, the distance threshold value can also be set as the distance from the lower end of the screen of the operation screen.

以上の注視物特定処理によれば、運転シミュレーション中、訓練ユーザが何に視線を向けていたのか、例えば、信号機を見ていたとか、列車の進行方向前方を見ていた、空等の風景を見ていたといった、注視物の種類をシミュレーション走行位置毎に特定して記録することができる。 According to the above-mentioned gaze object identification process, what the training user was looking at during the driving simulation, for example, looking at a traffic light, looking ahead in the direction of travel of the train, the scenery such as the sky, etc. It is possible to specify and record the type of gaze object, such as what was being seen, for each simulation travel position.

(2)統計処理
統計処理では、運転シミュレーションの実行中に注視物特定処理にて走行位置毎に特定した注視物に基づいて、所定種類のオブジェクトを注視していた時間に係る統計値を算出する。本実施形態では、運転シミュレーションの開始時(シミュレーション走行開始時)を基準として、所定の時間間隔毎(例えば0.1秒毎)の各時刻における注視物を抽出する。そして、「信号機」「標識」「線路近傍」「線路前方」「風景」及び「その他」の各オブジェクトの種類と「運転画面外」の各項目を注視項目とし、それらが抽出された回数を別個に計数する。
(2) Statistical processing In the statistical processing, statistical values related to the time during which a predetermined type of object is gazed are calculated based on the gaze object specified for each traveling position in the gaze object identification process during the execution of the driving simulation. .. In the present embodiment, the gaze object is extracted at each time interval (for example, every 0.1 seconds) at predetermined time intervals based on the start time of the driving simulation (at the start of the simulation run). Then, the types of objects such as "traffic light", "sign", "near the track", "front of the track", "landscape", and "others" and each item of "outside the operation screen" are set as gaze items, and the number of times they are extracted is separated. Count to.

より詳細には、その際、運転シミュレーションによる運転区間の全部又は一部として予め設定された対象区間における注視項目毎の統計値を算出する。本実施形態では、駅発車時の区間、惰行運転の区間、駅到着時の区間及び踏切通過時の区間の4つの対象区間に運転区間が区画され、これら対象区間毎に前述の注視項目毎の抽出回数を計数する。 More specifically, at that time, the statistical value for each gaze item in the target section preset as all or part of the driving section by the driving simulation is calculated. In the present embodiment, the driving section is divided into four target sections: a section at the time of departure from the station, a section for coasting operation, a section at the time of arrival at the station, and a section at the time of passing a railroad crossing. Count the number of extractions.

そして、「信号機」「標識」「線路近傍」「線路前方」「風景」「その他」及び「運転画面外」の計数値が全体に占める割合を注視項目毎に算出して、該当する対象区間に係る各注視項目の統計値とする。 Then, the ratio of the counted values of "traffic light", "sign", "near the track", "front of the track", "landscape", "others" and "outside the operation screen" to the whole is calculated for each gaze item, and the corresponding target section is set. It shall be the statistical value of each related gaze item.

なお、統計値は、注視していた時間に係る統計値に限らず、注視していた走行距離に係る統計値を算出する構成でもよい。具体的には、注視物を抽出する毎に、その時点の走行速度と注視物を抽出する時間間隔(例えば0.1秒)とを乗算して、当該注視物を注視していた走行距離を算出・記録しておき、対象区間毎に、注視項目のオブジェクトや運転画面外を注視していた走行距離を集計して、統計値としてもよい。 The statistical value is not limited to the statistical value related to the time being watched, and may be configured to calculate the statistical value related to the mileage being watched. Specifically, each time the gaze object is extracted, the traveling speed at that time is multiplied by the time interval for extracting the gaze object (for example, 0.1 second) to obtain the mileage in which the gaze object is being gazed. It may be calculated and recorded, and the objects of the gaze item and the mileage of the gaze outside the driving screen may be aggregated and used as a statistical value for each target section.

(3)注視結果表示制御処理
図5は、注視結果の表示例を示す図であり、ある対象区間における統計値を帯グラフにした例を示している。注視結果表示制御処理では、統計処理にて各対象区間について注視項目毎に算出した統計値を例えば図5に示す帯グラフにして、訓練ユーザの注視結果として表示制御する。これによれば、運転シミュレーションの終了直後や実行後の任意のタイミングにおいて、注視項目とされた対象物に対する当該シミュレーション中の総体的な注視傾向を、訓練ユーザに提示することができる。
(3) Gaze result display control process FIG. 5 is a diagram showing a display example of the gaze result, and shows an example in which statistical values in a certain target section are made into a band graph. In the gaze result display control process, the statistical value calculated for each gaze item for each target section in the statistical process is converted into a band graph shown in FIG. 5, for example, and the display is controlled as the gaze result of the training user. According to this, it is possible to present to the training user the overall gaze tendency during the simulation for the object set as the gaze item immediately after the end of the driving simulation or at an arbitrary timing after the execution.

より詳細には、本実施形態の注視結果表示制御処理では、図5に示すように、訓練ユーザの注視結果を、教官等の模範ユーザが運転シミュレーションを行ったときの統計値に基づく注視結果(模範注視結果)と並べて表示制御する。模範注視結果は、模範ユーザによる当該運転シミュレーションの実演時に視線の動きを取得し、上記と同様の要領で統計値を算出して、予め用意しておく。これによれば、訓練ユーザに対し、自身の注視結果と対比させる態様で模範ユーザの模範注視結果を提示できる。よって、列車運転時に視界に入る例えば信号機や標識、列車の進行方向前方といった対象物への注意の払い方を訓練ユーザに効果的に教えることができる。例えば、図5の例では、訓練ユーザが線路前方ではなく線路近傍を見がちであり、熟練者のように線路前方をよく見るよう指導・教育し、或いは、当該注視結果をふまえて訓練ユーザに再度運転シミュレーションを行うよう指示するといったことが可能となる。いわば訓練ユーザの視線傾向に係る癖を正すように指示することが可能となる。 More specifically, in the gaze result display control process of the present embodiment, as shown in FIG. 5, the gaze result of the training user is based on the statistical value when a model user such as an instructor performs a driving simulation ( Display control is performed side by side with the model gaze result). The model gaze result is prepared in advance by acquiring the movement of the line of sight at the time of the demonstration of the driving simulation by the model user, calculating the statistical value in the same manner as described above. According to this, the training user can present the model gaze result of the model user in a manner of contrasting with his / her own gaze result. Therefore, it is possible to effectively teach the training user how to pay attention to an object that comes into view when the train is operated, such as a traffic light, a sign, or an object in front of the train in the traveling direction. For example, in the example of FIG. 5, the training user tends to look near the railroad track instead of the front of the railroad track, and is instructed / educated to look closely at the front of the railroad track like an expert, or the training user is instructed based on the gaze result. It is possible to instruct the operation simulation to be performed again. So to speak, it is possible to instruct the training user to correct the habit related to the line-of-sight tendency.

また、本実施形態では、線路の領域を、現在のシミュレーション走行位置から近距離側と遠距離側とに分け、遠距離側の列車の進行方向前方の領域を、注視物の1つである線路前方オブジェクトとして特定することができる。一般に、低速走行時は高速走行時と比較して近くを見ると言われており、速度域によって進行方向前方の範囲を設定するのが望ましい。本実施形態によれば、速度域に応じてそれらを分ける距離閾値を設定でき、そのシミュレーション走行位置において進行方向前方をみていたかどうかを適切に判別できる。 Further, in the present embodiment, the track area is divided into a short-distance side and a long-distance side from the current simulation running position, and the area ahead of the long-distance side in the traveling direction of the train is one of the gaze objects. It can be specified as a forward object. Generally, it is said that when driving at low speed, the vehicle looks closer than when driving at high speed, and it is desirable to set the range ahead in the traveling direction according to the speed range. According to the present embodiment, it is possible to set a distance threshold value for separating them according to the speed range, and it is possible to appropriately determine whether or not the user is looking ahead in the traveling direction at the simulated traveling position.

また、列車の運転においては、駅発車時や惰行運転時、駅到着時、踏切通過時といった運転フェーズによって、運転士の注視行動が異なる。例えば、駅発車時は、計器架を見たり時刻表を確認する等の作業を行うため、列車の進行方向前方から視線が外れている時間の割合が相対的に大きくなる。これに対し、惰行運転時に進行方向前方から視線を外すことは少なく、進行方向前方の監視と信号機や標識の確認が重要となる。本実施形態によれば、運転フェーズ毎に注視結果を提示することができる。また、併せて模範ユーザによる模範注視結果を提示できる。これによれば、訓練ユーザは、注視すべき対象物へと適切に視線を向けていたのかを容易に把握でき、訓練ユーザに対し、運転フェーズに合った対象物への注意の払い方を効果的に教えることが可能となる。 Further, in train operation, the driver's gaze behavior differs depending on the operation phase such as when departing from the station, coasting, arriving at the station, and passing a railroad crossing. For example, when departing from a station, work such as looking at the instrument rack or checking the timetable is performed, so that the ratio of the time when the line of sight is off from the front in the traveling direction of the train becomes relatively large. On the other hand, it is rare to lose sight of the line of sight from the front in the direction of travel during coasting, and it is important to monitor the front of the direction of travel and check traffic lights and signs. According to this embodiment, the gaze result can be presented for each operation phase. In addition, the model gaze result by the model user can be presented at the same time. According to this, the training user can easily grasp whether or not the line of sight is properly directed to the object to be watched, and it is effective for the training user to pay attention to the object suitable for the driving phase. It becomes possible to teach in a targeted manner.

また、列車の運転においては、鉄道信号や進行方向前方の様子の他にも、運転台に設けられた計器架や時刻表等、車窓の外以外にも見るべきものがある。本実施形態によれば、シミュレーション走行位置毎に、訓練ユーザの視線が運転画面内なのか運転画面外なのかを判定して、運転画面外を注視物の1つとして特定することができる。そして、操作卓1206や計器架1208が設置された運転画面外にユーザの視線が向けられていた時間或いは距離に係る統計値を算出して、注視結果をユーザに提示することができる。 In addition to the railroad signals and the situation ahead in the direction of travel, there are other things to see when driving a train, such as the instrument rack and timetable provided in the cab, other than outside the train window. According to the present embodiment, it is possible to determine whether the line of sight of the training user is inside the driving screen or outside the driving screen for each simulation running position, and to specify the outside of the driving screen as one of the gaze objects. Then, it is possible to calculate a statistical value related to the time or distance at which the user's line of sight is directed outside the operation screen on which the operation console 1206 and the instrument rack 1208 are installed, and present the gaze result to the user.

なお、図6に注視結果の他の表示例を示す。図6では、注視項目毎に、訓練ユーザが視線を向けていた時間帯を識別表示した例を示している。図6に向かって右方向が時間経過を示しており、左端が出発時点である。この表示例では、各注視項目の注視傾向とともに、訓練ユーザの視線の動きを提示できる。また、模範注視結果を並べて表示することで模範ユーザの視線の動きを併せて提示でき、注視すべき対象物に視線を向けたタイミングの良否をさらに指導・教育することができる。 Note that FIG. 6 shows another display example of the gaze result. FIG. 6 shows an example in which the time zone in which the training user was looking is identified and displayed for each gaze item. The right direction toward FIG. 6 shows the passage of time, and the left end is the departure point. In this display example, the movement of the line of sight of the training user can be presented together with the gaze tendency of each gaze item. In addition, by displaying the model gaze results side by side, the movement of the gaze of the model user can be presented together, and it is possible to further instruct and educate the good or bad of the timing when the gaze is directed to the object to be gazed.

また、列車の運転においては、視線を向けたときの注視物までの距離が重要な場合がある。例えば、信号機であれば、その600m程度手前に設置される信号喚呼位置標識の通過時に一度注視し、その後信号機を通過する際にも注視するのが模範である。信号喚呼位置標識を通過してから信号機を通過するまでの間に「赤信号」に変わる場合もあり、それを確認するためである。 In addition, when operating a train, the distance to the gaze object when the line of sight is directed may be important. For example, in the case of a traffic light, it is a model to pay attention once when passing a signal calling position sign installed about 600 m in front of the traffic light, and then to pay attention when passing through the traffic light. This is to confirm that it may change to a "red light" between the time it passes the signal calling position sign and the time it passes the traffic light.

そこで、注視項目のうちの「信号機」については、その注視距離を用い、遠くからの注視と近くからの注視とを分けて統計値を算出するとよい。具体的には、予め定められる所定の注視距離閾値に従い、遠くからの注視に係る抽出回数と、近くからの注視に係る抽出回数とを別個に計数する。この場合は、「信号機(遠距離注視)」「信号機(近距離注視)」「標識」「線路近傍」「線路前方」「風景」「その他」及び「運転画面外」の計数値が全体に占める割合を注視項目毎に算出して、該当する対象区間に係る各注視項目の統計値とする。これによれば、信号機オブジェクトを注視物としたときに注視距離を算出することができる。そして、算出した注視距離をもとに、信号機を遠くから注視した場合の統計値と、近くから注視した場合の統計値とを算出することができる。よって、訓練ユーザが信号機を注視していたかだけでなく、遠方からの注視及び信号機通過時の注視の両方を適切に行っているのかを判別できる。 Therefore, for the "traffic light" among the gaze items, it is advisable to use the gaze distance and calculate the statistical value separately for the gaze from a distance and the gaze from a near distance. Specifically, the number of extractions related to gaze from a distance and the number of extractions related to gaze from near are separately counted according to a predetermined gaze distance threshold value. In this case, the count values of "traffic light (long-distance gaze)", "traffic light (short-distance gaze)", "sign", "near railroad track", "front of railroad track", "landscape", "others" and "outside the operation screen" account for the whole. The ratio is calculated for each gaze item and used as the statistical value of each gaze item related to the applicable target section. According to this, the gaze distance can be calculated when the traffic light object is the gaze object. Then, based on the calculated gaze distance, it is possible to calculate a statistical value when the traffic light is gazed from a distance and a statistical value when the traffic light is gazed from a close distance. Therefore, it is possible to determine whether the training user is not only gazing at the traffic light but also appropriately performing both gazing from a distance and gazing when passing through the traffic light.

[機能構成]
図7は、本実施形態における列車運転シミュレータ1000の機能構成例を示すブロック図である。図7に示すように、列車運転シミュレータ1000は、管理操作入力部100と、運転操作入力部102と、アイトラッキング部104と、演算部200と、画像表示部390と、音出力部392と、記憶部500とを備える。
[Functional configuration]
FIG. 7 is a block diagram showing a functional configuration example of the train operation simulator 1000 according to the present embodiment. As shown in FIG. 7, the train operation simulator 1000 includes a management operation input unit 100, an operation operation input unit 102, an eye tracking unit 104, a calculation unit 200, an image display unit 390, and a sound output unit 392. It is provided with a storage unit 500.

管理操作入力部100は、列車運転シミュレータ1000の管理のための各種操作を入力するための手段である。例えば、キーボード、タッチパネル、マウス、タッチパッド、レバー、スイッチ等の操作入力デバイスにより実現され、操作入力信号を演算部200へ出力する。図1の例では、キーボード1106がこれに該当する。 The management operation input unit 100 is a means for inputting various operations for managing the train operation simulator 1000. For example, it is realized by an operation input device such as a keyboard, a touch panel, a mouse, a touch pad, a lever, and a switch, and outputs an operation input signal to the calculation unit 200. In the example of FIG. 1, the keyboard 1106 corresponds to this.

運転操作入力部102は、ユーザが運転操作を入力する手段である。例えば、スイッチ、レバー、ダイヤル、タッチパネル、ペダル、ハンドル等により実現され、操作入力信号を演算部200へ出力する。図1の例では、操作卓1206の入力レバー等がこれに該当する。 The driving operation input unit 102 is a means for the user to input a driving operation. For example, it is realized by a switch, a lever, a dial, a touch panel, a pedal, a handle, or the like, and an operation input signal is output to the calculation unit 200. In the example of FIG. 1, the input lever and the like of the operation console 1206 correspond to this.

アイトラッキング部104は、ユーザの視線を追跡検出する、いわゆるアイトラッキングを行う。また、アイトラッキング部104は、ユーザの頭部の向きを追跡検出する、いわゆるヘッドトラッキングを行う。そして、アイトラッキング部104は、視線方向を示す情報、或いは視線が運転画面を貫く位置座標を視線追跡結果として演算部200へ逐一出力する。本実施形態では後者とし、訓練ユーザの視線が運転画面内であれば、前述の位置座標を演算部200へ出力する。一方、訓練ユーザの視線が運転画面外の場合は、運転画面外である旨のフラグ情報(運転画面外フラグ)を視線追跡結果として演算部200へ出力する。図1の例では、アイトラッカー1202がこれに該当する。視線方向を示す情報の算出処理、或いは視線位置座標の算出処理の一部又は全部をコンピュータ1100にて実行する場合には、制御基板1150もこれに該当する。 The eye tracking unit 104 performs so-called eye tracking, which tracks and detects the user's line of sight. Further, the eye tracking unit 104 performs so-called head tracking, which tracks and detects the orientation of the user's head. Then, the eye tracking unit 104 outputs the information indicating the line-of-sight direction or the position coordinates through which the line of sight penetrates the operation screen to the calculation unit 200 as the line-of-sight tracking result one by one. In the present embodiment, the latter is used, and if the line of sight of the training user is in the operation screen, the above-mentioned position coordinates are output to the calculation unit 200. On the other hand, when the line of sight of the training user is outside the driving screen, the flag information (flag outside the driving screen) indicating that the line of sight is outside the driving screen is output to the calculation unit 200 as the line-of-sight tracking result. In the example of FIG. 1, the eye tracker 1202 corresponds to this. When the computer 1100 executes a part or all of the calculation process of the information indicating the line-of-sight direction or the calculation process of the line-of-sight position coordinates, the control board 1150 also corresponds to this.

演算部200は、例えばCPUやGPU等のマイクロプロセッサや、ASIC、ICメモリ等の電子部品によって実現され、各機能部との間でデータの入出力制御を行う。そして、所定のプログラムや各種設定データ、アイトラッキング部104からの視線追跡結果、管理操作入力部100や運転操作入力部102からの操作入力信号等に基づいて各種の演算処理を行い、列車運転シミュレータ1000の動作を統合的に制御する。図1の例では、制御基板1150がこれに該当する。 The arithmetic unit 200 is realized by, for example, a microprocessor such as a CPU or GPU, or an electronic component such as an ASIC or an IC memory, and performs input / output control of data with each functional unit. Then, various arithmetic processes are performed based on a predetermined program, various setting data, an eye tracking result from the eye tracking unit 104, an operation input signal from the management operation input unit 100 and the operation input unit 102, and the like, and a train operation simulator is performed. The operation of 1000 is controlled in an integrated manner. In the example of FIG. 1, the control board 1150 corresponds to this.

そして、本実施形態の演算部200は、シミュレーション制御部210と、計時部280と、音生成部292と、画像生成部290とを含む。勿論、これら以外の機能部も適宜含めることができる。 The calculation unit 200 of the present embodiment includes a simulation control unit 210, a timekeeping unit 280, a sound generation unit 292, and an image generation unit 290. Of course, functional parts other than these can be included as appropriate.

シミュレーション制御部210は、訓練ユーザ視線位置取得部212と、運転画面表示制御部214と、注視物特定部216と、信号機注視距離算出部218と、統計処理部220と、注視結果表示制御部222とを備え、運転シミュレーションに係る各種演算処理を実行する。 The simulation control unit 210 includes a training user line-of-sight position acquisition unit 212, an operation screen display control unit 214, a gaze object identification unit 216, a traffic light gaze distance calculation unit 218, a statistical processing unit 220, and a gaze result display control unit 222. And, various arithmetic processing related to the operation simulation is executed.

訓練ユーザ視線位置取得部212は、訓練ユーザによる運転シミュレーションの実行中、アイトラッキング部104による追跡周期毎にその視線追跡結果(訓練ユーザの視線位置座標又は運転画面外フラグ)を取得する。 The training user line-of-sight position acquisition unit 212 acquires the line-of-sight tracking result (training user's line-of-sight position coordinates or driving off-screen flag) for each tracking cycle by the eye tracking unit 104 during execution of the driving simulation by the training user.

運転画面表示制御部214は、運転画面を表示制御する。本実施形態では、訓練ユーザ視線位置取得部212により取得された視線追跡結果に基づいて、仮想景観画像上で現在の訓練ユーザ視線位置を識別表示させた運転画面を表示制御する。 The operation screen display control unit 214 displays and controls the operation screen. In the present embodiment, the operation screen in which the current training user's line-of-sight position is identified and displayed on the virtual landscape image is displayed and controlled based on the line-of-sight tracking result acquired by the training user's line-of-sight position acquisition unit 212.

注視物特定部216は、運転シミュレーションの実行中に注視物特定処理を行い、訓練ユーザの注視物をシミュレーション走行位置毎に特定する。 The gaze object specifying unit 216 performs the gaze object identification process during the execution of the driving simulation, and specifies the gaze object of the training user for each simulation running position.

信号機注視距離算出部218は、注視物特定部216が信号機オブジェクトを注視物として特定した際に信号機注視距離算出処理を行い、現在のシミュレーション走行位置から当該信号機オブジェクトまでの距離を信号機注視距離として算出する。 The traffic light gaze distance calculation unit 218 performs a traffic light gaze distance calculation process when the gaze object identification unit 216 identifies the traffic light object as a gaze object, and calculates the distance from the current simulation travel position to the traffic light gaze distance as the traffic light gaze distance. do.

統計処理部220は、運転シミュレーションの実行後に統計処理を行い、駅発車時の区間、惰行運転の区間、駅到着時の区間及び踏切通過時の区間の各対象区間について、信号機(遠距離注視)、信号機(近距離注視)、標識、線路近傍、線路前方、風景、その他及び運転画面外の注視項目毎に、該当する種類のオブジェクトや運転画面外を注視していた時間に係る統計値を算出する。 The statistical processing unit 220 performs statistical processing after executing the driving simulation, and for each target section of the section at the time of departure from the station, the section of coasting operation, the section at the time of arriving at the station, and the section at the time of passing the railroad crossing, a traffic light (long-distance gaze). , Traffic light (short-distance gaze), sign, near the railroad track, in front of the railroad track, landscape, etc. do.

注視結果表示制御部222は、統計処理で各対象区間について注視項目毎に求めた統計値に基づいて、該当する運転シミュレーションに係る訓練ユーザの注視結果を表示する制御を行う。 The gaze result display control unit 222 controls to display the gaze result of the training user related to the corresponding driving simulation based on the statistical value obtained for each gaze item for each target section in the statistical processing.

計時部280は、システムクロックを利用して現在日時やシミュレーション世界の日時、各種タイマーに係る計時を行う。 The timekeeping unit 280 uses the system clock to measure the current date and time, the date and time in the simulation world, and various timers.

画像生成部290は、コンピュータ1100のシステム管理に関する画像や、シミュレーション画像である運転画面W2~W8等を生成することができる。そして、生成した画像を表示させるための画像信号を画像表示部390へ出力することができる。 The image generation unit 290 can generate images related to the system management of the computer 1100, operation screens W2 to W8 which are simulation images, and the like. Then, an image signal for displaying the generated image can be output to the image display unit 390.

音生成部292は、音声データの生成やデコードをするICやソフトウェアの実行により実現され、コンピュータ1100のシステム管理や運転シミュレーションに係る操作音や環境音等の音声データを生成或いはデコードする。そして、音声信号を音出力部392へ出力する。 The sound generation unit 292 is realized by executing IC or software that generates and decodes voice data, and generates or decodes voice data such as operation sounds and environmental sounds related to system management and operation simulation of the computer 1100. Then, the audio signal is output to the sound output unit 392.

画像表示部390は、画像生成部290から入力される画像信号に基づいてシステム管理のための各種画像や、運転画面W2~W8を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。図1の例では、システム管理に関する画像は、タッチパネル1108に表示され、運転画面はビデオモニタ1204にて表示される。 The image display unit 390 displays various images for system management and operation screens W2 to W8 based on the image signals input from the image generation unit 290. For example, it can be realized by an image display device such as a flat panel display, a cathode ray tube (CRT), a projector, and a head-mounted display. In the example of FIG. 1, the image related to the system management is displayed on the touch panel 1108, and the operation screen is displayed on the video monitor 1204.

音出力部392は、音生成部292から入力される音声信号を放音する。図1の例では、本体装置1101やタッチパネル1108が備えるスピーカ(不図示)がこれに該当する。 The sound output unit 392 emits an audio signal input from the sound generation unit 292. In the example of FIG. 1, a speaker (not shown) included in the main unit 1101 and the touch panel 1108 corresponds to this.

記憶部500には、列車運転シミュレータ1000を動作させ、列車運転シミュレータ1000が備える種々の機能を実現するためのプログラムや、このプログラムの実行中に使用されるデータ等が予め格納され、或いは処理の都度一時的に格納される。例えば、RAMやROM等のICメモリ、ハードディスク等の磁気ディスク、CD-ROMやDVD等の光学ディスク、オンラインストレージ等によって実現される。図1の例では、本体装置1101が搭載するICメモリ1152がこれに該当する。 In the storage unit 500, a program for operating the train operation simulator 1000 and realizing various functions included in the train operation simulator 1000, data used during execution of this program, and the like are stored or processed in advance. It is temporarily stored each time. For example, it is realized by an IC memory such as a RAM or a ROM, a magnetic disk such as a hard disk, an optical disk such as a CD-ROM or a DVD, an online storage, or the like. In the example of FIG. 1, the IC memory 1152 mounted on the main unit 1101 corresponds to this.

図8は、記憶部500が記憶するプログラムやデータの例を示す図である。記憶部500は、シミュレーションプログラム501と、シミュレーション環境初期設定データ510と、シミュレーション環境別オブジェクト位置定義データ520と、距離閾値テーブル530と、シミュレーション環境別対象区間設定540と、模範注視結果データ550とを予め記憶している。また、記憶部500は、適宜生成・更新されるデータとして、訓練ユーザ視線追跡結果データ560と、注視物特定結果データ570と、シミュレーション制御データ600と、注視結果データ700と、現在日時800とを記憶する。その他、タイマーや、カウンタ、各種フラグ等の情報を適宜記憶できる。 FIG. 8 is a diagram showing an example of a program and data stored in the storage unit 500. The storage unit 500 stores the simulation program 501, the simulation environment initial setting data 510, the object position definition data 520 for each simulation environment, the distance threshold table 530, the target section setting 540 for each simulation environment, and the model gaze result data 550. I remember it in advance. Further, the storage unit 500 stores the training user line-of-sight tracking result data 560, the gaze object identification result data 570, the simulation control data 600, the gaze result data 700, and the current date and time 800 as data to be appropriately generated and updated. Remember. In addition, information such as timers, counters, and various flags can be stored as appropriate.

シミュレーションプログラム501は、演算部200が読み出して実行することで、シミュレーション制御部210としての機能を実現させるためのプログラムである。 The simulation program 501 is a program for realizing the function as the simulation control unit 210 by being read and executed by the calculation unit 200.

シミュレーション環境初期設定データ510は、運転シミュレーションの環境条件別に用意されて、当該運転シミュレーションの内容を定義する各種データを格納する。例えば、1つのシミュレーション環境初期設定データ510は、走行区間種類511と、季節種類512と、天候種類513と、時間帯種類514とを含む。また、シミュレーション環境初期設定データ510は、環境オブジェクト設定データ515と、鉄道信号設定データ516と、対応位置定義ID517とを含む。勿論、これら以外のデータも適宜含めることができる。 The simulation environment initial setting data 510 is prepared for each environment condition of the operation simulation, and stores various data defining the contents of the operation simulation. For example, one simulation environment initial setting data 510 includes a traveling section type 511, a seasonal type 512, a weather type 513, and a time zone type 514. Further, the simulation environment initial setting data 510 includes environment object setting data 515, railway signal setting data 516, and corresponding position definition ID 517. Of course, data other than these can be included as appropriate.

環境オブジェクト設定データ515は、シミュレーションする空間に配置される主に背景や環境を構成するオブジェクト(駅やビル等の建物のオブジェクト、景色等の景観を構成するオブジェクト)毎に用意され、当該オブジェクトのモデルデータ、テクスチャデータ、配置データ、モーションデータ等を定義する。 The environment object setting data 515 is prepared mainly for each object (objects of buildings such as stations and buildings, objects constituting landscapes such as landscapes) arranged in the space to be simulated and mainly constitutes the background and environment, and the environment object setting data 515 is prepared for each object. Define model data, texture data, placement data, motion data, etc.

鉄道信号設定データ516は、シミュレーションする空間に配置される鉄道信号別に用意され、当該鉄道信号のモデルデータ、テクスチャデータ、配置位置データ、動作する鉄道信号の場合の動作パターンデータ等を定義する。 The railway signal setting data 516 is prepared for each railway signal arranged in the space to be simulated, and defines model data, texture data, arrangement position data, operation pattern data in the case of an operating railway signal, and the like.

対応位置定義ID517は、当該シミュレーション環境初期設定データ510を用いた運転シミュレーションに係る運転画面(仮想景観画像)について定めたシミュレーション環境別オブジェクト位置定義データ520のオブジェクト位置定義ID521(図9を参照)を格納する。 The corresponding position definition ID 517 is an object position definition ID 521 (see FIG. 9) of the object position definition data 520 for each simulation environment that defines the operation screen (virtual landscape image) related to the operation simulation using the simulation environment initial setting data 510. Store.

シミュレーション環境別オブジェクト位置定義データ520は、運転シミュレーションの環境条件別に用意されて、当該運転シミュレーション中に運転画面に表示される仮想景観画像内のオブジェクトの位置情報を定義する。図9は、シミュレーション環境別オブジェクト位置定義データ520のデータ構成例を示す図である。1つのシミュレーション環境別オブジェクト位置定義データ520は、例えば図9に示すように、オブジェクト位置定義ID521と、オブジェクト位置定義データ523とを含む。そして、オブジェクト位置定義データ523は、当該運転シミュレーションのシミュレーション走行位置毎に用意され、そのシミュレーション走行位置524と、オブジェクト位置情報525と、信号機距離526とを含む。 The object position definition data 520 for each simulation environment is prepared for each environment condition of the driving simulation, and defines the position information of the object in the virtual landscape image displayed on the driving screen during the driving simulation. FIG. 9 is a diagram showing a data configuration example of the object position definition data 520 for each simulation environment. One object position definition data 520 for each simulation environment includes an object position definition ID 521 and an object position definition data 523, as shown in FIG. 9, for example. The object position definition data 523 is prepared for each simulation travel position of the driving simulation, and includes the simulation travel position 524, the object position information 525, and the traffic light distance 526.

オブジェクト位置情報525は、対応するシミュレーション走行位置524の走行時における運転画面(仮想景観画像)内の信号機オブジェクト、標識オブジェクト、風景オブジェクト、線路全体の領域オブジェクト及びその他の領域オブジェクトの各オブジェクトの位置情報を格納する(図3を参照)。 The object position information 525 is the position information of each object of the signal object, the sign object, the landscape object, the area object of the entire track, and other area objects in the operation screen (virtual landscape image) when the corresponding simulation travel position 524 is traveled. (See Figure 3).

信号機距離526は、対応するシミュレーション走行位置524の走行時における運転画面(仮想景観画像)に信号機オブジェクトが含まれる場合に設定され、当該シミュレーション走行位置524から信号機オブジェクトまでの距離が設定される。 The traffic light distance 526 is set when the traffic light object is included in the operation screen (virtual landscape image) at the time of traveling of the corresponding simulation travel position 524, and the distance from the simulation travel position 524 to the traffic light object is set.

図8に戻り、距離閾値テーブル530には、線路の領域を線路オブジェクトと前方オブジェクトとに分割する際に用いる距離閾値が、列車の速度域と対応付けて設定される(図4を参照)。 Returning to FIG. 8, in the distance threshold table 530, the distance threshold used when dividing the track area into the track object and the front object is set in association with the speed range of the train (see FIG. 4).

シミュレーション環境別対象区間設定540は、運転シミュレーションの環境条件別に用意されて、その運転区間内の駅発車時の区間、惰行運転の区間、駅到着時の区間及び踏切通過時の区間を定義する。 The target section setting 540 for each simulation environment is prepared for each environment condition of the driving simulation, and defines a section at the time of departure from the station, a section of coasting operation, a section at the time of arrival at the station, and a section at the time of passing a railroad crossing within the driving section.

模範注視結果データ550は、運転シミュレーションの環境条件別に用意されて、該当する運転シミュレーションを模範ユーザが実演することで得た当該模範ユーザの注視結果を格納する。 The model gaze result data 550 is prepared for each environmental condition of the driving simulation, and stores the gaze result of the model user obtained by demonstrating the corresponding driving simulation by the model user.

注視物特定結果データ570は、シミュレーション走行位置毎の注視物の特定結果を格納する。図10は、注視物特定結果データ570のデータ構成例を示す図である。図10に示すように、注視物特定結果データ570には、実行中の運転シミュレーションのシミュレーション走行位置毎に、当該シミュレーション走行位置の注視物特定処理で特定された注視物と、当該注視物が信号機オブジェクトの場合に信号機注視距離算出処理で算出された注視距離とが設定される。 The gaze object identification result data 570 stores the gaze object identification result for each simulation traveling position. FIG. 10 is a diagram showing a data configuration example of the gaze object identification result data 570. As shown in FIG. 10, in the gaze object identification result data 570, for each simulation running position of the running simulation, the gaze object specified by the gaze object identification process of the simulation running position and the gaze object are traffic lights. In the case of an object, the gaze distance calculated by the traffic light gaze distance calculation process is set.

シミュレーション制御データ600は、運転シミュレーションを実行制御するための各種データを格納する。図11は、シミュレーション制御データ600のデータ構成例を示す図である。シミュレーション制御データ600は、例えば図11に示すように、走行区間602と、季節604と、天候606と、時間帯608と、使用位置定義ID610と、シミュレーション経過時間612と、シミュレーション走行位置614と、シミュレーション走行速度616とを含む。また、現在訓練ユーザ視線位置座標618と、環境オブジェクト制御データ620と、鉄道信号制御データ622と、運転画面データ624とを含む。勿論、これら以外のデータも適宜含めることができる。 The simulation control data 600 stores various data for executing and controlling the operation simulation. FIG. 11 is a diagram showing a data configuration example of the simulation control data 600. As shown in FIG. 11, for example, the simulation control data 600 includes a traveling section 602, a season 604, a weather 606, a time zone 608, a used position definition ID 610, a simulation elapsed time 612, and a simulation traveling position 614. Includes a simulated travel speed of 616. It also includes current training user line-of-sight position coordinates 618, environment object control data 620, railroad signal control data 622, and operation screen data 624. Of course, data other than these can be included as appropriate.

走行区間602と、季節604と、天候606と、時間帯608は、運転シミュレーションの環境条件であって、シミュレーション開始前に所定の環境条件選択画面を表示してこれら各項目の選択入力を受け付けた結果である。 The traveling section 602, the season 604, the weather 606, and the time zone 608 are the environmental conditions of the driving simulation. Before the start of the simulation, a predetermined environmental condition selection screen is displayed and the selection input of each of these items is accepted. The result.

シミュレーション経過時間612は、シミュレーション開始からの経過時間である。シミュレーション走行位置614及びシミュレーション走行速度616は、操作卓1206(図1参照)で入力された運転操作に応じてシミュレーションされた仮想列車の走行位置と走行速度を、それぞれ格納する。 The simulation elapsed time 612 is the elapsed time from the start of the simulation. The simulated running position 614 and the simulated running speed 616 store the running position and running speed of the virtual train simulated according to the driving operation input by the operation console 1206 (see FIG. 1), respectively.

現在訓練ユーザ視線位置座標618は、訓練ユーザ視線位置取得部215aが取得した視線追跡結果が示す視線位置座標を格納する。 The current training user line-of-sight position coordinates 618 stores the line-of-sight position coordinates indicated by the line-of-sight tracking result acquired by the training user line-of-sight position acquisition unit 215a.

環境オブジェクト制御データ620は、走行区間602、季節604、及び天候606が適合するシミュレーション環境初期設定データ510の環境オブジェクト設定データ515のオブジェクト毎に用意され、シミュレーション実行中のそれらの状態を制御するためのデータを格納する。 The environment object control data 620 is prepared for each object of the environment object setting data 515 of the simulation environment initial setting data 510 to which the traveling section 602, the season 604, and the weather 606 match, and is for controlling their states during the simulation execution. Store the data of.

鉄道信号制御データ622は、走行区間602、季節604、及び天候606が適合するシミュレーション環境初期設定データ510の鉄道信号設定データ516のオブジェクト毎に用意され、シミュレーション実行中のそれらの状態を制御するためのデータを格納する。 The railway signal control data 622 is prepared for each object of the railway signal setting data 516 of the simulation environment initial setting data 510 to which the traveling section 602, the season 604, and the weather 606 match, and is used to control their states during the simulation execution. Store the data of.

図8に戻り、注視結果データ700は、実行された運転シミュレーション毎に用意され、その実行後の統計処理で算出された統計値を当該運転シミュレーションにおける訓練ユーザの注視結果として記憶する。 Returning to FIG. 8, the gaze result data 700 is prepared for each executed driving simulation, and the statistical value calculated by the statistical processing after the execution is stored as the gaze result of the training user in the driving simulation.

[処理の流れ]
図12は、本実施形態の列車運転シミュレータ1000における処理の流れを説明するためのフローチャートである。ここで説明する処理は、演算部200がシミュレーションプログラム501を読み出して実行することにより実現される。
[Processing flow]
FIG. 12 is a flowchart for explaining the flow of processing in the train operation simulator 1000 of the present embodiment. The process described here is realized by the arithmetic unit 200 reading and executing the simulation program 501.

本実施形態では、列車運転シミュレータ1000のコンピュータ1100は先ず、所定のシミュレーション環境画面を表示制御し、運転シミュレーションの環境条件の設定入力を受け付ける(ステップS1)。具体的には、走行区間や季節、天候、時間帯の選択操作を受け付けて、それらを走行区間602、季節604、天候606、及び時間帯608としてシミュレーション制御データ600に格納する。 In the present embodiment, the computer 1100 of the train operation simulator 1000 first displays and controls a predetermined simulation environment screen, and accepts the setting input of the environmental conditions of the operation simulation (step S1). Specifically, the operation of selecting the traveling section, the season, the weather, and the time zone is received, and these are stored in the simulation control data 600 as the traveling section 602, the season 604, the weather 606, and the time zone 608.

続いて、コンピュータ1100は、ステップS1での環境条件設定に適合するシミュレーション環境初期設定データ510を読み出すとともに、その対応位置定義ID517に従って、当該シミュレーション環境初期設定データ510に対応したシミュレーション環境別オブジェクト位置定義データ520を読み出す(ステップS2)。このとき、対応位置定義ID517を使用位置定義ID610としてシミュレーション制御データ600に格納する。 Subsequently, the computer 1100 reads out the simulation environment initial setting data 510 that matches the environment condition setting in step S1, and defines the object position for each simulation environment corresponding to the simulation environment initial setting data 510 according to the corresponding position definition ID 517. Read the data 520 (step S2). At this time, the corresponding position definition ID 517 is stored in the simulation control data 600 as the used position definition ID 610.

その後、運転シミュレーションを開始する(ステップS3)。これにより、シミュレーション経過時間612の計時が開始され、シミュレーション走行位置614やシミュレーション走行速度616がシミュレートされる。環境オブジェクト制御データ620及び鉄道信号制御データ622も、当該シミュレーションの進行に応じて変更される。また、訓練ユーザ視線位置取得部212が、アイトラッキング部104による視線追跡結果の取得を開始する(ステップS4)。これにより、アイトラッキング部104の追跡周期で視線追跡結果が訓練ユーザ視線追跡結果データ560に蓄積されるとともに、現在訓練ユーザ視線位置座標618が変更される。視線追跡結果が訓練ユーザの視線位置座標であれば当該座標で現在訓練ユーザ視線位置座標618が変更され、運転画面外フラグであれば現在訓練ユーザ視線位置座標618がクリアされる。 After that, the operation simulation is started (step S3). As a result, the time counting of the simulation elapsed time 612 is started, and the simulation running position 614 and the simulation running speed 616 are simulated. The environmental object control data 620 and the railway signal control data 622 are also changed according to the progress of the simulation. Further, the training user line-of-sight position acquisition unit 212 starts acquiring the line-of-sight tracking result by the eye tracking unit 104 (step S4). As a result, the line-of-sight tracking result is accumulated in the training user line-of-sight tracking result data 560 in the tracking cycle of the eye tracking unit 104, and the current training user line-of-sight position coordinate 618 is changed. If the line-of-sight tracking result is the line-of-sight position coordinates of the training user, the current training user line-of-sight position coordinates 618 is changed at the coordinates, and if the flag is off the operation screen, the current training user line-of-sight position coordinates 618 is cleared.

そして、コンピュータ1100は、運転シミュレーションを開始すると、当該シミュレーションが終了するまでの間、運転画面の表示及び注視物の特定に係る処理を繰り返す(ステップS5~ステップS6)。 Then, when the operation simulation is started, the computer 1100 repeats the processing related to the display of the operation screen and the identification of the gaze object until the simulation is completed (steps S5 to S6).

具体的には、コンピュータ1100は、運転画面生成表示処理を行う(ステップS5)。本実施形態の運転画面生成表示処理では、現在訓練ユーザ視線位置座標618に従い、仮想景観画像上で現在の訓練ユーザ視線位置を識別表示した運転画面を生成して表示する。 Specifically, the computer 1100 performs an operation screen generation display process (step S5). In the operation screen generation display processing of the present embodiment, the operation screen in which the current training user line-of-sight position is identified and displayed on the virtual landscape image is generated and displayed according to the current training user line-of-sight position coordinates 618.

また、コンピュータ1100は、注視物特定処理を行う(ステップS6)。図13は、注視物特定処理の流れを説明するためのフローチャートである。図13に示すように、注視物特定処理では先ず、現在訓練ユーザ視線位置座標618に基づいて、訓練ユーザの視線が図12のステップS5で生成・表示した運転画面内か否かを判定する。そして、運転画面外の場合は(ステップS601:NO)、現在のシミュレーション走行位置における訓練ユーザの注視物を「運転画面外」として特定する(ステップS603)。 Further, the computer 1100 performs a gaze object identification process (step S6). FIG. 13 is a flowchart for explaining the flow of the gaze object specifying process. As shown in FIG. 13, in the gaze object specifying process, first, it is determined whether or not the line of sight of the training user is within the operation screen generated / displayed in step S5 of FIG. 12 based on the current training user line-of-sight position coordinates 618. Then, in the case of outside the driving screen (step S601: NO), the gaze object of the training user at the current simulation running position is specified as "outside the driving screen" (step S603).

訓練ユーザの視線が運転画面内の場合は(ステップS601:YES)、図12のステップS2で読み出したシミュレーション環境別オブジェクト位置定義データ520においてシミュレーション走行位置524に現在のシミュレーション走行位置614が設定されたオブジェクト位置情報525を参照し、現在訓練ユーザ視線位置座標のオブジェクトを特定する(ステップS605)。そして、特定したオブジェクトが線路オブジェクトではなく、信号機オブジェクト、標識オブジェクト、風景オブジェクト又はその他の領域オブジェクトの場合は(ステップS607:NO)、そのオブジェクトを当該シミュレーション走行位置の注視物とする(ステップS609)。 When the line of sight of the training user is in the operation screen (step S601: YES), the current simulation running position 614 is set in the simulation running position 524 in the object position definition data 520 for each simulation environment read in step S2 of FIG. With reference to the object position information 525, the object of the current training user's line-of-sight position coordinates is specified (step S605). If the specified object is not a railroad track object but a signal object, a sign object, a landscape object, or another area object (step S607: NO), that object is used as a gaze object at the simulation travel position (step S609). ..

また、ステップS605で特定した注視物が信号機オブジェクトの場合は(ステップS611:YES)、信号機注視距離算出処理を行って、現在のシミュレーション走行位置から注視物とされた信号機オブジェクトまでの注視距離を算出する(ステップS613)。 If the gaze object specified in step S605 is a traffic light object (step S611: YES), the traffic light gaze distance calculation process is performed to calculate the gaze distance from the current simulation travel position to the traffic light object as the gaze object. (Step S613).

一方、ステップS605で特定したオブジェクトが線路オブジェクトであれば(ステップS607:YES)、現在のシミュレーション走行速度616が属する速度域の距離閾値を距離閾値テーブル530から読み出す(ステップS615)。続いて、現在のシミュレーション走行位置614から現在訓練ユーザ視線位置座標618が示す線路内の位置までの距離を算出する(ステップS617)。そして、ステップS615で読み出した距離閾値を用いてステップS617で算出した距離を閾値判定し、距離閾値を境に近距離側であれば線路近傍オブジェクト、遠距離側であれば線路前方オブジェクトとして特定する(ステップS619)。 On the other hand, if the object specified in step S605 is a track object (step S607: YES), the distance threshold value in the speed range to which the current simulation running speed 616 belongs is read out from the distance threshold value table 530 (step S615). Subsequently, the distance from the current simulation running position 614 to the position in the track indicated by the current training user line-of-sight position coordinates 618 is calculated (step S617). Then, the distance calculated in step S617 is determined as a threshold value using the distance threshold value read in step S615, and is specified as a track near object if it is on the short distance side and as a track front object if it is on the long distance side with the distance threshold as the boundary. (Step S619).

その後、特定したオブジェクトや算出した注視距離を現在のシミュレーション走行位置と対応付けて注視物特定結果データ570に格納し、現在のシミュレーション走行位置に係る注視物特定処理を終える。 After that, the specified object and the calculated gaze distance are stored in the gaze object identification result data 570 in association with the current simulation travel position, and the gaze object identification process related to the current simulation travel position is completed.

図12に戻り、コンピュータ1100は、運転シミュレーションの終了条件が満たされない間は(ステップS7:NO)、ステップS5に戻って上記した処理を繰り返す。そして、運転シミュレーションの終了条件が満たされた場合には(ステップS7:YES)、当該運転シミュレーションの実行を終了して統計処理を行う(ステップS8)。 Returning to FIG. 12, the computer 1100 returns to step S5 and repeats the above process while the end condition of the operation simulation is not satisfied (step S7: NO). Then, when the end condition of the operation simulation is satisfied (step S7: YES), the execution of the operation simulation is terminated and statistical processing is performed (step S8).

図14は、統計処理の流れを説明するためのフローチャートである。図14に示すように、統計処理では、先ず、該当するシミュレーション環境別対象区間設定540に従って運転区間を対象区間に区画する(ステップS81)。そして、各対象区間を順次処理対象区間としてループAの処理を行う(ステップS83~ステップS87)。 FIG. 14 is a flowchart for explaining the flow of statistical processing. As shown in FIG. 14, in the statistical processing, first, the operation section is divided into the target sections according to the corresponding target section setting 540 for each simulation environment (step S81). Then, the loop A processing is performed with each target section as a processing target section (step S83 to step S87).

すなわち、ループAでは、処理対象区間内の各シミュレーション走行位置について特定された注視物に基づいて、「信号機(遠距離注視)」「信号機(近距離注視)」「標識」「線路近傍」「線路前方」「風景」「その他」及び「運転画面外」の注視項目毎に統計値を算出する(ステップS85)。全ての対象区間についてループAの処理を行ったならば、統計処理を終える。 That is, in loop A, "traffic light (long-distance gaze)", "traffic light (short-distance gaze)", "sign", "near the railroad track", and "railroad track" based on the gaze object specified for each simulation running position in the processing target section. Statistical values are calculated for each gaze item of "forward", "landscape", "others", and "outside the driving screen" (step S85). When the processing of loop A is performed for all the target sections, the statistical processing is completed.

そして、図12に戻って注視結果表示制御処理を行い、ステップS8の統計処理で算出した統計値に基づき注視結果を画像表示部390に表示する制御を行う(ステップS9)。その際、該当する運転シミュレーションに係る模範注視結果データ550を用い、訓練ユーザの注視結果と並べて模範ユーザの模範注視結果を表示制御する。注視結果表示制御処理の後、コンピュータ1100は一連の処理を終了する。 Then, returning to FIG. 12, the gaze result display control process is performed, and the gaze result is displayed on the image display unit 390 based on the statistical value calculated in the statistical process of step S8 (step S9). At that time, the model gaze result data 550 related to the corresponding driving simulation is used to display and control the model gaze result of the model user along with the gaze result of the training user. After the gaze result display control process, the computer 1100 ends a series of processes.

以上説明したように、本実施形態によれば、運転シミュレーションの実行中、ユーザの注視物を走行位置毎に特定することができる。そして、運転シミュレーションの実行後、所定種類のオブジェクト(対象物)を注視していた時間或いは距離に係る統計値を算出して注視結果を表示制御することができ、当該運転シミュレーションによる列車運転時の注視傾向をユーザに提示することができる。模擬運転全体におけるユーザの注視傾向を総体的に示すことができる。 As described above, according to the present embodiment, the user's gaze object can be specified for each traveling position during the execution of the driving simulation. Then, after the execution of the driving simulation, it is possible to calculate the statistical value related to the time or distance at which the predetermined type of object (object) was gazed and control the display of the gaze result, and when the train is operated by the driving simulation. The gaze tendency can be presented to the user. It is possible to show the user's gaze tendency as a whole in the simulated driving as a whole.

なお、上記した実施形態では、線路オブジェクトが線路近傍オブジェクトなのか線路前方オブジェクトなのかを特定するのに用いる距離閾値を速度域毎に設定しておくとした。これに代えて、距離閾値を、対象区間毎に設定しておく構成としてもよい。或いは、対象区間毎に速度域を定義して、対象区間毎かつ速度域毎に距離閾値を設定しておく構成としてもよい。 In the above-described embodiment, the distance threshold value used to specify whether the track object is the object near the track or the object in front of the track is set for each speed range. Instead of this, the distance threshold value may be set for each target section. Alternatively, the speed range may be defined for each target section, and the distance threshold value may be set for each target section and each speed range.

上記した実施形態では、注視物特定処理において訓練ユーザの視線が運転画面外であった場合にはそのまま「運転画面外」として特定することとして説明したが、「運転画面外」を更に細分化して特定することとしてもよい。例えば、図2に記載されているように、訓練ユーザから見て、運転画面が表示されているビデオモニタ1204の下に操作卓1206や計器架1208が配置されているとする。そして、訓練ユーザの視線が運転画面外と判断された場合に、アイトラッカー1202(アイトラッキング部104)によって検出される訓練ユーザの頭部の向きが、ビデオモニタ1204よりも下方に向いていると判断される場合には、注視物特定部216が注視物を「操作卓又は計器架」と特定する。 In the above embodiment, when the line of sight of the training user is outside the driving screen in the gaze object identification process, it is specified as "outside the driving screen" as it is, but "outside the driving screen" is further subdivided. It may be specified. For example, as shown in FIG. 2, it is assumed that the operation console 1206 and the instrument rack 1208 are arranged under the video monitor 1204 on which the operation screen is displayed from the viewpoint of the training user. Then, when the line of sight of the training user is determined to be outside the driving screen, the direction of the head of the training user detected by the eye tracker 1202 (eye tracking unit 104) is directed downward from the video monitor 1204. If it is determined, the gaze object identification unit 216 identifies the gaze object as an "operation console or instrument rack".

更には、ダイヤ(時刻表)などの配置位置が、ビデオモニタ1204に向かって左側とされている場合にも、同様の処理を行うことができる。すなわち、訓練ユーザの視線が運転画面外と判断された場合に、訓練ユーザの頭部の向きが、ビデオモニタ1204よりも左方に向いていると判断されるときには、注視物特定部216が注視物を「ダイヤ」と特定することができる。 Further, the same processing can be performed even when the arrangement position of the timetable (timetable) or the like is on the left side of the video monitor 1204. That is, when it is determined that the line of sight of the training user is outside the driving screen and the direction of the head of the training user is determined to be to the left of the video monitor 1204, the gaze object identification unit 216 gazes. An object can be identified as a "diamond".

そして、「運転画面外」を更に細分化した注視物(オブジェクト)ごとに、統計処理部220が、注視していた時間或いは距離に係る統計値を算出することができる。 Then, the statistical processing unit 220 can calculate a statistical value related to the time or distance of the gaze for each gaze object (object) that is further subdivided "outside the operation screen".

また、アイトラッカー1202による視線検出においては、まばたき(瞬目)等の影響により瞬間的/一時的に検出エラーとなる場合が起こる。そのときに、頭部の向きが「運転画面内」なのか「運転画面外」なのかによって、瞬間的/一時的な検出エラーなのか否かを内部演算において確認することができる。 Further, in the line-of-sight detection by the eye tracker 1202, a detection error may occur momentarily / temporarily due to the influence of blinking (blinking) or the like. At that time, depending on whether the direction of the head is "inside the operation screen" or "outside the operation screen", it is possible to confirm in the internal calculation whether or not it is a momentary / temporary detection error.

100…管理操作入力部
102…運転操作入力部
104…アイトラッキング部
200…演算部
210…シミュレーション制御部
212…訓練ユーザ視線位置取得部
214…運転画面表示制御部
216…注視物特定部
218…信号機注視距離算出部
220…統計処理部
222…注視結果表示制御部
500…記憶部
501…シミュレーションプログラム
510…シミュレーション環境初期設定データ
520…シミュレーション環境別オブジェクト位置定義データ
530…距離閾値テーブル
540…シミュレーション環境別対象区間設定
550…模範注視結果データ
560…訓練ユーザ視線追跡結果データ
570…注視物特定結果データ
600…シミュレーション制御データ
700…注視結果データ
1000…列車運転シミュレータ
1100…コンピュータ
1150…制御基板
1202…アイトラッカー
1204…ビデオモニタ
1206…操作卓
1208…計器架
W1…運転画面
Pr…訓練ユーザ視線位置
100 ... Management operation input unit 102 ... Operation operation input unit 104 ... Eye tracking unit 200 ... Calculation unit 210 ... Simulation control unit 212 ... Training user line-of-sight position acquisition unit 214 ... Operation screen display control unit 216 ... Gaze object identification unit 218 ... Signal device Gaze distance calculation unit 220 ... Statistical processing unit 222 ... Gaze result display control unit 500 ... Storage unit 501 ... Simulation program 510 ... Simulation environment initial setting data 520 ... Simulation environment-specific object position definition data 530 ... Distance threshold table 540 ... Simulation environment Target section setting 550 ... Model gaze result data 560 ... Training user gaze tracking result data 570 ... Gaze object identification result data 600 ... Simulation control data 700 ... Gaze result data 1000 ... Train operation simulator 1100 ... Computer 1150 ... Control board 1202 ... Eye tracker 1204 ... Video monitor 1206 ... Operator console 1208 ... Instrument rack W1 ... Operation screen Pr ... Training user line-of-sight position

Claims (6)

ユーザの視線を追跡検出するアイトラッキング手段を備えたコンピュータに、運転画面を表示させて列車の運転シミュレーションを実行させるためのプログラムであって、
前記運転シミュレーションの実行中、現在の走行位置において前記ユーザの視線が向けられている前記運転画面内のオブジェクトを、当該走行位置における注視物として特定する注視物特定手段、
前記運転シミュレーションの実行後、前記注視物特定手段によって特定された前記走行位置毎の注視物に基づく所定の統計処理を行って、所定種類のオブジェクトを注視していた時間或いは距離に係る統計値を算出する統計処理手段、
前記統計値に基づく注視結果を表示制御する表示制御手段、
として前記コンピュータを機能させ、
前記所定種類のオブジェクトには、少なくとも、線路に係るオブジェクトが含まれ、
前記線路に係るオブジェクトは、所定の距離閾値に基づき現在の走行位置からの距離が近距離側に位置する線路近傍に係るオブジェクトと、前記距離閾値に基づき現在の走行位置からの距離が遠距離側に位置する線路前方に係るオブジェクトとがあり、
前記距離閾値は、列車の速度に応じて定められ、
前記注視物特定手段は、前記ユーザの視線が向けられているオブジェクトが前記線路に係るオブジェクトの場合に、現在の走行速度に応じた前記距離閾値を用いて、前記線路近傍に係るオブジェクトか前記線路前方に係るオブジェクトかを更に特定することで前記注視物を特定し、
前記統計処理手段は、前記線路近傍に係るオブジェクトの注視に係る前記統計値と、前記線路前方に係るオブジェクトの注視に係る前記統計値とを算出する、
ためのプログラム。
It is a program for displaying a driving screen and executing a train driving simulation on a computer equipped with an eye tracking means for tracking and detecting the user's line of sight.
A gaze object specifying means for specifying an object in the driving screen to which the user's line of sight is directed at the current driving position as a gaze object at the driving position during execution of the driving simulation.
After executing the driving simulation, a predetermined statistical process is performed based on the gaze object for each traveling position specified by the gaze object specifying means, and a statistical value related to the time or distance at which the object of a predetermined type is gazed is obtained. Statistical processing means to calculate,
A display control means for displaying and controlling the gaze result based on the statistical value.
To make the computer function as
The predetermined type of object includes at least an object related to a railroad track.
The objects related to the railroad track are the object related to the vicinity of the railroad track where the distance from the current running position is located on the short distance side based on the predetermined distance threshold, and the distance from the current running position based on the distance threshold is the long distance side. There is an object related to the front of the railroad track located in
The distance threshold is determined according to the speed of the train.
When the object to which the user's line of sight is directed is an object related to the railroad track, the gaze object identifying means uses the distance threshold value according to the current traveling speed to determine the object related to the vicinity of the railroad track or the railroad track. By further specifying whether it is an object related to the front, the gaze object is specified, and the gaze object is specified.
The statistical processing means calculates the statistical value related to the gaze of an object related to the vicinity of the railroad track and the statistical value related to the gaze of an object related to the front of the railroad track.
Program for.
前記所定種類のオブジェクトには、信号機に係るオブジェクトが含まれ、
前記注視物特定手段によって特定された注視物が、前記信号機に係るオブジェクトであった場合に、前記ユーザの視線が当該注視物に向けられていたときの走行位置から当該注視物までの注視距離を算出する信号機注視距離算出手段、
として前記コンピュータを更に機能させ、
前記統計処理手段は、前記信号機に係るオブジェクトの注視に係る前記統計値を、前記注視距離に基づく所定の分類に分けて算出する、
請求項1に記載のプログラム。
The predetermined type of object includes an object related to a traffic light.
When the gaze object specified by the gaze object specifying means is an object related to the traffic light, the gaze distance from the traveling position when the user's line of sight is directed to the gaze object is determined. Traffic light gaze distance calculation means to calculate,
To further function the computer as
The statistical processing means calculates the statistical value related to the gaze of the object related to the traffic light by dividing it into predetermined classifications based on the gaze distance.
The program according to claim 1.
前記コンピュータは、前記運転シミュレーションのための操作卓及び/又は計器架を備え、
前記統計処理手段は、前記運転シミュレーションの実行中、さらに、前記ユーザの視線が前記運転画面外となった時間或いは距離に係る統計値を算出する、
請求項1又は2に記載のプログラム。
The computer comprises a console and / or instrument rack for the driving simulation.
The statistical processing means further calculates a statistical value relating to the time or distance when the user's line of sight is out of the driving screen while the driving simulation is being executed.
The program according to claim 1 or 2 .
前記表示制御手段は、模範ユーザが前記運転シミュレーションを行ったときの前記統計値に基づく模範注視結果を更に表示制御する、
請求項1~の何れか一項に記載のプログラム。
The display control means further displays and controls the model gaze result based on the statistical value when the model user performs the driving simulation.
The program according to any one of claims 1 to 3 .
前記統計処理手段は、前記統計処理として、前記注視物特定手段によって特定された前記走行位置毎の注視物を注視項目別に算出し、
前記表示制御手段は、横軸を前記運転シミュレーションの時間経過とし、当該注視項目に対応する種類のオブジェクトを注視していた時間帯を識別表示した前記注視項目別のグラフを表示制御する、
請求項1~の何れか一項に記載のプログラム。
As the statistical processing, the statistical processing means calculates the gaze object for each traveling position specified by the gaze object specifying means for each gaze item.
The display control means sets the horizontal axis as the time elapsed of the driving simulation, and displays and controls a graph for each gaze item that identifies and displays the time zone in which the object of the type corresponding to the gaze item was gaze.
The program according to any one of claims 1 to 4 .
運転画面を表示して列車の運転シミュレーションを実行する列車運転シミュレータであって、
前記運転シミュレーションの実行中、ユーザの視線を追跡検出するアイトラッキング手段と、
前記運転シミュレーションの実行中、現在の走行位置において前記ユーザの視線が向けられている前記運転画面内のオブジェクトを、当該走行位置における注視物として特定する注視物特定手段と、
前記運転シミュレーションの実行後、前記注視物特定手段によって特定された前記走行位置毎の注視物に基づく所定の統計処理を行って、所定種類のオブジェクトを注視していた時間或いは距離に係る統計値を算出する統計処理手段と、
前記統計値に基づく注視結果を表示制御する表示制御手段と、
を備え、
前記所定種類のオブジェクトには、少なくとも、線路に係るオブジェクトが含まれ、
前記線路に係るオブジェクトは、所定の距離閾値に基づき現在の走行位置からの距離が近距離側に位置する線路近傍に係るオブジェクトと、前記距離閾値に基づき現在の走行位置からの距離が遠距離側に位置する線路前方に係るオブジェクトとがあり、
前記距離閾値は、列車の速度に応じて定められ、
前記注視物特定手段は、前記ユーザの視線が向けられているオブジェクトが前記線路に係るオブジェクトの場合に、現在の走行速度に応じた前記距離閾値を用いて、前記線路近傍に係るオブジェクトか前記線路前方に係るオブジェクトかを更に特定することで前記注視物を特定し、
前記統計処理手段は、前記線路近傍に係るオブジェクトの注視に係る前記統計値と、前記線路前方に係るオブジェクトの注視に係る前記統計値とを算出する、
列車運転シミュレータ。
A train driving simulator that displays a driving screen and executes a train driving simulation.
An eye tracking means for tracking and detecting the user's line of sight during the execution of the driving simulation,
During the execution of the driving simulation, the gaze object specifying means for specifying the object in the driving screen to which the user's line of sight is directed at the current driving position as the gaze object at the driving position,
After executing the driving simulation, a predetermined statistical process is performed based on the gaze object for each traveling position specified by the gaze object specifying means, and a statistical value related to the time or distance at which the object of a predetermined type is gazed is obtained. Statistical processing means to calculate and
A display control means for displaying and controlling the gaze result based on the statistical value,
Equipped with
The predetermined type of object includes at least an object related to a railroad track.
The objects related to the railroad track are the object related to the vicinity of the railroad track where the distance from the current running position is located on the short distance side based on the predetermined distance threshold, and the distance from the current running position based on the distance threshold is the long distance side. There is an object related to the front of the track located in
The distance threshold is determined according to the speed of the train.
When the object to which the user's line of sight is directed is an object related to the railroad track, the gaze object identifying means uses the distance threshold value according to the current traveling speed to determine the object related to the vicinity of the railroad track or the railroad track. By further specifying whether it is an object related to the front, the gaze object is specified, and the gaze object is specified.
The statistical processing means calculates the statistical value related to the gaze of an object related to the vicinity of the railroad track and the statistical value related to the gaze of an object related to the front of the railroad track.
Train driving simulator.
JP2018017957A 2018-02-05 2018-02-05 Program and train driving simulator Active JP7026902B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018017957A JP7026902B2 (en) 2018-02-05 2018-02-05 Program and train driving simulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018017957A JP7026902B2 (en) 2018-02-05 2018-02-05 Program and train driving simulator

Publications (2)

Publication Number Publication Date
JP2019135505A JP2019135505A (en) 2019-08-15
JP7026902B2 true JP7026902B2 (en) 2022-03-01

Family

ID=67624113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018017957A Active JP7026902B2 (en) 2018-02-05 2018-02-05 Program and train driving simulator

Country Status (1)

Country Link
JP (1) JP7026902B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7220043B2 (en) * 2018-09-27 2023-02-09 セコム株式会社 training system and program
JP7281742B2 (en) * 2019-10-04 2023-05-26 公益財団法人鉄道総合技術研究所 Program and train driving simulator
CN110928214A (en) * 2019-11-07 2020-03-27 中铁电气化局集团有限公司 Train traction power supply energy consumption calculation system and method based on intelligent simulation
KR102346002B1 (en) * 2019-12-30 2021-12-31 빅픽쳐스 주식회사 National Competency Standards-based Construction Machine Loader Training System and Training Method therefor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071319A (en) 2012-09-28 2014-04-21 Mitsubishi Precision Co Ltd Railroad simulator and method for simulating driving of railroad
JP2015011086A (en) 2013-06-27 2015-01-19 三菱電機株式会社 Driving operation management device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071319A (en) 2012-09-28 2014-04-21 Mitsubishi Precision Co Ltd Railroad simulator and method for simulating driving of railroad
JP2015011086A (en) 2013-06-27 2015-01-19 三菱電機株式会社 Driving operation management device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宗重倫典 ほか,運転士の注視行動に関する研究,人間工学,2013年06月01日,第49巻,126-127頁
水田淳一 ほか,列車運転における視作業分析,人間工学, 人間工学 1975年 11巻 2-3号,1975年07月06日,第11巻 第2-3号,55-61頁

Also Published As

Publication number Publication date
JP2019135505A (en) 2019-08-15

Similar Documents

Publication Publication Date Title
JP7026902B2 (en) Program and train driving simulator
JP6082101B2 (en) Body motion scoring device, dance scoring device, karaoke device, and game device
JP2020513957A5 (en)
JP5531086B2 (en) Method and system for generating augmented reality using a car display
CN106960613B (en) The assessment of non-intrusion type driver's potential danger identification capability and training system and method
US8414393B2 (en) Game device, control method for a game device, and a non-transitory information storage medium
JP6796560B2 (en) Program and train driving simulator
CN102407017B (en) Game system and computer readable storage medium
CN101090755A (en) Simulated experience apparatus, energy consumption calculation method, squatting motion detection apparatus, exercise assist apparatus, animation method, exercise amount management apparatus, athletic
US11257390B2 (en) Evaluation of a simulated vehicle-related feature
WO2016111067A1 (en) Information processing device, information processing method, and program
JPWO2009148188A1 (en) Automatic driving behavior evaluation system
WO2017169273A1 (en) Information processing device, information processing method, and program
JP2008139553A (en) Driving aptitude diagnosing method, evaluation standard determining method for driving aptitude diagnosis, and driving aptitude diagnostic program
CN109710077B (en) Virtual object collision judgment method and device based on VR and locomotive practical training system
US20220134881A1 (en) Evaluation of a simulated vehicle-related feature
US6149435A (en) Simulation method of a radio-controlled model airplane and its system
JPWO2020049847A1 (en) Estimator, learning device, estimation method, learning method and program
JP2020134757A (en) Program and train operation simulator
US20200380554A1 (en) Advertising information processing system, advertising display region evaluation method, and advertising information processing program
JP7281742B2 (en) Program and train driving simulator
JP2021032942A (en) Simulator control device, train operation simulation system, train operation simulation method and program
TWI669654B (en) System and method for providing simulated environment
JP2021051301A (en) Conductor simulation training system
KR20160005841A (en) Motion recognition with Augmented Reality based Realtime Interactive Human Body Learning System

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220204

R150 Certificate of patent or registration of utility model

Ref document number: 7026902

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150