JP2022046275A - Conductor simulation training system - Google Patents

Conductor simulation training system Download PDF

Info

Publication number
JP2022046275A
JP2022046275A JP2020152223A JP2020152223A JP2022046275A JP 2022046275 A JP2022046275 A JP 2022046275A JP 2020152223 A JP2020152223 A JP 2020152223A JP 2020152223 A JP2020152223 A JP 2020152223A JP 2022046275 A JP2022046275 A JP 2022046275A
Authority
JP
Japan
Prior art keywords
simulation
train
unit
tracking
conductor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020152223A
Other languages
Japanese (ja)
Inventor
大輔 鈴木
Daisuke Suzuki
史倫 菊地
Fumitomo Kikuchi
▲隆▼治 小池
Takaharu Koike
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Railway Technical Research Institute
Emovis Corp
Original Assignee
Railway Technical Research Institute
Emovis Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Railway Technical Research Institute, Emovis Corp filed Critical Railway Technical Research Institute
Priority to JP2020152223A priority Critical patent/JP2022046275A/en
Publication of JP2022046275A publication Critical patent/JP2022046275A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Train Traffic Observation, Control, And Security (AREA)

Abstract

To provide a conductor simulation training system in which safety confirmation to be carried out by a conductor can be effectively learned.SOLUTION: In a conductor simulation training system 1000, a computer includes: a simulation unit 210 for simulating conductor tasks related to departures and arrivals of virtual trains from/to a station involving opening/closure of train doors and passengers getting on and off based on operation of an opening/closing operation button in a virtual reality space, according to a given scenario; a VR image generating unit 220 for generating VR images to be displayed in a VR google during the simulation, on the basis of a tracking visual line according to a visual line tracking unit; a gazing object detection unit 230 for detecting a gazing object in the virtual reality space of a user, on the basis of the tracking visual line and the VR images; and an abnormality generation processing unit 232 for generating given abnormality event simulation during the simulation, in the case that abnormality generating conditions based on the gazing object have been satisfied.SELECTED DRAWING: Figure 12

Description

本発明は、ユーザが車掌の模擬訓練を行うための車掌模擬訓練システムに関する。 The present invention relates to a conductor simulation training system for a user to perform a conductor simulation training.

車掌となるための、或いは車掌としての練度を上げるための訓練装置がある。例えば、訓練用に用意された模擬プラットフォームに、情景用表示装置と、停止位置目標表示装置と、を備える訓練装置がある(特許文献1、特許文献2を参照)。情景用表示装置には、訓練として用意されたシチュエーションにおいて、模擬列車の乗務員室から見えるであろう前方の情景画像が表示され、停止位置目標表示装置には、前方の情景画像と連動して当該状況における停止位置が移動する画像が表示される。 There is a training device to become a conductor or to improve the training as a conductor. For example, a simulated platform prepared for training includes a training device including a scene display device and a stop position target display device (see Patent Document 1 and Patent Document 2). The scene display device displays the front scene image that will be visible from the crew room of the simulated train in the situation prepared for training, and the stop position target display device is linked with the front scene image. An image is displayed in which the stop position in the situation moves.

特開2003-233299号公報Japanese Patent Application Laid-Open No. 2003-233299 特開2003-330356号公報Japanese Patent Application Laid-Open No. 2003-330356

駅への到着において車掌が行うべき必須動作として、例えば停止位置の確認がある。また、出発において車掌が行うべき必須動作として、例えば列車のドア閉めおよびその確認がある。これは必須動作の代表例であり、その他にも数多くの動作が要求され、特に安全確認に関しては徹底した習得が必要である。 One of the essential actions that the conductor should perform when arriving at a station is, for example, confirmation of the stop position. In addition, as essential actions that the conductor should perform at the time of departure, for example, there is closing the door of the train and its confirmation. This is a typical example of essential operation, and many other operations are required, and thorough learning is required especially for safety confirmation.

本発明が解決しようとする課題は、車掌模擬訓練システムにおいて、車掌が行うべき安全確認を効果的に習得することが可能な技術を提供すること、である。 An object to be solved by the present invention is to provide a technique capable of effectively learning the safety confirmation to be performed by the conductor in the conductor simulation training system.

上述した課題を解決するための第1の発明は、列車ドアの開閉操作ボタンが設置された模擬乗務員室セットと、ユーザが装着するVR(Virtual Reality)ゴーグルと、前記ユーザの視線をトラッキングする視線トラッキング部と、制御装置と、を具備し、前記制御装置は、仮想現実空間における前記開閉操作ボタンの操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションするシミュレーション部と、前記視線トラッキング部によるトラッキング視線に基づいて、前記シミュレーション中の前記VRゴーグルに表示させるVR画像を生成するVR画像生成部と、前記トラッキング視線および前記VR画像に基づいて、前記ユーザの前記仮想現実空間中の注視対象を検出する注視対象検出部と、前記注視対象に基づく異常発生条件を満たした場合に、前記シミュレーション中に所与の異常事象シミュレーションを発生させる異常発生処理部と、を有する、車掌模擬訓練システムである。 The first invention for solving the above-mentioned problems is a simulated crew room set in which an opening / closing operation button for a train door is installed, a VR (Virtual Reality) goggles worn by a user, and a line of sight that tracks the line of sight of the user. A tracking unit and a control device are provided, and the control device relates to a virtual train station arrival / departure including opening / closing of a train door and boarding / alighting of passengers based on an operation of the opening / closing operation button in a virtual reality space. A simulation unit that simulates the commander's work based on a given scenario, a VR image generation unit that generates a VR image to be displayed on the VR goggles during the simulation based on the tracking line of sight by the line-of-sight tracking unit, and the tracking unit. Given in the simulation when the gaze target detection unit that detects the gaze target in the virtual reality space of the user based on the line of sight and the VR image and the abnormality occurrence condition based on the gaze target are satisfied. It is a driver simulation training system having an abnormality generation processing unit that generates an abnormality event simulation.

第1の発明によれば、シミュレーション中、訓練者であるユーザが何処を見ていたのかに応じて、異常事象シミュレーションを発生させることができる。その場合、ユーザは、当該異常事象シミュレーションに係る異常事象に対処することになる。これによれば、車掌が行うべき安全確認を習得するための効果的な訓練が実現できる。 According to the first invention, it is possible to generate an abnormal event simulation depending on where the trainee user is looking during the simulation. In that case, the user will deal with the abnormal event related to the abnormal event simulation. According to this, effective training for learning the safety confirmation that the conductor should perform can be realized.

第2の発明は、前記シミュレーション部は、前記仮想現実空間において、ホームに設置されたITV(Industrial TeleVision)装置の表示をシミュレーションし、前記異常発生処理部は、所与のITV注視タイミングにおける前記注視対象として前記ITVが検出されなかったことを第1の異常発生条件として判定する、第1の発明の車掌模擬訓練システムである。 In the second invention, the simulation unit simulates the display of an ITV (Industrial TeleVision) device installed in a home in the virtual reality space, and the abnormality generation processing unit generates the gaze at a given ITV gaze timing. It is a conductor simulation training system of the first invention which determines that the ITV was not detected as a target as a first abnormality occurrence condition.

第2の発明によれば、ユーザがITV注視タイミングにITV装置を視認していない場合に、異常事象シミュレーションを発生させることができる。 According to the second invention, the abnormal event simulation can be generated when the user does not visually recognize the ITV device at the ITV gaze timing.

第3の発明は、前記ITV注視タイミングは、前記開閉操作ボタンで閉操作がなされた直前の所定秒数の期間を少なくとも含む、第2の発明の車掌模擬訓練システムである。 The third invention is the conductor simulation training system of the second invention, wherein the ITV gaze timing includes at least a period of a predetermined number of seconds immediately before the closing operation is performed by the opening / closing operation button.

第3の発明によれば、ユーザが列車ドアの閉操作をする直前にITV装置を視認していない場合に、異常事象シミュレーションを発生させることができる。 According to the third invention, the abnormal event simulation can be generated when the user does not visually recognize the ITV device immediately before closing the train door.

第4の発明は、前記ユーザ又は前記VRゴーグルの位置をトラッキングする位置トラッキング部、を更に具備し、前記模擬乗務員室セットは、模擬出入り口から出入りが可能に構成されており、前記シミュレーション部は、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでをシミュレーションし、前記VR画像生成部は、前記トラッキング視線および前記位置トラッキング部によるトラッキング位置に基づいて、前記VR画像を生成し、前記異常発生処理部は、所与の列車側面注視タイミングにおける前記注視対象として列車側面が検出されなかったことを第2の異常発生条件として判定する、第1~第3の何れかの発明の車掌模擬訓練システムである。 The fourth invention further includes a position tracking unit that tracks the position of the user or the VR goggles, and the simulated crew room set is configured to be able to enter and exit from a simulated entrance / exit. The VR image generation unit simulates from the timing when the train reaches the platform of the station where the train is scheduled to stop until the train leaves the station, and the VR image generation unit is based on the tracking line of sight and the tracking position by the position tracking unit. A VR image is generated, and the abnormality generation processing unit determines as a second abnormality occurrence condition that the train side surface is not detected as the gaze target at a given train side gaze timing, the first to third. It is a train operator simulation training system of any of the inventions.

第4の発明によれば、ユーザが列車側面注視タイミングに列車側面を視認していない場合に、異常事象シミュレーションを発生させることができる。 According to the fourth invention, the abnormal event simulation can be generated when the user does not visually recognize the train side surface at the train side surface gaze timing.

第5の発明は、前記注視対象検出部は、列車前後方向に列車側面を区切った列車側面領域毎に注視対象として検出可能であり、前記異常発生処理部は、列車前後方向に連続する前記列車側面領域が続けて前記注視対象として検出されなかったことを前記第2の異常発生条件として判定する、第4の発明の車掌模擬訓練システムである。 In the fifth aspect of the invention, the gaze target detection unit can detect the gaze target detection unit as a gaze target for each train side surface region that divides the train side surface in the front-rear direction of the train, and the abnormality generation processing unit is the train continuous in the front-rear direction of the train. This is the conductor simulation training system of the fourth invention, which determines as the second abnormality occurrence condition that the side surface region is not continuously detected as the gaze target.

第5の発明によれば、ユーザが列車前後方向に連続する列車側面領域を続けて視認していない場合に、異常事象シミュレーションを発生させることができる。 According to the fifth invention, the abnormal event simulation can be generated when the user does not continuously visually recognize the continuous train side surface region in the front-rear direction of the train.

第6の発明は、前記異常事象シミュレーションは、前記列車への乗客の駆け込み乗車の発生、および/又は、前記列車ドアにおける乗客若しくは物の挟み込みの発生のシミュレーションである、第1~第5の何れかの発明の車掌模擬訓練システムである。 A sixth aspect of the invention is any of the first to fifth aspects, wherein the abnormal event simulation is a simulation of the occurrence of a passenger rushing into the train and / or the occurrence of a passenger or an object being caught in the train door. This is the conductor simulation training system of the invention.

第6の発明によれば、列車への乗客の駆け込み乗車の発生のシミュレーションを、異常事象シミュレーションとして発生させることができる。また、列車ドアにおける乗客若しくは物の挟み込みの発生のシミュレーションを、異常事象シミュレーションとして発生させることができる。 According to the sixth invention, it is possible to generate a simulation of the occurrence of a passenger rushing into a train as an abnormal event simulation. In addition, a simulation of the occurrence of passengers or objects being caught in a train door can be generated as an abnormal event simulation.

車掌模擬訓練システムのシステム構成例を示す図。The figure which shows the system configuration example of the conductor simulation training system. 車掌模擬訓練システムの訓練場のセッティング例を示す図。The figure which shows the setting example of the training ground of a conductor simulation training system. コンピュータにより制御される仮想現実空間の例を示す図。The figure which shows the example of the virtual reality space controlled by a computer. 車掌模擬訓練システムにおけるユーザの行動の記録について説明するための図。The figure for demonstrating the record of a user's action in a conductor simulation training system. 注視対象履歴データの記録内容の一例を示す図。The figure which shows an example of the recorded content of the gaze target history data. 図5中に破線で囲って示す経過時間帯における列車側面についての記録内容を拡大した図。FIG. 5 is an enlarged view of the recorded contents of the side surface of the train in the elapsed time zone shown by the broken line in FIG. 列車オブジェクトについての注視対象の検出を説明する図。The figure explaining the detection of the gaze object about a train object. シミュレーション後の提示例を示す図(その1)。The figure which shows the presentation example after the simulation (the 1). シミュレーション後の提示例を示す図(その2)。The figure which shows the presentation example after the simulation (the 2). シミュレーション後の提示例を示す図(その3)。The figure which shows the presentation example after the simulation (the 3). シミュレーション後の提示例を示す図(その4)。The figure which shows the presentation example after the simulation (the 4). 車掌模擬訓練システムの機能構成例を示す機能ブロック図。A functional block diagram showing an example of a functional configuration of a conductor simulation training system. 記憶部が記憶するプログラムやデータの例を示す図。The figure which shows the example of the program and data which a storage part stores. コンピュータにおける処理の流れを説明するためのフローチャート。A flowchart for explaining the flow of processing in a computer. 変形例における車掌模擬訓練システムの訓練場を上からみた模式図。Schematic diagram of the training ground of the conductor simulation training system in the modified example from above.

以下、本発明の一つの実施形態を説明するが、本発明を適用可能な形態が以下の実施形態に限られないことは勿論である。 Hereinafter, one embodiment of the present invention will be described, but it goes without saying that the embodiment to which the present invention can be applied is not limited to the following embodiments.

図1は、車掌模擬訓練システム1000のシステム構成例を示す図である。
車掌模擬訓練システム1000は、仮想現実空間における開閉操作ボタンの操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションしたVR画像(仮想現実空間画像)を用いた訓練システムである。
FIG. 1 is a diagram showing a system configuration example of the conductor simulation training system 1000.
The conductor simulation training system 1000 simulates the conductor work related to the arrival and departure of a virtual train at a station, including opening and closing of a train door based on the operation of an open / close operation button in virtual reality space, and getting on and off passengers, based on a given scenario. It is a training system using the VR image (virtual reality space image).

車掌模擬訓練システム1000は、ヘッドセット1002と、VR(Virtual Reality)ゴーグル1010と、外部トラッキングセンサ1020と、模擬乗務員室セット1030と、車掌用模擬操作部1040と、コンピュータ1100と、を有する。 The commander simulation training system 1000 includes a headset 1002, VR (Virtual Reality) goggles 1010, an external tracking sensor 1020, a simulated crew room set 1030, a commander simulated operation unit 1040, and a computer 1100.

ヘッドセット1002と、VRゴーグル1010と、外部トラッキングセンサ1020と、車掌用模擬操作部1040とは、有線或いは無線のネットワークNを介してコンピュータ1100とデータ通信可能に通信接続されている。 The headset 1002, the VR goggles 1010, the external tracking sensor 1020, and the driver's simulated operation unit 1040 are connected to the computer 1100 via a wired or wireless network N so as to be capable of data communication.

ヘッドセット1002は、訓練者であるユーザが装着する用具の一つである。ヘッドセット1002は、マイクロフォン1003と、ヘッドフォン1004と、を有する。 The headset 1002 is one of the tools worn by the trainee user. The headset 1002 includes a microphone 1003 and a headphone 1004.

VRゴーグル1010は、ユーザが装着する用具の一つであって、コンピュータ1100によりシミュレーションされたユーザの一人称視点によるVR画像を表示するヘッドマウントディスプレイである。 The VR goggles 1010 is one of the tools worn by the user, and is a head-mounted display that displays a VR image from the user's first-person viewpoint simulated by the computer 1100.

VRゴーグル1010は、ユーザの視線方向をトラッキングするためのアイトラッキング装置1012と、ユーザの頭部の位置トラッキングおよび姿勢トラッキングをするための加速度センサ1014およびジャイロセンサ1016と、を内蔵する。VRゴーグル1010は、これらの装置やセンサによる計測データを逐次ネットワークNを介してコンピュータ1100へ送信する。 The VR goggles 1010 include an eye tracking device 1012 for tracking the line-of-sight direction of the user, and an acceleration sensor 1014 and a gyro sensor 1016 for tracking the position and posture of the user's head. The VR goggles 1010 sequentially transmit measurement data from these devices and sensors to the computer 1100 via the network N.

外部トラッキングセンサ1020は、ユーザを外部からセンシングするセンサ群であって、模擬乗務員室セット1030に対するVRゴーグル1010の相対位置と相対姿勢をトラッキングする。センサの種類は、採用するトラッキングの方式によって適宜設定可能であるが、例えば、画像センサ、距離センサ、等で実現できる。加速度センサ1014およびジャイロセンサ1016と外部トラッキングセンサ1020とによって、ユーザ又はVRゴーグル1010の位置がトラッキングされる。外部トラッキングセンサ1020は、VRゴーグル1010が内蔵するセンサで十分にトラッキング機能を実現できるならば省略することができる。 The external tracking sensor 1020 is a group of sensors that sense the user from the outside, and tracks the relative position and the relative posture of the VR goggles 1010 with respect to the simulated crew room set 1030. The type of sensor can be appropriately set depending on the tracking method to be adopted, but can be realized by, for example, an image sensor, a distance sensor, or the like. The accelerometer 1014, the gyro sensor 1016, and the external tracking sensor 1020 track the position of the user or VR goggles 1010. The external tracking sensor 1020 can be omitted if the sensor built in the VR goggles 1010 can sufficiently realize the tracking function.

模擬乗務員室セット1030は、ユーザが訓練後に乗務する車両における乗務員室、およびその出入り口周りを再現した訓練用セットである。ユーザは、模擬乗務員室セット1030の模擬出入り口から出入りが可能である。そして、模擬乗務員室セット1030には、車掌用模擬操作部1040が備えられている。 The simulated crew room set 1030 is a training set that reproduces the crew room in the vehicle that the user is on board after training, and the area around the doorway thereof. The user can enter and exit from the simulated doorway of the simulated crew room set 1030. The simulated crew room set 1030 is provided with a simulated operation unit 1040 for the conductor.

車掌用模擬操作部1040は、実際の乗務員室に設置されて車掌が操作する操作部を模した操作入力装置である。車掌用模擬操作部1040は、例えば、列車ドアを開閉する開閉操作ボタン1042、運転士向けに所与の意図を伝える信号を発する信号ボタン、運転士と会話するための送受話装置、等を備える。車掌用模擬操作部1040が何を備えるかは、実際の車両の仕様に合わせて設定される。 The conductor simulated operation unit 1040 is an operation input device installed in an actual crew room and imitating an operation unit operated by the conductor. The conductor simulated operation unit 1040 includes, for example, an open / close operation button 1042 for opening and closing a train door, a signal button for emitting a signal to convey a given intention to the driver, a transmission / reception device for talking with the driver, and the like. .. What the conductor simulated operation unit 1040 is equipped with is set according to the specifications of the actual vehicle.

コンピュータ1100は、車掌模擬訓練システム1000を統合的に制御する制御装置である。コンピュータ1100は、例えば、装置本体1101と、キーボード1106と、タッチパネル1108と、制御基板1150と、を備える。 The computer 1100 is a control device that integrally controls the conductor simulation training system 1000. The computer 1100 includes, for example, a device main body 1101, a keyboard 1106, a touch panel 1108, and a control board 1150.

制御基板1150は、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等の各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、通信装置1153が搭載されている。なお、制御基板1150の一部又は全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)、SoC(System on a Chip)により実現するとしてもよい。 The control board 1150 is equipped with various microprocessors such as CPU (Central Processing Unit) 1151, GPU (Graphics Processing Unit) and DSP (Digital Signal Processor), various IC memories 1152 such as VRAM, RAM and ROM, and communication device 1153. ing. A part or all of the control board 1150 may be realized by an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a SoC (System on a Chip).

そして、コンピュータ1100は、制御基板1150が所定のプログラムおよびデータに基づいて演算処理することにより、車掌模擬訓練システム1000を統合的に制御する。 Then, the computer 1100 integrally controls the conductor simulation training system 1000 by the control board 1150 performing arithmetic processing based on a predetermined program and data.

図2は、車掌模擬訓練システムの訓練場のセッティング例を示す図である。
訓練場には、模擬乗務員室セット1030が設置され、外部トラッキングセンサ1020が、模擬乗務員室セット1030の内外を計測領域に含むように適当数、適当箇所に配置されている。ユーザ3は、ヘッドセット1002と、VRゴーグル1010とを装着して、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでの様々なシチュエーションで車掌業務の訓練を行う。
FIG. 2 is a diagram showing an example of setting a training ground of a conductor simulation training system.
A simulated crew room set 1030 is installed in the training ground, and external tracking sensors 1020 are arranged in an appropriate number and at appropriate locations so as to include the inside and outside of the simulated crew room set 1030 in the measurement area. User 3 wears the headset 1002 and VR goggles 1010, and trains the conductor work in various situations from the timing when the train approaches the platform of the station where the train is scheduled to stop to the time when the train departs and leaves the station. I do.

図3は、コンピュータ1100により制御される仮想現実空間の例を示す図である。
コンピュータ1100は、3次元仮想現実空間を用意し、列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を、仮想現実として訓練するための各種オブジェクトを配置して、それらを制御する。
FIG. 3 is a diagram showing an example of a virtual reality space controlled by a computer 1100.
The computer 1100 prepares a three-dimensional virtual reality space, and arranges various objects for training the conductor work related to the arrival and departure of virtual trains at stations, including opening and closing train doors and getting on and off passengers, as virtual reality. And control them.

具体的には、コンピュータ1100は、車両関連オブジェクトの集合体である列車オブジェクト20と、ホーム関連オブジェクト30と、乗客オブジェクト40と、ITVオブジェクト42と、図示されていない背景オブジェクトと、を配置・制御する。 Specifically, the computer 1100 arranges and controls a train object 20, a home-related object 30, a passenger object 40, an ITV object 42, and a background object (not shown), which are a collection of vehicle-related objects. do.

列車オブジェクト20は、ユーザ3が将来乗務する実際の列車を再現している。列車オブジェクト20のうち客車とされる車両のオブジェクトについては、列車ドアそれぞれの上部に車側灯オブジェクト22が用意されている。車側灯オブジェクト22は、コンピュータ1100のシミュレーションにより仮想現実空間で点灯および消灯の制御がなされる。 The train object 20 reproduces the actual train that the user 3 will be on board in the future. As for the object of the vehicle which is regarded as a passenger car among the train objects 20, a car side light object 22 is prepared above each train door. The vehicle side light object 22 is controlled to be turned on and off in the virtual reality space by simulation of the computer 1100.

ホーム関連オブジェクト30は、ホームの床面、柱、天井、軒、各種灯器類、線路、等およそ駅のホーム周辺を再現するための各種オブジェクトが含まれる。特に、ホーム関連オブジェクト30は、点字ブロックオブジェクト32と、ホーム外縁部オブジェクト34と、ホーム内側オブジェクト36と、を有する。 The home-related object 30 includes various objects for reproducing the periphery of the platform of the station, such as the floor surface, pillars, ceiling, eaves, various lamps, and railroad tracks of the platform. In particular, the home-related object 30 includes a Braille block object 32, a home outer edge object 34, and a home inner object 36.

そして、ホーム関連オブジェクト30のホーム床面には、単数または複数の乗客オブジェクト40が配置・制御される。乗客オブジェクト40が表す乗客の姿や形、乗客オブジェクト40の配置位置や配置数、乗客オブジェクト40の列車を待っている間の動作、乗客オブジェクト40が車両に乗り込むタイミング、乗客オブジェクト40が車両へ乗り込む動作、等は想定されるシチュエーションに応じて適宜設定可能である。 Then, a single or a plurality of passenger objects 40 are arranged and controlled on the home floor of the home-related object 30. The appearance and shape of the passenger represented by the passenger object 40, the arrangement position and number of the passenger object 40, the operation while waiting for the train of the passenger object 40, the timing when the passenger object 40 gets into the vehicle, the passenger object 40 gets into the vehicle. The operation, etc. can be set as appropriate according to the expected situation.

乗客オブジェクト40のバリエーションとして、例えば、駆け込みをする乗客や、乳母車を押して乗り込もうとする母子、大きな荷物をもった旅行客、杖をついているご老人、団体行動する小学生、等を適宜設定できる。老若男女・体格も様々に設定できる。そして、それぞれの乗客オブジェクト40は、その乗客の姿形に合わせた動作が個別にコンピュータ1100により制御される。 As a variation of the passenger object 40, for example, a rushing passenger, a mother and child trying to get in by pushing a baby carriage, a tourist with a large baggage, an elderly person with a cane, an elementary school student who acts as a group, and the like can be appropriately set. Men and women of all ages and physique can be set in various ways. Then, the operation of each passenger object 40 according to the shape of the passenger is individually controlled by the computer 1100.

また、ホーム関連オブジェクト30により形成されるホームのどこかに、ITVオブジェクト42が設定されている。図3の例では、ITVオブジェクト42は、ホーム床面から支柱で支持されるタイプのITV装置を模しているが、天井吊り下げタイプのITV装置を模してもよい。 Further, the ITV object 42 is set somewhere in the home formed by the home-related object 30. In the example of FIG. 3, the ITV object 42 imitates a type of ITV device supported by a support from the floor surface of the home, but may imitate a ceiling-suspended type ITV device.

なお、仮想現実空間には、ユーザ3の視点に相当する視点カメラ(仮想カメラ)も配置される。図3では、理解を容易にするためにユーザ3の姿とVRゴーグル1010等を図示しているが、ユーザ3の左右の眼の位置に、それぞれ視点カメラが配置されているものとする。そして、それらの視点カメラは、コンピュータ1100により、VRゴーグル1010に係るトラッキングに連動して位置や姿勢が制御される。因みに、図3中、破線で描かれた矩形は、視点カメラによる撮影範囲である。言い換えると、破線で描かれた矩形は、VRゴーグル1010で表示されるユーザ視界のVR画像の範囲である。ユーザ3には、このユーザ視界のVR画像のみが見えており、VRゴーグル1010の姿勢(向き)や位置の変化に応じてVR画像(ユーザ視界)が変化することとなる。 A viewpoint camera (virtual camera) corresponding to the viewpoint of the user 3 is also arranged in the virtual reality space. In FIG. 3, the figure of the user 3 and the VR goggles 1010 and the like are shown for easy understanding, but it is assumed that the viewpoint cameras are arranged at the positions of the left and right eyes of the user 3. The position and orientation of these viewpoint cameras are controlled by the computer 1100 in conjunction with the tracking related to the VR goggles 1010. Incidentally, in FIG. 3, the rectangle drawn by the broken line is the shooting range by the viewpoint camera. In other words, the rectangle drawn by the broken line is the range of the VR image of the user's field of view displayed by the VR goggles 1010. Only the VR image of the user's field of view is visible to the user 3, and the VR image (user's field of view) changes according to the change in the posture (orientation) and the position of the VR goggles 1010.

図4は、車掌模擬訓練システム1000におけるユーザ3の行動の記録について説明するための図である。
VRゴーグル1010が内蔵するアイトラッキング装置1012は、ユーザ3の視線方向を求めるために必要な計測を連続的に行う。そして、VRゴーグル1010がその計測データをコンピュータ1100へ送信する。また、VRゴーグル1010が内蔵する加速度センサ1014とジャイロセンサ1016もまた、連続的に計測を行い、VRゴーグル1010がそれらの計測データをコンピュータ1100へ送信する。また、外部トラッキングセンサ1020も、連続的に計測を行って計測データをコンピュータ1100へ送信する。
FIG. 4 is a diagram for explaining a record of the behavior of the user 3 in the conductor simulation training system 1000.
The eye tracking device 1012 built in the VR goggles 1010 continuously performs the measurement necessary for obtaining the line-of-sight direction of the user 3. Then, the VR goggles 1010 transmit the measurement data to the computer 1100. Further, the acceleration sensor 1014 and the gyro sensor 1016 built in the VR goggles 1010 also continuously measure, and the VR goggles 1010 transmits the measurement data to the computer 1100. The external tracking sensor 1020 also continuously performs measurement and transmits the measurement data to the computer 1100.

コンピュータ1100は、外部トラッキングセンサ1020の計測データから、模擬乗務員室セット1030に対するVRゴーグル1010の相対位置と相対姿勢をトラッキングし、加速度センサ1014とジャイロセンサ1016の計測データを用いて、VRゴーグル1010の相対位置と相対姿勢のトラッキングの精度を高める。 The computer 1100 tracks the relative position and posture of the VR goggles 1010 with respect to the simulated crew room set 1030 from the measurement data of the external tracking sensor 1020, and uses the measurement data of the acceleration sensor 1014 and the gyro sensor 1016 to track the VR goggles 1010. Improve the accuracy of tracking relative position and relative posture.

そして、コンピュータ1100は、VRゴーグル1010の相対位置と相対姿勢に基づいて仮想現実空間における視点カメラ60の位置と姿勢の1次連動制御を行い、アイトラッキング装置1012の計測データに基づいて視点カメラ60の姿勢の2次連動制御を行う。コンピュータ1100は、2次連動制御において、1次連動制御で制御された結果を元に更に詳細にユーザ3の視線と視点カメラ60の撮影方向とが、ユーザ3の現実での視線変化と連動するように制御する。つまり、仮想現実空間におけるユーザ3の頭部の位置や姿勢は、現実世界におけるVRゴーグル1010の位置や姿勢とリアルタイムにリンク・連動しており、仮想現実空間における視点カメラ60の撮影方向は、現実世界におけるユーザ3の視線方向とリンク・連動している。 Then, the computer 1100 performs primary interlocking control of the position and posture of the viewpoint camera 60 in the virtual reality space based on the relative position and the relative posture of the VR goggles 1010, and the viewpoint camera 60 is performed based on the measurement data of the eye tracking device 1012. Performs secondary interlocking control of the posture of. In the secondary interlocking control, the computer 1100 interlocks the line of sight of the user 3 and the shooting direction of the viewpoint camera 60 with the change in the line of sight of the user 3 in reality based on the result controlled by the primary interlocking control. To control. That is, the position and posture of the head of the user 3 in the virtual reality space are linked and linked in real time with the position and posture of the VR goggles 1010 in the real world, and the shooting direction of the viewpoint camera 60 in the virtual reality space is real. It is linked and linked with the line-of-sight direction of user 3 in the world.

車掌模擬訓練システム1000では、この視点カメラ60の撮影方向(カメラ座標系の深度方向)がユーザ3の視線方向に一致することを利用して、訓練実行中、常時、ユーザ3がその時々に注視している対象(注視対象)をVR画像中から検出し(図4の例ではITVオブジェクト42)、その結果を注視対象履歴データ633として、時系列に記録する。図5は、注視対象履歴データ633の記録内容の一例を示す図であり、図6は、図5中に破線で囲って示す経過時間帯における列車側面についての記録内容を拡大した図である。 In the commander simulation training system 1000, the user 3 always gazes at each time during the training by utilizing the fact that the shooting direction (depth direction of the camera coordinate system) of the viewpoint camera 60 matches the line-of-sight direction of the user 3. The target (gaze target) is detected from the VR image (ITV object 42 in the example of FIG. 4), and the result is recorded in time series as the gaze target history data 633. FIG. 5 is a diagram showing an example of the recorded content of the gaze target history data 633, and FIG. 6 is an enlarged view of the recorded content of the side surface of the train in the elapsed time zone shown by a broken line in FIG.

この注視対象履歴データ633の記録のために、コンピュータ1100は、視点カメラ60の撮影方向を視点カメラ60からトレースして、最初にヒットしたオブジェクト(視線方向の先直近に位置するオブジェクト)を、そのときユーザ3が注視している注視対象として検出する。勿論、アイトラッキング装置1012のセンシングの分解能が十分であれば、コンピュータ1100は、右眼用の視点カメラ60の撮影方向と、左眼用の視点カメラ60の撮影方向との交差位置に最も近い位置にあるオブジェクトを注視対象として検出するとしてもよい。 In order to record the gaze target history data 633, the computer 1100 traces the shooting direction of the viewpoint camera 60 from the viewpoint camera 60, and selects the first hit object (the object located closest to the line of sight direction). At this time, it is detected as a gaze target that the user 3 is gaze at. Of course, if the sensing resolution of the eye tracking device 1012 is sufficient, the computer 1100 is located at the position closest to the intersection position between the shooting direction of the viewpoint camera 60 for the right eye and the shooting direction of the viewpoint camera 60 for the left eye. The object in may be detected as a gaze target.

より詳細には、列車オブジェクト20については、そのホーム側の列車側面を列車前後方向に区切った列車側面領域単位で、注視対象の検出を行う。図7は、列車オブジェクト20についての注視対象の検出を説明する図である。本実施形態では、例えば、列車側面の全域を列車前後方向に沿って所定長ずつ区切った各領域Eを、それぞれ列車側面領域1~4とする。そして、各列車側面領域Eの単位で注視対象を検出することで、列車側面の全域を注視したか否かの判別を可能とする。 More specifically, for the train object 20, the gaze target is detected in units of the train side surface region in which the train side surface on the platform side is divided in the front-rear direction of the train. FIG. 7 is a diagram illustrating detection of a gaze target for the train object 20. In the present embodiment, for example, each area E in which the entire area of the side surface of the train is divided by a predetermined length along the front-rear direction of the train is defined as the side area 1 to 4 of the train, respectively. Then, by detecting the gaze target in the unit of each train side surface area E, it is possible to determine whether or not the entire area of the train side surface is gaze.

そして、コンピュータ1100は、図5に示すように、注視対象のオブジェクトの分類(車両関連/ホーム関連/ITVの少なくとも3つを含む)と、注視対象のオブジェクトの種類と、シミュレーション開始からの経過時間と、を対応づけて、注視対象履歴データ633に蓄積・記録していく。車両関連のうちの列車オブジェクト20については、図6に拡大して例示するように、図7に示した1~4の列車側面領域E毎に経過時間の記録を行う。 Then, as shown in FIG. 5, the computer 1100 classifies the objects to be watched (including at least three of vehicle-related / home-related / ITV), the types of the objects to be watched, and the elapsed time from the start of the simulation. And, are associated with each other, and are accumulated and recorded in the gaze target history data 633. As for the train object 20 among the vehicle-related objects, the elapsed time is recorded for each of the train side areas E of 1 to 4 shown in FIG. 7, as illustrated in an enlarged manner in FIG.

また、コンピュータ1100は、VRゴーグル1010の模擬乗務員室セット1030に対する相対位置を、現実世界におけるユーザ3の代表位置と見なし、VRゴーグル1010の位置と連動制御される視点カメラ60の位置を、仮想現実空間におけるユーザ3の位置と見なして、仮想現実空間におけるユーザ3の移動履歴データ634を蓄積・記録する。 Further, the computer 1100 regards the relative position of the VR goggles 1010 with respect to the simulated crew room set 1030 as the representative position of the user 3 in the real world, and the position of the viewpoint camera 60 controlled in conjunction with the position of the VR goggles 1010 is virtual reality. It is regarded as the position of the user 3 in the space, and the movement history data 634 of the user 3 in the virtual reality space is accumulated and recorded.

また、車掌用模擬操作部1040は、操作入力の種類に応じた操作入力信号をコンピュータ1100へ出力する。コンピュータ1100は、訓練中、車掌用模擬操作部1040への操作入力を常時監視しており、操作入力を検出すると、その時のシミュレーション開始からの経過時間を、操作を行った操作タイミングとして、操作履歴データ635に蓄積・記録する。操作履歴データ635には、列車ドアを開ける操作をしたタイミングである開操作タイミング、列車ドアを閉じる操作をしたタイミングである閉操作タイミング、安全に列車ドアが閉じられたことを運転士に知らせる安全通知操作タイミング、の少なくとも3種類の操作タイミングが記録される。 Further, the conductor simulated operation unit 1040 outputs an operation input signal corresponding to the type of operation input to the computer 1100. The computer 1100 constantly monitors the operation input to the conductor simulation operation unit 1040 during training, and when the operation input is detected, the elapsed time from the start of the simulation at that time is used as the operation timing for the operation history. Accumulate and record in data 635. The operation history data 635 includes the opening operation timing, which is the timing when the train door is opened, the closing operation timing, which is the timing when the train door is closed, and the safety that informs the driver that the train door is safely closed. At least three types of operation timings, that is, notification operation timings, are recorded.

また、コンピュータ1100は、これらの履歴データの記録とは別に、シミュレーションされている状況におけるキータイミングをキータイミングリスト636として記録する。
キータイミングとは、車掌行動を評価する上で利用される時間軸上のタイミングである。本実施形態では、キータイミングとして、列車が停止した停止タイミングと、列車が発車した出発タイミングと、を記録する。勿論、これら以外のタイミングも適宜含めることができる。コンピュータ1100は、シミュレーションの最後に、これらのキータイミングと、上述した各種履歴データに記録されている内容とを比較することで、ユーザ3が適切なタイミングで注意するべきものに注意を払っているか(視線を向けているか)を評価する。
Further, the computer 1100 records the key timing in the simulated situation as the key timing list 636 separately from the recording of these historical data.
The key timing is the timing on the time axis used to evaluate the conductor behavior. In the present embodiment, the stop timing at which the train stops and the departure timing at which the train departs are recorded as key timings. Of course, timings other than these can be included as appropriate. At the end of the simulation, the computer 1100 compares these key timings with the contents recorded in the various historical data described above to pay attention to what the user 3 should pay attention to at an appropriate timing. Evaluate (whether you are looking at it).

また、本実施形態では、コンピュータ1100は、シミュレーション中において注視対象に基づく異常発生条件を満たした場合に、割り込み処理として所与の異常事象シミュレーションを発生させる異常発生処理を行う。そして、この異常発生処理において、当該発生させた異常事象シミュレーションに係る異常事象発生データ637を生成し、異常事象シミュレーション毎に記録しておく。 Further, in the present embodiment, the computer 1100 performs an abnormality generation process for generating a given abnormal event simulation as an interrupt process when the abnormality generation condition based on the gaze target is satisfied during the simulation. Then, in this abnormality generation processing, the abnormal event occurrence data 637 related to the generated abnormal event simulation is generated and recorded for each abnormal event simulation.

ここで、開閉操作ボタン1042による列車ドアの閉操作にあたっては、列車への乗客の駆け込み乗車に注意を払ったり、駆け込み乗車等によって列車ドアへの乗客や物の挟み込みが生じていないか(車側灯が点灯したか)といった安全確認を、列車ドア毎に行う必要がある。一方で、列車の長さ等によっては、乗務員室の出入口付近で列車側面に視線を向けるだけでは全ての列車ドア付近の状況を視認できない場合もある。そのような場合は、見えない列車ドアが視界に入るようにホーム上を移動したり、ITV装置の表示を見る等して安全確認を行う。 Here, when closing the train door with the open / close operation button 1042, pay attention to the passengers rushing into the train, and whether passengers or objects are caught in the train door due to the rushing in (vehicle side). It is necessary to check the safety of each train door, such as whether the light is on). On the other hand, depending on the length of the train, it may not be possible to visually recognize the situation near all train doors simply by looking at the side of the train near the entrance / exit of the crew room. In such a case, check the safety by moving on the platform so that the invisible train door can be seen, or by looking at the display of the ITV device.

そこで、本実施形態の異常発生処理では、コンピュータ1100は、「所与のITV注視タイミングにおける注視対象としてITV装置が検出されなかったこと」を第1の異常発生条件として判定する。ITV注視タイミングは、開閉操作ボタン1042で閉操作がなされた直前の所定秒数の期間を少なくとも含むように設定される。例えば、閉操作の2秒前から閉操作後3秒が経過するまでの期間を、ITV注視タイミングとする。 Therefore, in the abnormality generation processing of the present embodiment, the computer 1100 determines that "the ITV device was not detected as a gaze target at a given ITV gaze timing" as the first abnormality occurrence condition. The ITV gaze timing is set to include at least a predetermined number of seconds immediately before the closing operation is performed by the opening / closing operation button 1042. For example, the period from 2 seconds before the closing operation to 3 seconds after the closing operation is defined as the ITV gaze timing.

具体的には、コンピュータ1100は、ITV注視タイミングの期間が経過した時点で注視対象履歴データ633を参照し、当該期間の注視対象としてITV装置が設定されているか否かを判定する。そして、設定されていなければ検出されなかったとして、第1の異常発生条件を肯定判定する。 Specifically, the computer 1100 refers to the gaze target history data 633 when the period of the ITV gaze timing has elapsed, and determines whether or not the ITV device is set as the gaze target of the period. Then, it is determined that the first abnormality occurrence condition is affirmed, assuming that it is not detected if it is not set.

また、本実施形態では、「所与の列車側面注視タイミングにおいて、列車前後方向に連続する列車側面領域が続けて注視対象として検出されなかったこと」を第2の異常発生条件として判定する。列車側面注視タイミングは、列車が駅に停車してから発車するまでの間の期間として設定される。例えば、開閉操作ボタン1042の閉操作の2秒前から閉操作後3秒が経過するまでの期間を、列車側面注視タイミングとする。 Further, in the present embodiment, it is determined as the second abnormality occurrence condition that "at a given train side gaze timing, the train side area continuous in the front-rear direction of the train was not continuously detected as a gaze target". The train side gaze timing is set as the period from when the train stops at the station to when it departs. For example, the period from 2 seconds before the closing operation of the opening / closing operation button 1042 to 3 seconds after the closing operation is defined as the train side gaze timing.

具体的には、コンピュータ1100は、列車側面注視タイミングの期間が経過した時点で注視対象履歴データ633を参照し、当該期間の注視対象を読み出す。そして、当該期間において、連続する列車側面領域Eを続けて注視したかどうかの判定を行う。例えば、本実施形態では、全ての列車側面領域Eが図7に向かって右端から左端まで順番に注視対象として設定されている場合や、左端から右端まで順番に注視対象として設定されている場合に、第2の異常発生条件を否定判定する。図6では、後者の例を示している。何れの場合にも該当しなければ、第2の異常発生条件を肯定判定する。つまり、ユーザ3が列車の一端側から他端側へと視線をずらしながら列車側面の全域を視認していれば、第2の異常発生条件を満たさないと判定する。なお、列車側面の全域ではなく、列車後方から所定の範囲の列車側面を注視対象として第2の異常発生条件を設定してもよい。シミュレーション対象の駅ホームの形状やホーム上の混雑状況等によっては列車先頭まで見通せない場合があること、列車先頭まで見通せない場合にはITV装置を視認しているかの第1の異常発生条件で、列車側面全域の安全確認を行った否かを補完して判定できること、による。 Specifically, the computer 1100 refers to the gaze target history data 633 when the period of the train side gaze timing has elapsed, and reads out the gaze target of the period. Then, it is determined whether or not the continuous train side area E is continuously gazed during the period. For example, in the present embodiment, when all the train side surface regions E are set as gaze targets in order from the right end to the left end toward FIG. 7, or when they are set as gaze targets in order from the left end to the right end. , The second abnormality occurrence condition is negatively determined. FIG. 6 shows an example of the latter. If none of the cases apply, the second abnormality occurrence condition is determined affirmatively. That is, if the user 3 visually recognizes the entire side surface of the train while shifting the line of sight from one end side to the other end side of the train, it is determined that the second abnormality occurrence condition is not satisfied. It should be noted that the second abnormality occurrence condition may be set by focusing on the side surface of the train in a predetermined range from the rear of the train instead of the entire side surface of the train. Depending on the shape of the station platform to be simulated and the congestion situation on the platform, it may not be possible to see to the beginning of the train. It depends on the fact that it can be judged by complementing whether or not the safety of the entire side of the train has been confirmed.

そして、コンピュータ1100は、第1の異常発生条件を満たし、第2の異常発生条件も満たした場合に、割り込み処理として異常事象シミュレーションを発生させる。例えば、列車への乗客の駆け込み乗車の発生のシミュレーション(以下「駆け込みシミュレーション」という)、又は列車ドアにおける乗客若しくは物の挟み込みの発生のシミュレーション(以下「挟み込みシミュレーション」という)を発生させる。何れを発生させるのかは、例えばランダムに選んで決定する。 Then, the computer 1100 generates an abnormal event simulation as an interrupt process when the first abnormality occurrence condition is satisfied and the second abnormality occurrence condition is also satisfied. For example, a simulation of the occurrence of passengers rushing into a train (hereinafter referred to as "rush simulation") or a simulation of the occurrence of passengers or objects being pinched at a train door (hereinafter referred to as "pinching simulation") is generated. Which one to generate is, for example, randomly selected and determined.

その後は、当該発生させた異常事象シミュレーションに係る異常事象発生データ637を生成し、異常事象シミュレーション毎に記録しておく。具体的には、1つの異常事象発生データ637は、当該異常事象シミュレーションを発生させた時点の経過時間(シミュレーション時刻ともいえる)と、当該異常事象シミュレーションの種類(駆け込みシミュレーション又は挟み込みシミュレーション)と、当該異常事象シミュレーションに係る異常事象の発生に対するユーザ3の対処内容とを、を記録する。基本的には、乗客の駆け込み乗車が発生した場合や列車ドアへの乗客や物の挟み込みが発生した場合には、列車ドアの開操作を行う。そのため、対処内容は、当該異常事象の発生時に、開閉操作ボタン1042による列車ドアの開操作がなされたか否かの情報を含む。 After that, the abnormal event occurrence data 637 related to the generated abnormal event simulation is generated and recorded for each abnormal event simulation. Specifically, one abnormal event occurrence data 637 includes the elapsed time (which can be said to be the simulation time) at the time when the abnormal event simulation is generated, the type of the abnormal event simulation (rush simulation or sandwiching simulation), and the said. The contents of the user 3's response to the occurrence of the abnormal event related to the abnormal event simulation are recorded. Basically, when a passenger rushes in or a passenger or an object is caught in the train door, the train door is opened. Therefore, the content of the countermeasure includes information on whether or not the train door has been opened by the open / close operation button 1042 when the abnormal event occurs.

なお、第1の異常発生条件および第2の異常発生条件の両方を満たした場合に限らず、何れか一方を満たした場合に異常事象シミュレーションを発生させることとしてもよい。また、第1の異常発生条件のみを判定して異常事象シミュレーションを発生させるとしてもよいし、第2の異常発生条件のみを判定して異常事象シミュレーションを発生させるのでもよい。 It should be noted that the abnormality event simulation may be generated not only when both the first abnormality occurrence condition and the second abnormality occurrence condition are satisfied, but also when either one is satisfied. Further, only the first abnormality occurrence condition may be determined to generate the abnormal event simulation, or only the second abnormality occurrence condition may be determined to generate the abnormal event simulation.

また、第2の異常発生条件は、上記の条件内容に限らず、「列車側面注視タイミングにおける注視対象として列車側面が検出されなかったこと」等としてもよい。そして、例えば、列車側面注視タイミングの期間において全ての列車側面領域Eが注視対象として設定されていない場合、第2の異常発生条件を肯定判定するとしてもよい。つまり、列車の一端側から他端側まで続けて見ていなくても、その全域に視線を向けていれば、第2の異常発生条件を満たさないと判定する構成としてもよい。 Further, the second abnormality occurrence condition is not limited to the above-mentioned condition content, and may be "the train side surface was not detected as a gaze target at the train side gaze timing" or the like. Then, for example, when all the train side surface regions E are not set as the gaze targets during the train side gaze timing period, the second abnormality occurrence condition may be determined affirmatively. That is, even if the train is not continuously viewed from one end side to the other end side, it may be determined that the second abnormality occurrence condition is not satisfied as long as the line of sight is directed to the entire area.

また、異常事象シミュレーションとして駆け込みシミュレーションおよび挟み込みシミュレーションの両方を発生させるとしてもよいし、両方を発生させるのか何れか一方を発生させるのかをランダムに決定するとしてもよい。 Further, both the rush simulation and the pinch simulation may be generated as the abnormal event simulation, or it may be randomly determined whether to generate both or one of them.

図8~図11は、シミュレーション後の提示例を示す図である。
コンピュータ1100は、シミュレーション終了後に、ユーザ3の行動の記録等に基づいて幾つかの提示を行う。提示(表示)は、VRゴーグル1010で行うこととして説明するが、タッチパネル1108で行うこととしてもよい。
8 to 11 are diagrams showing an example of presentation after simulation.
After the simulation is completed, the computer 1100 makes some presentations based on the record of the action of the user 3. The presentation (display) will be described as being performed by the VR goggles 1010, but may be performed by the touch panel 1108.

例えば、図8に示すように、第1の提示として、注視対象履歴表示70を行う。具体的には、コンピュータ1100が、仮想現実空間におけるユーザ3の視界範囲正面所定位置に、注視対象履歴表示70のオブジェクトを配置する。注視対象履歴表示70では、横軸をシミュレーション開始からの経過時間として、注視対象別にどのタイミングで注視対象となっていたかを示す。また、注視対象履歴表示70では、横軸の経過時間に、操作タイミング(開操作タイミングT2、閉操作タイミングT3、安全通知操作タイミングT4等)とキータイミング(停止タイミングT1、出発タイミングT5等)が表示される。加えて、シミュレーション中に異常事象を発生させた場合には、その発生タイミングT10も表示される。図8では、異常事象シミュレーションの発生後に列車ドアの開操作がなされておらず、その異常事象に適切に対処していない例を示している。 For example, as shown in FIG. 8, the gaze target history display 70 is performed as the first presentation. Specifically, the computer 1100 arranges an object of the gaze target history display 70 at a predetermined position in front of the field of view of the user 3 in the virtual reality space. In the gaze target history display 70, the horizontal axis is the elapsed time from the start of the simulation, and the timing of the gaze target is shown for each gaze target. Further, in the gaze target history display 70, the operation timing (open operation timing T2, closing operation timing T3, safety notification operation timing T4, etc.) and key timing (stop timing T1, departure timing T5, etc.) are set in the elapsed time on the horizontal axis. Is displayed. In addition, when an abnormal event occurs during the simulation, the occurrence timing T10 is also displayed. FIG. 8 shows an example in which the train door is not opened after the occurrence of the abnormal event simulation, and the abnormal event is not appropriately dealt with.

注視対象履歴表示70が提示されることにより、ユーザ3は、列車がホームに進入してから停車するまで、停車してから列車ドアを開けるまで、列車ドアを開けてから閉じるまで、列車ドアを閉じて安全通知が終わり出発するまで、列車が出発した後の5つの状況変化のタイミングを目安にしつつ、それぞれの状況でいつ、何に注視していたかを知ることができる。さらに、異常事象シミュレーションの発生があった場合には、ユーザ3は、その直前のITV装置や列車側面を注視すべきときに(ITV注視タイミングや列車側面注視タイミングにおいて)何に注視していたのかを知ることができる。 By presenting the gaze target history display 70, the user 3 opens the train door from the time the train enters the platform to the time the train stops, the time the train stops until the train door is opened, and the time the train door is opened to closed. You can know when and what you were paying attention to in each situation, using the timing of the five situation changes after the train departed as a guide until the train closes and the safety notice ends and the train departs. Furthermore, when an abnormal event simulation occurs, what was the user 3 paying attention to (at the ITV gaze timing or the train side gaze timing) when the ITV device or the side of the train should be gazed immediately before that? Can be known.

また、コンピュータ1100は、注視対象履歴表示70の提示とともに、教師役の別ユーザが同じシミュレーションを行って得られた注視対象履歴データ633を教師データと見なした模範注視履歴表示72を提示する。具体的には、コンピュータ1100が、仮想現実空間におけるユーザ3の視界範囲正面所定位置(例えば、注視対象履歴表示70のオブジェクトと並んだ位置)に、模範注視履歴表示72のオブジェクトを配置する。 Further, the computer 1100 presents the gaze target history display 70 and also presents the model gaze history display 72 in which the gaze target history data 633 obtained by performing the same simulation by another user acting as a teacher is regarded as the teacher data. Specifically, the computer 1100 arranges the object of the model gaze history display 72 at a predetermined position in front of the field of view of the user 3 in the virtual reality space (for example, a position alongside the object of the gaze target history display 70).

ユーザ3は、注視対象履歴表示70と模範注視履歴表示72とを見比べることで、どのタイミングで注視するべきものを見ていなかったかや、注視すべき対象を注視した頻度の多少、等を知ることができる。その知見を次回の訓練に活かすことで、ユーザ3は、高い訓練効果を得ることとなる。 By comparing the gaze target history display 70 and the model gaze history display 72, the user 3 can know at what timing he / she did not see what he / she should gaze at, how often he / she gazed at the target to be watched, and the like. Can be done. By utilizing the knowledge in the next training, the user 3 can obtain a high training effect.

また、注視対象履歴表示70の提示に伴い、コンピュータ1100は、例えば図9に示すように、特に注視すべき対象として要求される注視対象(特定の注視対象)について注視したか否かの評価結果74を、第2の提示として提示する。評価結果74は、ユーザ3が、適切なタイミングで特定の注視対象について注視できたかを示す。コンピュータ1100が、仮想現実空間におけるユーザ3の視界範囲正面所定位置に、評価結果74の表示を行うオブジェクトを配置する。図9では、注視できていた場合には「○」を、注視できていなかった場合には「×」を示す例を示しているが、評価の表し方はこれに限らない。 Further, with the presentation of the gaze target history display 70, as shown in FIG. 9, for example, the evaluation result of whether or not the computer 1100 has gazed at the gaze target (specific gaze target) required as a particular gaze target. 74 is presented as a second presentation. The evaluation result 74 indicates whether the user 3 was able to gaze at a specific gaze target at an appropriate timing. The computer 1100 arranges an object for displaying the evaluation result 74 at a predetermined position in front of the user 3's field of view in the virtual reality space. FIG. 9 shows an example in which “◯” is shown when the person can gaze, and “×” is shown when the person cannot gaze, but the method of expressing the evaluation is not limited to this.

ここで言う「特定の注視対象」を注視すべき適切なタイミングは、適宜設定可能である。例えば、車掌用模擬操作部1040の開閉操作ボタン1042(図2参照)への操作入力に応じて車側灯オブジェクト22の点灯が変わったタイミングの直後所定時間内(例えば閉操作タイミングT3から所定時間内)における、車側灯オブジェクト22がこれに該当する。コンピュータ1100は、ユーザ3が、当該所定時間内に、車側灯オブジェクト22を注視していれば、列車のドアを閉じた後に、車側灯が全て消えているかの確認をしたと見なし、車側灯オブジェクト22に係る注視を行っていた(より正確には、適切なタイミングで行っていた)と評価する。 The appropriate timing for paying attention to the "specific gaze target" referred to here can be appropriately set. For example, within a predetermined time immediately after the timing when the lighting of the vehicle side light object 22 changes according to the operation input to the open / close operation button 1042 (see FIG. 2) of the conductor simulated operation unit 1040 (for example, a predetermined time from the closing operation timing T3). The car side light object 22 in (inside) corresponds to this. If the user 3 is gazing at the car side light object 22 within the predetermined time, the computer 1100 considers that after closing the train door, it confirms that all the car side lights are turned off, and the car It is evaluated that the gaze of the side light object 22 was performed (more accurately, it was performed at an appropriate timing).

また例えば、発車して列車が駅を離れるまでの間(経過時間で見ると出発タイミングT5以降)における、ホーム外縁部オブジェクト34(図2参照)も、特定の注視対象に該当する。コンピュータ1100は、ユーザ3が、列車が発車して駅を離れるまで(例えば所定時間)の間のうち、所定割合以上、ホーム外縁部を注視していれば、走行を始めた列車とホームに残った乗客との接触の有無や、列車とホームとの隙間にモノが挟まっていないかの確認をしていると見なし、ホーム外縁部オブジェクト34に係る注視を行っていた(より正確には、適切なタイミングで行っていた)と評価する。 Further, for example, the platform outer edge object 34 (see FIG. 2) during the period from departure to the time when the train leaves the station (departure timing T5 or later in terms of elapsed time) also corresponds to a specific gaze target. The computer 1100 remains in the train and the platform that started running if the user 3 is watching the outer edge of the platform for a predetermined ratio or more until the train departs and leaves the station (for example, a predetermined time). It was considered that he was checking whether there was any contact with the passengers and whether there was anything caught in the gap between the train and the platform, and he was paying close attention to the object 34 at the outer edge of the platform (more accurately, appropriate). It was done at the right timing).

また例えば、出発タイミングT5以降の列車が駅を離れてゆく過程に該当する経過時間帯での、ホーム関連オブジェクト30(特に、線路オブジェクト)も、これに該当する。コンピュータ1100は、ユーザ3が、当該経過時間帯において、ホーム関連オブジェクト30、特に線路オブジェクトを注視していれば、ユーザ3が、列車が駅を離れた後の後方線路の確認をしたと見なし、適切なタイミングで後方線路の確認ができたと評価する。 Further, for example, the home-related object 30 (particularly, the railroad track object) in the elapsed time zone corresponding to the process in which the train leaving the station after the departure timing T5 also corresponds to this. If the user 3 is gazing at the home-related object 30, especially the railroad track object, in the elapsed time, the computer 1100 considers that the user 3 has confirmed the rear railroad track after the train has left the station. It is evaluated that the rear line was confirmed at an appropriate timing.

また、コンピュータ1100は、シミュレーション中に異常事象シミュレーションを発生させた場合には、例えば図10に示すように、当該異常事象シミュレーションの発生に対してユーザ3が適切に対処したか否かの異常対処評価結果76(76-1又は76-2)を、第3の提示として提示する。具体的には、駆け込みシミュレーションを発生させた場合には、乗客の駆け込み乗車に対して適切に対処したか否かの異常対処評価結果76-1を提示する。挟み込みシミュレーションを発生させたのであれば、列車ドアにおける乗客若しくは物の挟み込みに対して適切に対処したか否かの異常対処評価結果76-1を提示する。例えば、異常事象発生データ637をもとに、その異常事象の発生時にユーザ3が開閉操作ボタン1042によって列車ドアの開操作をしていれば「○」、していなければ「×」等として提示することができる。 Further, when the computer 1100 generates an abnormal event simulation during the simulation, for example, as shown in FIG. 10, the computer 1100 handles an abnormality as to whether or not the user 3 has appropriately dealt with the occurrence of the abnormal event simulation. The evaluation result 76 (76-1 or 76-2) is presented as a third presentation. Specifically, when the rush simulation is generated, the abnormality coping evaluation result 76-1 as to whether or not the rushing ride of the passenger is appropriately dealt with is presented. If the pinch simulation is generated, the abnormality coping evaluation result 76-1 as to whether or not the pinching of a passenger or an object at the train door is appropriately dealt with is presented. For example, based on the abnormal event occurrence data 637, if the user 3 opens the train door with the open / close operation button 1042 at the time of the occurrence of the abnormal event, it is presented as "○", otherwise it is presented as "×" or the like. can do.

また、例えば図11に示すように、コンピュータ1100は、注視対象を車両関連/ホーム関連/ITVの少なくとも3つに分類して、注視対象とされた各分類の時間的割合を提示する注視分類割合78を、第4の提示として提示する。なお、分類の数は、図11では4つとしているが、5つ以上であってもよい。 Further, for example, as shown in FIG. 11, the computer 1100 classifies the gaze target into at least three of vehicle-related / home-related / ITV, and presents the time ratio of each of the gaze targets. 78 is presented as a fourth presentation. Although the number of classifications is four in FIG. 11, it may be five or more.

そして、コンピュータ1100は、教師役の別ユーザが同じシミュレーションを行って得られた注視対象履歴データ633に基づいて、模範分類割合79を比較表示する。よって、先の注視履歴に係る比較提示と同様に、高い訓練効果が得られるようになる。 Then, the computer 1100 compares and displays the model classification ratio 79 based on the gaze target history data 633 obtained by performing the same simulation by another user acting as a teacher. Therefore, a high training effect can be obtained as in the case of the comparative presentation related to the gaze history described above.

図12は、車掌模擬訓練システム1000の機能構成例を示す機能ブロック図である。
車掌模擬訓練システム1000は、管理操作入力部100と、車掌操作入力部102と、車掌音声入力部103と、視線トラッキング計測部104と、位置トラッキング計測部106と、演算部200と、VR画像表示部320と、音出力部390と、管理画像表示部392と、記憶部500と、を有する。
FIG. 12 is a functional block diagram showing a functional configuration example of the conductor simulation training system 1000.
The conductor simulation training system 1000 includes a management operation input unit 100, a conductor operation input unit 102, a conductor voice input unit 103, a line-of-sight tracking measurement unit 104, a position tracking measurement unit 106, a calculation unit 200, and a VR image display. It has a unit 320, a sound output unit 390, a management image display unit 392, and a storage unit 500.

管理操作入力部100は、車掌模擬訓練システム1000のシステム管理のための操作入力(例えば、シミュレーションするシナリオの選択操作入力、シミュレーションを行うユーザが教師であるか訓練者であるかの選択操作入力、等)を受け付け、操作入力信号を演算部200へ出力する。図1の例では、キーボード1106,タッチパネル1108がこれに該当する。 The management operation input unit 100 is an operation input for system management of the vehicle operator simulation training system 1000 (for example, a selection operation input of a scenario to be simulated, a selection operation input of whether the user performing the simulation is a teacher or a trainer, Etc.) and output the operation input signal to the calculation unit 200. In the example of FIG. 1, the keyboard 1106 and the touch panel 1108 correspond to this.

車掌操作入力部102は、シミュレーション中のユーザ3が車掌として行う各種操作入力を受け付け、操作入力信号を演算部200へ出力する。図1の例では、開閉操作ボタン1042等を備えた車掌用模擬操作部1040がこれに該当する。 The conductor operation input unit 102 receives various operation inputs performed by the user 3 during the simulation as the conductor, and outputs an operation input signal to the calculation unit 200. In the example of FIG. 1, the conductor simulated operation unit 1040 provided with the open / close operation button 1042 and the like corresponds to this.

車掌音声入力部103は、シミュレーション中のユーザ3が車掌としてシミュレーション中のユーザ3が車掌として発した声の音声信号を、演算部200へ出力する。図1の例では、ヘッドセット1002のマイクロフォン1003がこれに該当する。 The conductor voice input unit 103 outputs the voice signal of the voice emitted by the user 3 during the simulation as the conductor as the conductor to the calculation unit 200. In the example of FIG. 1, the microphone 1003 of the headset 1002 corresponds to this.

視線トラッキング計測部104は、ユーザ3の視線をトラッキングするための計測を行い、計測データを演算部200へ出力する。図1の例では、VRゴーグル1010に組み込まれたアイトラッキング装置1012がこれに該当する。なお、VRゴーグル1010の正面方向をユーザ3の視線方向と見なす構成としてもよく、その場合は、VRゴーグル1010が内蔵する加速度センサ1014やジャイロセンサ1016、外部トラッキングセンサ1020がこれに該当することになる。 The line-of-sight tracking measurement unit 104 performs measurement for tracking the line of sight of the user 3 and outputs the measurement data to the calculation unit 200. In the example of FIG. 1, the eye tracking device 1012 incorporated in the VR goggles 1010 corresponds to this. The front direction of the VR goggles 1010 may be regarded as the line-of-sight direction of the user 3. In that case, the acceleration sensor 1014, the gyro sensor 1016, and the external tracking sensor 1020 built in the VR goggles 1010 correspond to this. Become.

位置トラッキング計測部106は、ユーザ3の現実世界における位置を計測し、計測データを演算部200へ出力する。図1の例では、VRゴーグル1010が内蔵する加速度センサ1014やジャイロセンサ1016、外部トラッキングセンサ1020がこれに該当する。 The position tracking measurement unit 106 measures the position of the user 3 in the real world and outputs the measurement data to the calculation unit 200. In the example of FIG. 1, the acceleration sensor 1014, the gyro sensor 1016, and the external tracking sensor 1020 built in the VR goggles 1010 correspond to this.

演算部200は、例えばCPUやGPU等のマイクロプロセッサや、ICメモリ等の電子部品によって実現され、各種の操作入力部や、各種の計測部、記憶部500との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、管理操作入力部100および車掌操作入力部102からの操作入力信号、車掌音声入力部103からの音声信号入力、視線トラッキング計測部104および位置トラッキング計測部106からの計測データ、等に基づいて各種の演算処理を実行して、車掌模擬訓練システム1000の動作を制御する。図1の例では、コンピュータ1100の制御基板1150がこれに該当する。 The arithmetic unit 200 is realized by, for example, a microprocessor such as a CPU or GPU, or an electronic component such as an IC memory, and controls data input / output between various operation input units, various measurement units, and a storage unit 500. conduct. Then, predetermined programs and data, operation input signals from the management operation input unit 100 and the commander operation input unit 102, voice signal input from the commander voice input unit 103, measurement from the line-of-sight tracking measurement unit 104 and the position tracking measurement unit 106. The operation of the driver simulation training system 1000 is controlled by executing various arithmetic processes based on the data and the like. In the example of FIG. 1, the control board 1150 of the computer 1100 corresponds to this.

そして、本実施形態における演算部200は、視線トラッキング制御部204と、位置トラッキング制御部206と、シミュレーション部210と、VR画像生成部220と、提示制御部222と、注視対象検出部230と、異常発生処理部232と、記録制御部234と、計時部280と、音生成部290と、管理画像生成部292と、を備える。 The calculation unit 200 in the present embodiment includes a line-of-sight tracking control unit 204, a position tracking control unit 206, a simulation unit 210, a VR image generation unit 220, a presentation control unit 222, a gaze target detection unit 230, and the like. It includes an abnormality generation processing unit 232, a recording control unit 234, a timing unit 280, a sound generation unit 290, and a management image generation unit 292.

視線トラッキング制御部204は、視線トラッキング計測部104による計測データに基づいて、視線トラッキングのための演算処理を行い、仮想現実空間でのトラッキング視線(例えば、視線方向ベクトル)を求める。すなわち、視線トラッキング計測部104と視線トラッキング制御部204は、VRゴーグル1010に組み込まれたアイトラッキング装置に基づいてユーザ3の視線をトラッキングする視線トラッキング部304を構成する。視線トラッキング部304は、アイトラッキング装置を用いずに構成することもできる。例えば、VRゴーグル1010の正面方向(すなわち頭部の正面方向)を視線方向と見なして、位置トラッキングおよび姿勢トラッキングから当該視線方向を推定することで視線トラッキングを実現する視線トラッキング部304としてもよい。 The line-of-sight tracking control unit 204 performs arithmetic processing for line-of-sight tracking based on the measurement data by the line-of-sight tracking measurement unit 104, and obtains a tracking line-of-sight (for example, a line-of-sight direction vector) in a virtual reality space. That is, the line-of-sight tracking measurement unit 104 and the line-of-sight tracking control unit 204 configure the line-of-sight tracking unit 304 that tracks the line of sight of the user 3 based on the eye tracking device incorporated in the VR goggles 1010. The line-of-sight tracking unit 304 can also be configured without using an eye tracking device. For example, the line-of-sight tracking unit 304 may realize line-of-sight tracking by regarding the front direction of the VR goggles 1010 (that is, the front direction of the head) as the line-of-sight direction and estimating the line-of-sight direction from position tracking and posture tracking.

位置トラッキング制御部206は、位置トラッキング計測部106による計測データに基づいて、位置トラッキングのための演算処理を行い、仮想現実空間でのユーザ3の位置座標(トラッキング位置)を求める。すなわち、位置トラッキング計測部106と位置トラッキング制御部206は、ユーザ3(又はVRゴーグル1010)の位置をトラッキングする位置トラッキング部306を構成する。 The position tracking control unit 206 performs arithmetic processing for position tracking based on the measurement data by the position tracking measurement unit 106, and obtains the position coordinates (tracking position) of the user 3 in the virtual reality space. That is, the position tracking measurement unit 106 and the position tracking control unit 206 form a position tracking unit 306 that tracks the position of the user 3 (or VR goggles 1010).

シミュレーション部210は、仮想現実空間における開閉操作ボタン1042の操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションし、仮想現実空間に配置した各種のオブジェクトを制御する。具体的には、シミュレーション部210は、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでをシミュレーションする。そして、それに伴って、シミュレーション部210は、仮想現実空間において、ホームに設置されたITV装置が表示する内容もシミュレーションする。 The simulation unit 210 simulates the conductor work related to the arrival and departure of a virtual train at a station, including the opening and closing of train doors and the boarding and alighting of passengers based on the operation of the open / close operation button 1042 in the virtual reality space, based on a given scenario. , Control various objects placed in virtual reality space. Specifically, the simulation unit 210 simulates from the timing when the train approaches the platform of the station where the train is scheduled to stop until the train departs and leaves the station. Along with this, the simulation unit 210 also simulates the content displayed by the ITV device installed in the home in the virtual reality space.

VR画像生成部220は、視線トラッキング部304によるトラッキング視線および位置トラッキング部306によるトラッキング位置に基づいて、シミュレーション中のVRゴーグル1010に表示させるVR画像を生成し、表示制御信号をVR画像表示部320へ出力する。 The VR image generation unit 220 generates a VR image to be displayed on the VR goggles 1010 being simulated based on the tracking line of sight by the line-of-sight tracking unit 304 and the tracking position by the position tracking unit 306, and displays the display control signal in the VR image display unit 320. Output to.

VR画像表示部320は、VR画像を表示するための画像表示デバイスである。図1の例では、VRゴーグル1010がこれに該当する。 The VR image display unit 320 is an image display device for displaying a VR image. In the example of FIG. 1, VR goggles 1010 corresponds to this.

提示制御部222は、シミュレーション後に、注視対象の時系列変化および開閉操作ボタン1042の操作タイミングを訓練者であるユーザ3に提示するための表示制御を行う。提示制御部222は、訓練結果を「評価」する評価部223を有する。 After the simulation, the presentation control unit 222 performs display control for presenting the time-series change of the gaze target and the operation timing of the open / close operation button 1042 to the user 3 who is the trainee. The presentation control unit 222 has an evaluation unit 223 that "evaluates" the training result.

本実施形態では、VRゴーグル1010にて提示を行うので、提示制御部222が、仮想空間のうちトラッキング視線の正面所定位置に、提示(注視対象履歴表示70、模範注視履歴表示72、評価結果74、異常対処評価結果76、注視分類割合78、模範分類割合79)に係るオブジェクトを配置すると、必然的に、VR画像生成部220は、当該提示に係るオブジェクトを含むVR画像を生成する。 In the present embodiment, since the presentation is performed by the VR goggles 1010, the presentation control unit 222 presents the presentation (gaze target history display 70, model gaze history display 72, evaluation result 74) at a predetermined position in front of the tracking line of sight in the virtual space. When the object according to the abnormality coping evaluation result 76, the gaze classification ratio 78, and the model classification ratio 79) is arranged, the VR image generation unit 220 inevitably generates a VR image including the object related to the presentation.

注視対象検出部230は、トラッキング視線およびVR画像に基づいて、ユーザ3の仮想現実空間中の注視対象を検出する。具体的には、コンピュータ1100は、仮想現実空間に配置されているオブジェクトの中から、視点カメラ60からのトラッキング視線(視線ベクトル)が最初に交わったオブジェクトを注視対象として検出する。また、注視対象検出部230は、注視対象を、車両関連/ホーム関連/ITVの少なくとも3つに分類し、分類結果を記録する。なお、視点カメラ60からのトラッキング視線が所定時間(例えば0.5秒や1.0秒)以上連続的に交わっている(視線が停留している)オブジェクトを注視対象と検出する構成としてもよい。 The gaze target detection unit 230 detects the gaze target in the virtual reality space of the user 3 based on the tracking line of sight and the VR image. Specifically, the computer 1100 detects an object in which the tracking line of sight (line of sight vector) from the viewpoint camera 60 first intersects among the objects arranged in the virtual reality space as a gaze target. Further, the gaze target detection unit 230 classifies the gaze target into at least three of vehicle-related / home-related / ITV, and records the classification result. It should be noted that an object in which the tracking line of sight from the viewpoint camera 60 continuously intersects for a predetermined time (for example, 0.5 seconds or 1.0 second) or longer (the line of sight is stationary) may be detected as a gaze target. ..

異常発生処理部232は、異常発生処理を行う機能部であり、注視対象に基づく異常発生条件を満たした場合に、シミュレーション中に割り込み処理として所与の異常事象シミュレーションを発生させる。 The abnormality generation processing unit 232 is a functional unit that performs abnormality generation processing, and generates a given abnormal event simulation as interrupt processing during simulation when the abnormality generation condition based on the gaze target is satisfied.

記録制御部234は、シミュレーション中のユーザ3の行動履歴と、行動履歴の評価に必要な各種データを記録・管理する。具体的には、記録制御部234は、注視対象履歴データ633、移動履歴データ634、操作履歴データ635、キータイミングリスト636、異常事象発生データ637等の記録と管理の制御を行う(図4参照)。 The record control unit 234 records and manages the action history of the user 3 during the simulation and various data necessary for evaluating the action history. Specifically, the recording control unit 234 controls recording and management of gaze target history data 633, movement history data 634, operation history data 635, key timing list 636, abnormal event occurrence data 637, and the like (see FIG. 4). ).

計時部280は、システムクロックを利用してシミュレーション時刻や制限時間、シミュレーション開始からの経過時間等の計時を行う。 The timekeeping unit 280 uses the system clock to measure the simulation time, the time limit, the elapsed time from the start of the simulation, and the like.

音生成部290は、例えばデジタルシグナルプロセッサ(DSP)や、音声合成IC等のプロセッサ、音声ファイルを再生可能なオーディオコーデック等によって実現され、シミュレーションされた環境音、各種操作音の音信号を生成し、音出力部390に出力する。 The sound generation unit 290 is realized by, for example, a digital signal processor (DSP), a processor such as a voice synthesis IC, an audio codec capable of reproducing a voice file, and generates simulated environmental sounds and sound signals of various operation sounds. , Is output to the sound output unit 390.

音出力部390は、音生成部290から入力される音信号に基づいて音出力(放音)する装置によって実現される。図1の例ではヘッドセット1002のヘッドフォン1004がこれに該当する。 The sound output unit 390 is realized by a device that outputs (sounds) sound based on a sound signal input from the sound generation unit 290. In the example of FIG. 1, the headphone 1004 of the headset 1002 corresponds to this.

管理画像生成部292は、車掌模擬訓練システム1000の管理に係る各種画像データの生成および管理画像表示部392にそれらの画像を表示させるための画像信号の生成出力等の制御を行う。 The management image generation unit 292 controls the generation of various image data related to the management of the conductor simulation training system 1000 and the generation and output of image signals for displaying those images on the management image display unit 392.

管理画像表示部392は、管理画像生成部292から入力される画像信号に基づいて車掌模擬訓練システム1000の管理に係る各種画像を表示する。例えば、フラットパネルディスプレイ、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。本実施形態では、図1のタッチパネル1108がこれに該当する。 The management image display unit 392 displays various images related to the management of the conductor simulation training system 1000 based on the image signal input from the management image generation unit 292. For example, it can be realized by an image display device such as a flat panel display, a projector, or a head-mounted display. In this embodiment, the touch panel 1108 of FIG. 1 corresponds to this.

記憶部500は、演算部200に車掌模擬訓練システム1000を統合的に制御させるための諸機能を実現するためのプログラムや、各種データ等を記憶する。また、演算部200の作業領域として用いられ、演算部200が各種プログラムに従って実行した演算結果や演算部200へ入力される各種データ等を一時的に記憶する。こうした機能は、例えばRAMやROM等のICメモリ、ハードディスク等の磁気ディスク、CD-ROMやDVD等の光学ディスク等によって実現される。図1の例では、制御基板1150が搭載するICメモリ1152がこれに該当する。オンラインストレージを利用する構成も可能である。 The storage unit 500 stores a program for realizing various functions for making the calculation unit 200 control the conductor simulation training system 1000 in an integrated manner, various data, and the like. Further, it is used as a work area of the calculation unit 200, and temporarily stores the calculation result executed by the calculation unit 200 according to various programs, various data input to the calculation unit 200, and the like. Such a function is realized by, for example, an IC memory such as RAM or ROM, a magnetic disk such as a hard disk, an optical disk such as a CD-ROM or DVD, or the like. In the example of FIG. 1, the IC memory 1152 mounted on the control board 1150 corresponds to this. It is also possible to configure using online storage.

図13は、記憶部500が記憶するプログラムやデータの例を示す図である。記憶部500は、シミュレーションプログラム503と、シナリオデータ510と、シミュレーション制御データ600と、ユーザ行動履歴データ630と、教師データ700と、訓練を行った日時を管理するための現在日時800と、を記憶する。勿論、これら以外のプログラムやデータも適宜記憶することができる。 FIG. 13 is a diagram showing an example of a program and data stored in the storage unit 500. The storage unit 500 stores the simulation program 503, the scenario data 510, the simulation control data 600, the user action history data 630, the teacher data 700, and the current date and time 800 for managing the training date and time. do. Of course, programs and data other than these can be stored as appropriate.

シミュレーションプログラム503は、演算部200に、車掌模擬訓練システム1000を統合的に制御させるための諸機能(視線トラッキング制御部204~管理画像生成部292;図12参照)を実現させる。 The simulation program 503 realizes various functions (line-of-sight tracking control unit 204 to management image generation unit 292; see FIG. 12) for the arithmetic unit 200 to integrally control the conductor simulation training system 1000.

シナリオデータ510は、シミュレーションされるシチュエーションの内容毎に用意され、当該シチュエーションを仮想現実空間で実現するための各種初期設定データを格納する。例えば、着発駅(ホームの種類を含む)、到着番線、乗務する列車の種類、時間帯、天候、乗降客の多寡、等を違えた様々なシナリオのデータが用意される。一つのシナリオデータ510は、例えば、固有のシナリオID511と、環境設定データ513と、オブジェクト別自動制御設定データ515と、を含む。勿論、これら以外のデータも適宜含めることができる。 The scenario data 510 is prepared for each content of the simulated situation, and stores various initial setting data for realizing the situation in the virtual reality space. For example, data of various scenarios with different arrival / departure stations (including the type of platform), arrival line, type of train to be on board, time zone, weather, number of passengers, etc. are prepared. One scenario data 510 includes, for example, a unique scenario ID 511, environment setting data 513, and object-specific automatic control setting data 515. Of course, data other than these can be included as appropriate.

シミュレーション制御データ600は、シミュレーション実行に係る各種制御データを格納する。例えば、シミュレーション制御データ600は、使用シナリオID601と、シミュレーションを行うユーザが教師役であるか訓練者であるかを示すユーザ設定603と、シミュレーション時刻を示すシミュレーション開始からの経過時間607と、トラッキングデータ609と、オブジェクト別のオブジェクト制御データ610と、を含む。勿論、これら以外のデータも適宜含めることができる。 The simulation control data 600 stores various control data related to simulation execution. For example, the simulation control data 600 includes a usage scenario ID 601, a user setting 603 indicating whether the user performing the simulation is a teacher or a trainer, an elapsed time 607 from the start of the simulation indicating the simulation time, and tracking data. 609 and object control data 610 for each object are included. Of course, data other than these can be included as appropriate.

ユーザ行動履歴データ630は、注視対象履歴データ633と、移動履歴データ634と、操作履歴データ635と、キータイミングリスト636と、異常事象発生データ637と、を含む。勿論、これら以外のデータも適宜含めることができる(図4参照)。 The user action history data 630 includes gaze target history data 633, movement history data 634, operation history data 635, key timing list 636, and abnormal event occurrence data 637. Of course, data other than these can be included as appropriate (see FIG. 4).

教師データ700は、教師役のユーザがシミュレーションを行った場合のユーザ行動履歴データ630を、使用シナリオID601と対応づけて保存したデータである。 The teacher data 700 is data in which the user behavior history data 630 when the user acting as the teacher performs the simulation is stored in association with the usage scenario ID 601.

図14は、コンピュータ1100における処理の流れを説明するためのフローチャートである。コンピュータ1100は、先ず、シミュレーションに使用するシナリオの選択入力を受け付ける(ステップS2)。 FIG. 14 is a flowchart for explaining the flow of processing in the computer 1100. First, the computer 1100 accepts the selection input of the scenario used for the simulation (step S2).

また、コンピュータ1100は、ユーザ設定の入力の受け付けを行う(ステップSS4)。受け付けた結果は、ユーザ設定603とされる。 Further, the computer 1100 accepts the input of the user setting (step SS4). The accepted result is the user setting 603.

次に、コンピュータ1100は、使用するシナリオのIDである使用シナリオID601に合致するIDを有するシナリオデータ510を参照して、3次元仮想空間へ各種のオブジェクトを配置し(ステップS6)、VRゴーグル1010のトラッキングを開始する(ステップS8)。 Next, the computer 1100 arranges various objects in the three-dimensional virtual space with reference to the scenario data 510 having an ID matching the usage scenario ID 601 which is the ID of the scenario to be used (step S6), and the VR goggles 1010. Tracking is started (step S8).

次に、コンピュータ1100は、シミュレーションを開始する(ステップS10)。シミュレーションの開始にともない、コンピュータ1100は、注視対象とされるオブジェクトの検出を開始し、ユーザ行動履歴データ630の記録を開始する。 Next, the computer 1100 starts the simulation (step S10). With the start of the simulation, the computer 1100 starts detecting the object to be watched and starts recording the user action history data 630.

また、コンピュータ1100は、シミュレーション中、第1の異常発生条件および第2の異常発生条件の充足を監視し、その両方を満たした場合には(ステップS12:YES)、異常事象シミュレーションを割り込み処理として発生させる(ステップS14)。例えば、駆け込みシミュレーション又は挟み込みシミュレーションをランダムに選んで発生させる。 Further, the computer 1100 monitors the satisfaction of the first abnormality occurrence condition and the second abnormality occurrence condition during the simulation, and if both are satisfied (step S12: YES), the abnormality event simulation is used as an interrupt process. Generate (step S14). For example, a run-in simulation or a pinch simulation is randomly selected and generated.

また、シミュレーションを終了したならば(ステップS16)、コンピュータ1100は、ユーザ設定603が「教師」であれば(ステップS18の教師)、今回のシミュレーションに係り新たに記録したユーザ行動履歴データ630を、新たな教師データ700として保存する(ステップS20)。 Further, when the simulation is completed (step S16), if the user setting 603 is "teacher" (teacher in step S18), the computer 1100 uses the user behavior history data 630 newly recorded in connection with this simulation. Save as new teacher data 700 (step S20).

一方、ユーザ設定603が「訓練者」であれば(ステップS18の訓練者)、コンピュータ1100は、各種の提示を開始する(ステップS22)。すなわち、コンピュータ1100は、注視対象履歴表示70と模範注視履歴表示72との比較表示(図8参照)と、評価結果74(図9参照)と、異常対処評価結果76(図10を参照)と、注視分類割合78と模範分類割合79との比較表示(図11参照)と、のそれぞれの表示制御を行う。 On the other hand, if the user setting 603 is "trainee" (trainee in step S18), the computer 1100 starts various presentations (step S22). That is, the computer 1100 has a comparative display (see FIG. 8) of the gaze target history display 70 and the model gaze history display 72, an evaluation result 74 (see FIG. 9), and an abnormality coping evaluation result 76 (see FIG. 10). , A comparative display (see FIG. 11) between the gaze classification ratio 78 and the model classification ratio 79, and display control of each are performed.

そして、所定の使用終了操作の入力を検出すると(ステップS24のYES)、コンピュータ1100は、一連の処理を終了する。 Then, when the input of the predetermined end-of-use operation is detected (YES in step S24), the computer 1100 ends a series of processes.

以上説明したように、本実施形態によれば、予め決められたシナリオに基づいて異常事象シミュレーションを発生させるのではなく、シミュレーション中、訓練者であるユーザ3の注視対象に応じて割り込み的に、異常事象シミュレーションを発生させることができる。例えば、列車ドアの閉操作にあたり、ユーザ3が安全確認のために注視すべき対象に視線を向けていないときに、異常事象シミュレーションを発生させる。具体的には、ユーザ3がITV装置を確認しなかったとか、列車側面の全域に視線を向けて確認しなかったといった場合を異常発生条件として判定し、異常発生条件を満たした場合に異常事象シミュレーションを発生させることができる。本実施形態では、列車への乗客の駆け込み乗車を発生させる駆け込みシミュレーションや、列車ドアにおける乗客若しくは物の挟み込みを発生させる挟み込みシミュレーションを発生させることができる。また、当該発生させた異常事象シミュレーションに係る異常事象に対してユーザ3が適切に対処したのかを評価することができる。すなわち、本実施形態によれば、ユーザ3の注視対象から、列車ドアの閉操作において必要な安全確認を怠っていると疑うべき状況か否かを判定し、当該状況であると判定した場合に異常事象シミュレーションを発生させ、その対処を評価することが可能となる。したがって、車掌が行うべき安全確認を習得するための効果的な訓練が実現できる。 As described above, according to the present embodiment, the abnormal event simulation is not generated based on a predetermined scenario, but interruptively according to the gaze target of the trainee user 3 during the simulation. Anomalous event simulations can be generated. For example, in closing the train door, an abnormal event simulation is generated when the user 3 does not direct his / her line of sight to an object to be watched for safety confirmation. Specifically, the case where the user 3 did not confirm the ITV device or did not confirm by turning the line of sight to the entire side surface of the train was determined as an abnormality occurrence condition, and when the abnormality occurrence condition was satisfied, an abnormal event occurred. Simulations can be generated. In the present embodiment, it is possible to generate a rush simulation that causes a passenger to rush into a train and a rush simulation that causes a passenger or an object to be pinched at a train door. In addition, it is possible to evaluate whether the user 3 has appropriately dealt with the abnormal event related to the generated abnormal event simulation. That is, according to the present embodiment, it is determined from the gaze target of the user 3 whether or not the situation should be suspected of neglecting the safety confirmation necessary for the closing operation of the train door, and it is determined that the situation is the case. It is possible to generate anomalous event simulations and evaluate their countermeasures. Therefore, effective training for learning the safety confirmation that the conductor should perform can be realized.

なお、本発明を適用可能な実施形態は、上記に限らず適宜、構成要素を変更・追加・削除することができる。 The embodiment to which the present invention is applicable is not limited to the above, and the components can be changed, added, or deleted as appropriate.

例えば、シナリオデータ510で定義される設定には、設定値に適当な範囲を設けることで、実行されるシミュレーション毎に適度な変化が生じるようにしてもよい。例えば、乗客オブジェクト40については、出現タイミングや、動作パターンについて予め複数の選択肢を用意しておいて、コンピュータ1100が、シミュレーション実行時にはその選択肢のなかから何れかをランダムに(あるいは、タッチパネル1108からの選択操作に応じて)選択してシミュレーションに適用するとしてもよい。乗客オブジェクト40の種類や数、動作がシミュレーション毎に変化するようになるので、訓練者であるユーザ3がシミュレーションの内容を覚えてしまって訓練効果が下がることを防ぐことができる。環境設定データの設定についても同様である。 For example, in the setting defined in the scenario data 510, an appropriate range may be provided in the set value so that an appropriate change may occur for each simulation to be executed. For example, for the passenger object 40, a plurality of options are prepared in advance for the appearance timing and the operation pattern, and the computer 1100 randomly selects one of the options (or from the touch panel 1108) at the time of executing the simulation. It may be selected (depending on the selection operation) and applied to the simulation. Since the type, number, and movement of the passenger objects 40 change for each simulation, it is possible to prevent the user 3 who is a trainer from remembering the contents of the simulation and reducing the training effect. The same applies to the setting of environment setting data.

また、ユーザの位置や視線をトラッキングする構成は、適宜変更可能である。例えば、ユーザが装着する乗務員用帽子にマーカを配置し、画像処理によりマーカを検出することでユーザの位置をトラッキングすることとしてもよい。加えて、当該マーカの検出によって、ユーザの視線に相当するユーザの頭部の向きをトラッキングするとしてもよい。マーカとしては、例えば、AR(Augmented Reality)マーカを用いることができる。 In addition, the configuration for tracking the user's position and line of sight can be changed as appropriate. For example, a marker may be placed on a crew hat worn by the user, and the position of the user may be tracked by detecting the marker by image processing. In addition, the detection of the marker may track the direction of the user's head corresponding to the user's line of sight. As the marker, for example, an AR (Augmented Reality) marker can be used.

図15は、本変形例における車掌模擬訓練システムの訓練場1を上からみた模式図である。図15に示すように、本変形例の車掌模擬訓練システムは、撮像部としてのカメラ1050と、乗務員用帽子(鉄道用制帽)9の所定位置に配置されたマーカ91とを更に具備する。 FIG. 15 is a schematic view of the training field 1 of the conductor simulation training system in this modified example as viewed from above. As shown in FIG. 15, the conductor simulation training system of this modification further includes a camera 1050 as an image pickup unit and a marker 91 arranged at a predetermined position of a crew cap (railroad cap) 9.

カメラ1050は、模擬乗務員室セット1030の内外を撮影領域に含むように適当数、適当箇所に配置される。図15では、5台のカメラ1050が配置されている。 The cameras 1050 are arranged in an appropriate number and at appropriate locations so that the inside and outside of the simulated crew room set 1030 are included in the photographing area. In FIG. 15, five cameras 1050 are arranged.

マーカ91は、例えば、乗務員用帽子9の正面(帽章の位置)および左右両側(左右の耳章の位置)の3箇所に配置されている。マーカ91は、カメラ1050の撮影画像に基づき、当該マーカ51の識別が可能であり、且つ、カメラ1050からの距離および相対向き(相対姿勢)が検出可能な表示形態であれば何れのデザインを採用してもよい。例えば、基準方向を表面に表し、当該マーカ91を識別する特徴を有した所定サイズのデザインを採用することができる。二次元コード等であってもよい。 The markers 91 are arranged at three positions, for example, in front of the crew cap 9 (position of the cap badge) and on both the left and right sides (position of the left and right ear badges). The marker 91 adopts any design as long as the marker 51 can be identified based on the captured image of the camera 1050 and the distance from the camera 1050 and the relative orientation (relative posture) can be detected. You may. For example, it is possible to adopt a design of a predetermined size having a feature of displaying the reference direction on the surface and identifying the marker 91. It may be a two-dimensional code or the like.

そして、コンピュータ1100は、各カメラ1050の撮影画像から、各マーカ91の位置・向き(姿勢)を算出することで、乗務員用帽子9を装着したユーザの位置をトラッキングするとともに、当該ユーザの視線相当の頭部の向きをトラッキングする。 Then, the computer 1100 tracks the position of the user wearing the crew hat 9 by calculating the position / orientation (posture) of each marker 91 from the images taken by each camera 1050, and corresponds to the line of sight of the user. Track the orientation of your head.

すなわち、本変形例では、カメラ1050とマーカ91とが位置トラッキング計測部106に該当し、各カメラ1050の撮影画像を随時演算部200に出力する。そして、演算部200において位置トラッキング制御部206が、各カメラ1050の撮影画像内におけるマーカ91に基づいて、各マーカ91の位置・向き(姿勢)を算出することで、ユーザの位置をトラッキングする。具体的には、位置トラッキング制御部206は、カメラ1050の撮影画像を解析してマーカ91を検出・識別する。そして、識別したマーカ91の撮影画像内のサイズと実際のサイズ(規定サイズ)との比較、および、識別したマーカ91の撮影画像内の向きとカメラ1050の撮影向きとから、訓練場1における各マーカ91の位置・向き(姿勢)を算出することで、ユーザの位置座標(トラッキング位置)を求める。現実世界である訓練場1における位置や向きと、仮想現実空間における位置や向きとは対応付けられているため、最終的に求めるトラッキング位置は、必要に応じて、訓練場1と仮想現実空間との何れも求めることができる。 That is, in this modification, the camera 1050 and the marker 91 correspond to the position tracking measurement unit 106, and the captured image of each camera 1050 is output to the calculation unit 200 at any time. Then, in the calculation unit 200, the position tracking control unit 206 tracks the position of the user by calculating the position / orientation (posture) of each marker 91 based on the marker 91 in the captured image of each camera 1050. Specifically, the position tracking control unit 206 analyzes the captured image of the camera 1050 to detect and identify the marker 91. Then, from the comparison between the size in the captured image of the identified marker 91 and the actual size (specified size), and the orientation in the captured image of the identified marker 91 and the shooting orientation of the camera 1050, each in the training field 1. By calculating the position / orientation (posture) of the marker 91, the position coordinates (tracking position) of the user are obtained. Since the position and orientation in the training field 1 in the real world are associated with the position and orientation in the virtual reality space, the final tracking position to be obtained is, if necessary, the training field 1 and the virtual reality space. Any of these can be obtained.

また、本変形例では、カメラ1050とマーカ91とが視線トラッキング計測部104に該当する。そして、演算部200において視線トラッキング制御部204が、各カメラ1050の撮影画像におけるマーカ91に基づいて、ユーザの頭部の向きを当該ユーザの視線相当としてトラッキングする。具体的には、視線トラッキング制御部204は、前述のように各カメラ1050の撮影画像内で検出・識別したマーカ91の基準方向から当該マーカ91の当該カメラ1050に対する向きを求め、ユーザの頭部の向きを判定する。そして、判定した頭部の向きを視線方向と見なして、ユーザの視線方向(トラッキング視線)を推定する。現実世界である訓練場1における位置や向きと、仮想現実空間における位置や向きとは対応付けられているため、最終的に求めるトラッキング視線(視線方向)は、必要に応じて、訓練場1と仮想現実空間との何れも求めることができる。 Further, in this modification, the camera 1050 and the marker 91 correspond to the line-of-sight tracking measurement unit 104. Then, in the calculation unit 200, the line-of-sight tracking control unit 204 tracks the direction of the user's head as equivalent to the line-of-sight of the user based on the marker 91 in the captured image of each camera 1050. Specifically, the line-of-sight tracking control unit 204 obtains the direction of the marker 91 with respect to the camera 1050 from the reference direction of the marker 91 detected / identified in the captured image of each camera 1050 as described above, and the user's head. Determine the orientation of. Then, the determined direction of the head is regarded as the line-of-sight direction, and the line-of-sight direction (tracking line-of-sight) of the user is estimated. Since the position and orientation in the training field 1 in the real world are associated with the position and orientation in the virtual reality space, the tracking line of sight (line-of-sight direction) finally obtained is the training field 1 as needed. Any of them can be obtained in the virtual reality space.

本変形例によれば、乗務員用帽子9に配置されたマーカ91を撮影し、撮影画像内におけるマーカ91に基づいて、ユーザの位置をトラッキングすることができる。また、当該撮影画像内におけるマーカ91に基づいて、ユーザの頭部の向きを当該ユーザの視線相当としてトラッキングすることが可能となる。 According to this modification, the marker 91 arranged on the crew hat 9 can be photographed, and the position of the user can be tracked based on the marker 91 in the photographed image. Further, based on the marker 91 in the captured image, it is possible to track the direction of the user's head as equivalent to the line of sight of the user.

なお、マーカ91は、乗務員用帽子9の正面等に1つ配置する構成でもよいが、複数配置して位置トラッキングおよび視線トラッキングに用いることで、ユーザの位置および視線相当のトラッキング精度を高めることが可能となる。 Although one marker 91 may be arranged in front of the crew hat 9, a plurality of markers 91 may be arranged and used for position tracking and line-of-sight tracking to improve the tracking accuracy corresponding to the user's position and line-of-sight. It will be possible.

3…ユーザ
20…列車オブジェクト
22…車側灯オブジェクト
E…列車側面領域
30…ホーム関連オブジェクト
32…点字ブロックオブジェクト
34…ホーム外縁部オブジェクト
40…乗客オブジェクト
42…ITVオブジェクト
60…視点カメラ
70…注視対象履歴表示
72…模範注視履歴表示
74…評価結果
76(76-1,2)…異常対処評価結果
78…注視分類割合
79…模範分類割合
104…視線トラッキング計測部
106…位置トラッキング計測部
200…演算部
204…視線トラッキング制御部
206…位置トラッキング制御部
210…シミュレーション部
220…VR画像生成部
222…提示制御部
230…注視対象検出部
232…異常発生処理部
234…記録制御部
290…音生成部
292…管理画像生成部
304…視線トラッキング部
306…位置トラッキング部
320…VR画像表示部
500…記憶部
503…シミュレーションプログラム
510…シナリオデータ
600…シミュレーション制御データ
601…使用シナリオID
607…経過時間
609…トラッキングデータ
610…オブジェクト制御データ
630…ユーザ行動履歴データ
633…注視対象履歴データ
634…移動履歴データ
635…操作履歴データ
636…キータイミングリスト
637…異常事象発生データ
1000…車掌模擬訓練システム
1002…ヘッドフォン
1010…VRゴーグル
1012…アイトラッキング装置
1020…外部トラッキングセンサ
1030…模擬乗務員室セット
1040…車掌用模擬操作部
1042…開閉操作ボタン
1100…コンピュータ
3 ... User 20 ... Train object 22 ... Car side light object E ... Train side area 30 ... Home-related object 32 ... Braille block object 34 ... Home outer edge object 40 ... Passenger object 42 ... ITV object 60 ... Viewpoint camera 70 ... Gaze target History display 72 ... Model gaze history display 74 ... Evaluation result 76 (76-1, 2) ... Abnormal response evaluation result 78 ... Gaze classification ratio 79 ... Model classification ratio 104 ... Line-of-sight tracking measurement unit 106 ... Position tracking measurement unit 200 ... Calculation Unit 204 ... Line-of-sight tracking control unit 206 ... Position tracking control unit 210 ... Simulation unit 220 ... VR image generation unit 222 ... Presentation control unit 230 ... Gaze target detection unit 232 ... Abnormality generation processing unit 234 ... Recording control unit 290 ... Sound generation unit 292 ... Management image generation unit 304 ... Line-of-sight tracking unit 306 ... Position tracking unit 320 ... VR image display unit 500 ... Storage unit 503 ... Simulation program 510 ... Scenario data 600 ... Simulation control data 601 ... Usage scenario ID
607 ... Elapsed time 609 ... Tracking data 610 ... Object control data 630 ... User action history data 633 ... Gaze target history data 634 ... Movement history data 635 ... Operation history data 636 ... Key timing list 637 ... Abnormal event occurrence data 1000 ... Driver simulation Training system 1002 ... Headphones 1010 ... VR goggles 1012 ... Eye tracking device 1020 ... External tracking sensor 1030 ... Simulated crew room set 1040 ... Simulated crew room set 1040 ... Simulated operation unit for commander 1042 ... Open / close operation button 1100 ... Computer

Claims (6)

列車ドアの開閉操作ボタンが設置された模擬乗務員室セットと、
ユーザが装着するVR(Virtual Reality)ゴーグルと、
前記ユーザの視線をトラッキングする視線トラッキング部と、
制御装置と、
を具備し、
前記制御装置は、
仮想現実空間における前記開閉操作ボタンの操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションするシミュレーション部と、
前記視線トラッキング部によるトラッキング視線に基づいて、前記シミュレーション中の前記VRゴーグルに表示させるVR画像を生成するVR画像生成部と、
前記トラッキング視線および前記VR画像に基づいて、前記ユーザの前記仮想現実空間中の注視対象を検出する注視対象検出部と、
前記注視対象に基づく異常発生条件を満たした場合に、前記シミュレーション中に所与の異常事象シミュレーションを発生させる異常発生処理部と、
を有する、
車掌模擬訓練システム。
A simulated cockpit set with train door open / close operation buttons,
VR (Virtual Reality) goggles worn by the user,
The line-of-sight tracking unit that tracks the user's line of sight,
With the control device
Equipped with
The control device is
A simulation unit that simulates the conductor's work related to the arrival and departure of a virtual train at a station, including opening and closing of train doors and getting on and off passengers based on the operation of the open / close operation button in virtual reality space, based on a given scenario.
A VR image generation unit that generates a VR image to be displayed on the VR goggles during the simulation based on the tracking line of sight by the line-of-sight tracking unit.
A gaze target detection unit that detects a gaze target in the virtual reality space of the user based on the tracking line of sight and the VR image, and a gaze target detection unit.
An abnormality generation processing unit that generates a given abnormal event simulation during the simulation when the abnormality generation condition based on the gaze target is satisfied.
Have,
Train conductor simulation training system.
前記シミュレーション部は、前記仮想現実空間において、ホームに設置されたITV(Industrial TeleVision)装置の表示をシミュレーションし、
前記異常発生処理部は、所与のITV注視タイミングにおける前記注視対象として前記ITVが検出されなかったことを第1の異常発生条件として判定する、
請求項1に記載の車掌模擬訓練システム。
The simulation unit simulates the display of an ITV (Industrial TeleVision) device installed in a home in the virtual reality space.
The abnormality generation processing unit determines as the first abnormality generation condition that the ITV is not detected as the gaze target at a given ITV gaze timing.
The conductor simulation training system according to claim 1.
前記ITV注視タイミングは、前記開閉操作ボタンで閉操作がなされた直前の所定秒数の期間を少なくとも含む、
請求項2に記載の車掌模擬訓練システム。
The ITV gaze timing includes at least a predetermined number of seconds immediately before the closing operation is performed by the opening / closing operation button.
The conductor simulation training system according to claim 2.
前記ユーザ又は前記VRゴーグルの位置をトラッキングする位置トラッキング部、
を更に具備し、
前記模擬乗務員室セットは、模擬出入り口から出入りが可能に構成されており、
前記シミュレーション部は、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでをシミュレーションし、
前記VR画像生成部は、前記トラッキング視線および前記位置トラッキング部によるトラッキング位置に基づいて、前記VR画像を生成し、
前記異常発生処理部は、所与の列車側面注視タイミングにおける前記注視対象として列車側面が検出されなかったことを第2の異常発生条件として判定する、
請求項1~3の何れか一項に記載の車掌模擬訓練システム。
A position tracking unit that tracks the position of the user or the VR goggles,
Further equipped,
The simulated crew room set is configured so that it can be entered and exited from the simulated doorway.
The simulation unit simulates from the timing when the train reaches the platform of the station where the train is scheduled to stop until the train departs and leaves the station.
The VR image generation unit generates the VR image based on the tracking line of sight and the tracking position by the position tracking unit.
The abnormality generation processing unit determines as a second abnormality generation condition that the train side surface is not detected as the gaze target at a given train side gaze timing.
The conductor simulation training system according to any one of claims 1 to 3.
前記注視対象検出部は、列車前後方向に列車側面を区切った列車側面領域毎に注視対象として検出可能であり、
前記異常発生処理部は、列車前後方向に連続する前記列車側面領域が続けて前記注視対象として検出されなかったことを前記第2の異常発生条件として判定する、
請求項4に記載の車掌模擬訓練システム。
The gaze target detection unit can detect as a gaze target for each train side area that divides the side of the train in the front-rear direction of the train.
The abnormality generation processing unit determines as the second abnormality generation condition that the train side surface region continuous in the front-rear direction of the train is not continuously detected as the gaze target.
The conductor simulation training system according to claim 4.
前記異常事象シミュレーションは、前記列車への乗客の駆け込み乗車の発生、および/又は、前記列車ドアにおける乗客若しくは物の挟み込みの発生のシミュレーションである、
請求項1~5の何れか一項に記載の車掌模擬訓練システム。
The abnormal event simulation is a simulation of the occurrence of a passenger rushing into the train and / or the occurrence of a passenger or an object being caught in the train door.
The conductor simulation training system according to any one of claims 1 to 5.
JP2020152223A 2020-09-10 2020-09-10 Conductor simulation training system Pending JP2022046275A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020152223A JP2022046275A (en) 2020-09-10 2020-09-10 Conductor simulation training system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020152223A JP2022046275A (en) 2020-09-10 2020-09-10 Conductor simulation training system

Publications (1)

Publication Number Publication Date
JP2022046275A true JP2022046275A (en) 2022-03-23

Family

ID=80779822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020152223A Pending JP2022046275A (en) 2020-09-10 2020-09-10 Conductor simulation training system

Country Status (1)

Country Link
JP (1) JP2022046275A (en)

Similar Documents

Publication Publication Date Title
US10825350B2 (en) Virtual reality driver training and assessment system
Kashevnik et al. Driver distraction detection methods: A literature review and framework
JP5984605B2 (en) Railway simulator and method for simulating railway operation
US20220203996A1 (en) Systems and methods to limit operating a mobile phone while driving
JP2021530069A (en) Situational driver monitoring system
US20230347903A1 (en) Sensor-based in-vehicle dynamic driver gaze tracking
JP6319951B2 (en) Railway simulator, pointing motion detection method, and railway simulation method
JP7026902B2 (en) Program and train driving simulator
Goedicke et al. XR-OOM: MiXed Reality driving simulation with real cars for research and design
JP6702832B2 (en) Simulated driving device and simulated driving method
JP2021032942A (en) Simulator control device, train operation simulation system, train operation simulation method and program
JP2009181187A (en) Behavioral model creation device and program
JP2021051301A (en) Conductor simulation training system
JP2015064584A (en) Driver feeling estimation device and method
JP2011227242A (en) Drive simulation device, control program of drive simulation device, and control method of drive simulation device
Baltodano et al. Eliciting driver stress using naturalistic driving scenarios on real roads
JP2022046275A (en) Conductor simulation training system
KR20180127578A (en) Driving ability evaluation system for evaluating driving ability of examinee
Deng et al. On-road and in-vehicle delivery of service signs: Effects of information source and age
JP7281742B2 (en) Program and train driving simulator
Rakotonirainy et al. Using in-vehicle avatars to prevent road violence
Rothkrantz et al. An intelligent co-driver surveillance system
JP2003084660A (en) Conductor video switching system for train simulator on the side of simulation train
JP4750816B2 (en) Driving training device
JP7120964B2 (en) training system