JP2022046275A - Conductor simulation training system - Google Patents
Conductor simulation training system Download PDFInfo
- Publication number
- JP2022046275A JP2022046275A JP2020152223A JP2020152223A JP2022046275A JP 2022046275 A JP2022046275 A JP 2022046275A JP 2020152223 A JP2020152223 A JP 2020152223A JP 2020152223 A JP2020152223 A JP 2020152223A JP 2022046275 A JP2022046275 A JP 2022046275A
- Authority
- JP
- Japan
- Prior art keywords
- simulation
- train
- unit
- tracking
- conductor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Train Traffic Observation, Control, And Security (AREA)
Abstract
Description
本発明は、ユーザが車掌の模擬訓練を行うための車掌模擬訓練システムに関する。 The present invention relates to a conductor simulation training system for a user to perform a conductor simulation training.
車掌となるための、或いは車掌としての練度を上げるための訓練装置がある。例えば、訓練用に用意された模擬プラットフォームに、情景用表示装置と、停止位置目標表示装置と、を備える訓練装置がある(特許文献1、特許文献2を参照)。情景用表示装置には、訓練として用意されたシチュエーションにおいて、模擬列車の乗務員室から見えるであろう前方の情景画像が表示され、停止位置目標表示装置には、前方の情景画像と連動して当該状況における停止位置が移動する画像が表示される。
There is a training device to become a conductor or to improve the training as a conductor. For example, a simulated platform prepared for training includes a training device including a scene display device and a stop position target display device (see
駅への到着において車掌が行うべき必須動作として、例えば停止位置の確認がある。また、出発において車掌が行うべき必須動作として、例えば列車のドア閉めおよびその確認がある。これは必須動作の代表例であり、その他にも数多くの動作が要求され、特に安全確認に関しては徹底した習得が必要である。 One of the essential actions that the conductor should perform when arriving at a station is, for example, confirmation of the stop position. In addition, as essential actions that the conductor should perform at the time of departure, for example, there is closing the door of the train and its confirmation. This is a typical example of essential operation, and many other operations are required, and thorough learning is required especially for safety confirmation.
本発明が解決しようとする課題は、車掌模擬訓練システムにおいて、車掌が行うべき安全確認を効果的に習得することが可能な技術を提供すること、である。 An object to be solved by the present invention is to provide a technique capable of effectively learning the safety confirmation to be performed by the conductor in the conductor simulation training system.
上述した課題を解決するための第1の発明は、列車ドアの開閉操作ボタンが設置された模擬乗務員室セットと、ユーザが装着するVR(Virtual Reality)ゴーグルと、前記ユーザの視線をトラッキングする視線トラッキング部と、制御装置と、を具備し、前記制御装置は、仮想現実空間における前記開閉操作ボタンの操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションするシミュレーション部と、前記視線トラッキング部によるトラッキング視線に基づいて、前記シミュレーション中の前記VRゴーグルに表示させるVR画像を生成するVR画像生成部と、前記トラッキング視線および前記VR画像に基づいて、前記ユーザの前記仮想現実空間中の注視対象を検出する注視対象検出部と、前記注視対象に基づく異常発生条件を満たした場合に、前記シミュレーション中に所与の異常事象シミュレーションを発生させる異常発生処理部と、を有する、車掌模擬訓練システムである。 The first invention for solving the above-mentioned problems is a simulated crew room set in which an opening / closing operation button for a train door is installed, a VR (Virtual Reality) goggles worn by a user, and a line of sight that tracks the line of sight of the user. A tracking unit and a control device are provided, and the control device relates to a virtual train station arrival / departure including opening / closing of a train door and boarding / alighting of passengers based on an operation of the opening / closing operation button in a virtual reality space. A simulation unit that simulates the commander's work based on a given scenario, a VR image generation unit that generates a VR image to be displayed on the VR goggles during the simulation based on the tracking line of sight by the line-of-sight tracking unit, and the tracking unit. Given in the simulation when the gaze target detection unit that detects the gaze target in the virtual reality space of the user based on the line of sight and the VR image and the abnormality occurrence condition based on the gaze target are satisfied. It is a driver simulation training system having an abnormality generation processing unit that generates an abnormality event simulation.
第1の発明によれば、シミュレーション中、訓練者であるユーザが何処を見ていたのかに応じて、異常事象シミュレーションを発生させることができる。その場合、ユーザは、当該異常事象シミュレーションに係る異常事象に対処することになる。これによれば、車掌が行うべき安全確認を習得するための効果的な訓練が実現できる。 According to the first invention, it is possible to generate an abnormal event simulation depending on where the trainee user is looking during the simulation. In that case, the user will deal with the abnormal event related to the abnormal event simulation. According to this, effective training for learning the safety confirmation that the conductor should perform can be realized.
第2の発明は、前記シミュレーション部は、前記仮想現実空間において、ホームに設置されたITV(Industrial TeleVision)装置の表示をシミュレーションし、前記異常発生処理部は、所与のITV注視タイミングにおける前記注視対象として前記ITVが検出されなかったことを第1の異常発生条件として判定する、第1の発明の車掌模擬訓練システムである。 In the second invention, the simulation unit simulates the display of an ITV (Industrial TeleVision) device installed in a home in the virtual reality space, and the abnormality generation processing unit generates the gaze at a given ITV gaze timing. It is a conductor simulation training system of the first invention which determines that the ITV was not detected as a target as a first abnormality occurrence condition.
第2の発明によれば、ユーザがITV注視タイミングにITV装置を視認していない場合に、異常事象シミュレーションを発生させることができる。 According to the second invention, the abnormal event simulation can be generated when the user does not visually recognize the ITV device at the ITV gaze timing.
第3の発明は、前記ITV注視タイミングは、前記開閉操作ボタンで閉操作がなされた直前の所定秒数の期間を少なくとも含む、第2の発明の車掌模擬訓練システムである。 The third invention is the conductor simulation training system of the second invention, wherein the ITV gaze timing includes at least a period of a predetermined number of seconds immediately before the closing operation is performed by the opening / closing operation button.
第3の発明によれば、ユーザが列車ドアの閉操作をする直前にITV装置を視認していない場合に、異常事象シミュレーションを発生させることができる。 According to the third invention, the abnormal event simulation can be generated when the user does not visually recognize the ITV device immediately before closing the train door.
第4の発明は、前記ユーザ又は前記VRゴーグルの位置をトラッキングする位置トラッキング部、を更に具備し、前記模擬乗務員室セットは、模擬出入り口から出入りが可能に構成されており、前記シミュレーション部は、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでをシミュレーションし、前記VR画像生成部は、前記トラッキング視線および前記位置トラッキング部によるトラッキング位置に基づいて、前記VR画像を生成し、前記異常発生処理部は、所与の列車側面注視タイミングにおける前記注視対象として列車側面が検出されなかったことを第2の異常発生条件として判定する、第1~第3の何れかの発明の車掌模擬訓練システムである。 The fourth invention further includes a position tracking unit that tracks the position of the user or the VR goggles, and the simulated crew room set is configured to be able to enter and exit from a simulated entrance / exit. The VR image generation unit simulates from the timing when the train reaches the platform of the station where the train is scheduled to stop until the train leaves the station, and the VR image generation unit is based on the tracking line of sight and the tracking position by the position tracking unit. A VR image is generated, and the abnormality generation processing unit determines as a second abnormality occurrence condition that the train side surface is not detected as the gaze target at a given train side gaze timing, the first to third. It is a train operator simulation training system of any of the inventions.
第4の発明によれば、ユーザが列車側面注視タイミングに列車側面を視認していない場合に、異常事象シミュレーションを発生させることができる。 According to the fourth invention, the abnormal event simulation can be generated when the user does not visually recognize the train side surface at the train side surface gaze timing.
第5の発明は、前記注視対象検出部は、列車前後方向に列車側面を区切った列車側面領域毎に注視対象として検出可能であり、前記異常発生処理部は、列車前後方向に連続する前記列車側面領域が続けて前記注視対象として検出されなかったことを前記第2の異常発生条件として判定する、第4の発明の車掌模擬訓練システムである。 In the fifth aspect of the invention, the gaze target detection unit can detect the gaze target detection unit as a gaze target for each train side surface region that divides the train side surface in the front-rear direction of the train, and the abnormality generation processing unit is the train continuous in the front-rear direction of the train. This is the conductor simulation training system of the fourth invention, which determines as the second abnormality occurrence condition that the side surface region is not continuously detected as the gaze target.
第5の発明によれば、ユーザが列車前後方向に連続する列車側面領域を続けて視認していない場合に、異常事象シミュレーションを発生させることができる。 According to the fifth invention, the abnormal event simulation can be generated when the user does not continuously visually recognize the continuous train side surface region in the front-rear direction of the train.
第6の発明は、前記異常事象シミュレーションは、前記列車への乗客の駆け込み乗車の発生、および/又は、前記列車ドアにおける乗客若しくは物の挟み込みの発生のシミュレーションである、第1~第5の何れかの発明の車掌模擬訓練システムである。 A sixth aspect of the invention is any of the first to fifth aspects, wherein the abnormal event simulation is a simulation of the occurrence of a passenger rushing into the train and / or the occurrence of a passenger or an object being caught in the train door. This is the conductor simulation training system of the invention.
第6の発明によれば、列車への乗客の駆け込み乗車の発生のシミュレーションを、異常事象シミュレーションとして発生させることができる。また、列車ドアにおける乗客若しくは物の挟み込みの発生のシミュレーションを、異常事象シミュレーションとして発生させることができる。 According to the sixth invention, it is possible to generate a simulation of the occurrence of a passenger rushing into a train as an abnormal event simulation. In addition, a simulation of the occurrence of passengers or objects being caught in a train door can be generated as an abnormal event simulation.
以下、本発明の一つの実施形態を説明するが、本発明を適用可能な形態が以下の実施形態に限られないことは勿論である。 Hereinafter, one embodiment of the present invention will be described, but it goes without saying that the embodiment to which the present invention can be applied is not limited to the following embodiments.
図1は、車掌模擬訓練システム1000のシステム構成例を示す図である。
車掌模擬訓練システム1000は、仮想現実空間における開閉操作ボタンの操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションしたVR画像(仮想現実空間画像)を用いた訓練システムである。
FIG. 1 is a diagram showing a system configuration example of the conductor
The conductor
車掌模擬訓練システム1000は、ヘッドセット1002と、VR(Virtual Reality)ゴーグル1010と、外部トラッキングセンサ1020と、模擬乗務員室セット1030と、車掌用模擬操作部1040と、コンピュータ1100と、を有する。
The commander
ヘッドセット1002と、VRゴーグル1010と、外部トラッキングセンサ1020と、車掌用模擬操作部1040とは、有線或いは無線のネットワークNを介してコンピュータ1100とデータ通信可能に通信接続されている。
The
ヘッドセット1002は、訓練者であるユーザが装着する用具の一つである。ヘッドセット1002は、マイクロフォン1003と、ヘッドフォン1004と、を有する。
The
VRゴーグル1010は、ユーザが装着する用具の一つであって、コンピュータ1100によりシミュレーションされたユーザの一人称視点によるVR画像を表示するヘッドマウントディスプレイである。
The
VRゴーグル1010は、ユーザの視線方向をトラッキングするためのアイトラッキング装置1012と、ユーザの頭部の位置トラッキングおよび姿勢トラッキングをするための加速度センサ1014およびジャイロセンサ1016と、を内蔵する。VRゴーグル1010は、これらの装置やセンサによる計測データを逐次ネットワークNを介してコンピュータ1100へ送信する。
The
外部トラッキングセンサ1020は、ユーザを外部からセンシングするセンサ群であって、模擬乗務員室セット1030に対するVRゴーグル1010の相対位置と相対姿勢をトラッキングする。センサの種類は、採用するトラッキングの方式によって適宜設定可能であるが、例えば、画像センサ、距離センサ、等で実現できる。加速度センサ1014およびジャイロセンサ1016と外部トラッキングセンサ1020とによって、ユーザ又はVRゴーグル1010の位置がトラッキングされる。外部トラッキングセンサ1020は、VRゴーグル1010が内蔵するセンサで十分にトラッキング機能を実現できるならば省略することができる。
The
模擬乗務員室セット1030は、ユーザが訓練後に乗務する車両における乗務員室、およびその出入り口周りを再現した訓練用セットである。ユーザは、模擬乗務員室セット1030の模擬出入り口から出入りが可能である。そして、模擬乗務員室セット1030には、車掌用模擬操作部1040が備えられている。
The simulated crew room set 1030 is a training set that reproduces the crew room in the vehicle that the user is on board after training, and the area around the doorway thereof. The user can enter and exit from the simulated doorway of the simulated
車掌用模擬操作部1040は、実際の乗務員室に設置されて車掌が操作する操作部を模した操作入力装置である。車掌用模擬操作部1040は、例えば、列車ドアを開閉する開閉操作ボタン1042、運転士向けに所与の意図を伝える信号を発する信号ボタン、運転士と会話するための送受話装置、等を備える。車掌用模擬操作部1040が何を備えるかは、実際の車両の仕様に合わせて設定される。
The conductor simulated
コンピュータ1100は、車掌模擬訓練システム1000を統合的に制御する制御装置である。コンピュータ1100は、例えば、装置本体1101と、キーボード1106と、タッチパネル1108と、制御基板1150と、を備える。
The
制御基板1150は、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等の各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、通信装置1153が搭載されている。なお、制御基板1150の一部又は全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)、SoC(System on a Chip)により実現するとしてもよい。
The
そして、コンピュータ1100は、制御基板1150が所定のプログラムおよびデータに基づいて演算処理することにより、車掌模擬訓練システム1000を統合的に制御する。
Then, the
図2は、車掌模擬訓練システムの訓練場のセッティング例を示す図である。
訓練場には、模擬乗務員室セット1030が設置され、外部トラッキングセンサ1020が、模擬乗務員室セット1030の内外を計測領域に含むように適当数、適当箇所に配置されている。ユーザ3は、ヘッドセット1002と、VRゴーグル1010とを装着して、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでの様々なシチュエーションで車掌業務の訓練を行う。
FIG. 2 is a diagram showing an example of setting a training ground of a conductor simulation training system.
A simulated crew room set 1030 is installed in the training ground, and
図3は、コンピュータ1100により制御される仮想現実空間の例を示す図である。
コンピュータ1100は、3次元仮想現実空間を用意し、列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を、仮想現実として訓練するための各種オブジェクトを配置して、それらを制御する。
FIG. 3 is a diagram showing an example of a virtual reality space controlled by a
The
具体的には、コンピュータ1100は、車両関連オブジェクトの集合体である列車オブジェクト20と、ホーム関連オブジェクト30と、乗客オブジェクト40と、ITVオブジェクト42と、図示されていない背景オブジェクトと、を配置・制御する。
Specifically, the
列車オブジェクト20は、ユーザ3が将来乗務する実際の列車を再現している。列車オブジェクト20のうち客車とされる車両のオブジェクトについては、列車ドアそれぞれの上部に車側灯オブジェクト22が用意されている。車側灯オブジェクト22は、コンピュータ1100のシミュレーションにより仮想現実空間で点灯および消灯の制御がなされる。
The
ホーム関連オブジェクト30は、ホームの床面、柱、天井、軒、各種灯器類、線路、等およそ駅のホーム周辺を再現するための各種オブジェクトが含まれる。特に、ホーム関連オブジェクト30は、点字ブロックオブジェクト32と、ホーム外縁部オブジェクト34と、ホーム内側オブジェクト36と、を有する。
The home-related
そして、ホーム関連オブジェクト30のホーム床面には、単数または複数の乗客オブジェクト40が配置・制御される。乗客オブジェクト40が表す乗客の姿や形、乗客オブジェクト40の配置位置や配置数、乗客オブジェクト40の列車を待っている間の動作、乗客オブジェクト40が車両に乗り込むタイミング、乗客オブジェクト40が車両へ乗り込む動作、等は想定されるシチュエーションに応じて適宜設定可能である。
Then, a single or a plurality of passenger objects 40 are arranged and controlled on the home floor of the home-related
乗客オブジェクト40のバリエーションとして、例えば、駆け込みをする乗客や、乳母車を押して乗り込もうとする母子、大きな荷物をもった旅行客、杖をついているご老人、団体行動する小学生、等を適宜設定できる。老若男女・体格も様々に設定できる。そして、それぞれの乗客オブジェクト40は、その乗客の姿形に合わせた動作が個別にコンピュータ1100により制御される。
As a variation of the
また、ホーム関連オブジェクト30により形成されるホームのどこかに、ITVオブジェクト42が設定されている。図3の例では、ITVオブジェクト42は、ホーム床面から支柱で支持されるタイプのITV装置を模しているが、天井吊り下げタイプのITV装置を模してもよい。
Further, the
なお、仮想現実空間には、ユーザ3の視点に相当する視点カメラ(仮想カメラ)も配置される。図3では、理解を容易にするためにユーザ3の姿とVRゴーグル1010等を図示しているが、ユーザ3の左右の眼の位置に、それぞれ視点カメラが配置されているものとする。そして、それらの視点カメラは、コンピュータ1100により、VRゴーグル1010に係るトラッキングに連動して位置や姿勢が制御される。因みに、図3中、破線で描かれた矩形は、視点カメラによる撮影範囲である。言い換えると、破線で描かれた矩形は、VRゴーグル1010で表示されるユーザ視界のVR画像の範囲である。ユーザ3には、このユーザ視界のVR画像のみが見えており、VRゴーグル1010の姿勢(向き)や位置の変化に応じてVR画像(ユーザ視界)が変化することとなる。
A viewpoint camera (virtual camera) corresponding to the viewpoint of the
図4は、車掌模擬訓練システム1000におけるユーザ3の行動の記録について説明するための図である。
VRゴーグル1010が内蔵するアイトラッキング装置1012は、ユーザ3の視線方向を求めるために必要な計測を連続的に行う。そして、VRゴーグル1010がその計測データをコンピュータ1100へ送信する。また、VRゴーグル1010が内蔵する加速度センサ1014とジャイロセンサ1016もまた、連続的に計測を行い、VRゴーグル1010がそれらの計測データをコンピュータ1100へ送信する。また、外部トラッキングセンサ1020も、連続的に計測を行って計測データをコンピュータ1100へ送信する。
FIG. 4 is a diagram for explaining a record of the behavior of the
The
コンピュータ1100は、外部トラッキングセンサ1020の計測データから、模擬乗務員室セット1030に対するVRゴーグル1010の相対位置と相対姿勢をトラッキングし、加速度センサ1014とジャイロセンサ1016の計測データを用いて、VRゴーグル1010の相対位置と相対姿勢のトラッキングの精度を高める。
The
そして、コンピュータ1100は、VRゴーグル1010の相対位置と相対姿勢に基づいて仮想現実空間における視点カメラ60の位置と姿勢の1次連動制御を行い、アイトラッキング装置1012の計測データに基づいて視点カメラ60の姿勢の2次連動制御を行う。コンピュータ1100は、2次連動制御において、1次連動制御で制御された結果を元に更に詳細にユーザ3の視線と視点カメラ60の撮影方向とが、ユーザ3の現実での視線変化と連動するように制御する。つまり、仮想現実空間におけるユーザ3の頭部の位置や姿勢は、現実世界におけるVRゴーグル1010の位置や姿勢とリアルタイムにリンク・連動しており、仮想現実空間における視点カメラ60の撮影方向は、現実世界におけるユーザ3の視線方向とリンク・連動している。
Then, the
車掌模擬訓練システム1000では、この視点カメラ60の撮影方向(カメラ座標系の深度方向)がユーザ3の視線方向に一致することを利用して、訓練実行中、常時、ユーザ3がその時々に注視している対象(注視対象)をVR画像中から検出し(図4の例ではITVオブジェクト42)、その結果を注視対象履歴データ633として、時系列に記録する。図5は、注視対象履歴データ633の記録内容の一例を示す図であり、図6は、図5中に破線で囲って示す経過時間帯における列車側面についての記録内容を拡大した図である。
In the commander
この注視対象履歴データ633の記録のために、コンピュータ1100は、視点カメラ60の撮影方向を視点カメラ60からトレースして、最初にヒットしたオブジェクト(視線方向の先直近に位置するオブジェクト)を、そのときユーザ3が注視している注視対象として検出する。勿論、アイトラッキング装置1012のセンシングの分解能が十分であれば、コンピュータ1100は、右眼用の視点カメラ60の撮影方向と、左眼用の視点カメラ60の撮影方向との交差位置に最も近い位置にあるオブジェクトを注視対象として検出するとしてもよい。
In order to record the gaze
より詳細には、列車オブジェクト20については、そのホーム側の列車側面を列車前後方向に区切った列車側面領域単位で、注視対象の検出を行う。図7は、列車オブジェクト20についての注視対象の検出を説明する図である。本実施形態では、例えば、列車側面の全域を列車前後方向に沿って所定長ずつ区切った各領域Eを、それぞれ列車側面領域1~4とする。そして、各列車側面領域Eの単位で注視対象を検出することで、列車側面の全域を注視したか否かの判別を可能とする。
More specifically, for the
そして、コンピュータ1100は、図5に示すように、注視対象のオブジェクトの分類(車両関連/ホーム関連/ITVの少なくとも3つを含む)と、注視対象のオブジェクトの種類と、シミュレーション開始からの経過時間と、を対応づけて、注視対象履歴データ633に蓄積・記録していく。車両関連のうちの列車オブジェクト20については、図6に拡大して例示するように、図7に示した1~4の列車側面領域E毎に経過時間の記録を行う。
Then, as shown in FIG. 5, the
また、コンピュータ1100は、VRゴーグル1010の模擬乗務員室セット1030に対する相対位置を、現実世界におけるユーザ3の代表位置と見なし、VRゴーグル1010の位置と連動制御される視点カメラ60の位置を、仮想現実空間におけるユーザ3の位置と見なして、仮想現実空間におけるユーザ3の移動履歴データ634を蓄積・記録する。
Further, the
また、車掌用模擬操作部1040は、操作入力の種類に応じた操作入力信号をコンピュータ1100へ出力する。コンピュータ1100は、訓練中、車掌用模擬操作部1040への操作入力を常時監視しており、操作入力を検出すると、その時のシミュレーション開始からの経過時間を、操作を行った操作タイミングとして、操作履歴データ635に蓄積・記録する。操作履歴データ635には、列車ドアを開ける操作をしたタイミングである開操作タイミング、列車ドアを閉じる操作をしたタイミングである閉操作タイミング、安全に列車ドアが閉じられたことを運転士に知らせる安全通知操作タイミング、の少なくとも3種類の操作タイミングが記録される。
Further, the conductor simulated
また、コンピュータ1100は、これらの履歴データの記録とは別に、シミュレーションされている状況におけるキータイミングをキータイミングリスト636として記録する。
キータイミングとは、車掌行動を評価する上で利用される時間軸上のタイミングである。本実施形態では、キータイミングとして、列車が停止した停止タイミングと、列車が発車した出発タイミングと、を記録する。勿論、これら以外のタイミングも適宜含めることができる。コンピュータ1100は、シミュレーションの最後に、これらのキータイミングと、上述した各種履歴データに記録されている内容とを比較することで、ユーザ3が適切なタイミングで注意するべきものに注意を払っているか(視線を向けているか)を評価する。
Further, the
The key timing is the timing on the time axis used to evaluate the conductor behavior. In the present embodiment, the stop timing at which the train stops and the departure timing at which the train departs are recorded as key timings. Of course, timings other than these can be included as appropriate. At the end of the simulation, the
また、本実施形態では、コンピュータ1100は、シミュレーション中において注視対象に基づく異常発生条件を満たした場合に、割り込み処理として所与の異常事象シミュレーションを発生させる異常発生処理を行う。そして、この異常発生処理において、当該発生させた異常事象シミュレーションに係る異常事象発生データ637を生成し、異常事象シミュレーション毎に記録しておく。
Further, in the present embodiment, the
ここで、開閉操作ボタン1042による列車ドアの閉操作にあたっては、列車への乗客の駆け込み乗車に注意を払ったり、駆け込み乗車等によって列車ドアへの乗客や物の挟み込みが生じていないか(車側灯が点灯したか)といった安全確認を、列車ドア毎に行う必要がある。一方で、列車の長さ等によっては、乗務員室の出入口付近で列車側面に視線を向けるだけでは全ての列車ドア付近の状況を視認できない場合もある。そのような場合は、見えない列車ドアが視界に入るようにホーム上を移動したり、ITV装置の表示を見る等して安全確認を行う。
Here, when closing the train door with the open /
そこで、本実施形態の異常発生処理では、コンピュータ1100は、「所与のITV注視タイミングにおける注視対象としてITV装置が検出されなかったこと」を第1の異常発生条件として判定する。ITV注視タイミングは、開閉操作ボタン1042で閉操作がなされた直前の所定秒数の期間を少なくとも含むように設定される。例えば、閉操作の2秒前から閉操作後3秒が経過するまでの期間を、ITV注視タイミングとする。
Therefore, in the abnormality generation processing of the present embodiment, the
具体的には、コンピュータ1100は、ITV注視タイミングの期間が経過した時点で注視対象履歴データ633を参照し、当該期間の注視対象としてITV装置が設定されているか否かを判定する。そして、設定されていなければ検出されなかったとして、第1の異常発生条件を肯定判定する。
Specifically, the
また、本実施形態では、「所与の列車側面注視タイミングにおいて、列車前後方向に連続する列車側面領域が続けて注視対象として検出されなかったこと」を第2の異常発生条件として判定する。列車側面注視タイミングは、列車が駅に停車してから発車するまでの間の期間として設定される。例えば、開閉操作ボタン1042の閉操作の2秒前から閉操作後3秒が経過するまでの期間を、列車側面注視タイミングとする。
Further, in the present embodiment, it is determined as the second abnormality occurrence condition that "at a given train side gaze timing, the train side area continuous in the front-rear direction of the train was not continuously detected as a gaze target". The train side gaze timing is set as the period from when the train stops at the station to when it departs. For example, the period from 2 seconds before the closing operation of the opening /
具体的には、コンピュータ1100は、列車側面注視タイミングの期間が経過した時点で注視対象履歴データ633を参照し、当該期間の注視対象を読み出す。そして、当該期間において、連続する列車側面領域Eを続けて注視したかどうかの判定を行う。例えば、本実施形態では、全ての列車側面領域Eが図7に向かって右端から左端まで順番に注視対象として設定されている場合や、左端から右端まで順番に注視対象として設定されている場合に、第2の異常発生条件を否定判定する。図6では、後者の例を示している。何れの場合にも該当しなければ、第2の異常発生条件を肯定判定する。つまり、ユーザ3が列車の一端側から他端側へと視線をずらしながら列車側面の全域を視認していれば、第2の異常発生条件を満たさないと判定する。なお、列車側面の全域ではなく、列車後方から所定の範囲の列車側面を注視対象として第2の異常発生条件を設定してもよい。シミュレーション対象の駅ホームの形状やホーム上の混雑状況等によっては列車先頭まで見通せない場合があること、列車先頭まで見通せない場合にはITV装置を視認しているかの第1の異常発生条件で、列車側面全域の安全確認を行った否かを補完して判定できること、による。
Specifically, the
そして、コンピュータ1100は、第1の異常発生条件を満たし、第2の異常発生条件も満たした場合に、割り込み処理として異常事象シミュレーションを発生させる。例えば、列車への乗客の駆け込み乗車の発生のシミュレーション(以下「駆け込みシミュレーション」という)、又は列車ドアにおける乗客若しくは物の挟み込みの発生のシミュレーション(以下「挟み込みシミュレーション」という)を発生させる。何れを発生させるのかは、例えばランダムに選んで決定する。
Then, the
その後は、当該発生させた異常事象シミュレーションに係る異常事象発生データ637を生成し、異常事象シミュレーション毎に記録しておく。具体的には、1つの異常事象発生データ637は、当該異常事象シミュレーションを発生させた時点の経過時間(シミュレーション時刻ともいえる)と、当該異常事象シミュレーションの種類(駆け込みシミュレーション又は挟み込みシミュレーション)と、当該異常事象シミュレーションに係る異常事象の発生に対するユーザ3の対処内容とを、を記録する。基本的には、乗客の駆け込み乗車が発生した場合や列車ドアへの乗客や物の挟み込みが発生した場合には、列車ドアの開操作を行う。そのため、対処内容は、当該異常事象の発生時に、開閉操作ボタン1042による列車ドアの開操作がなされたか否かの情報を含む。
After that, the abnormal
なお、第1の異常発生条件および第2の異常発生条件の両方を満たした場合に限らず、何れか一方を満たした場合に異常事象シミュレーションを発生させることとしてもよい。また、第1の異常発生条件のみを判定して異常事象シミュレーションを発生させるとしてもよいし、第2の異常発生条件のみを判定して異常事象シミュレーションを発生させるのでもよい。 It should be noted that the abnormality event simulation may be generated not only when both the first abnormality occurrence condition and the second abnormality occurrence condition are satisfied, but also when either one is satisfied. Further, only the first abnormality occurrence condition may be determined to generate the abnormal event simulation, or only the second abnormality occurrence condition may be determined to generate the abnormal event simulation.
また、第2の異常発生条件は、上記の条件内容に限らず、「列車側面注視タイミングにおける注視対象として列車側面が検出されなかったこと」等としてもよい。そして、例えば、列車側面注視タイミングの期間において全ての列車側面領域Eが注視対象として設定されていない場合、第2の異常発生条件を肯定判定するとしてもよい。つまり、列車の一端側から他端側まで続けて見ていなくても、その全域に視線を向けていれば、第2の異常発生条件を満たさないと判定する構成としてもよい。 Further, the second abnormality occurrence condition is not limited to the above-mentioned condition content, and may be "the train side surface was not detected as a gaze target at the train side gaze timing" or the like. Then, for example, when all the train side surface regions E are not set as the gaze targets during the train side gaze timing period, the second abnormality occurrence condition may be determined affirmatively. That is, even if the train is not continuously viewed from one end side to the other end side, it may be determined that the second abnormality occurrence condition is not satisfied as long as the line of sight is directed to the entire area.
また、異常事象シミュレーションとして駆け込みシミュレーションおよび挟み込みシミュレーションの両方を発生させるとしてもよいし、両方を発生させるのか何れか一方を発生させるのかをランダムに決定するとしてもよい。 Further, both the rush simulation and the pinch simulation may be generated as the abnormal event simulation, or it may be randomly determined whether to generate both or one of them.
図8~図11は、シミュレーション後の提示例を示す図である。
コンピュータ1100は、シミュレーション終了後に、ユーザ3の行動の記録等に基づいて幾つかの提示を行う。提示(表示)は、VRゴーグル1010で行うこととして説明するが、タッチパネル1108で行うこととしてもよい。
8 to 11 are diagrams showing an example of presentation after simulation.
After the simulation is completed, the
例えば、図8に示すように、第1の提示として、注視対象履歴表示70を行う。具体的には、コンピュータ1100が、仮想現実空間におけるユーザ3の視界範囲正面所定位置に、注視対象履歴表示70のオブジェクトを配置する。注視対象履歴表示70では、横軸をシミュレーション開始からの経過時間として、注視対象別にどのタイミングで注視対象となっていたかを示す。また、注視対象履歴表示70では、横軸の経過時間に、操作タイミング(開操作タイミングT2、閉操作タイミングT3、安全通知操作タイミングT4等)とキータイミング(停止タイミングT1、出発タイミングT5等)が表示される。加えて、シミュレーション中に異常事象を発生させた場合には、その発生タイミングT10も表示される。図8では、異常事象シミュレーションの発生後に列車ドアの開操作がなされておらず、その異常事象に適切に対処していない例を示している。
For example, as shown in FIG. 8, the gaze
注視対象履歴表示70が提示されることにより、ユーザ3は、列車がホームに進入してから停車するまで、停車してから列車ドアを開けるまで、列車ドアを開けてから閉じるまで、列車ドアを閉じて安全通知が終わり出発するまで、列車が出発した後の5つの状況変化のタイミングを目安にしつつ、それぞれの状況でいつ、何に注視していたかを知ることができる。さらに、異常事象シミュレーションの発生があった場合には、ユーザ3は、その直前のITV装置や列車側面を注視すべきときに(ITV注視タイミングや列車側面注視タイミングにおいて)何に注視していたのかを知ることができる。
By presenting the gaze
また、コンピュータ1100は、注視対象履歴表示70の提示とともに、教師役の別ユーザが同じシミュレーションを行って得られた注視対象履歴データ633を教師データと見なした模範注視履歴表示72を提示する。具体的には、コンピュータ1100が、仮想現実空間におけるユーザ3の視界範囲正面所定位置(例えば、注視対象履歴表示70のオブジェクトと並んだ位置)に、模範注視履歴表示72のオブジェクトを配置する。
Further, the
ユーザ3は、注視対象履歴表示70と模範注視履歴表示72とを見比べることで、どのタイミングで注視するべきものを見ていなかったかや、注視すべき対象を注視した頻度の多少、等を知ることができる。その知見を次回の訓練に活かすことで、ユーザ3は、高い訓練効果を得ることとなる。
By comparing the gaze
また、注視対象履歴表示70の提示に伴い、コンピュータ1100は、例えば図9に示すように、特に注視すべき対象として要求される注視対象(特定の注視対象)について注視したか否かの評価結果74を、第2の提示として提示する。評価結果74は、ユーザ3が、適切なタイミングで特定の注視対象について注視できたかを示す。コンピュータ1100が、仮想現実空間におけるユーザ3の視界範囲正面所定位置に、評価結果74の表示を行うオブジェクトを配置する。図9では、注視できていた場合には「○」を、注視できていなかった場合には「×」を示す例を示しているが、評価の表し方はこれに限らない。
Further, with the presentation of the gaze
ここで言う「特定の注視対象」を注視すべき適切なタイミングは、適宜設定可能である。例えば、車掌用模擬操作部1040の開閉操作ボタン1042(図2参照)への操作入力に応じて車側灯オブジェクト22の点灯が変わったタイミングの直後所定時間内(例えば閉操作タイミングT3から所定時間内)における、車側灯オブジェクト22がこれに該当する。コンピュータ1100は、ユーザ3が、当該所定時間内に、車側灯オブジェクト22を注視していれば、列車のドアを閉じた後に、車側灯が全て消えているかの確認をしたと見なし、車側灯オブジェクト22に係る注視を行っていた(より正確には、適切なタイミングで行っていた)と評価する。
The appropriate timing for paying attention to the "specific gaze target" referred to here can be appropriately set. For example, within a predetermined time immediately after the timing when the lighting of the vehicle
また例えば、発車して列車が駅を離れるまでの間(経過時間で見ると出発タイミングT5以降)における、ホーム外縁部オブジェクト34(図2参照)も、特定の注視対象に該当する。コンピュータ1100は、ユーザ3が、列車が発車して駅を離れるまで(例えば所定時間)の間のうち、所定割合以上、ホーム外縁部を注視していれば、走行を始めた列車とホームに残った乗客との接触の有無や、列車とホームとの隙間にモノが挟まっていないかの確認をしていると見なし、ホーム外縁部オブジェクト34に係る注視を行っていた(より正確には、適切なタイミングで行っていた)と評価する。
Further, for example, the platform outer edge object 34 (see FIG. 2) during the period from departure to the time when the train leaves the station (departure timing T5 or later in terms of elapsed time) also corresponds to a specific gaze target. The
また例えば、出発タイミングT5以降の列車が駅を離れてゆく過程に該当する経過時間帯での、ホーム関連オブジェクト30(特に、線路オブジェクト)も、これに該当する。コンピュータ1100は、ユーザ3が、当該経過時間帯において、ホーム関連オブジェクト30、特に線路オブジェクトを注視していれば、ユーザ3が、列車が駅を離れた後の後方線路の確認をしたと見なし、適切なタイミングで後方線路の確認ができたと評価する。
Further, for example, the home-related object 30 (particularly, the railroad track object) in the elapsed time zone corresponding to the process in which the train leaving the station after the departure timing T5 also corresponds to this. If the
また、コンピュータ1100は、シミュレーション中に異常事象シミュレーションを発生させた場合には、例えば図10に示すように、当該異常事象シミュレーションの発生に対してユーザ3が適切に対処したか否かの異常対処評価結果76(76-1又は76-2)を、第3の提示として提示する。具体的には、駆け込みシミュレーションを発生させた場合には、乗客の駆け込み乗車に対して適切に対処したか否かの異常対処評価結果76-1を提示する。挟み込みシミュレーションを発生させたのであれば、列車ドアにおける乗客若しくは物の挟み込みに対して適切に対処したか否かの異常対処評価結果76-1を提示する。例えば、異常事象発生データ637をもとに、その異常事象の発生時にユーザ3が開閉操作ボタン1042によって列車ドアの開操作をしていれば「○」、していなければ「×」等として提示することができる。
Further, when the
また、例えば図11に示すように、コンピュータ1100は、注視対象を車両関連/ホーム関連/ITVの少なくとも3つに分類して、注視対象とされた各分類の時間的割合を提示する注視分類割合78を、第4の提示として提示する。なお、分類の数は、図11では4つとしているが、5つ以上であってもよい。
Further, for example, as shown in FIG. 11, the
そして、コンピュータ1100は、教師役の別ユーザが同じシミュレーションを行って得られた注視対象履歴データ633に基づいて、模範分類割合79を比較表示する。よって、先の注視履歴に係る比較提示と同様に、高い訓練効果が得られるようになる。
Then, the
図12は、車掌模擬訓練システム1000の機能構成例を示す機能ブロック図である。
車掌模擬訓練システム1000は、管理操作入力部100と、車掌操作入力部102と、車掌音声入力部103と、視線トラッキング計測部104と、位置トラッキング計測部106と、演算部200と、VR画像表示部320と、音出力部390と、管理画像表示部392と、記憶部500と、を有する。
FIG. 12 is a functional block diagram showing a functional configuration example of the conductor
The conductor
管理操作入力部100は、車掌模擬訓練システム1000のシステム管理のための操作入力(例えば、シミュレーションするシナリオの選択操作入力、シミュレーションを行うユーザが教師であるか訓練者であるかの選択操作入力、等)を受け付け、操作入力信号を演算部200へ出力する。図1の例では、キーボード1106,タッチパネル1108がこれに該当する。
The management
車掌操作入力部102は、シミュレーション中のユーザ3が車掌として行う各種操作入力を受け付け、操作入力信号を演算部200へ出力する。図1の例では、開閉操作ボタン1042等を備えた車掌用模擬操作部1040がこれに該当する。
The conductor
車掌音声入力部103は、シミュレーション中のユーザ3が車掌としてシミュレーション中のユーザ3が車掌として発した声の音声信号を、演算部200へ出力する。図1の例では、ヘッドセット1002のマイクロフォン1003がこれに該当する。
The conductor
視線トラッキング計測部104は、ユーザ3の視線をトラッキングするための計測を行い、計測データを演算部200へ出力する。図1の例では、VRゴーグル1010に組み込まれたアイトラッキング装置1012がこれに該当する。なお、VRゴーグル1010の正面方向をユーザ3の視線方向と見なす構成としてもよく、その場合は、VRゴーグル1010が内蔵する加速度センサ1014やジャイロセンサ1016、外部トラッキングセンサ1020がこれに該当することになる。
The line-of-sight
位置トラッキング計測部106は、ユーザ3の現実世界における位置を計測し、計測データを演算部200へ出力する。図1の例では、VRゴーグル1010が内蔵する加速度センサ1014やジャイロセンサ1016、外部トラッキングセンサ1020がこれに該当する。
The position tracking
演算部200は、例えばCPUやGPU等のマイクロプロセッサや、ICメモリ等の電子部品によって実現され、各種の操作入力部や、各種の計測部、記憶部500との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、管理操作入力部100および車掌操作入力部102からの操作入力信号、車掌音声入力部103からの音声信号入力、視線トラッキング計測部104および位置トラッキング計測部106からの計測データ、等に基づいて各種の演算処理を実行して、車掌模擬訓練システム1000の動作を制御する。図1の例では、コンピュータ1100の制御基板1150がこれに該当する。
The
そして、本実施形態における演算部200は、視線トラッキング制御部204と、位置トラッキング制御部206と、シミュレーション部210と、VR画像生成部220と、提示制御部222と、注視対象検出部230と、異常発生処理部232と、記録制御部234と、計時部280と、音生成部290と、管理画像生成部292と、を備える。
The
視線トラッキング制御部204は、視線トラッキング計測部104による計測データに基づいて、視線トラッキングのための演算処理を行い、仮想現実空間でのトラッキング視線(例えば、視線方向ベクトル)を求める。すなわち、視線トラッキング計測部104と視線トラッキング制御部204は、VRゴーグル1010に組み込まれたアイトラッキング装置に基づいてユーザ3の視線をトラッキングする視線トラッキング部304を構成する。視線トラッキング部304は、アイトラッキング装置を用いずに構成することもできる。例えば、VRゴーグル1010の正面方向(すなわち頭部の正面方向)を視線方向と見なして、位置トラッキングおよび姿勢トラッキングから当該視線方向を推定することで視線トラッキングを実現する視線トラッキング部304としてもよい。
The line-of-sight
位置トラッキング制御部206は、位置トラッキング計測部106による計測データに基づいて、位置トラッキングのための演算処理を行い、仮想現実空間でのユーザ3の位置座標(トラッキング位置)を求める。すなわち、位置トラッキング計測部106と位置トラッキング制御部206は、ユーザ3(又はVRゴーグル1010)の位置をトラッキングする位置トラッキング部306を構成する。
The position
シミュレーション部210は、仮想現実空間における開閉操作ボタン1042の操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションし、仮想現実空間に配置した各種のオブジェクトを制御する。具体的には、シミュレーション部210は、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでをシミュレーションする。そして、それに伴って、シミュレーション部210は、仮想現実空間において、ホームに設置されたITV装置が表示する内容もシミュレーションする。
The
VR画像生成部220は、視線トラッキング部304によるトラッキング視線および位置トラッキング部306によるトラッキング位置に基づいて、シミュレーション中のVRゴーグル1010に表示させるVR画像を生成し、表示制御信号をVR画像表示部320へ出力する。
The VR
VR画像表示部320は、VR画像を表示するための画像表示デバイスである。図1の例では、VRゴーグル1010がこれに該当する。
The VR
提示制御部222は、シミュレーション後に、注視対象の時系列変化および開閉操作ボタン1042の操作タイミングを訓練者であるユーザ3に提示するための表示制御を行う。提示制御部222は、訓練結果を「評価」する評価部223を有する。
After the simulation, the
本実施形態では、VRゴーグル1010にて提示を行うので、提示制御部222が、仮想空間のうちトラッキング視線の正面所定位置に、提示(注視対象履歴表示70、模範注視履歴表示72、評価結果74、異常対処評価結果76、注視分類割合78、模範分類割合79)に係るオブジェクトを配置すると、必然的に、VR画像生成部220は、当該提示に係るオブジェクトを含むVR画像を生成する。
In the present embodiment, since the presentation is performed by the
注視対象検出部230は、トラッキング視線およびVR画像に基づいて、ユーザ3の仮想現実空間中の注視対象を検出する。具体的には、コンピュータ1100は、仮想現実空間に配置されているオブジェクトの中から、視点カメラ60からのトラッキング視線(視線ベクトル)が最初に交わったオブジェクトを注視対象として検出する。また、注視対象検出部230は、注視対象を、車両関連/ホーム関連/ITVの少なくとも3つに分類し、分類結果を記録する。なお、視点カメラ60からのトラッキング視線が所定時間(例えば0.5秒や1.0秒)以上連続的に交わっている(視線が停留している)オブジェクトを注視対象と検出する構成としてもよい。
The gaze
異常発生処理部232は、異常発生処理を行う機能部であり、注視対象に基づく異常発生条件を満たした場合に、シミュレーション中に割り込み処理として所与の異常事象シミュレーションを発生させる。
The abnormality
記録制御部234は、シミュレーション中のユーザ3の行動履歴と、行動履歴の評価に必要な各種データを記録・管理する。具体的には、記録制御部234は、注視対象履歴データ633、移動履歴データ634、操作履歴データ635、キータイミングリスト636、異常事象発生データ637等の記録と管理の制御を行う(図4参照)。
The
計時部280は、システムクロックを利用してシミュレーション時刻や制限時間、シミュレーション開始からの経過時間等の計時を行う。
The
音生成部290は、例えばデジタルシグナルプロセッサ(DSP)や、音声合成IC等のプロセッサ、音声ファイルを再生可能なオーディオコーデック等によって実現され、シミュレーションされた環境音、各種操作音の音信号を生成し、音出力部390に出力する。
The
音出力部390は、音生成部290から入力される音信号に基づいて音出力(放音)する装置によって実現される。図1の例ではヘッドセット1002のヘッドフォン1004がこれに該当する。
The
管理画像生成部292は、車掌模擬訓練システム1000の管理に係る各種画像データの生成および管理画像表示部392にそれらの画像を表示させるための画像信号の生成出力等の制御を行う。
The management
管理画像表示部392は、管理画像生成部292から入力される画像信号に基づいて車掌模擬訓練システム1000の管理に係る各種画像を表示する。例えば、フラットパネルディスプレイ、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。本実施形態では、図1のタッチパネル1108がこれに該当する。
The management
記憶部500は、演算部200に車掌模擬訓練システム1000を統合的に制御させるための諸機能を実現するためのプログラムや、各種データ等を記憶する。また、演算部200の作業領域として用いられ、演算部200が各種プログラムに従って実行した演算結果や演算部200へ入力される各種データ等を一時的に記憶する。こうした機能は、例えばRAMやROM等のICメモリ、ハードディスク等の磁気ディスク、CD-ROMやDVD等の光学ディスク等によって実現される。図1の例では、制御基板1150が搭載するICメモリ1152がこれに該当する。オンラインストレージを利用する構成も可能である。
The
図13は、記憶部500が記憶するプログラムやデータの例を示す図である。記憶部500は、シミュレーションプログラム503と、シナリオデータ510と、シミュレーション制御データ600と、ユーザ行動履歴データ630と、教師データ700と、訓練を行った日時を管理するための現在日時800と、を記憶する。勿論、これら以外のプログラムやデータも適宜記憶することができる。
FIG. 13 is a diagram showing an example of a program and data stored in the
シミュレーションプログラム503は、演算部200に、車掌模擬訓練システム1000を統合的に制御させるための諸機能(視線トラッキング制御部204~管理画像生成部292;図12参照)を実現させる。
The
シナリオデータ510は、シミュレーションされるシチュエーションの内容毎に用意され、当該シチュエーションを仮想現実空間で実現するための各種初期設定データを格納する。例えば、着発駅(ホームの種類を含む)、到着番線、乗務する列車の種類、時間帯、天候、乗降客の多寡、等を違えた様々なシナリオのデータが用意される。一つのシナリオデータ510は、例えば、固有のシナリオID511と、環境設定データ513と、オブジェクト別自動制御設定データ515と、を含む。勿論、これら以外のデータも適宜含めることができる。
The
シミュレーション制御データ600は、シミュレーション実行に係る各種制御データを格納する。例えば、シミュレーション制御データ600は、使用シナリオID601と、シミュレーションを行うユーザが教師役であるか訓練者であるかを示すユーザ設定603と、シミュレーション時刻を示すシミュレーション開始からの経過時間607と、トラッキングデータ609と、オブジェクト別のオブジェクト制御データ610と、を含む。勿論、これら以外のデータも適宜含めることができる。
The
ユーザ行動履歴データ630は、注視対象履歴データ633と、移動履歴データ634と、操作履歴データ635と、キータイミングリスト636と、異常事象発生データ637と、を含む。勿論、これら以外のデータも適宜含めることができる(図4参照)。
The user
教師データ700は、教師役のユーザがシミュレーションを行った場合のユーザ行動履歴データ630を、使用シナリオID601と対応づけて保存したデータである。
The
図14は、コンピュータ1100における処理の流れを説明するためのフローチャートである。コンピュータ1100は、先ず、シミュレーションに使用するシナリオの選択入力を受け付ける(ステップS2)。
FIG. 14 is a flowchart for explaining the flow of processing in the
また、コンピュータ1100は、ユーザ設定の入力の受け付けを行う(ステップSS4)。受け付けた結果は、ユーザ設定603とされる。
Further, the
次に、コンピュータ1100は、使用するシナリオのIDである使用シナリオID601に合致するIDを有するシナリオデータ510を参照して、3次元仮想空間へ各種のオブジェクトを配置し(ステップS6)、VRゴーグル1010のトラッキングを開始する(ステップS8)。
Next, the
次に、コンピュータ1100は、シミュレーションを開始する(ステップS10)。シミュレーションの開始にともない、コンピュータ1100は、注視対象とされるオブジェクトの検出を開始し、ユーザ行動履歴データ630の記録を開始する。
Next, the
また、コンピュータ1100は、シミュレーション中、第1の異常発生条件および第2の異常発生条件の充足を監視し、その両方を満たした場合には(ステップS12:YES)、異常事象シミュレーションを割り込み処理として発生させる(ステップS14)。例えば、駆け込みシミュレーション又は挟み込みシミュレーションをランダムに選んで発生させる。
Further, the
また、シミュレーションを終了したならば(ステップS16)、コンピュータ1100は、ユーザ設定603が「教師」であれば(ステップS18の教師)、今回のシミュレーションに係り新たに記録したユーザ行動履歴データ630を、新たな教師データ700として保存する(ステップS20)。
Further, when the simulation is completed (step S16), if the user setting 603 is "teacher" (teacher in step S18), the
一方、ユーザ設定603が「訓練者」であれば(ステップS18の訓練者)、コンピュータ1100は、各種の提示を開始する(ステップS22)。すなわち、コンピュータ1100は、注視対象履歴表示70と模範注視履歴表示72との比較表示(図8参照)と、評価結果74(図9参照)と、異常対処評価結果76(図10を参照)と、注視分類割合78と模範分類割合79との比較表示(図11参照)と、のそれぞれの表示制御を行う。
On the other hand, if the user setting 603 is "trainee" (trainee in step S18), the
そして、所定の使用終了操作の入力を検出すると(ステップS24のYES)、コンピュータ1100は、一連の処理を終了する。
Then, when the input of the predetermined end-of-use operation is detected (YES in step S24), the
以上説明したように、本実施形態によれば、予め決められたシナリオに基づいて異常事象シミュレーションを発生させるのではなく、シミュレーション中、訓練者であるユーザ3の注視対象に応じて割り込み的に、異常事象シミュレーションを発生させることができる。例えば、列車ドアの閉操作にあたり、ユーザ3が安全確認のために注視すべき対象に視線を向けていないときに、異常事象シミュレーションを発生させる。具体的には、ユーザ3がITV装置を確認しなかったとか、列車側面の全域に視線を向けて確認しなかったといった場合を異常発生条件として判定し、異常発生条件を満たした場合に異常事象シミュレーションを発生させることができる。本実施形態では、列車への乗客の駆け込み乗車を発生させる駆け込みシミュレーションや、列車ドアにおける乗客若しくは物の挟み込みを発生させる挟み込みシミュレーションを発生させることができる。また、当該発生させた異常事象シミュレーションに係る異常事象に対してユーザ3が適切に対処したのかを評価することができる。すなわち、本実施形態によれば、ユーザ3の注視対象から、列車ドアの閉操作において必要な安全確認を怠っていると疑うべき状況か否かを判定し、当該状況であると判定した場合に異常事象シミュレーションを発生させ、その対処を評価することが可能となる。したがって、車掌が行うべき安全確認を習得するための効果的な訓練が実現できる。
As described above, according to the present embodiment, the abnormal event simulation is not generated based on a predetermined scenario, but interruptively according to the gaze target of the
なお、本発明を適用可能な実施形態は、上記に限らず適宜、構成要素を変更・追加・削除することができる。 The embodiment to which the present invention is applicable is not limited to the above, and the components can be changed, added, or deleted as appropriate.
例えば、シナリオデータ510で定義される設定には、設定値に適当な範囲を設けることで、実行されるシミュレーション毎に適度な変化が生じるようにしてもよい。例えば、乗客オブジェクト40については、出現タイミングや、動作パターンについて予め複数の選択肢を用意しておいて、コンピュータ1100が、シミュレーション実行時にはその選択肢のなかから何れかをランダムに(あるいは、タッチパネル1108からの選択操作に応じて)選択してシミュレーションに適用するとしてもよい。乗客オブジェクト40の種類や数、動作がシミュレーション毎に変化するようになるので、訓練者であるユーザ3がシミュレーションの内容を覚えてしまって訓練効果が下がることを防ぐことができる。環境設定データの設定についても同様である。
For example, in the setting defined in the
また、ユーザの位置や視線をトラッキングする構成は、適宜変更可能である。例えば、ユーザが装着する乗務員用帽子にマーカを配置し、画像処理によりマーカを検出することでユーザの位置をトラッキングすることとしてもよい。加えて、当該マーカの検出によって、ユーザの視線に相当するユーザの頭部の向きをトラッキングするとしてもよい。マーカとしては、例えば、AR(Augmented Reality)マーカを用いることができる。 In addition, the configuration for tracking the user's position and line of sight can be changed as appropriate. For example, a marker may be placed on a crew hat worn by the user, and the position of the user may be tracked by detecting the marker by image processing. In addition, the detection of the marker may track the direction of the user's head corresponding to the user's line of sight. As the marker, for example, an AR (Augmented Reality) marker can be used.
図15は、本変形例における車掌模擬訓練システムの訓練場1を上からみた模式図である。図15に示すように、本変形例の車掌模擬訓練システムは、撮像部としてのカメラ1050と、乗務員用帽子(鉄道用制帽)9の所定位置に配置されたマーカ91とを更に具備する。
FIG. 15 is a schematic view of the
カメラ1050は、模擬乗務員室セット1030の内外を撮影領域に含むように適当数、適当箇所に配置される。図15では、5台のカメラ1050が配置されている。
The
マーカ91は、例えば、乗務員用帽子9の正面(帽章の位置)および左右両側(左右の耳章の位置)の3箇所に配置されている。マーカ91は、カメラ1050の撮影画像に基づき、当該マーカ51の識別が可能であり、且つ、カメラ1050からの距離および相対向き(相対姿勢)が検出可能な表示形態であれば何れのデザインを採用してもよい。例えば、基準方向を表面に表し、当該マーカ91を識別する特徴を有した所定サイズのデザインを採用することができる。二次元コード等であってもよい。
The
そして、コンピュータ1100は、各カメラ1050の撮影画像から、各マーカ91の位置・向き(姿勢)を算出することで、乗務員用帽子9を装着したユーザの位置をトラッキングするとともに、当該ユーザの視線相当の頭部の向きをトラッキングする。
Then, the
すなわち、本変形例では、カメラ1050とマーカ91とが位置トラッキング計測部106に該当し、各カメラ1050の撮影画像を随時演算部200に出力する。そして、演算部200において位置トラッキング制御部206が、各カメラ1050の撮影画像内におけるマーカ91に基づいて、各マーカ91の位置・向き(姿勢)を算出することで、ユーザの位置をトラッキングする。具体的には、位置トラッキング制御部206は、カメラ1050の撮影画像を解析してマーカ91を検出・識別する。そして、識別したマーカ91の撮影画像内のサイズと実際のサイズ(規定サイズ)との比較、および、識別したマーカ91の撮影画像内の向きとカメラ1050の撮影向きとから、訓練場1における各マーカ91の位置・向き(姿勢)を算出することで、ユーザの位置座標(トラッキング位置)を求める。現実世界である訓練場1における位置や向きと、仮想現実空間における位置や向きとは対応付けられているため、最終的に求めるトラッキング位置は、必要に応じて、訓練場1と仮想現実空間との何れも求めることができる。
That is, in this modification, the
また、本変形例では、カメラ1050とマーカ91とが視線トラッキング計測部104に該当する。そして、演算部200において視線トラッキング制御部204が、各カメラ1050の撮影画像におけるマーカ91に基づいて、ユーザの頭部の向きを当該ユーザの視線相当としてトラッキングする。具体的には、視線トラッキング制御部204は、前述のように各カメラ1050の撮影画像内で検出・識別したマーカ91の基準方向から当該マーカ91の当該カメラ1050に対する向きを求め、ユーザの頭部の向きを判定する。そして、判定した頭部の向きを視線方向と見なして、ユーザの視線方向(トラッキング視線)を推定する。現実世界である訓練場1における位置や向きと、仮想現実空間における位置や向きとは対応付けられているため、最終的に求めるトラッキング視線(視線方向)は、必要に応じて、訓練場1と仮想現実空間との何れも求めることができる。
Further, in this modification, the
本変形例によれば、乗務員用帽子9に配置されたマーカ91を撮影し、撮影画像内におけるマーカ91に基づいて、ユーザの位置をトラッキングすることができる。また、当該撮影画像内におけるマーカ91に基づいて、ユーザの頭部の向きを当該ユーザの視線相当としてトラッキングすることが可能となる。
According to this modification, the
なお、マーカ91は、乗務員用帽子9の正面等に1つ配置する構成でもよいが、複数配置して位置トラッキングおよび視線トラッキングに用いることで、ユーザの位置および視線相当のトラッキング精度を高めることが可能となる。
Although one
3…ユーザ
20…列車オブジェクト
22…車側灯オブジェクト
E…列車側面領域
30…ホーム関連オブジェクト
32…点字ブロックオブジェクト
34…ホーム外縁部オブジェクト
40…乗客オブジェクト
42…ITVオブジェクト
60…視点カメラ
70…注視対象履歴表示
72…模範注視履歴表示
74…評価結果
76(76-1,2)…異常対処評価結果
78…注視分類割合
79…模範分類割合
104…視線トラッキング計測部
106…位置トラッキング計測部
200…演算部
204…視線トラッキング制御部
206…位置トラッキング制御部
210…シミュレーション部
220…VR画像生成部
222…提示制御部
230…注視対象検出部
232…異常発生処理部
234…記録制御部
290…音生成部
292…管理画像生成部
304…視線トラッキング部
306…位置トラッキング部
320…VR画像表示部
500…記憶部
503…シミュレーションプログラム
510…シナリオデータ
600…シミュレーション制御データ
601…使用シナリオID
607…経過時間
609…トラッキングデータ
610…オブジェクト制御データ
630…ユーザ行動履歴データ
633…注視対象履歴データ
634…移動履歴データ
635…操作履歴データ
636…キータイミングリスト
637…異常事象発生データ
1000…車掌模擬訓練システム
1002…ヘッドフォン
1010…VRゴーグル
1012…アイトラッキング装置
1020…外部トラッキングセンサ
1030…模擬乗務員室セット
1040…車掌用模擬操作部
1042…開閉操作ボタン
1100…コンピュータ
3 ...
607 ... Elapsed
Claims (6)
ユーザが装着するVR(Virtual Reality)ゴーグルと、
前記ユーザの視線をトラッキングする視線トラッキング部と、
制御装置と、
を具備し、
前記制御装置は、
仮想現実空間における前記開閉操作ボタンの操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションするシミュレーション部と、
前記視線トラッキング部によるトラッキング視線に基づいて、前記シミュレーション中の前記VRゴーグルに表示させるVR画像を生成するVR画像生成部と、
前記トラッキング視線および前記VR画像に基づいて、前記ユーザの前記仮想現実空間中の注視対象を検出する注視対象検出部と、
前記注視対象に基づく異常発生条件を満たした場合に、前記シミュレーション中に所与の異常事象シミュレーションを発生させる異常発生処理部と、
を有する、
車掌模擬訓練システム。 A simulated cockpit set with train door open / close operation buttons,
VR (Virtual Reality) goggles worn by the user,
The line-of-sight tracking unit that tracks the user's line of sight,
With the control device
Equipped with
The control device is
A simulation unit that simulates the conductor's work related to the arrival and departure of a virtual train at a station, including opening and closing of train doors and getting on and off passengers based on the operation of the open / close operation button in virtual reality space, based on a given scenario.
A VR image generation unit that generates a VR image to be displayed on the VR goggles during the simulation based on the tracking line of sight by the line-of-sight tracking unit.
A gaze target detection unit that detects a gaze target in the virtual reality space of the user based on the tracking line of sight and the VR image, and a gaze target detection unit.
An abnormality generation processing unit that generates a given abnormal event simulation during the simulation when the abnormality generation condition based on the gaze target is satisfied.
Have,
Train conductor simulation training system.
前記異常発生処理部は、所与のITV注視タイミングにおける前記注視対象として前記ITVが検出されなかったことを第1の異常発生条件として判定する、
請求項1に記載の車掌模擬訓練システム。 The simulation unit simulates the display of an ITV (Industrial TeleVision) device installed in a home in the virtual reality space.
The abnormality generation processing unit determines as the first abnormality generation condition that the ITV is not detected as the gaze target at a given ITV gaze timing.
The conductor simulation training system according to claim 1.
請求項2に記載の車掌模擬訓練システム。 The ITV gaze timing includes at least a predetermined number of seconds immediately before the closing operation is performed by the opening / closing operation button.
The conductor simulation training system according to claim 2.
を更に具備し、
前記模擬乗務員室セットは、模擬出入り口から出入りが可能に構成されており、
前記シミュレーション部は、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでをシミュレーションし、
前記VR画像生成部は、前記トラッキング視線および前記位置トラッキング部によるトラッキング位置に基づいて、前記VR画像を生成し、
前記異常発生処理部は、所与の列車側面注視タイミングにおける前記注視対象として列車側面が検出されなかったことを第2の異常発生条件として判定する、
請求項1~3の何れか一項に記載の車掌模擬訓練システム。 A position tracking unit that tracks the position of the user or the VR goggles,
Further equipped,
The simulated crew room set is configured so that it can be entered and exited from the simulated doorway.
The simulation unit simulates from the timing when the train reaches the platform of the station where the train is scheduled to stop until the train departs and leaves the station.
The VR image generation unit generates the VR image based on the tracking line of sight and the tracking position by the position tracking unit.
The abnormality generation processing unit determines as a second abnormality generation condition that the train side surface is not detected as the gaze target at a given train side gaze timing.
The conductor simulation training system according to any one of claims 1 to 3.
前記異常発生処理部は、列車前後方向に連続する前記列車側面領域が続けて前記注視対象として検出されなかったことを前記第2の異常発生条件として判定する、
請求項4に記載の車掌模擬訓練システム。 The gaze target detection unit can detect as a gaze target for each train side area that divides the side of the train in the front-rear direction of the train.
The abnormality generation processing unit determines as the second abnormality generation condition that the train side surface region continuous in the front-rear direction of the train is not continuously detected as the gaze target.
The conductor simulation training system according to claim 4.
請求項1~5の何れか一項に記載の車掌模擬訓練システム。 The abnormal event simulation is a simulation of the occurrence of a passenger rushing into the train and / or the occurrence of a passenger or an object being caught in the train door.
The conductor simulation training system according to any one of claims 1 to 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020152223A JP2022046275A (en) | 2020-09-10 | 2020-09-10 | Conductor simulation training system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020152223A JP2022046275A (en) | 2020-09-10 | 2020-09-10 | Conductor simulation training system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022046275A true JP2022046275A (en) | 2022-03-23 |
Family
ID=80779822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020152223A Pending JP2022046275A (en) | 2020-09-10 | 2020-09-10 | Conductor simulation training system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022046275A (en) |
-
2020
- 2020-09-10 JP JP2020152223A patent/JP2022046275A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10825350B2 (en) | Virtual reality driver training and assessment system | |
Kashevnik et al. | Driver distraction detection methods: A literature review and framework | |
JP5984605B2 (en) | Railway simulator and method for simulating railway operation | |
US20220203996A1 (en) | Systems and methods to limit operating a mobile phone while driving | |
JP2021530069A (en) | Situational driver monitoring system | |
US20230347903A1 (en) | Sensor-based in-vehicle dynamic driver gaze tracking | |
JP6319951B2 (en) | Railway simulator, pointing motion detection method, and railway simulation method | |
JP7026902B2 (en) | Program and train driving simulator | |
Goedicke et al. | XR-OOM: MiXed Reality driving simulation with real cars for research and design | |
JP6702832B2 (en) | Simulated driving device and simulated driving method | |
JP2021032942A (en) | Simulator control device, train operation simulation system, train operation simulation method and program | |
JP2009181187A (en) | Behavioral model creation device and program | |
JP2021051301A (en) | Conductor simulation training system | |
JP2015064584A (en) | Driver feeling estimation device and method | |
JP2011227242A (en) | Drive simulation device, control program of drive simulation device, and control method of drive simulation device | |
Baltodano et al. | Eliciting driver stress using naturalistic driving scenarios on real roads | |
JP2022046275A (en) | Conductor simulation training system | |
KR20180127578A (en) | Driving ability evaluation system for evaluating driving ability of examinee | |
Deng et al. | On-road and in-vehicle delivery of service signs: Effects of information source and age | |
JP7281742B2 (en) | Program and train driving simulator | |
Rakotonirainy et al. | Using in-vehicle avatars to prevent road violence | |
Rothkrantz et al. | An intelligent co-driver surveillance system | |
JP2003084660A (en) | Conductor video switching system for train simulator on the side of simulation train | |
JP4750816B2 (en) | Driving training device | |
JP7120964B2 (en) | training system |