JP2022046275A - 車掌模擬訓練システム - Google Patents

車掌模擬訓練システム Download PDF

Info

Publication number
JP2022046275A
JP2022046275A JP2020152223A JP2020152223A JP2022046275A JP 2022046275 A JP2022046275 A JP 2022046275A JP 2020152223 A JP2020152223 A JP 2020152223A JP 2020152223 A JP2020152223 A JP 2020152223A JP 2022046275 A JP2022046275 A JP 2022046275A
Authority
JP
Japan
Prior art keywords
simulation
train
unit
tracking
conductor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020152223A
Other languages
English (en)
Inventor
大輔 鈴木
Daisuke Suzuki
史倫 菊地
Fumitomo Kikuchi
▲隆▼治 小池
Takaharu Koike
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Railway Technical Research Institute
Emovis Corp
Original Assignee
Railway Technical Research Institute
Emovis Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Railway Technical Research Institute, Emovis Corp filed Critical Railway Technical Research Institute
Priority to JP2020152223A priority Critical patent/JP2022046275A/ja
Publication of JP2022046275A publication Critical patent/JP2022046275A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Train Traffic Observation, Control, And Security (AREA)

Abstract

【課題】車掌が行うべき安全確認を効果的に習得することが可能な車掌模擬訓練システムを提供する。【解決手段】車掌模擬訓練システム1000において、コンピュータは、仮想現実空間における開閉操作ボタンの操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションするシミュレーション部210と、視線トラッキング部によるトラッキング視線に基づいて、シミュレーション中のVRゴーグルに表示させるVR画像を生成するVR画像生成部220と、トラッキング視線およびVR画像に基づいて、ユーザの仮想現実空間中の注視対象を検出する注視対象検出部230と、注視対象に基づく異常発生条件を満たした場合に、シミュレーション中に所与の異常事象シミュレーションを発生させる異常発生処理部232と、を有する。【選択図】図12

Description

本発明は、ユーザが車掌の模擬訓練を行うための車掌模擬訓練システムに関する。
車掌となるための、或いは車掌としての練度を上げるための訓練装置がある。例えば、訓練用に用意された模擬プラットフォームに、情景用表示装置と、停止位置目標表示装置と、を備える訓練装置がある(特許文献1、特許文献2を参照)。情景用表示装置には、訓練として用意されたシチュエーションにおいて、模擬列車の乗務員室から見えるであろう前方の情景画像が表示され、停止位置目標表示装置には、前方の情景画像と連動して当該状況における停止位置が移動する画像が表示される。
特開2003-233299号公報 特開2003-330356号公報
駅への到着において車掌が行うべき必須動作として、例えば停止位置の確認がある。また、出発において車掌が行うべき必須動作として、例えば列車のドア閉めおよびその確認がある。これは必須動作の代表例であり、その他にも数多くの動作が要求され、特に安全確認に関しては徹底した習得が必要である。
本発明が解決しようとする課題は、車掌模擬訓練システムにおいて、車掌が行うべき安全確認を効果的に習得することが可能な技術を提供すること、である。
上述した課題を解決するための第1の発明は、列車ドアの開閉操作ボタンが設置された模擬乗務員室セットと、ユーザが装着するVR(Virtual Reality)ゴーグルと、前記ユーザの視線をトラッキングする視線トラッキング部と、制御装置と、を具備し、前記制御装置は、仮想現実空間における前記開閉操作ボタンの操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションするシミュレーション部と、前記視線トラッキング部によるトラッキング視線に基づいて、前記シミュレーション中の前記VRゴーグルに表示させるVR画像を生成するVR画像生成部と、前記トラッキング視線および前記VR画像に基づいて、前記ユーザの前記仮想現実空間中の注視対象を検出する注視対象検出部と、前記注視対象に基づく異常発生条件を満たした場合に、前記シミュレーション中に所与の異常事象シミュレーションを発生させる異常発生処理部と、を有する、車掌模擬訓練システムである。
第1の発明によれば、シミュレーション中、訓練者であるユーザが何処を見ていたのかに応じて、異常事象シミュレーションを発生させることができる。その場合、ユーザは、当該異常事象シミュレーションに係る異常事象に対処することになる。これによれば、車掌が行うべき安全確認を習得するための効果的な訓練が実現できる。
第2の発明は、前記シミュレーション部は、前記仮想現実空間において、ホームに設置されたITV(Industrial TeleVision)装置の表示をシミュレーションし、前記異常発生処理部は、所与のITV注視タイミングにおける前記注視対象として前記ITVが検出されなかったことを第1の異常発生条件として判定する、第1の発明の車掌模擬訓練システムである。
第2の発明によれば、ユーザがITV注視タイミングにITV装置を視認していない場合に、異常事象シミュレーションを発生させることができる。
第3の発明は、前記ITV注視タイミングは、前記開閉操作ボタンで閉操作がなされた直前の所定秒数の期間を少なくとも含む、第2の発明の車掌模擬訓練システムである。
第3の発明によれば、ユーザが列車ドアの閉操作をする直前にITV装置を視認していない場合に、異常事象シミュレーションを発生させることができる。
第4の発明は、前記ユーザ又は前記VRゴーグルの位置をトラッキングする位置トラッキング部、を更に具備し、前記模擬乗務員室セットは、模擬出入り口から出入りが可能に構成されており、前記シミュレーション部は、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでをシミュレーションし、前記VR画像生成部は、前記トラッキング視線および前記位置トラッキング部によるトラッキング位置に基づいて、前記VR画像を生成し、前記異常発生処理部は、所与の列車側面注視タイミングにおける前記注視対象として列車側面が検出されなかったことを第2の異常発生条件として判定する、第1~第3の何れかの発明の車掌模擬訓練システムである。
第4の発明によれば、ユーザが列車側面注視タイミングに列車側面を視認していない場合に、異常事象シミュレーションを発生させることができる。
第5の発明は、前記注視対象検出部は、列車前後方向に列車側面を区切った列車側面領域毎に注視対象として検出可能であり、前記異常発生処理部は、列車前後方向に連続する前記列車側面領域が続けて前記注視対象として検出されなかったことを前記第2の異常発生条件として判定する、第4の発明の車掌模擬訓練システムである。
第5の発明によれば、ユーザが列車前後方向に連続する列車側面領域を続けて視認していない場合に、異常事象シミュレーションを発生させることができる。
第6の発明は、前記異常事象シミュレーションは、前記列車への乗客の駆け込み乗車の発生、および/又は、前記列車ドアにおける乗客若しくは物の挟み込みの発生のシミュレーションである、第1~第5の何れかの発明の車掌模擬訓練システムである。
第6の発明によれば、列車への乗客の駆け込み乗車の発生のシミュレーションを、異常事象シミュレーションとして発生させることができる。また、列車ドアにおける乗客若しくは物の挟み込みの発生のシミュレーションを、異常事象シミュレーションとして発生させることができる。
車掌模擬訓練システムのシステム構成例を示す図。 車掌模擬訓練システムの訓練場のセッティング例を示す図。 コンピュータにより制御される仮想現実空間の例を示す図。 車掌模擬訓練システムにおけるユーザの行動の記録について説明するための図。 注視対象履歴データの記録内容の一例を示す図。 図5中に破線で囲って示す経過時間帯における列車側面についての記録内容を拡大した図。 列車オブジェクトについての注視対象の検出を説明する図。 シミュレーション後の提示例を示す図(その1)。 シミュレーション後の提示例を示す図(その2)。 シミュレーション後の提示例を示す図(その3)。 シミュレーション後の提示例を示す図(その4)。 車掌模擬訓練システムの機能構成例を示す機能ブロック図。 記憶部が記憶するプログラムやデータの例を示す図。 コンピュータにおける処理の流れを説明するためのフローチャート。 変形例における車掌模擬訓練システムの訓練場を上からみた模式図。
以下、本発明の一つの実施形態を説明するが、本発明を適用可能な形態が以下の実施形態に限られないことは勿論である。
図1は、車掌模擬訓練システム1000のシステム構成例を示す図である。
車掌模擬訓練システム1000は、仮想現実空間における開閉操作ボタンの操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションしたVR画像(仮想現実空間画像)を用いた訓練システムである。
車掌模擬訓練システム1000は、ヘッドセット1002と、VR(Virtual Reality)ゴーグル1010と、外部トラッキングセンサ1020と、模擬乗務員室セット1030と、車掌用模擬操作部1040と、コンピュータ1100と、を有する。
ヘッドセット1002と、VRゴーグル1010と、外部トラッキングセンサ1020と、車掌用模擬操作部1040とは、有線或いは無線のネットワークNを介してコンピュータ1100とデータ通信可能に通信接続されている。
ヘッドセット1002は、訓練者であるユーザが装着する用具の一つである。ヘッドセット1002は、マイクロフォン1003と、ヘッドフォン1004と、を有する。
VRゴーグル1010は、ユーザが装着する用具の一つであって、コンピュータ1100によりシミュレーションされたユーザの一人称視点によるVR画像を表示するヘッドマウントディスプレイである。
VRゴーグル1010は、ユーザの視線方向をトラッキングするためのアイトラッキング装置1012と、ユーザの頭部の位置トラッキングおよび姿勢トラッキングをするための加速度センサ1014およびジャイロセンサ1016と、を内蔵する。VRゴーグル1010は、これらの装置やセンサによる計測データを逐次ネットワークNを介してコンピュータ1100へ送信する。
外部トラッキングセンサ1020は、ユーザを外部からセンシングするセンサ群であって、模擬乗務員室セット1030に対するVRゴーグル1010の相対位置と相対姿勢をトラッキングする。センサの種類は、採用するトラッキングの方式によって適宜設定可能であるが、例えば、画像センサ、距離センサ、等で実現できる。加速度センサ1014およびジャイロセンサ1016と外部トラッキングセンサ1020とによって、ユーザ又はVRゴーグル1010の位置がトラッキングされる。外部トラッキングセンサ1020は、VRゴーグル1010が内蔵するセンサで十分にトラッキング機能を実現できるならば省略することができる。
模擬乗務員室セット1030は、ユーザが訓練後に乗務する車両における乗務員室、およびその出入り口周りを再現した訓練用セットである。ユーザは、模擬乗務員室セット1030の模擬出入り口から出入りが可能である。そして、模擬乗務員室セット1030には、車掌用模擬操作部1040が備えられている。
車掌用模擬操作部1040は、実際の乗務員室に設置されて車掌が操作する操作部を模した操作入力装置である。車掌用模擬操作部1040は、例えば、列車ドアを開閉する開閉操作ボタン1042、運転士向けに所与の意図を伝える信号を発する信号ボタン、運転士と会話するための送受話装置、等を備える。車掌用模擬操作部1040が何を備えるかは、実際の車両の仕様に合わせて設定される。
コンピュータ1100は、車掌模擬訓練システム1000を統合的に制御する制御装置である。コンピュータ1100は、例えば、装置本体1101と、キーボード1106と、タッチパネル1108と、制御基板1150と、を備える。
制御基板1150は、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等の各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、通信装置1153が搭載されている。なお、制御基板1150の一部又は全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)、SoC(System on a Chip)により実現するとしてもよい。
そして、コンピュータ1100は、制御基板1150が所定のプログラムおよびデータに基づいて演算処理することにより、車掌模擬訓練システム1000を統合的に制御する。
図2は、車掌模擬訓練システムの訓練場のセッティング例を示す図である。
訓練場には、模擬乗務員室セット1030が設置され、外部トラッキングセンサ1020が、模擬乗務員室セット1030の内外を計測領域に含むように適当数、適当箇所に配置されている。ユーザ3は、ヘッドセット1002と、VRゴーグル1010とを装着して、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでの様々なシチュエーションで車掌業務の訓練を行う。
図3は、コンピュータ1100により制御される仮想現実空間の例を示す図である。
コンピュータ1100は、3次元仮想現実空間を用意し、列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を、仮想現実として訓練するための各種オブジェクトを配置して、それらを制御する。
具体的には、コンピュータ1100は、車両関連オブジェクトの集合体である列車オブジェクト20と、ホーム関連オブジェクト30と、乗客オブジェクト40と、ITVオブジェクト42と、図示されていない背景オブジェクトと、を配置・制御する。
列車オブジェクト20は、ユーザ3が将来乗務する実際の列車を再現している。列車オブジェクト20のうち客車とされる車両のオブジェクトについては、列車ドアそれぞれの上部に車側灯オブジェクト22が用意されている。車側灯オブジェクト22は、コンピュータ1100のシミュレーションにより仮想現実空間で点灯および消灯の制御がなされる。
ホーム関連オブジェクト30は、ホームの床面、柱、天井、軒、各種灯器類、線路、等およそ駅のホーム周辺を再現するための各種オブジェクトが含まれる。特に、ホーム関連オブジェクト30は、点字ブロックオブジェクト32と、ホーム外縁部オブジェクト34と、ホーム内側オブジェクト36と、を有する。
そして、ホーム関連オブジェクト30のホーム床面には、単数または複数の乗客オブジェクト40が配置・制御される。乗客オブジェクト40が表す乗客の姿や形、乗客オブジェクト40の配置位置や配置数、乗客オブジェクト40の列車を待っている間の動作、乗客オブジェクト40が車両に乗り込むタイミング、乗客オブジェクト40が車両へ乗り込む動作、等は想定されるシチュエーションに応じて適宜設定可能である。
乗客オブジェクト40のバリエーションとして、例えば、駆け込みをする乗客や、乳母車を押して乗り込もうとする母子、大きな荷物をもった旅行客、杖をついているご老人、団体行動する小学生、等を適宜設定できる。老若男女・体格も様々に設定できる。そして、それぞれの乗客オブジェクト40は、その乗客の姿形に合わせた動作が個別にコンピュータ1100により制御される。
また、ホーム関連オブジェクト30により形成されるホームのどこかに、ITVオブジェクト42が設定されている。図3の例では、ITVオブジェクト42は、ホーム床面から支柱で支持されるタイプのITV装置を模しているが、天井吊り下げタイプのITV装置を模してもよい。
なお、仮想現実空間には、ユーザ3の視点に相当する視点カメラ(仮想カメラ)も配置される。図3では、理解を容易にするためにユーザ3の姿とVRゴーグル1010等を図示しているが、ユーザ3の左右の眼の位置に、それぞれ視点カメラが配置されているものとする。そして、それらの視点カメラは、コンピュータ1100により、VRゴーグル1010に係るトラッキングに連動して位置や姿勢が制御される。因みに、図3中、破線で描かれた矩形は、視点カメラによる撮影範囲である。言い換えると、破線で描かれた矩形は、VRゴーグル1010で表示されるユーザ視界のVR画像の範囲である。ユーザ3には、このユーザ視界のVR画像のみが見えており、VRゴーグル1010の姿勢(向き)や位置の変化に応じてVR画像(ユーザ視界)が変化することとなる。
図4は、車掌模擬訓練システム1000におけるユーザ3の行動の記録について説明するための図である。
VRゴーグル1010が内蔵するアイトラッキング装置1012は、ユーザ3の視線方向を求めるために必要な計測を連続的に行う。そして、VRゴーグル1010がその計測データをコンピュータ1100へ送信する。また、VRゴーグル1010が内蔵する加速度センサ1014とジャイロセンサ1016もまた、連続的に計測を行い、VRゴーグル1010がそれらの計測データをコンピュータ1100へ送信する。また、外部トラッキングセンサ1020も、連続的に計測を行って計測データをコンピュータ1100へ送信する。
コンピュータ1100は、外部トラッキングセンサ1020の計測データから、模擬乗務員室セット1030に対するVRゴーグル1010の相対位置と相対姿勢をトラッキングし、加速度センサ1014とジャイロセンサ1016の計測データを用いて、VRゴーグル1010の相対位置と相対姿勢のトラッキングの精度を高める。
そして、コンピュータ1100は、VRゴーグル1010の相対位置と相対姿勢に基づいて仮想現実空間における視点カメラ60の位置と姿勢の1次連動制御を行い、アイトラッキング装置1012の計測データに基づいて視点カメラ60の姿勢の2次連動制御を行う。コンピュータ1100は、2次連動制御において、1次連動制御で制御された結果を元に更に詳細にユーザ3の視線と視点カメラ60の撮影方向とが、ユーザ3の現実での視線変化と連動するように制御する。つまり、仮想現実空間におけるユーザ3の頭部の位置や姿勢は、現実世界におけるVRゴーグル1010の位置や姿勢とリアルタイムにリンク・連動しており、仮想現実空間における視点カメラ60の撮影方向は、現実世界におけるユーザ3の視線方向とリンク・連動している。
車掌模擬訓練システム1000では、この視点カメラ60の撮影方向(カメラ座標系の深度方向)がユーザ3の視線方向に一致することを利用して、訓練実行中、常時、ユーザ3がその時々に注視している対象(注視対象)をVR画像中から検出し(図4の例ではITVオブジェクト42)、その結果を注視対象履歴データ633として、時系列に記録する。図5は、注視対象履歴データ633の記録内容の一例を示す図であり、図6は、図5中に破線で囲って示す経過時間帯における列車側面についての記録内容を拡大した図である。
この注視対象履歴データ633の記録のために、コンピュータ1100は、視点カメラ60の撮影方向を視点カメラ60からトレースして、最初にヒットしたオブジェクト(視線方向の先直近に位置するオブジェクト)を、そのときユーザ3が注視している注視対象として検出する。勿論、アイトラッキング装置1012のセンシングの分解能が十分であれば、コンピュータ1100は、右眼用の視点カメラ60の撮影方向と、左眼用の視点カメラ60の撮影方向との交差位置に最も近い位置にあるオブジェクトを注視対象として検出するとしてもよい。
より詳細には、列車オブジェクト20については、そのホーム側の列車側面を列車前後方向に区切った列車側面領域単位で、注視対象の検出を行う。図7は、列車オブジェクト20についての注視対象の検出を説明する図である。本実施形態では、例えば、列車側面の全域を列車前後方向に沿って所定長ずつ区切った各領域Eを、それぞれ列車側面領域1~4とする。そして、各列車側面領域Eの単位で注視対象を検出することで、列車側面の全域を注視したか否かの判別を可能とする。
そして、コンピュータ1100は、図5に示すように、注視対象のオブジェクトの分類(車両関連/ホーム関連/ITVの少なくとも3つを含む)と、注視対象のオブジェクトの種類と、シミュレーション開始からの経過時間と、を対応づけて、注視対象履歴データ633に蓄積・記録していく。車両関連のうちの列車オブジェクト20については、図6に拡大して例示するように、図7に示した1~4の列車側面領域E毎に経過時間の記録を行う。
また、コンピュータ1100は、VRゴーグル1010の模擬乗務員室セット1030に対する相対位置を、現実世界におけるユーザ3の代表位置と見なし、VRゴーグル1010の位置と連動制御される視点カメラ60の位置を、仮想現実空間におけるユーザ3の位置と見なして、仮想現実空間におけるユーザ3の移動履歴データ634を蓄積・記録する。
また、車掌用模擬操作部1040は、操作入力の種類に応じた操作入力信号をコンピュータ1100へ出力する。コンピュータ1100は、訓練中、車掌用模擬操作部1040への操作入力を常時監視しており、操作入力を検出すると、その時のシミュレーション開始からの経過時間を、操作を行った操作タイミングとして、操作履歴データ635に蓄積・記録する。操作履歴データ635には、列車ドアを開ける操作をしたタイミングである開操作タイミング、列車ドアを閉じる操作をしたタイミングである閉操作タイミング、安全に列車ドアが閉じられたことを運転士に知らせる安全通知操作タイミング、の少なくとも3種類の操作タイミングが記録される。
また、コンピュータ1100は、これらの履歴データの記録とは別に、シミュレーションされている状況におけるキータイミングをキータイミングリスト636として記録する。
キータイミングとは、車掌行動を評価する上で利用される時間軸上のタイミングである。本実施形態では、キータイミングとして、列車が停止した停止タイミングと、列車が発車した出発タイミングと、を記録する。勿論、これら以外のタイミングも適宜含めることができる。コンピュータ1100は、シミュレーションの最後に、これらのキータイミングと、上述した各種履歴データに記録されている内容とを比較することで、ユーザ3が適切なタイミングで注意するべきものに注意を払っているか(視線を向けているか)を評価する。
また、本実施形態では、コンピュータ1100は、シミュレーション中において注視対象に基づく異常発生条件を満たした場合に、割り込み処理として所与の異常事象シミュレーションを発生させる異常発生処理を行う。そして、この異常発生処理において、当該発生させた異常事象シミュレーションに係る異常事象発生データ637を生成し、異常事象シミュレーション毎に記録しておく。
ここで、開閉操作ボタン1042による列車ドアの閉操作にあたっては、列車への乗客の駆け込み乗車に注意を払ったり、駆け込み乗車等によって列車ドアへの乗客や物の挟み込みが生じていないか(車側灯が点灯したか)といった安全確認を、列車ドア毎に行う必要がある。一方で、列車の長さ等によっては、乗務員室の出入口付近で列車側面に視線を向けるだけでは全ての列車ドア付近の状況を視認できない場合もある。そのような場合は、見えない列車ドアが視界に入るようにホーム上を移動したり、ITV装置の表示を見る等して安全確認を行う。
そこで、本実施形態の異常発生処理では、コンピュータ1100は、「所与のITV注視タイミングにおける注視対象としてITV装置が検出されなかったこと」を第1の異常発生条件として判定する。ITV注視タイミングは、開閉操作ボタン1042で閉操作がなされた直前の所定秒数の期間を少なくとも含むように設定される。例えば、閉操作の2秒前から閉操作後3秒が経過するまでの期間を、ITV注視タイミングとする。
具体的には、コンピュータ1100は、ITV注視タイミングの期間が経過した時点で注視対象履歴データ633を参照し、当該期間の注視対象としてITV装置が設定されているか否かを判定する。そして、設定されていなければ検出されなかったとして、第1の異常発生条件を肯定判定する。
また、本実施形態では、「所与の列車側面注視タイミングにおいて、列車前後方向に連続する列車側面領域が続けて注視対象として検出されなかったこと」を第2の異常発生条件として判定する。列車側面注視タイミングは、列車が駅に停車してから発車するまでの間の期間として設定される。例えば、開閉操作ボタン1042の閉操作の2秒前から閉操作後3秒が経過するまでの期間を、列車側面注視タイミングとする。
具体的には、コンピュータ1100は、列車側面注視タイミングの期間が経過した時点で注視対象履歴データ633を参照し、当該期間の注視対象を読み出す。そして、当該期間において、連続する列車側面領域Eを続けて注視したかどうかの判定を行う。例えば、本実施形態では、全ての列車側面領域Eが図7に向かって右端から左端まで順番に注視対象として設定されている場合や、左端から右端まで順番に注視対象として設定されている場合に、第2の異常発生条件を否定判定する。図6では、後者の例を示している。何れの場合にも該当しなければ、第2の異常発生条件を肯定判定する。つまり、ユーザ3が列車の一端側から他端側へと視線をずらしながら列車側面の全域を視認していれば、第2の異常発生条件を満たさないと判定する。なお、列車側面の全域ではなく、列車後方から所定の範囲の列車側面を注視対象として第2の異常発生条件を設定してもよい。シミュレーション対象の駅ホームの形状やホーム上の混雑状況等によっては列車先頭まで見通せない場合があること、列車先頭まで見通せない場合にはITV装置を視認しているかの第1の異常発生条件で、列車側面全域の安全確認を行った否かを補完して判定できること、による。
そして、コンピュータ1100は、第1の異常発生条件を満たし、第2の異常発生条件も満たした場合に、割り込み処理として異常事象シミュレーションを発生させる。例えば、列車への乗客の駆け込み乗車の発生のシミュレーション(以下「駆け込みシミュレーション」という)、又は列車ドアにおける乗客若しくは物の挟み込みの発生のシミュレーション(以下「挟み込みシミュレーション」という)を発生させる。何れを発生させるのかは、例えばランダムに選んで決定する。
その後は、当該発生させた異常事象シミュレーションに係る異常事象発生データ637を生成し、異常事象シミュレーション毎に記録しておく。具体的には、1つの異常事象発生データ637は、当該異常事象シミュレーションを発生させた時点の経過時間(シミュレーション時刻ともいえる)と、当該異常事象シミュレーションの種類(駆け込みシミュレーション又は挟み込みシミュレーション)と、当該異常事象シミュレーションに係る異常事象の発生に対するユーザ3の対処内容とを、を記録する。基本的には、乗客の駆け込み乗車が発生した場合や列車ドアへの乗客や物の挟み込みが発生した場合には、列車ドアの開操作を行う。そのため、対処内容は、当該異常事象の発生時に、開閉操作ボタン1042による列車ドアの開操作がなされたか否かの情報を含む。
なお、第1の異常発生条件および第2の異常発生条件の両方を満たした場合に限らず、何れか一方を満たした場合に異常事象シミュレーションを発生させることとしてもよい。また、第1の異常発生条件のみを判定して異常事象シミュレーションを発生させるとしてもよいし、第2の異常発生条件のみを判定して異常事象シミュレーションを発生させるのでもよい。
また、第2の異常発生条件は、上記の条件内容に限らず、「列車側面注視タイミングにおける注視対象として列車側面が検出されなかったこと」等としてもよい。そして、例えば、列車側面注視タイミングの期間において全ての列車側面領域Eが注視対象として設定されていない場合、第2の異常発生条件を肯定判定するとしてもよい。つまり、列車の一端側から他端側まで続けて見ていなくても、その全域に視線を向けていれば、第2の異常発生条件を満たさないと判定する構成としてもよい。
また、異常事象シミュレーションとして駆け込みシミュレーションおよび挟み込みシミュレーションの両方を発生させるとしてもよいし、両方を発生させるのか何れか一方を発生させるのかをランダムに決定するとしてもよい。
図8~図11は、シミュレーション後の提示例を示す図である。
コンピュータ1100は、シミュレーション終了後に、ユーザ3の行動の記録等に基づいて幾つかの提示を行う。提示(表示)は、VRゴーグル1010で行うこととして説明するが、タッチパネル1108で行うこととしてもよい。
例えば、図8に示すように、第1の提示として、注視対象履歴表示70を行う。具体的には、コンピュータ1100が、仮想現実空間におけるユーザ3の視界範囲正面所定位置に、注視対象履歴表示70のオブジェクトを配置する。注視対象履歴表示70では、横軸をシミュレーション開始からの経過時間として、注視対象別にどのタイミングで注視対象となっていたかを示す。また、注視対象履歴表示70では、横軸の経過時間に、操作タイミング(開操作タイミングT2、閉操作タイミングT3、安全通知操作タイミングT4等)とキータイミング(停止タイミングT1、出発タイミングT5等)が表示される。加えて、シミュレーション中に異常事象を発生させた場合には、その発生タイミングT10も表示される。図8では、異常事象シミュレーションの発生後に列車ドアの開操作がなされておらず、その異常事象に適切に対処していない例を示している。
注視対象履歴表示70が提示されることにより、ユーザ3は、列車がホームに進入してから停車するまで、停車してから列車ドアを開けるまで、列車ドアを開けてから閉じるまで、列車ドアを閉じて安全通知が終わり出発するまで、列車が出発した後の5つの状況変化のタイミングを目安にしつつ、それぞれの状況でいつ、何に注視していたかを知ることができる。さらに、異常事象シミュレーションの発生があった場合には、ユーザ3は、その直前のITV装置や列車側面を注視すべきときに(ITV注視タイミングや列車側面注視タイミングにおいて)何に注視していたのかを知ることができる。
また、コンピュータ1100は、注視対象履歴表示70の提示とともに、教師役の別ユーザが同じシミュレーションを行って得られた注視対象履歴データ633を教師データと見なした模範注視履歴表示72を提示する。具体的には、コンピュータ1100が、仮想現実空間におけるユーザ3の視界範囲正面所定位置(例えば、注視対象履歴表示70のオブジェクトと並んだ位置)に、模範注視履歴表示72のオブジェクトを配置する。
ユーザ3は、注視対象履歴表示70と模範注視履歴表示72とを見比べることで、どのタイミングで注視するべきものを見ていなかったかや、注視すべき対象を注視した頻度の多少、等を知ることができる。その知見を次回の訓練に活かすことで、ユーザ3は、高い訓練効果を得ることとなる。
また、注視対象履歴表示70の提示に伴い、コンピュータ1100は、例えば図9に示すように、特に注視すべき対象として要求される注視対象(特定の注視対象)について注視したか否かの評価結果74を、第2の提示として提示する。評価結果74は、ユーザ3が、適切なタイミングで特定の注視対象について注視できたかを示す。コンピュータ1100が、仮想現実空間におけるユーザ3の視界範囲正面所定位置に、評価結果74の表示を行うオブジェクトを配置する。図9では、注視できていた場合には「○」を、注視できていなかった場合には「×」を示す例を示しているが、評価の表し方はこれに限らない。
ここで言う「特定の注視対象」を注視すべき適切なタイミングは、適宜設定可能である。例えば、車掌用模擬操作部1040の開閉操作ボタン1042(図2参照)への操作入力に応じて車側灯オブジェクト22の点灯が変わったタイミングの直後所定時間内(例えば閉操作タイミングT3から所定時間内)における、車側灯オブジェクト22がこれに該当する。コンピュータ1100は、ユーザ3が、当該所定時間内に、車側灯オブジェクト22を注視していれば、列車のドアを閉じた後に、車側灯が全て消えているかの確認をしたと見なし、車側灯オブジェクト22に係る注視を行っていた(より正確には、適切なタイミングで行っていた)と評価する。
また例えば、発車して列車が駅を離れるまでの間(経過時間で見ると出発タイミングT5以降)における、ホーム外縁部オブジェクト34(図2参照)も、特定の注視対象に該当する。コンピュータ1100は、ユーザ3が、列車が発車して駅を離れるまで(例えば所定時間)の間のうち、所定割合以上、ホーム外縁部を注視していれば、走行を始めた列車とホームに残った乗客との接触の有無や、列車とホームとの隙間にモノが挟まっていないかの確認をしていると見なし、ホーム外縁部オブジェクト34に係る注視を行っていた(より正確には、適切なタイミングで行っていた)と評価する。
また例えば、出発タイミングT5以降の列車が駅を離れてゆく過程に該当する経過時間帯での、ホーム関連オブジェクト30(特に、線路オブジェクト)も、これに該当する。コンピュータ1100は、ユーザ3が、当該経過時間帯において、ホーム関連オブジェクト30、特に線路オブジェクトを注視していれば、ユーザ3が、列車が駅を離れた後の後方線路の確認をしたと見なし、適切なタイミングで後方線路の確認ができたと評価する。
また、コンピュータ1100は、シミュレーション中に異常事象シミュレーションを発生させた場合には、例えば図10に示すように、当該異常事象シミュレーションの発生に対してユーザ3が適切に対処したか否かの異常対処評価結果76(76-1又は76-2)を、第3の提示として提示する。具体的には、駆け込みシミュレーションを発生させた場合には、乗客の駆け込み乗車に対して適切に対処したか否かの異常対処評価結果76-1を提示する。挟み込みシミュレーションを発生させたのであれば、列車ドアにおける乗客若しくは物の挟み込みに対して適切に対処したか否かの異常対処評価結果76-1を提示する。例えば、異常事象発生データ637をもとに、その異常事象の発生時にユーザ3が開閉操作ボタン1042によって列車ドアの開操作をしていれば「○」、していなければ「×」等として提示することができる。
また、例えば図11に示すように、コンピュータ1100は、注視対象を車両関連/ホーム関連/ITVの少なくとも3つに分類して、注視対象とされた各分類の時間的割合を提示する注視分類割合78を、第4の提示として提示する。なお、分類の数は、図11では4つとしているが、5つ以上であってもよい。
そして、コンピュータ1100は、教師役の別ユーザが同じシミュレーションを行って得られた注視対象履歴データ633に基づいて、模範分類割合79を比較表示する。よって、先の注視履歴に係る比較提示と同様に、高い訓練効果が得られるようになる。
図12は、車掌模擬訓練システム1000の機能構成例を示す機能ブロック図である。
車掌模擬訓練システム1000は、管理操作入力部100と、車掌操作入力部102と、車掌音声入力部103と、視線トラッキング計測部104と、位置トラッキング計測部106と、演算部200と、VR画像表示部320と、音出力部390と、管理画像表示部392と、記憶部500と、を有する。
管理操作入力部100は、車掌模擬訓練システム1000のシステム管理のための操作入力(例えば、シミュレーションするシナリオの選択操作入力、シミュレーションを行うユーザが教師であるか訓練者であるかの選択操作入力、等)を受け付け、操作入力信号を演算部200へ出力する。図1の例では、キーボード1106,タッチパネル1108がこれに該当する。
車掌操作入力部102は、シミュレーション中のユーザ3が車掌として行う各種操作入力を受け付け、操作入力信号を演算部200へ出力する。図1の例では、開閉操作ボタン1042等を備えた車掌用模擬操作部1040がこれに該当する。
車掌音声入力部103は、シミュレーション中のユーザ3が車掌としてシミュレーション中のユーザ3が車掌として発した声の音声信号を、演算部200へ出力する。図1の例では、ヘッドセット1002のマイクロフォン1003がこれに該当する。
視線トラッキング計測部104は、ユーザ3の視線をトラッキングするための計測を行い、計測データを演算部200へ出力する。図1の例では、VRゴーグル1010に組み込まれたアイトラッキング装置1012がこれに該当する。なお、VRゴーグル1010の正面方向をユーザ3の視線方向と見なす構成としてもよく、その場合は、VRゴーグル1010が内蔵する加速度センサ1014やジャイロセンサ1016、外部トラッキングセンサ1020がこれに該当することになる。
位置トラッキング計測部106は、ユーザ3の現実世界における位置を計測し、計測データを演算部200へ出力する。図1の例では、VRゴーグル1010が内蔵する加速度センサ1014やジャイロセンサ1016、外部トラッキングセンサ1020がこれに該当する。
演算部200は、例えばCPUやGPU等のマイクロプロセッサや、ICメモリ等の電子部品によって実現され、各種の操作入力部や、各種の計測部、記憶部500との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、管理操作入力部100および車掌操作入力部102からの操作入力信号、車掌音声入力部103からの音声信号入力、視線トラッキング計測部104および位置トラッキング計測部106からの計測データ、等に基づいて各種の演算処理を実行して、車掌模擬訓練システム1000の動作を制御する。図1の例では、コンピュータ1100の制御基板1150がこれに該当する。
そして、本実施形態における演算部200は、視線トラッキング制御部204と、位置トラッキング制御部206と、シミュレーション部210と、VR画像生成部220と、提示制御部222と、注視対象検出部230と、異常発生処理部232と、記録制御部234と、計時部280と、音生成部290と、管理画像生成部292と、を備える。
視線トラッキング制御部204は、視線トラッキング計測部104による計測データに基づいて、視線トラッキングのための演算処理を行い、仮想現実空間でのトラッキング視線(例えば、視線方向ベクトル)を求める。すなわち、視線トラッキング計測部104と視線トラッキング制御部204は、VRゴーグル1010に組み込まれたアイトラッキング装置に基づいてユーザ3の視線をトラッキングする視線トラッキング部304を構成する。視線トラッキング部304は、アイトラッキング装置を用いずに構成することもできる。例えば、VRゴーグル1010の正面方向(すなわち頭部の正面方向)を視線方向と見なして、位置トラッキングおよび姿勢トラッキングから当該視線方向を推定することで視線トラッキングを実現する視線トラッキング部304としてもよい。
位置トラッキング制御部206は、位置トラッキング計測部106による計測データに基づいて、位置トラッキングのための演算処理を行い、仮想現実空間でのユーザ3の位置座標(トラッキング位置)を求める。すなわち、位置トラッキング計測部106と位置トラッキング制御部206は、ユーザ3(又はVRゴーグル1010)の位置をトラッキングする位置トラッキング部306を構成する。
シミュレーション部210は、仮想現実空間における開閉操作ボタン1042の操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションし、仮想現実空間に配置した各種のオブジェクトを制御する。具体的には、シミュレーション部210は、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでをシミュレーションする。そして、それに伴って、シミュレーション部210は、仮想現実空間において、ホームに設置されたITV装置が表示する内容もシミュレーションする。
VR画像生成部220は、視線トラッキング部304によるトラッキング視線および位置トラッキング部306によるトラッキング位置に基づいて、シミュレーション中のVRゴーグル1010に表示させるVR画像を生成し、表示制御信号をVR画像表示部320へ出力する。
VR画像表示部320は、VR画像を表示するための画像表示デバイスである。図1の例では、VRゴーグル1010がこれに該当する。
提示制御部222は、シミュレーション後に、注視対象の時系列変化および開閉操作ボタン1042の操作タイミングを訓練者であるユーザ3に提示するための表示制御を行う。提示制御部222は、訓練結果を「評価」する評価部223を有する。
本実施形態では、VRゴーグル1010にて提示を行うので、提示制御部222が、仮想空間のうちトラッキング視線の正面所定位置に、提示(注視対象履歴表示70、模範注視履歴表示72、評価結果74、異常対処評価結果76、注視分類割合78、模範分類割合79)に係るオブジェクトを配置すると、必然的に、VR画像生成部220は、当該提示に係るオブジェクトを含むVR画像を生成する。
注視対象検出部230は、トラッキング視線およびVR画像に基づいて、ユーザ3の仮想現実空間中の注視対象を検出する。具体的には、コンピュータ1100は、仮想現実空間に配置されているオブジェクトの中から、視点カメラ60からのトラッキング視線(視線ベクトル)が最初に交わったオブジェクトを注視対象として検出する。また、注視対象検出部230は、注視対象を、車両関連/ホーム関連/ITVの少なくとも3つに分類し、分類結果を記録する。なお、視点カメラ60からのトラッキング視線が所定時間(例えば0.5秒や1.0秒)以上連続的に交わっている(視線が停留している)オブジェクトを注視対象と検出する構成としてもよい。
異常発生処理部232は、異常発生処理を行う機能部であり、注視対象に基づく異常発生条件を満たした場合に、シミュレーション中に割り込み処理として所与の異常事象シミュレーションを発生させる。
記録制御部234は、シミュレーション中のユーザ3の行動履歴と、行動履歴の評価に必要な各種データを記録・管理する。具体的には、記録制御部234は、注視対象履歴データ633、移動履歴データ634、操作履歴データ635、キータイミングリスト636、異常事象発生データ637等の記録と管理の制御を行う(図4参照)。
計時部280は、システムクロックを利用してシミュレーション時刻や制限時間、シミュレーション開始からの経過時間等の計時を行う。
音生成部290は、例えばデジタルシグナルプロセッサ(DSP)や、音声合成IC等のプロセッサ、音声ファイルを再生可能なオーディオコーデック等によって実現され、シミュレーションされた環境音、各種操作音の音信号を生成し、音出力部390に出力する。
音出力部390は、音生成部290から入力される音信号に基づいて音出力(放音)する装置によって実現される。図1の例ではヘッドセット1002のヘッドフォン1004がこれに該当する。
管理画像生成部292は、車掌模擬訓練システム1000の管理に係る各種画像データの生成および管理画像表示部392にそれらの画像を表示させるための画像信号の生成出力等の制御を行う。
管理画像表示部392は、管理画像生成部292から入力される画像信号に基づいて車掌模擬訓練システム1000の管理に係る各種画像を表示する。例えば、フラットパネルディスプレイ、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。本実施形態では、図1のタッチパネル1108がこれに該当する。
記憶部500は、演算部200に車掌模擬訓練システム1000を統合的に制御させるための諸機能を実現するためのプログラムや、各種データ等を記憶する。また、演算部200の作業領域として用いられ、演算部200が各種プログラムに従って実行した演算結果や演算部200へ入力される各種データ等を一時的に記憶する。こうした機能は、例えばRAMやROM等のICメモリ、ハードディスク等の磁気ディスク、CD-ROMやDVD等の光学ディスク等によって実現される。図1の例では、制御基板1150が搭載するICメモリ1152がこれに該当する。オンラインストレージを利用する構成も可能である。
図13は、記憶部500が記憶するプログラムやデータの例を示す図である。記憶部500は、シミュレーションプログラム503と、シナリオデータ510と、シミュレーション制御データ600と、ユーザ行動履歴データ630と、教師データ700と、訓練を行った日時を管理するための現在日時800と、を記憶する。勿論、これら以外のプログラムやデータも適宜記憶することができる。
シミュレーションプログラム503は、演算部200に、車掌模擬訓練システム1000を統合的に制御させるための諸機能(視線トラッキング制御部204~管理画像生成部292;図12参照)を実現させる。
シナリオデータ510は、シミュレーションされるシチュエーションの内容毎に用意され、当該シチュエーションを仮想現実空間で実現するための各種初期設定データを格納する。例えば、着発駅(ホームの種類を含む)、到着番線、乗務する列車の種類、時間帯、天候、乗降客の多寡、等を違えた様々なシナリオのデータが用意される。一つのシナリオデータ510は、例えば、固有のシナリオID511と、環境設定データ513と、オブジェクト別自動制御設定データ515と、を含む。勿論、これら以外のデータも適宜含めることができる。
シミュレーション制御データ600は、シミュレーション実行に係る各種制御データを格納する。例えば、シミュレーション制御データ600は、使用シナリオID601と、シミュレーションを行うユーザが教師役であるか訓練者であるかを示すユーザ設定603と、シミュレーション時刻を示すシミュレーション開始からの経過時間607と、トラッキングデータ609と、オブジェクト別のオブジェクト制御データ610と、を含む。勿論、これら以外のデータも適宜含めることができる。
ユーザ行動履歴データ630は、注視対象履歴データ633と、移動履歴データ634と、操作履歴データ635と、キータイミングリスト636と、異常事象発生データ637と、を含む。勿論、これら以外のデータも適宜含めることができる(図4参照)。
教師データ700は、教師役のユーザがシミュレーションを行った場合のユーザ行動履歴データ630を、使用シナリオID601と対応づけて保存したデータである。
図14は、コンピュータ1100における処理の流れを説明するためのフローチャートである。コンピュータ1100は、先ず、シミュレーションに使用するシナリオの選択入力を受け付ける(ステップS2)。
また、コンピュータ1100は、ユーザ設定の入力の受け付けを行う(ステップSS4)。受け付けた結果は、ユーザ設定603とされる。
次に、コンピュータ1100は、使用するシナリオのIDである使用シナリオID601に合致するIDを有するシナリオデータ510を参照して、3次元仮想空間へ各種のオブジェクトを配置し(ステップS6)、VRゴーグル1010のトラッキングを開始する(ステップS8)。
次に、コンピュータ1100は、シミュレーションを開始する(ステップS10)。シミュレーションの開始にともない、コンピュータ1100は、注視対象とされるオブジェクトの検出を開始し、ユーザ行動履歴データ630の記録を開始する。
また、コンピュータ1100は、シミュレーション中、第1の異常発生条件および第2の異常発生条件の充足を監視し、その両方を満たした場合には(ステップS12:YES)、異常事象シミュレーションを割り込み処理として発生させる(ステップS14)。例えば、駆け込みシミュレーション又は挟み込みシミュレーションをランダムに選んで発生させる。
また、シミュレーションを終了したならば(ステップS16)、コンピュータ1100は、ユーザ設定603が「教師」であれば(ステップS18の教師)、今回のシミュレーションに係り新たに記録したユーザ行動履歴データ630を、新たな教師データ700として保存する(ステップS20)。
一方、ユーザ設定603が「訓練者」であれば(ステップS18の訓練者)、コンピュータ1100は、各種の提示を開始する(ステップS22)。すなわち、コンピュータ1100は、注視対象履歴表示70と模範注視履歴表示72との比較表示(図8参照)と、評価結果74(図9参照)と、異常対処評価結果76(図10を参照)と、注視分類割合78と模範分類割合79との比較表示(図11参照)と、のそれぞれの表示制御を行う。
そして、所定の使用終了操作の入力を検出すると(ステップS24のYES)、コンピュータ1100は、一連の処理を終了する。
以上説明したように、本実施形態によれば、予め決められたシナリオに基づいて異常事象シミュレーションを発生させるのではなく、シミュレーション中、訓練者であるユーザ3の注視対象に応じて割り込み的に、異常事象シミュレーションを発生させることができる。例えば、列車ドアの閉操作にあたり、ユーザ3が安全確認のために注視すべき対象に視線を向けていないときに、異常事象シミュレーションを発生させる。具体的には、ユーザ3がITV装置を確認しなかったとか、列車側面の全域に視線を向けて確認しなかったといった場合を異常発生条件として判定し、異常発生条件を満たした場合に異常事象シミュレーションを発生させることができる。本実施形態では、列車への乗客の駆け込み乗車を発生させる駆け込みシミュレーションや、列車ドアにおける乗客若しくは物の挟み込みを発生させる挟み込みシミュレーションを発生させることができる。また、当該発生させた異常事象シミュレーションに係る異常事象に対してユーザ3が適切に対処したのかを評価することができる。すなわち、本実施形態によれば、ユーザ3の注視対象から、列車ドアの閉操作において必要な安全確認を怠っていると疑うべき状況か否かを判定し、当該状況であると判定した場合に異常事象シミュレーションを発生させ、その対処を評価することが可能となる。したがって、車掌が行うべき安全確認を習得するための効果的な訓練が実現できる。
なお、本発明を適用可能な実施形態は、上記に限らず適宜、構成要素を変更・追加・削除することができる。
例えば、シナリオデータ510で定義される設定には、設定値に適当な範囲を設けることで、実行されるシミュレーション毎に適度な変化が生じるようにしてもよい。例えば、乗客オブジェクト40については、出現タイミングや、動作パターンについて予め複数の選択肢を用意しておいて、コンピュータ1100が、シミュレーション実行時にはその選択肢のなかから何れかをランダムに(あるいは、タッチパネル1108からの選択操作に応じて)選択してシミュレーションに適用するとしてもよい。乗客オブジェクト40の種類や数、動作がシミュレーション毎に変化するようになるので、訓練者であるユーザ3がシミュレーションの内容を覚えてしまって訓練効果が下がることを防ぐことができる。環境設定データの設定についても同様である。
また、ユーザの位置や視線をトラッキングする構成は、適宜変更可能である。例えば、ユーザが装着する乗務員用帽子にマーカを配置し、画像処理によりマーカを検出することでユーザの位置をトラッキングすることとしてもよい。加えて、当該マーカの検出によって、ユーザの視線に相当するユーザの頭部の向きをトラッキングするとしてもよい。マーカとしては、例えば、AR(Augmented Reality)マーカを用いることができる。
図15は、本変形例における車掌模擬訓練システムの訓練場1を上からみた模式図である。図15に示すように、本変形例の車掌模擬訓練システムは、撮像部としてのカメラ1050と、乗務員用帽子(鉄道用制帽)9の所定位置に配置されたマーカ91とを更に具備する。
カメラ1050は、模擬乗務員室セット1030の内外を撮影領域に含むように適当数、適当箇所に配置される。図15では、5台のカメラ1050が配置されている。
マーカ91は、例えば、乗務員用帽子9の正面(帽章の位置)および左右両側(左右の耳章の位置)の3箇所に配置されている。マーカ91は、カメラ1050の撮影画像に基づき、当該マーカ51の識別が可能であり、且つ、カメラ1050からの距離および相対向き(相対姿勢)が検出可能な表示形態であれば何れのデザインを採用してもよい。例えば、基準方向を表面に表し、当該マーカ91を識別する特徴を有した所定サイズのデザインを採用することができる。二次元コード等であってもよい。
そして、コンピュータ1100は、各カメラ1050の撮影画像から、各マーカ91の位置・向き(姿勢)を算出することで、乗務員用帽子9を装着したユーザの位置をトラッキングするとともに、当該ユーザの視線相当の頭部の向きをトラッキングする。
すなわち、本変形例では、カメラ1050とマーカ91とが位置トラッキング計測部106に該当し、各カメラ1050の撮影画像を随時演算部200に出力する。そして、演算部200において位置トラッキング制御部206が、各カメラ1050の撮影画像内におけるマーカ91に基づいて、各マーカ91の位置・向き(姿勢)を算出することで、ユーザの位置をトラッキングする。具体的には、位置トラッキング制御部206は、カメラ1050の撮影画像を解析してマーカ91を検出・識別する。そして、識別したマーカ91の撮影画像内のサイズと実際のサイズ(規定サイズ)との比較、および、識別したマーカ91の撮影画像内の向きとカメラ1050の撮影向きとから、訓練場1における各マーカ91の位置・向き(姿勢)を算出することで、ユーザの位置座標(トラッキング位置)を求める。現実世界である訓練場1における位置や向きと、仮想現実空間における位置や向きとは対応付けられているため、最終的に求めるトラッキング位置は、必要に応じて、訓練場1と仮想現実空間との何れも求めることができる。
また、本変形例では、カメラ1050とマーカ91とが視線トラッキング計測部104に該当する。そして、演算部200において視線トラッキング制御部204が、各カメラ1050の撮影画像におけるマーカ91に基づいて、ユーザの頭部の向きを当該ユーザの視線相当としてトラッキングする。具体的には、視線トラッキング制御部204は、前述のように各カメラ1050の撮影画像内で検出・識別したマーカ91の基準方向から当該マーカ91の当該カメラ1050に対する向きを求め、ユーザの頭部の向きを判定する。そして、判定した頭部の向きを視線方向と見なして、ユーザの視線方向(トラッキング視線)を推定する。現実世界である訓練場1における位置や向きと、仮想現実空間における位置や向きとは対応付けられているため、最終的に求めるトラッキング視線(視線方向)は、必要に応じて、訓練場1と仮想現実空間との何れも求めることができる。
本変形例によれば、乗務員用帽子9に配置されたマーカ91を撮影し、撮影画像内におけるマーカ91に基づいて、ユーザの位置をトラッキングすることができる。また、当該撮影画像内におけるマーカ91に基づいて、ユーザの頭部の向きを当該ユーザの視線相当としてトラッキングすることが可能となる。
なお、マーカ91は、乗務員用帽子9の正面等に1つ配置する構成でもよいが、複数配置して位置トラッキングおよび視線トラッキングに用いることで、ユーザの位置および視線相当のトラッキング精度を高めることが可能となる。
3…ユーザ
20…列車オブジェクト
22…車側灯オブジェクト
E…列車側面領域
30…ホーム関連オブジェクト
32…点字ブロックオブジェクト
34…ホーム外縁部オブジェクト
40…乗客オブジェクト
42…ITVオブジェクト
60…視点カメラ
70…注視対象履歴表示
72…模範注視履歴表示
74…評価結果
76(76-1,2)…異常対処評価結果
78…注視分類割合
79…模範分類割合
104…視線トラッキング計測部
106…位置トラッキング計測部
200…演算部
204…視線トラッキング制御部
206…位置トラッキング制御部
210…シミュレーション部
220…VR画像生成部
222…提示制御部
230…注視対象検出部
232…異常発生処理部
234…記録制御部
290…音生成部
292…管理画像生成部
304…視線トラッキング部
306…位置トラッキング部
320…VR画像表示部
500…記憶部
503…シミュレーションプログラム
510…シナリオデータ
600…シミュレーション制御データ
601…使用シナリオID
607…経過時間
609…トラッキングデータ
610…オブジェクト制御データ
630…ユーザ行動履歴データ
633…注視対象履歴データ
634…移動履歴データ
635…操作履歴データ
636…キータイミングリスト
637…異常事象発生データ
1000…車掌模擬訓練システム
1002…ヘッドフォン
1010…VRゴーグル
1012…アイトラッキング装置
1020…外部トラッキングセンサ
1030…模擬乗務員室セット
1040…車掌用模擬操作部
1042…開閉操作ボタン
1100…コンピュータ

Claims (6)

  1. 列車ドアの開閉操作ボタンが設置された模擬乗務員室セットと、
    ユーザが装着するVR(Virtual Reality)ゴーグルと、
    前記ユーザの視線をトラッキングする視線トラッキング部と、
    制御装置と、
    を具備し、
    前記制御装置は、
    仮想現実空間における前記開閉操作ボタンの操作に基づく列車ドアの開閉および乗降客の乗降を含む仮想的な列車の駅着発に係る車掌業務を所与のシナリオに基づいてシミュレーションするシミュレーション部と、
    前記視線トラッキング部によるトラッキング視線に基づいて、前記シミュレーション中の前記VRゴーグルに表示させるVR画像を生成するVR画像生成部と、
    前記トラッキング視線および前記VR画像に基づいて、前記ユーザの前記仮想現実空間中の注視対象を検出する注視対象検出部と、
    前記注視対象に基づく異常発生条件を満たした場合に、前記シミュレーション中に所与の異常事象シミュレーションを発生させる異常発生処理部と、
    を有する、
    車掌模擬訓練システム。
  2. 前記シミュレーション部は、前記仮想現実空間において、ホームに設置されたITV(Industrial TeleVision)装置の表示をシミュレーションし、
    前記異常発生処理部は、所与のITV注視タイミングにおける前記注視対象として前記ITVが検出されなかったことを第1の異常発生条件として判定する、
    請求項1に記載の車掌模擬訓練システム。
  3. 前記ITV注視タイミングは、前記開閉操作ボタンで閉操作がなされた直前の所定秒数の期間を少なくとも含む、
    請求項2に記載の車掌模擬訓練システム。
  4. 前記ユーザ又は前記VRゴーグルの位置をトラッキングする位置トラッキング部、
    を更に具備し、
    前記模擬乗務員室セットは、模擬出入り口から出入りが可能に構成されており、
    前記シミュレーション部は、列車が停車予定の駅のホームに差し掛かるタイミングから、発車して列車が駅を離れるまでをシミュレーションし、
    前記VR画像生成部は、前記トラッキング視線および前記位置トラッキング部によるトラッキング位置に基づいて、前記VR画像を生成し、
    前記異常発生処理部は、所与の列車側面注視タイミングにおける前記注視対象として列車側面が検出されなかったことを第2の異常発生条件として判定する、
    請求項1~3の何れか一項に記載の車掌模擬訓練システム。
  5. 前記注視対象検出部は、列車前後方向に列車側面を区切った列車側面領域毎に注視対象として検出可能であり、
    前記異常発生処理部は、列車前後方向に連続する前記列車側面領域が続けて前記注視対象として検出されなかったことを前記第2の異常発生条件として判定する、
    請求項4に記載の車掌模擬訓練システム。
  6. 前記異常事象シミュレーションは、前記列車への乗客の駆け込み乗車の発生、および/又は、前記列車ドアにおける乗客若しくは物の挟み込みの発生のシミュレーションである、
    請求項1~5の何れか一項に記載の車掌模擬訓練システム。
JP2020152223A 2020-09-10 2020-09-10 車掌模擬訓練システム Pending JP2022046275A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020152223A JP2022046275A (ja) 2020-09-10 2020-09-10 車掌模擬訓練システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020152223A JP2022046275A (ja) 2020-09-10 2020-09-10 車掌模擬訓練システム

Publications (1)

Publication Number Publication Date
JP2022046275A true JP2022046275A (ja) 2022-03-23

Family

ID=80779822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020152223A Pending JP2022046275A (ja) 2020-09-10 2020-09-10 車掌模擬訓練システム

Country Status (1)

Country Link
JP (1) JP2022046275A (ja)

Similar Documents

Publication Publication Date Title
US10825350B2 (en) Virtual reality driver training and assessment system
Kashevnik et al. Driver distraction detection methods: A literature review and framework
JP5984605B2 (ja) 鉄道シミュレータ及び鉄道の運転をシミュレートする方法
US20220203996A1 (en) Systems and methods to limit operating a mobile phone while driving
JP2021530069A (ja) 状況的ドライバ監視システム
US20230347903A1 (en) Sensor-based in-vehicle dynamic driver gaze tracking
JP6319951B2 (ja) 鉄道シミュレータ、指差動作検出方法および鉄道シミュレーション方法
JP7026902B2 (ja) プログラム及び列車運転シミュレータ
Goedicke et al. XR-OOM: MiXed Reality driving simulation with real cars for research and design
JP6702832B2 (ja) 模擬運転装置及び模擬運転方法
JP2021032942A (ja) シミュレータ制御装置、列車運転シミュレーションシステム、および、列車運転シミュレーション方法、ならびに、プログラム
JP2009181187A (ja) 行動モデル作成装置及びプログラム
JP2021051301A (ja) 車掌模擬訓練システム
JP2015064584A (ja) ドライバ感情推定装置及び方法
JP2011227242A (ja) 運転模擬装置、運転模擬装置の制御プログラム及び運転模擬装置の制御方法。
Baltodano et al. Eliciting driver stress using naturalistic driving scenarios on real roads
JP2022046275A (ja) 車掌模擬訓練システム
KR20180127578A (ko) 수검자의 운전능력을 평가하기 위한 운전능력 평가 시스템
Deng et al. On-road and in-vehicle delivery of service signs: Effects of information source and age
JP7281742B2 (ja) プログラムおよび列車運転シミュレータ
Rakotonirainy et al. Using in-vehicle avatars to prevent road violence
Rothkrantz et al. An intelligent co-driver surveillance system
JP2003084660A (ja) 電車シミュレータ用側方車掌映像切替方式
JP4750816B2 (ja) 運転研修装置
JP7120964B2 (ja) 訓練システム