JP2019135505A - プログラム及び列車運転シミュレータ - Google Patents

プログラム及び列車運転シミュレータ Download PDF

Info

Publication number
JP2019135505A
JP2019135505A JP2018017957A JP2018017957A JP2019135505A JP 2019135505 A JP2019135505 A JP 2019135505A JP 2018017957 A JP2018017957 A JP 2018017957A JP 2018017957 A JP2018017957 A JP 2018017957A JP 2019135505 A JP2019135505 A JP 2019135505A
Authority
JP
Japan
Prior art keywords
gaze
driving
simulation
distance
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018017957A
Other languages
English (en)
Other versions
JP7026902B2 (ja
Inventor
鈴木 大輔
Daisuke Suzuki
大輔 鈴木
香奈 山内
Kana Yamauchi
香奈 山内
▲隆▼治 小池
Takaharu Koike
▲隆▼治 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Railway Technical Research Institute
Emovis Corp
Original Assignee
Railway Technical Research Institute
Emovis Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Railway Technical Research Institute, Emovis Corp filed Critical Railway Technical Research Institute
Priority to JP2018017957A priority Critical patent/JP7026902B2/ja
Publication of JP2019135505A publication Critical patent/JP2019135505A/ja
Application granted granted Critical
Publication of JP7026902B2 publication Critical patent/JP7026902B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】運転シミュレーションによる列車運転時の注視傾向をユーザに提示すること。【解決手段】列車運転シミュレータ1000において、アイトラッキング104は、運転シミュレーションの実行中、ユーザの視線を追跡検出する。注視物特定部216は、運転シミュレーションの実行中、現在の走行位置においてユーザの視線が向けられている運転画面内のオブジェクトを、当該走行位置における注視物として特定する。統計処理部220は、運転シミュレーションの実行後、注視物特定部216によって特定された走行位置毎の注視物に基づく所定の統計処理を行って、所定種類のオブジェクトを注視していた時間或いは距離に係る統計値を算出する。注視結果表示制御部222は、統計値に基づく注視結果を表示制御する。【選択図】図7

Description

本発明は、運転画面を表示して列車の運転シミュレーションを実行させるためのプログラム等に関する。
列車の運転訓練に係る技術として、列車(鉄道車両)の模擬運転をシミュレーションしてユーザの確認動作を評価する技術(例えば、特許文献1を参照)が知られている。
特開2014−71319号公報
特許文献1の技術によれば、模擬鉄道運行区間に設定されている信号機等に対してユーザが正しく視線を向けることができたかどうかを評価することはできる。しかし、列車の運転全体におけるユーザの視線を総体的に示すことができなかった。
本発明は、運転シミュレーションによる列車運転時の注視傾向をユーザに提示することができる技術の提供を目的とする。
上述した課題を解決するための第1の発明は、
ユーザの視線を追跡検出するアイトラッキング手段(例えば、図1のアイトラッカー1202)を備えたコンピュータに、運転画面を表示させて列車の運転シミュレーションを実行させるためのプログラム(例えば、図8のシミュレーションプログラム501)であって、
前記運転シミュレーションの実行中、現在の走行位置において前記ユーザの視線が向けられている前記運転画面内のオブジェクトを、当該走行位置における注視物として特定する注視物特定手段(例えば、図7の注視物特定部216)、
前記運転シミュレーションの実行後、前記注視物特定手段によって特定された前記走行位置毎の注視物に基づく所定の統計処理を行って、所定種類のオブジェクトを注視していた時間或いは距離に係る統計値を算出する統計処理手段(例えば、図7の統計処理部220)、
前記統計値に基づく注視結果を表示制御する表示制御手段(例えば、図7の注視結果表示制御部222)、
として前記コンピュータを機能させるためのプログラムである。
第1の発明によれば、運転シミュレーションの実行中、ユーザの注視物を走行位置毎に特定することができる。そして、運転シミュレーションの実行後、所定種類のオブジェクト(対象物)を注視していた時間或いは距離に係る統計値を算出して注視結果を表示制御することができ、当該運転シミュレーションによる列車運転時の注視傾向を、ユーザに提示できる。模擬運転全体におけるユーザの注視傾向を総体的に示すことができる。
また、第2の発明は、
前記所定種類のオブジェクトには、鉄道信号に係るオブジェクトと、線路に係るオブジェクトとが少なくとも含まれる、
第1の発明のプログラムである。
第2の発明によれば、鉄道信号に係るオブジェクトと、線路に係るオブジェクトとを注視物として特定することができる。よって、模擬運転全体における鉄道信号に対する注視傾向や、線路に対する注視傾向をユーザに提示できる。
また、第3の発明は、
前記線路に係るオブジェクトは、所定の距離閾値に基づき現在の走行位置からの距離が近距離側に位置する線路近傍に係るオブジェクトと、前記距離閾値に基づき現在の走行位置からの距離が遠距離側に位置する線路前方に係るオブジェクトとがあり、
前記注視物特定手段は、前記ユーザの視線が向けられているオブジェクトが前記線路に係るオブジェクトの場合に、前記線路近傍に係るオブジェクトか前記線路前方に係るオブジェクトかを更に特定することで前記注視物を特定する、
第2の発明のプログラムである。
第3の発明によれば、ユーザの視線が線路に係るオブジェクトに向けられている場合に、注視物が、現在の走行位置から近距離側の線路近傍に係るオブジェクトなのか、遠距離側の線路前方に係るオブジェクトなのかをさらに特定することができる。よって、近距離側の線路近傍を注視する傾向と、遠距離側の線路前方を注視する傾向とをユーザに提示できる。
また、第4の発明は、
前記距離閾値は、列車の速度域毎に段階的に定められ、
前記注視物特定手段は、前記ユーザの視線が向けられているオブジェクトが前記線路に係るオブジェクトの場合に、現在の走行速度に応じた距離閾値を用いて、前記線路近傍に係るオブジェクトか前記線路前方に係るオブジェクトかを更に特定することで前記注視物を特定する、
第3の発明のプログラムである。
第4の発明によれば、線路近傍に係るオブジェクトなのか線路前方に係るオブジェクトなのかの特定に用いる距離閾値を列車の現在の走行速度に応じて設定でき、ユーザが線路近傍を見ていたのか線路前方を見ていたのかを走行速度に応じて適切に判別できる。
また、第5の発明は、
前記所定種類のオブジェクトには、信号機に係るオブジェクトが含まれ、
前記注視物特定手段によって特定された注視物が、前記信号機に係るオブジェクトであった場合に、前記ユーザの視線が当該注視物に向けられていたときの走行位置から当該注視物までの注視距離を算出する信号機注視距離算出手段(例えば、図7の信号機注視距離算出部218)、
を更に備え、
前記統計処理手段は、前記信号機に係るオブジェクトを注視していた前記注視距離に係る統計値を算出する、
第1〜第4の何れかの発明のプログラムである。
第5の発明によれば、信号機に係るオブジェクトを注視物として特定することができる。そして、ユーザの視線が当該注視物である信号機に係るオブジェクトに向けられていたときの走行位置から注視物までの注視距離について統計値を算出し、注視結果としてユーザに提示することができる。
また、第6の発明は、
前記統計処理手段は、前記運転シミュレーションによる運転区間の全部又は一部として設定された対象区間における前記統計値を算出する、
第1〜第5の何れかの発明のプログラムである。
また、第7の発明は、
前記対象区間は、駅発車時の区間、惰行運転の区間、駅到着時の区間、及び踏切通過時の区間のうちの何れか1つ又は複数の区間である、
第6の発明のプログラムである。
第6の発明によれば、運転区間の全部または一部の区間である対象区間について統計値を算出し、注視結果をユーザに提示することができる。そして、第7の発明によれば、駅発車時の区間、惰行運転の区間、駅到着時の区間、及び踏切通過時の区間のうちの何れか1つの区間又は複数の区間を対象区間に設定することができる。
また、第8の発明は、
前記コンピュータは、前記運転シミュレーションのための操作卓及び/又は計器架を備え、
前記統計処理手段は、前記運転シミュレーションの実行中、さらに、前記ユーザの視線が前記運転画面外となった時間或いは距離に係る統計値を算出する、
第1〜第7の何れかの発明のプログラムである。
第8の発明によれば、運転シミュレーションのための操作卓や計器架が設置される運転画面外にユーザの視線が向けられていた時間或いは距離に係る統計値を算出して、注視結果をユーザに提示することができる。
また、第9の発明は、
前記表示制御手段は、模範ユーザが前記運転シミュレーションを行ったときの前記統計値に基づく模範注視結果を更に表示制御する、
第1〜第8の何れかの発明のプログラムである。
第9の発明によれば、例えば、ユーザの注視結果を、教官等の熟練者である模範ユーザが運転シミュレーションを行ったときの模範注視結果と対比させて表示するといったことが可能となる。
また、第10の発明は、
運転画面を表示して列車の運転シミュレーションを実行する列車運転シミュレータ(例えば、図1の列車運転シミュレータ1000)であって、
前記運転シミュレーションの実行中、ユーザの視線を追跡検出する視線検出手段と、
前記運転シミュレーションの実行中、現在の走行位置において前記ユーザの視線が向けられている前記運転画面内のオブジェクトを、当該走行位置における注視物として特定する注視物特定手段と、
前記運転シミュレーションの実行後、前記注視物特定手段によって特定された前記走行位置毎の注視物に基づく所定の統計処理を行って、所定種類のオブジェクトを注視していた時間或いは距離に係る統計値を算出する統計処理手段と、
前記統計値に基づく注視結果を表示制御する表示制御手段と、
を備えた列車運転シミュレータである。
第10の発明によれば、第1の発明と同様の効果を奏する列車運転シミュレータを実現できる。
列車運転シミュレータの全体構成例を示す図。 運転画面の一例を示す図。 注視物特定処理を説明する図。 距離閾値の設定例を示す図。 注視結果の表示例を示す図。 注視結果の他の表示例を示す図。 列車運転シミュレータの機能構成例を示すブロック図。 記憶部が記憶するプログラムやデータの例を示す図。 シミュレーション環境別オブジェクト位置定義データのデータ構成例を示す図。 注視物特定結果データのデータ構成例を示す図。 シミュレーション制御データのデータ構成例を示す図。 コンピュータにおける処理の流れを説明するためのフローチャート。 注視物特定処理の流れを説明するためのフローチャート。 統計処理の流れを説明するためのフローチャート。
以下、図面を参照して、本発明の好適な実施形態について説明する。なお、以下説明する実施形態によって本発明が限定されるものではなく、本発明を適用可能な形態が以下の実施形態に限定されるものでもない。また、図面の記載において、同一部分には同一の符号を付す。
[全体構成例]
図1は、本実施形態における列車運転シミュレータ1000の全体構成例を示す図である。本実施形態の列車運転シミュレータ1000は、列車の運転を訓練するための装置であり、通信回線9により通信可能に接続されたコンピュータ1100と、アイトラッカー1202と、ビデオモニタ1204と、計器架1208を有する操作卓1206と、を含むコンピュータシステムである。図1の例では、一人用の列車運転シミュレータ1000を想定しているので、アイトラッカー1202、ビデオモニタ1204及び操作卓1206のセットを1セットのみ図示しているが、複数人が同時に訓練できるようにする場合には、当該セットを複数設けるものとする。また、図示していないが、操作卓1206付近には、ダイヤ(各駅の到着時刻や出発時刻を記載した運転士が携帯する時刻表)や、運転士手帳等が配置される。すなわち、訓練ユーザの使用において、その形態が、運転台ないし乗務員室を模擬した態様となっている。
通信回線9は、データ通信が可能な通信路を意味する。すなわち、通信回線9とは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLAN(Local Area Network)の他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。
コンピュータ1100は、本体装置1101と、キーボード1106と、タッチパネル1108とを有し、本体装置1101には制御基板1150を搭載する。
制御基板1150には、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等の各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、通信装置1153が搭載されている。なお、制御基板1150の一部又は全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(field-programmable gate array)、SoC(System on a Chip)により実現するとしてもよい。
そして、コンピュータ1100は、制御基板1150が所定のプログラム及びデータに基づいて演算処理することにより、列車運転シミュレータ1000を統合的に制御する。
なお、コンピュータ1100は単体として記しているが、各機能を分担する複数のコンピュータを搭載して相互に内部バスを介してデータ通信可能に接続した構成であってもよい。或いは、離れた場所に設置された独立した複数のコンピュータを、通信回線9を介してデータ通信させることで、全体としてコンピュータ1100として機能させる構成であってもよい。
アイトラッカー1202と、ビデオモニタ1204と、操作卓1206とのセットは、訓練ユーザ1人で1セットを使用する。
アイトラッカー1202は、ユーザの視線の動きを所定の追跡周期で検出・追跡・分析することを第1の機能とし、ユーザの頭部の向きを検出・追跡・分析することを第2の機能とする装置であって、視線及び頭部の動きを検出するためのデータ、或いは視線及び頭部の動きを追跡・分析した演算結果のデータをコンピュータ1100へ送信することができる。
アイトラッカー1202は、図1のようなユーザの正面に設置される非装着型の据え置き装置として実現することとしてもよいし、メガネやゴーグルの形態としてユーザが装着する装着型の装置として実現してもよい。また、視線の動きを検出する方法も特には問わない。例えば、撮像センサでユーザを正面から撮影し、撮影画像を画像処理して瞳が写っている部分を検出して、検出した瞳の向きを判定して視線方向を演算して求めるとしてもよい。ユーザの頭部の向きを検出する方法も、撮影画像を画像処理することで検出する方法など、何れの方法を採用することとしてもよい。アイトラッカー1202を装着型の装置とする場合には、加速度センサやジャイロセンサを内蔵してこれらのセンサの検出値に基づいて頭部の向きを検出する方法を採用することもできる。また、アイトラッカー1202のうち、撮像センサ等のセンサ部分と、演算処理する装置とは一体であってもよいし、後者をコンピュータ1100にて実現する構成としてもよい。
ビデオモニタ1204は、運転シミュレーションにおける運転席から見た仮想景観画像である運転画面を表示するための表示装置であり、コンピュータ1100から出力される信号に従って映像を表示することができる。具体的には、据置型のフラットパネルディスプレイや、ヘッドマウントディスプレイ、ビデオプロジェクタ等を適宜利用して実現できる。なお、ヘッドマウントディスプレイで実現する場合には、ゴーグル型のアイトラッカー1202を兼ねる構成としてもよい。
運転画面は、所定位置に鉄道信号が設置された所定の運転区間を走行する列車の運転台の様子や運転台の車窓から見える風景・景観に、各種情報表示を含めたシミュレーション画面である。鉄道信号とは、列車に対して現示や表示により運転する条件を示すもののことであり、信号機等の信号の他、合図や標識等を含む。
図2に、運転画面の画面例を示す。本実施形態では、運転画面W1には、運転シミュレーション中に追跡検出される訓練ユーザの視線位置(訓練ユーザ視線位置)Prが表示される。訓練ユーザ視線位置Prは、例えば、アイトラッカー1202で検出される訓練ユーザの視線が運転画面W1を貫いている位置である。
操作卓1206は、実際の列車の運転席を模擬する操作入力装置であって、例えば、マスコンに相当する入力レバー等を備え、操作入力信号をコンピュータ1100へ送信することができる。また、操作卓1206は、速度計等の計器やスイッチ類が配置された計器架1208を備える。ただし、計器架1208は、入力レバー等を備えた操作卓1206と一体である必要はなく、別体であってもよい。
[原理]
本実施形態では、列車運転シミュレータ1000は、運転シミュレーションの実行中、シミュレーション走行位置毎に、訓練ユーザの視線がどこに向けられていたのかを特定する注視物特定処理を行う。そして、運転シミュレーションの実行後に所定の統計処理を行い、当該シミュレーション中の訓練ユーザの注視結果を表示する制御を行う。
(1)注視物特定処理
図3は、注視物特定処理を説明する図であり、図2に示す瞬間の仮想景観画像について定められるオブジェクトの位置情報を摸式的に示している。本実施形態では、シミュレーション走行位置毎に、当該シミュレーション走行位置の走行時における運転画面(仮想景観画像)に含まれる所定種類のオブジェクトの位置情報を、予め設定しておく。
所定種類のオブジェクトには、鉄道信号に係るオブジェクトと、線路に係るオブジェクトとが少なくとも含まれる。本実施形態では、鉄道信号に係るオブジェクトのうちの信号機に係るオブジェクト(信号機オブジェクト)及び標識に係るオブジェクト(標識オブジェクト)と、線路に係るオブジェクトのうちの線路近傍に係るオブジェクト(線路近傍オブジェクト)及び線路前方に係るオブジェクト(線路前方オブジェクト)と、風景に係るオブジェクト(風景オブジェクト)と、その他の領域オブジェクトとの6種類のオブジェクトが、注視物特定処理で特定される。そして、そのうちの信号機オブジェクト、標識オブジェクト、風景オブジェクト及びその他の領域オブジェクトの各領域と、線路近傍オブジェクト又は線路前方オブジェクトの領域となる線路全体の領域について、予め位置情報が設定される。なお、オブジェクトの種類は例示した6種類に限らず、適宜設定してよい。
具体的には、図3に例示するように、仮想景観画像内の信号機の領域A21には信号機オブジェクトを示すフラグ情報が設定され、線路の領域A23には線路オブジェクトを示すフラグ情報が設定され、風景の領域A25には風景オブジェクトを示すフラグ情報が設定される。また、標識の領域には標識オブジェクトを示すフラグ情報が設定され、これらの何れにも属さない領域にはその他の領域オブジェクトを示すフラグ情報が設定される。
そして、注視物特定処理では、運転シミュレーションの実行中、現在のシミュレーション走行位置において訓練ユーザの視線が運転画面内なのか運転画面外なのかを先ず判定し、運転画面外であればそのシミュレーション走行位置における訓練ユーザの注視物を「運転画面外」として特定する一方、運転画面内の場合は、当該視線が向けられている運転画面内のオブジェクトを注視物として特定する処理を繰り返す。具体的には、現在のシミュレーション走行位置について定められたオブジェクトの位置情報を参照し、現在の訓練ユーザ視線位置Prのオブジェクトが、信号機オブジェクト、標識オブジェクト、風景オブジェクト又はその他の領域オブジェクトであれば、そのオブジェクトを当該シミュレーション走行位置の注視物とする。図2の例では、訓練ユーザ視線位置Prは、図3に示す信号機の領域A21に属していることから、そのシミュレーション走行位置における注視物は信号機オブジェクトとして特定される。
その後、特定した注視物が信号機オブジェクトの場合は、信号機注視距離算出処理を行い、現在のシミュレーション走行位置から注視物とされた信号機オブジェクトまでの注視距離を算出する。本実施形態では、仮想景観画像に信号機オブジェクトが含まれるシミュレーション走行位置について、当該シミュレーション走行位置から信号機オブジェクトまでの距離(信号機距離)を予め設定しておく。そして、現在のシミュレーション走行位置について設定されている信号機距離を、注視距離とする。
また、現在の訓練ユーザ視線位置Prのオブジェクトが線路オブジェクトの場合は、そのシミュレーション走行位置からの距離をもとに、線路近傍オブジェクトなのか線路前方オブジェクトなのかを更に特定する。線路近傍オブジェクトは、線路オブジェクトのうち、現在のシミュレーション走行位置からの距離が近距離側に位置する領域をいい、線路前方オブジェクトは、当該距離が遠距離側に位置する列車の進行方向前方の領域をいう。本実施形態では、所定の距離閾値を用いて線路の領域を現在のシミュレーション走行位置の近距離側と遠距離側とに分けて、各領域を線路近傍オブジェクト及び線路前方オブジェクトとする。例えば、図3中のD2に相当する距離が距離閾値とされた場合、破線を境に手前側が線路近傍オブジェクトA231、奥側が線路前方オブジェクトA233となる。よって、仮に図2中に示す位置Pr1が訓練ユーザ視線位置であった場合は、線路前方オブジェクトが注視物として特定されることとなる。
より詳細には、距離閾値は、予め列車の速度域毎に段階的に定められる。図4は、距離閾値の設定例を示す図である。図4の例では、低速域、中速域及び高速域の3つの速度域毎に距離閾値Ta,Tb,Tcが設定されている。この距離閾値の値は、速い速度域ほど長距離とされる(Tc>Tb>Ta)。そして、現在のシミュレーション走行速度が何れの速度域に属するのかに応じて距離閾値Ta,Tb,Tcを選択的に用い、現在のシミュレーション走行位置における仮想景観画像内の線路の領域を線路近傍オブジェクト及び線路前方オブジェクトの各領域に分割した上で、注視物を特定する。運転画面は、画面下端が列車に最も近い位置となり、画像上方にいくにしたがって列車から離れた位置となる。従って、距離閾値は運転画面の画面下端からの距離として定めることもできる。
以上の注視物特定処理によれば、運転シミュレーション中、訓練ユーザが何に視線を向けていたのか、例えば、信号機を見ていたとか、列車の進行方向前方を見ていた、空等の風景を見ていたといった、注視物の種類をシミュレーション走行位置毎に特定して記録することができる。
(2)統計処理
統計処理では、運転シミュレーションの実行中に注視物特定処理にて走行位置毎に特定した注視物に基づいて、所定種類のオブジェクトを注視していた時間に係る統計値を算出する。本実施形態では、運転シミュレーションの開始時(シミュレーション走行開始時)を基準として、所定の時間間隔毎(例えば0.1秒毎)の各時刻における注視物を抽出する。そして、「信号機」「標識」「線路近傍」「線路前方」「風景」及び「その他」の各オブジェクトの種類と「運転画面外」の各項目を注視項目とし、それらが抽出された回数を別個に計数する。
より詳細には、その際、運転シミュレーションによる運転区間の全部又は一部として予め設定された対象区間における注視項目毎の統計値を算出する。本実施形態では、駅発車時の区間、惰行運転の区間、駅到着時の区間及び踏切通過時の区間の4つの対象区間に運転区間が区画され、これら対象区間毎に前述の注視項目毎の抽出回数を計数する。
そして、「信号機」「標識」「線路近傍」「線路前方」「風景」「その他」及び「運転画面外」の計数値が全体に占める割合を注視項目毎に算出して、該当する対象区間に係る各注視項目の統計値とする。
なお、統計値は、注視していた時間に係る統計値に限らず、注視していた走行距離に係る統計値を算出する構成でもよい。具体的には、注視物を抽出する毎に、その時点の走行速度と注視物を抽出する時間間隔(例えば0.1秒)とを乗算して、当該注視物を注視していた走行距離を算出・記録しておき、対象区間毎に、注視項目のオブジェクトや運転画面外を注視していた走行距離を集計して、統計値としてもよい。
(3)注視結果表示制御処理
図5は、注視結果の表示例を示す図であり、ある対象区間における統計値を帯グラフにした例を示している。注視結果表示制御処理では、統計処理にて各対象区間について注視項目毎に算出した統計値を例えば図5に示す帯グラフにして、訓練ユーザの注視結果として表示制御する。これによれば、運転シミュレーションの終了直後や実行後の任意のタイミングにおいて、注視項目とされた対象物に対する当該シミュレーション中の総体的な注視傾向を、訓練ユーザに提示することができる。
より詳細には、本実施形態の注視結果表示制御処理では、図5に示すように、訓練ユーザの注視結果を、教官等の模範ユーザが運転シミュレーションを行ったときの統計値に基づく注視結果(模範注視結果)と並べて表示制御する。模範注視結果は、模範ユーザによる当該運転シミュレーションの実演時に視線の動きを取得し、上記と同様の要領で統計値を算出して、予め用意しておく。これによれば、訓練ユーザに対し、自身の注視結果と対比させる態様で模範ユーザの模範注視結果を提示できる。よって、列車運転時に視界に入る例えば信号機や標識、列車の進行方向前方といった対象物への注意の払い方を訓練ユーザに効果的に教えることができる。例えば、図5の例では、訓練ユーザが線路前方ではなく線路近傍を見がちであり、熟練者のように線路前方をよく見るよう指導・教育し、或いは、当該注視結果をふまえて訓練ユーザに再度運転シミュレーションを行うよう指示するといったことが可能となる。いわば訓練ユーザの視線傾向に係る癖を正すように指示することが可能となる。
また、本実施形態では、線路の領域を、現在のシミュレーション走行位置から近距離側と遠距離側とに分け、遠距離側の列車の進行方向前方の領域を、注視物の1つである線路前方オブジェクトとして特定することができる。一般に、低速走行時は高速走行時と比較して近くを見ると言われており、速度域によって進行方向前方の範囲を設定するのが望ましい。本実施形態によれば、速度域に応じてそれらを分ける距離閾値を設定でき、そのシミュレーション走行位置において進行方向前方をみていたかどうかを適切に判別できる。
また、列車の運転においては、駅発車時や惰行運転時、駅到着時、踏切通過時といった運転フェーズによって、運転士の注視行動が異なる。例えば、駅発車時は、計器架を見たり時刻表を確認する等の作業を行うため、列車の進行方向前方から視線が外れている時間の割合が相対的に大きくなる。これに対し、惰行運転時に進行方向前方から視線を外すことは少なく、進行方向前方の監視と信号機や標識の確認が重要となる。本実施形態によれば、運転フェーズ毎に注視結果を提示することができる。また、併せて模範ユーザによる模範注視結果を提示できる。これによれば、訓練ユーザは、注視すべき対象物へと適切に視線を向けていたのかを容易に把握でき、訓練ユーザに対し、運転フェーズに合った対象物への注意の払い方を効果的に教えることが可能となる。
また、列車の運転においては、鉄道信号や進行方向前方の様子の他にも、運転台に設けられた計器架や時刻表等、車窓の外以外にも見るべきものがある。本実施形態によれば、シミュレーション走行位置毎に、訓練ユーザの視線が運転画面内なのか運転画面外なのかを判定して、運転画面外を注視物の1つとして特定することができる。そして、操作卓1206や計器架1208が設置された運転画面外にユーザの視線が向けられていた時間或いは距離に係る統計値を算出して、注視結果をユーザに提示することができる。
なお、図6に注視結果の他の表示例を示す。図6では、注視項目毎に、訓練ユーザが視線を向けていた時間帯を識別表示した例を示している。図6に向かって右方向が時間経過を示しており、左端が出発時点である。この表示例では、各注視項目の注視傾向とともに、訓練ユーザの視線の動きを提示できる。また、模範注視結果を並べて表示することで模範ユーザの視線の動きを併せて提示でき、注視すべき対象物に視線を向けたタイミングの良否をさらに指導・教育することができる。
また、列車の運転においては、視線を向けたときの注視物までの距離が重要な場合がある。例えば、信号機であれば、その600m程度手前に設置される信号喚呼位置標識の通過時に一度注視し、その後信号機を通過する際にも注視するのが模範である。信号喚呼位置標識を通過してから信号機を通過するまでの間に「赤信号」に変わる場合もあり、それを確認するためである。
そこで、注視項目のうちの「信号機」については、その注視距離を用い、遠くからの注視と近くからの注視とを分けて統計値を算出するとよい。具体的には、予め定められる所定の注視距離閾値に従い、遠くからの注視に係る抽出回数と、近くからの注視に係る抽出回数とを別個に計数する。この場合は、「信号機(遠距離注視)」「信号機(近距離注視)」「標識」「線路近傍」「線路前方」「風景」「その他」及び「運転画面外」の計数値が全体に占める割合を注視項目毎に算出して、該当する対象区間に係る各注視項目の統計値とする。これによれば、信号機オブジェクトを注視物としたときに注視距離を算出することができる。そして、算出した注視距離をもとに、信号機を遠くから注視した場合の統計値と、近くから注視した場合の統計値とを算出することができる。よって、訓練ユーザが信号機を注視していたかだけでなく、遠方からの注視及び信号機通過時の注視の両方を適切に行っているのかを判別できる。
[機能構成]
図7は、本実施形態における列車運転シミュレータ1000の機能構成例を示すブロック図である。図7に示すように、列車運転シミュレータ1000は、管理操作入力部100と、運転操作入力部102と、アイトラッキング部104と、演算部200と、画像表示部390と、音出力部392と、記憶部500とを備える。
管理操作入力部100は、列車運転シミュレータ1000の管理のための各種操作を入力するための手段である。例えば、キーボード、タッチパネル、マウス、タッチパッド、レバー、スイッチ等の操作入力デバイスにより実現され、操作入力信号を演算部200へ出力する。図1の例では、キーボード1106がこれに該当する。
運転操作入力部102は、ユーザが運転操作を入力する手段である。例えば、スイッチ、レバー、ダイヤル、タッチパネル、ペダル、ハンドル等により実現され、操作入力信号を演算部200へ出力する。図1の例では、操作卓1206の入力レバー等がこれに該当する。
アイトラッキング部104は、ユーザの視線を追跡検出する、いわゆるアイトラッキングを行う。また、アイトラッキング部104は、ユーザの頭部の向きを追跡検出する、いわゆるヘッドトラッキングを行う。そして、アイトラッキング部104は、視線方向を示す情報、或いは視線が運転画面を貫く位置座標を視線追跡結果として演算部200へ逐一出力する。本実施形態では後者とし、訓練ユーザの視線が運転画面内であれば、前述の位置座標を演算部200へ出力する。一方、訓練ユーザの視線が運転画面外の場合は、運転画面外である旨のフラグ情報(運転画面外フラグ)を視線追跡結果として演算部200へ出力する。図1の例では、アイトラッカー1202がこれに該当する。視線方向を示す情報の算出処理、或いは視線位置座標の算出処理の一部又は全部をコンピュータ1100にて実行する場合には、制御基板1150もこれに該当する。
演算部200は、例えばCPUやGPU等のマイクロプロセッサや、ASIC、ICメモリ等の電子部品によって実現され、各機能部との間でデータの入出力制御を行う。そして、所定のプログラムや各種設定データ、アイトラッキング部104からの視線追跡結果、管理操作入力部100や運転操作入力部102からの操作入力信号等に基づいて各種の演算処理を行い、列車運転シミュレータ1000の動作を統合的に制御する。図1の例では、制御基板1150がこれに該当する。
そして、本実施形態の演算部200は、シミュレーション制御部210と、計時部280と、音生成部292と、画像生成部290とを含む。勿論、これら以外の機能部も適宜含めることができる。
シミュレーション制御部210は、訓練ユーザ視線位置取得部212と、運転画面表示制御部214と、注視物特定部216と、信号機注視距離算出部218と、統計処理部220と、注視結果表示制御部222とを備え、運転シミュレーションに係る各種演算処理を実行する。
訓練ユーザ視線位置取得部212は、訓練ユーザによる運転シミュレーションの実行中、アイトラッキング部104による追跡周期毎にその視線追跡結果(訓練ユーザの視線位置座標又は運転画面外フラグ)を取得する。
運転画面表示制御部214は、運転画面を表示制御する。本実施形態では、訓練ユーザ視線位置取得部212により取得された視線追跡結果に基づいて、仮想景観画像上で現在の訓練ユーザ視線位置を識別表示させた運転画面を表示制御する。
注視物特定部216は、運転シミュレーションの実行中に注視物特定処理を行い、訓練ユーザの注視物をシミュレーション走行位置毎に特定する。
信号機注視距離算出部218は、注視物特定部216が信号機オブジェクトを注視物として特定した際に信号機注視距離算出処理を行い、現在のシミュレーション走行位置から当該信号機オブジェクトまでの距離を信号機注視距離として算出する。
統計処理部220は、運転シミュレーションの実行後に統計処理を行い、駅発車時の区間、惰行運転の区間、駅到着時の区間及び踏切通過時の区間の各対象区間について、信号機(遠距離注視)、信号機(近距離注視)、標識、線路近傍、線路前方、風景、その他及び運転画面外の注視項目毎に、該当する種類のオブジェクトや運転画面外を注視していた時間に係る統計値を算出する。
注視結果表示制御部222は、統計処理で各対象区間について注視項目毎に求めた統計値に基づいて、該当する運転シミュレーションに係る訓練ユーザの注視結果を表示する制御を行う。
計時部280は、システムクロックを利用して現在日時やシミュレーション世界の日時、各種タイマーに係る計時を行う。
画像生成部290は、コンピュータ1100のシステム管理に関する画像や、シミュレーション画像である運転画面W2〜W8等を生成することができる。そして、生成した画像を表示させるための画像信号を画像表示部390へ出力することができる。
音生成部292は、音声データの生成やデコードをするICやソフトウェアの実行により実現され、コンピュータ1100のシステム管理や運転シミュレーションに係る操作音や環境音等の音声データを生成或いはデコードする。そして、音声信号を音出力部392へ出力する。
画像表示部390は、画像生成部290から入力される画像信号に基づいてシステム管理のための各種画像や、運転画面W2〜W8を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。図1の例では、システム管理に関する画像は、タッチパネル1108に表示され、運転画面はビデオモニタ1204にて表示される。
音出力部392は、音生成部292から入力される音声信号を放音する。図1の例では、本体装置1101やタッチパネル1108が備えるスピーカ(不図示)がこれに該当する。
記憶部500には、列車運転シミュレータ1000を動作させ、列車運転シミュレータ1000が備える種々の機能を実現するためのプログラムや、このプログラムの実行中に使用されるデータ等が予め格納され、或いは処理の都度一時的に格納される。例えば、RAMやROM等のICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVD等の光学ディスク、オンラインストレージ等によって実現される。図1の例では、本体装置1101が搭載するICメモリ1152がこれに該当する。
図8は、記憶部500が記憶するプログラムやデータの例を示す図である。記憶部500は、シミュレーションプログラム501と、シミュレーション環境初期設定データ510と、シミュレーション環境別オブジェクト位置定義データ520と、距離閾値テーブル530と、シミュレーション環境別対象区間設定540と、模範注視結果データ550とを予め記憶している。また、記憶部500は、適宜生成・更新されるデータとして、訓練ユーザ視線追跡結果データ560と、注視物特定結果データ570と、シミュレーション制御データ600と、注視結果データ700と、現在日時800とを記憶する。その他、タイマーや、カウンタ、各種フラグ等の情報を適宜記憶できる。
シミュレーションプログラム501は、演算部200が読み出して実行することで、シミュレーション制御部210としての機能を実現させるためのプログラムである。
シミュレーション環境初期設定データ510は、運転シミュレーションの環境条件別に用意されて、当該運転シミュレーションの内容を定義する各種データを格納する。例えば、1つのシミュレーション環境初期設定データ510は、走行区間種類511と、季節種類512と、天候種類513と、時間帯種類514とを含む。また、シミュレーション環境初期設定データ510は、環境オブジェクト設定データ515と、鉄道信号設定データ516と、対応位置定義ID517とを含む。勿論、これら以外のデータも適宜含めることができる。
環境オブジェクト設定データ515は、シミュレーションする空間に配置される主に背景や環境を構成するオブジェクト(駅やビル等の建物のオブジェクト、景色等の景観を構成するオブジェクト)毎に用意され、当該オブジェクトのモデルデータ、テクスチャデータ、配置データ、モーションデータ等を定義する。
鉄道信号設定データ516は、シミュレーションする空間に配置される鉄道信号別に用意され、当該鉄道信号のモデルデータ、テクスチャデータ、配置位置データ、動作する鉄道信号の場合の動作パターンデータ等を定義する。
対応位置定義ID517は、当該シミュレーション環境初期設定データ510を用いた運転シミュレーションに係る運転画面(仮想景観画像)について定めたシミュレーション環境別オブジェクト位置定義データ520のオブジェクト位置定義ID521(図9を参照)を格納する。
シミュレーション環境別オブジェクト位置定義データ520は、運転シミュレーションの環境条件別に用意されて、当該運転シミュレーション中に運転画面に表示される仮想景観画像内のオブジェクトの位置情報を定義する。図9は、シミュレーション環境別オブジェクト位置定義データ520のデータ構成例を示す図である。1つのシミュレーション環境別オブジェクト位置定義データ520は、例えば図9に示すように、オブジェクト位置定義ID521と、オブジェクト位置定義データ523とを含む。そして、オブジェクト位置定義データ523は、当該運転シミュレーションのシミュレーション走行位置毎に用意され、そのシミュレーション走行位置524と、オブジェクト位置情報525と、信号機距離526とを含む。
オブジェクト位置情報525は、対応するシミュレーション走行位置524の走行時における運転画面(仮想景観画像)内の信号機オブジェクト、標識オブジェクト、風景オブジェクト、線路全体の領域オブジェクト及びその他の領域オブジェクトの各オブジェクトの位置情報を格納する(図3を参照)。
信号機距離526は、対応するシミュレーション走行位置524の走行時における運転画面(仮想景観画像)に信号機オブジェクトが含まれる場合に設定され、当該シミュレーション走行位置524から信号機オブジェクトまでの距離が設定される。
図8に戻り、距離閾値テーブル530には、線路の領域を線路オブジェクトと前方オブジェクトとに分割する際に用いる距離閾値が、列車の速度域と対応付けて設定される(図4を参照)。
シミュレーション環境別対象区間設定540は、運転シミュレーションの環境条件別に用意されて、その運転区間内の駅発車時の区間、惰行運転の区間、駅到着時の区間及び踏切通過時の区間を定義する。
模範注視結果データ550は、運転シミュレーションの環境条件別に用意されて、該当する運転シミュレーションを模範ユーザが実演することで得た当該模範ユーザの注視結果を格納する。
注視物特定結果データ570は、シミュレーション走行位置毎の注視物の特定結果を格納する。図10は、注視物特定結果データ570のデータ構成例を示す図である。図10に示すように、注視物特定結果データ570には、実行中の運転シミュレーションのシミュレーション走行位置毎に、当該シミュレーション走行位置の注視物特定処理で特定された注視物と、当該注視物が信号機オブジェクトの場合に信号機注視距離算出処理で算出された注視距離とが設定される。
シミュレーション制御データ600は、運転シミュレーションを実行制御するための各種データを格納する。図11は、シミュレーション制御データ600のデータ構成例を示す図である。シミュレーション制御データ600は、例えば図11に示すように、走行区間602と、季節604と、天候606と、時間帯608と、使用位置定義ID610と、シミュレーション経過時間612と、シミュレーション走行位置614と、シミュレーション走行速度616とを含む。また、現在訓練ユーザ視線位置座標618と、環境オブジェクト制御データ620と、鉄道信号制御データ622と、運転画面データ624とを含む。勿論、これら以外のデータも適宜含めることができる。
走行区間602と、季節604と、天候606と、時間帯608は、運転シミュレーションの環境条件であって、シミュレーション開始前に所定の環境条件選択画面を表示してこれら各項目の選択入力を受け付けた結果である。
シミュレーション経過時間612は、シミュレーション開始からの経過時間である。シミュレーション走行位置614及びシミュレーション走行速度616は、操作卓1206(図1参照)で入力された運転操作に応じてシミュレーションされた仮想列車の走行位置と走行速度を、それぞれ格納する。
現在訓練ユーザ視線位置座標618は、訓練ユーザ視線位置取得部215aが取得した視線追跡結果が示す視線位置座標を格納する。
環境オブジェクト制御データ620は、走行区間602、季節604、及び天候606が適合するシミュレーション環境初期設定データ510の環境オブジェクト設定データ515のオブジェクト毎に用意され、シミュレーション実行中のそれらの状態を制御するためのデータを格納する。
鉄道信号制御データ622は、走行区間602、季節604、及び天候606が適合するシミュレーション環境初期設定データ510の鉄道信号設定データ516のオブジェクト毎に用意され、シミュレーション実行中のそれらの状態を制御するためのデータを格納する。
図8に戻り、注視結果データ700は、実行された運転シミュレーション毎に用意され、その実行後の統計処理で算出された統計値を当該運転シミュレーションにおける訓練ユーザの注視結果として記憶する。
[処理の流れ]
図12は、本実施形態の列車運転シミュレータ1000における処理の流れを説明するためのフローチャートである。ここで説明する処理は、演算部200がシミュレーションプログラム501を読み出して実行することにより実現される。
本実施形態では、列車運転シミュレータ1000のコンピュータ1100は先ず、所定のシミュレーション環境画面を表示制御し、運転シミュレーションの環境条件の設定入力を受け付ける(ステップS1)。具体的には、走行区間や季節、天候、時間帯の選択操作を受け付けて、それらを走行区間602、季節604、天候606、及び時間帯608としてシミュレーション制御データ600に格納する。
続いて、コンピュータ1100は、ステップS1での環境条件設定に適合するシミュレーション環境初期設定データ510を読み出すとともに、その対応位置定義ID517に従って、当該シミュレーション環境初期設定データ510に対応したシミュレーション環境別オブジェクト位置定義データ520を読み出す(ステップS2)。このとき、対応位置定義ID517を使用位置定義ID610としてシミュレーション制御データ600に格納する。
その後、運転シミュレーションを開始する(ステップS3)。これにより、シミュレーション経過時間612の計時が開始され、シミュレーション走行位置614やシミュレーション走行速度616がシミュレートされる。環境オブジェクト制御データ620及び鉄道信号制御データ622も、当該シミュレーションの進行に応じて変更される。また、訓練ユーザ視線位置取得部212が、アイトラッキング部104による視線追跡結果の取得を開始する(ステップS4)。これにより、アイトラッキング部104の追跡周期で視線追跡結果が訓練ユーザ視線追跡結果データ560に蓄積されるとともに、現在訓練ユーザ視線位置座標618が変更される。視線追跡結果が訓練ユーザの視線位置座標であれば当該座標で現在訓練ユーザ視線位置座標618が変更され、運転画面外フラグであれば現在訓練ユーザ視線位置座標618がクリアされる。
そして、コンピュータ1100は、運転シミュレーションを開始すると、当該シミュレーションが終了するまでの間、運転画面の表示及び注視物の特定に係る処理を繰り返す(ステップS5〜ステップS6)。
具体的には、コンピュータ1100は、運転画面生成表示処理を行う(ステップS5)。本実施形態の運転画面生成表示処理では、現在訓練ユーザ視線位置座標618に従い、仮想景観画像上で現在の訓練ユーザ視線位置を識別表示した運転画面を生成して表示する。
また、コンピュータ1100は、注視物特定処理を行う(ステップS6)。図13は、注視物特定処理の流れを説明するためのフローチャートである。図13に示すように、注視物特定処理では先ず、現在訓練ユーザ視線位置座標618に基づいて、訓練ユーザの視線が図12のステップS5で生成・表示した運転画面内か否かを判定する。そして、運転画面外の場合は(ステップS601:NO)、現在のシミュレーション走行位置における訓練ユーザの注視物を「運転画面外」として特定する(ステップS603)。
訓練ユーザの視線が運転画面内の場合は(ステップS601:YES)、図12のステップS2で読み出したシミュレーション環境別オブジェクト位置定義データ520においてシミュレーション走行位置524に現在のシミュレーション走行位置614が設定されたオブジェクト位置情報525を参照し、現在訓練ユーザ視線位置座標のオブジェクトを特定する(ステップS605)。そして、特定したオブジェクトが線路オブジェクトではなく、信号機オブジェクト、標識オブジェクト、風景オブジェクト又はその他の領域オブジェクトの場合は(ステップS607:NO)、そのオブジェクトを当該シミュレーション走行位置の注視物とする(ステップS609)。
また、ステップS605で特定した注視物が信号機オブジェクトの場合は(ステップS611:YES)、信号機注視距離算出処理を行って、現在のシミュレーション走行位置から注視物とされた信号機オブジェクトまでの注視距離を算出する(ステップS613)。
一方、ステップS605で特定したオブジェクトが線路オブジェクトであれば(ステップS607:YES)、現在のシミュレーション走行速度616が属する速度域の距離閾値を距離閾値テーブル530から読み出す(ステップS615)。続いて、現在のシミュレーション走行位置614から現在訓練ユーザ視線位置座標618が示す線路内の位置までの距離を算出する(ステップS617)。そして、ステップS615で読み出した距離閾値を用いてステップS617で算出した距離を閾値判定し、距離閾値を境に近距離側であれば線路近傍オブジェクト、遠距離側であれば線路前方オブジェクトとして特定する(ステップS619)。
その後、特定したオブジェクトや算出した注視距離を現在のシミュレーション走行位置と対応付けて注視物特定結果データ570に格納し、現在のシミュレーション走行位置に係る注視物特定処理を終える。
図12に戻り、コンピュータ1100は、運転シミュレーションの終了条件が満たされない間は(ステップS7:NO)、ステップS5に戻って上記した処理を繰り返す。そして、運転シミュレーションの終了条件が満たされた場合には(ステップS7:YES)、当該運転シミュレーションの実行を終了して統計処理を行う(ステップS8)。
図14は、統計処理の流れを説明するためのフローチャートである。図14に示すように、統計処理では、先ず、該当するシミュレーション環境別対象区間設定540に従って運転区間を対象区間に区画する(ステップS81)。そして、各対象区間を順次処理対象区間としてループAの処理を行う(ステップS83〜ステップS87)。
すなわち、ループAでは、処理対象区間内の各シミュレーション走行位置について特定された注視物に基づいて、「信号機(遠距離注視)」「信号機(近距離注視)」「標識」「線路近傍」「線路前方」「風景」「その他」及び「運転画面外」の注視項目毎に統計値を算出する(ステップS85)。全ての対象区間についてループAの処理を行ったならば、統計処理を終える。
そして、図12に戻って注視結果表示制御処理を行い、ステップS8の統計処理で算出した統計値に基づき注視結果を画像表示部390に表示する制御を行う(ステップS9)。その際、該当する運転シミュレーションに係る模範注視結果データ550を用い、訓練ユーザの注視結果と並べて模範ユーザの模範注視結果を表示制御する。注視結果表示制御処理の後、コンピュータ1100は一連の処理を終了する。
以上説明したように、本実施形態によれば、運転シミュレーションの実行中、ユーザの注視物を走行位置毎に特定することができる。そして、運転シミュレーションの実行後、所定種類のオブジェクト(対象物)を注視していた時間或いは距離に係る統計値を算出して注視結果を表示制御することができ、当該運転シミュレーションによる列車運転時の注視傾向をユーザに提示することができる。模擬運転全体におけるユーザの注視傾向を総体的に示すことができる。
なお、上記した実施形態では、線路オブジェクトが線路近傍オブジェクトなのか線路前方オブジェクトなのかを特定するのに用いる距離閾値を速度域毎に設定しておくとした。これに代えて、距離閾値を、対象区間毎に設定しておく構成としてもよい。或いは、対象区間毎に速度域を定義して、対象区間毎かつ速度域毎に距離閾値を設定しておく構成としてもよい。
上記した実施形態では、注視物特定処理において訓練ユーザの視線が運転画面外であった場合にはそのまま「運転画面外」として特定することとして説明したが、「運転画面外」を更に細分化して特定することとしてもよい。例えば、図2に記載されているように、訓練ユーザから見て、運転画面が表示されているビデオモニタ1204の下に操作卓1206や計器架1208が配置されているとする。そして、訓練ユーザの視線が運転画面外と判断された場合に、アイトラッカー1202(アイトラッキング部104)によって検出される訓練ユーザの頭部の向きが、ビデオモニタ1204よりも下方に向いていると判断される場合には、注視物特定部216が注視物を「操作卓又は計器架」と特定する。
更には、ダイヤ(時刻表)などの配置位置が、ビデオモニタ1204に向かって左側とされている場合にも、同様の処理を行うことができる。すなわち、訓練ユーザの視線が運転画面外と判断された場合に、訓練ユーザの頭部の向きが、ビデオモニタ1204よりも左方に向いていると判断されるときには、注視物特定部216が注視物を「ダイヤ」と特定することができる。
そして、「運転画面外」を更に細分化した注視物(オブジェクト)ごとに、統計処理部220が、注視していた時間或いは距離に係る統計値を算出することができる。
また、アイトラッカー1202による視線検出においては、まばたき(瞬目)等の影響により瞬間的/一時的に検出エラーとなる場合が起こる。そのときに、頭部の向きが「運転画面内」なのか「運転画面外」なのかによって、瞬間的/一時的な検出エラーなのか否かを内部演算において確認することができる。
100…管理操作入力部
102…運転操作入力部
104…アイトラッキング部
200…演算部
210…シミュレーション制御部
212…訓練ユーザ視線位置取得部
214…運転画面表示制御部
216…注視物特定部
218…信号機注視距離算出部
220…統計処理部
222…注視結果表示制御部
500…記憶部
501…シミュレーションプログラム
510…シミュレーション環境初期設定データ
520…シミュレーション環境別オブジェクト位置定義データ
530…距離閾値テーブル
540…シミュレーション環境別対象区間設定
550…模範注視結果データ
560…訓練ユーザ視線追跡結果データ
570…注視物特定結果データ
600…シミュレーション制御データ
700…注視結果データ
1000…列車運転シミュレータ
1100…コンピュータ
1150…制御基板
1202…アイトラッカー
1204…ビデオモニタ
1206…操作卓
1208…計器架
W1…運転画面
Pr…訓練ユーザ視線位置

Claims (10)

  1. ユーザの視線を追跡検出するアイトラッキング手段を備えたコンピュータに、運転画面を表示させて列車の運転シミュレーションを実行させるためのプログラムであって、
    前記運転シミュレーションの実行中、現在の走行位置において前記ユーザの視線が向けられている前記運転画面内のオブジェクトを、当該走行位置における注視物として特定する注視物特定手段、
    前記運転シミュレーションの実行後、前記注視物特定手段によって特定された前記走行位置毎の注視物に基づく所定の統計処理を行って、所定種類のオブジェクトを注視していた時間或いは距離に係る統計値を算出する統計処理手段、
    前記統計値に基づく注視結果を表示制御する表示制御手段、
    として前記コンピュータを機能させるためのプログラム。
  2. 前記所定種類のオブジェクトには、鉄道信号に係るオブジェクトと、線路に係るオブジェクトとが少なくとも含まれる、
    請求項1に記載のプログラム。
  3. 前記線路に係るオブジェクトは、所定の距離閾値に基づき現在の走行位置からの距離が近距離側に位置する線路近傍に係るオブジェクトと、前記距離閾値に基づき現在の走行位置からの距離が遠距離側に位置する線路前方に係るオブジェクトとがあり、
    前記注視物特定手段は、前記ユーザの視線が向けられているオブジェクトが前記線路に係るオブジェクトの場合に、前記線路近傍に係るオブジェクトか前記線路前方に係るオブジェクトかを更に特定することで前記注視物を特定する、
    請求項2に記載のプログラム。
  4. 前記距離閾値は、列車の速度域毎に段階的に定められ、
    前記注視物特定手段は、前記ユーザの視線が向けられているオブジェクトが前記線路に係るオブジェクトの場合に、現在の走行速度に応じた距離閾値を用いて、前記線路近傍に係るオブジェクトか前記線路前方に係るオブジェクトかを更に特定することで前記注視物を特定する、
    請求項3に記載のプログラム。
  5. 前記所定種類のオブジェクトには、信号機に係るオブジェクトが含まれ、
    前記注視物特定手段によって特定された注視物が、前記信号機に係るオブジェクトであった場合に、前記ユーザの視線が当該注視物に向けられていたときの走行位置から当該注視物までの注視距離を算出する信号機注視距離算出手段、
    を更に備え、
    前記統計処理手段は、前記信号機に係るオブジェクトを注視していた前記注視距離に係る統計値を算出する、
    請求項1〜4の何れか一項に記載のプログラム。
  6. 前記統計処理手段は、前記運転シミュレーションによる運転区間の全部又は一部として設定された対象区間における前記統計値を算出する、
    請求項1〜5の何れか一項に記載のプログラム。
  7. 前記対象区間は、駅発車時の区間、惰行運転の区間、駅到着時の区間、及び踏切通過時の区間のうちの何れか1つ又は複数の区間である、
    請求項6に記載のプログラム。
  8. 前記コンピュータは、前記運転シミュレーションのための操作卓及び/又は計器架を備え、
    前記統計処理手段は、前記運転シミュレーションの実行中、さらに、前記ユーザの視線が前記運転画面外となった時間或いは距離に係る統計値を算出する、
    請求項1〜7の何れか一項に記載のプログラム。
  9. 前記表示制御手段は、模範ユーザが前記運転シミュレーションを行ったときの前記統計値に基づく模範注視結果を更に表示制御する、
    請求項1〜8の何れか一項に記載のプログラム。
  10. 運転画面を表示して列車の運転シミュレーションを実行する列車運転シミュレータであって、
    前記運転シミュレーションの実行中、ユーザの視線を追跡検出するアイトラッキング手段と、
    前記運転シミュレーションの実行中、現在の走行位置において前記ユーザの視線が向けられている前記運転画面内のオブジェクトを、当該走行位置における注視物として特定する注視物特定手段と、
    前記運転シミュレーションの実行後、前記注視物特定手段によって特定された前記走行位置毎の注視物に基づく所定の統計処理を行って、所定種類のオブジェクトを注視していた時間或いは距離に係る統計値を算出する統計処理手段と、
    前記統計値に基づく注視結果を表示制御する表示制御手段と、
    を備えた列車運転シミュレータ。
JP2018017957A 2018-02-05 2018-02-05 プログラム及び列車運転シミュレータ Active JP7026902B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018017957A JP7026902B2 (ja) 2018-02-05 2018-02-05 プログラム及び列車運転シミュレータ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018017957A JP7026902B2 (ja) 2018-02-05 2018-02-05 プログラム及び列車運転シミュレータ

Publications (2)

Publication Number Publication Date
JP2019135505A true JP2019135505A (ja) 2019-08-15
JP7026902B2 JP7026902B2 (ja) 2022-03-01

Family

ID=67624113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018017957A Active JP7026902B2 (ja) 2018-02-05 2018-02-05 プログラム及び列車運転シミュレータ

Country Status (1)

Country Link
JP (1) JP7026902B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110928214A (zh) * 2019-11-07 2020-03-27 中铁电气化局集团有限公司 一种基于智能化模拟的列车牵引供电能耗计算系统及方法
JP2020052290A (ja) * 2018-09-27 2020-04-02 セコム株式会社 訓練システム及びプログラム
JP2021060473A (ja) * 2019-10-04 2021-04-15 公益財団法人鉄道総合技術研究所 プログラムおよび列車運転シミュレータ
KR20210085266A (ko) * 2019-12-30 2021-07-08 빅픽쳐스 주식회사 국가직무능력표준(ncs) 기반 건설기계 로우더 실습교육 시스템 및 이를 이용한 실습방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071319A (ja) * 2012-09-28 2014-04-21 Mitsubishi Precision Co Ltd 鉄道シミュレータ及び鉄道の運転をシミュレートする方法
JP2015011086A (ja) * 2013-06-27 2015-01-19 三菱電機株式会社 運転操作管理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071319A (ja) * 2012-09-28 2014-04-21 Mitsubishi Precision Co Ltd 鉄道シミュレータ及び鉄道の運転をシミュレートする方法
JP2015011086A (ja) * 2013-06-27 2015-01-19 三菱電機株式会社 運転操作管理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宗重倫典 ほか: "運転士の注視行動に関する研究", 人間工学, vol. 第49巻, JPN6021011021, 1 June 2013 (2013-06-01), pages 126 - 127, ISSN: 0004545312 *
水田淳一 ほか: "列車運転における視作業分析", 人間工学, vol. 第11巻 第2-3号, JPN6021011023, 6 July 1975 (1975-07-06), pages 55 - 61, ISSN: 0004545313 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020052290A (ja) * 2018-09-27 2020-04-02 セコム株式会社 訓練システム及びプログラム
JP7220043B2 (ja) 2018-09-27 2023-02-09 セコム株式会社 訓練システム及びプログラム
JP2021060473A (ja) * 2019-10-04 2021-04-15 公益財団法人鉄道総合技術研究所 プログラムおよび列車運転シミュレータ
JP7281742B2 (ja) 2019-10-04 2023-05-26 公益財団法人鉄道総合技術研究所 プログラムおよび列車運転シミュレータ
CN110928214A (zh) * 2019-11-07 2020-03-27 中铁电气化局集团有限公司 一种基于智能化模拟的列车牵引供电能耗计算系统及方法
KR20210085266A (ko) * 2019-12-30 2021-07-08 빅픽쳐스 주식회사 국가직무능력표준(ncs) 기반 건설기계 로우더 실습교육 시스템 및 이를 이용한 실습방법
KR102346002B1 (ko) * 2019-12-30 2021-12-31 빅픽쳐스 주식회사 국가직무능력표준(ncs) 기반 건설기계 로우더 실습교육 시스템 및 이를 이용한 실습방법

Also Published As

Publication number Publication date
JP7026902B2 (ja) 2022-03-01

Similar Documents

Publication Publication Date Title
JP7026902B2 (ja) プログラム及び列車運転シミュレータ
JP6082101B2 (ja) 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置
JP2020513957A5 (ja)
CN107224261B (zh) 利用虚拟现实的视觉障碍检测系统
CN106960613B (zh) 非侵入式驾驶人潜在危险辨识能力评估与训练系统及方法
KR101520113B1 (ko) 단일형 시각 및 신경 처리 시험 센터
JP5408572B2 (ja) 運転行動自動評価システム
JP6796560B2 (ja) プログラム及び列車運転シミュレータ
US10165979B2 (en) Helmet having a cumulative concussion indicator
US11257390B2 (en) Evaluation of a simulated vehicle-related feature
JP2008139553A (ja) 運転適性診断方法、運転適性診断の評価基準決定方法、運転適性診断プログラム
CN106663260B (zh) 信息提示装置、方法以及程序
CN109710077B (zh) 基于vr的虚拟物体碰撞判断方法、装置及机车实训系统
Lassagne et al. Performance evaluation of passive haptic feedback for tactile HMI design in CAVEs
JP7186110B2 (ja) プログラムおよび列車運転シミュレータ
JPH1165418A (ja) 運転シミュレータ装置および運転シミュレート方法
JP7064424B2 (ja) 運転教習システム
JP7281742B2 (ja) プログラムおよび列車運転シミュレータ
JP2021032942A (ja) シミュレータ制御装置、列車運転シミュレーションシステム、および、列車運転シミュレーション方法、ならびに、プログラム
TWI669654B (zh) 模擬環境顯示系統及方法
CN112669578B (zh) 余光区域中基于声源的感兴趣对象告警方法和系统
KR20160005841A (ko) 모션인식과 증강현실을 기반으로 하는 실시간 반응형 인체학습시스템
KR102259762B1 (ko) 안전 사고 예방을 위한 가상 현실을 활용한 크레인 협동 작업 훈련 시스템
JP2021051301A (ja) 車掌模擬訓練システム
US20210309234A1 (en) Information processing apparatus, information processing method, and information processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220204

R150 Certificate of patent or registration of utility model

Ref document number: 7026902

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150