JP2019191961A - 走行状況提示装置 - Google Patents
走行状況提示装置 Download PDFInfo
- Publication number
- JP2019191961A JP2019191961A JP2018084362A JP2018084362A JP2019191961A JP 2019191961 A JP2019191961 A JP 2019191961A JP 2018084362 A JP2018084362 A JP 2018084362A JP 2018084362 A JP2018084362 A JP 2018084362A JP 2019191961 A JP2019191961 A JP 2019191961A
- Authority
- JP
- Japan
- Prior art keywords
- image
- driver
- display
- unit
- train
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Electric Propulsion And Braking For Vehicles (AREA)
- Train Traffic Observation, Control, And Security (AREA)
Abstract
【課題】列車の走行状況を簡単に確認できるようにした走行状況提示装置を提供すること。【解決手段】一つの実施形態によれば、走行状況提示装置は、画像取得部と、画像処理部と、対象物検出部と、表示出力部と、を備える。画像取得部は、列車の前方の風景を写した第1画像を取得する。画像処理部は、第1画像に画像処理を実行して第1画像より視認性を向上させた第2画像を生成する。対象物検出部は、第1画像に基づいて風景内の対象物の検出を実行する。表示出力部は、運転士が風景を視認可能に風景からの光を透過する透明画面の一部に第1領域を設定して第1領域に第2画像を表示する。表示出力部は、対象物検出部によって対象物が検出された場合、対象物から運転士への光路が透明画面のうちの第1領域を除く第2領域と交差する位置または当該位置の近傍に、対象物を強調する強調情報を表示する。【選択図】図5
Description
本実施形態は、走行状況提示装置に関する。
列車(鉄道車両)の運行中では、運転士は、列車の走行状況を逐次確認する必要がある。走行状況は、例えば、支障物の有無や、線路、駅ホーム、信号機、標識などの状況である。列車には定刻での運行が求められるため、運転士は、逐次変化する走行状況を短時間かつ正確に把握する必要がある。
一つの実施形態は、列車の走行状況を簡単に確認できるようにした走行状況提示装置を提供することを目的とする。
一つの実施形態によれば、走行状況提示装置は、画像取得部と、画像処理部と、対象物検出部と、表示出力部と、を備える。画像取得部は、列車の前方の風景を写した第1画像を取得する。画像処理部は、第1画像に画像処理を実行して第1画像より視認性を向上させた第2画像を生成する。対象物検出部は、第1画像に基づいて風景内の対象物の検出を実行する。表示出力部は、運転士が風景を視認可能に風景からの光を透過する透明画面の一部に第1領域を設定して第1領域に第2画像を表示する。表示出力部は、対象物検出部によって対象物が検出された場合、対象物から運転士への光路が透明画面のうちの第1領域を除く第2領域と交差する位置または当該位置の近傍に、対象物を強調する強調情報を表示する。
以下に添付図面を参照して、実施形態にかかる走行状況提示装置を詳細に説明する。なお、これらの実施形態により本発明が限定されるものではない。
(第1の実施形態)
図1は、第1の実施形態にかかる列車の概略構成の一例を示す図である。図1に示すように、本実施形態にかかる列車1000は、情報処理装置1、カメラ2、およびヘッドアップディスプレイ装置3が設けられている。情報処理装置1は、第1の実施形態の走行状況提示装置の一例である。
図1は、第1の実施形態にかかる列車の概略構成の一例を示す図である。図1に示すように、本実施形態にかかる列車1000は、情報処理装置1、カメラ2、およびヘッドアップディスプレイ装置3が設けられている。情報処理装置1は、第1の実施形態の走行状況提示装置の一例である。
カメラ2は、列車の進行方向(前方)の風景の画像を撮像する。
ヘッドアップディスプレイ装置3は、透明画面30を備えている。透明画面30は、運転室内の運転士4が列車の前方の風景を視認可能に風景からの光を透過するとともに、情報処理装置1から送られてきた各種情報を表示することができる。
透明画面30は、例えば、ハーフミラー構造を備える。ヘッドアップディスプレイ装置3は、透明画面30に画像を投影することによって、透明画面30上に虚像を形成する。これにより、運転士4は、透明画面30を介して透明画面30の背後の風景を視認することができるとともに、透明画面30に形成された虚像を視認することができる。
なお、透明画面30の構造はこれに限定されない。列車1000のフロントガラス6が透明画面30として使用されてもよい。透明画面30は、有機発光ダイオード(organic light-emitting diode : OLED)などを含んで構成されることで、自発光によって画像を表示することが可能であってもよい。
図2は、第1の実施形態にかかる透明画面30の表示例を示す図である。本図の(A)に示されるように、透明画面30の右下に補正画像表示領域31が設定されている。情報処理装置1は、カメラ2によって撮像された風景の画像から、画像処理によって、運転士にとってより視認性が高い画像(第2画像)に変換し、変換によって生成された画像を補正画像表示領域31に表示する。
この例では、補正画像表示領域31を除く領域32には、画像が表示されておらず、運転士4は、風景からの透過光によってレール301を視認することができる。また、補正画像表示領域31には、カメラ2によって撮像され、その後変換された画像が表示されている。運転士4は、補正画像表示領域31に表示されたレール画像311を視認することによって、レール301の状態を確認することができる。
以降、カメラ2によって撮像された画像(第1画像)を原画像と表記することがある。原画像に対する画像処理によって生成された、原画像よりも視認性が高い画像(第2画像)を、補正画像と表記することがある。
ここで、視認性が高いとは、風景内の各要素が視覚によって容易に識別可能であることをいう。
例えば、画像処理は、明るさの調整である。夜間など暗い環境の中を列車1000を走行させる場合、原画像には、風景内の各要素が識別できないくらいに各要素が暗く写っている。その場合、情報処理装置1は、原画像より明るさを明るくすることで、風景に存在する各要素が視覚によってより簡単に識別可能な補正画像を生成する。例えば、情報処理装置は、夜間に撮像された原画像から、あたかも昼間に撮像されたように見える、明るく補正された補正画像を生成する。
よって、図2の(B)に示されるように、夜間などにおいて領域31を介して風景内のレール301を確認することが難しい場合であっても、運転士4は、レール画像311が鮮明に写っている補正画像を介してレール301の状態を確認することができる。
透明画面30は、運転室内の運転士4の正面に、フロントガラス6の一部または全部を覆うように設けられる。よって、運転士4は、領域32を介して列車1000の前方の風景を視認することができるとともに、少し視線を移動させるだけで補正画像表示領域31を視認することができる。運転台(図1の運転台5)に表示画面を設けて当該表示画面に補正画像を表示する場合にくらべて、視線移動量を少なくすることができ、それによって、より安全に列車1000の前方の状況を確認することが可能となる。
なお、画像処理は、明るさの調整だけに限定されない。画像処理は、例えば、一部領域の切り抜き、切り抜いた領域の拡大、コントラストの色調、色相の変換、ホワイトバランスの調整、HDR変換、逆光補正、シャープネスの調整、エッジ強調、モノクロ化、またはこれらの組み合わせであってもよい。原画像より視認性が高い画像を生成することができる限り、任意の処理が第1の実施形態の画像処理として採用され得る。
さらに、情報処理装置1は、対象物の検出を実行することができる。対象物が検出されていない間においては、情報処理装置1は、透明画面30内の、補正画像表示領域31を除く領域32には、表示出力を実行しない。よって、図2に例示したように、領域32は、透明な状態となっており、運転士4は、領域32を介して列車1000の前方の風景を視認することができる。
対象物が検出された場合には、情報処理装置1は、検出された対象物から運転士4への光路が透明画面30(領域32)と交差する位置または当該位置の近傍に、対象物を強調する情報を表示する。検出された対象物から運転士4への光路が透明画面30と交差する位置は、換言すると、運転士4から見て当該検出された対象物が見える、領域32上の位置である。
検出される対象物は、任意に設定可能である。第1の実施形態では、レール、標識、および走行の支障となる虞がある支障物が、対象物として検出される。対象物は、物体だけに限られない。対象物は、人間や車両など、移動体を含む。第1の実施形態では、標識は、列車に対して運転条件や線路に関する情報を表示するものであり、信号機や踏切警報器などを含む。
図3は、第1の実施形態にかかる透明画面30の、対象物が検出された場合の表示例を示す図である。
図3の(A)に示されるように、運転士4から見てレール301が見える位置には、レール301を強調する表示オブジェクト400aが、対象物を強調する情報として表示されている。表示オブジェクト400aは、この例では、運転士4から見てレール301が見える位置にレール301に重畳された半透明の長方形の表示オブジェクトである。
また、図3の(A)の例では、線路内に人間302が立ち入っており、当該人間302が対象物として検出されている。そして、半透明の矩形の表示オブジェクト400bが、運転士4から見て人間302が見える位置に、対象物を強調する情報として表示されている。
図3の(B)の例では、踏切警報器303、速度標識304、信号機305、および速度制限解除標識306が対象物として検出されている。そして、運転士4から見て踏切警報器303が見える位置には、半透明の矩形の表示オブジェクト400cが表示されている。同様に、運転士4から見て速度標識304が見える位置には、半透明の矩形の表示オブジェクト400dが表示されている。運転士4から見て信号機305が見える位置には、半透明の矩形の表示オブジェクト400eが表示されている。運転士4から見て速度制限解除標識306が見える位置には、半透明の矩形の表示オブジェクト400fが表示されている。表示オブジェクト400c〜400fは、それぞれ、対象物を強調する情報の一例である。
なお、表示オブジェクトの形状は矩形に限定されない。表示オブジェクトの形状は、円形であってもよいし、対象物の輪郭を示す形状であってもよい。また、表示オブジェクトの大きさは、特定の大きさに限定されない。例えば、表示オブジェクトの大きさは、対象物の輪郭に外接する大きさであってもよい。また、表示オブジェクトは、半透明でなくてもよい。表示オブジェクトは、例えば明滅してもよい。
また、図3の(B)では、運転士4から見て対象物が見える位置の近傍に、その対象物を強調する情報の別の例として、対象物が意味する内容を示す情報が表示されている。例えば、運転士4から見て速度標識304が見える位置の近傍には、速度標識304が示す制限速度が「80km」であることを示す表示オブジェクト400gが表示されている。また、運転士4から見て信号機305が見える位置の近傍には、信号機305が示す内容は「進行」であること示す文字列を含む表示オブジェクト400hが表示されている。また、運転士4から見て速度制限解除標識306が見える位置の近傍には、対象物が速度回制限解除を意味する標識であることを示す文字列を含む表示オブジェクト400iが表示されている。
このように、情報処理装置1は、対象物が検出された場合には、領域32内の対象物が見える位置または当該位置の近傍に、対象物を強調する情報を表示する。これにより、運転士4は、領域32を介して風景を注視している際に、刻々と変化する風景に含まれる対象物を、運転士4はほとんど視線を移動させることなく発見し、対象物の状態を把握することが可能となる。
次に、情報処理装置1のより詳細な構成を説明する。
図4は、列車1000に具備される第1の実施形態の走行状況提示システムの概略構成例を示す図である。走行状況提示システムは、情報処理装置1、カメラ2、およびヘッドアップディスプレイ装置3を備える。
ヘッドアップディスプレイ装置3は、既に述べたように、透明画面30を備える。透明画面30は、フロントガラス6の一部または全部を覆うように設けられており、運転士4の正面に設けられている。
カメラ2は、列車1000の前方の風景の画像(原画像、第1画像)を撮像する。
情報処理装置1は、第1の実施形態の走行状況提示装置の一例である。情報処理装置1は、演算装置100、記憶装置101、および入出力装置102を備える。
記憶装置101は、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)、SDカード等の不揮発性の記憶媒体、およびRAM(Random Access Memory)、レジスタ等の揮発性の記憶媒体を含む。そして、記憶装置101には、演算装置100が実行するプログラム200が予め格納される。
演算装置100は、例えばCPU(Central Processing Unit)である。演算装置100は、記憶装置101に格納されたプログラム200を実行することによって、走行状況提示装置としての機能を実現する。
入出力装置102は、情報処理装置1と、カメラ2およびヘッドアップディスプレイ装置3とを接続するインタフェース装置である。情報処理装置1は、カメラ2によって撮像された画像を入出力装置102を介して取得することができる。また、情報処理装置1は、透明画面30に表示する内容を入出力装置102を介してヘッドアップディスプレイ装置3に送ることができる。
図5は、演算装置100がプログラム200を実行することによって実現する、第1の実施形態の走行状況提示装置としての情報処理装置1の機能構成例を示す図である。
図5に示されるように、情報処理装置1は、画像取得部201、画像処理部202、対象物検出部203、および表示出力部204を備える。
画像取得部201は、カメラ2によって撮像された画像(原画像、第1画像)を取得する。
本実施形態では、一例として、カメラ2は、視点が異なる2つの可視光画像を撮像するステレオカメラであり、画像取得部201は、当該2つの可視光画像を取得する。そして、画像取得部201は、2つの可視光画像のうちの一を基準画像(原画像、第1画像)とし、当該2つの可視光画像の視差に基づいて、基準画像の画素毎に距離を示す距離画像を取得する。
画像処理部202は、画像取得部201によって取得された基準画像に対して前述した画像処理を実行することによって、基準画像よりも視認性を高くした補正画像を生成する。
対象物検出部203は、基準画像および距離画像に基づいて、対象物の検出を実行する。そのための構成として、対象物検出部203は、標識検出部210、レール検出部211、監視エリア設定部212、および支障物検出部213を備える。
レール検出部211は、基準画像に基づいて風景内のレールの位置を検出する。レールを検出するアルゴリズムとしては、任意のアルゴリズムが採用可能である。
例えば、レール検出部211は、基準画像をグレースケール画像に変換し、グレースケール画像を、エッジを強調した画像(エッジ強調画像)に変換する。そして、レール検出部211は、エッジ強調画像のうち、エッジ強度が予め設定されたエッジ強度より大きい画素と、その周辺の画素のうち同様のエッジ強度を有する画素とをグループ化した画素群を生成する。そして、レール検出部211は、生成した画素群のうち、列車1000の進行方向に向かって連なって線分を形成する画素群を抽出する。そして、レール検出部211は、抽出した画素群のうち、予め設定された評価条件を満たす画素群を、列車1000が走行するレールが写っている画素群として検出する。ここで、評価条件は、レールと判断する画素群であり、例えば、レールと判断するエッジ強度を有することである。
そして、レール検出部211は、基準画像においてレールが写っている画素群、カメラ2の設置条件(カメラ2の光軸の向き、画角、および取り付け位置)、レールの幅が一定である、等の拘束条件に基づいて、風景内のレールの位置を検出する。レール検出部211は、基準画像においてレールが写っている画素群の位置と、距離画像と、に基づいて風景内のレールの位置を特定してもよい。
標識検出部210は、基準画像に基づいて風景内の標識を検出する。標識を検出するアルゴリズムとしては、任意のアルゴリズムが採用可能である。
例えば、検出したい標識の種類毎に予めパターン画像が予め所定の記憶部(例えば記憶装置101)に格納されている。標識検出部210は、いずれかのパターン画像と特徴が類似する部分を構成する画素群をエッジ強調画像から探索することで、標識を示す画素群と当該標識の種類とを特定する。そして、標識検出部210は、特定した画素群の位置と、距離画像と、に基づいて当該標識の風景内の位置を特定する。
なお、一の種類の標識(例えば速度標識)に対し、それぞれ標識の内容(例えば制限速度)に対応した複数のパターン画像が予め所定の記憶部(例えば記憶装置101)に格納されていてもよい。これにより、標識検出部210は、例えば制限速度として「80」が記載された速度標識が基準画像に写っている場合、当該速度標識を、制限速度が「80km」であることを示す速度標識として特定することができる。
監視エリア設定部212は、レール検出部211により検出したレールを基準として、基準画像に対して立体的な監視領域を設定する。監視領域は、例えば、基準画像内において、列車1000の車両限界または建築限界により規定される立体的な領域である。また、監視エリア設定部212は、基準画像に基づいて、カメラ2から監視領域までの距離の範囲である値域を特定可能とする値域情報を求める。
図5および図6は、第1の実施形態にかかる列車1000における監視領域の設定例を示す図である。図5に示すように、監視エリア設定部212は、当該検出したレールの任意の設定位置Pにおいて、車両限界断面X、および当該車両限界断面Xまでの距離を求める。ここで、車両限界断面Xは、列車1000の進行方向に直交する方向における車両限界の断面である。監視エリア設定部212は、列車1000の進行方向においてレールの異なる設定位置Pについて求めた車両限界断面Xを断面とするトンネル形状の領域を、監視領域として設定する。また、監視エリア設定部212は、設定位置P毎に求めた車両限界断面Xまでの距離の範囲(集合)である値域を値域情報として求める。
または、図6に示すように、監視エリア設定部212は、検出したレールの任意の設定位置Pにおいて、建築限界断面Y、および当該建築限界断面Yまでの距離を求める。ここで、建築限界断面Yは、列車1000の進行方向に直交する方向の建築限界の断面である。監視エリア設定部212は、列車1000の進行方向においてレールの異なる設定位置Pについて求めた建築限界断面Yを断面とするトンネル形状の領域を、監視領域として設定する。また、監視エリア設定部212は、設定位置P毎に求めた建築限界断面Yまでの距離の範囲(集合)である値域を値域情報として求める。
図4に戻り、支障物検出部213は、距離画像と値域情報とに基づいて、監視領域内に含まれる支障物を検出する。
例えば、支障物検出部213は、距離画像内の各画素のうち、値域情報により特定される距離と一致する距離を示す画素をグループ化した類似領域を、監視領域内に存在する立体物である支障物候補として抽出する。そして、支障物検出部213は、支障物候補の大きさおよび当該支障物候補の移動ベクトルの少なくとも1つに基づいて、支障物候補の中から、支障物を検出する。例えば、支障物検出部213は、支障物候補のうち、予め設定された大きさ以上の支障物候補を支障物として特定する。または、支障物検出部213は、支障物候補のうち、移動ベクトルがレールの方向に向かっている支障物候補を支障物として特定する。または、支障物検出部213は、支障物候補のうち、予め設定された大きさ以上でありかつ移動ベクトルがレールの方向に向かっている支障物候補を、支障物として特定する。
なお、支障物を検出する方法はこれに限定されない。支障物検出部213は、画像取得部201によって取得された各画像に基づき、任意の方法で支障物を検出し得る。ここでは、支障物検出部213は監視領域内から支障物を検出するとして説明したが、支障物検出部213は、基準画像の全領域から支障物を検出してもよい。
表示出力部204は、画像処理部202によって生成された補正画像を、補正画像表示領域31に表示する。
また、表示出力部204は、対象物検出部203によって対象物が検出された場合には、対象物を強調する情報を領域32に表示する。
対象物を強調する情報の表示位置を求めるアルゴリズムは、特定のアルゴリズムに限定されない。例えば、カメラ2の設置条件(カメラ2の光軸の向き、画角、および取り付け位置)、透明画面30の設置条件(透明画面30の取り付け位置および向き)、および運転士4の顔(または眼)の位置と、が記録された設定情報が所定の記憶部(例えば記憶装置101)に予め格納されている。表示出力部204は、設定情報に記録された各情報を拘束条件として、検出された対象物から運転士4への光路が透明画面30と交差する位置を演算する。そして、表示出力部204は、演算によって得られた位置または当該位置の近傍に、対象物を強調する情報を表示する。
図8は、第1の実施形態の走行状況提示装置としての情報処理装置1の動作を説明するフローチャートである。
まず、画像取得部201は、カメラ2から視点が異なる2つの可視光画像を取得する(S101)。そして、画像取得部201は、2つの可視光画像から、基準画像と距離画像とを取得する(S102)。
続いて、画像処理部202は、基準画像に対して画像処理を実行することによって、補正画像を生成する(S103)。
続いて、レール検出部211は、基準画像に基づいてレールを検出する(S104)。前述したように、レール検出部211は、レールの検出に距離画像を用いてもよい。
また、標識検出部210は、基準画像および距離画像に基づいて標識を検出する(S105)。
続いて、監視エリア設定部212は、検出されたレールに基づいて監視領域を設定する(S106)。そして、支障物検出部213は、監視領域および距離画像に基づいて、支障物を検出する(S107)。
表示出力部204は、S103の処理によって生成された補正画像を、補正画像表示領域31に表示する(S108)。
また、表示出力部204は、対象物検出部203によって対象物が検出されたか否かを判定する(S109)。
対象物が検出されたと判定された場合(S109、Yes)、表示出力部204は、検出された対象物から運転士4への光路が透明画面30と交差する位置、即ち運転士4から見て対象物が見える透明画面30上の位置、を演算する(S110)。
そして、表示出力部204は、演算によって求められた位置またはその近傍に、対象物を強調する情報を表示する(S111)。
S111では、例えば、表示出力部204は、図3に示される表示オブジェクト400a〜400fのように、運転士4から見て対象物が見える位置に、当該対象物に重畳するように表示オブジェクトを表示する。または、表示出力部204は、図3に示される表示オブジェクト400g〜400iのように、運転士4から見て対象物が見える透明画面30上の位置の近傍に、対象物が示す内容を示す表示オブジェクトを表示する。
図8に説明を戻す。S111の処理の後、制御がS101に移行する。
対象物が検出されなかったと判定された場合(S109、No)、S110およびS111の処理がスキップされ、制御がS101に移行する。
なお、図8に示されるループ処理は、所定の制御周期毎に実行される。図8に示されるループ処理が短い時間間隔で実行されることで、情報処理装置1は、透明画面30に、列車1000の前方の風景を写した、視認性が高い補正画像を、略リアルタイムに風景を映した映像(動画)として表示することができる。また、対象物が検出された場合には、情報処理装置1は、表示オブジェクトによって、対象物の位置を略リアルタイムに表示することができる。
このように、第1の実施形態によれば、画像取得部201は、列車1000の前方の風景を写した基準画像を取得する。画像処理部202は、基準画像に画像処理を実行して基準画像よりも視認性を向上された補正画像を生成する。対象物検出部203は、基準画像に基づいて風景内の対象物の検出を実行する。表示出力部204は、透明画面30に補正画像表示領域31を設定し、補正画像表示領域31に補正画像を表示する。対象物検出部203によって対象物が検出された場合、表示出力部204は、対象物から運転士4への透過光路が領域32と交差する位置または当該位置の近傍に、対象物を強調する表示オブジェクト400を表示する。
よって、運転士4は、領域32を介して見える風景の視認性が悪い場合であっても、風景内の各要素を補正画像表示領域31に表示された補正画像によって確認することが可能である。また、補正画像表示領域31は、透明画面30内に設けられているので、補正画像表示領域31を視認するために要する視線の移動量を小さくすることができる。また、風景内に対象物が存在する場合には、運転士4から見て対象物が見える位置または当該位置の近傍に対象物を強調する表示オブジェクト400が表示されるので、運転士4は、ほとんど視線を動かすことなく対象物を発見し、対象物の状態を認識することが可能となる。
即ち、第1の実施形態によれば、列車の走行状況が簡単に確認できる。
なお、対象物検出部203は、レール、標識、および、列車1000の走行の支障となる支障物を、対象物として検出した。検出される対象物は、これに限定されない。
また、表示オブジェクト400a〜400iの色は、特定の色の限定されない。表示出力部204は、対象物の種類(レール、標識、支障物)に応じて表示オブジェクトの色を変えてもよい。例えば、表示出力部204は、レールの表示オブジェクトの色を青色とし、標識の表示オブジェクトの色を黄色とし、支障物の表示オブジェクトの色を赤色としてもよい。
また、情報処理装置1に対象物の危険度を判定する処理部を設け、表示出力部204は、対象物の危険度に応じて表示オブジェクト400の色を変えてもよい。例えば、支障物など、衝突の危険が高い対象物に対しては、表示出力部204は、赤色の表示オブジェクトを表示する。信号機などの注意を要する対象物に対しては、表示出力部204は、黄色の表示オブジェクトを表示する。レールなど正常な対象物に対しては、表示出力部204は、青色の表示オブジェクトを表示する。
また、情報処理装置1に現在の列車1000の状態(例えば速度、位置、次の停車駅、故障情報)を取得する状態取得部を設け、表示出力部204は、取得された状態を透明画面30に表示してもよい。例えば、図9に示されるように、透明画面に状態表示領域33を設定し、取得された状態を状態表示領域33に表示してもよい。
また、表示出力部204は、状態表示領域33に、各検出部210、211、213によって検出された対象物の内容を表示してもよい。対象物の内容の表示方法は、特定の方法に限定されない。表示出力部204は、「人間」、「車両」、「速度標識」、「踏み切り」、「レール」などのように、検出された対象物の種類を、文字列として表示してもよい。また、例えば速度標識が対象物として検出され、その速度標識が例えば制限速度「80」を示す場合には、表示出力部204は、「制限速度80」を表示してもよい。
(第2の実施形態)
第2の実施形態では、第1の実施形態と異なる構成要素について重点的に説明する。第1の実施形態と同一の機能を有する構成要素には、第1の実施形態と同じ名称および符号を付して、詳細な説明を省略する。
第2の実施形態では、第1の実施形態と異なる構成要素について重点的に説明する。第1の実施形態と同一の機能を有する構成要素には、第1の実施形態と同じ名称および符号を付して、詳細な説明を省略する。
図10は、第2の実施形態の走行状況提示システムの概略構成例を示す図である。第2の実施形態の走行状況提示システムは、情報処理装置1a、カメラ2、ヘッドアップディスプレイ装置3、および室内カメラ7を備える。情報処理装置1aは、演算装置100、記憶装置101、および入出力装置102を備える。
室内カメラ7は、例えば運転室内に設けられている。室内カメラ7の取り付け位置、光軸、および画角は、列車1000を運転中の運転士4の顔を撮像可能に設定されている。
記憶装置101は、プログラム200aが予め格納される。演算装置100は、プログラム200aを実行することによって、第2の実施形態の走行状況提示装置としての機能を実現する。
図11は、第2の実施形態の走行状況提示装置としての情報処理装置1aの機能構成例を示す図である。
情報処理装置1aは、画像取得部201a、画像処理部202a、対象物検出部203、および表示出力部204を備える。
画像取得部201aは、第1の実施形態の画像取得部201と同様に、カメラ2から視点が異なる2つの可視光画像を取得して、基準画像と距離画像とを取得する。さらに、画像取得部201aは、室内カメラ7から運転士4の顔が写っている室内画像を取得する。
画像処理部202aは、推定部214を備える。推定部214は、画像取得部201aによって取得された室内画像に基づいて、運転士4の顔の向きを推定する。
運転士4の顔の向きを推定するアルゴリズムとしては、任意のアルゴリズムが採用可能である。一例では、推定部214は、室内画像を、エッジを強調した画像(エッジ強調画像)に変換する。そして、推定部214は、画像認識によって、エッジ強調画像から、目、口、鼻、および顔の輪郭を特定する。そして、推定部214は、特定した目、鼻、および顔の輪郭に基づいて、運転士4の顔の向きを推定する。
推定された顔の向きは、運転士4が見ている領域を示す情報として使用される。例えば、図12に示されるように、運転士4の顔が列車1000の進行する向きを基準として左に向いている場合には、運転士4は左側の領域500Lを見ているとして判断される。また、運転士4の顔が列車1000の進行する向きを基準として右に向いている場合には、運転士4は右側の領域500Rを見ているとして判断される。
画像処理部202aは、基準画像のうちの運転士4が見ている領域を拡大した補正画像を生成する。
例えば、画像処理部202aは、運転士4は左側の領域500Lを見ているとして判断した場合には、図13の(A)に示されるように、基準画像の左側の一部の領域を拡大した補正画像を補正画像表示領域31に表示する。画像処理部202aは、運転士4は右側の領域500Rを見ているとして判断した場合には、図13の(B)に示されるように、基準画像の右側の一部の領域を拡大した補正画像を補正画像表示領域31に表示する。
第2の実施形態では、1つの制御周期内で、画像取得部201aによって実行される室内画像の取得と、推定部214によって実行される取得された室内画像に基づく顔の向きの推定と、画像処理部202aによって実行される推定された顔の向きに対応した補正画像の生成と、表示出力部204によって実行される生成された補正画像の補正画像表示領域31への表示と、が実行される。これらの処理は、制御周期毎に繰り返し実行される。
以上述べたように、第2の実施形態では、推定部214は、運転士4の顔の向きを推定する。そして、画像処理部202aは、基準画像に含まれる、運転士4の顔の向きに対応した一部の領域を拡大した補正画像を生成する。
これにより、補正画像表示領域31には、運転士4が注目している箇所を拡大して表示されるので、運転士4は、風景内の任意の箇所の状態を補正画像表示領域31を介して詳細に確認することが可能となる。
なお、以上の説明では、推定部214は、列車1000の前方の風景を左右方向に2分割して領域500Lおよび領域500Rを設定し、領域500Lおよび領域500Rのうちから運転士4の顔が向いている領域を特定した。顔の向きの判定方法はこれに限定されない。例えば、推定部214は、列車1000の前方の風景を3以上の領域に分割して、当該3以上の領域のうちから運転士4の顔が向いている領域を判定してもよい。
推定部214は、上記のアルゴリズムに限らず、任意のアルゴリズムに基づいて運転士4の顔の向きを推定し得る。
(第3の実施形態)
第3の実施形態では、第1の実施形態と異なる構成要素について重点的に説明する。第1の実施形態と同一の機能を有する構成要素には、第1の実施形態と同じ名称および符号を付して、詳細な説明を省略する。なお、第3の実施形態は、第2の実施形態とともに適用することが可能である。
第3の実施形態では、第1の実施形態と異なる構成要素について重点的に説明する。第1の実施形態と同一の機能を有する構成要素には、第1の実施形態と同じ名称および符号を付して、詳細な説明を省略する。なお、第3の実施形態は、第2の実施形態とともに適用することが可能である。
図14は、第3の実施形態の走行状況提示システムの概略構成例を示す図である。走行状況提示システムは、情報処理装置1b、カメラ2、ヘッドアップディスプレイ装置3、および位置計測装置8を備える。情報処理装置1bは、演算装置100、記憶装置101、および入出力装置102を備える。
記憶装置101は、プログラム200bが予め格納される。演算装置100は、プログラム200bを実行することによって、第3の実施形態の走行状況提示装置としての機能を実現する。
位置計測装置8は、列車1000の走行位置を計測する。位置計測装置8としては、速度発電機(TG)や衛星測位システム(GNSS)が使用され得る。
列車1000は、同じ路線を複数回、走行する場合がある。そこで、第3の実施形態では、情報処理装置1bは、過去に撮像された基準画像を、当該基準画像が撮像された際の列車1000の位置と対応付けて記憶部(ここでは一例として記憶装置101)に保存する。該当位置を列車1000が走行する際には、情報処理装置1bは、記憶部に保存された基準画像と、新たに撮像された基準画像(保存画像220)と、の差分に基ついて、異常が発生している箇所を、対象物として検出する。
例えば図15の(A)は、20AA年A月A日に列車1000がある地点を走行した際の透明画面30の表示例を示している。レール301の左側に樹木307が植わっていることが透明画面30を介してうかがえる。
図15の(B)は、20AA年A月A日よりも後の日付の20BB年B月B日に列車1000が同じ地点を走行した際の透明画面30の表示例を示している。20BB年B月B日では、樹木307が20AA年A月A日に確認された時点から成長して、レール301のほうに樹木307の枝が伸びてきていることがうかがえる。
情報処理装置1bは、例えば、20AA年A月A日に当該地点を走行した際に撮像した基準画像を保存画像220として保存する。そして、20AA年A月A日よりも後の日付の20BB年B月B日に列車1000が同じ地点を走行した際に、新たに基準画像を撮像し、当該新たに撮像された基準画像と、保存画像220と、の差分から、樹木307のレール301に向かって張り出した部分を対象物として特定し、運転士4から見て当該対象物が見える位置に、半透明の矩形の表示オブジェクト400jを表示する。表示オブジェクト400jは、第3の実施形態の、対象物を強調する情報の一例である。
別の例を説明する。図16の(A)は、20CC年C月C日にある地点を走行した際の透明画面30の表示例を示している。レール301の左側に踏み切り遮断器308が対象物として検出されて、対象物を強調する表示オブジェクト400kが表示されている。
図16の(B)は、20CC年C月C日よりも後の日付の20DD年D月D日に列車1000が同じ地点を走行した際の透明画面30の表示例を示している。20CC年C月C日では、踏み切り遮断器308の遮断棹は破損していなかったが、20DD年D月D日では、当該遮断棹が破損していることがうかがえる。
例えば、20CC年C月C日に当該地点を走行した際に撮像した基準画像を保存画像220として保存する。そして、20DD年D月D日に列車1000が同じ地点を走行した際に、新たに基準画像を撮像し、当該新たに撮像された基準画像と、保存画像220と、の差分から、破損した遮断棹を特定し、運転士4から見て当該遮断棹が見える位置に、半透明の矩形の表示オブジェクト400lを表示する。表示オブジェクト400lは、第3の実施形態の、対象物を強調する情報の別の一例である。
図17は、第3の実施形態の走行状況提示装置としての情報処理装置1bの機能構成例を示す図である。
情報処理装置1bは、画像取得部201、画像処理部202、対象物検出部203b、表示出力部204、位置取得部205、および保存部206を備える。
位置取得部205は、位置計測装置8から列車1000の現在位置を示す位置情報を取得する。
保存部206は、画像取得部201によって取得された基準画像を、位置取得部205によって取得された位置情報と対応付ける。そして、保存部206は、位置情報が対応付けられた基準画像を保存画像220として記憶装置101に格納する。
対象物検出部203bは、レール検出部211、標識検出部210、監視エリア設定部212、支障物検出部213、および異常検出部215を備える。
異常検出部215は、記憶装置101に基準画像(保存画像220)が格納されている場合において、当該基準画像が撮像された位置と同じ位置を走行した際に、新たに撮像した基準画像と、記憶装置101に格納されている基準画像と、の差分に基づいて異常を検出する。
異常を検出するアルゴリズムとしては、任意のアルゴリズムが採用され得る。例えば、異常検出部215は、新たに撮像した基準画像と、記憶装置101に格納されている基準画像と、の各画素の画素値の差分を示す差分画像を生成する。そして、異常検出部215は、当該差分画像の各画素値に対してしきい値処理を実行することで、2つの基準画像で画素値が異なっている画素群を、異常として抽出する。異常検出部215は、抽出された画素群と、距離情報と、に基づいて、風景内の異常の位置を特定する。
図18は、第3の実施形態の走行状況提示装置としての情報処理装置1bの動作を説明するフローチャートである。
まず、S101およびS102の処理によって、画像取得部201は、基準画像と距離画像とを取得する。
位置取得部205は、位置計測装置8から列車1000の現在位置を示す位置情報を取得する(S201)。
続いて、画像処理部202は、基準画像に対して画像処理を実行することによって、補正画像を生成する(S103)。
続いて、S104〜S107の処理によって、対象物検出部203は、レール、標識、および支障物を検出する。
異常検出部215は、現在位置と同一の位置で過去に撮像された基準画像が記憶装置101に格納されているか否かを判定する(S202)。
S202の処理では、異常検出部215は、S201によって取得された位置情報と同一の位置情報が対応付けられた基準画像を検索する。基準画像に対応付けられた位置情報がS201によって取得された位置情報と同一であるか否かの判断には、一定の幅が持たされ得る。例えば、S201によって取得された位置情報との差分が所定値より小さい位置情報が対応付けられた基準画像が、現在位置と同一の位置で過去に撮像された基準画像として特定されてもよい。
現在位置と同一の位置で過去に撮像された基準画像が記憶装置101に格納されていると判定された場合(S202、Yes)、異常検出部215は、S102の処理によって得られた基準画像と、現在位置と同一の位置で過去に撮像された基準画像と、の差分に基づいて異常を検出する(S203)。
現在位置と同一の位置で過去に撮像された基準画像が記憶装置101に格納されていないと判定された場合には(S202、No)、S203の処理はスキップされる。
続いて、表示出力部204は、S103の処理によって生成された補正画像を、補正画像表示領域31に表示する(S108)。
また、対象物が検出された場合には(S109、Yes)、表示出力部204は、S110およびS111の処理によって、対象物を強調する情報を表示する。対象物が検出されなかった場合には(S109、No)、S110およびS111の処理がスキップされる。
続いて、保存部206は、基準画像を保存するか否かを判定する(S204)。
基準画像を保存するか否かの判定方法は、特定の方法に限定されない。一例では、S202の判定処理において、現在位置と同一の位置で過去に撮像された基準画像が記憶装置に格納されていないと判定された場合(S202、No)、保存部206は、基準画像を保存する、と判定する。現在位置と同一の位置で過去に撮像された基準画像が記憶装置に格納されていると判定された場合(S202、Yes)、保存部206は、基準画像を保存しない、と判定する。即ち、現在走行している路線が、初めて走行した路線である場合、基準画像を保存すると判定され、現在走行している路線が、初めて走行した路線でない場合、基準画像を保存しないと判定される。
別の例では、保存部206は、たとえ現在位置と同一の位置で過去に撮像された基準画像が記憶装置に格納されている場合であっても、基準画像を保存してもよい。
保存部206は、新たな基準画像と同一の位置で撮像された古い基準画像がすでに保存されている場合には、新たな基準画像を古い基準画像に上書きしてもよいし、古い基準画像を残したまま新たな基準画像を保存してもよい。
基準画像を保存すると判定された場合(S204、Yes)、保存部206は、S102の処理によって取得された基準画像を、S201の処理によって取得された位置情報と対応付けて記憶装置101に格納する(S205)。
S205の処理の後、制御がS101に移行する。
基準画像を保存しないと判定された場合(S204、No)、S205の処理がスキップされ、制御がS101に移行する。
このように、第3の実施形態によれば、記憶装置101には、列車1000がある位置を走行した際(第1のタイミング)に撮像された基準画像が保存される。異常検出部215は、列車1000が再び当該位置を走行した際(第2のタイミング)、新たに撮像された基準画像と、保存された基準画像と、の差分に基づいて、異常(対象物)を検出する。表示出力部204は、運転士4から見て異常(対象物)が見える位置または当該位置の近傍に、対象物を強調する情報を表示する。
よって、線路の周辺に異常が発生した場合に、当該異常を検出することが可能となる。また、検出した異常が見える位置に強調する情報が表示されるので、運転士4は、ほとんど視線を移動させることなく異常を発見し、認識することが可能となる。
異常検出部215は、例えば、前述したように、レールに向かって延びてきた樹木を、異常として検出できる。異常検出部215は、上記した動作によって、レール上またはレールの近辺に倒れた倒木を検出することができる。
また、異常検出部215は、上記した動作によって、踏み切りや変電設備など、レール近辺に設けられた設備の破損を異常として検出することができる。
また、異常検出部215は、上記したアルゴリズムによって、レールに発生した歪みを異常として検出することができる。
なお、表示出力部204は、第1の実施形態と同様に、検出された異常を、危険度や種類などに応じて色わけして表示してもよい。
また、異常検出部215は、異常を検出する範囲を、監視エリア設定部212によって設定された監視領域に限定してもよい。
また、保存部206は、ある路線を列車1000が最初に走行した際に、いったん基準画像を保存する。そして、保存部206は、列車1000が当該路線を2回目に走行した際には、差分画像をさらに保存する。そして、異常検出部215は、列車1000が当該路線を3回目以降に走行した際には、新たに生成した差分画像と、保存された差分画像と、の差分に基づいて異常を検出してもよい。
(第4の実施形態)
図19は、第4の実施形態にかかる列車の概略構成の一例を示す図である。本図に示されるように、列車1000aには、カメラ2および情報処理装置1が設けられている。また、運転士4は、ヘッドマウントディスプレイ装置10を装着する。
図19は、第4の実施形態にかかる列車の概略構成の一例を示す図である。本図に示されるように、列車1000aには、カメラ2および情報処理装置1が設けられている。また、運転士4は、ヘッドマウントディスプレイ装置10を装着する。
ヘッドマウントディスプレイ装置10は、めがね型の情報処理装置である。ヘッドマウントディスプレイ装置10の、装着者の眼を覆う部分には、透明画面30aが設けられている。
透明画面30aは、ハーフミラー構造を有しており、ヘッドマウントディスプレイ装置10は、透明画面30aに画像を投影することによって透明画面30a上に虚像を形成する。これにより、ヘッドマウントディスプレイ装置10を装着した運転士4は、透明画面30aを介して風景を視認することができるとともに、透明画面30aに形成された虚像を視認することができる。
なお、透明画面30aの構造はこれに限定されない。透明画面30aは、有機発光ダイオード(organic light-emitting diode : OLED)などを含んで構成されることで、自発光によって画像を表示することが可能であってもよい。
情報処理装置1は、第1の実施形態と同様の構成を備える。ただし、第1の実施形態では、補正画像や対象物を強調する情報を、ヘッドアップディスプレイ装置3が備える透明画面30に表示したが、第4の実施形態では、情報処理装置1は、ヘッドマウントディスプレイ装置10が備える透明画面30aに、補正画像や対象物を強調する情報を表示する。
第4の実施形態では、対象物検出部203は、第1の実施形態と同様の方法で、対象物の検出を行うことができる。
また、表示出力部204は、図2に例示されるように、透明画面30aに補正画像表示領域31を設けて、当該補正画像表示領域31に補正画像を表示する。
また、表示出力部204は、対象物が検出された場合には、図3に例示されるように、対象物から運転士4の眼への透過光路と透明画面30a(領域32)とが交差する位置、即ち運転士4から見て透明画面30a上の対象物が見える位置、または当該位置の近傍に、対象物を強調する情報を表示する。
対象物を強調する情報の表示位置を求めるアルゴリズムは、特定のアルゴリズムに限定されない。
一例では、カメラ2の設置条件(カメラ2の光軸の向き、画角、および取り付け位置)と、運転士の顔(または眼)の位置と、が記録された設定情報が所定の記憶部(例えば記憶装置101)に予め格納されている。ヘッドマウントディスプレイ装置10は、所定のセンサ(ジャイロセンサや加速度センサ)を内蔵している。表示出力部204は、ヘッドマウントディスプレイ装置10が備えるセンサによる検出値を取得して、取得した検出値を用いて、運転士4の顔(または眼)の実際の位置の、設定情報に記録された位置からのズレを補正する。そして、表示出力部204は、カメラ2の設置条件や、運転士4の顔(または眼)の補正後の位置などを拘束条件として、検出された対象物から運転士4への光路が透明画面30と交差する位置を演算することができる。
別の例では、ヘッドマウントディスプレイ装置10は、カメラを内蔵している。表示出力部204は、ヘッドマウントディスプレイ装置10が備えるカメラによって撮像された画像を取得して、取得された画像からレールを検出する。表示出力部204は、レール検出部211によって検出されたレールと、ヘッドマウントディスプレイ装置10が備えるカメラによって撮像された画像から検出されたレールと、を比較することで、基準画像と透明画面30aとで画素位置の対応をとる。そして、表示出力部204は、基準画像内の対象物の画素位置を、透明画面30aの画素位置に変換する。
このように、表示出力部204は、対象物を強調する情報の表示位置を任意の方法で演算することができる。
なお、第4の実施形態は、第1〜第3の実施形態の走行状況提示装置の何れに対しても適用することができる。
例えば第2の実施形態の走行状況提示装置に第4の実施形態が適用される場合、推定部214は、ヘッドマウントディスプレイ装置10が備えるセンサによる検出値に基づいて運転士4の顔の向きを推定してもよい。例えば、ヘッドマウントディスプレイ装置10は、加速度センサを備え、推定部214は、当該加速度センサによる加速度検出値を用いて運転士4の顔の向きを推定してもよい。
(変形例)
以下に、第1〜第4の実施形態の走行状況提示装置に適用可能な変形例を説明する。
以下に、第1〜第4の実施形態の走行状況提示装置に適用可能な変形例を説明する。
走行状況提示装置は、透明画面30、30aに、車外に設けられたカメラによって撮像された画像を表示してもよい。例えば、駅ホームにカメラが設置される。そして、走行状況提示装置は、駅ホームに設置されたカメラによって撮像された画像(ホーム画像)を、ネットワークなどを介して取得する。表示出力部204は、当該ホーム画像を透明画面30、30aに表示する。画像処理部202、202aは、ホーム画像に対して画像処理を行って、画像処理後のホーム画像を透明画面30、30aに表示してもよい。ホーム画像の表示位置は、特定の位置に限定されない。
例えば、表示出力部204は、列車1000が駅ホームに近づいた場合に、補正画像の表示を停止して、代わりに、補正画像表示領域31にホーム画像を表示してもよい。また、表示出力部204は、列車1000が駅ホームに近づいた場合に、補正画像表示領域31とは別に表示領域を設定し、当該表示領域にホーム画像を表示してもよい。
走行状況提示装置は、位置計測装置8と、位置計測装置8から取得した現在の列車1000の位置を示す位置情報に基づいて列車1000が駅ホームに近づいたか否かを判定する処理部と、を備え、表示出力部204は、当該処理部による判定結果に応じてホーム画像の表示/非表示を切り替えてもよい。
また、レール検出部211は、分岐地点などにおいて、複数のレールを検出する場合がある。その場合には、レール検出部211は、当該複数のレールのうちの走行予定のルートに沿ったレールのみを対象物として特定してもよい。例えば、走行状況提示装置は、走行予定のルートを示すルート情報を記憶部(例えば記憶装置101)に予め記憶している。レール検出部211は、ルート情報に基づいて、走行予定のルートに沿ったレールを特定する。
第1〜第4の実施形態の情報処理装置1、1a、1bで実行されるプログラム200、200a、200bは、記憶装置101に予め格納されて提供され得る。また、プログラム200、200a、200bは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供され得る。
さらに、プログラム200、200a、200bを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、プログラム200、200a、200bをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
第1〜第4の実施形態の走行状況提示装置の各機構構成要素(画像取得部201、201a、画像処理部202、202a、対象物検出部203、203b、表示出力部204、位置取得部205、保存部206、等)は、演算装置100がプログラム200、200a、200bを実行することによって実現される、として説明した。これらの機能構成要素のうちの一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等のハードウェア回路によって実現されてもよい。これらの機能構成要素のうちの一部または全部は、ハードウェア回路とソフトウェアとの協働によって実現されてもよい。
以上述べたように、第1〜第4の実施形態によれば、列車の走行状況を簡単に確認することが可能となる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1,1a,1b 情報処理装置、2 カメラ、3 ヘッドアップディスプレイ装置、4 運転士、5 運転台、6 フロントガラス、7 室内カメラ、8 位置計測装置、10 ヘッドマウントディスプレイ装置、30,30a 透明画面、31 補正画像表示領域、100 演算装置、101 記憶装置、200,200a,200b プログラム、201,201a 画像取得部、202,202a 画像処理部、203,203b 対象物検出部、204 表示出力部、205 位置取得部、206 保存部、210 標識検出部、211 レール検出部、212 監視エリア設定部、213 支障物検出部、214 推定部、215 異常検出部、400a〜400l 表示オブジェクト。
Claims (7)
- 列車の前方の風景を写した第1画像を取得する画像取得部と、
前記第1画像に画像処理を実行して前記第1画像より視認性を向上させた第2画像を生成する画像処理部と、
前記第1画像に基づいて前記風景内の対象物の検出を実行する対象物検出部と、
運転士が前記風景を視認可能に前記風景からの光を透過する透明画面の一部に第1領域を設定して前記第1領域に前記第2画像を表示し、前記対象物検出部によって前記対象物が検出された場合、前記対象物から前記運転士への光路が前記透明画面のうちの前記第1領域を除く第2領域と交差する位置または当該位置の近傍に、前記対象物を強調する強調情報を表示する、表示出力部と、
を備えた走行状況提示装置。 - 前記運転士の顔の向きを推定する推定部をさらに備え、
前記第2画像は、前記第1画像に含まれる、前記推定された向きに対応した一部の領域を拡大した画像である、
請求項1に記載の走行状況提示装置。 - 前記列車が第1列車位置を走行した第1のタイミングにおいて撮像された第1画像である第3画像が格納される記憶部をさらに備え、
前記対象物検出部は、前記第1のタイミングよりも後の、前記第1列車位置を再び走行した第2のタイミングにおいて、前記第2のタイミングにおいて撮像された第1画像である第4画像と、前記記憶部に格納された前記第3画像と、の差分に基づいて前記対象物を検出する、
請求項1または2に記載の走行状況提示装置。 - 前記画像取得部は、前記運転士を写した第5画像をさらに取得し、
前記推定部は、前記第5画像に基づいて前記顔の向きを推定する、
請求項2に記載の走行状況提示装置。 - 前記透明画面は、ヘッドアップディスプレイ装置またはヘッドマウントディスプレイ装置を構成する画面である、
請求項1から4の何れか一項に記載の走行状況提示装置。 - 前記透明画面は、前記運転士に装着されるヘッドマウントディスプレイ装置を構成する画面であり、
前記ヘッドマウントディスプレイ装置は、加速度センサをさらに備え、
前記推定部は、前記加速度センサによる加速度検出値に基づいて前記顔の向きを推定する、
請求項2に記載の走行状況提示装置。 - 前記画像処理は、明るさを調整する処理を含む、
請求項1から6の何れか一項に記載の走行状況提示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018084362A JP2019191961A (ja) | 2018-04-25 | 2018-04-25 | 走行状況提示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018084362A JP2019191961A (ja) | 2018-04-25 | 2018-04-25 | 走行状況提示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019191961A true JP2019191961A (ja) | 2019-10-31 |
Family
ID=68390431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018084362A Pending JP2019191961A (ja) | 2018-04-25 | 2018-04-25 | 走行状況提示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019191961A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021112030A1 (ja) * | 2019-12-06 | 2021-06-10 | 株式会社音楽館 | 表示制御システム、表示制御方法及びプログラム |
WO2021153068A1 (ja) * | 2020-01-31 | 2021-08-05 | 株式会社 東芝 | 設備診断システム |
JP7458031B2 (ja) | 2020-09-10 | 2024-03-29 | 公益財団法人鉄道総合技術研究所 | コンピュータシステムおよび制御方法 |
KR102672693B1 (ko) | 2023-10-05 | 2024-06-05 | 한국철도기술연구원 | 철도 차량용 위치 인식 및 발생 이벤트 기록 시스템 |
-
2018
- 2018-04-25 JP JP2018084362A patent/JP2019191961A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021112030A1 (ja) * | 2019-12-06 | 2021-06-10 | 株式会社音楽館 | 表示制御システム、表示制御方法及びプログラム |
JP2021093565A (ja) * | 2019-12-06 | 2021-06-17 | 株式会社音楽館 | 表示制御システム、表示制御方法及びプログラム |
WO2021153068A1 (ja) * | 2020-01-31 | 2021-08-05 | 株式会社 東芝 | 設備診断システム |
JP2021124751A (ja) * | 2020-01-31 | 2021-08-30 | 株式会社東芝 | 設備診断システム |
JP7399729B2 (ja) | 2020-01-31 | 2023-12-18 | 株式会社東芝 | 設備診断システム |
JP7458031B2 (ja) | 2020-09-10 | 2024-03-29 | 公益財団法人鉄道総合技術研究所 | コンピュータシステムおよび制御方法 |
KR102672693B1 (ko) | 2023-10-05 | 2024-06-05 | 한국철도기술연구원 | 철도 차량용 위치 인식 및 발생 이벤트 기록 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7332726B2 (ja) | ヒートマップを使用したドライバーの注目の検出 | |
CN108460734B (zh) | 车辆驾驶员辅助模块进行图像呈现的系统和方法 | |
US10699486B2 (en) | Display system, information presentation system, control method of display system, storage medium, and mobile body | |
US10156728B2 (en) | Information provision device, information provision method, and recording medium | |
JP6659924B2 (ja) | ヘッドマウントディスプレイの提示の調整 | |
US9563981B2 (en) | Information processing apparatus, information processing method, and program | |
JP5267660B2 (ja) | 画像処理装置、画像処理プログラム、画像処理方法 | |
US20170054973A1 (en) | Display device and display method | |
CN107757479A (zh) | 一种基于增强现实显示技术的驾驶辅助系统及方法 | |
JP6820561B2 (ja) | 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム | |
JP6381981B2 (ja) | 線路空間支障物検知システム | |
JP6669019B2 (ja) | 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム | |
JP2019191961A (ja) | 走行状況提示装置 | |
US10996469B2 (en) | Method and apparatus for providing driving information of vehicle, and recording medium | |
EP3530521B1 (en) | Driver assistance method and apparatus | |
US10969579B2 (en) | Augmented reality glasses, method for determining a pose of augmented reality glasses, and transportation vehicle suitable for using the augmented reality glasses or the method | |
US11024040B2 (en) | Dynamic object tracking | |
US20210088352A1 (en) | Control device | |
JP2005346177A (ja) | 車両用情報提示装置 | |
US20190122549A1 (en) | Display control assembly and control method therefor, head-up display system, and vehicle | |
JP6750531B2 (ja) | 表示制御装置及び表示制御プログラム | |
WO2018134897A1 (ja) | 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法 | |
US20200388079A1 (en) | System to add parallax to video for augmented reality head up display | |
JP2015154125A (ja) | 車両周辺画像表示装置、車両周辺画像表示方法 | |
JP2019221115A (ja) | 走行状況提示装置 |