JP2019142304A - 落下物検出装置及び落下物検出方法 - Google Patents

落下物検出装置及び落下物検出方法 Download PDF

Info

Publication number
JP2019142304A
JP2019142304A JP2018026653A JP2018026653A JP2019142304A JP 2019142304 A JP2019142304 A JP 2019142304A JP 2018026653 A JP2018026653 A JP 2018026653A JP 2018026653 A JP2018026653 A JP 2018026653A JP 2019142304 A JP2019142304 A JP 2019142304A
Authority
JP
Japan
Prior art keywords
image
falling object
object detection
fallen object
falling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018026653A
Other languages
English (en)
Inventor
大樹 山本
Hiroki Yamamoto
大樹 山本
勇介 渡部
Yusuke Watabe
勇介 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP2018026653A priority Critical patent/JP2019142304A/ja
Publication of JP2019142304A publication Critical patent/JP2019142304A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Electric Propulsion And Braking For Vehicles (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】鉄道軌道上の落下物を精度よく検出可能な、落下物検出装置及び落下物検出方法を提供する。【解決手段】鉄道車両に設けられて鉄道軌道上の落下物を検出する、落下物検出装置10であって、前記鉄道車両の進行方向側に設けられて前記鉄道軌道を撮像する撮像装置11と、当該撮像装置11により撮像された画像を基にした画像を解析し、前記落下物を検出する落下物検出部14と、を備え、前記鉄道軌道の画像と、当該画像に対応する前記落下物の有無の情報を学習データとして取り込み、前記落下物及び前記落下物の有無に関する特徴データを作成、保持する機械学習器により、前記落下物を検出する、落下物検出装置10を提供する。【選択図】図2

Description

本発明は、落下物検出装置及び落下物検出方法に関する。
レールや枕木などの鉄道軌道上に、通常存在し得ない異物が落下物として存在している状態で、貨物や乗客を搬送する営業車両が走行すると、重大な事故が発生する可能性がある。これを抑制するために、一般に、カメラを搭載した点検車両を、営業車両の走行前に走行させ、落下物を検出することが行われている。
落下物の検出は、レーザセンサを用いて行われることがある。しかし、レーザセンサにおいては、レーザ光の照射先が遠くなると、これに伴い精度が低下することがある。そのため、カメラを用いて検出対象となる範囲を撮像し、撮像された画像を解析することにより落下物を検出することが、広く行われている。
例えば、特許文献1には、カメラを用いて検出された物体を、データベース内に蓄積された画像と比較することで、当該物体の異常性を分類する、鉄道軌道スキャニングシステムおよび方法が開示されている。
特表2008−502538号公報
特許文献1に記載されたような、見本となる画像との比較により落下物を検出する場合においては、見本画像と比較される、撮像されて解析される画像は、その背景にバラストが写り込み、なおかつ、当該画像は鉄道が走行中に撮像されたものとなっている。すなわち、画像の背景は常に一定ではなく、このため、一定の背景において撮像された画像を単純に比較する場合に比べ、検出精度を向上するのが容易ではない。
また、落下物を例えば作業員が落したスパナであると限定した場合であっても、スパナの大きさや色には様々な種類があり、なおかつ、画像中のスパナの置かれた角度も場合により様々である。この理由においても、見本画像との比較により落下物を効果的に、精度よく検出するのは容易ではない。
本発明が解決しようとする課題は、鉄道軌道上の落下物を精度よく検出可能な、落下物検出装置及び落下物検出方法を提供することである。
本発明は、上記課題を解決するため、以下の手段を採用する。すなわち、本発明は、鉄道車両に設けられて鉄道軌道上の落下物を検出する、落下物検出装置であって、前記鉄道車両の進行方向側に設けられて前記鉄道軌道を撮像する撮像装置と、当該撮像装置により撮像された画像を基にした画像を解析し、前記落下物を検出する落下物検出部と、を備え、前記鉄道軌道の画像と、当該画像に対応する前記落下物の有無の情報を学習データとして取り込み、前記落下物及び前記落下物の有無に関する特徴データを作成、保持する機械学習器により、前記落下物を検出する、落下物検出装置を提供する。
また、本発明は、鉄道軌道上の落下物を検出する落下物検出方法であって、前記鉄道軌道の、鉄道車両の進行方向側を撮像し、前記鉄道軌道の画像と、当該画像に対応する前記落下物の有無の情報を学習データとして取り込み、前記落下物及び前記落下物の有無に関する特徴データを作成、保持する機械学習器により、撮像された画像を基にした画像を解析し、前記落下物を検出する、落下物検出方法を提供する。
本発明によれば、鉄道軌道上の落下物を精度よく検出可能な、落下物検出装置及び落下物検出方法を提供することができる。
本発明の実施形態における落下物検出装置が搭載された鉄道車両の説明図である。 前記実施形態における落下物検出装置のブロック図である。 前記実施形態における撮像装置により撮像された画像の説明図である。 前記実施形態における落下物検出部の、機械学習器のブロック図である。 前記実施形態における落下物検出方法のフローチャートである。 前記実施形態における落下物検出部内の処理のフローチャートである。 前記実施形態に関する実施結果を説明する写真である。 前記実施形態に関する実施結果を説明する写真である。 前記実施形態に関する実施結果を説明する写真である。 前記実施形態に関する実施結果を説明する写真である。
以下、本発明の実施形態について図面を参照して詳細に説明する。
本実施形態における落下物検出装置は、鉄道車両に設けられて鉄道軌道上の落下物を検出するものであり、鉄道車両の進行方向側に設けられて鉄道軌道を撮像する撮像装置と、撮像装置により撮像された画像を基にした画像を解析し、落下物を検出する落下物検出部と、を備え、鉄道軌道の画像と、この画像に対応する落下物の有無の情報を学習データとして取り込み、落下物及び落下物の有無に関する特徴データを作成、保持する機械学習器により、落下物を検出する。
図1は、実施形態における落下物検出装置が搭載された鉄道車両の説明図である。本実施形態における鉄道車両1は、貨物や乗客を搬送する営業車両が走行する前に、点検のために走行させる点検車両であり、後述の落下物検出装置はこの点検車両に設けられている。
鉄道車両1は、鉄道軌道5上を走行するように設けられている。鉄道軌道5は、道床、本実施形態においてはバラスト6と、バラスト6上に設けられた枕木7、及び枕木7上に設けられたレール8を備えている。
鉄道車両1は、進行方向Fを照射する照明2を備えている。
鉄道車両1は、鉄道軌道5上の落下物9を検出する落下物検出装置10を備えている。
本実施形態において、落下物9は、例えば、鉄道軌道5近辺で夜間に作業に当たる作業員が置き忘れた、スパナやボルト等の工具や部材である。
落下物検出装置10は、互いに通信可能に設けられた、撮像装置11と、制御端末12を備えている。
撮像装置11は、鉄道車両1の進行方向F側に設けられて、鉄道軌道5を撮像し、図3を用いて後に説明するような撮像画像(撮像装置11により撮像された画像)30を生成する。
撮像装置11による撮像対象を、鉄道車両1から進行方向Fに向かってどれくらいの距離とするかは、鉄道車両1の走行速度に応じて、例えば落下物検出装置10により落下物9を検出した際に鉄道車両1が落下物9の手前で安全に停止できるような距離に設定すればよい。
撮像装置11は、撮像画像30を制御端末12へと送信する。
図2は、落下物検出装置10のブロック図である。落下物検出装置10は、制御端末12内に、入力画像生成部13、落下物検出部14、データ処理部15、及び事前学習部20を備えている。落下物検出装置10はまた、警報器16と表示装置17を備えている。
入力画像生成部13は、撮像装置11が生成した撮像画像30を受信する。
入力画像生成部13は、撮像画像30を部分的に切り出して、複数の入力画像(撮像装置11により撮像された画像30を基にした画像)を生成する。
図3は、撮像画像30と入力画像31の関係を示す説明図である。入力画像31は、次に説明する落下物検出部14へと渡されて、落下物検出部14への入力とされる画像である。落下物検出部14は、本実施形態においては、後述するように例えば227×227の、所定の大きさの解像度を備えたRGB画像を入力としている。このため、入力画像生成部13は、撮像画像30をこの所定の大きさに切り出す。
この、撮像画像30からの入力画像31の切り出しは、例えば次のように行われる。
まず、撮像画像30から画像処理により大まかな鉄道軌道5の場所を抽出する。この抽出された鉄道軌道近傍領域32の近傍で、最も左上に位置する基点画素33を決定し、この基点画素33を基点として右方向かつ下方向に所定の大きさの画素範囲34を定め、この画素範囲34を入力画像31として切り出す。
次に、この画素範囲34を右方向に所定の解像度数だけ移動させ、移動後の画素範囲34を次の入力画像31として切り出す。この、画素範囲34の右方向への移動と入力画像31の切り出しを繰り返す。
画素範囲34が鉄道軌道近傍領域32の右端を超えて、例えば図3に34Aとして示される位置に移動した際には、この画素範囲34を入力画像31として切り出した後に、所定の解像度数だけ下方の水平位置において、鉄道軌道近傍領域32の左端の位置34Bから画素範囲34の右方向への移動と入力画像31の切り出しを繰り返す。
このような処理を繰り返し、入力画像生成部13は、撮像画像30から複数の入力画像31を切り出し、生成する。
入力画像生成部13は、生成した入力画像31を随時、落下物検出部14へ送信する。
また、入力画像生成部13は、撮像画像30をデータ処理部15へ送信する。
落下物検出部14は、入力画像生成部13から入力画像31を受信する。
落下物検出部14は、入力画像31を解析し、落下物9を検出する。より詳細には、落下物検出部14は、鉄道軌道5の画像と、その画像に対応する落下物9の有無の情報を学習データとして取り込み、落下物9及び落下物9の有無に関する特徴データを作成、保持する機械学習器により、落下物9を検出する。
落下物検出部14の機械学習器は、事前学習部20により、鉄道車両1に搭載されて実際に落下物9を検出する処理を実行する前に、事前に機械学習されている。事前学習部20は、画像データベース21と機械学習部22を備えている。
画像データベース21には、多数の学習データが格納されている。学習データは、学習画像と、当該学習画像における落下物9の存在情報が対応付けられたものである。学習画像としては、様々な鉄道軌道5の画像が用いられている。鉄道軌道5上に落下物9が落ちていない学習画像においては、落下物9が存在しない旨の情報が対応付けられている。また、鉄道軌道5上に落下物9が落ちている学習画像においては、落下物9が存在する旨の情報が対応付けられている。学習画像は、入力画像31と同じ、例えば227×227の、所定の大きさの解像度を備えている。
機械学習部22は、画像データベース21内の学習データを用いて、機械学習器を機械学習する。図4に、落下物検出部14の機械学習器40のブロック図を示す。本実施形態においては、機械学習器40は、第1〜第5畳み込み層41、42、43、44、45と、第1〜第3全結合層46、47、48を備えた畳み込みニューラルネットワーク(Convolutional Neural Network、以下CNNと記載する)により実現されている。
まず、機械学習器40の機械学習について説明する。学習時には、機械学習器40の第1畳み込み層41に、学習画像49が入力される。
第1畳み込み層41においては、畳み込みフィルタ処理、正規化処理、及びプーリング処理が順次実行される。
第1畳み込み層41は、所定の数の第1フィルタ41fを備えている。機械学習器40は、各第1フィルタ41fに対し、これを学習画像49上に位置付け、第1フィルタ41f内の学習画像49の各画素の画素値に対して、第1フィルタ41f内に画素位置に対応して設定された重みを付けて和を計算することで、畳み込みフィルタ処理を実行する。これにより、1つの画素の画素値が演算される。機械学習器40は、第1フィルタ41fを学習画像49上で所定の解像度刻みで移動させつつ、このような畳み込みフィルタ処理を実行することで複数の画素値を演算し、これを並べて、第1フィルタ41fに対応した1枚の画像を生成する。この画像は、適用された第1フィルタ41fによって第1フィルタ41fに対応した特徴が抽出されたものであるため、第1特徴マップ41mと呼称する。
機械学習器40は、この処理を、全ての第1フィルタ41fに対して実行し、第1フィルタ41fの数に応じた第1特徴マップ41mを生成する。
本実施形態においては、第1フィルタ41fの各々は、例えば11×11の画素数の、R、G、Bの各々のチャンネルに対応する3枚のフィルタの集合である。すなわち、より具体的には、第1畳み込み層41で生成された第1特徴マップ41m上の任意の1画素は、学習画像49の11×11のある領域に対応する。この11×11の画像領域は、R、G、Bの3つのチャンネルに対応した数が存在するため、この第1特徴マップ41m上の1つの画素の画素値は、11×11×3=363個の学習画像49上の画素の画素値に対する重み付き和となっている。
本実施形態においては、第1フィルタ41fを学習画像49上で例えば4画素の移動幅で移動させることにより、例えば55×55の画素数の、1枚の第1特徴マップ41mが生成される。
本実施形態においては、例えば96個の第1フィルタ41fを備えており、この第1フィルタ41fの各々により畳み込みフィルタ処理が実行されるため、計96枚の第1特徴マップ41mが生成される。
第1フィルタ41fは、実際には、学習画像49の画素値の強調や平滑化等を重みとして表現したものである。このような第1フィルタ41fを用いて畳み込みフィルタ処理を実行して生成された第1特徴マップ41mにおいては、エッジ特徴等の画像の濃淡パターンが効果的に抽出されている。また、学習画像49の局所的な領域から第1フィルタ41fを通して特徴を抽出するため、学習画像49内に存在する物体の位置のずれに対して頑健となる。
各第1フィルタ41fの重みは、機械学習により調整される。
次に、第1畳み込み層41において、正規化処理が実行される。畳み込みフィルタ処理において生成された各第1特徴マップ41mの画素値は、一定の範囲内に偏っている場合がある。例えば、画素値が0〜255の値をとり得る場合において、第1特徴マップ41mの画素値が例えば100〜120等の一定の範囲内に偏っている場合、この範囲を0〜255の範囲に正規化して広げる処理を行う。この正規化処理により、第1特徴マップ41mの画素値をより広い範囲に分散させて、濃淡変化を強調することで、続くプーリング処理において効果的な特徴抽出が可能となる。
第1畳み込み層41において、正規化処理の後に、プーリング処理が実行される。より詳細には、正規化された各第1特徴マップ41mを2×2の小領域に区切り、各小領域に対して当該小領域内の画素値の最大値を算出して、1つの画素の画素値とすることで、各第1特徴マップ41mの2×2の小領域の各々を1×1の画素へと変換し、情報を縮約させる。すなわち、本実施形態においては、プーリング処理は最大プーリング処理である。プーリング処理は、上記のように、正規化された各第1特徴マップ41mの局所領域から最大の画素値を選択するため、画像に特化された適切な特徴のみを残すことが可能であり、以降の処理を効率的に行うことができる。
第1畳み込み層41において生成された、プーリング処理された第1特徴マップ41mは、第2畳み込み層42の入力画像となる。
第2畳み込み層42においては、第1畳み込み層41と同様に、畳み込みフィルタ処理、正規化処理、及びプーリング処理が順次実行される。
第2畳み込み層42は、第1畳み込み層41と同様に、所定の数の第2フィルタ42fを備えており、これらを用いて畳み込みフィルタ処理を実行することで、第2フィルタ42fの数に応じた所定の数の第2特徴マップ42mを生成する。
本実施形態においては、第2フィルタ42fの各々は、例えば5×5の画素数の、プーリング処理された第1特徴マップ41mの枚数に対応する96枚のフィルタの集合である。すなわち、より具体的には、第2畳み込み層42で生成された第2特徴マップ42m上の任意の1画素は、プーリング処理された第1特徴マップ41mの5×5のある領域に対応する。この5×5の画像領域は、プーリング処理された第1特徴マップ41mの枚数に対応した数が存在するため、この第2特徴マップ42m上の1つの画素の画素値は、5×5×96=2400個のプーリング処理された第1特徴マップ41m上の画素の画素値に対する重み付き和となっている。
本実施形態においては、第2フィルタ42fを、互いに重ねられた、プーリング処理された第1特徴マップ41m上で、例えば1画素の移動幅で移動させることにより、例えば27×27の画素数の、1枚の第2特徴マップ42mが生成される。
本実施形態においては、例えば256個の第2フィルタ42fを備えており、この第2フィルタ42fの各々により畳み込みフィルタ処理が実行されるため、計256枚の第2特徴マップ42mが生成される。
続いて、第2畳み込み層42において、第1畳み込み層41と同様に、正規化処理とプーリング処理が実行され、プーリング処理された第2特徴マップ42mが生成されて、第3畳み込み層43の入力画像となる。
第3畳み込み層43においては、畳み込みフィルタ処理のみが実行される。
第3畳み込み層43は、第1及び第2畳み込み層41、42と同様に、所定の数の第3フィルタ43fを備えており、これらを用いて畳み込みフィルタ処理を実行することで、第3フィルタ43fの数に応じた所定の数の第3特徴マップ43mを生成する。
本実施形態においては、第3フィルタ43fの各々は、例えば3×3の画素数の、プーリング処理された第2特徴マップ42mの枚数に対応する256枚のフィルタの集合である。第3フィルタ43fを、互いに重ねられた、プーリング処理された第2特徴マップ42m上で、例えば1画素の移動幅で移動させることにより、例えば13×13の画素数の、1枚の第3特徴マップ43mが生成される。
本実施形態においては、例えば384個の第3フィルタ43fを備えており、この第3フィルタ43fの各々により畳み込みフィルタ処理が実行されるため、計384枚の第3特徴マップ43mが生成される。
第3特徴マップ43mは、第4畳み込み層44の入力画像となる。
第4畳み込み層44は、第3畳み込み層43と同様に、所定の数の、例えば384個の第4フィルタ44fにより、畳み込みフィルタ処理を実行することで、所定の数の、例えば384枚の第4特徴マップ44mを生成する。本実施形態においては、第4フィルタ44fの各々は、例えば3×3の画素数の、第3特徴マップ43mの枚数に対応する384枚のフィルタの集合であり、各第4フィルタ44fを、互いに重ねられた第3特徴マップ43m上で、例えば1画素の移動幅で移動させることで、対応する第4特徴マップ44mが生成される。
第4特徴マップ44mは、第5畳み込み層45の入力画像となる。
第5畳み込み層45は、第4畳み込み層44と同様に、所定の数の、例えば256個の第5フィルタ45fにより、畳み込みフィルタ処理を実行することで、所定の数の、例えば256枚の第5特徴マップ45mを生成する。本実施形態においては、第5フィルタ45fの各々は、例えば3×3の画素数の、第4特徴マップ44mの枚数に対応する384枚のフィルタの集合であり、各第5フィルタ45fを、互いに重ねられた第4特徴マップ44m上で、例えば1画素の移動幅で移動させることで、対応する第5特徴マップ45mが生成される。
第5畳み込み層45においては、更に、プーリング処理が行われ、畳み込みフィルタ処理において生成された全ての第5特徴マップ45mの画素値の情報、すなわち、例えば13×13×256個の情報が、例えば4096個の画素値情報へと縮約される。
プーリング処理された第5特徴マップ45m、すなわち例えば4096個の画素値情報は、第1全結合層46への入力となる。
第1全結合層46は、所定の数の、例えば4096個のノード46nを備えている。各ノード46nは、プーリング処理された第5特徴マップ45mの全ての画素値と結合しており、層間に結合荷重を備えている。第1全結合層46においては、この結合荷重に基づいて、プーリング処理された第5特徴マップ45mの各画素値情報に対して重み付け和を演算し、その結果にReLU(Rectified Liner Unit)等の出力関数を適用した値が、各ノード46nに格納される。
第2全結合層47も、第1全結合層46と同様に、所定の数の、例えば4096個のノード47nを備えている。各ノード47nは、第1全結合層46の全てのノード46nと結合しており、層間に結合荷重を備えている。第2全結合層47においては、この結合荷重に基づいて、ノード46nに対して重み付け和を演算し、その結果に出力関数を適用した値が、各ノード47nに格納される。
第3全結合層48は出力層である。本実施形態における機械学習器40は、落下物の有無を判定する2クラス識別を行うものである。このため、第3全結合層48は、第1出力ノード48aと第2出力ノード48bの2つのノードを備えた構成となっている。
第1及び第2出力ノード48a、48bは、第2全結合層47の全てのノード47nと結合しており、層間に結合荷重を備えている。第3全結合層48においては、この結合荷重に基づいて、ノード47nに対して重み付け和を演算し、その結果に出力関数を適用した値が、第1及び第2出力ノード48a、48bに格納される。
機械学習器40においては、第1畳み込み層41に入力された学習画像49が、上記のような第1〜第5畳み込み層41、42、43、44、45と、第1〜第3全結合層46、47、48において処理され、第1及び第2出力ノード48a、48bに処理結果が格納される。
本実施形態においては、落下物9が無い場合に第1出力ノード48aの値が所定の第1判定値、例えば1に近く、第2出力ノード48bの値が所定の第2判定値、例えば0に近い値となるように、なおかつ、落下物9が有る場合に第1出力ノード48aの値が第2判定値に近く、第2出力ノード48bの値が第1判定値に近い値となるように、設計されている。
この場合には、機械学習器40に入力された学習画像49に対応する落下物9の存在情報が、機械学習器40に学習させる際の正解値として使用される。すなわち、学習画像49が落下物9の無い画像である場合には、第1出力ノード48aの値と第1判定値及び第2出力ノード48bの値と第2判定値の各々の2乗誤差を、落下物9の有る画像である場合には、第1出力ノード48aの値と第2判定値及び第2出力ノード48bの値と第1判定値の各々の2乗誤差を、コスト関数とする。
その上で、このコスト関数を小さくするように、誤差逆伝搬法等により、第1〜第5畳み込み層41、42、43、44、45の各第1〜第5フィルタ41f、42f、43f、44f、45fの重みの値、及び、第1〜第3全結合層46、47、48の各結合荷重の値を調整することで、機械学習器40が機械学習される。これらの、各第1〜第5フィルタ41f、42f、43f、44f、45fの重みの値、及び、第1〜第3全結合層46、47、48の各結合荷重の値が、落下物及び落下物の有無に関する特徴データとなる。
上記の説明においては、鉄道軌道5上に落下物9が落ちている学習画像と、それに対応する落下物9の存在情報が組み合わされた学習データにより、機械学習器40全体を学習するように説明した。しかし、実際には、精度の上で問題がなければ、鉄道の分野に限られない様々な画像を用いて、まず第1〜第5畳み込み層41、42、43、44、45を学習し、後に、鉄道軌道5の学習画像及び鉄道軌道5上に落下物9が存在する学習画像を用いて、第1〜第3全結合層46、47、48を学習してもよい。
機械学習器40の中で、第1〜第3全結合層46、47、48は、第1全結合層46の入力となるプーリング処理された第5特徴マップ45mから、落下物9の有無を判定する2クラス分類のための特徴データを保持し、これに基づいて特徴を抽出するものである。
第1〜第5畳み込み層41、42、43、44、45も、同様に落下物9及び落下物9の有無に関する特徴データを保持するものではあるが、これらにおいては特に、落下物9のエッジや濃淡パターン等の、画像としての特徴を、より抽出する部分である。このため、精度の上で問題がなければ、第1〜第5畳み込み層41、42、43、44、45を、鉄道の分野に限られない、一般に広く用いられている様々な画像を入力として機械学習してもよい。この場合においては、鉄道軌道5の学習画像及び鉄道軌道5上に落下物9が落ちている学習画像の数を低減し、学習を比較的容易に行うことができる。
上記のように事前学習部20によって機械学習された、第1〜第5畳み込み層41、42、43、44、45の各第1〜第5フィルタ41f、42f、43f、44f、45fの重みの値、及び、第1〜第3全結合層46、47、48の各結合荷重の値をはじめとした構成は、落下物検出部14内に格納されている。
落下物検出部14は、実際に鉄道車両1に搭載されて落下物9を検出する処理の際には、上記の第1〜第5畳み込み層41、42、43、44、45、及び第1〜第3全結合層46、47、48の各処理を、学習時と同様に実行する。
すなわち、撮像画像30から切り出された入力画像31が第1畳み込み層41に入力されると、第1畳み込み層41は畳み込みフィルタ処理、正規化処理、及びプーリング処理を順次実行する。続いて、第2畳み込み層42が畳み込みフィルタ処理、正規化処理、及びプーリング処理を、第3畳み込み層43が畳み込みフィルタ処理を、第4畳み込み層44が畳み込みフィルタ処理を、及び第5畳み込み層45が畳み込みフィルタ処理とプーリング処理を、それぞれ実行して、プーリング処理された第5特徴マップ45mを生成する。
更に、このプーリング処理された第5特徴マップ45mを入力として、第1〜第3全結合層46、47、48の各々において重み付け和を演算する処理を実行し、最終的に第1及び第2出力ノード48a、48bに処理結果が格納される。
落下物検出部14は、第1出力ノード48aが第1判定値に近い場合に、落下物9が無いと判断し、第2出力ノード48bが第1判定値に近い場合に、落下物9が有ると判断する。
落下物検出部14は、判断結果すなわち落下物9の検出結果と、その際に入力された入力画像31とを対応させて、落下物情報として、データ処理部15へ送信する。
データ処理部15は、入力画像生成部13から撮像画像30を受信する。
また、データ処理部15は、落下物検出部14から、入力画像31と落下物9の検出結果である落下物情報を受信する。
データ処理部15は、撮像画像30と入力画像31を随時保存すると同時に、表示装置17に撮像画像30を表示する。
また、データ処理部15は、落下物9の検出結果において、落下物9が有ると検出された場合には、警報器16により鉄道車両1の搭乗員に落下物9の検出を通知する。
同時に、データ処理部15は、表示装置17に表示された撮像画像30において、落下物情報内の入力画像31に対応する部分を、例えば枠で囲う等により強調表示し、落下物9の場所を明示的に搭乗員に知らせる。
次に、図1〜図4、及び図5、図6を用いて、上記の落下物検出装置10による落下物検出方法を説明する。図5は、落下物検出方法のフローチャートである。また、図6は、機械学習器40の学習時のフローチャートであるとともに、落下物検出部14内の処理のフローチャートである。
本落下物検出方法は、鉄道軌道上の落下物を検出するものであり、鉄道軌道の、鉄道車両の進行方向側を撮像し、鉄道軌道の画像と、画像に対応する落下物の有無の情報を学習データとして取り込み、落下物及び落下物の有無に関する特徴データを作成、保持する機械学習器により、撮像された画像を基にした画像を解析し、落下物を検出する。
まず、図6に示すように、事前学習部20により、落下物検出部14の機械学習器40を機械学習する。
学習処理が開始されると(ステップS20)、入力された学習画像に対し、第1畳み込み層41が、畳み込みフィルタ処理、正規化処理、及びプーリング処理を順次実行し、プーリング処理された第1特徴マップ41mを生成する(ステップS22)。
第2畳み込み層42は、プーリング処理された第1特徴マップ41mに対し、畳み込みフィルタ処理、正規化処理、及びプーリング処理を順次実行し、プーリング処理された第2特徴マップ42mを生成する(ステップS24)。
第3畳み込み層43は、プーリング処理された第2特徴マップ42mに対し、畳み込みフィルタ処理を実行し、第3特徴マップ43mを生成する(ステップS26)。
第4畳み込み層44は、第3特徴マップ43mに対し、畳み込みフィルタ処理を実行し、第4特徴マップ44mを生成する(ステップS28)。
第5畳み込み層45は、第4特徴マップ44mに対し、畳み込みフィルタ処理とプーリング処理を実行し、プーリング処理された第5特徴マップ45m、すなわち例えば4096個の画素値情報を生成する(ステップS30)。
第1全結合層46は、プーリング処理された第5特徴マップ45mの各画素値情報に対して重み付け和を演算し、その結果に出力関数を適用して、各ノード46nに格納する(ステップS32)。
第2全結合層47は、ノード46nに対して重み付け和を演算し、その結果に出力関数を適用して、各ノード47nに格納する(ステップS34)。
第3全結合層48は、ノード47nに対して重み付け和を演算し、その結果に出力関数を適用して、第1及び第2出力ノード48a、48bに格納する(ステップS36)。
本実施形態においては、学習画像49が落下物9の無い画像である場合には、第1出力ノード48aの値と第1判定値及び第2出力ノード48bの値と第2判定値の各々の2乗誤差が、落下物9の有る画像である場合には、第1出力ノード48aの値と第2判定値及び第2出力ノード48bの値と第1判定値の各々の2乗誤差が、コスト関数となる。
このコスト関数を小さくするように、誤差逆伝搬法等により、第1〜第5畳み込み層41、42、43、44、45の各第1〜第5フィルタ41f、42f、43f、44f、45fの重みの値、及び、第1〜第3全結合層46、47、48の各結合荷重の値を調整することで、機械学習器40を機械学習する。
上記のように機械学習が終了すると(ステップS38)、機械学習された機械学習器40の構成を、落下物検出部14内に格納する。
その後、落下物検出装置10を鉄道車両1に搭載し、鉄道車両1を走行させつつ、落下物検出装置10による落下物9の検出を開始する(図5のステップS0)。
撮像装置11は、鉄道軌道5を撮像し、撮像画像30を生成する(ステップS2)。撮像装置11は、撮像画像30を入力画像生成部13へ送信する。
入力画像生成部13は、撮像装置11から撮像画像30を受信し、撮像画像30を部分的に切り出して、複数の入力画像31を生成する(ステップS4)。
入力画像生成部13は、入力画像31を落下物検出部14へ送信する。
また、入力画像生成部13は、撮像画像30をデータ処理部15へ送信する。
落下物検出部14は、入力画像31を受信して、落下物を検出する(ステップS6)。
すなわち、入力画像31が第1畳み込み層41に入力されると、第1畳み込み層41は畳み込みフィルタ処理、正規化処理、及びプーリング処理を順次実行する(ステップS22)。続いて、第2畳み込み層42が畳み込みフィルタ処理、正規化処理、及びプーリング処理を、第3畳み込み層43が畳み込みフィルタ処理を、第4畳み込み層44が畳み込みフィルタ処理を、及び第5畳み込み層45が畳み込みフィルタ処理とプーリング処理を、それぞれ実行して、プーリング処理された第5特徴マップ45mを生成する(ステップS24〜S30)。
更に、このプーリング処理された第5特徴マップ45mを入力として、第1〜第3全結合層46、47、48の各々において重み付け和を演算する処理を実行し、最終的に第1及び第2出力ノード48a、48bに処理結果を格納する(ステップS32〜S36)。
落下物検出部14は、第1出力ノード48aが第1判定値に近い場合に、落下物9が無いと判断し、第2出力ノード48bが第1判定値に近い場合に、落下物9が有ると判断する。
落下物検出部14は、判断結果すなわち落下物9の検出結果と、その際に入力された入力画像31とを対応させて、落下物情報として、データ処理部15へ送信する。
データ処理部15は、入力画像生成部13から撮像画像30を受信する。
また、データ処理部15は、落下物検出部14から、入力画像31と落下物9の検出結果である落下物情報を受信する。
データ処理部15は、撮像画像30と入力画像31を随時保存すると同時に、表示装置17に撮像画像30を表示する。
また、データ処理部15は、落下物情報を基に、落下物検出部14が落下物9を検出したか否かを判定する(ステップS8)。
落下物9が有ると検出された場合には(ステップS8のYes)、警報器16により鉄道車両1の搭乗員に落下物9の検出を通知する(ステップS10)。
同時に、データ処理部15は、表示装置17に表示された撮像画像30において、落下物情報内の入力画像31に対応する部分を、例えば枠で囲う等により強調表示し、落下物9の場所を明示的に搭乗員に知らせる。
落下物9が無いと判断された場合(ステップS8のNo)、及び、落下物9が有ると判断されて搭乗員へ通知された後(ステップS10)には、撮像画像30に対して切り出される全ての入力画像31に対する落下物9の検出処理が終了したか否かを判断する(ステップS12)。
撮像画像30に対して未処理の部分が残っている場合においては(ステップS12のNo)、当該部分を入力画像31として切り出す処理へと移行する(ステップS4へ遷移)。
撮像画像30に対して未処理の部分が残っていない場合においては(ステップS12のYes)、次の撮像画像30に対する処理へと移行する(ステップS2へ遷移)。
次に、上記の落下物検出装置及び落下物検出方法の効果について説明する。
本実施形態の落下物検出装置10においては、鉄道車両1に設けられて鉄道軌道5上の落下物9を検出するものであって、鉄道車両1の進行方向F側に設けられて鉄道軌道5を撮像する撮像装置11と、撮像装置11により撮像された画像30を基にした画像31を解析し、落下物9を検出する落下物検出部14と、を備え、鉄道軌道5の画像と、画像に対応する落下物の有無の情報を学習データとして取り込み、落下物9及び落下物9の有無に関する特徴データを作成、保持する機械学習器40により、落下物9を検出する。
上記のような構成によれば、鉄道軌道5の画像と、画像に対応する落下物の有無の情報を学習データとして取り込み、落下物9及び落下物9の有無に関する特徴データを作成、保持するように機械学習されているため、機械学習器40は入力画像31がこの特徴データに合致するか否かで落下物9を検出可能である。
すなわち、従来の画像処理等による、見本画像との比較により落下物9を検出する場合に比べると、画像の表面的な情報だけでなく、これを抽象化した特徴により落下物9を検出するため、落下物9の角度、大きさ、色、及び、天候や時刻に依存した明度により受ける影響等を抑制可能である。また、抽象化した特徴により落下物9を検出するため、機械学習時に画像として入力されていない種類の落下物9であっても、これを検出できる可能性が高くなる。
これにより、鉄道軌道5上の落下物9を精度よく検出可能である。
また、機械学習器40は、CNNにより実現されている
また、撮像装置40により撮像された画像30を部分的に切り出して、撮像装置11により撮像された画像30を基にした画像31を生成し、落下物検出部14へ送信する、入力画像生成部13を備えている
上記のような構成によれば、落下物検出装置10を適切に実現可能である。
また、落下物検出部14が落下物9を検出した際に、鉄道車両1の搭乗員へ落下物9の検出を通知する警報器16を備えている。
上記のような構成によれば、落下物9を検出した際に搭乗員への通知が可能となるため、鉄道車両1の迅速な停止が可能となる。
また、撮像装置11により撮像された画像30を表示する表示装置17を備えている。
上記のような構成によれば、落下物9の検出状況を視認することが可能となる。
[実施結果]
次に、上記実施形態における落下物検出装置10を使用した実施結果を説明する。
図7(a)は、バラスト6のみを撮像した入力画像31である。図7(b)、(c)は、それぞれ、バラスト6上に落下物9が異なる態様で位置している場合の入力画像31である。
図8、図9、図10は、それぞれ、図7(a)、(b)、(c)を機械学習された機械学習器40へ入力画像31として入力したときの、第5畳み込み層45の出力、すなわちプーリング処理された第5特徴マップ45mである。
特に図8と図9、10を比べると、図9、10には、落下物9とバラスト6の境界を示すと考えられるエッジや、濃淡パターンが、特徴として表現されていることがわかる。特に、図9と図10により、落下物9の角度が異なる場合においても、同様な特徴が抽出されていることがわかる。
なお、本発明の落下物検出装置及び落下物検出方法は、図面を参照して説明した上述の実施形態に限定されるものではなく、その技術的範囲において他の様々な変形例が考えられる。
例えば、上記実施形態においては、落下物検出装置10は点検車両に設けられていたが、営業車両に設けられていてもよい。
また、上記実施形態においては、例えば図2において落下物検出装置10は事前学習部20を含むように説明されているが、機械学習器40の学習が完了し、実際に鉄道車両1に搭載されて落下物9を検出する時点においては、事前学習部20は取り外され、削除された構成となっていてもよい。
また、撮像画像30からの入力画像31の切り出しは、上記実施形態において説明したものと異なるように行われても構わない。
例えば、精度が損なわれない範囲において、撮像画像30から、バラスト6とは異なる色合いの部分や、画素値の変化の傾向が他とは異なる部分等を落下物9である可能性が高いとしてフィルタ処理等で抽出し、抽出された部分の近傍のみから入力画像31を切り出すようにしても構わない。
また、上記実施形態においては、学習画像49をそのまま機械学習器40の第1畳み込み層41へと入力したが、これに限られない。例えば、学習画像49に対して回転、拡大縮小、明度の変更等の様々な処理を施し、1つの学習画像49から多くの種類の学習画像49を生成させ、これらを第1畳み込み層41に入力してもよい。このように学習データを増やすことにより、効果的な学習が可能となる。
また、上記実施形態において説明した、CNNの構成は、上記の説明に限られない。例えば、各畳み込み層におけるフィルタの大きさ、フィルタの数、フィルタの移動幅等は、学習が効果的になされる範囲において、適宜変更されて構わない。
これ以外にも、本発明の主旨を逸脱しない限り、上記実施形態で挙げた構成を取捨選択したり、他の構成に適宜変更したりすることが可能である。
1 鉄道車両
5 鉄道軌道
9 落下物
10 落下物検出装置
11 撮像装置
12 制御端末
13 入力画像生成部
14 落下物検出部
15 データ処理部
16 警報器
17 表示装置
20 事前学習部
21 画像データベース
22 機械学習部
30 撮像画像(撮像装置により撮像された画像)
31 入力画像(撮像装置により撮像された画像を基にした画像)
40 機械学習器
49 学習画像
F 進行方向

Claims (6)

  1. 鉄道車両に設けられて鉄道軌道上の落下物を検出する、落下物検出装置であって、
    前記鉄道車両の進行方向側に設けられて前記鉄道軌道を撮像する撮像装置と、
    当該撮像装置により撮像された画像を基にした画像を解析し、前記落下物を検出する落下物検出部と、
    を備え、
    前記鉄道軌道の画像と、当該画像に対応する前記落下物の有無の情報を学習データとして取り込み、前記落下物及び前記落下物の有無に関する特徴データを作成、保持する機械学習器により、前記落下物を検出する、落下物検出装置。
  2. 前記機械学習器は、畳み込みニューラルネットワークにより実現されている、請求項1に記載の落下物検出装置。
  3. 前記撮像装置により撮像された前記画像を部分的に切り出して、当該撮像装置により撮像された前記画像を基にした前記画像を生成し、前記落下物検出部へ送信する、入力画像生成部を備えている、請求項1または2に記載の落下物検出装置。
  4. 前記落下物検出部が前記落下物を検出した際に、前記鉄道車両の搭乗員へ前記落下物の検出を通知する警報器を備えている、請求項1から3のいずれか一項に記載の落下物検出装置。
  5. 前記撮像装置により撮像された前記画像を表示する表示装置を備えている、請求項1から4のいずれか一項に記載の落下物検出装置。
  6. 鉄道軌道上の落下物を検出する落下物検出方法であって、
    前記鉄道軌道の、鉄道車両の進行方向側を撮像し、
    前記鉄道軌道の画像と、当該画像に対応する前記落下物の有無の情報を学習データとして取り込み、前記落下物及び前記落下物の有無に関する特徴データを作成、保持する機械学習器により、撮像された画像を基にした画像を解析し、前記落下物を検出する、落下物検出方法。
JP2018026653A 2018-02-19 2018-02-19 落下物検出装置及び落下物検出方法 Pending JP2019142304A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018026653A JP2019142304A (ja) 2018-02-19 2018-02-19 落下物検出装置及び落下物検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018026653A JP2019142304A (ja) 2018-02-19 2018-02-19 落下物検出装置及び落下物検出方法

Publications (1)

Publication Number Publication Date
JP2019142304A true JP2019142304A (ja) 2019-08-29

Family

ID=67770787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018026653A Pending JP2019142304A (ja) 2018-02-19 2018-02-19 落下物検出装置及び落下物検出方法

Country Status (1)

Country Link
JP (1) JP2019142304A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434657A (zh) * 2020-11-20 2021-03-02 上海眼控科技股份有限公司 飘散运载物检测方法、设备、程序及计算机可读介质
JP2022029746A (ja) * 2020-08-05 2022-02-18 株式会社パスコ 支障物特定装置、支障物特定方法及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000505397A (ja) * 1996-02-27 2000-05-09 イスラエル・エアクラフト・インダストリーズ・リミテツド 障害検知システム
JP2008502538A (ja) * 2004-06-11 2008-01-31 ストラテック システムズ リミテッド 鉄道軌道スキャニングシステムおよび方法
JP2009132259A (ja) * 2007-11-30 2009-06-18 Denso It Laboratory Inc 車両周辺監視装置
JP2010006295A (ja) * 2008-06-30 2010-01-14 Kobe Steel Ltd 落下物検知装置、移動体および落下物検知方法
US20170011281A1 (en) * 2015-07-09 2017-01-12 Qualcomm Incorporated Context-based priors for object detection in images
US20170206434A1 (en) * 2016-01-14 2017-07-20 Ford Global Technologies, Llc Low- and high-fidelity classifiers applied to road-scene images
WO2017141997A1 (ja) * 2016-02-15 2017-08-24 国立大学法人電気通信大学 特徴量変換モジュール、パターン識別装置、パターン識別方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000505397A (ja) * 1996-02-27 2000-05-09 イスラエル・エアクラフト・インダストリーズ・リミテツド 障害検知システム
JP2008502538A (ja) * 2004-06-11 2008-01-31 ストラテック システムズ リミテッド 鉄道軌道スキャニングシステムおよび方法
JP2009132259A (ja) * 2007-11-30 2009-06-18 Denso It Laboratory Inc 車両周辺監視装置
JP2010006295A (ja) * 2008-06-30 2010-01-14 Kobe Steel Ltd 落下物検知装置、移動体および落下物検知方法
US20170011281A1 (en) * 2015-07-09 2017-01-12 Qualcomm Incorporated Context-based priors for object detection in images
US20170206434A1 (en) * 2016-01-14 2017-07-20 Ford Global Technologies, Llc Low- and high-fidelity classifiers applied to road-scene images
WO2017141997A1 (ja) * 2016-02-15 2017-08-24 国立大学法人電気通信大学 特徴量変換モジュール、パターン識別装置、パターン識別方法、およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022029746A (ja) * 2020-08-05 2022-02-18 株式会社パスコ 支障物特定装置、支障物特定方法及びプログラム
JP7041723B2 (ja) 2020-08-05 2022-03-24 株式会社パスコ 支障物特定装置、支障物特定方法及びプログラム
CN112434657A (zh) * 2020-11-20 2021-03-02 上海眼控科技股份有限公司 飘散运载物检测方法、设备、程序及计算机可读介质

Similar Documents

Publication Publication Date Title
US9214016B2 (en) Pantograph monitoring system and method
KR102017870B1 (ko) 실시간 선로 결함 검측 시스템
US6873912B2 (en) Vehicle tracking system
US8233662B2 (en) Method and system for detecting signal color from a moving video platform
JP6904614B2 (ja) 対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム
JP6737638B2 (ja) 鉄道車両の外観検査装置
WO2017113805A1 (zh) 列车车号和车型识别方法和系统及安全检查方法和系统
KR20210157000A (ko) 차량 하부 검사 시스템 및 그 방법
CN107428261B (zh) 基于图像处理的吊钩检测装置
JP6052590B2 (ja) 自動車車体の表面検査装置および表面検査方法
US20200265575A1 (en) Flaw inspection apparatus and method
JP2018036241A (ja) 検査方法、検査装置、検査プログラム、および記録媒体
CN109489724A (zh) 一种隧道列车安全运行环境综合检测装置及检测方法
CN111591715A (zh) 一种皮带纵向撕裂检测方法及装置
Karaduman et al. Experimental fuzzy diagnosis algorithm based on image processing for rail profile measurement
AU2018247817A1 (en) Method for recognising an object of a mobile unit
CN112528861A (zh) 应用于铁路隧道内道床的异物检测方法及装置
JP2019142304A (ja) 落下物検出装置及び落下物検出方法
JP4322230B2 (ja) 表面欠陥検査装置及び表面欠陥検査方法
CN113639685B (zh) 位移检测方法、装置、设备和存储介质
JP6908445B2 (ja) 変化検出装置及び鉄道設備部品の保守管理方法
CN112907532B (zh) 基于Faster RCNN改进的货车车门脱落检测方法
JP6960252B2 (ja) 画像分析装置及び鉄道設備部品の保守管理方法
JP2017045137A (ja) 車種判別装置、及び車種判別方法
CN205365645U (zh) 列车安全检查系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220913