JP7207479B2 - 建築限界判定方法 - Google Patents

建築限界判定方法 Download PDF

Info

Publication number
JP7207479B2
JP7207479B2 JP2021145973A JP2021145973A JP7207479B2 JP 7207479 B2 JP7207479 B2 JP 7207479B2 JP 2021145973 A JP2021145973 A JP 2021145973A JP 2021145973 A JP2021145973 A JP 2021145973A JP 7207479 B2 JP7207479 B2 JP 7207479B2
Authority
JP
Japan
Prior art keywords
label
data
image data
pixel
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021145973A
Other languages
English (en)
Other versions
JP2022008345A (ja
Inventor
寛修 深井
勇介 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018129170A external-priority patent/JP7020322B2/ja
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP2021145973A priority Critical patent/JP7207479B2/ja
Publication of JP2022008345A publication Critical patent/JP2022008345A/ja
Application granted granted Critical
Publication of JP7207479B2 publication Critical patent/JP7207479B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Image Analysis (AREA)

Description

本発明は、鉄道分野及び画像処理分野において、レールを走行する車両の前方又は後方の複数のカメラ画像から画像処理により建築限界領域と障害物との離隔判定を行う建築限界判定方法に関する。
鉄道設備には検査・保守が必要であり、特許文献1、2には、建築限界領域と障害物との離隔判定を行う建築限界判定装置が提案されている。
特許文献1は、ステレオ計測により建築限界判定を行う装置である。ステレオ計測には単眼ステレオと呼ばれる1台のカメラと車速を使って計測する方法を用いている。
特許文献2も、ステレオ計測により建築限界判定を行う装置である。ステレオ計測には固定された2台以上のカメラで同期撮影した映像を用い、画像中からレール領域を認識することで建築限界領域と障害物との離隔を計測している。
なお、非特許文献1は、Semantic Segmentationという手法の調査論文であり、Semantic Segmentationに用いられる技術が記載されている。Semantic Segmentationは、画像の画素単位で、その画素が何の種類(ラベル)なのかを推定する手法であり、ラベルは予め人が決めておく必要がある。また、非特許文献2には、Semantic SegmentationのためのFully Convolutional Networksと呼ばれる深層学習法が記載されている。
特開2016-598号公報 特開2017-83245号公報
M. Thoma、"A Survey of Semantic Segmentation"、[online]、2016年(平成28年)5月11日、[平成30年2月21日検索]、インターネット J. Long et al.、"Fully Convolutional Networks for Semantic Segmentation"、[online]、2015年(平成27年)3月8日、[平成30年2月21日検索]、インターネット V. Kolmogorov et al., "Multi-camera Scene Reconstruction via Graph Cuts", ECCV, VOL. 3, 2002, pp. 82-96 P. J. Besl et al., "A Method for Registration of 3-D Shapes", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 14, NO.2, FEBRUARY 1992, pp. 239-256
特許文献1では単眼ステレオ計測を用いている。この手法は装置構成がシンプルで済むが、複数のカメラでステレオ計測を行う手法に比べ、結果が不安定になりやすい。よって、ステレオ計測による誤対応(2つの画像間で同一の箇所を対応付けすることで三角測量するのがステレオ計測だが、その対応付けを異なる箇所にしてしまうこと)が起こりやすいのが問題として挙げられる。また、その誤対応の解決策としてノイズ除去があるが、対応付けに用いない領域を対応付けする領域と定めてしまったり、逆に、対応付けする領域同士を限定する処理をしていなかったりすることも問題として挙げられる。
特許文献2は複数のカメラでステレオ計測を行う手法のため、特許文献1の単眼ステレオ法に比べて誤対応は起こりにくい。また、隣接画素の視差(対応付けを行い、どの程度画素位置に差があるかを求めた結果)は大きく変動しないという制約を加えた大域最適化を行うことで誤対応対策も行っている。しかしながら、特許文献1と同様に、ノイズ除去において、対応付けに用いない領域を対応付けする領域と定めてしまったり、逆に、対応付けする領域同士を限定する処理をしていなかったりすることが問題として挙げられる。
非特許文献1、2は、あくまでも、Semantic Segmentationに関わる手法を紹介した論文であり、鉄道分野における建築限界判定を行うものではない。
本発明は上記課題に鑑みなされたもので、ノイズに頑健で高精度な判定を行うことを可能とすることを目的とする。
上記課題を解決する第1の発明に係る建築限界判定方法は、
レールを走行する車両に複数のカメラを設け、前記車両の前方又は後方を撮像すること、
前記複数のカメラで撮像された画像データの画像処理を行うこと、
前記画像処理の内容は、
前記画像データと類似した複数の画像からなる教師画像データと、前記教師画像データの前記複数の画像の各画素にラベルを予め与えた教師ラベルデータとを保管すること、
機械学習による学習により、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとを対応付ける学習モデルを予め作成すること、
同時に撮像された複数の前記画像データを用い、当該複数の画像データの各画素の画素値の情報から当該複数の画像データ間で対応する画素を計測点として探索し、各々の前記計測点までの距離を第1の距離データとしてステレオ計測により算出すること、
予め用意された前記レールのマッチングデータにより前記画像データから前記レールの位置を認識し、当該位置をレール位置として算出すること、
前記画像データの各画素に対する前記ラベルの推定を前記学習モデルにより行い、推定した前記ラベルをラベルデータとして求めること、
前記画像データの各画素に対する前記ラベルデータに基づいて、前記第1の距離データのノイズ除去を行い、ノイズ除去した前記第1の距離データを第2の距離データとして求めること、
複数の地点で撮像された前記画像データについての前記第2の距離データを統合して3次元環境地図を求めると共に車両傾きを求めること、
複数の地点での前記レール位置と複数の地点での前記車両傾きと固定値として与えられた静的な建築限界領域とに基づいて、前記車両に対する動的な建築限界領域を算出すること、
前記動的な建築限界領域と前記3次元環境地図とに基づいて、前記動的な建築限界領域から最寄りの対象物までの離隔距離を算出し、離隔判定を行うこと、
を含む。
上記課題を解決する第2の発明に係る建築限界判定方法は、
前記第1の距離データのノイズ除去の際に、更に、メディアンフィルタ、ノンローカルミーンフィルタ又はジオメトリックフィルタのいずれかを用いて、ノイズ除去を行って、前記第2の距離データを求めること、を含む。
上記課題を解決する第3の発明に係る建築限界判定方法は、
レールを走行する車両に複数のカメラを設け、前記車両の前方又は後方を撮像すること、
前記複数のカメラで撮像された画像データの画像処理を行うこと、
前記画像処理の内容は、
前記画像データと類似した複数の画像からなる教師画像データと、前記教師画像データの前記複数の画像の各画素にラベルを予め与えた教師ラベルデータとを保管すること、
機械学習による学習により、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとを対応付ける学習モデルを予め作成すること、
前記画像データの各画素に対する前記ラベルの推定を前記学習モデルにより行い、推定した前記ラベルをラベルデータとして求めること、
同時に撮像された複数の前記画像データと当該複数の画像データの各画素に対する前記ラベルデータとを用い、当該複数の画像データの各画素の画素値の情報と前記ラベルデータから当該複数の画像データ間で対応する画素を計測点として探索し、各々の前記計測点までの距離を第1の距離データとしてステレオ計測により算出すること、
前記画像データと当該画像データの各画素に対する前記ラベルデータとを用い、予め用意された前記レールのマッチングデータと前記ラベルデータにより前記画像データから前記レールの位置を認識し、当該位置をレール位置として算出すること、
複数の地点で撮像された前記画像データについての前記第1の距離データを統合して3次元環境地図を求めると共に車両傾きを求めること、
複数の地点での前記レール位置と複数の地点での前記車両傾きと固定値として与えられた静的な建築限界領域とに基づいて、前記車両に対する動的な建築限界領域を算出すること、
前記動的な建築限界領域と前記3次元環境地図とに基づいて、前記動的な建築限界領域から最寄りの対象物までの離隔距離を算出し、離隔判定を行うこと、を含む。
上記課題を解決する第4の発明に係る建築限界判定方法は、
上記第3の発明に記載の建築限界判定方法において、
メディアンフィルタ、ノンローカルミーンフィルタ又はジオメトリックフィルタのいずれかを用いて、前記第1の距離データのノイズ除去を行い、ノイズ除去した前記第1の距離データを第2の距離データとして求めること、
複数の地点で撮像された前記画像データについての前記第2の距離データを統合して前記3次元環境地図を求めると共に前記車両傾きを求めること、を含む。
上記課題を解決する第5の発明に係る建築限界判定方法は、
上記第1から第4のいずれか1つの発明に記載の建築限界判定方法において、
前記学習モデルを予め作成することは、SVM(Support Vector Machine)、Random Forest又は深層学習のいずれかを用いた前記機械学習とSemantic Segmentationとにより、前記教師画像データの前記複数の画像から各画素を中心とした局所範囲の画像を切り出し、当該局所範囲の画像から特徴量を抽出し、当該特徴量に基づいて、当該局所範囲の画像の中心の画素と前記教師ラベルデータの前記ラベルとの対応を学習して前記学習モデルを作成し、
前記ラベルをラベルデータとして求めることは、前記Semantic Segmentationと前記学習モデルとにより、前記画像データから各画素を中心とした局所範囲の画像を切り出し、当該局所範囲の画像から特徴量を抽出し、当該特徴量に基づいて、当該局所範囲の画像の中心の画素に対する前記ラベルの推定を行って、前記画像データの各画素に対する前記ラベルの推定を行うこと、を含む。
上記課題を解決する第6の発明に係る建築限界判定方法は、
上記第5の発明に記載の建築限界判定方法において、
前記学習モデルを予め作成すること及び前記ラベルをラベルデータとして求めることは、前記特徴量の抽出の際に、色特徴量、HOG(Histograms of Oriented Gradients)特徴量、SIFT(Scale-Invariant Feature Transform)特徴量、BoVW(Bag of Visual Words)特徴量又はTexton特徴量のいずれか、もしくは、これらの組合せを用いること、を含む。
上記課題を解決する第7の発明に係る建築限界判定方法は、
上記第1から第4のいずれか1つの発明に記載の建築限界判定方法において、
前記学習モデルを予め作成することは、FCN(Fully Convolutional Networks)を用いた前記機械学習とSemantic Segmentationとにより、前記教師画像データの前記複数の画像の各画素から特徴量を抽出し、当該特徴量に基づいて、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとの対応を学習して前記学習モデルを作成し、
前記ラベルをラベルデータとして求めることは、前記Semantic Segmentationと前記学習モデルとにより、前記画像データの各画素から特徴量を抽出し、当該特徴量に基づいて、前記画像データの各画素に対する前記ラベルの推定を行うこと、を含む。
上記課題を解決する第8の発明に係る建築限界判定方法は、
上記第1から第7のいずれか1つの発明に記載の建築限界判定方法において、
前記ラベルをラベルデータとして求めることは、前記ラベルの推定を行う際に、MRF(Markov Random Field)又はCRF(Conditional Random Field)を用いること、を含む。
本発明によれば、各画素に対するラベル推定により、高精度のノイズ除去を行うことができ、その結果、建築限界領域と障害物との離隔判定において、ノイズに頑健で高精度な判定を行うことができる。
本発明に係る建築限界判定装置の実施形態の一例を示す概略構成の上面図である。 図1に示した建築限界判定装置を構成する処理部の一例(実施例1)を説明するブロック図である。 (a)は、ある画素を中心とした局所パッチ画像単位のラベル推定を説明する説明図、(b)は、(a)でのラベル推定の結果を説明する説明図、(c)は、(a)での画素の次の画素を中心とした局所パッチ画像単位のラベル推定を説明する説明図、(d)は、(c)でのラベル推定の結果を説明する説明図、(e)は、(c)での画素の次の画素を中心とした局所パッチ画像単位のラベル推定を説明する説明図、(f)は、(e)でのラベル推定の結果を説明する説明図である。 (a)は、図1に示した建築限界判定装置で撮像された監視画像を示す図、(b)は、(a)に示した監視画像に対するラベルの一例を説明する説明図である。 図2に示した処理部における建築限界判定方法の一例を説明するフローチャートである。 図1に示した建築限界判定装置を構成する処理部の他の一例(実施例2)を説明するブロック図である。 図6に示した処理部における建築限界判定方法の一例を説明するフローチャートである。 図1に示した建築限界判定装置を構成する処理部の他の一例(実施例3)を説明するブロック図である。 図8に示した処理部における建築限界判定方法の一例を説明するフローチャートである。 図1に示した建築限界判定装置を構成する処理部の他の一例(実施例4)を説明するブロック図である。 図10に示した処理部における建築限界判定方法の一例を説明するフローチャートである。
本発明に係る建築限界判定装置について、その実施形態のいくつかを、図1~図11を参照して説明する。
[実施例1]
図1は、本実施例の建築限界判定装置の一例を示す概略構成の上面図である。また、図2は、図1に示した建築限界判定装置を構成する処理部の一例を説明するブロック図である。また、図3(a)は、ある画素を中心とした局所パッチ画像単位のラベル推定を説明する説明図、図3(b)は、図3(a)でのラベル推定の結果を説明する説明図、図3(c)は、図3(a)での画素の次の画素を中心とした局所パッチ画像単位のラベル推定を説明する説明図、図3(d)は、図3(c)でのラベル推定の結果を説明する説明図、図3(e)は、図3(c)での画素の次の画素を中心とした局所パッチ画像単位のラベル推定を説明する説明図、図3(f)は、図3(e)でのラベル推定の結果を説明する説明図である。また、図4(a)は、図1に示した建築限界判定装置で撮像された監視画像を示す図、図4(b)は、図4(a)に示した監視画像に対するラベルの一例を説明する説明図である。
本実施例の建築限界判定装置は、複数のカメラによる撮像と画像処理を用いたものである。具体的には、図1に示すように、レール11を矢印Eの方向に走行する列車21(車両)に設けられた2台のカメラ22a、22bと、カメラ22a、22bで撮像された監視画像(図4(a)参照)を用い、画像処理を行って、建築限界領域と障害物との離隔判定を行う処理部30Aとを有している。なお、符号12は、電柱を表している。
カメラ22a、22bは、列車21の先頭に設けられ、レール11の長手方向前方(矢印Eの方向)に向かって配置されており、この場合、カメラ22a、22bで撮像された前方の監視画像が画像処理に用いられる。カメラ22a、22bに代えて、列車21の末尾に設けられ、レール11の長手方向後方に向かって配置されたカメラ23a、23bを用いても良く、この場合、カメラ23a、23bで撮像された後方の監視画像が画像処理に用いられる。カメラ22a、22b又はカメラ23a、23bは、列車21に固定されており、列車21の移動や動揺・傾きに依存して、周囲の撮像が可能である。なお、カメ
ラ22a、22b又はカメラ23a、23bは、複数台(2台以上)であれば良い。
このように、複数のカメラ22a、22b(又はカメラ23a、23b)を用いる場合、それらの相対的な位置姿勢関係は既知であるので、三角測量の原理によるステレオ計測により、対象物までの距離を直接求めることができ、設計値が有る対象物(例えば、鉄道設備など)に限らず、設計値が無い対象物(例えば、自然物など)に対しても建築限界判定を行うことができる。また、画像処理を用いる場合、計測した鉄道設備(例えば、レールなど)の認識や判別を行う面で有利であること、機器が比較的小型で安価であること、分解能や撮像速度の面で優れており、今後も発展の可能性を残していること、撮像した画像を人間が目視検査することも可能であることなどの利点がある。
更に、本実施例の建築限界判定装置では、画像中の各画素の種類(ラベル)の推定をSemantic Segmentationにより行っている。本実施例におけるSemantic Segmentationでは、非特許文献1で述べられているように、各画素を中心とした小さな矩形の局所範囲の画像(局所パッチ画像)を抽出し、その局所パッチ画像のラベル推定を行うことで、各画素のラベルの取得を実現している。
そのため、上述した処理部30Aは、図2に示すように、ラベル教師データ部31と、ラベル学習部32Aと、監視画像入力部41と、距離データ算出部42Aと、レール認識部43Aと、ラベル推定部44Aと、ノイズ除去部45Aと、距離データ統合部46と、建築限界領域算出部47と、離隔算出部48と、記憶部49とを有している。
ラベル教師データ部31では、想定される撮像画像と類似した特徴を持つ十分な数の画像群からなる教師画像データD1と、教師画像データD1の画像群の各画素に手動もしくは何かしらの方法でラベルを与えた教師ラベルデータD2とを保管している。
上述したラベルは予め決めておく必要があり、鉄道設備においては、標識やレールなど、下記の表1に例示されたものがラベルとして使用される。
Figure 0007207479000001
ラベル学習部32Aでは、ラベル教師データ部31にある教師画像データD1と教師ラベルデータD2とを使用し、機械学習アルゴリズムの教師あり学習により学習して、教師画像データD1の画像群の各画素と教師ラベルデータD2のラベルとを対応付ける学習モデルD3Aを予め作成しており、作成した学習モデルD3Aを記憶部49へ保管している。
具体的には、後述する機械学習と上述したSemantic Segmentationとにより、教師画像データD1の画像群の各画素を中心とした局所パッチ画像を切り出し、切り出した局所パ
ッチ画像から特徴量を抽出し、抽出した特徴量に基づいて、局所パッチ画像の中心の画素と各画素に予めつけた教師ラベルデータD2のラベルとの対応を学習して、特徴量の入力に対してラベルを出力する関数を定義することにより、教師画像データD1の画像群の各画素と教師ラベルデータD2のラベルとを対応付ける学習モデルD3Aを作成している。
ラベル学習部32Aにおいて、特徴量の抽出には、各画素の色をそのまま用いる色特徴量、画素値の勾配のヒストグラムを用いるHOG(Histograms of Oriented Gradients)特徴量、画像に写る対象のスケールや向きに頑健な特徴であるSIFT(Scale-Invariant Feature Transform)特徴量、HOG特徴量やSIFT特徴量がどの程度含まれているかをベクトル量子化し、ヒストグラムで特徴を表現するBoVW(Bag of Visual Words)特徴量、畳み込みニューラルネットワークと呼ばれるCNNs(Convolutional Neural Networks)で抽出するTexton特徴量のいずれか、もしくは、これらの組合せを用いる。
また、機械学習アルゴリズムには、教師あり学習を用いた識別器であり、カーネル法による非線形判別が可能なSVM(Support Vector Machine)、複数の決定木を用いて汎化性の高い分類を行えるRandom Forest、高い表現能力と汎化能力を持つ深層学習のいずれかを用いる。
監視画像入力部41では、前方の複数のカメラ22a、22b(又は後方の複数のカメラ23a、23b)で撮像された前方の(又は後方の)監視画像データD11を記憶部49へ入力している。このとき、列車21のレール11上での位置を示すキロ程情報(又はキロ程位置)と対応付けて、監視画像データD11を入力しても良い。
距離データ算出部42Aでは、同時に撮像された複数(2枚もしくはそれ以上)の監視画像データD11を使用して、ステレオ対応(複数の画像間で対応する画素を計測点として探索すること)を行い、このステレオ対応により探索した計測点の三角測量を行うことにより、ステレオ計測を行っており、これにより、障害物を含む対象物までの距離データD12A(第1の距離データ)を算出し、算出した距離データD12Aを記憶部49へ保管している。
つまり、この距離データ算出部42Aでは、同時に撮像された複数の監視画像データD11の各画素の画素値の情報(例えば、色情報や輝度情報など)を用いて、これらの監視画像データD11間で対応する画素を計測点として探索し、探索した各々の計測点までの距離に対する三角測量を行っており、これらの処理の際には、ブロックマッチングと呼ばれる手法とグラフカットと呼ばれる手法(非特許文献3)を用いている。
具体的には、ブロックマッチングを用いて、カメラ22a、22b(又はカメラ23a、23b)の一方のカメラの監視画像データD11のある注目画素の周辺の画素と類似する領域を、他方のカメラの監視画像データD11から探索し、この注目画素を計測点とした三角測量の原理を用いたステレオ計測により、距離データD12Aを算出する。監視画像データD11上の注目画素周辺に特徴的なテクスチャが無い場合には、グラフカットを用いて、注目画素の推定距離データが周辺の推定距離データと比較して大きく異ならないように、ペナルティ項により距離データD12Aを最適化する。このブロックマッチングとグラフカットを用いることにより、エッジ検出や2値化処理、塊検出に依らず、監視画像データD11から平滑性を考慮した距離データD12Aの算出が可能となる。
レール認識部43Aでは、監視画像データD11を使用して、予め用意されたレール11のマッチングデータにより監視画像データD11からレール11の位置を認識し、当該位置をレール位置D13として算出し、そのレール位置D13を記憶部49へ保管してい
る。
具体的には、マッチングデータとして、レール11のテンプレート画像データやレール11の輝度値の基準分布データ(基準レール輝度分布データ)を予め用意しておく。そして、監視画像データD11において、その任意の横ライン(枕木方向のライン)の領域について、レール11のテンプレート画像データや基準レール輝度分布データを用いて、ラスタスキャンによるマッチングを行い、最もマッチングする位置をレール位置D13として算出する。このようにして、監視画像データD11におけるレール11の位置を認識しており、監視画像データD11からレール位置D13を正確に検出することが可能となる。
ラベル推定部44Aでは、監視画像データD11の各画素に対するラベルの推定を学習モデルD3Aにより行い、推定したラベルをラベルデータD14として求め、求めたラベルデータD14を記憶部49へ保管している。
具体的には、上述したSemantic Segmentationと記憶部49にある学習モデルD3Aとにより、監視画像データD11から各画素を中心とした局所パッチ画像を切り出し、切り出した局所パッチ画像から特徴量を抽出し、抽出した特徴量に基づいて、局所パッチ画像の中心の画素に対するラベルの推定を行い、当該画素に対する各ラベルの確率(尤度)を求め、各画素において確率が高いラベルを各画素に対するラベルとしてラベルデータD14を求めている。
ここで、図3(a)~(f)を参照して、Semantic Segmentationを用いた局所パッチ画像単位でのラベル推定の一例を説明する。
ラベル推定部44Aでは、図3(a)に示すように、画像中のある画素PX1を中心とした3×3画素の領域を局所パッチ画像として切り出し、この局所パッチ画像のラベル推定を行い、画素PX1の各ラベルの確率を求め、図3(b)に示すように、確率が高いラベルを画素PX1のラベル推定結果として取得する。そして、図3(c)~(f)に示すように、画素PX1の次の画素PX2、画素PX2の次の画素PX3などと、順次、各画素を中心とした局所パッチ画像毎にラベル推定を行い、各画素に対する各ラベルの確率を求め、確率が高いラベルを各画素のラベル推定結果として取得していくことで、画像全体のラベル推定が可能になる。なお、ここでは、説明のため、局所パッチのサイズを3×3画素の領域としたが、局所パッチのサイズは状況に合わせて変えても良い。
更に、図4(a)、(b)を参照して、監視画像に対するラベル推定の具体例を説明する。
図1で示したように、2台のカメラ22a、22bを用いて、レール11の長手方向前方(矢印Eの方向)を撮像すると、図4(a)に示すように、前方の監視画像が撮像される。この監視画像では、一例として、前方のレール11、電柱12、地面13、空14が撮像されている。このような監視画像について、表1に例示したラベルを用いて、ラベル推定部44Aでラベル推定を行うと、図4(b)に示すように、レール11には「レール」、電柱12には「電柱」、地面13には「地面」、空14には「空」のラベルが各々取得されることになる。
このようなラベル推定部44Aにおいて、特徴量の抽出には、ラベル学習部32Aと同様に、色特徴量、HOG特徴量、SIFT特徴量、BoVW特徴量、Texton特徴量のいずれか、もしくは、これらの組合せを用いる。更には、ラベル推定を高精度化する後処理として、非特許文献1で述べられているように、付近の画素との整合性を見るMRF
(Markov Random Field)やCRF(Conditional Random Field)といった手法を用いても良い。
つまり、ラベル推定部44Aでは、局所パッチ画像単位の特徴量の抽出、学習モデルによるラベル推定及び後処理を行っており、これらの処理により、各画素のラベル推定を高精度で行うことができる。
ノイズ除去部45Aでは、監視画像データD11の各画素のラベルデータD14に基づいて、距離データD12Aのノイズ除去を行い、ノイズ除去した距離データD12Aを距離データD15(第2の距離データ)として記憶部49へ保管している。
具体的には、同時に撮像した複数の監視画像データD11の各画素のラベルデータD14を用いて、各画素の距離データD12Aについて、ノイズ除去を行っている。例えば、ある画素にラベルデータD14として「空」というラベルがついた場合、空が障害物となることはないため、その距離データD12Aをノイズとして除去することになる。そして、ノイズ除去後の距離データD15が建築限界判定に用いられることになる。
なお、ここでは、表1に示した静的な障害物以外はノイズとして除去することを想定しているが、動的な障害物は除去しないなど、ラベル単位で計測対象物とするか又はノイズとするかを決めることもできる。また、ノイズ除去の際には、上述したラベルデータD14に基づくノイズ除去に加えて、画像処理における一般的なノイズ除去手法であるメディアンフィルタ、ノンローカルミーンフィルタ、距離データの塊具合を評価し、孤立する点を除去するジオメトリックフィルタのいずれかによるノイズ除去も行っても良い。また、ノイズ除去を高精度化する後処理として、上述したMRFやCRFといった手法を用いても良い。
距離データ統合部46では、各々異なる地点で撮像した監視画像データD11から算出した距離データD15の全て(全距離データD15)を使用し、ICP(Iterative Closest Point)アルゴリズムと呼ばれる手法(非特許文献4)を用いて距離統合を行い、3次元環境地図データD16と各撮像地点での車両位置姿勢データD17を求め、その3次元環境地図データD16と車両位置姿勢データD17を記憶部49へ保管している。
具体的には、ある地点で撮像された監視画像データD11を基準とし、基準となる監視画像データD11の複数の点を抽出して、複数の点の3次元座標を初期値とし、次に、異なる地点で撮像された統合対象の監視画像データD11において、上記複数の点に対応する点を求め、ICPアルゴリズムを用いて、2つの監視画像データD11において、対応する点同士の位置合わせを行って、2つの監視画像データD11を統合する。これを、全ての監視画像データD11に対して行うことにより、全距離データD15が統合されることになり、3次元環境地図データD16を求めることになる。
つまり、距離データ統合部46では、判定対象区間全域で建築限界判定を行うために、各々異なる地点で撮像した監視画像データD11から算出した全距離データD15を統合しており、これにより、3次元の地図である3次元環境地図データD16を求めている。このようにして求めた3次元環境地図データD16では、設計値が無い対象物(例えば、自然物)についても把握可能となる。
また、ICPアルゴリズムを用いて、距離データD15の統合(位置合わせ)を行うと、距離データD15同士の相対的な位置姿勢を求めることになるので、この位置姿勢が分かることにより、撮像毎の列車21の車両位置姿勢データD17(進行量や速度、車両傾き)も求めることになる。この車両傾きは建築限界領域を定める上で非常に重要な要素と
なる。
なお、ICPアルゴリズムは反復計算により解を求める手法であり、結果が初期値に依存する。そのため、正しい初期値を設定することが必要であるが、ここでは、車両21がレール11上しか移動しないことを利用することで、良い初期値を設定することが容易になる。
建築限界領域算出部47では、複数の撮像地点でのレール位置D13と、複数の撮像地点での車両位置姿勢データD17(複数の撮像地点での車両傾き)と、予め固定値として与えられた静的な建築限界領域とを用いて、建築限界領域データD18を算出し、その建築限界領域データD18を記憶部49へ保管している。つまり、列車21に対する動的な建築限界領域データD18の算出が可能となる。
離隔算出部48では、3次元環境地図データD16と建築限界領域データD18を用いて、これらのデータ間の離隔距離を算出し、その離隔距離を離隔データD19として記憶部49へ保管している。例えば、3次元環境地図データD16内に障害物がある場合には、車両傾きを考慮した建築限界領域データD18から該当する障害物までの離隔距離を算出することになる。このようにして、障害物への離隔データD19を算出することにより、建築限界領域と障害物との離隔判定を行うことができ、ノイズに頑健な離隔判定が可能となる。
記憶部49では、上述した学習モデルD3A、監視画像データD11、距離データD12A、レール位置D13、ラベルデータD14、距離データD15、3次元環境地図データD16、車両位置姿勢データD17、建築限界領域データD18、離隔データD19を保管している。
次に、上述した構成を有する本実施例の建築限界判定装置について、その建築限界判定方法の手順を、図5を参照して説明をする。ここで、図5は、図2に示した処理部における建築限界判定方法の一例を説明するフローチャートである。なお、ラベル推定には学習モデルD3Aが必要であるので、事前に学習モデルD3Aは用意されているものとする。
(ステップS1)
監視画像入力部41は、前方の複数のカメラ22a、22b(又は後方の複数のカメラ23a、23b)で撮像された前方の(又は後方の)監視画像データD11を入力する。
(ステップS2)
距離データ算出部42Aは、入力された監視画像データD11を使用し、ステレオ計測と共に上述したブロックマッチングとグラフカットの手法により、対象物の距離データD12Aを算出する。
(ステップS3)
レール認識部43Aは、入力された監視画像データD11を使用し、上述したマッチングデータを用いたマッチングにより、レール認識を行って、レール位置D13を算出する。
(ステップS4A)
ラベル推定部44Aは、入力された監視画像データD11と学習モデルD3Aを使用し、上述したSemantic Segmentationによるラベル推定により、各画素のラベルデータD14を取得する。
(ステップS5)
ノイズ除去部45Aは、監視画像データD11の各画素のラベルデータD14に基づいて、距離データD12Aのノイズ除去を行い、距離データD15として取得する。
(ステップS6)
処理部30Aは、前方の複数のカメラ22a、22b(又は後方の複数のカメラ23a、23b)による撮像が終了した場合にはステップS8へ進み、撮像が終了していない場合には、ステップS7へ進む。
(ステップS7)
撮像が終了していない場合には、前方の複数のカメラ22a、22b(又は後方の複数のカメラ23a、23b)で新しく撮像された前方の(又は後方の)監視画像データD11を入力し(監視画像入力部41)、ステップS2へ戻る。つまり、撮像が終了するまで、ステップS2~S7が繰り返し実施され、各々異なる地点から撮像された監視画像データD11について、距離データD12A、レール位置D13、ラベルデータD14、距離データD15が求められる。
(ステップS8)
距離データ統合部46は、各々の監視画像データD11から算出した全距離データD15を、上述したICPアルゴリズムを用いて統合して、3次元環境地図データD16を求めると共に、車両位置姿勢データD17を求める。
(ステップS9)
建築限界領域算出部47は、レール位置D13と車両位置姿勢データD17(車両傾き)と静的な建築限界領域とに基づき、建築限界領域データD18を算出する。
(ステップS10)
離隔算出部48は、各地点における建築限界領域データD18から最寄りの障害物(例えば、電柱12)までの離隔距離を離隔データD19として算出する。そして、算出した離隔データD19に基づいて、建築限界領域と障害物との離隔判定を行う。
以上説明したように、本実施例の建築限界判定装置は、当初算出した各画素の距離データD12Aに対して、当該画素のラベルデータD14のラベルに基づいたノイズ除去ができるので、単純な外れ値を除去するといったノイズ除去手法よりも高精度なノイズ除去が可能である。その結果、建築限界領域と障害物との離隔判定において、ノイズに頑健で高精度な判定を行うことができる。
また、画像に合わせて、ラベル推定に用いる局所パッチ画像のサイズ、特徴量、識別器を選ぶことで、その画像に特化した処理を行うことができ、全て学習するよりも頑健にラベル推定を行うことができる。
[実施例2]
本実施例の建築限界判定装置について、図6及び図7を参照して説明を行う。ここで、図6は、図1に示した建築限界判定装置を構成する処理部の他の一例を説明するブロック図である。また、図7は、図6に示した処理部における建築限界判定方法の一例を説明するフローチャートである。
本実施例の建築限界判定装置は、基本的には、実施例1で説明した建築限界判定装置と同等の構成であるが、本実施例の建築限界判定装置の処理部30Bの一部の構成が、実施例1の建築限界判定装置の処理部30Aと相違している。そのため、本実施例において、
実施例1に示した構成と同等のものには同じ符号を付し、実施例1と重複する説明は省略する。
本実施例の建築限界判定装置は、図1及び図2に示した処理部30Aに代えて、図6に示す処理部30Bを用いている。この処理部30Bは、図6に示すように、ラベル教師データ部31と、ラベル学習部32Bと、監視画像入力部41と、距離データ算出部42Aと、レール認識部43Aと、ラベル推定部44Bと、ノイズ除去部45Aと、距離データ統合部46と、建築限界領域算出部47と、離隔算出部48と、記憶部49とを有している。
つまり、本実施例における処理部30Bは、実施例1における処理部30Aとは、ラベル学習部32B及びラベル推定部44Bに相違がある。一方、本実施例におけるラベル教師データ部31、監視画像入力部41、距離データ算出部42A、レール認識部43A、ノイズ除去部45A、距離データ統合部46、建築限界領域算出部47、離隔算出部48及び記憶部49については、実施例1における構成と同等である。
処理部30Bにおいて、ラベル学習部32Bでは、ラベル教師データ部31にある教師画像データD1と教師ラベルデータD2とを使用し、機械学習アルゴリズムの教師あり学習により学習して、教師画像データD1の画像群の各画素と教師ラベルデータD2のラベルとを対応付ける学習モデルD3Bを作成しており、作成した学習モデルD3Bを記憶部49へ保管している。
ラベル学習部32Bにおいて、機械学習アルゴリズムには、非特許文献1、2にあるように、画像の各画素の情報(例えば、色情報)を直接入力し、各画素に対して直接ラベルを推定することができるFCN(Fully Convolutional Networks)と呼ばれる深層学習の手法を用いている。
具体的には、上述したFCNとSemantic Segmentationとにより、教師画像データD1の画像群の各画素から特徴量を抽出し、抽出した特徴量に基づいて、教師画像データD1の画像群の各画素と各画素に予めつけた教師ラベルデータD2のラベルとの対応を学習して、特徴量の入力に対してラベルを出力する関数を定義することにより、教師画像データD1の画像群の各画素と教師ラベルデータD2のラベルとを対応付ける学習モデルD3Bを作成している。つまり、実施例1におけるラベル学習部32Aとは異なり、局所パッチ画像の切り出しは行っておらず、また、特徴量の抽出も上記FCNが行っており、これはend-to-end学習と呼ばれている。
また、ラベル推定部44Bでは、監視画像データD11の各画素に対するラベルの推定を学習モデルD3Bにより行い、推定したラベルをラベルデータD14として求め、求めたラベルデータD14を記憶部49へ保管している。
具体的には、上述したSemantic Segmentationと記憶部49にある学習モデルD3Bにより、監視画像データD11の各画素から特徴量を抽出し、抽出した特徴量に基づいて、各画素に対するラベルの推定を行い、各画素に対する各ラベルの確率(尤度)を求め、確率が高いラベルを各画素に対するラベルとしてラベルデータD14を求めている。更に、ラベル推定を高精度化する後処理として、実施例1におけるラベル推定部44Aと同様に、MRFやCRFを用いても良い。
このように、ラベル推定部44Bは、実施例1におけるラベル推定部44Aと同様に、各画素のラベル推定を行っているが、上記FCNとSemantic Segmentationとにより作成された学習モデルD3Bを用いているため、実施例1におけるラベル推定部44Aとは異
なり、局所パッチ画像の切り出しは行っておらず、また、特徴量の抽出も上記FCNが行っている。そのため、実施例1のような多段処理のSemantic Segmentationの途中で正しい処理が行えない(局所パッチ画像の切り出しのサイズが適切でない、特徴量の抽出が適切でないなど)という事態を防ぐことができる。
なお、記憶部49では、実施例1と同様に、監視画像データD11、距離データD12A、レール位置D13、ラベルデータD14、距離データD15、3次元環境地図データD16、車両位置姿勢データD17、建築限界領域データD18、離隔データD19を保管しているが、実施例1における学習モデルD3Aに代えて、学習モデルD3Bを保管している。
次に、上述した構成を有する本実施例の建築限界判定装置について、その建築限界判定方法の手順を、図7を参照して説明をする。なお、ここでも、ラベル推定には学習モデルD3Bが必要であるので、事前に学習モデルD3Bは用意されているものとする。
(ステップS1~S3)
本実施例における建築限界判定方法において、ステップS1~S3は、実施例1におけるステップS1~S3と同じである。
(ステップS4B)
ラベル推定部44Bは、入力された監視画像データD11と学習モデルD3Bを使用し、上述したSemantic Segmentationによるラベル推定により、各画素のラベルデータD14を取得する。
(ステップS5~S10)
本実施例における建築限界判定方法において、ステップS5~S10は、実施例1におけるステップS5~S10と同じである。
つまり、本実施例の建築限界判定装置も、実施例1と同様に、当初算出した各画素の距離データD12Aに対して、当該画素のラベルデータD14のラベルに基づいたノイズ除去ができるので、単純な外れ値を除去するといったノイズ除去手法よりも高精度なノイズ除去が可能である。その結果、建築限界領域と障害物との離隔判定において、ノイズに頑健で高精度な判定を行うことができる。
また、本実施例では、ラベル推定において、局所パッチ画像のサイズ、特徴量、識別器を明示的に選択する必要は無く、上記FCNによりend-to-end学習することで、高精度なラベル推定を行うことができる。
[実施例3]
本実施例の建築限界判定装置について、図8及び図9を参照して説明を行う。ここで、図8は、図1に示した建築限界判定装置を構成する処理部の他の一例を説明するブロック図である。また、図9は、図8に示した処理部における建築限界判定方法の一例を説明するフローチャートである。
本実施例の建築限界判定装置も、基本的には、実施例1で説明した建築限界判定装置と同等の構成であるが、本実施例の建築限界判定装置の処理部30Cの一部の構成が、実施例1の建築限界判定装置の処理部30Aと相違している。そのため、本実施例においても、実施例1に示した構成と同等のものには同じ符号を付し、実施例1と重複する説明は省略する。
本実施例の建築限界判定装置は、図1及び図2に示した処理部30Aに代えて、図8に示す処理部30Cを用いている。この処理部30Cは、図8に示すように、ラベル教師データ部31と、ラベル学習部32Aと、監視画像入力部41と、距離データ算出部42Bと、レール認識部43Bと、ラベル推定部44Aと、ノイズ除去部45Bと、距離データ統合部46と、建築限界領域算出部47と、離隔算出部48と、記憶部49とを有している。
つまり、本実施例における処理部30Cは、実施例1における処理部30Aとは、距離データ算出部42B、レール認識部43B及びノイズ除去部45Bに相違がある。これは、実施例1では、各画素のラベルデータD14のラベルに基づいて、当該画素の距離データD12Aに対するノイズ除去を行っているのに対して、本実施例では、各画素のラベルデータD14のラベルに基づいて、当該画素の距離データD12Bの算出を行うと共にレール位置D13の算出を行うようにしているからである。
また、前述した図5と後述する図9との比較からも分かるように、実施例1では、距離データ算出(ステップS2)及びレール認識(ステップS3)の後であって、ノイズ除去(ステップS5)の前にラベル推定(ステップS4A)を行っているのに対し、本実施例では、距離データ算出(ステップS13)及びレール認識(ステップS14)の前にラベル推定(ステップS12A)を行っており、本実施例は、実施例1とは、処理手順にも相違がある。
一方、本実施例におけるラベル教師データ部31、ラベル学習部32A、監視画像入力部41、ラベル推定部44A、距離データ統合部46、建築限界領域算出部47、離隔算出部48及び記憶部49については、実施例1における構成と同等である。
処理部30Cにおいて、距離データ算出部42Bでは、同時に撮像された複数の監視画像データD11に加えて、それらのラベルデータD14も使用して、ステレオ対応を行い、このステレオ対応により探索した計測点の三角測量を行うことにより、ステレオ計測を行っており、これにより、障害物を含む対象物までの距離データD12B(第1の距離データ)を算出し、算出した距離データD12Bを記憶部49へ保管している。
つまり、この距離データ算出部42Bでは、複数の監視画像データD11の各画素の画素値の情報に加えて、ラベルデータD14のラベル情報も用いて、これらの監視画像データD11間で対応する画素を計測点として探索し、探索した各々の計測点までの距離に対する三角測量を行っている。
具体的には、ステレオ対応の際に、各画素に対して、画素値の情報(例えば、色情報や輝度情報など)だけではなく、ラベル情報(ラベルの種類の決定値もしくは各ラベルの尤度)も持たせている。例えば、色情報だけの場合には、RGBの3次元の情報となるが、ラベル情報を持たせることにより、より高次元の情報となる。表1に例示したラベルを用いて具体的に説明すると、RGBの3次元+ラベル情報27種類の27次元の合計30次元の情報とすることができる。このような高次元の情報とすることにより、ステレオ対応の際における誤対応を低減することができる。
また、ある画素において、ノイズとしたい種類のラベルの尤度が他のラベルの尤度より高かった場合には、当該画素の距離データD12Bの算出の時点で当該距離データD12Bを欠損とすることで、距離データ算出部42Bの段階で低ノイズの距離データD12Bを算出することができる。
このように、距離データ算出部42Bは、ステレオ計測に画素値の情報だけでなくラベ
ル情報も用いていること、そして、ノイズ除去にラベル情報を用いていることに特徴がある。
また、レール認識部43Bでも、距離データ算出部42Bと同様に、監視画像データD11とラベルデータD14を使用しており、予め用意されたレール11のマッチングデータとラベルデータD14とにより監視画像データD11からレール11の位置を認識し、当該位置をレール位置D13として算出し、そのレール位置D13を記憶部49へ保管している。
具体的には、監視画像データD11において、その任意の横ラインの領域について、マッチングデータ(レールのテンプレート画像データや基準レール輝度分布データ)を用いて、ラスタスキャンによるマッチングを行っているが、そのマッチングの際に、任意の横ラインの領域の各画素に対して、ラベル情報を持たせている。そして、マッチングデータに最もマッチングする位置であって、ラベル情報として「レール」の尤度が高い位置をレール位置D13として算出する。このようにして、監視画像データD11におけるレール11の位置を認識しており、監視画像データD11からレール位置D13を正確に検出することが可能となる。
また、ノイズ除去部45Bでは、距離データD12Bのノイズ除去を、メディアンフィルタ、ノンローカルミーンフィルタ、ジオメトリックフィルタのいずれかにより行い、ノイズ除去した距離データD12Bを距離データD15(第2の距離データ)として記憶部49へ保管している。このように、ノイズ除去部45Bでは、画像処理における一般的なノイズ除去手法を用いている。但し、ラベル情報を用いたノイズ除去を上述した距離データ算出部42Bで行っているので、このノイズ除去部45Bは必須な構成ではなく、この構成が無い場合には、距離データ統合部46は、距離データD15に代えて、距離データD12Bを用いて、3次元環境地図データD16、車両位置姿勢データD17を算出すれば良い。
なお、記憶部49では、実施例1と同様に、学習モデルD3A、監視画像データD11、レール位置D13、ラベルデータD14、距離データD15、3次元環境地図データD16、車両位置姿勢データD17、建築限界領域データD18、離隔データD19を保管しているが、実施例1における距離データD12Aに代えて、距離データD12Bを保管している。
次に、上述した構成を有する本実施例の建築限界判定装置について、その建築限界判定方法の手順を、図9を参照して説明をする。なお、ここでも、ラベル推定には学習モデルD3Aが必要であるので、事前に学習モデルD3Aは用意されているものとする。
(ステップS11)
本実施例における建築限界判定方法において、ステップS11は、実施例1におけるステップS1と同じである。
(ステップS12A)
ラベル推定部44Aは、入力された監視画像データD11と学習モデルD3Aを使用し、上述したSemantic Segmentationによるラベル推定により、各画素のラベルデータD14を取得する。
(ステップS13)
距離データ算出部42Bは、入力された監視画像データD11と当該監視画像データD11の各画素のラベルデータD14を使用し、ステレオ計測と共にラベル情報を用いて、
対象物の距離データD12Bを算出する。
(ステップS14)
レール認識部43Bは、入力された監視画像データD11と当該監視画像データD11の各画素のラベルデータD14を使用し、上述したマッチングデータを用いたマッチングとラベル情報とにより、レール認識を行って、レール位置D13を算出する。
(ステップS15)
ノイズ除去部45Bは、画像処理における一般的なノイズ除去手法により、距離データD12Bのノイズ除去を行い、距離データD15として取得する。但し、上述したように、ノイズ除去部45BによるステップS15の手順は無くても良い。
(ステップS16)
処理部30Cは、前方の複数のカメラ22a、22b(又は後方の複数のカメラ23a、23b)による撮像が終了した場合にはステップS18へ進み、撮像が終了していない場合には、ステップS17へ進む。
(ステップS17)
撮像が終了していない場合には、前方の複数のカメラ22a、22b(又は後方の複数のカメラ23a、23b)で新しく撮像された前方の(又は後方の)監視画像データD11を入力し(監視画像入力部41)、ステップS12Aへ戻る。つまり、撮像が終了するまで、ステップS12A~S17が繰り返し実施され、各々異なる地点から撮像された監視画像データD11について、距離データD12B、レール位置D13、ラベルデータD14、距離データD15が求められる。
(ステップS18~S20)
本実施例における建築限界判定方法において、ステップS18~S20は、実施例1におけるステップS8~S10と同じである。
以上説明したように、本実施例の建築限界判定装置は、ステレオ計測の際に、画素値の情報だけでなく、その画素のラベル情報も加味して、ステレオ対応を行っているので、ノイズに頑健な距離データD12Bの算出が可能となる。その結果、建築限界領域と障害物との離隔判定において、ノイズに頑健で高精度な判定を行うことができる。
また、画像に合わせて、ラベル推定に用いる局所パッチ画像のサイズ、特徴量、識別器を選ぶことで、その画像に特化した処理を行うことができ、全て学習するよりも頑健にラベル推定を行うことができる。
[実施例4]
本実施例の建築限界判定装置について、図10及び図11を参照して説明を行う。ここで、図10は、図1に示した建築限界判定装置を構成する処理部の他の一例を説明するブロック図である。また、図11は、図10に示した処理部における建築限界判定方法の一例を説明するフローチャートである。
本実施例の建築限界判定装置は、基本的には、実施例3で説明した建築限界判定装置と同等の構成であるが、本実施例の建築限界判定装置の処理部30Dの一部の構成が、実施例3の建築限界判定装置の処理部30Cと相違しており、その相違している構成が実施例2の建築限界判定装置の処理部30Bの一部の構成と同じ構成となっている。そのため、本実施例において、実施例1~3に示した構成と同等のものには同じ符号を付し、実施例1~3と重複する説明は省略する。
本実施例の建築限界判定装置は、図1及び図2に示した処理部30Aに代えて、図10に示す処理部30Dを用いている。この処理部30Dは、図10に示すように、ラベル教師データ部31と、ラベル学習部32Bと、監視画像入力部41と、距離データ算出部42Bと、レール認識部43Bと、ラベル推定部44Bと、ノイズ除去部45Bと、距離データ統合部46と、建築限界領域算出部47と、離隔算出部48と、記憶部49とを有している。
つまり、本実施例における処理部30Dは、実施例3における処理部30Cとは、ラベル学習部32B及びラベル推定部44Bに相違があるが、これらは、実施例2における処理部30Bでのラベル学習部32B及びラベル推定部44Bと同等の構成である。また、本実施例におけるラベル教師データ部31、監視画像入力部41、距離データ算出部42B、レール認識部43B、ノイズ除去部45B、距離データ統合部46、建築限界領域算出部47、離隔算出部48及び記憶部49については、実施例3における構成と同等である。
なお、記憶部49については、実施例3と同様に、監視画像データD11、距離データD12B、レール位置D13、ラベルデータD14、距離データD15、3次元環境地図データD16、車両位置姿勢データD17、建築限界領域データD18、離隔データD19を保管しているが、実施例3における学習モデルD3Aに代えて、学習モデルD3Bを保管している。
本実施例では、以上のような構成とすることにより、実施例1や実施例3におけるラベル学習部32Aやラベル推定部44Aとは異なり、局所パッチ画像の切り出しは行わず、また、実施例2におけるラベル学習部32Bやラベル推定部44Bと同様に、特徴量の抽出を上述したFCNが行うようになっている。
次に、上述した構成を有する本実施例の建築限界判定装置について、その建築限界判定方法の手順を、図11を参照して説明をする。なお、ここでも、ラベル推定には学習モデルD3Bが必要であるので、事前に学習モデルD3Bは用意されているものとする。
(ステップS11)
本実施例における建築限界判定方法において、ステップS11は、実施例3におけるステップS11と同じである。
(ステップS12B)
ラベル推定部44Bは、入力された監視画像データD11と学習モデルD3Bを使用し、上述したSemantic Segmentationによるラベル推定により、各画素のラベルデータD14を取得する。
(ステップS13~S20)
本実施例における建築限界判定方法において、ステップS13~S20は、実施例3におけるステップS13~S20と同じである。
つまり、本実施例の建築限界判定装置も、実施例3と同様に、ステレオ計測の際に、画素値の情報だけでなく、その画素のラベル情報も加味して、ステレオ対応を行っているので、ノイズに頑健な距離データD12Bの算出が可能となる。その結果、建築限界領域と障害物との離隔判定において、ノイズに頑健で高精度な判定を行うことができる。
また、本実施例では、ラベル推定において、局所パッチ画像のサイズ、特徴量、識別器
を明示的に選択する必要は無く、上記FCNによりend-to-end学習することで、高精度なラベル推定を行うことができる。
本発明は、レールを走行する車両に対する建築限界領域と障害物との離隔判定を行う際に好適なものである。
11 レール
12 電柱
13 地面
14 空
21 列車
22a、22b、23a、23b カメラ
30A、30B、30C、30D 処理部
31 ラベル教師データ部
32A、32B ラベル学習部
41 監視画像入力部
42A、42B 距離データ算出部
43A、43B レール認識部
44A、44B ラベル推定部
45A、45B ノイズ除去部
46 距離データ統合部
47 建築限界領域算出部
48 離隔算出部
49 記憶部

Claims (8)

  1. レールを走行する車両に複数のカメラを設け、前記車両の前方又は後方を撮像すること、
    前記複数のカメラで撮像された画像データの画像処理を行うこと、
    前記画像処理の内容は、
    前記画像データと類似した複数の画像からなる教師画像データと、前記教師画像データの前記複数の画像の各画素にラベルを予め与えた教師ラベルデータとを保管すること、
    機械学習による学習により、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとを対応付ける学習モデルを予め作成すること、
    同時に撮像された複数の前記画像データを用い、当該複数の画像データの各画素の画素値の情報から当該複数の画像データ間で対応する画素を計測点として探索し、各々の前記計測点までの距離を第1の距離データとしてステレオ計測により算出すること、
    予め用意された前記レールのマッチングデータにより前記画像データから前記レールの位置を認識し、当該位置をレール位置として算出すること、
    前記画像データの各画素に対する前記ラベルの推定を前記学習モデルにより行い、推定した前記ラベルをラベルデータとして求めること、
    前記画像データの各画素に対する前記ラベルデータに基づいて、前記第1の距離データのノイズ除去を行い、ノイズ除去した前記第1の距離データを第2の距離データとして求めること、
    複数の地点で撮像された前記画像データについての前記第2の距離データを統合して3次元環境地図を求めると共に車両傾きを求めること、
    複数の地点での前記レール位置と複数の地点での前記車両傾きと固定値として与えられた静的な建築限界領域とに基づいて、前記車両に対する動的な建築限界領域を算出すること、
    前記動的な建築限界領域と前記3次元環境地図とに基づいて、前記動的な建築限界領域から最寄りの対象物までの離隔距離を算出し、離隔判定を行うこと、
    を含む建築限界判定方法。
  2. 請求項1に記載の建築限界判定方法において、
    前記第1の距離データのノイズ除去の際に、更に、メディアンフィルタ、ノンローカルミーンフィルタ又はジオメトリックフィルタのいずれかを用いて、ノイズ除去を行って、前記第2の距離データを求めること、を含む建築限界判定方法。
  3. レールを走行する車両に複数のカメラを設け、前記車両の前方又は後方を撮像すること、
    前記複数のカメラで撮像された画像データの画像処理を行うこと、
    前記画像処理の内容は、
    前記画像データと類似した複数の画像からなる教師画像データと、前記教師画像データの前記複数の画像の各画素にラベルを予め与えた教師ラベルデータとを保管すること、
    機械学習による学習により、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとを対応付ける学習モデルを予め作成すること、
    前記画像データの各画素に対する前記ラベルの推定を前記学習モデルにより行い、推定した前記ラベルをラベルデータとして求めること、
    同時に撮像された複数の前記画像データと当該複数の画像データの各画素に対する前記ラベルデータとを用い、当該複数の画像データの各画素の画素値の情報と前記ラベルデータから当該複数の画像データ間で対応する画素を計測点として探索し、各々の前記計測点までの距離を第1の距離データとしてステレオ計測により算出すること、
    前記画像データと当該画像データの各画素に対する前記ラベルデータとを用い、予め用意された前記レールのマッチングデータと前記ラベルデータにより前記画像データから前記レールの位置を認識し、当該位置をレール位置として算出すること、
    複数の地点で撮像された前記画像データについての前記第1の距離データを統合して3次元環境地図を求めると共に車両傾きを求めること、
    複数の地点での前記レール位置と複数の地点での前記車両傾きと固定値として与えられた静的な建築限界領域とに基づいて、前記車両に対する動的な建築限界領域を算出すること、
    前記動的な建築限界領域と前記3次元環境地図とに基づいて、前記動的な建築限界領域から最寄りの対象物までの離隔距離を算出し、離隔判定を行うこと、を含む建築限界判定方法。
  4. 請求項3に記載の建築限界判定方法において、
    メディアンフィルタ、ノンローカルミーンフィルタ又はジオメトリックフィルタのいずれかを用いて、前記第1の距離データのノイズ除去を行い、ノイズ除去した前記第1の距離データを第2の距離データとして求めること、
    複数の地点で撮像された前記画像データについての前記第2の距離データを統合して前記3次元環境地図を求めると共に前記車両傾きを求めること、を含む建築限界判定方法。
  5. 請求項1から請求項4のいずれか1つに記載の建築限界判定方法において、
    前記学習モデルを予め作成することは、SVM(Support Vector Machine)、Random Forest又は深層学習のいずれかを用いた前記機械学習とSemantic Segmentationとにより、前記教師画像データの前記複数の画像から各画素を中心とした局所範囲の画像を切り出し、当該局所範囲の画像から特徴量を抽出し、当該特徴量に基づいて、当該局所範囲の画像の中心の画素と前記教師ラベルデータの前記ラベルとの対応を学習して前記学習モデルを作成し、
    前記ラベルをラベルデータとして求めることは、前記Semantic Segmentationと前記学習モデルとにより、前記画像データから各画素を中心とした局所範囲の画像を切り出し、当該局所範囲の画像から特徴量を抽出し、当該特徴量に基づいて、当該局所範囲の画像の中心の画素に対する前記ラベルの推定を行って、前記画像データの各画素に対する前記ラベルの推定を行うこと、を含む建築限界判定方法。
  6. 請求項5に記載の建築限界判定方法において、
    前記学習モデルを予め作成すること及び前記ラベルをラベルデータとして求めることは、前記特徴量の抽出の際に、色特徴量、HOG(Histograms of Oriented Gradients)特徴量、SIFT(Scale-Invariant Feature Transform)特徴量、BoVW(Bag of Visual Words)特徴量又はTexton特徴量のいずれか、もしくは、これらの組合せを用いること、を含む建築限界判定方法。
  7. 請求項1から請求項4のいずれか1つに記載の建築限界判定方法において、
    前記学習モデルを予め作成することは、FCN(Fully Convolutional Networks)を用いた前記機械学習とSemantic Segmentationとにより、前記教師画像データの前記複数の画像の各画素から特徴量を抽出し、当該特徴量に基づいて、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとの対応を学習して前記学習モデルを作成し、
    前記ラベルをラベルデータとして求めることは、前記Semantic Segmentationと前記学習モデルとにより、前記画像データの各画素から特徴量を抽出し、当該特徴量に基づいて、前記画像データの各画素に対する前記ラベルの推定を行うこと、を含む建築限界判定方法。
  8. 請求項1から請求項7のいずれか1つに記載の建築限界判定方法において、
    前記ラベルをラベルデータとして求めることは、前記ラベルの推定を行う際に、MRF(Markov Random Field)又はCRF(Conditional Random Field)を用いること、を含む建築限界判定方法。
JP2021145973A 2018-07-06 2021-09-08 建築限界判定方法 Active JP7207479B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021145973A JP7207479B2 (ja) 2018-07-06 2021-09-08 建築限界判定方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018129170A JP7020322B2 (ja) 2018-07-06 2018-07-06 建築限界判定装置
JP2021145973A JP7207479B2 (ja) 2018-07-06 2021-09-08 建築限界判定方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018129170A Division JP7020322B2 (ja) 2018-07-06 2018-07-06 建築限界判定装置

Publications (2)

Publication Number Publication Date
JP2022008345A JP2022008345A (ja) 2022-01-13
JP7207479B2 true JP7207479B2 (ja) 2023-01-18

Family

ID=87888977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021145973A Active JP7207479B2 (ja) 2018-07-06 2021-09-08 建築限界判定方法

Country Status (1)

Country Link
JP (1) JP7207479B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012015697A (ja) 2010-06-30 2012-01-19 Meidensha Corp パンタグラフ検出装置及びその方法
JP2015088833A (ja) 2013-10-29 2015-05-07 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
JP2017083245A (ja) 2015-10-27 2017-05-18 株式会社明電舎 建築限界判定装置
JP2018073308A (ja) 2016-11-04 2018-05-10 株式会社Soken 認識装置、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012015697A (ja) 2010-06-30 2012-01-19 Meidensha Corp パンタグラフ検出装置及びその方法
JP2015088833A (ja) 2013-10-29 2015-05-07 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
JP2017083245A (ja) 2015-10-27 2017-05-18 株式会社明電舎 建築限界判定装置
JP2018073308A (ja) 2016-11-04 2018-05-10 株式会社Soken 認識装置、プログラム

Also Published As

Publication number Publication date
JP2022008345A (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
US10970871B2 (en) Estimating two-dimensional object bounding box information based on bird's-eye view point cloud
Zhou et al. Seamless fusion of LiDAR and aerial imagery for building extraction
EP2874097A2 (en) Automatic scene parsing
CN111222395A (zh) 目标检测方法、装置与电子设备
US8503730B2 (en) System and method of extracting plane features
CN109961082B (zh) 物体识别处理装置、物体识别处理方法以及存储介质
WO2018049704A1 (en) Vehicle detection, tracking and localization based on enhanced anti-perspective transformation
Lin et al. CNN-based classification for point cloud object with bearing angle image
JP7020322B2 (ja) 建築限界判定装置
Ali et al. Vehicle detection and tracking in UAV imagery via YOLOv3 and Kalman filter
Ferguson et al. A 2d-3d object detection system for updating building information models with mobile robots
Feng et al. 3D feature point extraction from LiDAR data using a neural network
Zhang et al. Multi-FEAT: Multi-feature edge alignment for targetless camera-LiDAR calibration
Rahaman et al. Lane detection for autonomous vehicle management: PHT approach
CN110458177B (zh) 图像深度信息的获取方法、图像处理装置以及存储介质
CN116912763A (zh) 一种融合步态人脸模态的多行人重识别方法
JP7207479B2 (ja) 建築限界判定方法
CN116862832A (zh) 一种基于三维实景模型的作业人员定位方法
CN116664851A (zh) 一种基于人工智能的自动驾驶数据提取方法
KR101910256B1 (ko) 카메라 기반 도로 곡률 추정을 위한 차선 검출 방법 및 시스템
CN115294358A (zh) 特征点提取方法、装置、计算机设备及可读存储介质
Burlacu et al. Stereo vision based environment analysis and perception for autonomous driving applications
CN114399532A (zh) 一种相机位姿确定方法和装置
Shin et al. Vehicle classification by road lane detection and model fitting using a surveillance camera
Patil Techniques and methods for detection and tracking of moving object in a video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R150 Certificate of patent or registration of utility model

Ref document number: 7207479

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150