JP6572411B2 - レール検出装置 - Google Patents

レール検出装置 Download PDF

Info

Publication number
JP6572411B2
JP6572411B2 JP2014228994A JP2014228994A JP6572411B2 JP 6572411 B2 JP6572411 B2 JP 6572411B2 JP 2014228994 A JP2014228994 A JP 2014228994A JP 2014228994 A JP2014228994 A JP 2014228994A JP 6572411 B2 JP6572411 B2 JP 6572411B2
Authority
JP
Japan
Prior art keywords
rail
image data
region
monitoring image
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014228994A
Other languages
English (en)
Other versions
JP2016091506A (ja
Inventor
寛修 深井
寛修 深井
庭川 誠
誠 庭川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP2014228994A priority Critical patent/JP6572411B2/ja
Publication of JP2016091506A publication Critical patent/JP2016091506A/ja
Application granted granted Critical
Publication of JP6572411B2 publication Critical patent/JP6572411B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、鉄道分野及び画像処理分野において、電車の監視カメラ画像から画像処理によりレールを検出する、レール検出装置に関する。
電車の監視カメラによる前方監視によって、電車の進行方向である線路(レール)を検出することは、建築限界領域での接触判定等において有用な技術である。
特許第4993644号公報 特許第4593265号公報
北川源四郎,"モンテカルロ・フィルタおよび平滑化について," 数理統計,第44巻,第1号,pp.31-48,1996
しかしながら、従来の技術では、監視カメラの画像から判断するのではなく、車両のキロ程情報と線路情報に基づいて推測していた。
そこで、上記特許文献1では、監視カメラの画像から、Hough変換などの直線検出手法を用いて、電車の前方のレールの直線区間を検出する技術が開示されている。
また、上記特許文献2では、レールの上方から撮影されたレール領域からエッジ検出を行うことで、レールを検出する技術が開示されている。
しかしながら、上記特許文献1に開示された技術では、レールの直線区間のみしか対応できず、曲線区間など様々な変化をするレールの全区間に対応できるわけではない。
また、上記特許文献2に開示された技術では、エッジについては隣り合う(もしくは付近の)ピクセル情報を利用するが、光の当たり方などでピクセル値が偏位に合わせて徐々に変化する場合があり、さらにはノイズの影響も強く受けることから、精確にエッジを検出することができない。
さらに、監視カメラの画像から取得できる情報は、分解能の観点から原理的に数ミリの誤差範囲で判定できることや、毎回の運行で異なる列車の揺れなどを考慮できるという長所がある一方、影や反射の影響を受けやすく、検出が難しいという問題があった。
本発明では、レール固有の特徴を活用することで、これらの問題を解決することができる。すなわち、本発明では、監視カメラの画像を用いて、高精度にレールの検出を行うことができる、レール検出装置を提供することを目的とする。
上記課題を解決する第1の発明に係るレール検出装置は、
車両の前方又は後方のレールを、監視画像データとして撮像するカメラと、
前記監視画像データにおける所定位置にある枕木方向のライン領域について、予め用意された前記レールのテンプレート画像データを用いて、ラスタスキャンによるマッチング操作を行い、最もマッチング値の高い偏位をレール位置とする、画像処理部とを備え
前記画像処理部は、
直前の時刻までの前記監視画像データの前記領域に対する、前記テンプレート画像データを用いた前記マッチング操作による前記レール位置の検出結果から、前記レールの存在確率である事前確率を求め、
現在時刻における前記監視画像データの前記領域に対する、前記テンプレート画像データを用いた前記マッチング操作による前記レール位置の検出結果を尤度とし、
前記事前確率に前記尤度を乗ずることで、現在時刻におけるまでの前記レールの存在確率である事後確率を求め、
前記事後確率から前記レール位置を求めるものであり、
前記画像処理部は、
前記監視画像データ上において、最も車両に近い前記領域からレールの消失点を含む前記領域までの複数個の前記領域に対し、前記事後確率を求め、
隣接する複数の各前記領域のそれぞれの前記事後確率を平均化し、前記レール位置を求める
ことを特徴とする。
上記課題を解決する第2の発明に係るレール検出装置は、
車両の前方又は後方のレールを、監視画像データとして撮像するカメラと、
前記監視画像データにおける所定位置にある枕木方向のライン領域について、予め用意された前記レールの輝度値の基準分布データである基準レール輝度分布データを用いて、ラスタスキャンによるマッチング操作を行い、最もマッチング値の高い偏位をレール位置とする、画像処理部とを備え
前記画像処理部は、
直前の時刻までの前記監視画像データの前記領域に対する、前記基準レール輝度分布データを用いた前記マッチング操作による前記レール位置の検出結果から、前記レールの存在確率である事前確率を求め、
現在時刻における前記監視画像データの前記領域に対する、前記基準レール輝度分布データを用いた前記マッチング操作による前記レール位置の検出結果を尤度とし、
前記事前確率に前記尤度を乗ずることで、現在時刻におけるまでの前記レールの存在確率である事後確率を求め、
前記事後確率から前記レール位置を求めるものであり、
前記画像処理部は、
監視画像データ上において、最も車両に近い前記領域からレールの消失点を含む前記領域までの複数個の前記領域に対し、前記事後確率を求め、
隣接する複数の各前記領域のそれぞれの前記事後確率を平均化し、前記レール位置を求める
ことを特徴とする。
上記課題を解決する第の発明に係るレール検出装置は、
上記第の発明に係るレール検出装置において、
前記画像処理部は、
予め、基準とする前記領域である第1領域におけるレール位置と、その前後複数個ずつの前記領域である周辺領域におけるレール位置の関係より、前記第1領域の前記事後確率から前記周辺領域のレール位置を求めるモデル式であるレール形状モデルを作成し、
前記第1領域の前記事後確率から、該第1領域のレール位置を検出し、かつ、前記レールの中心座標を求め、
前記中心座標から、前記レール形状モデルを用いて、前記周辺領域のレール位置をまとめて検出する
ことを特徴とする。
上記課題を解決する第の発明に係るレール検出装置は、
上記第の発明に係るレール検出装置において、
前記画像処理部は、
予め、基準とする前記領域である第1領域におけるレール位置と、その前後複数個ずつの前記領域である周辺領域におけるレール位置の関係より、前記第1領域の前記事後確率から前記周辺領域のレール位置を求めるモデル式であるレール形状モデルを作成し、
前記第1領域の前記事後確率から、該第1領域のレール位置を検出し、かつ、前記レールの中心座標を求め、
前記中心座標から、前記レール形状モデルを用いて、前記周辺領域のレール位置をまとめて検出する
ことを特徴とする。
本発明に係るレール検出装置によれば、監視カメラの画像を用いて、高精度にレールの検出を行うことができる。
(a)は、本発明におけるカメラの配置を説明する概略図である。(b)は、カメラによりレールを撮像した画像データのイメージ図である。 本発明の実施例1における画像処理部によるテンプレートマッチングのイメージ図である。 本発明の実施例1における画像処理部の構成を説明するブロック図である。 本発明の実施例1に係るレール検出装置の動作を説明するフローチャートである。 本発明の実施例2における画像処理部によるレール輝度分布判定を説明するイメージ図である。 本発明の実施例2における画像処理部の構成を説明するブロック図である。 本発明の実施例2に係るレール検出装置の動作を説明するフローチャートである。 本発明の実施例3におけるパーティクルフィルタのイメージ図である。(a)は、時刻t‐1までで求められたレールの存在確率を表し、(b)は、時刻t‐1における監視画像データMを表し、(c)は尤度を表し、(d)は、時刻tまでで求められたレールの存在確率を表す。 本発明の実施例3における画像処理部の構成を説明するブロック図である。 本発明の実施例3に係るレール検出装置の動作を説明するフローチャートである。 本発明の実施例4における画像処理部の構成を説明するブロック図である。 本発明の実施例4に係るレール検出装置の動作を説明するフローチャートである。 本発明の実施例4における画像処理部による監視画像データMにおけるレール全領域の位置検出を説明するイメージ図である。 本発明の実施例5における画像処理部による拘束条件を用いたレール位置の検出を説明するイメージ図である。 本発明の実施例5における画像処理部の構成を説明するブロック図である。 本発明の実施例5に係るレール検出装置の動作を説明するフローチャートである。 本発明の実施例6における画像処理部の構成を説明するブロック図である。 本発明の実施例6に係るレール検出装置の動作を説明するフローチャートである。 (a)は、本発明の実施例7におけるレール中心座標とレール形状の関係を説明するイメージ図であり、(b)は、レール形状モデルのイメージ図である。 本発明の実施例7における画像処理部の構成を説明するブロック図である。 本発明の実施例7に係るレール検出装置の動作を説明するフローチャートである。 本発明の実施例8における画像処理部の構成を説明するブロック図である。 本発明の実施例8に係るレール検出装置の動作を説明するフローチャートである。
以下、本発明に係るレール検出装置を、各実施例により図面を用いて説明する。
[実施例1]
本発明の実施例1に係るレール検出装置について、図1〜4を用いて説明する。
図1(a)は、(監視)カメラ1の配置を説明する概略図である。なお、図1(a)は、(電車)車両3を上方から見たものであり、図1(a)中の破線は、カメラ1の撮像範囲を示している。
本発明に係るレール検出装置は、図1(a)に示すように、車両3の先頭に設置されて車両3の前方のレール4を撮像可能な、カメラ1を備えている。カメラ1は車両3に固定されていることで、車両3の移動、動揺及び傾きに依存した撮像が可能である。
そして、カメラ1によりレール4を撮像した画像データ(以下、監視画像データ)Mは、一例として図1(b)のイメージ図に示すようになる。
なお、図1(a)において、カメラ1は車両3の先頭に設置されて車両3の前方のレール4を監視する(撮像する)ものとしているが、車両3の末尾に設置されて車両3の後方のレール4を撮像するものとしてもよい。
また、本発明に係るレール検出装置は、監視画像データMに基づき監視を行う計算機としての、画像処理部2を備えている。
ところで、一般的にレール4の実際の幅はほぼ固定されており(例えば1067mm等)、また、レール4において、車両3から一定距離先の局所的な領域であれば、進行方向によらずほぼ同じ幅としてカメラ1に撮像される。
したがって、本発明の実施例1に係るレール検出装置では、画像処理部2によって、監視画像データMにおけるレール4の局所的な領域でのテンプレートマッチングを行うことで、レール4の局所的な領域の検出を行う。
レール4の局所的な領域の検出は「建築限界領域での接触判定は、判定を行う箇所(車両3から一定距離先の領域)でのレール位置が分かれば可能である」という特徴に注目したものである。そして、レール4の検出領域を絞り込む(局所的とする)ことによって、レール4の曲がり等を考慮しなくても良くなる。
図2は、画像処理部2によるテンプレートマッチングのイメージ図である。テンプレートマッチングでは、監視画像データMにおける、レール4の局所的な領域、すなわち、車両3から一定距離先にある枕木方向のライン領域R(図2中の破線で囲われた部分)内で、レール4のテンプレート画像データ(以下、テンプレート画像データT)を用いてラスタスキャンを行い、最もマッチング値の高い箇所がレール4であると判断する。ちなみに、上記「一定距離」については任意であるものとする。
なお、ラスタスキャンは通常の画像処理におけるテンプレートマッチングと異なり、枕木方向における1ライン分の領域でのスキャンを行うものである。
ここで、画像処理部2の構成について説明する。図3は、画像処理部2の構成を説明するブロック図である。図3に示すように、画像処理部2は、テンプレート画像入力部11、監視画像入力部12、レール位置検出部13、及び、記憶部14を備える。
テンプレート画像入力部11は、予めテンプレート画像データTを入力しておくものである。テンプレート画像入力部11に入力されたテンプレート画像データTは、記憶部14に保管される。
監視画像入力部12は、カメラ1によって撮像した監視画像データMを入力するものである。監視画像入力部12に入力された監視画像データMは、記憶部14に保管される。
レール位置検出部13は、記憶部14に保管されたテンプレート画像データTを用いて、記憶部14に保管された監視画像データMの領域Rについてラスタスキャンによるマッチング操作(以下、テンプレートマッチング)を行い、その際のマッチング値が最も高くなった偏位をレール4の位置(以下、レール位置)として検出する。該レール位置の情報は記憶部14に保管される。
以上が画像処理部2の構成である。次に、本発明の実施例1に係るレール検出装置の動作について、図4のフローチャートを用いて説明する。
ステップS1では、予め、テンプレート画像データTをテンプレート画像入力部11に入力しておく。
ステップS2では、カメラ1により撮像された監視画像データMを監視画像入力部12に入力する。
ステップS3では、レール位置検出部13において、テンプレート画像データTをを用いて、領域Rついてラスタスキャンによるテンプレートマッチングを行い、レール位置を検出する。
ステップS4では、カメラ1による撮像が終了すれば画像処理部2の動作も終了し、カメラ1による撮像が行われていれば、ステップS5へ移行する。
ステップS5では、カメラ1により新たに撮像された監視画像データMを監視画像入力部12に入力し、ステップS3へ移行する。
以上が本発明の実施例1に係るレール検出装置の動作である。
換言すれば、本発明の実施例1に係るレール検出装置は、車両の前方又は後方のレールを、監視画像データとして撮像するカメラと、前記監視画像データにおける所定位置にある枕木方向のライン領域について、予め用意された前記レールのテンプレート画像データを用いて、ラスタスキャンによるマッチング操作を行い、最もマッチング値の高い偏位をレール位置とする、画像処理部とを備えるものである。
このようにして、本発明の実施例1に係るレール検出装置は、監視画像データMから任意の枕木方向ライン(領域R)におけるレール位置の検出が可能となる。また、その際、テンプレートマッチングを用いた検出が可能となる。
[実施例2]
本発明の実施例2に係るレール検出装置は、本発明の実施例1に係るレール検出装置のうち、画像処理部2の構成を一部変更し、画像処理部22としたものである。以下では、本発明の実施例1に係るレール検出装置と異なる点を中心に説明し、同一部分についてはなるべく説明を省略する。
本発明の実施例1に係るレール検出装置では、テンプレートマッチングを用いる事でレールの検出を行っていたが、本発明の実施例2に係るレール検出装置では、テンプレート画像データTに依存せず、レール付近を重要視した処理を行い、高精度にレールを検出する。
より詳述すると、本発明の実施例2に係るレール検出装置では、画像処理部22において、レール4の輝度分布を判定することにより、レール4の局所的な領域の検出を行う。なお、レール4の輝度分布については、レール4の幅方向両端部(以下、レール両端部)の輝度値は低く、レール4の上面(以下、レール面)の輝度値は光の反射によって高くなる。
また、画像処理部22では、影や光の反射の影響を考慮し、レール面の輝度値に合わせて正規化を行うことで、より高精度なレール検出を可能にする。
レール4の輝度分布の判定(以下、レール輝度分布判定)は、基準となる画素から枕木方向に所定幅離間した画素に、レール両端部やレール面があると仮定し、その地点の輝度値の差分(レール面から両端部を減算)した際の値が大きい場合に、該画素の偏位がレール位置であると判定する。ちなみに、「基準となる画素」はパーティクルフィルタにより決定する。パーティクルフィルタでは、事前確率を近似するために確率分布に基づいたサンプリングを行う。そして、確率分布的に確率の高そうなところを何箇所か「基準となる画素」として指定する(上記非特許文献1中のモンテカルロ・フィルタを参照)。
すなわち、図5に示す、画像処理部22によるレール輝度分布判定のイメージ図の如く、監視画像データMにおいて領域Rを設定し、基準となる画素をラスタスキャンすることで、どの箇所が最もレールらしいかを判定し、最もレールらしいと判定した箇所をレール位置として検出する。
その際、レール間の距離(レール4の間の枕木方向の幅)、及び、レール面とレール両端部までの距離等の既知の情報に基づき、レール4の領域Rにおける画素毎の輝度値の分布の基準となる、基準レール輝度分布データLを予め作成しておく。
そして、この基準レール輝度分布データLと、実際の(カメラ1の撮像による監視画像データMの)輝度分布データとをマッチング操作して、レール位置を検出することで、単純なエッジ検出よりも高精度にレール位置を検出する。
なお、レール面の輝度値によってレール両端部の輝度値も変化する場合もあるため、輝度値に合わせて正規化をかけることで検出性能を向上させることも可能である。
ここで、画像処理部22の構成について説明する。図6は、画像処理部22の構成を説明するブロック図である。図6に示すように、画像処理部22は、レール輝度分布入力部21、監視画像入力部12、レール位置検出部23、及び、記憶部24を備える。
レール輝度分布入力部21は、予め基準レール輝度分布データLを入力しておくものである。レール輝度分布入力部21に入力された基準レール輝度分布データLは、記憶部24に保管される。
監視画像入力部12は、実施例1同様、カメラ1によって撮像した監視画像データMを入力する。監視画像入力部12に入力された監視画像データMは、記憶部24に保管される。
レール位置検出部23は、記憶部24に保管された基準レール輝度分布データLを用いて、同じく記憶部24に保管された監視画像データMの領域Rの輝度分布データについてラスタスキャンによるマッチング操作(レール輝度分布判定)を行い、その際のマッチング値が最も高くなった偏位をレール位置として検出する。該レール位置の情報は記憶部24へ保管される。
以上が画像処理部22の構成である。次に、本発明の実施例2に係るレール検出装置の動作について、図7のフローチャートを用いて説明する。
ステップS11では、予め、基準レール輝度分布データLをレール輝度分布入力部21に入力しておく。
ステップS12では、カメラ1により撮像された監視画像データMを監視画像入力部12に入力する。
ステップS13では、レール位置検出部23において、基準レール輝度分布データLを用いて、領域Rの輝度分布データついてラスタスキャンによるレール輝度分布判定を行い、レール位置を検出する。
ステップS14では、カメラ1による撮像が終了すれば画像処理部22の動作も終了し、カメラ1による撮像が行われていれば、ステップS15へ移行する。
ステップS15では、カメラ1により新たに撮像された監視画像データMを監視画像入力部12に入力し、ステップS13へ移行する。
以上が本発明の実施例2に係るレール検出装置の動作である。
換言すれば、本発明の実施例2に係るレール検出装置は、車両の前方又は後方のレールを、監視画像データとして撮像するカメラと、前記監視画像データにおける所定位置にある枕木方向のライン領域について、予め用意された前記レールの輝度値の基準分布データである基準レール輝度分布データを用いて、ラスタスキャンによるマッチング操作を行い、最もマッチング値の高い偏位をレール位置とする、画像処理部とを備えるものである。
このようにして、本発明の実施例2に係るレール検出装置は、監視画像データMから任意の枕木方向ライン(領域R)におけるレール位置の検出が可能となる。また、その際、レール輝度分布判定を用いた検出が可能となる。
[実施例3]
本発明の実施例3に係るレール検出装置は、本発明の実施例1に係るレール検出装置のうち、画像処理部2の構成を一部変更し、画像処理部32としたものである。以下では、本発明の実施例1に係るレール検出装置と異なる点を中心に説明し、同一部分についてはなるべく説明を省略する。
本発明の実施例1に係るレール検出装置では、既に説明したように、図2の如くテンプレートマッチングのラスタスキャンによりレール位置を検出したが、その際、監視画像データM毎に独立してスキャンを行った。
本発明の実施例3に係るレール検出装置では、監視画像データMを時系列で追った場合、現在時刻の監視画像データMは、直前の時刻の監視画像データMからレール位置が大幅には変わらないことを利用し、各監視画像データMを切り離して互いに独立したラスタスキャンを行うのではなく、直前の時刻の監視画像データMのレール位置情報に基づき現在時刻のレール位置を追跡するように検出することで、高精度かつ高効率化を図ることができる。
そして、本発明の実施例3に係るレール検出装置では、上記追跡の方法として、パーティクルフィルタ(上記非特許文献1中のモンテカルロ・フィルタを参照)を用いることによって、よりノイズに対し頑健で高精度なレール検出を行うことができるものである。
なお、上記パーティクルフィルタとは、ベイズ推定の理論を用いることでノイズにロバストな推定を行う枠組みである。
図8は、パーティクルフィルタのイメージ図である。図8(a)は、時刻t‐1までで求められたレール4の存在確率を表し、図8(b)は、時刻t‐1における監視画像データMを表し、図8(c)は尤度を表し、図8(d)は、時刻tまでで求められたレール4の存在確率を表す。
画像処理部32では、パーティクルフィルタを用いて、レール位置を検出する。すなわち、まず、時刻t‐1までの領域Rにおけるレール位置検出結果からレール4の存在確率を求め、このレール4の存在確率を事前確率とする(一番目の事前確率については、直前のデータがないため、一様分布とする)。事前確率は、例えば図8(a)に示すようなグラフとなる(実際には、完璧な確率密度分布を扱うのは計算量の観点から現実的ではないため、何点かのサンプリング点を取り扱うことで近似する)。
次に、図8(b)に示すような時刻tにおける監視画像データMに対する、実施例1のマッチング操作によるレール位置検出結果を、尤度とする。尤度は、例えば図8(c)に示すようなグラフとなる。
さらに、図8(a)に示す事前確率に図8(c)に示す尤度を乗ずることで、図8(d)に示す如く、レール4の存在確率が求められる。この時刻tまでで求められたレール4の存在確率を事後確率とする。
そして、上記事後確率の高い箇所がレール位置であるとして、レール位置を検出する。なお、上記時刻t‐1の「1」とは、カメラ1の撮像間隔の時間を表している。
本発明の実施例3に係るレール検出装置は、これによって、仮にテンプレート画像データTとのマッチング値が最大となるノイズ(図8(b)参照)が発生しても、事前確率が高かった箇所にレールがあるはずだという情報に基づき、誤認識なくレールの検出が可能である。
すなわち、図8(c)に示すように、時刻tにおける監視画像データMから求めた尤度を見ると、監視画像データMのノイズ箇所x1のレール存在確率が高くなっているが、該尤度と、図8(a)に示す事前確率との積から、図8(d)に示す事後確率を求めることで、実際にレール4がある箇所x2の確率値が最も高くなっていることが確認できる。
ここで、画像処理部32の構成について説明する。図9は、画像処理部32の構成を説明するブロック図である。図9に示すように、画像処理部32は、テンプレート画像入力部11、監視画像入力部12、レール位置検出部33、及び、記憶部34を備える。
テンプレート画像入力部11は、予めテンプレート画像データTを入力しておくものである。テンプレート画像入力部11に入力されたテンプレート画像データTは、記憶部34に保管される。
監視画像入力部12は、実施例1同様、カメラ1によって撮像した監視画像データMを入力する。監視画像入力部12に入力された監視画像データMは、記憶部34に保管される。
レール位置検出部33は、記憶部34に保管されたテンプレート画像データTを用いて、同じく記憶部34に保管された監視画像データMの領域Rについてパーティクル(所定時間範囲。例えば時刻0〜時刻tの範囲)毎にラスタスキャンによるテンプレートマッチングを行う。
すなわち、図8(a)に示す事前確率、図8(c)に示す尤度を求め、この事前確率と尤度との積から、図8(d)に示す事後確率を求める。
そして、事後確率の確率値が最も高くなった偏位をレール位置として検出する。該レール位置は記憶部34に保管される。
以上が本発明の画像処理部32の構成である。次に、本発明の実施例3に係るレール検出装置の動作について、図10のフローチャートを用いて説明する。
ステップS21では、予め、テンプレート画像データTをテンプレート画像入力部11に入力しておく。
ステップS22では、カメラ1により撮像された監視画像データMを監視画像入力部12に入力する。
ステップS23では、レール位置検出部33において、テンプレート画像データTを用いて、監視画像データMの領域Rついてラスタスキャンによるテンプレートマッチング及び上述したパーティクルフィルタを用いて、レール位置を検出する。
ステップS24では、カメラ1による撮像が終了すれば画像処理部2の動作も終了し、カメラ1による撮像が行われていれば、ステップS25へ移行する。
ステップS25では、カメラ1により新たに撮像された監視画像データMを監視画像入力部12に入力し、ステップS23へ移行する。
以上が本発明の実施例3に係るレール検出装置の動作である。
換言すれば、本発明の実施例3に係るレール検出装置は、実施例1で説明した前記画像処理部が、さらに、直前の時刻までの前記監視画像データの前記領域に対する、前記テンプレート画像データを用いた前記マッチング操作による前記レール位置の検出結果から、前記レールの存在確率である事前確率を求め、現在時刻における前記監視画像データの前記領域に対する、前記テンプレート画像データを用いた前記マッチング操作による前記レール位置の検出結果を尤度とし、前記事前確率に前記尤度を乗ずることで、現在時刻におけるまでの前記レールの存在確率である事後確率を求め、前記事後確率から前記レール位置を求めるものである。
このようにして、本発明の実施例3に係るレール検出装置は、監視画像データMから任意の枕木方向ライン(領域R)におけるレール位置の検出が可能となる。また、テンプレートマッチングを用いた検出が可能となる。さらに、直前の時刻のレール位置情報を使用した予測による検出が可能となる。そして、確率論に基づく予測を用いた検出が可能となる。
[実施例4]
本発明の実施例4に係るレール検出装置は、本発明の実施例3に係るレール検出装置のうち、画像処理部32の構成を一部変更し、画像処理部42としたものである。以下では、本発明の実施例3に係るレール検出装置と異なる点を中心に説明し、同一部分についてはなるべく説明を省略する(ただし、技術的には、実施例3が実施例1に基づくものであるのと同様に、本実施例は実施例2に基づいているものとも言える)。
本発明の実施例3に係るレール検出装置では、パーティクルフィルタの尤度評価にテンプレートマッチングを用いていたが、本発明の実施例4に係るレール検出装置では、パーティクルフィルタの尤度評価に、実施例2において説明したレール輝度分布判定を用いることで、高精度にレール位置を検出する。
ここで、画像処理部42の構成について説明する。図11は、画像処理部42の構成を説明するブロック図である。図11に示すように、画像処理部42は、レール輝度分布入力部21、監視画像入力部12、レール位置検出部43、及び、記憶部44を備える。
レール輝度分布入力部21は、実施例2同様、予め基準レール輝度分布データLを入力しておくものである。レール輝度分布入力部21に入力された基準レール輝度分布データLは、記憶部44に保管される。
監視画像入力部12は、実施例1同様、カメラ1によって撮像した監視画像データMを入力する。監視画像入力部12に入力された監視画像データMは、記憶部44に保管される。
レール位置検出部43は、記憶部44に保管された基準レール輝度分布データLを用いて、同じく記憶部44に保管された監視画像データMの領域Rの輝度分布データについてパーティクル毎にラスタスキャンによるレール輝度分布判定を行う。
すなわち、レール輝度分布判定を行うことで、実施例3で説明した如く、図8(a)に示す事前確率、図8(c)に示す尤度を求め、この事前確率と尤度との積から、図8(d)に示す事後確率を求める。
そして、事後確率の確率値が最も高くなった偏位をレール位置として検出する。該レール位置は記憶部44に保管される。
以上が、画像処理部42の構成である。次に、本発明の実施例4に係るレール検出装置の動作について、図12のフローチャートを用いて説明する。
ステップS31では、予め、基準レール輝度分布データLをレール輝度分布入力部21に入力しておく。
ステップS32では、カメラ1により撮像された監視画像データMを監視画像入力部12に入力する。
ステップS33では、レール位置検出部43において、基準レール輝度分布データLを用いて、領域Riの輝度分布データついてラスタスキャンによるレール輝度分布判定及び上述したパーティクルフィルタを用いて、レール位置を検出する。
ステップS34では、カメラ1による撮像が終了すれば画像処理部2の動作も終了し、カメラ1による撮像が行われていれば、ステップS35へ移行する。
ステップS35では、カメラ1により新たに撮像された監視画像データMを監視画像入力部12に入力し、ステップS33へ移行する。
以上が本発明の実施例4に係るレール検出装置の動作である。
換言すれば、本発明の実施例4に係るレール検出装置は、実施例2で説明した画像処理部が、さらに、直前の時刻までの前記監視画像データの前記領域に対する、前記基準レール輝度分布データを用いた前記マッチング操作による前記レール位置の検出結果から、前記レールの存在確率である事前確率を求め、現在時刻における前記監視画像データの前記領域に対する、前記基準レール輝度分布データを用いた前記マッチング操作による前記レール位置の検出結果を尤度とし、前記事前確率に前記尤度を乗ずることで、現在時刻におけるまでの前記レールの存在確率である事後確率を求め、前記事後確率から前記レール位置を求めるものである。
このようにして、本発明の実施例4に係るレール検出装置は、監視画像データMから任意の枕木方向ライン(領域R)におけるレール位置の検出が可能となる。また、レール輝度分布判定を用いた検出が可能となる。さらに、直前の時刻のレール位置情報を使用した予測による検出が可能となる。そして、確率論に基づく予測を用いた検出が可能となる。
[実施例5]
本発明の実施例5に係るレール検出装置は、本発明の実施例3に係るレール検出装置のうち、画像処理部32の構成を一部変更し、画像処理部52としたものである。以下では、本発明の実施例3に係るレール検出装置と異なる点を中心に説明し、同一部分についてはなるべく説明を省略する。
本発明の実施例3に係るレール検出装置では、1ライン分の領域Rのみにおいてレール位置を検出していたが、本発明の実施例5に係るレール検出装置では、車両3からの距離毎に実施例3で説明したパーティクルフィルタを適用し、監視画像データM中の全てのレール位置を検出する。
図13は、画像処理部52による監視画像データMにおけるレール全領域の位置検出を説明するイメージ図である。画像処理部52では、図13に示すように、監視画像データMの下端の(すなわち、最も車両3に近い)領域R1からレール4の(監視画像データM上における)消失点vを含む領域RNまでのN個の検出を行う。
また、レール4は連続していることがわかっているため、この情報を拘束条件として用いることで、より高精度にレール4を検出することが可能となる。「拘束条件として用いる」とは、監視画像データM上の、領域Ri(i=1,2,…,N)におけるレール存在確率分布(実施例3で説明した事後確率)とその前後の領域Ri-1,Ri+1におけるレール存在確率分布(同前)との平均を求め、これを領域Riのレール位置とし、同様の作業を各領域R1〜RNについて行うことを指す。なお、ここでは3つの領域(Ri,Ri-1,Ri+1)の平均を求めているが、実際には、対象となる領域(Ri)を中心として、前後に複数の領域を考慮すればよく、その際の領域の数は限定しなくてよい。
図14は、画像処理部52による拘束条件を用いたレール位置の検出を説明するイメージ図である。図14(a)は、拘束条件適用前の各領域のレール存在確率分布を表すグラフであり、図14(b)は、拘束条件適用後の各領域のレール存在確率分布を表すグラフである。
図14(a)に示すように、領域Ri-1,Ri,Ri+1のそれぞれのレール存在確率分布データのグラフにノイズが発生したとする。ここで、拘束条件を適用する、すなわち、領域Ri-1,Ri,Ri+1のそれぞれのレール存在確率分布データのグラフを平均化すると、図14(b)に示すように、領域Ri-1,Ri,Ri+1のそれぞれのレール存在確率分布のグラフに発生したノイズが低減する。これにより、本発明の実施例5に係るレール検出装置では、高精度にレール位置を検出することができる。
ここで、画像処理部52の構成について説明する。図15は、画像処理部52の構成を説明するブロック図である。図15に示すように、画像処理部52は、テンプレート画像入力部11、監視画像入力部12、レール位置検出部53、記憶部54、及び、レール存在確率推定部55を備える。
テンプレート画像入力部11は、実施例1同様、予めテンプレート画像データTを入力しておくものである。テンプレート画像入力部11に入力されたテンプレート画像データTは、記憶部54に保管される。
監視画像入力部12は、実施例1同様、カメラ1によって撮像した監視画像データMを入力する。監視画像入力部12に入力された監視画像データMは、記憶部54に保管される。
レール存在確率分布推定部55は、記憶部54に保管されたテンプレート画像データTを用いて、同じく記憶部54に保管された監視画像データMの領域Riについて、パーティクル毎のテンプレートマッチングを行い、各パーティクルの尤度を求め、また、事前確率を求め、この事前確率と尤度から、レール存在確率分布データ(事後確率)を求め、該レール存在確率分布データを記憶部54へ保管する。
レール位置検出部53は、拘束条件を適用してレール位置を検出する。すなわち、領域Riのレール存在確率分布と、その前後の領域R1-i,Ri+1のレール存在確率分布を平均化することで、ノイズの影響を削減して、レール位置を検出する。該レール位置は記憶部54に保管される。
以上が画像処理部52の構成である。次に、本発明の実施例5に係るレール検出装置の動作について、図16のフローチャートを用いて説明する。
ステップS41では、予め、テンプレート画像データTをテンプレート画像入力部11に入力しておく。
ステップS42では、カメラ1により撮像された監視画像データMを監視画像入力部12に入力する。
ステップS43では、レール存在確率分布推定部55により、テンプレート画像データTを用いて、監視画像データMの領域Riについてテンプレートマッチング及びパーティクルフィルタを用いて、レール位置を検出し、レール存在確率分布を求める。
ステップS44では、監視画像データM中におけるレール4の全領域、すなわち、領域R1〜RNについて検出が終了していれば、ステップS46へ移行し、まだ検出していない領域があればステップS45へ移行する。
ステップS45では、監視画像データMの中で、レール位置の検出を行う領域を次に移動する(例えば、領域Ri→Ri+1)。
ステップS46では、レール位置検出部53により、監視画像データM上のレール4の全領域におけるレール存在確率分布に対し、拘束条件を適用することで、消失点vまでの全領域R1〜RNのレール位置を検出する。
ステップS47では、カメラ1による撮像が終了すれば画像処理部52の動作も終了し、カメラ1による撮像が行われていれば、ステップS48へ移行する。
ステップS48では、カメラ1により新たに撮像された監視画像データMを監視画像入力部12に入力し、ステップS43へ移行する。
以上が本発明の実施例5に係るレール検出装置の動作である。
換言すれば、本発明の実施例5に係るレール検出装置は、実施例3で説明した画像処理部が、さらに、前記監視画像データ上において、最も車両に近い前記領域からレールの消失点を含む前記領域までの複数個の前記領域に対し、前記事前確率を求め、隣接する各前記領域のそれぞれの前記事前確率のグラフを平均化するものである。
このようにして、本発明の実施例5に係るレール検出装置は、監視画像データM上の消失点vまでの全領域におけるレール位置の検出が可能となる。また、テンプレートマッチングを用いた検出が可能となる。さらに、直前の撮像におけるレール位置情報を使用した予測による検出が可能となる。そして、確率論に基づく予測を用いた検出が可能となる。
[実施例6]
本発明の実施例6に係るレール検出装置は、本発明の実施例5に係るレール検出装置のうち、画像処理部52の構成を一部変更し、画像処理部62としたものである。以下では、本発明の実施例5に係るレール検出装置と異なる点を中心に説明し、同一部分についてはなるべく説明を省略する(ただし、技術的には、実施例5が実施例3に基づくものであるのと同様に、本実施例は実施例4に基づいているものとも言える)。
本発明の実施例5に係るレール検出装置では、レール位置の検出にテンプレートマッチングを用いていたが、本発明の実施例6に係るレール検出装置では、レール検出に実施例2において説明したレール輝度分布判定を用いることで、高精度にレール位置を検出する。
ここで、画像処理部62の構成について説明する。図17は、画像処理部62の構成を説明するブロック図である。図17に示すように、画像処理部62は、レール輝度分布入力部21、監視画像入力部12、レール位置検出部63、記憶部64、及び、レール存在確率分布推定部65を備える。
レール輝度分布入力部21は、実施例2同様、予め基準レール輝度分布データLを入力しておくものである。レール輝度分布入力部21に入力された基準レール輝度分布データLは、記憶部64に保管される。
監視画像入力部12は、実施例1同様、カメラ1によって撮像した監視画像データMを入力する。監視画像入力部12に入力された監視画像データMは、記憶部64に保管される。
レール存在確率分布推定部65は、記憶部64に保管された基準レール輝度分布データLを用いて、同じく記憶部64に保管された監視画像データMの領域Riについて、パーティクル毎のテンプレートマッチングを行い、レール存在確率分布データ(事後確率)を求め、このレール存在確率分布データを記憶部64へ保管する。
レール位置検出部63は、拘束条件を適用してレール位置を検出する。すなわち、領域Riのレール存在確率分布と、その前後の領域R1-i,Ri+1のレール存在確率分布を平均化することで、ノイズの影響を削減して、レール位置を検出する。該レール位置は記憶部64に保管される。
以上が画像処理部62の構成である。次に、本発明の実施例6に係るレール検出装置の動作について、図18のフローチャートを用いて説明する。
ステップS51では、予め、基準レール輝度分布データLをレール輝度分布入力部21に入力しておく。
ステップS52では、カメラ1により撮像された監視画像データMを監視画像入力部12に入力する。
ステップS53では、レール存在確率分布推定部65により、基準レール輝度分布データLを用いて、監視画像データMの領域Riについてレール輝度分布判定及びパーティクルフィルタを用いて、レール位置を検出し、レール存在確率分布を求める。
ステップS54では、監視画像データM中におけるレール4の全領域、すなわち、領域R1〜RNについて検出が終了していれば、ステップS56へ移行し、まだ検出していない領域があればステップS55へ移行する。
ステップS55では、監視画像データMの中で、レール位置の検出を行う領域を次に移動する(例えば、領域Ri→Ri+1)。
ステップS56では、レール位置検出部63により、監視画像データM上のレール4の全領域におけるレール存在確率分布に対し、拘束条件を適用することで、消失点vまでの全領域R1〜RNのレール位置を検出する。
ステップS57では、カメラ1による撮像が終了すれば画像処理部62の動作も終了し、カメラ1による撮像が行われていれば、ステップS58へ移行する。
ステップS58では、カメラ1により新たに撮像された監視画像データMを監視画像入力部12に入力し、ステップS53へ移行する。
以上が本発明の実施例6に係るレール検出装置の動作である。
換言すれば、本発明の実施例6に係るレール検出装置は、実施例4で説明した前記画像処理部が、さらに、監視画像データ上において、最も車両に近い前記領域からレールの消失点を含む前記領域までの複数個の前記領域に対し、前記事前確率を求め、隣接する各前記領域のそれぞれの前記事前確率のグラフを平均化するものである。
このようにして、本発明の実施例6に係るレール検出装置は、監視画像データM上の消失点vまでの全領域におけるレール位置の検出が可能となる。また、レール輝度分布判定を用いた検出が可能となる。さらに、直前の撮像におけるレール位置情報を使用した予測による検出が可能となる。そして、確率論に基づく予測を用いた検出が可能となる。
[実施例7]
本発明の実施例7に係るレール検出装置は、本発明の実施例5に係るレール検出装置のうち、画像処理部52の構成を一部変更し、画像処理部72としたものである。以下では、本発明の実施例5に係るレール検出装置と異なる点を中心に説明し、同一部分についてはなるべく説明を省略する。
本発明の実施例5に係るレール検出装置では、1ライン分の領域Ri毎にレール位置を検出し、その後、連続性を考慮した拘束条件を用いてレール4の監視画像データM上の全領域についてレール位置の検出を行っていた。
本発明の実施例7に係るレール検出装置では、1ライン分の領域Ri毎のレール位置の検出ではなく、複数(m個)のライン分の領域のレール位置をまとめて検出することで、使用メモリ量及び計算コストを削減するものである。また、本発明の実施例7に係るレール検出装置では、複数ライン分の領域を考慮した検出を行うことから、ノイズの影響を受けにくい。
m個の領域のレール位置を検出するには、まず注目する(すなわち基準となる)領域Riを決め、事前にその領域Riにおけるレール位置とその周辺のm−1個の領域におけるレール位置の関係を統計的に求めておく。
この関係を用いて、領域Riのレール候補位置(事後確率の高い偏位に相当)から他のm−1個の領域のレール位置を求めるモデル式(以下、レール形状モデル)を作成することで、m個の領域のレール位置を検出する。
ただし、ここでは、レール形状モデルに誤差があることを考慮して、レール形状モデルで大まかなレール位置を探索する。
上述のモデル式での大まかなレール位置の探索について説明する。図19(a)は、レール中心座標とレール形状の関係を説明するイメージ図であり、図19(b)は、レール形状モデルのイメージ図である。なお、図19(a)(b)では、監視画像データM上の横方向(枕木方向)において異なる3箇所(画像横軸座標u=600,700,800)について、それぞれ表している。また、図19(b)では、上記m=5として表している。
まず、図19(a)に示すように、領域Riのレール候補位置から、レール中心座標O600〜O800を求め、その後、レール中心座標O600〜O800を用いて、統計データの分布を考慮して、図19(b)に示すように、他のm個の領域について、画像横方向(すなわち枕木方向)に局所的にレールらしい範囲を探索する(図中の両矢印)ことで、誤差の問題を解決する。
領域Riによってテンプレート画像データTの形状が変わることが考えられるため、局所探索時に異なるテンプレート画像データTが必要になるが、ここでは、テンプレート画像データTの形状を左右に拡大縮小する(不図示)ことで対応する。
ここで、画像処理部72の構成について説明する。図20は、画像処理部72の構成を説明するブロック図である。図20に示すように、画像処理部72は、テンプレート画像入力部11、監視画像入力部12、レール位置検出部73、記憶部74、及び、レール形状モデル構築部75を備える。
テンプレート画像入力部11は、実施例1同様、予めテンプレート画像データTを入力しておくものである。テンプレート画像入力部11に入力されたテンプレート画像データTは、記憶部74に保管される。
レール形状モデル構築部75は、注目した領域Riのレール位置及びその周辺のm−1個の領域のレール位置の関係を統計的に求め、これをレール形状モデルとする。そして、これを領域R1〜RN(図13)の範囲においてm個の領域毎に行う。求めた複数のレール形状モデルは記憶部74へ保管する。
監視画像入力部12は、実施例1同様、カメラ1によって撮像した監視画像データMを入力する。監視画像入力部12に入力された監視画像データMは、記憶部74に保管される。
レール位置検出部73は、記憶部74に保管されたテンプレート画像データTを用いて、同じく記憶部74に保管された監視画像データMの領域Riを含むm個の領域について、パーティクル毎のテンプレートマッチングを行い、レール存在確率分布(事後確率)を求め、レール形状モデルを用いて、m個の領域のレール位置をまとめて求める。該レール位置は記憶部74へ保管する。
以上が画像処理部72の構成である。次に、本発明の実施例7に係るレール検出装置の動作について、図21のフローチャートを用いて説明する。
ステップS61では、予め、テンプレート画像データTをテンプレート画像入力部11に入力しておく。
ステップS62では、レール形状モデル構築部75により、レール形状モデルを構築する。
ステップS63では、カメラ1により撮像された監視画像データMを監視画像入力部12に入力する。
ステップS64では、レール位置検出部73により、あるm個の領域について、テンプレート画像データT及びレール形状モデルを用いた、テンプレートマッチング及びパーティクルフィルタにより、レール位置を検出する。
ステップS65では、監視画像データM中におけるレール4の全領域(領域R1〜RN(図13参照))について検出が終了していれば、ステップS67へ移行し、まだ検出していない領域があればステップS66へ移行する。
ステップS66では、監視画像データMの中で、レール位置の検出を行う領域を次のm個の領域に移動し、ステップS64へ移行する。
ステップS67では、カメラ1による撮像が終了すれば画像処理部72の動作も終了し、カメラ1による撮像が行われていれば、ステップS68へ移行する。
ステップS68では、カメラ1により新たに撮像された監視画像データMを監視画像入力部12に入力し、ステップS64へ移行する。
以上が本発明の実施例7に係るレール検出装置の動作である。
換言すれば、本発明の実施例7に係るレール検出装置は、前記画像処理部が、さらに、予め、基準とする前記領域である第1領域におけるレール位置と、その前後複数個ずつの前記領域である周辺領域におけるレール位置の関係より、前記第1領域の前記事後確率から前記周辺領域のレール位置を求めるモデル式であるレール形状モデルを作成し、前記第1領域の前記事後確率から、該第1領域のレール位置を検出し、かつ、前記レールの中心座標を求め、前記中心座標から、前記レール形状モデルを用いて、前記周辺領域のレール位置をまとめて検出するものである。
このようにして、本発明の実施例7に係るレール検出装置は、監視画像データM上において、m個の領域毎に、消失点vまでの全領域におけるレール位置の検出が可能となる。また、テンプレートマッチングを用いた検出が可能となる。さらに、直前の撮像におけるレール位置情報を使用した予測による検出が可能となる。そして、確率論に基づく予測を用いた検出が可能となる。
[実施例8]
本発明の実施例8に係るレール検出装置は、本発明の実施例7に係るレール検出装置のうち、画像処理部72の構成を一部変更し、画像処理部82としたものである。以下では、本発明の実施例7に係るレール検出装置と異なる点を中心に説明し、同一部分についてはなるべく説明を省略する(ただし、技術的には、実施例7が実施例5に基づくものであるのと同様に、本実施例は実施例6に基づいているものとも言える)。
本発明の実施例7に係るレール検出装置では、テンプレートマッチングを用いてレール位置を検出していたが、本発明の実施例8に係るレール検出装置では、レール検出に実施例2において説明したレール輝度分布判定を用いることで、高精度にm個の領域毎にまとめてレール位置を検出する。
なお、本発明の実施例8に係るレール検出装置では、基準となる領域Ri以外での評価や局所的な探索においては、基準レール輝度分布データにおける画素位置を左右に動かすことで対応する。
ここで、画像処理部82の構成について説明する。図22は、画像処理部82の構成を説明するブロック図である。図22に示すように、画像処理部82は、レール輝度分布入力部21、監視画像入力部12、レール位置検出部83、記憶部84、及び、レール形状モデル構築部85を備える。
レール輝度分布入力部21は、実施例2同様、予め基準レール輝度分布データLを入力しておくものである。レール輝度分布入力部21に入力された基準レール輝度分布データLは、記憶部84に保管される。
レール形状モデル構築部85は、注目した領域Riのレール位置及びその周辺のm−1個の領域のレール位置の関係を統計的に求め、これをレール形状モデルとする。そして、これを領域R1〜RN(図13)の範囲においてm個の領域毎に行う。求めた複数のレール形状モデルは記憶部84へ保管する。
監視画像入力部12は、実施例1同様、カメラ1によって撮像した監視画像データMを入力する。監視画像入力部12に入力された監視画像データMは、記憶部84に保管される。
レール位置検出部83は、記憶部84に保管された基準レール輝度分布データLを用いて、同じく記憶部84に保管された監視画像データMの領域Riを含むm個の領域について、パーティクル毎のテンプレートマッチングを行い、レール存在確率分布(事後確率)を求め、m個の領域のレール位置をまとめて求める。該レール位置は記憶部84へ保管する。
以上が画像処理部82の構成である。次に、本発明の実施例8に係るレール検出装置の動作について、図22のフローチャートを用いて説明する。
ステップS71では、予め、基準レール輝度分布データLをレール輝度分布入力部21に入力しておく。
ステップS72では、レール形状モデル構築部85により、レール形状モデルを構築する。
ステップS73では、カメラ1により撮像された監視画像データMを監視画像入力部12に入力する。
ステップS74では、レール位置検出部73により、あるm個の領域について、基準レール輝度分布データL及びレール形状モデルを用いた、レール輝度分布判定及びパーティクルフィルタにより、レール位置を検出する。
ステップS75では、監視画像データM中におけるレール4の全領域(領域R1〜RN(図13参照))について検出が終了していれば、ステップS77へ移行し、まだ検出していない領域があればステップS76へ移行する。
ステップS76では、監視画像データMの中で、レール位置の検出を行う領域を次のm個の領域に移動し、ステップS74へ移行する。
ステップS77では、カメラ1による撮像が終了すれば画像処理部82の動作も終了し、カメラ1による撮像が行われていれば、ステップS78へ移行する。
ステップS78では、カメラ1により新たに撮像された監視画像データMを監視画像入力部12に入力し、ステップS74へ移行する。
以上が本発明の実施例8に係るレール検出装置の動作である。
換言すれば、本発明の実施例8に係るレール検出装置は、実施例6で説明した前記画像処理部が、さらに、予め、基準とする前記領域である第1領域におけるレール位置と、その前後複数個ずつの前記領域である周辺領域におけるレール位置の関係より、前記第1領域の前記事後確率から前記周辺領域のレール位置を求めるモデル式であるレール形状モデルを作成し、前記第1領域の前記事後確率から、該第1領域のレール位置を検出し、かつ、前記レールの中心座標を求め、前記中心座標から、前記レール形状モデルを用いて、前記周辺領域のレール位置をまとめて検出するものである。
このようにして、本発明の実施例8に係るレール検出装置は、監視画像データM上において、m個の領域毎に、消失点vまでの全領域におけるレール位置の検出が可能となる。また、レール輝度分布判定を用いた検出が可能となる。さらに、直前の撮像におけるレール位置情報を使用した予測による検出が可能となる。そして、確率論に基づく予測を用いた検出が可能となる。
本発明は、レール検出装置として好適である。
1 (監視)カメラ
2,22,32,42,52,62,72,82 画像処理部
3 車両
4 レール
11 テンプレート画像入力部
12 監視画像入力部
13,23,33,43,53,63,73,83 レール位置検出部
14,24,34,44,54,64,74,84 記憶部
21 レール輝度分布入力部
55,65,75,85 レール存在確率推定部

Claims (4)

  1. 車両の前方又は後方のレールを、監視画像データとして撮像するカメラと、
    前記監視画像データにおける所定位置にある枕木方向のライン領域について、予め用意された前記レールのテンプレート画像データを用いて、ラスタスキャンによるマッチング操作を行い、最もマッチング値の高い偏位をレール位置とする、画像処理部とを備え
    前記画像処理部は、
    直前の時刻までの前記監視画像データの前記領域に対する、前記テンプレート画像データを用いた前記マッチング操作による前記レール位置の検出結果から、前記レールの存在確率である事前確率を求め、
    現在時刻における前記監視画像データの前記領域に対する、前記テンプレート画像データを用いた前記マッチング操作による前記レール位置の検出結果を尤度とし、
    前記事前確率に前記尤度を乗ずることで、現在時刻におけるまでの前記レールの存在確率である事後確率を求め、
    前記事後確率から前記レール位置を求めるものであり、
    さらに、前記画像処理部は、
    前記監視画像データ上において、最も車両に近い前記領域からレールの消失点を含む前記領域までの複数個の前記領域に対し、前記事後確率を求め、
    隣接する複数の各前記領域のそれぞれの前記事後確率を平均化し、前記レール位置を求める
    ことを特徴とするレール検出装置。
  2. 車両の前方又は後方のレールを、監視画像データとして撮像するカメラと、
    前記監視画像データにおける所定位置にある枕木方向のライン領域について、予め用意された前記レールの輝度値の基準分布データである基準レール輝度分布データを用いて、ラスタスキャンによるマッチング操作を行い、最もマッチング値の高い偏位をレール位置とする、画像処理部とを備え
    前記画像処理部は、
    直前の時刻までの前記監視画像データの前記領域に対する、前記基準レール輝度分布データを用いた前記マッチング操作による前記レール位置の検出結果から、前記レールの存在確率である事前確率を求め、
    現在時刻における前記監視画像データの前記領域に対する、前記基準レール輝度分布データを用いた前記マッチング操作による前記レール位置の検出結果を尤度とし、
    前記事前確率に前記尤度を乗ずることで、現在時刻におけるまでの前記レールの存在確率である事後確率を求め、
    前記事後確率から前記レール位置を求めるものであり、
    さらに、前記画像処理部は、
    監視画像データ上において、最も車両に近い前記領域からレールの消失点を含む前記領域までの複数個の前記領域に対し、前記事後確率を求め、
    隣接する複数の各前記領域のそれぞれの前記事後確率を平均化し、前記レール位置を求める
    ことを特徴とするレール検出装置。
  3. 前記画像処理部は、
    予め、基準とする前記領域である第1領域におけるレール位置と、その前後複数個ずつの前記領域である周辺領域におけるレール位置の関係より、前記第1領域の前記事後確率から前記周辺領域のレール位置を求めるモデル式であるレール形状モデルを作成し、
    前記第1領域の前記事後確率から、該第1領域のレール位置を検出し、かつ、前記レールの中心座標を求め、
    前記中心座標から、前記レール形状モデルを用いて、前記周辺領域のレール位置をまとめて検出する
    ことを特徴とする、請求項に記載のレール検出装置。
  4. 前記画像処理部は、
    予め、基準とする前記領域である第1領域におけるレール位置と、その前後複数個ずつの前記領域である周辺領域におけるレール位置の関係より、前記第1領域の前記事後確率から前記周辺領域のレール位置を求めるモデル式であるレール形状モデルを作成し、
    前記第1領域の前記事後確率から、該第1領域のレール位置を検出し、かつ、前記レールの中心座標を求め、
    前記中心座標から、前記レール形状モデルを用いて、前記周辺領域のレール位置をまとめて検出する
    ことを特徴とする、請求項に記載のレール検出装置。
JP2014228994A 2014-11-11 2014-11-11 レール検出装置 Active JP6572411B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014228994A JP6572411B2 (ja) 2014-11-11 2014-11-11 レール検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014228994A JP6572411B2 (ja) 2014-11-11 2014-11-11 レール検出装置

Publications (2)

Publication Number Publication Date
JP2016091506A JP2016091506A (ja) 2016-05-23
JP6572411B2 true JP6572411B2 (ja) 2019-09-11

Family

ID=56016281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014228994A Active JP6572411B2 (ja) 2014-11-11 2014-11-11 レール検出装置

Country Status (1)

Country Link
JP (1) JP6572411B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6855712B2 (ja) * 2016-09-05 2021-04-07 株式会社明電舎 分岐器進入可否判定装置及び分岐器進入可否判定方法
JP6903477B2 (ja) 2017-04-21 2021-07-14 株式会社東芝 軌道識別装置、およびプログラム
JP6776213B2 (ja) * 2017-11-01 2020-10-28 株式会社東芝 軌道識別装置
JP2019209734A (ja) * 2018-05-31 2019-12-12 株式会社東芝 軌道識別装置
JP7127607B2 (ja) * 2019-04-26 2022-08-30 株式会社明電舎 レール曲率推定装置
JP7316107B2 (ja) * 2019-06-19 2023-07-27 日本信号株式会社 監視装置
CN114084201B (zh) * 2021-12-28 2024-03-08 武汉烽理光电技术有限公司 基于光栅阵列的列车位置速度确定方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3625460B2 (ja) * 2002-09-27 2005-03-02 三菱電機株式会社 車載用走行車線認識装置
JP5516561B2 (ja) * 2011-12-08 2014-06-11 株式会社デンソーアイティーラボラトリ 車両用運転支援装置

Also Published As

Publication number Publication date
JP2016091506A (ja) 2016-05-23

Similar Documents

Publication Publication Date Title
JP6572411B2 (ja) レール検出装置
Pan et al. Robust occlusion handling in object tracking
KR101283262B1 (ko) 영상 처리 방법 및 장치
TWI520078B (zh) Optical flow tracking method and device
JP5421192B2 (ja) ひび割れ検出方法
EP3016076A1 (en) Method and apparatus for removing outliers from a main view of a scene during 3D scene reconstruction
US20120320162A1 (en) Video object localization method using multiple cameras
WO2008020598A1 (fr) Dispositif et procédé de détection d'un nombre d'objets
KR101885839B1 (ko) 객체추적을 위한 특징점 선별 장치 및 방법
JP5812705B2 (ja) ひび割れ検出方法
JP6642570B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
JP6346868B2 (ja) ステレオ画像処理方法およびその装置
KR101896307B1 (ko) 깊이 영상을 처리하는 방법 및 장치
JP6165513B2 (ja) ハンドジェスチャトラッキングシステム
JP2009223504A (ja) 車両検出装置および方法、並びに、プログラム
KR100994722B1 (ko) 카메라 핸드오프를 이용한 다중 카메라상의 연속적인 물체추적 방법
JP2013080389A (ja) 消失点推定方法、消失点推定装置及びコンピュータプログラム
JP4459162B2 (ja) 速度計測装置、方法及びプログラム
EP3127087B1 (en) Motion field estimation
KR101121777B1 (ko) 차선 감지 방법
WO2013152625A1 (zh) 用于去除附着噪声的方法和系统
KR20140045834A (ko) 단일객체의 크기를 추정하는 영상 감시장치 및 방법
EP4174770B1 (en) Monocular-vision-based detection of moving objects
JP6346869B2 (ja) ステレオ画像処理方法およびその装置
JP5773935B2 (ja) シーンにおけるオブジェクトを分類する方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190521

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R150 Certificate of patent or registration of utility model

Ref document number: 6572411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150