JP4150223B2 - Level crossing monitoring device and level crossing monitoring method - Google Patents
Level crossing monitoring device and level crossing monitoring method Download PDFInfo
- Publication number
- JP4150223B2 JP4150223B2 JP2002201360A JP2002201360A JP4150223B2 JP 4150223 B2 JP4150223 B2 JP 4150223B2 JP 2002201360 A JP2002201360 A JP 2002201360A JP 2002201360 A JP2002201360 A JP 2002201360A JP 4150223 B2 JP4150223 B2 JP 4150223B2
- Authority
- JP
- Japan
- Prior art keywords
- monitoring
- railroad
- pair
- straight lines
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、鉄道レールの踏切内の状況を監視する踏切監視装置および踏切監視方法に関する。
【0002】
【従来の技術】
近年、所定の監視領域内の状況を監視する監視装置が注目・実用化されている。この監視装置は、車両や航空機等の移動体に搭載され、或いは、支柱等の静止体に固定されている。後者の一例である踏切監視装置に関して、従来は、単眼カメラを用いて、鉄道線路のレール(以下「鉄道レール」という)を含む踏切を撮像し、撮像画像平面における鉄道レールの位置を特定する。そして、予め設定された踏切領域を基準として、自動車や人といった障害物が踏切領域内に立ち入っていないか否かを監視する。例えば、特開平10−341427号公報には、2台の単眼カメラを鉄道レールを介し踏切の対角に設置し、踏切の全範囲を広範囲に監視する監視装置が開示されている。
【0003】
【発明が解決しようとする課題】
このような踏切監視装置は、監視領域に写し出された対象物が踏切領域内に立ち入ったか否かにって、対象物を監視すべきものと監視する必要のないものとに分類する。したがって、このような分類を行うための前提として、踏切領域を実空間上に特定する必要がある。しかしながら、従来では、これを手作業で初期設定しなければならず、装置の設置毎にこの作業を行うことは煩雑である。また、このような手作業で踏切領域を初期設定した場合、カメラの経時的な変化に起因する位置ズレなどにより、最初に設定された踏切領域と、実際の踏切とが位置的に対応しなくなり、有効な監視を行えなくなってくる。一方、画像平面上から鉄道レールを認識し、そこから監視領域を設定することも考えられが、単眼カメラのみを用いた監視装置では、鉄道レールを精度よく認識することが難しい。
【0004】
また、この従来技術では、2台の単眼カメラからの情報を統合して処理を行うため、2台のカメラの情報を共有する必要があるが、対角に配置された2台のカメラを電気的に接続するには、少なくとも鉄道レールを跨ぐ必要がある。既存の鉄道レールに対して、このような監視装置の設置を行うことは、工事の大規模化を招き、経済的な負担も大きいばかりでなく、保守作業の負担が大きくなるなどの問題がある。
【0005】
本発明は、かかる事情に鑑みてなされたものであり、その目的は、画像平面において鉄道レールを有効に認識することにより、監視領域内に踏切領域を設定する踏切監視装置および踏切監視方法を提供することである。
【0006】
また、本発明の別の目的は、設置工事や保守作業の煩雑さを低減するとともに、複数のカメラで広範囲に監視を行う踏切監視装置および踏切監視方法を提供することである。
【0007】
【課題を解決するための手段】
かかる課題を解決するために、第1の発明は、鉄道レールの踏切内の状況を監視する踏切監視装置において、ステレオカメラと、ステレオ画像処理部と、特定部と、設定部とを有する踏切監視装置を提供する。かかる踏切監視装置において、ステレオカメラは、監視領域を含む景色を撮像し、一対の画像データを出力する。ステレオ画像処理部は、一対の画像データに基づいて、ステレオマッチングにより視差を算出するとともに、一フレーム相当の画像データに関する視差群と、当該画像データにより規定される画像平面上の座標位置とが対応付けられた距離データを出力する。特定部は、画像データにより規定される画像平面において、鉄道レールを特定する。設定部は、特定された鉄道レールに基づいて、監視領域内に写し出された対象物を監視すべきものと監視する必要のないものとに分類するための踏切領域を設定する。ここで、特定部は、画像平面において、鉄道レールの候補となる一対の二次元直線を抽出し、距離データに基づいて、二次元直線のそれぞれに対応する実空間上の三次元直線を算出し、当該一対の三次元直線が平行である否かを判断する。また、特定部は、一対の三次元直線が平行であると判断した場合には、一対の三次元直線の間隔を算出し、当該算出された間隔と、鉄道レールの実際の間隔に相当する判定値とを比較することにより、鉄道レールの候補となる一対の二次元直線が鉄道レールであるか否かを判断する。
【0008】
ここで、第1の発明において、上述の構成に加えて、対象物認識部と、監視部とをさらに有することが好ましい。対象物認識部は、距離データに基づき、監視領域内における対象物の認識を行う。監視部は、認識された対象物が踏切領域内に存在するか否かを判断するとともに、踏切領域内に対象物が存在すると判断した場合には、認識された対象物の監視を行う。
【0014】
第2の発明は、ステレオカメラで監視領域を含む景色を撮像した画像データと、ステレオ画像処理部から出力され、一フレーム相当の画像データに関する視差群と画像データにより規定される画像平面上の座標位置とが対応付けられた距離データとに基づいて、鉄道レールの踏切内の状況を監視する踏切監視方法を提供する。この監視方法は、ステレオカメラから出力された画像データにより規定される画像平面において、特定部が、鉄道レールの候補となる一対の二次元直線を抽出するステップと、特定部が、ステレオ画像処理部から出力された距離データに基づいて、二次元直線のそれぞれに対応する実空間上の三次元直線を算出するステップと、特定部が、一対の三次元直線が平行である否かを判断するステップと、特定部が、一対の三次元直線が平行であると判断した場合には、一対の三次元直線の間隔を算出するステップと、特定部が、上記算出された間隔と、鉄道レールの実際の間隔に相当する判定値とを比較することにより、鉄道レールの候補となる一対の二次元直線が鉄道レールであるか否かを判断するステップと、特定部によって、一対の二次元直線が鉄道レールであると判断された場合には、設定部が、当該一対の二次元直線に基づいて、監視領域内に写し出された対象物を監視すべきものと監視する必要のないものとに分類するための踏切領域を設定するステップとを有する。
【0015】
ここで、第2の発明において、物認識部が、距離データに基づき、監視領域内の対象物の認識を行うステップと、監視部が、認識された対象物が踏切領域内に存在するか否かを判断するステップと、監視部が、切領域内に対象物が存在すると判断した場合には、当該認識された対象物の監視を行うステップとをさらに設けてもよい。
【0020】
【発明の実施の形態】
図1は、本実施形態にかかる踏切監視装置のブロック構成図である。この踏切監視装置は、第1の対象物認識ユニット1と、第2の対象物認識ユニット1aと、監視部15とを有し、監視領域内に写し出された踏切領域内に立ち入る対象物(通行車や通行人、或いは、障害物)を監視する。第1の対象物認識ユニット1は、撮像した画像を用いて、踏切領域を設定するためのに必要な鉄道レールを認識するとともに、監視対象である対象物を認識する。また、第2の対象物認識ユニット1aも、第1の対象物認識ユニット1と同様、撮像した画像を用いて、鉄道レールを認識するとともに、対象物を認識する。なお、これらの対象物認識ユニット1,1aにおいて、数字にアルファベットが付された構成要素(2a〜14a)は、対応する数字において、アルファベットが付されていない数字の参照符号の構成要素(2〜14)と同一である。以下、明細書において、第1の対象物認識ユニット1についてのみ説明を行うが、特に断らない限り、第2の対象物認識ユニット1aについても同様である。すなわち、第2の対象物認識ユニット1aは、以下説明する第1の対象物認識ユニット1の参照符号を、アルファベット付きの参照符号に置き換えることにより理解することができる。
【0021】
第1の対象物認識ユニット1において、ステレオカメラ2は、踏切近傍において、支柱等に固定されており、図2に示すように、監視領域、すなわち、鉄道レールを含む踏切を斜め上方より撮像する。図2に示したように、画像平面には、検出すべき対象物である鉄道レール以外にも、直線状の道路や地平線等も写し出されているため、多数の直線要素が存在する。
【0022】
ステレオカメラ2は、所定の間隔(カメラ基線長)で配置された一対のカメラ3,4を有しており、それぞれのカメラ3,4には、CCDやCMOSセンサ等のイメージセンサが内蔵されている。メインカメラ3は、ステレオ画像処理を行う際に必要な基準画像(右画像)を撮像し、サブカメラ4は、比較画像(左画像)を撮像する。互いの同期が取れている状態において、カメラ3,4から出力された各アナログ画像は、A/Dコンバータ5,6により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。デジタル化された画像は、画像補正部7において、輝度の補正や画像の幾何学的な変換等が行われる。通常、一対のカメラ3,4の取付位置は、程度の差はあるものの誤差が存在するため、それに起因したずれが左右の画像に生じている。このずれを補正するために、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換が行われる。
【0023】
このような画像処理を経て、メインカメラ3より基準画像データが得られ、サブカメラ4より比較画像データが得られる。これらの画像データは、個々に設定された有効画像領域内に含まれる各画素の輝度値(0〜255)の集合である。画像データによって規定される画像平面におけるi−j座標系は、画像の左下隅を原点として、水平方向をi座標軸、垂直方向をj座標軸とする。一画像の最小表示単位である一フレーム相当の両画像データは、画像データメモリ9に随時格納される。
【0024】
ステレオ画像処理部8は、基準画像データと比較画像データとに基づいて、一フレーム相当の撮像画像に関して、距離データを算出する。ここで、「距離データ」とは、一フレーム相当の撮像画像より算出される視差dの集合であり、個々の視差dは、画像平面上の位置(i,j)と対応付けられている。それぞれの視差dは、基準画像を構成する所定面積(例えば、4×4画素)の画素ブロック毎に1つ算出される。図3は、基準画像に設定される画素ブロックの説明図である。画素の基準画像領域を、4×4画素の画素ブロックPBijで行列状に分割する。一フレーム相当の撮像画像から、画素ブロックPBijの個数相当の視差群が算出される。周知のように、視差dは、その算出対象である画素ブロックPBijに関する水平方向のずれ量であり、画素ブロックPBijに写し出された対象物までの距離と大きな相関がある。すなわち、画素ブロックPBij内に写し出されている対象物がカメラ3,4に近いほど、この画素ブロックPBijの視差dは大きくなり、対象物が遠いほど視差dは小さくなる(無限に遠い場合、視差dは0になる)。
【0025】
ある画素ブロックPBij(相関元)に関する視差dを算出する場合、この画素ブロックPBijの輝度特性と相関を有する領域(相関先)を比較画像において特定する。上述したように、カメラ3,4から対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像において相関先を探索する場合、相関元となる画素ブロックPijのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ画像処理部8は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を一画素ずつシフトしながら、相関元と相関先の候補との間の相関性を順次評価する(ステレオマッチング)。そして、原則として、最も相関が高いと判断される相関先(相関先の候補の内のいずれか)の水平方向のずれ量を、その画素ブロックPBijの視差dとする。
【0026】
2つの画素ブロックの相関は、例えば、シティブロック距離CBを算出することにより評価することができる。数式1は、シティブロック距離CBの基本形を示す。同数式において、p1ijは一方の画素ブロックのij番目の画素の輝度値であり、p2ijは他方の画素ブロックのij番目の輝度値である。シティブロック距離CBは、位置的に対応した輝度値p1ij,p2ij対の差(絶対値)の画素ブロック全体における総和であって、その差が小さいほど両画素ブロックの相関が大きいことを意味している。
【数1】
CB=Σ|p1ij−p2ij|
【0027】
基本的に、エピポーラライン上に存在する画素ブロック毎に算出されたシティブロック距離CBのうち、その値が最小となる画素ブロックが相関先と判断される。このようにして特定された相関先と相関元との間のずれ量が視差dとなる。なお、シティブロック距離CBを算出するステレオ画像処理部8のハードウェア構成については、特開平5−114099号公報に開示されているので、必要ならば参照されたい。このような処理を経て算出された距離データは、距離データメモリ10に随時格納される。
【0028】
マイクロコンピュータ11は、CPU、ROM、RAM、入出力インターフェース等で構成されているが、これを機能的に捉えた場合、特定部12、設定部13および対象物認識部14を有する。特定部12は、画像データメモリ9から基準画像データ(以下、単に「画像データ」と称する)Pを読み込み、この画像データPによって規定される画像平面において、鉄道レールを特定する。そして、この特定された鉄道レールは、設定部13に出力される。設定部13は、特定された鉄道レールに基づき、監視領域内に、踏切領域Aを設定する。ここで、「踏切領域」とは、監視領域内に写し出された対象物を監視すべきものと監視する必要のないものとに分類するために設定される領域をいい、踏切上の三次元空間として特定される。本実施形態において、踏切領域Aは、設定部13によって一義的に設定され、監視部15に出力される。一方、対象物認識部14は、距離データDを読み込み、この距離データDに基づき、監視領域内における対象物Oの認識を行う。そして、この認識された対象物Oは、監視部15に出力される。なお、本明細書では、後述する踏切領域Aaとの混同を避けるため、この踏切領域Aを「第1の踏切領域A」と称する。同様に、距離データDaとの混同を避けるため、距離データDを「第1の距離データD」と称する。
【0029】
ここで、第1の対象物認識ユニット1と第2の対象物認識ユニット1aとの位置的な関係について説明する。第1の対象物認識ユニット1側のステレオカメラ2および第2の対象物認識ユニット1a側のステレオカメラ2aは、鉄道レールを基準として、同じ側に設けられる。具体的には、一方のステレオカメラ2aは、他方のステレオカメラ2の近傍に配置されていることが好ましく、図4に示すように、これらが一カ所にまとめて配置されていることがより好ましい。ただし、本発明において、それぞれのステレオカメラ2,2aは、鉄道レールを基準として、同じ側に設けられていればよく、上述した配置に限定されない。しかしながら、本実施形態に示すように、これらを一カ所にまとめて配置することで、設置工事の小規模化を図るうえで好ましい。同図において、一方のステレオカメラ2aは、他方のステレオカメラ2とその中央位置(カメラ基線長上の中点)が一致し、かつ、上方向にΔyだけ離間している。また、一方のステレオカメラ2aは、他方のステレオカメラ2に対して、その視軸が角度θだけ左側に傾けて配置されている。このような取付状態において、それぞれのステレオカメラ2,2aは、監視領域内の一部の景色のみを撮像するが、両者が互いに協働することにより、監視領域の全ての景色が網羅される。それ故に、ステレオカメラ2,2aは、広範囲な監視領域であっても、それぞれの画角を広げる必要がないので、画像の歪みの発生を抑え、かつ、高い分解能を維持したまま監視領域を撮像することができる。
【0030】
また、第2の対象物認識ユニット1a側のマイクロコンピュータ11aにおいて、特定部12aは、画像データメモリ9aから画像データPaを読み込み、この画像データPaにより規定される画像平面において、鉄道レールを特定する。そして、設定部13aは、この特定された鉄道レールに基づき、監視領域内に、踏切領域Aa(以下、「第2の踏切領域Aa」と称する)を設定するとともに、この第2の踏切領域Aaを監視部15に出力する。一方、対象物認識部14aは、距離データDa(以下、「第2の距離データDa」と称する)を読み込み、この読み込まれた第2の距離データDaに基づき、監視領域内における対象物Oaの認識を行うとともに、この認識された対象物Oaを監視部15に出力する。
【0031】
ここで、第1の対象物認識ユニット1側のマイクロコンピュータ11は、第1の距離データDに基づき、周知の座標変換式によって実空間上の位置を特定するための、第1の三次元座標系を規定している。この第1の三次元座標系は、ステレオカメラ2の位置を基準とし、このステレオカメラ2の中央真下(地面)を原点とし、天頂方向をy1軸、このy1軸に垂直な平面を規定する直交座標系をx1軸、z1軸とする。このとき、このz1軸は、カメラ3,4の視線方向と一致する。また、第2の対象物認識ユニット1a側のマイクロコンピュータ11aは、第1の距離データDに基づき、周知の座標変換式によって実空間上の位置を特定するための、第2の三次元座標系を規定している。この第2の三次元座標系は、ステレオカメラ2aの位置を基準とし、このステレオカメラ2aの中央真下(地面)を原点とし、天頂方向をy2軸、このy2軸に垂直な平面を規定する直交座標系をx2軸、z2軸とする。このとき、このz2軸は、カメラ3a,4aの視線方向と一致する。
【0032】
再び図1を参照して、監視部15は、第1の対象物認識ユニット1側の対象物認識部14によって認識される対象物Oと、第2の対象物認識ユニット1a側の対象物認識部14aによって認識される対象物Oaとの情報を統合する。そして、踏切内に存在する対象物が監視される。このとき、監視部15は、各々独立した三次元座標系で認識される対象物Oと対象物Oaとの情報を統合するため、これらの第1および第2の三次元座標系のうち少なくとも一方とは異なる第3の三次元座標系を規定する。換言すれば、一方の対象物認識部14によって認識された対象物の座標位置が第1の三次元座標系から第3の三次元座標系に座標変換されるとともに、他方の対象物認識部14aによって認識された対象物の座標位置が第2の三次元座標系から第3の三次元座標系に座標変換される。ここで、この第3の三次元座標系に座標変換されたそれぞれの対象物O,Oaを対象物Ooと称する。そして、この第3の三次元座標系に基づき、第1の踏切領域Aと第2の踏切領域Aaとを含む第3の踏切領域が設定され、対象物Ooがこの第3の踏切領域に存在する場合には、この対象物Ooが監視される。
【0033】
図5は、踏切領域の設定手順を示したフローチャートである。本ルーチンは、所定間隔で呼び出され、マイクロコンピュータ11,11aのそれぞれにより実行される。以下、重複説明を避けるため、特に断らない限り、第1の対象物認識ユニット1側のマイクロコンピュータ11における、第1の踏切領域Aの設定手順を説明する。
【0034】
まず、ステップ1において、特定部12は、1フレーム相当の画像データPを読み込み、この画像データPによって規定される画像平面上に存在する直線要素を抽出する。これにより、鉄道レール、道路および地平線を構成するすべての直線要素が抽出される。そして、図6に示すように、抽出した直線要素の中から任意の組み合わせで、鉄道レールの候補となる一対の二次元直線L1,L2が特定される。特定された一対の二次元直線L1,L2は、その傾き(Δj/Δi,Δ:増加量)とj切片(直線でのi=0に対応するj座標値)などのパラメータによりそれぞれ規定される。
【0035】
ここで、直線要素の抽出手法とは、周知の直線抽出手法、たとえば画像の微分・二値化処理、Hough変換(ハフ変換)、テンプレートマッチングなどの手法が挙げられる。一例としてのハフ変換は、「直線は原点からの距離(ρ)とX軸から見た傾き(θ)をパラメータとすることにより一意に決定できる。」という論理に基づくものであり、画像空間から、ρ,θを軸とするハフ空間(パラメータ空間)への変換である。このハフ変換は、基準画像を微分・二値化したあとに「1」の値を持つ画素に対し、その点(x,y)を通るすべての直線を示すハフ空間上のすべての座標点、すなわち、以下の数式2に示す曲線上のすべての点への投票処理で定義される。
【数2】
ρ=xcosθ+ysinθ
【0036】
特定部12は、まず画像を順次ラスター走査し、ハフ変換の対象画素であるかどうか、すなわち、走査中の画素が「1」の値を持つかどうか判定する。判定の結果、対象画素であると判定された画素について、投票処理が実行される。投票処理の過程では、θを0からπまで変化させながら、それぞれのθに対するρが数式2から求められ,ハフ空間(θ−ρ空間)における該当座標のメモリが順次+1されていく。以上の処理が全画素について行われ、この後、投票数が所定のしきい値よりも大きくなったハフ空間上の点が全て抽出され、これらの点のθ−ρ値が直線パラメータとして出力される。そして、特定部12は、ハフ変換を終了する。
【0037】
ステップ2において、特定部12は、鉄道レールの候補として特定された一対の二次元直線L1,L2の実空間上における間隔を算出する。図7は、図5に示すステップ2における間隔算出処理の詳細な手順を示すフローチャートである。まず、ステップ20において、一対に二次元直線L1,L2に対応する実空間上での一対の三次元直線L1’,L2’が算出される。これらを算出するために、まず、一方の二次元直線L1における画像上での任意の2点p1(i1,j1),p2(i2,j2)を特定し、これら2点p1,p2に対応する実空間上(第1の三次元座標系)での位置P1(xp1,yp1,zp1),P2(xp2,yp2,zp2)を特定する。そして、特定された2点P1,P2を通るような直線が三次元直線L1’として算出される。ここで、二次元直線L1における画像上の任意の2点としては、例えば、二次元直線L1を三等分するような点が挙げられる。また、実空間上のそれぞれの位置P1,P2は、周知の座標変換式を用いて、画像上のp1,p2の座標位置と、これに対応する距離Dデータとにより一義的に特定される。そして、これと同様の手法により、他方の二次元直線L2についても三次元直線L2’が特定される。
【0038】
ステップ21において、一対の三次元直線L1’,L2’の平行度、すなわち、三次元直線L1’と三次元直線L2’との平行の度合いが算出される。三次元直線L1’,L2’の平行度は、三次元直線L1’,L2’それぞれの方向ベクトルのなす角θにより評価される。
【0039】
ステップ22において、方向ベクトルのなす角θと所定の判定値θ0とを比較することにより、その三次元直線L1’,L2’が平行であるか否かが判断される。本実施形態では、算出されたθの値が判定値θ0よりも小さい場合に、これらの三次元直線L1’,L2’が平行であると判断される。このステップ22で肯定判定された場合、すなわち、平行であると判断された場合には、ステップ23に進み、三次元直線L1’,L2’の間隔Dが算出される。これらの三次元直線L1’,L2’は既に特定されており、周知の幾何学的手法により、間隔Dは特定される。一方、このステップで否定判定された場合、すなわち、平行でないと判断された場合、ステップ24に進み、三次元直線L1’,L2’の間隔は、「算出不能」として出力される。
【0040】
そして、ステップ2に続くステップ3において、特定部12は、この間隔Dと鉄道レールの実際の間隔に相当する判定値D0(例えば、狭軌なら1067(mm)、標準軌なら1435(mm))とを比較することにより、これら二次元二直線L1,L2が鉄道レールであるか否かを判断する。本実施形態では、例えば、DとD0との差δ(δ=|D−D0|)の値が許容範囲内である場合に、二次元直線L1,L2が鉄道レールであると判断される(例えば、δ<10(mm)なら鉄道レールである)。なお、ステップ24の処理において、間隔Dが「算出不能」として出力されている場合には、特定部12は、自動的に、このときの直線L1,L2を鉄道レールではないと判断する。
【0041】
ステップ3において、肯定判定された場合、特定部12は、二次元直線L1,L2を鉄道レールと判断し、それぞれの二次元直線L1,L2を鉄道レールとして認識する(ステップ4)。そして、画像平面において、これらの二次元直線L1,L2を規定するパラメータ(例えば、傾きとj切片、或いは、画像上の直線L1,L2端部の座標位置など)によって、鉄道レールがそれぞれ規定される。
【0042】
一方、ステップ3において、否定判定された場合、特定部12は、これらの二次元直線L1,L2が鉄道レールではないと判断し、ステップ1に戻り、異なる組み合わせの二次元直線L1,L2を新たに特定する。そして、ステップ3において、肯定判定されるまで、抽出された直線要素の組み合わせに相当する所定回数、上述したステップ1〜3の処理が繰り返し実行される。なお、この処理を所定回数繰り返し実行しても、鉄道レールと判断される二直線L1,L2が存在しない場合には、特定部12は、認識不能として、この画像を不適と判断するともに、次の処理対象のフレームに移ることが好ましい。
【0043】
なお、ステップ4で鉄道レールが認識された後に、特定部12は、処理対象としている画像データPにおいて、残りの直線要素について、上述のルーチンを複数回繰り返して実行させてもよい。これにより、図4に示すように、認識すべき鉄道レールが複線(あるいは、複線以上)であっても、この特定部12は、これらの鉄道レールを見落としなく、かつ、混同することなく認識することができる。
【0044】
そして、ステップ5において、設定部13は、この特定された鉄道レールに基づき、第1の踏切領域Aを設定する。以下、例示的な踏切領域の設定手順について説明する。まず、画像データメモリ9から、画像データPが読み込まれる。そして、この読み込まれた画像データPにより規定される画像平面において、認識された鉄道レールが特定される。そして、鉄道レールに対応する実空間上での一対の三次元直線を求めることにより、この鉄道レールの実空間上(第1の三次元座標系)の位置が特定される。そして、図8に示すように、まず、この鉄道レールと同一な平面上において、鉄道レールの軌道外側にそれぞれ幅Wを加え、かつ、鉄道レール延在方向に距離Lを考慮した、平面領域(図中、破線でハッチングされた領域)が設定される。そして、この平面領域に、通行する車両の車高や通行人の身長などを考慮した高さ方向(図示せず)を加味することで、三次元空間としての第1の踏切領域Aが設定される。
【0045】
ここで、上述した設定手順において、「鉄道レールと同一な平面」は、一対の三次元直線の共通平面として一義的に特定可能である。また、「平面領域」は、まず、一対の三次元直線と同一平面上において、これら一対の三次元直線を基準とし、それらの直交方向に任意の幅Wをそれぞれ加算する。そして、この三次元直線の延在方向に、踏切の長さを十分カバーするように決定された距離Lを、踏切が存在するであろう位置を基準として設定することで、この平面領域が特定される。なお、監視領域内において、複数の鉄道レールが存在している場合、設定部13は、最も外側のレール対にのみ注目して、それらの内側にあるエリアをすべて第1の踏切領域Aとして設定することが好ましい。これにより、踏切全域をカバーするように第1の踏切領域Aが設定される。
【0046】
本実施形態において、第1の対象物認識ユニット1側の設定部13は、図9に示すように、認識された複数の鉄道レール(複線)に基づき、上述した手順にそって第1の踏切領域Aを設定する(高さ方向は図示せず)。ただし、実際には、ステレオカメラ2の画角範囲に応じて、認識可能な領域が狭められるため、この平面領域は、実質的には略台形形状となっている。そして、この平面領域に高さ方向を加味することで、第1の踏切領域Aが設定される。設定部13は、この空間を規定するパラメータ(この第1の踏切領域Aを画定する代表的な座標位置など)により、この第1の踏切領域Aを規定する。また、同様に、第2の対象物認識ユニット1a側の設定部13aも、図9に示すように、認識された複線の鉄道レールに基づき、第2の踏切領域Aaを設定する(高さ方向は図示せず)。
【0047】
一方、対象物認識部14(第1の対象物認識ユニット1側)は、距離データメモリ10から第1の距離データDを読み出し、この第1の距離データDに基づき、対象物Oの認識を行う。例えば、対象物認識部14は、第1の距離データDを格子状に所定の間隔で区分し、区分毎に対象物Oのデータを抽出してヒストグラムを作成する。そして、このヒストグラムから各区分を代表する対象物Oの存在位置と、その距離とが求められる。区分毎の距離が画像の左から右へ順次比較されて、前後方向および横方向の距離が接近しているものがグループとしてまとめられる。各グループについてデータの並び方向がチェックされ、この並び方向が大きく変化する部分でグループが分割されるともに、第1の距離データDの並び方向から個々のグループが対象物Oとして認識される。そして、グループを規定するパラメータ(平均距離、および、(左右)端部の位置など)により、対象物Oが特定される。また、同様に、対象物認識部14a(第2の対象物認識ユニット1a側)によって、対象物Oaが認識される。
【0048】
図10は、踏切領域の監視手順を示したフローチャートである。ステップ1において、監視部15は、第1の踏切領域Aおよび第2の踏切領域Aaをそれぞれ取得し、これを第3の三次元座標系に座標変換し、第3の踏切領域を設定する。監視部15は、例えば、第3の三次元座標系を、ステレオカメラ2,2aの中央真下を原点として定義する。そして、天頂方向をy3軸とし、このy3軸に垂直な平面を規定する直交座標系を、x3軸およびz3軸とする。ここで、x3軸は、x1軸とx2軸との2等分方向と一致し、z3軸は、z1軸とz2軸との2等分方向と一致する。この第3の三次元座標系において、監視部15は、以下に示す数式3に基づき第1の踏切領域Aを第3の三次元座標系に座標変換し、数式4に基づき第2の踏切領域Aaを第3の三次元座標系に座標変換する。
【数3】
x3 = x1cos(−θ/2)−z1sin(−θ/2)
y3 = y1
z3 = x1sin(−θ/2)+z1cos(−θ/2)
【0049】
【数4】
x3 = x2cos(θ/2)−z2sin(θ/2)
y3 = y2
z3 = x2sin(θ/2)+z2cos(θ/2)
【0050】
そして、この第3の三次元座標系において、第1の踏切領域Aと第2の踏切領域Aaとを含む領域が、第3の踏切領域(破線で示す矩形領域)として設定される。
【0051】
つぎに、ステップ2において、監視部15は、対象物認識部14,14aのどちらか一方から対象物Oまたは対象物Oaが出力されたか否かを判断する。このステップ2において、肯定判定された場合、監視部15は、これを取得する。監視部15は、これらの対象物認識部14,14aのどちらからデータを取得したか把握しており、これに基づき、取得した対象物を数式3、または、数式4により、第3の三次元座標系に座標変換する(ステップ3)。この処理を行うことで、監視部15は、対象物認識部14,14aによって認識される対象物O,Oaの情報を統合し、踏切内に存在する対象物Ooの位置を理解することができる。一方、このステップ2で、否定判定されて場合、監視部15は、監視領域内に対象物が存在しないと判断し、このルーチンを抜ける。
【0052】
ステップ3に続くステップ4において、監視部15は、この認識された対象物Ooが第3の踏切領域内に存在するか否かを判断する。このステップで肯定判定された場合、ステップ5において、監視部15は、監視すべき第3の踏切領域内に対象物Ooが存在すると判断し、警報が必要と判定された場合、モニタやスピーカー等の警報装置により、通行人等に注意を促す。また、監視部15は、鉄道レール上を走行する鉄道車両に注意を促したり、或いは、制御(停止や減速)したりしてもよい。一方、このステップで否定判定された場合、監視部15は、第3の踏切領域内に対象物Ooが存在しないと判断し、このルーチンを抜ける。
【0053】
以上説明したように、本実施形態では、ステレオカメラを2台使用しても、一箇所にまとめて設定しているので、工事作業の大規模化の低減を図り、また、保守作業の負担を軽減することができる。また、鉄道レールの位置を画像から検出し、この検出された鉄道レールを基準にして監視領域を自動的に設定するので、監視エリアの設定・入力の手間を省くことができる。また、装置の位置ずれなどが生じた場合であっても、監視エリアは鉄道レールに基づき決定されているので、監視エリアは常に適正に維持され、踏切監視装置の信頼性の向上に寄与する。
【0054】
なお、本実施形態では、ステレオカメラは2台、すなわち、対象物認識ユニットは2つ設けられたが、それ以上の対象物認識ユニットからなる踏切監視装置であっても、同様の効果を奏する。
【0055】
なお、この監視部15は、第3の踏切領域を通る通行者や車両を監視するだけでなく、この設定された第3の踏切領域に基づき、ステレオカメラ2,2aの撮影領域の調整を行うこともできる。例えば、監視部15は、鉄道レールより特定された第3の踏切領域に基づき、この第3の踏切領域がステレオカメラの撮像領域の中央に位置するように、ステレオカメラ2,2aの向きを変えるなどである。これにより、保守作業の負担のより一層軽減することができる。
【0056】
また、本実施形態において、マイクロコンピュータ11,11aは、それぞれが独立した三次元座標系を考慮して、監視部15においてこれを統合して処理をおこなっている。しかしながら、マイクロコンピュータ11,11aは、予め両者共通の三次元座標系を考慮して、それぞれの処理を実行してもよい。この場合、監視部15は、取得した対象物を座標変換することなく、その対象物に関する情報を統合することができるので好ましい。
【0057】
また、踏切領域の設定手法としては、画像平面において、認識された鉄道レール端部に所定のマージンを加味した平面を特定し、この平面を実空間上に展開し、これに高さ方向を加えることにより、踏切領域を設定してもよい。
【0058】
さらに、本実施形態において、ステレオカメラ2,2aの配置は、例示的であり、鉄道レールを境に同じ側に設けられて、それぞれのカメラが協働することにより、監視領域を含む全ての景色が撮像できればよい。また、これにともない、監視部15によって設定される第3の三次元座標系の設定位置も、上述した記載に限定されるものではない。
【0059】
【発明の効果】
このように、本発明では、撮像画像において、これに距離データを考慮することで、鉄道レールを正確に認識することができるので、認識された鉄道レールに基づき、踏切領域を設定することができる。これにより、踏切領域は、踏切上に適正に維持されるので、監視精度における信頼性の向上を図ることができる。
【図面の簡単な説明】
【図1】本実施形態にかかる踏切監視装置のブロック構成図
【図2】1フレームの画像を示す説明図
【図3】基準画像に設定される画素ブロックの説明図
【図4】ステレオカメラの位置を示す説明図
【図5】踏切領域の設定手順を示すフローチャート
【図6】鉄道レールを認識過程を説明するための画面を示す図
【図7】図5に示すステップ2における間隔算出処理の詳細な手順を示すフローチャート
【図8】踏切領域を示す説明図
【図9】踏切領域の別な例を示す説明図
【図10】踏切領域の監視手順を示したフローチャート
【符号の説明】
1,1a 対象物認識ユニット
2,2a ステレオカメラ
3,3a メインカメラ
4,4a サブカメラ
5,5a A/Dコンバータ
6,6a A/Dコンバータ
7,7a 画像補正部
8,8a ステレオ画像処理部
9,9a 画像データメモリ
10,10a 距離データメモリ
11,11a マイクロコンピュータ
12,12a 特定部
13,13a 設定部
14,14a 対象物認識部
15 監視部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a railroad crossing monitoring apparatus and a railroad crossing monitoring method for monitoring a situation in a railroad railroad crossing.
[0002]
[Prior art]
In recent years, monitoring devices that monitor the situation in a predetermined monitoring area have attracted attention and practical application. This monitoring device is mounted on a moving body such as a vehicle or an aircraft, or is fixed to a stationary body such as a support. With regard to the railroad crossing monitoring apparatus as an example of the latter, conventionally, a monorail camera is used to image railroad crossings including railroad rails (hereinafter referred to as “railroad rails”), and the position of the railroad rails in the captured image plane is specified. Then, with reference to a preset level crossing area, it is monitored whether or not an obstacle such as an automobile or a person has entered the level crossing area. For example, Japanese Patent Application Laid-Open No. 10-341427 discloses a monitoring device in which two monocular cameras are installed diagonally across a railroad crossing through a railroad rail, and the entire range of the crossing is monitored over a wide range.
[0003]
[Problems to be solved by the invention]
Such a crossing monitoring device classifies an object to be monitored or not to be monitored depending on whether or not the object projected in the monitoring area has entered the crossing area. Therefore, as a premise for performing such classification, it is necessary to specify a crossing area in real space. However, conventionally, this must be initialized manually, and it is complicated to perform this operation every time the apparatus is installed. In addition, when the level crossing area is initially set by such manual work, the initially set level crossing area and the actual level crossing do not correspond in position due to misalignment caused by changes in the camera over time. It becomes impossible to perform effective monitoring. On the other hand, it is conceivable to recognize a railroad rail from the image plane and set a monitoring area therefrom, but it is difficult to accurately recognize the railroad rail with a monitoring device using only a monocular camera.
[0004]
In this prior art, since information from two monocular cameras is integrated and processed, it is necessary to share the information of the two cameras. However, the two cameras arranged diagonally are electrically connected. In order to establish a connection, it is necessary to straddle at least railway rails. Installation of such a monitoring device on existing railroad rails causes problems such as an increase in construction scale and a large economic burden as well as a burden on maintenance work. .
[0005]
The present invention has been made in view of such circumstances, and an object thereof is to provide a crossing monitoring device and a crossing monitoring method for setting a crossing area in a monitoring area by effectively recognizing a railroad rail in an image plane. It is to be.
[0006]
Another object of the present invention is to provide a crossing monitoring device and a crossing monitoring method that reduce the complexity of installation work and maintenance work, and monitor a wide range with a plurality of cameras.
[0007]
[Means for Solving the Problems]
In order to solve this problem, a first invention is a crossing monitoring device that monitors a situation in a railroad crossing, and includes a stereo camera, a stereo image processing unit, a specifying unit, and a setting unit. Providing equipment. In such a crossing monitoring device,The stereo camera captures a scene including the monitoring area and outputs a pair of image data. The stereo image processing unit calculates parallax by stereo matching based on a pair of image data, and a parallax group related to image data corresponding to one frame corresponds to a coordinate position on an image plane defined by the image data. The attached distance data is output. The specifying unit specifies a railroad rail on an image plane defined by the image data. The setting unit sets a railroad crossing area for classifying an object projected in the monitoring area into one that should be monitored and one that does not need to be monitored, based on the identified railroad rail. Here, the specifying unit extracts a pair of two-dimensional straight lines that are candidates for railroad rails on the image plane, and calculates a three-dimensional straight line in real space corresponding to each of the two-dimensional straight lines based on the distance data. Then, it is determined whether or not the pair of three-dimensional straight lines are parallel. In addition, when the specific unit determines that the pair of three-dimensional straight lines are parallel, the specific unit calculates a distance between the pair of three-dimensional straight lines, and a determination corresponding to the calculated distance and the actual distance between the rails. By comparing the values, it is determined whether or not the pair of two-dimensional straight lines that are candidates for the rail is a rail.
[0008]
Here, in the first invention, it is preferable to further include an object recognition unit and a monitoring unit in addition to the above-described configuration. The object recognition unit recognizes the object in the monitoring area based on the distance data. The monitoring unit determines whether or not the recognized object exists in the crossing area, and monitors the recognized object when determining that the object exists in the crossing area.
[0014]
According to a second aspect of the invention, image data obtained by capturing a landscape including a monitoring area with a stereo camera, and coordinates on an image plane that are output from a stereo image processing unit and defined by a parallax group and image data related to image data corresponding to one frame There is provided a railroad crossing monitoring method for monitoring a situation in a railroad railroad crossing based on distance data associated with a position. In this monitoring method, in the image plane defined by the image data output from the stereo camera, the specifying unit extracts a pair of two-dimensional straight lines that are candidates for the rail, and the specifying unit is a stereo image processing unit. A step of calculating a three-dimensional straight line in real space corresponding to each of the two-dimensional straight lines based on the distance data output from the step, and a step of determining whether or not the pair of three-dimensional straight lines are parallel by the specifying unit And when the specific unit determines that the pair of three-dimensional straight lines are parallel, the step of calculating the distance between the pair of three-dimensional straight lines, A pair of two-dimensional lines is determined by the step of determining whether the pair of two-dimensional straight lines that are candidates for the railroad rail is a railroad rail by comparing with a determination value corresponding to the interval of When it is determined that the line is a railroad rail, the setting unit determines whether the object projected in the monitoring area is to be monitored or not to be monitored based on the pair of two-dimensional straight lines. And setting a crossing area for classification.
[0015]
Here, in the second invention, the object recognizing unit recognizes the object in the monitoring area based on the distance data, and the monitoring unit determines whether the recognized object exists in the crossing area. And a step of monitoring the recognized target object when the monitoring unit determines that the target object is present in the cut area.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block configuration diagram of a railroad crossing monitoring apparatus according to the present embodiment. This level crossing monitoring apparatus includes a first
[0021]
In the first
[0022]
The
[0023]
Through such image processing, reference image data is obtained from the
[0024]
The stereo
[0025]
When calculating the parallax d regarding a certain pixel block PBij (correlation source), a region (correlation destination) having a correlation with the luminance characteristic of the pixel block PBij is specified in the comparison image. As described above, the distance from the
[0026]
The correlation between two pixel blocks can be evaluated, for example, by calculating a city block distance CB.
[Expression 1]
CB = Σ | p1ij−p2ij |
[0027]
Basically, among the city block distances CB calculated for each pixel block existing on the epipolar line, the pixel block having the smallest value is determined as the correlation destination. The amount of deviation between the correlation destination specified in this way and the correlation source is the parallax d. The hardware configuration of the stereo
[0028]
The microcomputer 11 includes a CPU, a ROM, a RAM, an input / output interface, and the like. When the microcomputer 11 is functionally grasped, the microcomputer 11 includes a specifying unit 12, a setting unit 13, and an object recognition unit 14. The specifying unit 12 reads reference image data (hereinafter simply referred to as “image data”) P from the
[0029]
Here, the positional relationship between the first
[0030]
In the microcomputer 11a on the second object recognition unit 1a side, the specifying
[0031]
Here, the microcomputer 11 on the first
[0032]
Referring to FIG. 1 again, the monitoring unit 15 recognizes the object O recognized by the object recognition unit 14 on the first
[0033]
FIG. 5 is a flowchart showing a procedure for setting a crossing area. This routine is called at predetermined intervals and is executed by each of the microcomputers 11 and 11a. Hereinafter, in order to avoid duplication description, the procedure for setting the first level crossing area A in the microcomputer 11 on the first
[0034]
First, in
[0035]
Here, the straight line element extraction method includes a known straight line extraction method, for example, a method such as image differentiation / binarization processing, Hough transform (Hough transform), template matching, and the like. The Hough transform as an example is based on the logic that “a straight line can be uniquely determined by using the distance (ρ) from the origin and the inclination (θ) viewed from the X axis as parameters”. , Ρ, θ conversion into a Hough space (parameter space). This Hough transform is performed on all the coordinate points on the Hough space indicating all straight lines passing through the point (x, y) for pixels having a value of “1” after differentiation and binarization of the reference image, That is, it is defined by the voting process for all points on the curve shown in
[Expression 2]
ρ = xcosθ + ysinθ
[0036]
The specifying unit 12 first raster-scans the image sequentially to determine whether or not the pixel is a Hough transform target pixel, that is, whether or not the pixel being scanned has a value of “1”. As a result of the determination, the voting process is executed for the pixel determined to be the target pixel. In the process of voting, while changing θ from 0 to π, ρ for each θ is obtained from
[0037]
In
[0038]
In step 21, the parallelism between the pair of three-dimensional straight lines L1 'and L2', that is, the degree of parallelism between the three-dimensional straight line L1 'and the three-dimensional straight line L2' is calculated. The parallelism of the three-dimensional straight lines L1 'and L2' is evaluated by the angle θ formed by the direction vectors of the three-dimensional straight lines L1 'and L2'.
[0039]
In step 22, it is determined whether or not the three-dimensional straight lines L1 'and L2' are parallel by comparing the angle θ formed by the direction vector with a predetermined determination value θ0. In the present embodiment, when the calculated value of θ is smaller than the determination value θ0, it is determined that these three-dimensional straight lines L1 'and L2' are parallel. If an affirmative determination is made in step 22, that is, if it is determined that they are parallel, the process proceeds to step 23, and the interval D between the three-dimensional
[0040]
Then, in
[0041]
When an affirmative determination is made in
[0042]
On the other hand, when a negative determination is made in
[0043]
Note that after the rail is recognized in
[0044]
In
[0045]
Here, in the setting procedure described above, “the same plane as the railroad rail” can be uniquely specified as a common plane of a pair of three-dimensional straight lines. In addition, the “planar region” first adds an arbitrary width W in the orthogonal direction with reference to the pair of three-dimensional lines on the same plane as the pair of three-dimensional lines. Then, by setting the distance L determined to sufficiently cover the length of the level crossing in the extending direction of the three-dimensional straight line with reference to the position where the level crossing will exist, this plane area is specified. Is done. In addition, when there are a plurality of railway rails in the monitoring area, the setting unit 13 pays attention only to the outermost rail pair and sets all the areas inside them as the first railroad crossing area A. It is preferable to do. Thereby, the first level crossing area A is set so as to cover the entire level crossing.
[0046]
In the present embodiment, as shown in FIG. 9, the setting unit 13 on the first
[0047]
On the other hand, the object recognition unit 14 (the first
[0048]
FIG. 10 is a flowchart showing a procedure for monitoring a crossing area. In
[Equation 3]
x3 = x1cos (-θ / 2) -z1sin (-θ / 2)
y3 = y1
z3 = x1sin (-θ / 2) + z1cos (-θ / 2)
[0049]
[Expression 4]
x3 = x2cos (θ / 2) −z2sin (θ / 2)
y3 = y2
z3 = x2sin (θ / 2) + z2cos (θ / 2)
[0050]
In the third three-dimensional coordinate system, an area including the first level crossing area A and the second level crossing area Aa is set as a third level crossing area (a rectangular area indicated by a broken line).
[0051]
Next, in
[0052]
In
[0053]
As described above, in this embodiment, even if two stereo cameras are used, since they are set together in one place, the construction work is reduced in scale and the burden of maintenance work is reduced. Can be reduced. Further, since the position of the railroad rail is detected from the image, and the monitoring area is automatically set based on the detected railroad rail, the trouble of setting and inputting the monitoring area can be saved. Further, even if a device misalignment or the like occurs, the monitoring area is determined based on the railroad rail, so that the monitoring area is always properly maintained and contributes to improving the reliability of the crossing monitoring device.
[0054]
In the present embodiment, two stereo cameras, that is, two object recognition units are provided. However, a crossing monitoring apparatus including more object recognition units has the same effect.
[0055]
The monitoring unit 15 not only monitors passers-by and vehicles passing through the third level crossing area, but also adjusts the shooting areas of the
[0056]
In the present embodiment, the microcomputers 11 and 11a perform processing by integrating them in the monitoring unit 15 in consideration of independent three-dimensional coordinate systems. However, the microcomputers 11 and 11a may execute the respective processes in consideration of a common three-dimensional coordinate system. In this case, since the monitoring part 15 can integrate the information regarding the target object, without converting the coordinate of the acquired target object, it is preferable.
[0057]
In addition, as a method for setting the level crossing area, a plane in which a predetermined margin is added to the recognized railroad rail end in the image plane is specified, this plane is developed in real space, and the height direction is added thereto. Thus, a crossing area may be set.
[0058]
Furthermore, in the present embodiment, the arrangement of the
[0059]
【The invention's effect】
As described above, in the present invention, the railroad rail can be accurately recognized by taking the distance data into consideration in the captured image. Therefore, the railroad crossing region can be set based on the recognized railroad rail. . As a result, the level crossing area is properly maintained on the level crossing, so that the reliability in monitoring accuracy can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram of a railroad crossing monitoring apparatus according to an embodiment.
FIG. 2 is an explanatory diagram showing an image of one frame.
FIG. 3 is an explanatory diagram of a pixel block set in a reference image.
FIG. 4 is an explanatory diagram showing the position of the stereo camera.
FIG. 5 is a flowchart showing a procedure for setting a crossing area.
FIG. 6 is a diagram showing a screen for explaining a process of recognizing a railroad rail.
7 is a flowchart showing a detailed procedure of interval calculation processing in
FIG. 8 is an explanatory diagram showing a crossing area.
FIG. 9 is an explanatory diagram showing another example of a crossing area.
FIG. 10 is a flowchart showing a procedure for monitoring a crossing area.
[Explanation of symbols]
1,1a Object recognition unit
2,2a Stereo camera
3,3a Main camera
4,4a Sub camera
5,5a A / D converter
6,6a A / D converter
7, 7a Image correction unit
8,8a Stereo image processing unit
9, 9a Image data memory
10, 10a Distance data memory
11, 11a microcomputer
12, 12a specific part
13, 13a setting part
14, 14a Object recognition unit
15 Monitoring unit
Claims (4)
監視領域を含む景色を撮像し、一対の画像データを出力するステレオカメラと、
前記一対の画像データに基づいて、ステレオマッチングにより視差を算出するとともに、一フレーム相当の画像データに関する視差群と、当該画像データにより規定される画像平面上の座標位置とが対応付けられた距離データを出力するステレオ画像処理部と、
前記画像データにより規定される画像平面において、前記鉄道レールを特定する特定部と、
前記特定された鉄道レールに基づいて、前記監視領域内に写し出された対象物を監視すべきものと監視する必要のないものとに分類するための踏切領域を設定する設定部とを有し、
前記特定部は、前記画像平面において、前記鉄道レールの候補となる一対の二次元直線を抽出し、前記距離データに基づいて、前記二次元直線のそれぞれに対応する実空間上の三次元直線を算出し、当該一対の三次元直線が平行である否かを判断するとともに、前記一対の三次元直線が平行であると判断した場合には、前記一対の三次元直線の間隔を算出し、当該算出された間隔と、前記鉄道レールの実際の間隔に相当する判定値とを比較することにより、前記鉄道レールの候補となる前記一対の二次元直線が前記鉄道レールであるか否かを判断することを特徴とする踏切監視装置。In a railroad crossing monitoring device that monitors the situation inside railroad railroad crossings,
A stereo camera that captures a landscape including a monitoring area and outputs a pair of image data;
Distance data in which parallax is calculated by stereo matching based on the pair of image data, and a parallax group related to image data corresponding to one frame is associated with a coordinate position on an image plane defined by the image data Stereo image processing unit for outputting
In the image plane defined by the image data, a specifying unit for specifying the railroad rail,
A setting unit for setting a railroad crossing area for classifying an object projected in the monitoring area into a thing to be monitored and a thing not to be monitored based on the identified railroad rail,
The specifying unit extracts a pair of two-dimensional straight lines that are candidates for the rail in the image plane, and based on the distance data, calculates a three-dimensional straight line in real space corresponding to each of the two-dimensional straight lines. Calculating and determining whether or not the pair of three-dimensional straight lines are parallel, and when determining that the pair of three-dimensional straight lines are parallel, calculating an interval between the pair of three-dimensional straight lines, By comparing the calculated interval with a determination value corresponding to the actual interval between the railroad rails, it is determined whether the pair of two-dimensional straight lines that are candidates for the railroad rails are the railroad rails. A crossing monitoring device characterized by that.
前記認識された対象物が前記踏切領域内に存在するか否かを判断するとともに、前記踏切領域内に前記対象物が存在すると判断した場合には、当該認識された対象物の監視を行う監視部とをさらに有することを特徴とする請求項1に記載された踏切監視装置。An object recognition unit for recognizing an object in the monitoring area based on the distance data;
Monitoring that determines whether or not the recognized object exists in the crossing area, and monitors the recognized object if it is determined that the object exists in the crossing area The crossing monitoring device according to claim 1, further comprising: a section.
前記ステレオカメラから出力された前記画像データにより規定される画像平面において、特定部が、前記鉄道レールの候補となる一対の二次元直線を抽出するステップと、
前記特定部が、前記ステレオ画像処理部から出力された前記距離データに基づいて、前記二次元直線のそれぞれに対応する実空間上の三次元直線を算出するステップと、
前記特定部が、前記一対の三次元直線が平行である否かを判断するステップと、
前記特定部が、前記一対の三次元直線が平行であると判断した場合には、前記一対の三次元直線の間隔を算出するステップと、
前記特定部が、前記算出された間隔と、前記鉄道レールの実際の間隔に相当する判定値とを比較することにより、前記鉄道レールの候補となる前記一対の二次元直線が前記鉄道レールであるか否かを判断するステップと、
前記特定部によって、前記一対の二次元直線が鉄道レールであると判断された場合には、設定部が、当該一対の二次元直線に基づいて、前記監視領域内に写し出された対象物を監視すべきものと監視する必要のないものとに分類するための踏切領域を設定するステップと
を有することを特徴とする踏切監視方法。Correspondence between image data obtained by capturing a scene including a monitoring area with a stereo camera, a parallax group related to the image data equivalent to one frame output from a stereo image processing unit, and a coordinate position on an image plane defined by the image data based on the Tagged distance data, in railroad crossing monitoring method for monitoring the status of the crossing of the railroad rail,
In the image plane defined by the image data output from the stereo camera , the specifying unit extracts a pair of two-dimensional straight lines that are candidates for the railroad rails;
The specifying unit calculating a three-dimensional straight line in real space corresponding to each of the two-dimensional straight lines based on the distance data output from the stereo image processing unit ;
The identifying unit determining whether the pair of three-dimensional straight lines are parallel; and
When the specifying unit determines that the pair of three-dimensional straight lines are parallel, calculating a distance between the pair of three-dimensional straight lines;
The pair of two-dimensional straight lines that are candidates for the railroad rail are the railroad rails by comparing the calculated interval with a determination value corresponding to the actual interval of the railroad rail. Determining whether or not,
By the specifying unit, if the pair of two-dimensional straight line is determined to be the railway rail, the setting unit, based on the pair of two-dimensional linear, it monitors the target object projected on the monitoring area And a step of setting a level crossing area for classification into what should be monitored and what should not be monitored.
監視部が、前記認識された対象物が前記踏切領域内に存在するか否かを判断するステップと、
前記監視部が、前記踏切領域内に前記対象物が存在すると判断した場合には、当該認識された対象物の監視を行うステップとをさらに有することを特徴とする請求項3に記載された踏切監視方法。 An object recognition unit recognizing an object in the monitoring area based on the distance data;
A step of monitoring unit, the recognized object determines whether present in the crossing area,
The level crossing according to claim 3, further comprising a step of monitoring the recognized object when the monitoring unit determines that the target is present in the level crossing area. Monitoring method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002201360A JP4150223B2 (en) | 2002-07-10 | 2002-07-10 | Level crossing monitoring device and level crossing monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002201360A JP4150223B2 (en) | 2002-07-10 | 2002-07-10 | Level crossing monitoring device and level crossing monitoring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004042737A JP2004042737A (en) | 2004-02-12 |
JP4150223B2 true JP4150223B2 (en) | 2008-09-17 |
Family
ID=31707918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002201360A Expired - Fee Related JP4150223B2 (en) | 2002-07-10 | 2002-07-10 | Level crossing monitoring device and level crossing monitoring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4150223B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106741008A (en) * | 2016-12-29 | 2017-05-31 | 北京交通大学 | Rail track method for recognizing impurities and system |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2418314A (en) * | 2004-09-16 | 2006-03-22 | Sharp Kk | A system for combining multiple disparity maps |
JP2006214735A (en) * | 2005-02-01 | 2006-08-17 | Viewplus Inc | Compound stereo vision device |
JP4279302B2 (en) * | 2006-08-28 | 2009-06-17 | 東日本旅客鉄道株式会社 | Detection device |
DE102008020326B3 (en) * | 2008-04-23 | 2009-09-03 | Sick Ag | Stereoscopic three-dimensional-safety camera for monitoring spatial area in safety engineering, has evaluation unit designed to combine entire image from three dimensional images of image sensors of stereoscopy systems |
KR101070591B1 (en) * | 2009-06-25 | 2011-10-06 | (주)실리콘화일 | distance measuring apparatus having dual stereo camera |
JP6299317B2 (en) * | 2014-03-24 | 2018-03-28 | サクサ株式会社 | Image processing device |
CN112833856B (en) * | 2020-12-31 | 2023-03-28 | 中建港航局集团有限公司 | High-precision port area yard track detection method based on total station |
-
2002
- 2002-07-10 JP JP2002201360A patent/JP4150223B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106741008A (en) * | 2016-12-29 | 2017-05-31 | 北京交通大学 | Rail track method for recognizing impurities and system |
Also Published As
Publication number | Publication date |
---|---|
JP2004042737A (en) | 2004-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3279479B2 (en) | Video monitoring method and device | |
CN110555361B (en) | Image processing method for lane classification | |
JP4930046B2 (en) | Road surface discrimination method and road surface discrimination device | |
JP4363295B2 (en) | Plane estimation method using stereo images | |
WO2016199244A1 (en) | Object recognition device and object recognition system | |
JP4872769B2 (en) | Road surface discrimination device and road surface discrimination method | |
JP2002074368A (en) | Moving object recognizing and tracking device | |
JP2010117800A (en) | Parking lot monitoring device and method | |
JP4032843B2 (en) | Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system | |
JP2010086268A (en) | Display object recognition device for vehicle | |
Ruder et al. | An obstacle detection system for automated trains | |
JP3466169B2 (en) | Management system for roads and surrounding facilities | |
JP4150223B2 (en) | Level crossing monitoring device and level crossing monitoring method | |
JP3328711B2 (en) | Vehicle height measuring device and vehicle monitoring system using the same | |
CN111696365A (en) | Vehicle tracking system | |
CN106778569A (en) | Train preceding object object detecting method based on video image | |
TWI616638B (en) | Line measuring device and method | |
JP4150218B2 (en) | Terrain recognition device and terrain recognition method | |
JP3629935B2 (en) | Speed measurement method for moving body and speed measurement device using the method | |
JP2002150302A (en) | Road surface recognition device | |
JP4311107B2 (en) | Three-dimensional object recognition device and setting method thereof | |
JP2002002485A (en) | Track recognition device and railway rolling stock using track recognition device | |
JP2012248004A (en) | Image processing system, image recognition device and method | |
JPH0979847A (en) | On board distance measuring device | |
JP4144300B2 (en) | Plane estimation method and object detection apparatus using stereo image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080116 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080409 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080612 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080627 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |