JP4150223B2 - Level crossing monitoring device and level crossing monitoring method - Google Patents

Level crossing monitoring device and level crossing monitoring method Download PDF

Info

Publication number
JP4150223B2
JP4150223B2 JP2002201360A JP2002201360A JP4150223B2 JP 4150223 B2 JP4150223 B2 JP 4150223B2 JP 2002201360 A JP2002201360 A JP 2002201360A JP 2002201360 A JP2002201360 A JP 2002201360A JP 4150223 B2 JP4150223 B2 JP 4150223B2
Authority
JP
Japan
Prior art keywords
monitoring
railroad
pair
straight lines
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002201360A
Other languages
Japanese (ja)
Other versions
JP2004042737A (en
Inventor
圭二 塙
勝 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Railway Technical Research Institute
Subaru Corp
Original Assignee
Railway Technical Research Institute
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Railway Technical Research Institute, Fuji Jukogyo KK filed Critical Railway Technical Research Institute
Priority to JP2002201360A priority Critical patent/JP4150223B2/en
Publication of JP2004042737A publication Critical patent/JP2004042737A/en
Application granted granted Critical
Publication of JP4150223B2 publication Critical patent/JP4150223B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、鉄道レールの踏切内の状況を監視する踏切監視装置および踏切監視方法に関する。
【0002】
【従来の技術】
近年、所定の監視領域内の状況を監視する監視装置が注目・実用化されている。この監視装置は、車両や航空機等の移動体に搭載され、或いは、支柱等の静止体に固定されている。後者の一例である踏切監視装置に関して、従来は、単眼カメラを用いて、鉄道線路のレール(以下「鉄道レール」という)を含む踏切を撮像し、撮像画像平面における鉄道レールの位置を特定する。そして、予め設定された踏切領域を基準として、自動車や人といった障害物が踏切領域内に立ち入っていないか否かを監視する。例えば、特開平10−341427号公報には、2台の単眼カメラを鉄道レールを介し踏切の対角に設置し、踏切の全範囲を広範囲に監視する監視装置が開示されている。
【0003】
【発明が解決しようとする課題】
このような踏切監視装置は、監視領域に写し出された対象物が踏切領域内に立ち入ったか否かにって、対象物を監視すべきものと監視する必要のないものとに分類する。したがって、このような分類を行うための前提として、踏切領域を実空間上に特定する必要がある。しかしながら、従来では、これを手作業で初期設定しなければならず、装置の設置毎にこの作業を行うことは煩雑である。また、このような手作業で踏切領域を初期設定した場合、カメラの経時的な変化に起因する位置ズレなどにより、最初に設定された踏切領域と、実際の踏切とが位置的に対応しなくなり、有効な監視を行えなくなってくる。一方、画像平面上から鉄道レールを認識し、そこから監視領域を設定することも考えられが、単眼カメラのみを用いた監視装置では、鉄道レールを精度よく認識することが難しい。
【0004】
また、この従来技術では、2台の単眼カメラからの情報を統合して処理を行うため、2台のカメラの情報を共有する必要があるが、対角に配置された2台のカメラを電気的に接続するには、少なくとも鉄道レールを跨ぐ必要がある。既存の鉄道レールに対して、このような監視装置の設置を行うことは、工事の大規模化を招き、経済的な負担も大きいばかりでなく、保守作業の負担が大きくなるなどの問題がある。
【0005】
本発明は、かかる事情に鑑みてなされたものであり、その目的は、画像平面において鉄道レールを有効に認識することにより、監視領域内に踏切領域を設定する踏切監視装置および踏切監視方法を提供することである。
【0006】
また、本発明の別の目的は、設置工事や保守作業の煩雑さを低減するとともに、複数のカメラで広範囲に監視を行う踏切監視装置および踏切監視方法を提供することである。
【0007】
【課題を解決するための手段】
かかる課題を解決するために、第1の発明は、鉄道レールの踏切内の状況を監視する踏切監視装置において、ステレオカメラと、ステレオ画像処理部と、特定部と、設定部とを有する踏切監視装置を提供する。かかる踏切監視装置において、ステレオカメラは、監視領域を含む景色を撮像し、一対の画像データを出力する。ステレオ画像処理部は、一対の画像データに基づいて、ステレオマッチングにより視差を算出するとともに、一フレーム相当の画像データに関する視差群と、当該画像データにより規定される画像平面上の座標位置とが対応付けられた距離データを出力する。特定部は、画像データにより規定される画像平面において、鉄道レールを特定する。設定部は、特定された鉄道レールに基づいて、監視領域内に写し出された対象物を監視すべきものと監視する必要のないものとに分類するための踏切領域を設定する。ここで、特定部は、画像平面において、鉄道レールの候補となる一対の二次元直線を抽出し、距離データに基づいて、二次元直線のそれぞれに対応する実空間上の三次元直線を算出し、当該一対の三次元直線が平行である否かを判断する。また、特定部は、一対の三次元直線が平行であると判断した場合には、一対の三次元直線の間隔を算出し、当該算出された間隔と、鉄道レールの実際の間隔に相当する判定値とを比較することにより、鉄道レールの候補となる一対の二次元直線が鉄道レールであるか否かを判断する。
【0008】
ここで、第1の発明において、上述の構成に加えて、対象物認識部と、監視部とをさらに有することが好ましい。対象物認識部は、距離データに基づき、監視領域内における対象物の認識を行う。監視部は、認識された対象物が踏切領域内に存在するか否かを判断するとともに、踏切領域内に対象物が存在すると判断した場合には、認識された対象物の監視を行う。
【0014】
第2の発明は、ステレオカメラで監視領域を含む景色を撮像した画像データと、ステレオ画像処理部から出力され、一フレーム相当の画像データに関する視差群と画像データにより規定される画像平面上の座標位置とが対応付けられた距離データとに基づいて、鉄道レールの踏切内の状況を監視する踏切監視方法を提供する。この監視方法は、ステレオカメラから出力された画像データにより規定される画像平面において、特定部が、鉄道レールの候補となる一対の二次元直線を抽出するステップと、特定部が、ステレオ画像処理部から出力された距離データに基づいて、二次元直線のそれぞれに対応する実空間上の三次元直線を算出するステップと、特定部が、一対の三次元直線が平行である否かを判断するステップと、特定部が、一対の三次元直線が平行であると判断した場合には、一対の三次元直線の間隔を算出するステップと、特定部が、上記算出された間隔と、鉄道レールの実際の間隔に相当する判定値とを比較することにより、鉄道レールの候補となる一対の二次元直線が鉄道レールであるか否かを判断するステップと、特定部によって、一対の二次元直線が鉄道レールであると判断された場合には、設定部が、当該一対の二次元直線に基づいて、監視領域内に写し出された対象物を監視すべきものと監視する必要のないものとに分類するための踏切領域を設定するステップとを有する。
【0015】
ここで、第2の発明において、物認識部が、距離データに基づき、監視領域内の対象物の認識を行うステップと、監視部が、認識された対象物が踏切領域内に存在するか否かを判断するステップと、監視部が、切領域内に対象物が存在すると判断した場合には、当該認識された対象物の監視を行うステップとをさらに設けてもよい。
【0020】
【発明の実施の形態】
図1は、本実施形態にかかる踏切監視装置のブロック構成図である。この踏切監視装置は、第1の対象物認識ユニット1と、第2の対象物認識ユニット1aと、監視部15とを有し、監視領域内に写し出された踏切領域内に立ち入る対象物(通行車や通行人、或いは、障害物)を監視する。第1の対象物認識ユニット1は、撮像した画像を用いて、踏切領域を設定するためのに必要な鉄道レールを認識するとともに、監視対象である対象物を認識する。また、第2の対象物認識ユニット1aも、第1の対象物認識ユニット1と同様、撮像した画像を用いて、鉄道レールを認識するとともに、対象物を認識する。なお、これらの対象物認識ユニット1,1aにおいて、数字にアルファベットが付された構成要素(2a〜14a)は、対応する数字において、アルファベットが付されていない数字の参照符号の構成要素(2〜14)と同一である。以下、明細書において、第1の対象物認識ユニット1についてのみ説明を行うが、特に断らない限り、第2の対象物認識ユニット1aについても同様である。すなわち、第2の対象物認識ユニット1aは、以下説明する第1の対象物認識ユニット1の参照符号を、アルファベット付きの参照符号に置き換えることにより理解することができる。
【0021】
第1の対象物認識ユニット1において、ステレオカメラ2は、踏切近傍において、支柱等に固定されており、図2に示すように、監視領域、すなわち、鉄道レールを含む踏切を斜め上方より撮像する。図2に示したように、画像平面には、検出すべき対象物である鉄道レール以外にも、直線状の道路や地平線等も写し出されているため、多数の直線要素が存在する。
【0022】
ステレオカメラ2は、所定の間隔(カメラ基線長)で配置された一対のカメラ3,4を有しており、それぞれのカメラ3,4には、CCDやCMOSセンサ等のイメージセンサが内蔵されている。メインカメラ3は、ステレオ画像処理を行う際に必要な基準画像(右画像)を撮像し、サブカメラ4は、比較画像(左画像)を撮像する。互いの同期が取れている状態において、カメラ3,4から出力された各アナログ画像は、A/Dコンバータ5,6により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。デジタル化された画像は、画像補正部7において、輝度の補正や画像の幾何学的な変換等が行われる。通常、一対のカメラ3,4の取付位置は、程度の差はあるものの誤差が存在するため、それに起因したずれが左右の画像に生じている。このずれを補正するために、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換が行われる。
【0023】
このような画像処理を経て、メインカメラ3より基準画像データが得られ、サブカメラ4より比較画像データが得られる。これらの画像データは、個々に設定された有効画像領域内に含まれる各画素の輝度値(0〜255)の集合である。画像データによって規定される画像平面におけるi−j座標系は、画像の左下隅を原点として、水平方向をi座標軸、垂直方向をj座標軸とする。一画像の最小表示単位である一フレーム相当の両画像データは、画像データメモリ9に随時格納される。
【0024】
ステレオ画像処理部8は、基準画像データと比較画像データとに基づいて、一フレーム相当の撮像画像に関して、距離データを算出する。ここで、「距離データ」とは、一フレーム相当の撮像画像より算出される視差dの集合であり、個々の視差dは、画像平面上の位置(i,j)と対応付けられている。それぞれの視差dは、基準画像を構成する所定面積(例えば、4×4画素)の画素ブロック毎に1つ算出される。図3は、基準画像に設定される画素ブロックの説明図である。画素の基準画像領域を、4×4画素の画素ブロックPBijで行列状に分割する。一フレーム相当の撮像画像から、画素ブロックPBijの個数相当の視差群が算出される。周知のように、視差dは、その算出対象である画素ブロックPBijに関する水平方向のずれ量であり、画素ブロックPBijに写し出された対象物までの距離と大きな相関がある。すなわち、画素ブロックPBij内に写し出されている対象物がカメラ3,4に近いほど、この画素ブロックPBijの視差dは大きくなり、対象物が遠いほど視差dは小さくなる(無限に遠い場合、視差dは0になる)。
【0025】
ある画素ブロックPBij(相関元)に関する視差dを算出する場合、この画素ブロックPBijの輝度特性と相関を有する領域(相関先)を比較画像において特定する。上述したように、カメラ3,4から対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像において相関先を探索する場合、相関元となる画素ブロックPijのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ画像処理部8は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を一画素ずつシフトしながら、相関元と相関先の候補との間の相関性を順次評価する(ステレオマッチング)。そして、原則として、最も相関が高いと判断される相関先(相関先の候補の内のいずれか)の水平方向のずれ量を、その画素ブロックPBijの視差dとする。
【0026】
2つの画素ブロックの相関は、例えば、シティブロック距離CBを算出することにより評価することができる。数式1は、シティブロック距離CBの基本形を示す。同数式において、p1ijは一方の画素ブロックのij番目の画素の輝度値であり、p2ijは他方の画素ブロックのij番目の輝度値である。シティブロック距離CBは、位置的に対応した輝度値p1ij,p2ij対の差(絶対値)の画素ブロック全体における総和であって、その差が小さいほど両画素ブロックの相関が大きいことを意味している。
【数1】
CB=Σ|p1ij−p2ij|
【0027】
基本的に、エピポーラライン上に存在する画素ブロック毎に算出されたシティブロック距離CBのうち、その値が最小となる画素ブロックが相関先と判断される。このようにして特定された相関先と相関元との間のずれ量が視差dとなる。なお、シティブロック距離CBを算出するステレオ画像処理部8のハードウェア構成については、特開平5−114099号公報に開示されているので、必要ならば参照されたい。このような処理を経て算出された距離データは、距離データメモリ10に随時格納される。
【0028】
マイクロコンピュータ11は、CPU、ROM、RAM、入出力インターフェース等で構成されているが、これを機能的に捉えた場合、特定部12、設定部13および対象物認識部14を有する。特定部12は、画像データメモリ9から基準画像データ(以下、単に「画像データ」と称する)Pを読み込み、この画像データPによって規定される画像平面において、鉄道レールを特定する。そして、この特定された鉄道レールは、設定部13に出力される。設定部13は、特定された鉄道レールに基づき、監視領域内に、踏切領域Aを設定する。ここで、「踏切領域」とは、監視領域内に写し出された対象物を監視すべきものと監視する必要のないものとに分類するために設定される領域をいい、踏切上の三次元空間として特定される。本実施形態において、踏切領域Aは、設定部13によって一義的に設定され、監視部15に出力される。一方、対象物認識部14は、距離データDを読み込み、この距離データDに基づき、監視領域内における対象物Oの認識を行う。そして、この認識された対象物Oは、監視部15に出力される。なお、本明細書では、後述する踏切領域Aaとの混同を避けるため、この踏切領域Aを「第1の踏切領域A」と称する。同様に、距離データDaとの混同を避けるため、距離データDを「第1の距離データD」と称する。
【0029】
ここで、第1の対象物認識ユニット1と第2の対象物認識ユニット1aとの位置的な関係について説明する。第1の対象物認識ユニット1側のステレオカメラ2および第2の対象物認識ユニット1a側のステレオカメラ2aは、鉄道レールを基準として、同じ側に設けられる。具体的には、一方のステレオカメラ2aは、他方のステレオカメラ2の近傍に配置されていることが好ましく、図4に示すように、これらが一カ所にまとめて配置されていることがより好ましい。ただし、本発明において、それぞれのステレオカメラ2,2aは、鉄道レールを基準として、同じ側に設けられていればよく、上述した配置に限定されない。しかしながら、本実施形態に示すように、これらを一カ所にまとめて配置することで、設置工事の小規模化を図るうえで好ましい。同図において、一方のステレオカメラ2aは、他方のステレオカメラ2とその中央位置(カメラ基線長上の中点)が一致し、かつ、上方向にΔyだけ離間している。また、一方のステレオカメラ2aは、他方のステレオカメラ2に対して、その視軸が角度θだけ左側に傾けて配置されている。このような取付状態において、それぞれのステレオカメラ2,2aは、監視領域内の一部の景色のみを撮像するが、両者が互いに協働することにより、監視領域の全ての景色が網羅される。それ故に、ステレオカメラ2,2aは、広範囲な監視領域であっても、それぞれの画角を広げる必要がないので、画像の歪みの発生を抑え、かつ、高い分解能を維持したまま監視領域を撮像することができる。
【0030】
また、第2の対象物認識ユニット1a側のマイクロコンピュータ11aにおいて、特定部12aは、画像データメモリ9aから画像データPaを読み込み、この画像データPaにより規定される画像平面において、鉄道レールを特定する。そして、設定部13aは、この特定された鉄道レールに基づき、監視領域内に、踏切領域Aa(以下、「第2の踏切領域Aa」と称する)を設定するとともに、この第2の踏切領域Aaを監視部15に出力する。一方、対象物認識部14aは、距離データDa(以下、「第2の距離データDa」と称する)を読み込み、この読み込まれた第2の距離データDaに基づき、監視領域内における対象物Oaの認識を行うとともに、この認識された対象物Oaを監視部15に出力する。
【0031】
ここで、第1の対象物認識ユニット1側のマイクロコンピュータ11は、第1の距離データDに基づき、周知の座標変換式によって実空間上の位置を特定するための、第1の三次元座標系を規定している。この第1の三次元座標系は、ステレオカメラ2の位置を基準とし、このステレオカメラ2の中央真下(地面)を原点とし、天頂方向をy1軸、このy1軸に垂直な平面を規定する直交座標系をx1軸、z1軸とする。このとき、このz1軸は、カメラ3,4の視線方向と一致する。また、第2の対象物認識ユニット1a側のマイクロコンピュータ11aは、第1の距離データDに基づき、周知の座標変換式によって実空間上の位置を特定するための、第2の三次元座標系を規定している。この第2の三次元座標系は、ステレオカメラ2aの位置を基準とし、このステレオカメラ2aの中央真下(地面)を原点とし、天頂方向をy2軸、このy2軸に垂直な平面を規定する直交座標系をx2軸、z2軸とする。このとき、このz2軸は、カメラ3a,4aの視線方向と一致する。
【0032】
再び図1を参照して、監視部15は、第1の対象物認識ユニット1側の対象物認識部14によって認識される対象物Oと、第2の対象物認識ユニット1a側の対象物認識部14aによって認識される対象物Oaとの情報を統合する。そして、踏切内に存在する対象物が監視される。このとき、監視部15は、各々独立した三次元座標系で認識される対象物Oと対象物Oaとの情報を統合するため、これらの第1および第2の三次元座標系のうち少なくとも一方とは異なる第3の三次元座標系を規定する。換言すれば、一方の対象物認識部14によって認識された対象物の座標位置が第1の三次元座標系から第3の三次元座標系に座標変換されるとともに、他方の対象物認識部14aによって認識された対象物の座標位置が第2の三次元座標系から第3の三次元座標系に座標変換される。ここで、この第3の三次元座標系に座標変換されたそれぞれの対象物O,Oaを対象物Ooと称する。そして、この第3の三次元座標系に基づき、第1の踏切領域Aと第2の踏切領域Aaとを含む第3の踏切領域が設定され、対象物Ooがこの第3の踏切領域に存在する場合には、この対象物Ooが監視される。
【0033】
図5は、踏切領域の設定手順を示したフローチャートである。本ルーチンは、所定間隔で呼び出され、マイクロコンピュータ11,11aのそれぞれにより実行される。以下、重複説明を避けるため、特に断らない限り、第1の対象物認識ユニット1側のマイクロコンピュータ11における、第1の踏切領域Aの設定手順を説明する。
【0034】
まず、ステップ1において、特定部12は、1フレーム相当の画像データPを読み込み、この画像データPによって規定される画像平面上に存在する直線要素を抽出する。これにより、鉄道レール、道路および地平線を構成するすべての直線要素が抽出される。そして、図6に示すように、抽出した直線要素の中から任意の組み合わせで、鉄道レールの候補となる一対の二次元直線L1,L2が特定される。特定された一対の二次元直線L1,L2は、その傾き(Δj/Δi,Δ:増加量)とj切片(直線でのi=0に対応するj座標値)などのパラメータによりそれぞれ規定される。
【0035】
ここで、直線要素の抽出手法とは、周知の直線抽出手法、たとえば画像の微分・二値化処理、Hough変換(ハフ変換)、テンプレートマッチングなどの手法が挙げられる。一例としてのハフ変換は、「直線は原点からの距離(ρ)とX軸から見た傾き(θ)をパラメータとすることにより一意に決定できる。」という論理に基づくものであり、画像空間から、ρ,θを軸とするハフ空間(パラメータ空間)への変換である。このハフ変換は、基準画像を微分・二値化したあとに「1」の値を持つ画素に対し、その点(x,y)を通るすべての直線を示すハフ空間上のすべての座標点、すなわち、以下の数式2に示す曲線上のすべての点への投票処理で定義される。
【数2】
ρ=xcosθ+ysinθ
【0036】
特定部12は、まず画像を順次ラスター走査し、ハフ変換の対象画素であるかどうか、すなわち、走査中の画素が「1」の値を持つかどうか判定する。判定の結果、対象画素であると判定された画素について、投票処理が実行される。投票処理の過程では、θを0からπまで変化させながら、それぞれのθに対するρが数式2から求められ,ハフ空間(θ−ρ空間)における該当座標のメモリが順次+1されていく。以上の処理が全画素について行われ、この後、投票数が所定のしきい値よりも大きくなったハフ空間上の点が全て抽出され、これらの点のθ−ρ値が直線パラメータとして出力される。そして、特定部12は、ハフ変換を終了する。
【0037】
ステップ2において、特定部12は、鉄道レールの候補として特定された一対の二次元直線L1,L2の実空間上における間隔を算出する。図7は、図5に示すステップ2における間隔算出処理の詳細な手順を示すフローチャートである。まず、ステップ20において、一対に二次元直線L1,L2に対応する実空間上での一対の三次元直線L1’,L2’が算出される。これらを算出するために、まず、一方の二次元直線L1における画像上での任意の2点p1(i1,j1),p2(i2,j2)を特定し、これら2点p1,p2に対応する実空間上(第1の三次元座標系)での位置P1(xp1,yp1,zp1),P2(xp2,yp2,zp2)を特定する。そして、特定された2点P1,P2を通るような直線が三次元直線L1’として算出される。ここで、二次元直線L1における画像上の任意の2点としては、例えば、二次元直線L1を三等分するような点が挙げられる。また、実空間上のそれぞれの位置P1,P2は、周知の座標変換式を用いて、画像上のp1,p2の座標位置と、これに対応する距離Dデータとにより一義的に特定される。そして、これと同様の手法により、他方の二次元直線L2についても三次元直線L2’が特定される。
【0038】
ステップ21において、一対の三次元直線L1’,L2’の平行度、すなわち、三次元直線L1’と三次元直線L2’との平行の度合いが算出される。三次元直線L1’,L2’の平行度は、三次元直線L1’,L2’それぞれの方向ベクトルのなす角θにより評価される。
【0039】
ステップ22において、方向ベクトルのなす角θと所定の判定値θ0とを比較することにより、その三次元直線L1’,L2’が平行であるか否かが判断される。本実施形態では、算出されたθの値が判定値θ0よりも小さい場合に、これらの三次元直線L1’,L2’が平行であると判断される。このステップ22で肯定判定された場合、すなわち、平行であると判断された場合には、ステップ23に進み、三次元直線L1’,L2’の間隔Dが算出される。これらの三次元直線L1’,L2’は既に特定されており、周知の幾何学的手法により、間隔Dは特定される。一方、このステップで否定判定された場合、すなわち、平行でないと判断された場合、ステップ24に進み、三次元直線L1’,L2’の間隔は、「算出不能」として出力される。
【0040】
そして、ステップ2に続くステップ3において、特定部12は、この間隔Dと鉄道レールの実際の間隔に相当する判定値D0(例えば、狭軌なら1067(mm)、標準軌なら1435(mm))とを比較することにより、これら二次元二直線L1,L2が鉄道レールであるか否かを判断する。本実施形態では、例えば、DとD0との差δ(δ=|D−D0|)の値が許容範囲内である場合に、二次元直線L1,L2が鉄道レールであると判断される(例えば、δ<10(mm)なら鉄道レールである)。なお、ステップ24の処理において、間隔Dが「算出不能」として出力されている場合には、特定部12は、自動的に、このときの直線L1,L2を鉄道レールではないと判断する。
【0041】
ステップ3において、肯定判定された場合、特定部12は、二次元直線L1,L2を鉄道レールと判断し、それぞれの二次元直線L1,L2を鉄道レールとして認識する(ステップ4)。そして、画像平面において、これらの二次元直線L1,L2を規定するパラメータ(例えば、傾きとj切片、或いは、画像上の直線L1,L2端部の座標位置など)によって、鉄道レールがそれぞれ規定される。
【0042】
一方、ステップ3において、否定判定された場合、特定部12は、これらの二次元直線L1,L2が鉄道レールではないと判断し、ステップ1に戻り、異なる組み合わせの二次元直線L1,L2を新たに特定する。そして、ステップ3において、肯定判定されるまで、抽出された直線要素の組み合わせに相当する所定回数、上述したステップ1〜3の処理が繰り返し実行される。なお、この処理を所定回数繰り返し実行しても、鉄道レールと判断される二直線L1,L2が存在しない場合には、特定部12は、認識不能として、この画像を不適と判断するともに、次の処理対象のフレームに移ることが好ましい。
【0043】
なお、ステップ4で鉄道レールが認識された後に、特定部12は、処理対象としている画像データPにおいて、残りの直線要素について、上述のルーチンを複数回繰り返して実行させてもよい。これにより、図4に示すように、認識すべき鉄道レールが複線(あるいは、複線以上)であっても、この特定部12は、これらの鉄道レールを見落としなく、かつ、混同することなく認識することができる。
【0044】
そして、ステップ5において、設定部13は、この特定された鉄道レールに基づき、第1の踏切領域Aを設定する。以下、例示的な踏切領域の設定手順について説明する。まず、画像データメモリ9から、画像データPが読み込まれる。そして、この読み込まれた画像データPにより規定される画像平面において、認識された鉄道レールが特定される。そして、鉄道レールに対応する実空間上での一対の三次元直線を求めることにより、この鉄道レールの実空間上(第1の三次元座標系)の位置が特定される。そして、図8に示すように、まず、この鉄道レールと同一な平面上において、鉄道レールの軌道外側にそれぞれ幅Wを加え、かつ、鉄道レール延在方向に距離Lを考慮した、平面領域(図中、破線でハッチングされた領域)が設定される。そして、この平面領域に、通行する車両の車高や通行人の身長などを考慮した高さ方向(図示せず)を加味することで、三次元空間としての第1の踏切領域Aが設定される。
【0045】
ここで、上述した設定手順において、「鉄道レールと同一な平面」は、一対の三次元直線の共通平面として一義的に特定可能である。また、「平面領域」は、まず、一対の三次元直線と同一平面上において、これら一対の三次元直線を基準とし、それらの直交方向に任意の幅Wをそれぞれ加算する。そして、この三次元直線の延在方向に、踏切の長さを十分カバーするように決定された距離Lを、踏切が存在するであろう位置を基準として設定することで、この平面領域が特定される。なお、監視領域内において、複数の鉄道レールが存在している場合、設定部13は、最も外側のレール対にのみ注目して、それらの内側にあるエリアをすべて第1の踏切領域Aとして設定することが好ましい。これにより、踏切全域をカバーするように第1の踏切領域Aが設定される。
【0046】
本実施形態において、第1の対象物認識ユニット1側の設定部13は、図9に示すように、認識された複数の鉄道レール(複線)に基づき、上述した手順にそって第1の踏切領域Aを設定する(高さ方向は図示せず)。ただし、実際には、ステレオカメラ2の画角範囲に応じて、認識可能な領域が狭められるため、この平面領域は、実質的には略台形形状となっている。そして、この平面領域に高さ方向を加味することで、第1の踏切領域Aが設定される。設定部13は、この空間を規定するパラメータ(この第1の踏切領域Aを画定する代表的な座標位置など)により、この第1の踏切領域Aを規定する。また、同様に、第2の対象物認識ユニット1a側の設定部13aも、図9に示すように、認識された複線の鉄道レールに基づき、第2の踏切領域Aaを設定する(高さ方向は図示せず)。
【0047】
一方、対象物認識部14(第1の対象物認識ユニット1側)は、距離データメモリ10から第1の距離データDを読み出し、この第1の距離データDに基づき、対象物Oの認識を行う。例えば、対象物認識部14は、第1の距離データDを格子状に所定の間隔で区分し、区分毎に対象物Oのデータを抽出してヒストグラムを作成する。そして、このヒストグラムから各区分を代表する対象物Oの存在位置と、その距離とが求められる。区分毎の距離が画像の左から右へ順次比較されて、前後方向および横方向の距離が接近しているものがグループとしてまとめられる。各グループについてデータの並び方向がチェックされ、この並び方向が大きく変化する部分でグループが分割されるともに、第1の距離データDの並び方向から個々のグループが対象物Oとして認識される。そして、グループを規定するパラメータ(平均距離、および、(左右)端部の位置など)により、対象物Oが特定される。また、同様に、対象物認識部14a(第2の対象物認識ユニット1a側)によって、対象物Oaが認識される。
【0048】
図10は、踏切領域の監視手順を示したフローチャートである。ステップ1において、監視部15は、第1の踏切領域Aおよび第2の踏切領域Aaをそれぞれ取得し、これを第3の三次元座標系に座標変換し、第3の踏切領域を設定する。監視部15は、例えば、第3の三次元座標系を、ステレオカメラ2,2aの中央真下を原点として定義する。そして、天頂方向をy3軸とし、このy3軸に垂直な平面を規定する直交座標系を、x3軸およびz3軸とする。ここで、x3軸は、x1軸とx2軸との2等分方向と一致し、z3軸は、z1軸とz2軸との2等分方向と一致する。この第3の三次元座標系において、監視部15は、以下に示す数式3に基づき第1の踏切領域Aを第3の三次元座標系に座標変換し、数式4に基づき第2の踏切領域Aaを第3の三次元座標系に座標変換する。
【数3】
x3 = x1cos(−θ/2)−z1sin(−θ/2)
y3 = y1
z3 = x1sin(−θ/2)+z1cos(−θ/2)
【0049】
【数4】
x3 = x2cos(θ/2)−z2sin(θ/2)
y3 = y2
z3 = x2sin(θ/2)+z2cos(θ/2)
【0050】
そして、この第3の三次元座標系において、第1の踏切領域Aと第2の踏切領域Aaとを含む領域が、第3の踏切領域(破線で示す矩形領域)として設定される。
【0051】
つぎに、ステップ2において、監視部15は、対象物認識部14,14aのどちらか一方から対象物Oまたは対象物Oaが出力されたか否かを判断する。このステップ2において、肯定判定された場合、監視部15は、これを取得する。監視部15は、これらの対象物認識部14,14aのどちらからデータを取得したか把握しており、これに基づき、取得した対象物を数式3、または、数式4により、第3の三次元座標系に座標変換する(ステップ3)。この処理を行うことで、監視部15は、対象物認識部14,14aによって認識される対象物O,Oaの情報を統合し、踏切内に存在する対象物Ooの位置を理解することができる。一方、このステップ2で、否定判定されて場合、監視部15は、監視領域内に対象物が存在しないと判断し、このルーチンを抜ける。
【0052】
ステップ3に続くステップ4において、監視部15は、この認識された対象物Ooが第3の踏切領域内に存在するか否かを判断する。このステップで肯定判定された場合、ステップ5において、監視部15は、監視すべき第3の踏切領域内に対象物Ooが存在すると判断し、警報が必要と判定された場合、モニタやスピーカー等の警報装置により、通行人等に注意を促す。また、監視部15は、鉄道レール上を走行する鉄道車両に注意を促したり、或いは、制御(停止や減速)したりしてもよい。一方、このステップで否定判定された場合、監視部15は、第3の踏切領域内に対象物Ooが存在しないと判断し、このルーチンを抜ける。
【0053】
以上説明したように、本実施形態では、ステレオカメラを2台使用しても、一箇所にまとめて設定しているので、工事作業の大規模化の低減を図り、また、保守作業の負担を軽減することができる。また、鉄道レールの位置を画像から検出し、この検出された鉄道レールを基準にして監視領域を自動的に設定するので、監視エリアの設定・入力の手間を省くことができる。また、装置の位置ずれなどが生じた場合であっても、監視エリアは鉄道レールに基づき決定されているので、監視エリアは常に適正に維持され、踏切監視装置の信頼性の向上に寄与する。
【0054】
なお、本実施形態では、ステレオカメラは2台、すなわち、対象物認識ユニットは2つ設けられたが、それ以上の対象物認識ユニットからなる踏切監視装置であっても、同様の効果を奏する。
【0055】
なお、この監視部15は、第3の踏切領域を通る通行者や車両を監視するだけでなく、この設定された第3の踏切領域に基づき、ステレオカメラ2,2aの撮影領域の調整を行うこともできる。例えば、監視部15は、鉄道レールより特定された第3の踏切領域に基づき、この第3の踏切領域がステレオカメラの撮像領域の中央に位置するように、ステレオカメラ2,2aの向きを変えるなどである。これにより、保守作業の負担のより一層軽減することができる。
【0056】
また、本実施形態において、マイクロコンピュータ11,11aは、それぞれが独立した三次元座標系を考慮して、監視部15においてこれを統合して処理をおこなっている。しかしながら、マイクロコンピュータ11,11aは、予め両者共通の三次元座標系を考慮して、それぞれの処理を実行してもよい。この場合、監視部15は、取得した対象物を座標変換することなく、その対象物に関する情報を統合することができるので好ましい。
【0057】
また、踏切領域の設定手法としては、画像平面において、認識された鉄道レール端部に所定のマージンを加味した平面を特定し、この平面を実空間上に展開し、これに高さ方向を加えることにより、踏切領域を設定してもよい。
【0058】
さらに、本実施形態において、ステレオカメラ2,2aの配置は、例示的であり、鉄道レールを境に同じ側に設けられて、それぞれのカメラが協働することにより、監視領域を含む全ての景色が撮像できればよい。また、これにともない、監視部15によって設定される第3の三次元座標系の設定位置も、上述した記載に限定されるものではない。
【0059】
【発明の効果】
このように、本発明では、撮像画像において、これに距離データを考慮することで、鉄道レールを正確に認識することができるので、認識された鉄道レールに基づき、踏切領域を設定することができる。これにより、踏切領域は、踏切上に適正に維持されるので、監視精度における信頼性の向上を図ることができる。
【図面の簡単な説明】
【図1】本実施形態にかかる踏切監視装置のブロック構成図
【図2】1フレームの画像を示す説明図
【図3】基準画像に設定される画素ブロックの説明図
【図4】ステレオカメラの位置を示す説明図
【図5】踏切領域の設定手順を示すフローチャート
【図6】鉄道レールを認識過程を説明するための画面を示す図
【図7】図5に示すステップ2における間隔算出処理の詳細な手順を示すフローチャート
【図8】踏切領域を示す説明図
【図9】踏切領域の別な例を示す説明図
【図10】踏切領域の監視手順を示したフローチャート
【符号の説明】
1,1a 対象物認識ユニット
2,2a ステレオカメラ
3,3a メインカメラ
4,4a サブカメラ
5,5a A/Dコンバータ
6,6a A/Dコンバータ
7,7a 画像補正部
8,8a ステレオ画像処理部
9,9a 画像データメモリ
10,10a 距離データメモリ
11,11a マイクロコンピュータ
12,12a 特定部
13,13a 設定部
14,14a 対象物認識部
15 監視部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a railroad crossing monitoring apparatus and a railroad crossing monitoring method for monitoring a situation in a railroad railroad crossing.
[0002]
[Prior art]
In recent years, monitoring devices that monitor the situation in a predetermined monitoring area have attracted attention and practical application. This monitoring device is mounted on a moving body such as a vehicle or an aircraft, or is fixed to a stationary body such as a support. With regard to the railroad crossing monitoring apparatus as an example of the latter, conventionally, a monorail camera is used to image railroad crossings including railroad rails (hereinafter referred to as “railroad rails”), and the position of the railroad rails in the captured image plane is specified. Then, with reference to a preset level crossing area, it is monitored whether or not an obstacle such as an automobile or a person has entered the level crossing area. For example, Japanese Patent Application Laid-Open No. 10-341427 discloses a monitoring device in which two monocular cameras are installed diagonally across a railroad crossing through a railroad rail, and the entire range of the crossing is monitored over a wide range.
[0003]
[Problems to be solved by the invention]
Such a crossing monitoring device classifies an object to be monitored or not to be monitored depending on whether or not the object projected in the monitoring area has entered the crossing area. Therefore, as a premise for performing such classification, it is necessary to specify a crossing area in real space. However, conventionally, this must be initialized manually, and it is complicated to perform this operation every time the apparatus is installed. In addition, when the level crossing area is initially set by such manual work, the initially set level crossing area and the actual level crossing do not correspond in position due to misalignment caused by changes in the camera over time. It becomes impossible to perform effective monitoring. On the other hand, it is conceivable to recognize a railroad rail from the image plane and set a monitoring area therefrom, but it is difficult to accurately recognize the railroad rail with a monitoring device using only a monocular camera.
[0004]
In this prior art, since information from two monocular cameras is integrated and processed, it is necessary to share the information of the two cameras. However, the two cameras arranged diagonally are electrically connected. In order to establish a connection, it is necessary to straddle at least railway rails. Installation of such a monitoring device on existing railroad rails causes problems such as an increase in construction scale and a large economic burden as well as a burden on maintenance work. .
[0005]
The present invention has been made in view of such circumstances, and an object thereof is to provide a crossing monitoring device and a crossing monitoring method for setting a crossing area in a monitoring area by effectively recognizing a railroad rail in an image plane. It is to be.
[0006]
Another object of the present invention is to provide a crossing monitoring device and a crossing monitoring method that reduce the complexity of installation work and maintenance work, and monitor a wide range with a plurality of cameras.
[0007]
[Means for Solving the Problems]
  In order to solve this problem, a first invention is a crossing monitoring device that monitors a situation in a railroad crossing, and includes a stereo camera, a stereo image processing unit, a specifying unit, and a setting unit. Providing equipment. In such a crossing monitoring device,The stereo camera captures a scene including the monitoring area and outputs a pair of image data. The stereo image processing unit calculates parallax by stereo matching based on a pair of image data, and a parallax group related to image data corresponding to one frame corresponds to a coordinate position on an image plane defined by the image data. The attached distance data is output. The specifying unit specifies a railroad rail on an image plane defined by the image data. The setting unit sets a railroad crossing area for classifying an object projected in the monitoring area into one that should be monitored and one that does not need to be monitored, based on the identified railroad rail. Here, the specifying unit extracts a pair of two-dimensional straight lines that are candidates for railroad rails on the image plane, and calculates a three-dimensional straight line in real space corresponding to each of the two-dimensional straight lines based on the distance data. Then, it is determined whether or not the pair of three-dimensional straight lines are parallel. In addition, when the specific unit determines that the pair of three-dimensional straight lines are parallel, the specific unit calculates a distance between the pair of three-dimensional straight lines, and a determination corresponding to the calculated distance and the actual distance between the rails. By comparing the values, it is determined whether or not the pair of two-dimensional straight lines that are candidates for the rail is a rail.
[0008]
Here, in the first invention, it is preferable to further include an object recognition unit and a monitoring unit in addition to the above-described configuration. The object recognition unit recognizes the object in the monitoring area based on the distance data. The monitoring unit determines whether or not the recognized object exists in the crossing area, and monitors the recognized object when determining that the object exists in the crossing area.
[0014]
  According to a second aspect of the invention, image data obtained by capturing a landscape including a monitoring area with a stereo camera, and coordinates on an image plane that are output from a stereo image processing unit and defined by a parallax group and image data related to image data corresponding to one frame There is provided a railroad crossing monitoring method for monitoring a situation in a railroad railroad crossing based on distance data associated with a position. In this monitoring method, in the image plane defined by the image data output from the stereo camera, the specifying unit extracts a pair of two-dimensional straight lines that are candidates for the rail, and the specifying unit is a stereo image processing unit. A step of calculating a three-dimensional straight line in real space corresponding to each of the two-dimensional straight lines based on the distance data output from the step, and a step of determining whether or not the pair of three-dimensional straight lines are parallel by the specifying unit And when the specific unit determines that the pair of three-dimensional straight lines are parallel, the step of calculating the distance between the pair of three-dimensional straight lines, A pair of two-dimensional lines is determined by the step of determining whether the pair of two-dimensional straight lines that are candidates for the railroad rail is a railroad rail by comparing with a determination value corresponding to the interval of When it is determined that the line is a railroad rail, the setting unit determines whether the object projected in the monitoring area is to be monitored or not to be monitored based on the pair of two-dimensional straight lines. And setting a crossing area for classification.
[0015]
  Here, in the second invention, the object recognizing unit recognizes the object in the monitoring area based on the distance data, and the monitoring unit determines whether the recognized object exists in the crossing area. And a step of monitoring the recognized target object when the monitoring unit determines that the target object is present in the cut area.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block configuration diagram of a railroad crossing monitoring apparatus according to the present embodiment. This level crossing monitoring apparatus includes a first object recognition unit 1, a second object recognition unit 1a, and a monitoring unit 15, and an object entering the level crossing area projected in the monitoring area (passage) Monitor cars, passers-by, or obstacles). The first object recognition unit 1 recognizes a railroad rail necessary for setting a railroad crossing region and recognizes an object to be monitored using the captured image. Similarly to the first object recognition unit 1, the second object recognition unit 1a also recognizes the railway rail and the object using the captured image. In these object recognition units 1 and 1a, the constituent elements (2a to 14a) in which alphabets are added to the numbers are the constituent elements (2 to 14) of the reference numerals of the numerals without alphabets in the corresponding numerals. 14). Hereinafter, in the specification, only the first object recognition unit 1 will be described, but the same applies to the second object recognition unit 1a unless otherwise specified. That is, the second object recognition unit 1a can be understood by replacing the reference numerals of the first object recognition unit 1 described below with reference numerals with alphabets.
[0021]
In the first object recognition unit 1, the stereo camera 2 is fixed to a post or the like in the vicinity of the level crossing, and as shown in FIG. 2, the crossing including the monitoring area, that is, the railroad rail, is imaged obliquely from above. . As shown in FIG. 2, in addition to the railway rail that is the object to be detected, a straight road, a horizon, and the like are also projected on the image plane, and thus there are many linear elements.
[0022]
The stereo camera 2 has a pair of cameras 3 and 4 arranged at a predetermined interval (camera base line length). Each camera 3 and 4 includes an image sensor such as a CCD or a CMOS sensor. Yes. The main camera 3 captures a reference image (right image) necessary for performing stereo image processing, and the sub camera 4 captures a comparison image (left image). In a state where each other is synchronized, each analog image output from the cameras 3 and 4 is converted into a digital image of a predetermined luminance gradation (for example, 256 gradation gray scale) by the A / D converters 5 and 6. Is converted to The digitized image is subjected to brightness correction, image geometric conversion, and the like in the image correction unit 7. Usually, there is an error in the mounting positions of the pair of cameras 3 and 4 to some extent, but there is a shift in the left and right images due to the error. In order to correct this deviation, geometrical transformation such as image rotation or translation is performed using affine transformation or the like.
[0023]
Through such image processing, reference image data is obtained from the main camera 3, and comparison image data is obtained from the sub camera 4. These image data are a set of luminance values (0 to 255) of each pixel included in the individually set effective image area. In the ij coordinate system on the image plane defined by the image data, the lower left corner of the image is the origin, the horizontal direction is the i coordinate axis, and the vertical direction is the j coordinate axis. Both image data corresponding to one frame, which is the minimum display unit of one image, are stored in the image data memory 9 as needed.
[0024]
The stereo image processing unit 8 calculates distance data for a captured image corresponding to one frame based on the reference image data and the comparison image data. Here, “distance data” is a set of parallax d calculated from a captured image corresponding to one frame, and each parallax d is associated with a position (i, j) on the image plane. Each parallax d is calculated for each pixel block of a predetermined area (for example, 4 × 4 pixels) constituting the reference image. FIG. 3 is an explanatory diagram of pixel blocks set in the reference image. A reference image area of pixels is divided into a matrix by a pixel block PBij of 4 × 4 pixels. A parallax group corresponding to the number of pixel blocks PBij is calculated from the captured image corresponding to one frame. As is well known, the parallax d is a horizontal shift amount related to the pixel block PBij that is the calculation target, and has a large correlation with the distance to the target object projected on the pixel block PBij. In other words, the closer the object projected in the pixel block PBij is to the cameras 3 and 4, the larger the parallax d of the pixel block PBij is, and the farther the object is, the smaller the parallax d is (if the object is infinitely far away, the parallax d becomes 0).
[0025]
When calculating the parallax d regarding a certain pixel block PBij (correlation source), a region (correlation destination) having a correlation with the luminance characteristic of the pixel block PBij is specified in the comparison image. As described above, the distance from the cameras 3 and 4 to the object appears as a horizontal shift amount between the reference image and the comparison image. Therefore, when searching for the correlation destination in the comparison image, it is only necessary to search on the same horizontal line (epipolar line) as the j coordinate of the pixel block Pij as the correlation source. The stereo image processing unit 8 shifts the correlation between the correlation source and the correlation destination candidate while shifting the epipolar line one pixel at a time within a predetermined search range set based on the i coordinate of the correlation source. Sequential evaluation (stereo matching). In principle, the amount of horizontal deviation of the correlation destination (one of the correlation destination candidates) determined to have the highest correlation is defined as the parallax d of the pixel block PBij.
[0026]
The correlation between two pixel blocks can be evaluated, for example, by calculating a city block distance CB. Formula 1 shows the basic form of the city block distance CB. In the equation, p1ij is the luminance value of the ijth pixel of one pixel block, and p2ij is the ijth luminance value of the other pixel block. The city block distance CB is the sum of the difference (absolute value) between the luminance values p1ij and p2ij corresponding to each other in the entire pixel block, and the smaller the difference is, the greater the correlation between the two pixel blocks is. Yes.
[Expression 1]
CB = Σ | p1ij−p2ij |
[0027]
Basically, among the city block distances CB calculated for each pixel block existing on the epipolar line, the pixel block having the smallest value is determined as the correlation destination. The amount of deviation between the correlation destination specified in this way and the correlation source is the parallax d. The hardware configuration of the stereo image processing unit 8 for calculating the city block distance CB is disclosed in Japanese Patent Laid-Open No. 5-1114099, and should be referred to if necessary. The distance data calculated through such processing is stored in the distance data memory 10 as needed.
[0028]
The microcomputer 11 includes a CPU, a ROM, a RAM, an input / output interface, and the like. When the microcomputer 11 is functionally grasped, the microcomputer 11 includes a specifying unit 12, a setting unit 13, and an object recognition unit 14. The specifying unit 12 reads reference image data (hereinafter simply referred to as “image data”) P from the image data memory 9, and specifies a railroad rail on an image plane defined by the image data P. Then, the specified railroad rail is output to the setting unit 13. The setting unit 13 sets a railroad crossing area A in the monitoring area based on the identified railroad rail. Here, the “crossing area” means an area set to classify an object projected in the monitoring area into one that should be monitored and one that does not need to be monitored. Identified. In the present embodiment, the level crossing area A is uniquely set by the setting unit 13 and output to the monitoring unit 15. On the other hand, the object recognition unit 14 reads the distance data D and recognizes the object O in the monitoring area based on the distance data D. The recognized object O is output to the monitoring unit 15. In this specification, in order to avoid confusion with a level crossing area Aa, which will be described later, this level crossing area A is referred to as a “first level crossing area A”. Similarly, in order to avoid confusion with the distance data Da, the distance data D is referred to as “first distance data D”.
[0029]
Here, the positional relationship between the first object recognition unit 1 and the second object recognition unit 1a will be described. The stereo camera 2 on the first object recognition unit 1 side and the stereo camera 2a on the second object recognition unit 1a side are provided on the same side with the railroad rail as a reference. Specifically, one stereo camera 2a is preferably arranged in the vicinity of the other stereo camera 2, and as shown in FIG. 4, it is more preferable that these are arranged together in one place. . However, in this invention, each stereo camera 2 and 2a should just be provided in the same side on the basis of a railroad rail, and is not limited to the arrangement | positioning mentioned above. However, as shown in the present embodiment, it is preferable to arrange these in one place in order to reduce the size of the installation work. In the figure, one stereo camera 2a is coincident with the other stereo camera 2 in the center position (the middle point on the camera base line length) and is spaced upward by Δy. In addition, one stereo camera 2a is arranged such that its visual axis is inclined to the left side by an angle θ with respect to the other stereo camera 2. In such an attached state, each of the stereo cameras 2 and 2a captures only a part of the scenery in the monitoring area. However, by cooperating with each other, all the scenery in the monitoring area is covered. Therefore, the stereo cameras 2 and 2a do not need to widen the angle of view of each of the wide monitoring areas, so that the image is monitored while suppressing the occurrence of image distortion and maintaining high resolution. can do.
[0030]
In the microcomputer 11a on the second object recognition unit 1a side, the specifying unit 12a reads the image data Pa from the image data memory 9a, and specifies the railroad rail on the image plane defined by the image data Pa. . Then, the setting unit 13a sets a railroad crossing area Aa (hereinafter referred to as “second railroad crossing area Aa”) in the monitoring area based on the identified railroad rail, and the second railroad crossing area Aa. Is output to the monitoring unit 15. On the other hand, the object recognition unit 14a reads the distance data Da (hereinafter referred to as “second distance data Da”), and based on the read second distance data Da, the object recognition unit Oa in the monitoring area. In addition to performing recognition, the recognized object Oa is output to the monitoring unit 15.
[0031]
Here, the microcomputer 11 on the first object recognition unit 1 side uses the first distance data D to specify the first three-dimensional coordinates for specifying the position in the real space by a known coordinate conversion formula. The system is defined. The first three-dimensional coordinate system uses the position of the stereo camera 2 as a reference, the origin is directly below the center of the stereo camera 2 (the ground), the zenith direction is the y1 axis, and the orthogonality defines a plane perpendicular to the y1 axis. Let the coordinate system be the x1 axis and the z1 axis. At this time, the z1 axis coincides with the viewing direction of the cameras 3 and 4. Further, the microcomputer 11a on the second object recognition unit 1a side uses a second three-dimensional coordinate system for specifying a position in the real space by a known coordinate conversion formula based on the first distance data D. Is stipulated. This second three-dimensional coordinate system is based on the position of the stereo camera 2a, with the origin directly below the center of the stereo camera 2a (the ground), the zenith direction as the y2 axis, and an orthogonality defining a plane perpendicular to the y2 axis. Let the coordinate system be the x2 axis and the z2 axis. At this time, the z2 axis coincides with the viewing direction of the cameras 3a and 4a.
[0032]
Referring to FIG. 1 again, the monitoring unit 15 recognizes the object O recognized by the object recognition unit 14 on the first object recognition unit 1 side and the object recognition on the second object recognition unit 1a side. Information with the object Oa recognized by the unit 14a is integrated. And the object which exists in a level crossing is monitored. At this time, since the monitoring unit 15 integrates information on the object O and the object Oa recognized in the independent three-dimensional coordinate system, at least one of the first and second three-dimensional coordinate systems is used. A third three-dimensional coordinate system different from is defined. In other words, the coordinate position of the object recognized by one object recognition unit 14 is coordinate-transformed from the first three-dimensional coordinate system to the third three-dimensional coordinate system, and the other object recognition unit 14a. The coordinate position of the object recognized by is coordinate-transformed from the second three-dimensional coordinate system to the third three-dimensional coordinate system. Here, each of the objects O and Oa coordinate-converted into the third three-dimensional coordinate system is referred to as an object Oo. Then, based on the third three-dimensional coordinate system, a third level crossing area including the first level crossing area A and the second level crossing area Aa is set, and the object Oo exists in the third level crossing area. If so, this object Oo is monitored.
[0033]
FIG. 5 is a flowchart showing a procedure for setting a crossing area. This routine is called at predetermined intervals and is executed by each of the microcomputers 11 and 11a. Hereinafter, in order to avoid duplication description, the procedure for setting the first level crossing area A in the microcomputer 11 on the first object recognition unit 1 side will be described unless otherwise specified.
[0034]
First, in step 1, the specifying unit 12 reads the image data P corresponding to one frame, and extracts a linear element existing on the image plane defined by the image data P. Thereby, all the linear elements which comprise a railroad rail, a road, and a horizon are extracted. Then, as shown in FIG. 6, a pair of two-dimensional straight lines L1 and L2 that are candidates for railroad rails are identified by an arbitrary combination from the extracted linear elements. The specified pair of two-dimensional straight lines L1 and L2 are respectively defined by parameters such as slope (Δj / Δi, Δ: increase amount) and j intercept (j coordinate value corresponding to i = 0 on the straight line). .
[0035]
Here, the straight line element extraction method includes a known straight line extraction method, for example, a method such as image differentiation / binarization processing, Hough transform (Hough transform), template matching, and the like. The Hough transform as an example is based on the logic that “a straight line can be uniquely determined by using the distance (ρ) from the origin and the inclination (θ) viewed from the X axis as parameters”. , Ρ, θ conversion into a Hough space (parameter space). This Hough transform is performed on all the coordinate points on the Hough space indicating all straight lines passing through the point (x, y) for pixels having a value of “1” after differentiation and binarization of the reference image, That is, it is defined by the voting process for all points on the curve shown in Equation 2 below.
[Expression 2]
ρ = xcosθ + ysinθ
[0036]
The specifying unit 12 first raster-scans the image sequentially to determine whether or not the pixel is a Hough transform target pixel, that is, whether or not the pixel being scanned has a value of “1”. As a result of the determination, the voting process is executed for the pixel determined to be the target pixel. In the process of voting, while changing θ from 0 to π, ρ for each θ is obtained from Equation 2, and the memory of the corresponding coordinate in the Hough space (θ-ρ space) is sequentially incremented by one. The above processing is performed for all the pixels, and thereafter, all points on the Hough space where the number of votes is greater than a predetermined threshold are extracted, and the θ-ρ values of these points are output as linear parameters. The Then, the specifying unit 12 ends the Hough conversion.
[0037]
In step 2, the specifying unit 12 calculates an interval in the real space between the pair of two-dimensional straight lines L1 and L2 specified as railway rail candidates. FIG. 7 is a flowchart showing a detailed procedure of the interval calculation process in step 2 shown in FIG. First, in step 20, a pair of three-dimensional straight lines L1 'and L2' on the real space corresponding to the pair of two-dimensional straight lines L1 and L2 are calculated. In order to calculate these, first, two arbitrary points p1 (i1, j1) and p2 (i2, j2) on the image in one two-dimensional straight line L1 are specified, and these two points p1 and p2 are associated. The positions P1 (xp1, yp1, zp1) and P2 (xp2, yp2, zp2) in the real space (first three-dimensional coordinate system) are specified. A straight line passing through the two specified points P1 and P2 is calculated as a three-dimensional straight line L1 '. Here, as two arbitrary points on the image in the two-dimensional straight line L1, for example, there are points that divide the two-dimensional straight line L1 into three equal parts. Further, the respective positions P1 and P2 in the real space are uniquely specified by the coordinate positions of p1 and p2 on the image and the distance D data corresponding thereto using a well-known coordinate conversion formula. A three-dimensional straight line L2 'is specified for the other two-dimensional straight line L2 by the same method.
[0038]
In step 21, the parallelism between the pair of three-dimensional straight lines L1 'and L2', that is, the degree of parallelism between the three-dimensional straight line L1 'and the three-dimensional straight line L2' is calculated. The parallelism of the three-dimensional straight lines L1 'and L2' is evaluated by the angle θ formed by the direction vectors of the three-dimensional straight lines L1 'and L2'.
[0039]
In step 22, it is determined whether or not the three-dimensional straight lines L1 'and L2' are parallel by comparing the angle θ formed by the direction vector with a predetermined determination value θ0. In the present embodiment, when the calculated value of θ is smaller than the determination value θ0, it is determined that these three-dimensional straight lines L1 'and L2' are parallel. If an affirmative determination is made in step 22, that is, if it is determined that they are parallel, the process proceeds to step 23, and the interval D between the three-dimensional straight lines L 1 ′ and L 2 ′ is calculated. These three-dimensional straight lines L1 'and L2' have already been specified, and the distance D is specified by a well-known geometric method. On the other hand, if a negative determination is made in this step, that is, if it is determined that they are not parallel, the process proceeds to step 24, and the interval between the three-dimensional straight lines L1 'and L2' is output as "uncalculated".
[0040]
Then, in step 3 following step 2, the specifying unit 12 determines that the interval D and a determination value D0 corresponding to the actual interval of the rail (for example, 1067 (mm) for narrow gauge, 1435 (mm) for standard gauge). Are compared to determine whether these two-dimensional two straight lines L1 and L2 are railway rails. In the present embodiment, for example, if the value of the difference δ (D = | D−D0 |) between D and D0 is within an allowable range, it is determined that the two-dimensional straight lines L1 and L2 are railway rails ( For example, if δ <10 (mm), it is a railroad rail). In the process of step 24, when the interval D is output as “uncalculated”, the specifying unit 12 automatically determines that the straight lines L1 and L2 at this time are not railroad rails.
[0041]
When an affirmative determination is made in step 3, the specifying unit 12 determines that the two-dimensional straight lines L1 and L2 are railroad rails, and recognizes the two-dimensional straight lines L1 and L2 as railroad rails (step 4). In the image plane, the rails are defined by parameters (for example, the inclination and j-intercept or the coordinate positions of the ends of the lines L1 and L2 on the image) that define these two-dimensional straight lines L1 and L2. The
[0042]
On the other hand, when a negative determination is made in step 3, the specifying unit 12 determines that these two-dimensional straight lines L1 and L2 are not railroad rails, and returns to step 1 to newly add different combinations of two-dimensional straight lines L1 and L2. To be specific. Then, in step 3, the processes in steps 1 to 3 described above are repeatedly executed a predetermined number of times corresponding to the combination of the extracted linear elements until an affirmative determination is made. Even if this process is repeated a predetermined number of times, if there are no straight lines L1 and L2 that are determined to be railroad rails, the specifying unit 12 determines that the image is inappropriate and determines that the image is inappropriate. It is preferable to move to the processing target frame.
[0043]
Note that after the rail is recognized in step 4, the specifying unit 12 may repeatedly execute the above-described routine a plurality of times for the remaining linear elements in the image data P to be processed. As a result, as shown in FIG. 4, even if the railway rails to be recognized are double tracks (or more than double tracks), the specifying unit 12 recognizes these rail rails without overlooking and confusing them. be able to.
[0044]
In step 5, the setting unit 13 sets the first level crossing area A based on the identified railroad rail. Hereinafter, an exemplary procedure for setting a crossing area will be described. First, image data P is read from the image data memory 9. Then, the recognized railroad rail is specified on the image plane defined by the read image data P. Then, by obtaining a pair of three-dimensional straight lines in the real space corresponding to the railroad rail, the position of the railroad rail in the real space (first three-dimensional coordinate system) is specified. Then, as shown in FIG. 8, first, on the same plane as this railroad rail, a plane area (in which a width W is added to the outside of the railroad rail and the distance L is considered in the rail rail extending direction) In the figure, a hatched area is set. The first level crossing area A as a three-dimensional space is set by taking into account the height direction (not shown) in consideration of the vehicle height of the passing vehicle and the height of the passer-by in this plane area. The
[0045]
Here, in the setting procedure described above, “the same plane as the railroad rail” can be uniquely specified as a common plane of a pair of three-dimensional straight lines. In addition, the “planar region” first adds an arbitrary width W in the orthogonal direction with reference to the pair of three-dimensional lines on the same plane as the pair of three-dimensional lines. Then, by setting the distance L determined to sufficiently cover the length of the level crossing in the extending direction of the three-dimensional straight line with reference to the position where the level crossing will exist, this plane area is specified. Is done. In addition, when there are a plurality of railway rails in the monitoring area, the setting unit 13 pays attention only to the outermost rail pair and sets all the areas inside them as the first railroad crossing area A. It is preferable to do. Thereby, the first level crossing area A is set so as to cover the entire level crossing.
[0046]
In the present embodiment, as shown in FIG. 9, the setting unit 13 on the first object recognition unit 1 side performs the first railroad crossing according to the above-described procedure based on a plurality of recognized railroad rails (double lines). Region A is set (the height direction is not shown). However, in practice, the recognizable area is narrowed according to the field angle range of the stereo camera 2, and thus the planar area is substantially trapezoidal. And the 1st level crossing area | region A is set by considering a height direction to this plane area | region. The setting unit 13 defines the first level crossing area A based on parameters that define the space (such as a representative coordinate position that defines the first level crossing area A). Similarly, the setting unit 13a on the second object recognition unit 1a side also sets the second level crossing area Aa based on the recognized double-track railway rail (height direction) as shown in FIG. Is not shown).
[0047]
On the other hand, the object recognition unit 14 (the first object recognition unit 1 side) reads the first distance data D from the distance data memory 10 and recognizes the object O based on the first distance data D. Do. For example, the object recognition unit 14 divides the first distance data D in a grid pattern at a predetermined interval, extracts the data of the object O for each division, and creates a histogram. Then, the existence position of the object O representing each section and the distance thereof are obtained from this histogram. The distances for each section are sequentially compared from the left to the right of the image, and those whose distances in the front-rear direction and the horizontal direction are close to each other are collected as a group. The data arrangement direction is checked for each group, and the group is divided at a portion where the arrangement direction greatly changes, and each group is recognized as the object O from the arrangement direction of the first distance data D. Then, the object O is specified by parameters defining the group (average distance, (left and right) end positions, etc.). Similarly, the object recognition unit 14a (second object recognition unit 1a side) recognizes the object Oa.
[0048]
FIG. 10 is a flowchart showing a procedure for monitoring a crossing area. In step 1, the monitoring unit 15 acquires the first level crossing area A and the second level crossing area Aa, converts the coordinates into the third three-dimensional coordinate system, and sets the third level crossing area. For example, the monitoring unit 15 defines the third three-dimensional coordinate system with the origin directly below the center of the stereo cameras 2 and 2a. The zenith direction is the y3 axis, and the orthogonal coordinate system defining a plane perpendicular to the y3 axis is the x3 axis and the z3 axis. Here, the x3 axis coincides with the bisecting direction of the x1 axis and the x2 axis, and the z3 axis coincides with the bisecting direction of the z1 axis and the z2 axis. In the third three-dimensional coordinate system, the monitoring unit 15 performs coordinate conversion of the first level crossing area A into the third three-dimensional coordinate system based on Expression 3 shown below, and the second level crossing area based on Expression 4 Aa is coordinate-transformed into the third three-dimensional coordinate system.
[Equation 3]
x3 = x1cos (-θ / 2) -z1sin (-θ / 2)
y3 = y1
z3 = x1sin (-θ / 2) + z1cos (-θ / 2)
[0049]
[Expression 4]
x3 = x2cos (θ / 2) −z2sin (θ / 2)
y3 = y2
z3 = x2sin (θ / 2) + z2cos (θ / 2)
[0050]
In the third three-dimensional coordinate system, an area including the first level crossing area A and the second level crossing area Aa is set as a third level crossing area (a rectangular area indicated by a broken line).
[0051]
Next, in Step 2, the monitoring unit 15 determines whether or not the object O or the object Oa is output from either one of the object recognition units 14 and 14a. When an affirmative determination is made in step 2, the monitoring unit 15 acquires this. The monitoring unit 15 knows from which of the object recognition units 14 and 14a data is acquired, and based on this, the acquired object is expressed in the third three-dimensional form using Equation 3 or Equation 4. The coordinates are converted into the coordinate system (step 3). By performing this process, the monitoring unit 15 can integrate the information on the objects O and Oa recognized by the object recognition units 14 and 14a and understand the position of the object Oo existing in the crossing. . On the other hand, if a negative determination is made in step 2, the monitoring unit 15 determines that there is no object in the monitoring area, and exits this routine.
[0052]
In step 4 following step 3, the monitoring unit 15 determines whether or not the recognized object Oo exists in the third level crossing area. If an affirmative determination is made in this step, in step 5, the monitoring unit 15 determines that the object Oo exists in the third level crossing area to be monitored, and if it is determined that an alarm is necessary, a monitor, a speaker, or the like Alerts passers-by with a warning device. Further, the monitoring unit 15 may alert the railway vehicle traveling on the railroad rail, or may control (stop or decelerate) the railcar. On the other hand, if a negative determination is made in this step, the monitoring unit 15 determines that the object Oo does not exist in the third level crossing area, and exits this routine.
[0053]
As described above, in this embodiment, even if two stereo cameras are used, since they are set together in one place, the construction work is reduced in scale and the burden of maintenance work is reduced. Can be reduced. Further, since the position of the railroad rail is detected from the image, and the monitoring area is automatically set based on the detected railroad rail, the trouble of setting and inputting the monitoring area can be saved. Further, even if a device misalignment or the like occurs, the monitoring area is determined based on the railroad rail, so that the monitoring area is always properly maintained and contributes to improving the reliability of the crossing monitoring device.
[0054]
In the present embodiment, two stereo cameras, that is, two object recognition units are provided. However, a crossing monitoring apparatus including more object recognition units has the same effect.
[0055]
The monitoring unit 15 not only monitors passers-by and vehicles passing through the third level crossing area, but also adjusts the shooting areas of the stereo cameras 2 and 2a based on the set third level crossing area. You can also. For example, the monitoring unit 15 changes the direction of the stereo cameras 2 and 2a based on the third level crossing area specified from the railroad rail so that the third level crossing area is located at the center of the imaging area of the stereo camera. Etc. Thereby, the burden of maintenance work can be further reduced.
[0056]
In the present embodiment, the microcomputers 11 and 11a perform processing by integrating them in the monitoring unit 15 in consideration of independent three-dimensional coordinate systems. However, the microcomputers 11 and 11a may execute the respective processes in consideration of a common three-dimensional coordinate system. In this case, since the monitoring part 15 can integrate the information regarding the target object, without converting the coordinate of the acquired target object, it is preferable.
[0057]
In addition, as a method for setting the level crossing area, a plane in which a predetermined margin is added to the recognized railroad rail end in the image plane is specified, this plane is developed in real space, and the height direction is added thereto. Thus, a crossing area may be set.
[0058]
Furthermore, in the present embodiment, the arrangement of the stereo cameras 2 and 2a is exemplary, and all the scenery including the monitoring area is provided by the cooperation of the cameras provided on the same side with the railroad rail as a boundary. Can be captured. Accordingly, the setting position of the third three-dimensional coordinate system set by the monitoring unit 15 is not limited to the above description.
[0059]
【The invention's effect】
As described above, in the present invention, the railroad rail can be accurately recognized by taking the distance data into consideration in the captured image. Therefore, the railroad crossing region can be set based on the recognized railroad rail. . As a result, the level crossing area is properly maintained on the level crossing, so that the reliability in monitoring accuracy can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram of a railroad crossing monitoring apparatus according to an embodiment.
FIG. 2 is an explanatory diagram showing an image of one frame.
FIG. 3 is an explanatory diagram of a pixel block set in a reference image.
FIG. 4 is an explanatory diagram showing the position of the stereo camera.
FIG. 5 is a flowchart showing a procedure for setting a crossing area.
FIG. 6 is a diagram showing a screen for explaining a process of recognizing a railroad rail.
7 is a flowchart showing a detailed procedure of interval calculation processing in step 2 shown in FIG. 5;
FIG. 8 is an explanatory diagram showing a crossing area.
FIG. 9 is an explanatory diagram showing another example of a crossing area.
FIG. 10 is a flowchart showing a procedure for monitoring a crossing area.
[Explanation of symbols]
1,1a Object recognition unit
2,2a Stereo camera
3,3a Main camera
4,4a Sub camera
5,5a A / D converter
6,6a A / D converter
7, 7a Image correction unit
8,8a Stereo image processing unit
9, 9a Image data memory
10, 10a Distance data memory
11, 11a microcomputer
12, 12a specific part
13, 13a setting part
14, 14a Object recognition unit
15 Monitoring unit

Claims (4)

鉄道レールの踏切内の状況を監視する踏切監視装置において、
監視領域を含む景色を撮像し、一対の画像データを出力するステレオカメラと、
前記一対の画像データに基づいて、ステレオマッチングにより視差を算出するとともに、一フレーム相当の画像データに関する視差群と、当該画像データにより規定される画像平面上の座標位置とが対応付けられた距離データを出力するステレオ画像処理部と、
前記画像データにより規定される画像平面において、前記鉄道レールを特定する特定部と、
前記特定された鉄道レールに基づいて、前記監視領域内に写し出された対象物を監視すべきものと監視する必要のないものとに分類するための踏切領域を設定する設定部とを有し、
前記特定部は、前記画像平面において、前記鉄道レールの候補となる一対の二次元直線を抽出し、前記距離データに基づいて、前記二次元直線のそれぞれに対応する実空間上の三次元直線を算出し、当該一対の三次元直線が平行である否かを判断するとともに、前記一対の三次元直線が平行であると判断した場合には、前記一対の三次元直線の間隔を算出し、当該算出された間隔と、前記鉄道レールの実際の間隔に相当する判定値とを比較することにより、前記鉄道レールの候補となる前記一対の二次元直線が前記鉄道レールであるか否かを判断することを特徴とする踏切監視装置。
In a railroad crossing monitoring device that monitors the situation inside railroad railroad crossings,
A stereo camera that captures a landscape including a monitoring area and outputs a pair of image data;
Distance data in which parallax is calculated by stereo matching based on the pair of image data, and a parallax group related to image data corresponding to one frame is associated with a coordinate position on an image plane defined by the image data Stereo image processing unit for outputting
In the image plane defined by the image data, a specifying unit for specifying the railroad rail,
A setting unit for setting a railroad crossing area for classifying an object projected in the monitoring area into a thing to be monitored and a thing not to be monitored based on the identified railroad rail,
The specifying unit extracts a pair of two-dimensional straight lines that are candidates for the rail in the image plane, and based on the distance data, calculates a three-dimensional straight line in real space corresponding to each of the two-dimensional straight lines. Calculating and determining whether or not the pair of three-dimensional straight lines are parallel, and when determining that the pair of three-dimensional straight lines are parallel, calculating an interval between the pair of three-dimensional straight lines, By comparing the calculated interval with a determination value corresponding to the actual interval between the railroad rails, it is determined whether the pair of two-dimensional straight lines that are candidates for the railroad rails are the railroad rails. A crossing monitoring device characterized by that.
前記距離データに基づき、前記監視領域内における対象物の認識を行う対象物認識部と、
前記認識された対象物が前記踏切領域内に存在するか否かを判断するとともに、前記踏切領域内に前記対象物が存在すると判断した場合には、当該認識された対象物の監視を行う監視部とをさらに有することを特徴とする請求項1に記載された踏切監視装置。
An object recognition unit for recognizing an object in the monitoring area based on the distance data;
Monitoring that determines whether or not the recognized object exists in the crossing area, and monitors the recognized object if it is determined that the object exists in the crossing area The crossing monitoring device according to claim 1, further comprising: a section.
ステレオカメラで監視領域を含む景色を撮像した画像データと、ステレオ画像処理部から出力され、一フレーム相当の前記画像データに関する視差群と前記画像データにより規定される画像平面上の座標位置とが対応付けられた距離データとに基づい、鉄道レールの踏切内の状況を監視する踏切監視方法において、
前記ステレオカメラから出力された前記画像データにより規定される画像平面において、特定部が、前記鉄道レールの候補となる一対の二次元直線を抽出するステップと、
前記特定部が、前記ステレオ画像処理部から出力された前記距離データに基づいて、前記二次元直線のそれぞれに対応する実空間上の三次元直線を算出するステップと、
前記特定部が、前記一対の三次元直線が平行である否かを判断するステップと、
前記特定部が、前記一対の三次元直線が平行であると判断した場合には、前記一対の三次元直線の間隔を算出するステップと、
前記特定部が、前記算出された間隔と、前記鉄道レールの実際の間隔に相当する判定値とを比較することにより、前記鉄道レールの候補となる前記一対の二次元直線が前記鉄道レールであるか否かを判断するステップと、
前記特定部によって、前記一対の二次元直線が鉄道レールであると判断された場合には、設定部が、当該一対の二次元直線に基づいて、前記監視領域内に写し出された対象物を監視すべきものと監視する必要のないものとに分類するための踏切領域を設定するステップと
を有することを特徴とする踏切監視方法。
Correspondence between image data obtained by capturing a scene including a monitoring area with a stereo camera, a parallax group related to the image data equivalent to one frame output from a stereo image processing unit, and a coordinate position on an image plane defined by the image data based on the Tagged distance data, in railroad crossing monitoring method for monitoring the status of the crossing of the railroad rail,
In the image plane defined by the image data output from the stereo camera , the specifying unit extracts a pair of two-dimensional straight lines that are candidates for the railroad rails;
The specifying unit calculating a three-dimensional straight line in real space corresponding to each of the two-dimensional straight lines based on the distance data output from the stereo image processing unit ;
The identifying unit determining whether the pair of three-dimensional straight lines are parallel; and
When the specifying unit determines that the pair of three-dimensional straight lines are parallel, calculating a distance between the pair of three-dimensional straight lines;
The pair of two-dimensional straight lines that are candidates for the railroad rail are the railroad rails by comparing the calculated interval with a determination value corresponding to the actual interval of the railroad rail. Determining whether or not,
By the specifying unit, if the pair of two-dimensional straight line is determined to be the railway rail, the setting unit, based on the pair of two-dimensional linear, it monitors the target object projected on the monitoring area And a step of setting a level crossing area for classification into what should be monitored and what should not be monitored.
対象物認識部が、前記距離データに基づき、前記監視領域内の対象物の認識を行うステップと、
監視部が、前記認識された対象物が前記踏切領域内に存在するか否かを判断するステップと、
前記監視部が、前記踏切領域内に前記対象物が存在すると判断した場合には、当該認識された対象物の監視を行うステップとをさらに有することを特徴とする請求項3に記載された踏切監視方法。
An object recognition unit recognizing an object in the monitoring area based on the distance data;
A step of monitoring unit, the recognized object determines whether present in the crossing area,
The level crossing according to claim 3, further comprising a step of monitoring the recognized object when the monitoring unit determines that the target is present in the level crossing area. Monitoring method.
JP2002201360A 2002-07-10 2002-07-10 Level crossing monitoring device and level crossing monitoring method Expired - Fee Related JP4150223B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002201360A JP4150223B2 (en) 2002-07-10 2002-07-10 Level crossing monitoring device and level crossing monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002201360A JP4150223B2 (en) 2002-07-10 2002-07-10 Level crossing monitoring device and level crossing monitoring method

Publications (2)

Publication Number Publication Date
JP2004042737A JP2004042737A (en) 2004-02-12
JP4150223B2 true JP4150223B2 (en) 2008-09-17

Family

ID=31707918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002201360A Expired - Fee Related JP4150223B2 (en) 2002-07-10 2002-07-10 Level crossing monitoring device and level crossing monitoring method

Country Status (1)

Country Link
JP (1) JP4150223B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106741008A (en) * 2016-12-29 2017-05-31 北京交通大学 Rail track method for recognizing impurities and system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2418314A (en) * 2004-09-16 2006-03-22 Sharp Kk A system for combining multiple disparity maps
JP2006214735A (en) * 2005-02-01 2006-08-17 Viewplus Inc Compound stereo vision device
JP4279302B2 (en) * 2006-08-28 2009-06-17 東日本旅客鉄道株式会社 Detection device
DE102008020326B3 (en) * 2008-04-23 2009-09-03 Sick Ag Stereoscopic three-dimensional-safety camera for monitoring spatial area in safety engineering, has evaluation unit designed to combine entire image from three dimensional images of image sensors of stereoscopy systems
KR101070591B1 (en) * 2009-06-25 2011-10-06 (주)실리콘화일 distance measuring apparatus having dual stereo camera
JP6299317B2 (en) * 2014-03-24 2018-03-28 サクサ株式会社 Image processing device
CN112833856B (en) * 2020-12-31 2023-03-28 中建港航局集团有限公司 High-precision port area yard track detection method based on total station

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106741008A (en) * 2016-12-29 2017-05-31 北京交通大学 Rail track method for recognizing impurities and system

Also Published As

Publication number Publication date
JP2004042737A (en) 2004-02-12

Similar Documents

Publication Publication Date Title
JP3279479B2 (en) Video monitoring method and device
CN110555361B (en) Image processing method for lane classification
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP4363295B2 (en) Plane estimation method using stereo images
WO2016199244A1 (en) Object recognition device and object recognition system
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP2002074368A (en) Moving object recognizing and tracking device
JP2010117800A (en) Parking lot monitoring device and method
JP4032843B2 (en) Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system
JP2010086268A (en) Display object recognition device for vehicle
Ruder et al. An obstacle detection system for automated trains
JP3466169B2 (en) Management system for roads and surrounding facilities
JP4150223B2 (en) Level crossing monitoring device and level crossing monitoring method
JP3328711B2 (en) Vehicle height measuring device and vehicle monitoring system using the same
CN111696365A (en) Vehicle tracking system
CN106778569A (en) Train preceding object object detecting method based on video image
TWI616638B (en) Line measuring device and method
JP4150218B2 (en) Terrain recognition device and terrain recognition method
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method
JP2002150302A (en) Road surface recognition device
JP4311107B2 (en) Three-dimensional object recognition device and setting method thereof
JP2002002485A (en) Track recognition device and railway rolling stock using track recognition device
JP2012248004A (en) Image processing system, image recognition device and method
JPH0979847A (en) On board distance measuring device
JP4144300B2 (en) Plane estimation method and object detection apparatus using stereo image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080409

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080627

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees