JP2014062415A - Trajectory detector and trajectory monitoring device - Google Patents
Trajectory detector and trajectory monitoring device Download PDFInfo
- Publication number
- JP2014062415A JP2014062415A JP2012208752A JP2012208752A JP2014062415A JP 2014062415 A JP2014062415 A JP 2014062415A JP 2012208752 A JP2012208752 A JP 2012208752A JP 2012208752 A JP2012208752 A JP 2012208752A JP 2014062415 A JP2014062415 A JP 2014062415A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- frame image
- rail
- absence
- left rail
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machines For Laying And Maintaining Railways (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、軌道上を走行する車両に搭載された画像撮影装置により撮影された進行方向の画像を解析し、車両の前方に存在する軌道の位置を検出する軌道検出装置と、当該軌道検出装置を備えた軌道監視装置とに関する。 The present invention analyzes a traveling direction image captured by an image capturing device mounted on a vehicle traveling on a track, and detects a position of the track existing in front of the vehicle, and the track detection device. And a trajectory monitoring device.
特許文献1記載の列車前方鉄道信号・標識認識装置は、ビデオカメラと鉄道信号・標識認識装置とを備え、パターンマッチングを行って列車前方のレールの近傍に設置されている鉄道信号・標識を認識する列車前方鉄道信号・標識認識装置において、列車前方の撮影画像データから取得した1フレームの画面である検索画面の中にレールを抽出する手段と、段階的に変更したテンプレート画像のスケールに対応した探索エリアを鉄道固有の情報を利用して前記検索画面上のレールの近傍に特定する探索エリア特定手段と、探索エリア毎にパターンマッチングを行う手段と、最高のスコアを出したパターンマッチングに対応した探索エリアを決定し鉄道信号・標識を認識する手段とで構成したことを特徴とする。従って、レールの近傍に存在する鉄道信号及び標識を認識できる。
The train forward railway signal / sign recognition device described in
従来技術に係る列車前方鉄道信号・標識認識装置は、2次元画像処理に比較的時間がかかり、天候及び日照条件により画質が低下する場合はレールを安定に検出できなかった。また、1フレームの画像のみに基づいてレールを検出するので、レールを偶然に誤識別する可能性があった。 The train front railway signal / sign recognition device according to the prior art takes a relatively long time for two-dimensional image processing, and when the image quality deteriorates due to weather and sunshine conditions, the rail cannot be detected stably. Further, since the rail is detected based only on the image of one frame, there is a possibility that the rail is erroneously identified by chance.
本発明の目的は以上の問題点を解決し、従来技術に比較して処理時間を削減しかつ軌道の誤識別を少なくできる軌道検出装置と、当該軌道検出装置を備えた軌道監視装置とを提供することにある。 An object of the present invention is to provide a trajectory detection device that solves the above-described problems, reduces processing time and reduces misidentification of trajectories, and a trajectory monitoring device including the trajectory detection device. There is to do.
本発明に係る軌道検出装置は、左レール及び右レールを含む軌道上を走行する列車に固定され、上記列車の進行方向の動画データを取得し、上記動画データに含まれる複数のフレーム画像データを順次出力する画像撮影手段と、上記各フレーム画像データにおける上記左レールの位置を表す左レール近似曲線と、上記右レールの位置を表す右レール近似曲線とを算出する軌道検出追従手段とを備えた軌道検出装置であって、上記軌道検出追従手段は、上記画像撮影手段から第1のフレーム画像データを入力したとき、上記第1のフレーム画像データにおける上記左レールの下端と、上記左レール及び右レールの消失点とを通るように上記左レール近似曲線を算出するとともに、上記第1のフレーム画像データにおける上記右レールの下端と上記消失点とを通るように上記右レール近似曲線を算出し、上記画像撮影手段から上記第1のフレーム画像データより後の第2のフレーム画像データを入力したとき、上記第1のフレーム画像データにおける上記左レールの下端を通るように、上記第2のフレーム画像データにおける上記左レール近似曲線を算出するとともに、上記第1のフレーム画像データにおける上記右レールの下端を通るように、上記第2のフレーム画像データにおける上記右レール近似曲線を算出することを特徴とする。 The track detection device according to the present invention is fixed to a train traveling on a track including a left rail and a right rail, acquires moving image data of the traveling direction of the train, and obtains a plurality of frame image data included in the moving image data. Image capturing means for sequentially outputting, trajectory detection tracking means for calculating a left rail approximate curve representing the position of the left rail in each frame image data, and a right rail approximate curve representing the position of the right rail. In the trajectory detection device, the trajectory detection follow-up means receives the first frame image data from the image photographing means, the lower end of the left rail, the left rail and the right in the first frame image data. The left rail approximate curve is calculated so as to pass through the vanishing point of the rail, and the lower and upper ends of the right rail in the first frame image data are calculated. When the right rail approximate curve is calculated so as to pass through the vanishing point, and the second frame image data after the first frame image data is input from the image photographing means, the first frame image data The left rail approximate curve in the second frame image data is calculated so as to pass through the lower end of the left rail, and the second rail is passed through the lower end of the right rail in the first frame image data. The right rail approximate curve in the frame image data is calculated.
本発明に係る軌道検出装置及び軌道監視装置によれば、軌道検出追従手段は、画像撮影手段から第1のフレーム画像データを入力したとき、第1のフレーム画像データにおける左レールの下端と、左レール及び右レールの消失点とを通るように左レール近似曲線を算出するとともに、第1のフレーム画像データにおける右レールの下端と消失点とを通るように右レール近似曲線を算出する。また、軌道検出追従手段は、画像撮影手段から第1のフレーム画像データより後の第2のフレーム画像データを入力したとき、第1のフレーム画像データにおける左レールの下端を通るように、第2のフレーム画像データにおける左レール近似曲線を算出するとともに、第1のフレーム画像データにおける右レールの下端を通るように、第2のフレーム画像データにおける右レール近似曲線を算出する。従って、従来技術に比較して処理時間を削減しかつ軌道の誤識別を少なくできる。 According to the trajectory detection device and the trajectory monitoring device according to the present invention, the trajectory detection follow-up means receives the first frame image data from the image photographing means, the lower end of the left rail in the first frame image data, and the left The left rail approximate curve is calculated so as to pass through the vanishing point of the rail and the right rail, and the right rail approximate curve is calculated so as to pass through the lower end of the right rail and the vanishing point in the first frame image data. In addition, when the second frame image data after the first frame image data is input from the image capturing unit, the trajectory detection follow-up unit passes through the lower end of the left rail in the first frame image data. The left rail approximate curve in the second frame image data is calculated so as to pass through the lower end of the right rail in the first frame image data. Therefore, it is possible to reduce processing time and to reduce misidentification of the trajectory as compared with the prior art.
以下、本発明に係る実施の形態について図面を参照して説明する。なお、以下の各実施の形態において、同様の構成要素については同一の符号を付している。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In addition, in each following embodiment, the same code | symbol is attached | subjected about the same component.
実施の形態1.
図1は、本発明の実施の形態1に係る軌道検出装置100の構成を示すブロック図である。軌道検出装置100は、2本のレール上を走向する列車の運転台に搭載され、画像撮影装置1と、軌道検出追従部2と、出力部3とを備えて構成される。ここで、軌道検出追従部2及び出力部3の各機能は、当該各機能に対応するプログラムを、例えば軌道検出装置100のCPU(Central Processing Unit)が実行することによって実現される。画像撮影装置1は、列車の先頭に設けられる運転台に進行方向に向かって据え付けられたビデオカメラなどの撮像装置であって、列車の進行方向に横たわる左レール及び右レールを撮影する。そして、当該撮影した動画データに含まれるフレーム画像データ20を、軌道検出追従部2に順次出力する。
FIG. 1 is a block diagram showing a configuration of a
次に、軌道検出追従部2の動作を説明する。図2は、図1の軌道検出追従部2によって実行される軌道検出追従処理を示すフローチャートである。まず始めに、図2のステップS1において、軌道検出追従部2は、画像撮影装置1からの最初のフレーム画像データ20における2本のレールの消失点Vの初期位置と、左レール下端Lの位置と、右レール下端Rの位置とを取得する。ステップS1において実行される処理は、具体的には以下のとおりである。2本のレールに対する列車の相対的な位置は変化せず、特に、フレーム画像データ20における左レール下端Lの位置と、右レール下端Rの位置とは実質的に変化しない。これを利用して、軌道検出追従部2は、例えば、画像撮影装置1の3次元位置情報と、画像撮影装置1の撮影方向を示す視軸の3次元ベクトル情報と、画像撮影装置1と2本のレールとの間の進行方向に沿った距離と、画像撮影装置1と2本のレールとの間の進行方向に垂直な軸に沿った距離とに基づいて、フレーム画像データ20上での左レール下端Lの位置と、右レール下端Rの位置とを算出して取得する。さらに、軌道検出追従部2は、算出された左レール下端Lの位置及び右レール下端Rの位置をそれぞれ通るレールの位置を、例えばハフ変換などのフレーム画像データ20上の線分を検出する所定の線分検出処理によって推定し、推定した2つの線分の延長上の交点を消失点Vの初期位置として取得する。なお、最初のフレーム画像データ20における消失点Vの初期位置と、左レール下端Lの位置と、右レール下端Rの位置とを、人間が目視判断することにより決定し、取得してもよい。
Next, the operation of the trajectory detection follow-up
なお、上述したように、フレーム画像データ20における左レール下端Lの位置及び右レール下端Rの位置は、列車の走行中に実質的に変化しない。従って、軌道検出追従部2は、軌道検出追従処理のステップS2以降の各処理において、ステップS1において取得した左レール下端Lの位置及び右レール下端Rの位置を変化させずに用いる。
As described above, the position of the left rail lower end L and the position of the right rail lower end R in the
図4は、図1の画像撮影装置1から出力されるフレーム画像データ20の一例と、当該フレーム画像データ20に対して図2のステップS1の処理を実行して取得された消失点Vの初期位置と、左レール下端Lの位置と、右レール下端Rの位置とを示す写真である。なお、図4に示すように、フレーム画像データ20の左下角を原点Oとするxy座標系を定義する。図2において、ステップS1に続いてステップS2において、軌道検出追従部2は、左レール近似曲線10を算出するための図3の左レール検出追従処理と、右レール近似曲線11を算出するための右レール検出追従処理とを実行して軌道検出追従処理を終了する。なお、右レール検出追従処理は左レール検出追従処理と同様であるので、以下、左レール検出追従処理のみを説明する。
FIG. 4 shows an example of the
図3は、図2のステップS2において実行される左レール検出追従処理を示すフローチャートである。図3のステップS11において、軌道検出追従部2は、制御点27を決定し、消失点Vと、左レール下端Lと、制御点27とを通る2次スプライン曲線を算出し、得られた2次スプライン曲線を左レール近似曲線10に設定する。具体的には、軌道検出追従部2は、非特許文献1記載の車線検出方法を用いてステップS11の処理を実行する。図5は、図3のステップS11において得られる左レール近似曲線10を示すグラフであり、図6は、図3のステップS11において、制御点27に代えて制御点28を用いた場合の左レール近似曲線29を示すグラフである。図5及び図6に示すように、制御点を制御点27から制御点28に移動させることにより、2次スプライン曲線を変化させることができるので、消失点Vと、左レール下端Lとを通る任意の曲線を得ることができる。
FIG. 3 is a flowchart showing the left rail detection follow-up process executed in step S2 of FIG. In step S11 of FIG. 3, the trajectory detection follow-up
図3において、ステップS11に続いてステップS12において、軌道検出追従部2は、x軸と、消失点Vを含む水平線30との間の領域をx軸に平行な5個の領域に等分割し、各領域において、左レール近似曲線10を含む矩形領域24を設定する。図7は、図3のステップS12において設定される5個の矩形領域24を示すグラフである。図7に示すように、各矩形領域24は、所定の幅W24を有しかつ左レール近似曲線10が矩形領域24の中心24Cを通るように設定される。ここで、幅W24は、例えば、フレーム画像データ20のx軸方向の幅の25%に設定される。5個の矩形領域24は、以下のステップS14及びS15において、次に入力されるフレーム画像データ20上で、列車の進行に伴って変化する左レールの位置を検出するために用いられる。
3, in step S12 following step S11, the trajectory detection follow-up
図3のステップS12に続いてステップS13において、軌道検出追従部2は、所定の時間以内に画像撮影装置1から次のフレーム画像データ20を入力したか否かを判断し、YESのときはステップS14に進む一方、NOのときは図2の軌道検出追従処理に戻る。ここで、所定の時間は、例えば、画像撮影装置1におけるフレーム画像データ20の生成時間間隔に設定される。ステップS14において、軌道検出追従部2は、入力されたフレーム画像データ20の各矩形領域24において、ハフ変換を用いて左レールに対応する線分24Sを検出する。具体的には、軌道検出追従部2は、非特許文献2記載の方法を用いてステップS14の処理を実行する。図8は、図3のステップS14において、各矩形領域24で検出される線分24Sを示すグラフである。
In step S13 following step S12 in FIG. 3, the trajectory detection follow-up
図3のステップS14に続いてステップS15において、軌道検出追従部2は、各矩形領域24の5本の線分24Sに対して、左レール下端Lを通るスプライン曲線を当てはめることにより、左レール近似曲線26を算出し、左レール近似曲線10を左レール近似曲線26に更新し、出力部3に出力する。具体的には、軌道検出追従部2は、左レール下端Lの位置を固定し、左レール近似曲線26の消失点及び制御点は、左レール近似曲線10の消失点V及び制御点27から移動可能であるという条件の下で、各y座標位置における、左レール近似曲線26のx座標と各線分24Sのx座標との間の誤差の大きさの総和を最小にするように、左レール近似曲線26を算出する。図9は、図3のステップS15において算出される左レール近似曲線26を示すグラフである。さらに、ステップS14において、出力部3は、更新後の左レール近似曲線10を、例えばディスプレイに出力してフレーム画像データ20とともに表示する。
In step S15 following step S14 in FIG. 3, the trajectory detection follow-up
次に、軌道検出追従部2は、ステップS16において、x軸と、更新後の左レール近似曲線10の消失点Vを含む水平線30との間の領域をx軸に平行な5個の領域に等分割し、各領域において、左レール近似曲線10を含む矩形領域24を設定して、ステップS13に戻る。なお、ステップS16における矩形領域24の設定方法は、ステップS12における設定方法と同様である。また、ステップS16において用いる更新後の左レール近似曲線10の消失点Vは、左レール近似曲線10を算出したフレーム画像データ20において左レール近似曲線10と同様に算出された右レール近似曲線11と、左レール近似曲線10との交点である。
Next, in step S16, the trajectory detection follow-up
以上説明したように、本実施の形態に係る軌道検出装置100は、左レール及び右レールを含む軌道上を走行する列車に固定され、列車の進行方向の動画データを取得し、動画データに含まれる複数のフレーム画像データ20を順次出力する画像撮影装置1と、各フレーム画像データ20における左レールの位置を表す左レール近似曲線10と、右レールの位置を表す右レール近似曲線11とを算出する軌道検出追従部2とを備えて構成される。ここで、軌道検出追従部2は、画像撮影装置1から最初のフレーム画像データ20を入力したとき、最初のフレーム画像データ20における左レールの下端Lと、左レール及び右レールの消失点Vとを通るように左レール近似曲線10を算出するとともに、最初のフレーム画像データ20における右レールの下端Rと消失点Vとを通るように右レール近似曲線11を算出する。さらに、軌道検出追従部2は、画像撮影装置1から最初のフレーム画像データより後のフレーム画像データ20を入力したとき、最初のフレーム画像データにおける左レールの下端Lを通るように、入力したフレーム画像データ20における左レール近似曲線10を算出するとともに、最初のフレーム画像データ20における右レールの下端Rを通るように、入力したフレーム画像データ20における右レール近似曲線11を算出する。
As described above, the
また、軌道検出追従部2は、最初のフレーム画像データ20より後のフレーム画像データ20を入力したとき、入力したフレーム画像データ20より1つ前のフレーム画像データ20において算出された左レール近似曲線10を含む所定の領域24において線分24Sを検出することにより、入力したフレーム画像データ20における左レール近似曲線10を算出するとともに、入力したフレーム画像データ20より1つ前のフレーム画像データ20において算出された右レール近似曲線11を含む所定の領域24において線分24Sを検出することにより、入力したフレーム画像データ20における右レール近似曲線11を算出することを特徴とする。
In addition, when the
従って、本実施の形態によれば、フレーム画像データ20における左レール下端Lの位置及び右レール下端Rの位置をあらかじめ取得し、各フレーム画像データ20において、左レール下端Lの位置及び右レール下端Rの位置を固定して左レール及び右レールを検出するので、従来技術に比較して処理時間を削減できる。また、天候及び日照条件の影響でフレーム画像データ20のコントラストが低下しても、従来技術に比較して安定して左レール及び右レールを検出し、検出される左レール及び右レールの各位置を、フレーム画像データ20上の左レール及び右レールの各位置に追従させることができる。従って、従来技術に比較して、左レール及び右レールの誤識別を少なくできる。
Therefore, according to the present embodiment, the position of the left rail lower end L and the position of the right rail lower end R in the
また、特許文献1記載の列車前方鉄道信号・標識認識装置は1フレームの画像のみに基づいてレールを検出するので、レールを偶然に誤識別する可能性があったが、本実施の形態によれば、処理対象のフレーム画像データ20の1つ前のフレーム画像データ20において設定された矩形領域24を用いて、処理対象のフレーム画像データ20におけるレールの位置を検出するので、誤識別を少なくできる。
In addition, since the train ahead railway signal / sign recognition device described in
なお、本実施の形態において、軌道検出追従部2及び出力部3の各機能は当該各機能に対応するプログラムを、例えば軌道検出装置100のCPUが実行することによって実現されたが、本発明はこれに限られず、各機能に対応するハードウエア回路を構成して実現されてもよい。
In the present embodiment, each function of the trajectory detection follow-up
また、軌道検出追従部2は、x軸と、消失点Vを含む水平線30との間の領域をx軸に平行な5個の領域に分割し、各領域において、左レール近似曲線10を含む矩形領域24を設定したが、本発明はこれに限られない。軌道検出追従部2は、x軸と、消失点Vを含む水平線30との間の領域をx軸に平行な2個以上の複数の領域に分割し、各領域において、左レール近似曲線10を含む矩形領域24を設定すればよい。
Further, the trajectory detection follow-up
実施の形態2.
図10は、本発明の実施の形態2に係る軌道監視装置101の構成を示すブロック図である。軌道監視装置101は、実施の形態1に係る軌道検出装置100と、残雪検出領域設定部4と、1次元投射データ生成部5と、残雪有無推定値算出部6と、時系列判定部7と、車速検出部8と、出力部9とを備えて構成され、2本のレール間の残雪の有無を判定する。ここで、本実施の形態において、軌道検出装置100は、実施の形態1に係る軌道検出装置100と同様に動作し、消失点Vの位置と、左レール下端Lの位置と、右レール下端Rの位置と、左レール近似曲線10と、右レール近似曲線11との各データを残雪検出領域設定部4に出力する。また、残雪検出領域設定部4と、1次元投射データ生成部5と、残雪有無推定値算出部6と、時系列判定部7と、車速検出部8と、出力部9との各機能は、当該各機能に対応するプログラムを、例えば軌道監視装置101のCPUが実行することによって実現される。
FIG. 10 is a block diagram showing the configuration of the trajectory monitoring apparatus 101 according to
図11を参照して、図10の残雪検出領域設定部4及び1次元投射データ生成部5の動作を説明する。図11は、図10の残雪検出領域設定部4によって設定される残雪検出領域14と、残雪検出領域14内の画像データ15と、画像データ15に基づいて生成される規格化矩形画像データ16と、規格化矩形画像データ16に基づいて生成される1次元射影データ17及び21とを示す説明図である。
With reference to FIG. 11, operations of the remaining snow detection
まず始めに、残雪検出領域設定部4は、図11に示すように、左レール下端Lの位置からx軸の負の方向に所定の距離wsだけ離れた位置Lsと、消失点Vとを通る2次スプライン曲線を左レール路肩曲線12として算出する。また、右レール下端Rの位置からx軸の正の方向に所定の距離wsだけ離れた位置Rsと、消失点Vとを通る2次スプライン曲線を右レール路肩曲線13として算出する。ここで、距離wsは、フレーム画像データ20のx軸上での左レール及び右レールの路肩の幅に対応する距離に設定され、左レール路肩曲線12及び右レール路肩近似曲線13は、左レール及び右レールの外側の路肩の縁に対応する。
First, as shown in FIG. 11, the remaining snow detection
次に、残雪検出領域設定部4は、残雪の有無を検出するための残雪検出領域14を、頂点L1,L2,R1及びR2を有する台形領域に設定し、残雪検出領域14内の画像データ15を1次元投射データ生成部5に出力する。ここで、頂点L1及びR1のy座標はyh×a(ただし、yhは水平線30のy座標であり、0<a<1である。)であり、頂点L2及びR2のy座標はyh×b(ただし、0<b<a<1である。)である。また、辺L1−L2は左レール路肩曲線12を近似する線分であり、辺R1−R2は右レール路肩曲線13を近似する線分である。なお、定数aは例えば0.6に設定され、定数bは例えば0.4に設定される。以上説明したように設定された残雪検出領域設定部4は、左レール近似曲線10の一部と、右レール近似曲線11の一部とを含む。
Next, the remaining snow detection
1次元投射データ生成部5は、図11に示すように、台形形状を有する画像データ15を、長方形形状を有する画像データに幾何変換し、幾何変換後の画像データ15の輝度値を正規化して規格化画像データ16に変換する。具体的には、1次元投射データ生成部5は、例えば、幾何変換後の画像データの輝度値の最小値が0になりかつ最大値が255になるように、輝度値を線形変換する。なお、図11に示すように、規格化画像データ16の左下角を原点Oとするpq座標系を定義する。このとき、フレーム画像データ20における左レール下端Lの位置と、右レール下端Rの位置とは、規格化画像データ16におけるp軸上の位置18及び位置19にそれぞれ変換される。次に、1次元投射データ生成部5は、規格化画像データ16をq軸方向に射影して1次元射影データ17を生成する。具体的には、1次元投射データ生成部5は、p軸上の各位置において各画素値をq軸方向に累積することにより、1次元射影データ17を生成する。さらに、1次元投射データ生成部5は、1次元射影データ17のうち左レールの位置18と右レールの位置19との間のデータのみを、複数N個のデータを有する1次元投射データ21として残雪有無推定値算出部6に出力する。以上説明したように生成された一次元投射データ17及び21は、左レール及び右レールを横切る方向に沿った輝度分布を示す。
As shown in FIG. 11, the one-dimensional projection
図12は、図10の残雪有無推定値算出部6の構成及び動作を示す説明図である。図12において、残雪有無推定値算出部6は、N個のニューロンを備えた入力層61と、複数のニューロンを備えた中間層62と、1個のニューロンを備えた出力層63とを含む3層構造のニューラルネットワークと、学習コントローラ60とを備えて構成される。1次元投射データ生成部5からの1次元投射データ21は、入力層61に入力され、入力層61の各ニューロンと中間層62の各ニューロンとの間の各荷重係数に応じて中間層62に出力された後、中間層62の各ニューロンと出力層63のニューロンとの間の各荷重係数に応じて、残雪有無推定値25として出力層63から出力される。
FIG. 12 is an explanatory diagram showing the configuration and operation of the remaining snow presence / absence estimated
また、学習コントローラ60は、左レールと右レールとの間に残雪があるときの1次元投射データ21の学習データの入力値と、左レールと右レールとの間に残雪がないときの1次元投射データ21の学習データの入力値とを用いて、左レールと右レールとの間に残雪があるときに残雪有無推定値25が1になりかつ左レールと右レールとの間に残雪がないときに残雪有無推定値25が0になるように、入力層61の各ニューロンと中間層62の各ニューロンとの間の各荷重係数と、中間層62の各ニューロンと出力層63のニューロンとの間の各荷重係数とをあらかじめ学習して決定する。従って、出力層63からの残雪有無推定値25は、残雪があるときは1に近い値になり、残雪がないときは0に近い値になる。なお、学習コントローラ60は、例えば、非特許文献3記載の3層パーセプトロンを用いた誤差逆伝搬学習則を用いて各荷重係数を決定する。また、学習データは、複数の天候条件及び複数の日射条件での1次元投射データ21を含む。
Further, the learning
図13は、図10の時系列判定部7の構成を示すブロック図である。図13において、時系列判定部7は、3層構造の低速時判定用ニューラルネットワーク7Lと、3層構造の高速時判定用ニューラルネットワーク7Hと、学習コントローラ70及び74と、残雪判定部78と、ニューラルネットワーク選択部79と、スイッチSWとを備えて構成される。また、低速時判定用ニューラルネットワーク7Lは、複数のニューロンを備えた入力層71と、複数のニューロンを備えた中間層62と、1個のニューロンを備えた出力層73とを備え、高速時判定用ニューラルネットワーク7Hは、複数のニューロンを備えた入力層75と、複数のニューロンを備えた中間層76と、1個のニューロンを備えた出力層74とを備える。
FIG. 13 is a block diagram showing a configuration of the time
図13において、ニューラルネットワーク選択部79は、車速検出部8からの列車の速度の情報に基づいて、列車の速度が所定の速度しきい値以上であるか否かを判断し、列車の速度が所定の速度しきい値未満であるときはスイッチSWを所定の期間Tだけ低速時判定用ニューラルネットワーク7L側に切り替える一方、列車の速度が所定の速度しきい値以上であるときはスイッチSWを所定の期間Tだけ高速時判定用ニューラルネットワーク7H側に切り替える。ここで、車速検出部8は、例えば、車輪の回転数に基づいて列車の速度を算出する車速センサ又はトンネル以外の屋外で利用可能なGPS(Global Positioning System)からの列車の位置情報に基づいて列車の速度を算出してニューラルネットワーク選択部79に出力する車速算出装置である。スイッチSWは、残雪有無推定値算出部6からの残雪有無推定値25の所定の期間T内の時系列データ26を、低速時判定用ニューラルネットワーク7Lの入力層71又は高速時判定用ニューラルネットワーク7Hの入力層75に出力する。
In FIG. 13, the neural
時系列データ26は、入力層71に入力されると、入力層71の各ニューロンと中間層71の各ニューロンとの間の各荷重係数に応じて中間層71に出力された後、中間層71の各ニューロンと出力層73のニューロンとの間の各荷重係数に応じて、出力層73から残雪判定部78に出力される。また、時系列データ26は、入力層75に入力されると、入力層75の各ニューロンと中間層76の各ニューロンとの間の各荷重係数に応じて中間層76に出力された後、中間層76の各ニューロンと出力層77のニューロンとの間の各荷重係数に応じて、出力層76から残雪判定部78に出力される。
When the
また、学習コントローラ70は、列車の速度が所定の速度しきい値未満でありかつ左レールと右レールとの間に残雪があるときの時系列データ26の学習データの入力値と、列車の速度が所定の速度しきい値未満でありかつ左レールと右レールとの間に残雪がないときの時系列データ26の学習データの入力値とを用いて、左レールと右レールとの間に残雪があるときに残雪有無判定値32が1になりかつ左レールと右レールとの間に残雪がないときに残雪有無判定値32が0になるように、入力層71の各ニューロンと中間層72の各ニューロンとの間の各荷重係数と、中間層72の各ニューロンと出力層73のニューロンとの間の各荷重係数とをあらかじめ学習して決定する。従って、出力層73からの出力値は、残雪があるときは1に近い値になり、残雪がないときは0に近い値になる。
The learning
さらに、学習コントローラ74は、列車の速度が所定の速度しきい値以上でありかつ左レールと右レールとの間に残雪があるときの時系列データ26の学習データの入力値と、列車の速度が所定の速度しきい値以上でありかつ左レールと右レールとの間に残雪がないときの時系列データ26の学習データの入力値とを用いて、左レールと右レールとの間に残雪があるときに残雪有無判定値32が1になりかつ左レールと右レールとの間に残雪がないときに残雪有無判定値32が0になるように、入力層75の各ニューロンと中間層76の各ニューロンとの間の各荷重係数と、中間層76の各ニューロンと出力層77のニューロンとの間の各荷重係数とをあらかじめ学習して決定する。従って、出力層77からの出力値は、残雪があるときは1に近い値になり、残雪がないときは0に近い値になる。
Further, the learning
なお、学習コントローラ60は、例えば、非特許文献3記載の3層パーセプトロンを用いた誤差逆伝搬学習則又は非特許文献4に記載されている隠れマルコフモデルなどの学習アルゴリズムを用いて、各荷重係数を決定する。
Note that the learning
また、図13において、残雪判定部78は、出力層73又は77からの出力値が所定の判定しきい値以上であるときは残雪ありと判定する一方、出力層73又は77からの出力値が所定の残雪判定しきい値未満であるときは残雪なしと判定し、判定結果を示す残雪有無判定値32を出力部9に出力する。ここで、残雪判定しきい値は、例えば0.5に設定される。さらに、出力部9は、残雪有無判定値32を例えばディスプレイに出力してフレーム画像データ20とともに表示する。
In FIG. 13, the remaining
以上説明したように、本実施の形態に係る軌道監視装置101は、
(a)軌道検出装置100と、
(b)各フレーム画像データ20において、軌道検出追従部2によって算出された左レール近似曲線10の一部及び右レール近似曲線11の一部を含む検出対象検出領域14を設定する残雪検出領域設定部4と、
(c)各フレーム画像データ20の残雪検出領域14内の画像データ15を用いて、左レール及び右レールを横切る方向に沿った輝度分布を示す1次元投射データ21を生成する1次元投射データ生成部5と、
(d)各フレーム画像データ20の1次元投射データ21に基づいて、左レールと右レールとの間における残雪の有無を表す残雪有無推定値25を算出する残雪有無推定値算出部6と、
(e)各フレーム画像データ20において算出された残雪有無推定値25の時系列データ26と、列車の速度の情報とを用いて、左レールと右レールとの間における残雪の有無を判定し、当該判定結果を出力する時系列判定部7とを備えたことを特徴とする。
As described above, the trajectory monitoring apparatus 101 according to the present embodiment is
(A) the
(B) In each
(C) One-dimensional projection data generation for generating one-
(D) based on the one-
(E) Using the
また、残雪有無推定値算出部6は、左レールと右レールとの間に残雪があるときの1次元投射データ21の入力値と、左レールと右レールとの間に残雪がないときの1次元投射データ21の入力値とを用いて、残雪有無推定値25を算出するために用いられる各パラメータ(荷重係数)をあらかじめ学習して決定し、1次元投射データ21に基づいて、決定された各パラメータを用いて残雪有無推定値25を算出することを特徴する。
Further, the remaining snow presence / absence estimated
さらに、時系列判定部7は、
(a)列車の複数の速度分類にそれぞれ対応して設けられ、時系列データ26の入力値に基づいて、所定の荷重係数を用いて、左レールと右レールとの間における残雪の有無を示す出力値を算出する複数のニューラルネットワーク7L及び7Hと、
(b)各ニューラルネットワーク7L及び7H毎に、列車の速度がニューラルネットワークに対応する速度でありかつ左レールと右レールとの間に残雪があるときの時系列データ26の入力値と、列車の速度がニューラルネットワークに対応する速度でありかつ左レールと右レールとの間に残雪がないときの時系列データ26の入力値とを用いて、各ニューラルネットワーク7L及び7Hの荷重係数をあらかじめ学習して決定する学習コントローラ70及び74と、
(c)列車の速度に基づいて、列車の速度が含まれる速度分類に対応して設けられたニューラルネットワーク7L又は7Hを選択し、残雪有無推定値25の時系列データ26を選択されたニューラルネットワーク7L又は7Hに出力するニューラルネットワーク選択部79と、
(d)選択されたニューラルネットワーク7L又は7Hからの出力値に基づいて、左レールと右レールとの間における残雪の有無を判定する残雪有無判定部78とを備えたことを特徴とする。
Furthermore, the time
(A) Provided corresponding to each of a plurality of speed classifications of the train, and based on the input value of the
(B) For each
(C) The
(D) A remaining snow presence /
左レールと右レールとの間の残雪の有無を判定する単純な方法として、残雪有無推定値算出部6からの残雪有無推定値25が所定のしきい値以上であれば残雪ありと判定する一方、残雪有無推定値25が所定のしきい値未満であれば残雪なしと判定する方法がある。しかしながら、この方法の場合、レール間の水溜りの具合又は日照条件によって、残雪に類似した画像パターンが偶然に現れた場合は、残雪ありと誤って判定してしまう。本実施の形態では、残雪有無推定値25の時系列データ26を用いて残雪の有無を判定するので、誤判定を減らすことができる。
As a simple method for determining the presence or absence of remaining snow between the left rail and the right rail, if the remaining snow presence / absence estimated
図14は、低速時の図10の残雪有無推定値25の時系列データ26の一例を示すグラフであり、図15は、高速時の図10の残雪有無推定値25の時系列データ26の一例を示すグラフである。図14及び図15に示すように、一般に、レール間に残雪があるとき、列車の速度が小さいほど比較的大きい残雪有無推定値25が長い時間にわたって出力される。このため、列車の速度を考慮せずに同一のニューラルネットワークを用いて残雪の有無を判定すると、誤判定につながる。本実施の形態では、列車の速度に応じてニューラルネットワーク7H又は7Lを選択して用いるので、列車の速度が変化しても残雪の有無を安定に判定できる。
14 is a graph showing an example of the
また、本実施の形態によれば、残雪有無推定値算出部6は、1次元投射データ21に基づいて残雪有無推定値25を算出するためのニューラルネットワークを備え、当該ニューラルネットワークの荷重係数をあらかじめ学習して決定する。従って、1次元投射データ21の平均値又は分散などの比較的単純な統計的パラメータのみを所定のしきい値と比較して残雪の有無を推定できない場合にも、残雪の有無を自動的に判定できる。さらに、複数の天候条件及び複数の日射条件での1次元投射データ21を含む学習データを用いてあらかじめ学習を行うので、人間が手動で1次元投射データ21の特徴を抽出する必要がなく、かつ従来技術に比較して誤識別を減らすことができる。
Further, according to the present embodiment, the remaining snow presence / absence estimated
さらに、本実施の形態によれば、画像撮影装置1により列車進行方向の画像を撮影してフレーム画像データ20を生成し、軌道検出追従部2により最初のフレーム画像データ20における2本のレールの消失点Vの初期位置と、左レール下端Lの位置と、右レール下端Rの位置とに基づいて左レール近似曲線10及び右レール近似曲線11を算出した後に、順次入力されるフレーム画像データ20毎に、左レール近似曲線10及び右レール近似曲線11を更新する。また、残雪検出領域設定部4により、左レールと右レールとの間の残雪有無を判定するための必要な残雪検出領域14を設定し、当該残雪検出領域14内の画像データ15を取得する。さらに、1次元投射データ生成部5により、画像データ15を1次元射影データ17に変換し、残雪有無推定値算出部6により、あらかじめ学習したニューラルネットワーク(識別回路)を用いて、1次元射影データ17の一部の1次元投射データ21に基づいて残雪有無推定値25を算出して出力する。そして、時系列判定部7により、残雪有無推定値25の時系列データ26と、列車の速度とを用いて残雪有無を判定する。従って、従来技術に比較して高速に、少ないメモリ資源で、かつ撮影環境に依存せずに安定に左レールと右レールとの間の残雪有無を判定できる。
Furthermore, according to the present embodiment, the
なお、本実施の形態において、列車の速度を高速と低速の2段階に分類し、時系列判定部7は列車の速度に応じて低速時判定用ニューラルネットワーク7L又は高速時判定用ニューラルネットワーク7Hを選択して用いたが、本発明はこれに限られない。列車の速度を3段階以上の複数段階に分類し、列車の速度に応じて複数のニューラルネットワークのうちの1つを選択して用いてもよい。
In the present embodiment, the train speed is classified into two stages, high speed and low speed, and the time-
また、本実施の形態において、残雪有無推定値算出部6のニューラルネットワークは、1つの中間層61を備えたが、本発明はこれに限られず、複数の中間層を備えてもよい。さらに、低速時判定用ニューラルネットワーク7L及び高速時判定用ニューラルネットワーク7Hはそれぞれ、1つの中間層72及び76を備えたが、本発明はこれに限られず、複数の中間層を備えてもよい。
In the present embodiment, the neural network of the remaining snow presence / absence estimated
さらに、本実施の形態において、残雪検出領域設定部4と、1次元投射データ生成部5と、残雪有無推定値算出部6と、時系列判定部7と、車速検出部8と、出力部9との各機能は、当該各機能に対応するプログラムを、例えば軌道監視装置101のCPUが実行することによって実現されたが、本発明はこれに限られず、各機能に対応するハードウエア回路を構成して実現されてもよい。
Furthermore, in the present embodiment, the remaining snow detection
実施の形態3.
図16は、本発明の実施の形態3に係る軌道監視装置101Aの構成を示すブロック図である。本実施の形態に係る軌道監視装置101Aは、実施の形態2に係る軌道監視装置101に比較して、残雪有無推定値算出部6及び車速検出部8に代えて残雪有無推定値算出部6A及び車速検出部8Aを備えた点のみが異なり、その他の点については軌道監視装置101と同様に構成される。以下、軌道監視装置101との間の相違点のみを説明する。
FIG. 16 is a block diagram showing a configuration of a trajectory monitoring apparatus 101A according to
図16において、画像撮影装置1は、フレーム画像データ20を軌道検出部2に加えて車速検出部8Aに出力する。車速検出部8Aは、画像撮影装置1からの複数のフレーム画像データ20を画像処理することにより列車の速度を算出して時系列判定部7に出力する。具体的には、例えば、特許文献2記載のフレーム画像における同一の特徴点を結ぶことによって生成されるオプティカルフローに基づいて物体を検出する物体検出方法を用いて列車の速度を算出する。
In FIG. 16, the
図17は、図16の残雪有無推定値算出部6Aによって用いられる残雪検出チェック範囲22と、残雪があるときの1次元投射データ21とを示すグラフであり、図18は、図16の残雪有無推定値算出部6Aによって用いられる残雪検出チェック範囲22と、残雪がないときの1次元投射データ21とを示すグラフである。残雪有無推定値算出部6Aは、1次元投射データ21を用いて残雪の有無を推定するための所定の残雪検出チェック範囲22と残雪判定用しきい値23を設定し、残雪検出チェック範囲22で1次元投射データ21が残雪判定用しきい値23以上であるときは残雪ありと判定し、残雪検出チェック範囲22で1次元投射データ21が残雪判定用しきい値23未満であるときは残雪なしと判定する。さらに、残雪有無推定値算出部6Aは、残雪検出チェック範囲22の1次元投射データ21を積分して、積分値を残雪有無推定値25として時系列判定部7に出力する。ここで、一般に、右レールと左レールとの間に残雪があるときの残雪検出チェック範囲22の1次元投射データ21の積分値は、右レールと左レールとの間に残雪がないときの残雪検出チェック範囲22の1次元投射データ21の積分値より大きい。
FIG. 17 is a graph showing the remaining snow
1次元射影データ21に含まれる残雪の特徴が明らかで、1次元投射データ21の平均値又は分散などの比較的単純な統計的パラメータのみを所定のしきい値と比較して残雪の有無を判定できる場合は、本実施の形態に係る残雪有無推定値算出部6Aを用いることができる。この場合、例えば、残雪有無推定値算出部6のニューラルネットワークの荷重係数をあらかじめ学習して記憶するためのメモリが不要であるので、実施の形態1に比較して、メモリ資源を節約して残雪を識別できる。
The characteristics of the remaining snow contained in the one-
また、本実施の形態によれば、画像撮影装置1により取得されるフレーム画像データ20を利用して列車の速度を推定するので、車輪の回転をセンシングする車速センサ又はGPSなどの地理情報取得センサを用いることなく、実施の形態2に比較して安価に残雪を検出できる。
In addition, according to the present embodiment, since the train speed is estimated using the
なお、車速検出部8Aを時系列判定部7内に設けてもよい。
The vehicle
また、本実施の形態において、残雪有無推定値算出部6Aは、残雪有無推定値算出部6Aは、残雪検出チェック範囲22の1次元投射データ21を積分して、積分値を残雪有無推定値25として時系列判定部7に出力したが、本発明はこれに限られない。残雪有無推定値算出部6Aは、左レールと右レールとの間における残雪の有無に応じて変化する所定の特徴量を1次元投射データ生成部5からの1次元投射データ21から抽出し、抽出された特徴量に基づいて検出対象有無推定値25を算出すればよい。
In the present embodiment, the remaining snow presence / absence estimated
さらに、本実施の形態において、残雪検出領域設定部4と、1次元投射データ生成部5と、残雪有無推定値算出部6Aと、時系列判定部7と、車速検出部8Aと、出力部9との各機能は、当該各機能に対応するプログラムを、例えば軌道監視装置101AのCPUが実行することによって実現されるが、本発明はこれに限られず、各機能に対応するハードウエア回路を構成して実現されてもよい。
Furthermore, in the present embodiment, the remaining snow detection
実施の形態4.
図19は、本発明の実施の形態4に係る軌道監視装置101Bの構成を示すブロック図であり、図20は、図19の時系列判定部7Aの構成を示すブロック図である。また、図21は、図19の時系列判定部7Aの動作を示す説明図である。図19において、本実施の形態に係る軌道監視装置101Bは、図10の実施の形態2に係る軌道監視装置101に比較して、時系列判定部7に代えて時系列判定部7Aを備えた点が異なる。以下、実施の形態2に係る軌道監視装置101との間の相違点のみを説明する。
FIG. 19 is a block diagram showing a configuration of the trajectory monitoring apparatus 101B according to
図20において、時系列判定部7Aは、複数のニューロンを備えた入力層91と、複数のニューロンを備えた中間層92と、1個のニューロンを備えた出力層93とを含む3層構造のニューラルネットワークと、時系列データ正規化処理部80と、残雪判定部78とを備えて構成される。時系列データ正規化処理部80は、車速検出部8からの列車の速度の情報に基づいて、残雪有無推定値算出部6からの残雪有無推定値25の時系列データ26を時間方向に拡大又は縮小して、所定の基準速度における正規化時系列データ26Aに変換して入力層91に出力する。ここで、基準速度は、例えば90km/hに設定される。この場合、図21に示すように、列車の速度が60km/hのときは時系列データ26を時間軸方向に2/3に縮小し、残雪有無推定値25を補間して正規化時系列データ26Aを生成する。また、列車の速度が135km/hのときは時系列データ26を時間軸方向に3/2倍に拡大し、残雪有無推定値25を補間して正規化時系列データ26Aを生成する。
20, the time-
図20において、正規化時系列データ26Aは、入力層91に入力され、入力層91の各ニューロンと中間層92の各ニューロンとの間の各荷重係数に応じて中間層92に出力された後、中間層92の各ニューロンと出力層93のニューロンとの間の各荷重係数に応じて、出力層93から残雪判定部78に出力される。残雪判定部78は、出力層93からの出力値が所定の判定しきい値以上であるときは残雪ありと判定する一方、出力層93からの出力値が所定の残雪判定しきい値未満であるときは残雪なしと判定し、判定結果を示す残雪有無判定値32を出力部9に出力する。ここで、残雪判定しきい値は、例えば0.5に設定される。さらに、出力部9は、残雪有無判定値32を例えばディスプレイに出力してフレーム画像データ20とともに表示する。
In FIG. 20, the normalized
また、学習コントローラ90は、左レールと右レールとの間に残雪があるときの正規化時系列データ26Aの学習データの入力値、左レールと右レールとの間に残雪がないときの正規化時系列データ26Aの学習データの入力値を用いて、左レールと右レールとの間に残雪があるときに残雪有無判定値32が1になりかつ左レールと右レールとの間に残雪がないときに残雪有無判定値32が0になるように、入力層91の各ニューロンと中間層92の各ニューロンとの間の各荷重係数と、中間層92の各ニューロンと出力層93のニューロンとの間の各荷重係数とをあらかじめ学習して決定する。従って、出力層93からの残雪有無判定値32は、残雪があるときは1に近い値になり、残雪がないときは0に近い値になる。
The learning
以上説明したように、時系列判定部7Aは、
(a)列車の速度を用いて残雪有無推定値25の時系列データ26を時間軸方向に拡大又は縮小することにより、時系列データ26を、所定の基準速度での正規化時系列データ26Aに変換する時系列データ正規化処理部80と、
(b)正規化時系列データ26Aの入力値に基づいて、所定の荷重係数を用いて、左レールと右レールとの間における残雪の有無を示す出力値を算出する1つのニューラルネットワークと、
(c)左レールと右レールとの間に残雪があるときの正規化時系列データ26Aの入力値と、左レールと右レールとの間に残雪がないときの正規化時系列データ26Aの入力値とを用いて、ニューラルネットワークの荷重係数をあらかじめ学習して決定する学習コントローラ90と、
(d)ニューラルネットワークからの出力値に基づいて、左レールと右レールとの間における残雪の有無を判定する残雪有無判定部78とを備えたことを特徴とする。
As described above, the time
(A) By expanding or reducing the
(B) one neural network that calculates an output value indicating the presence or absence of remaining snow between the left rail and the right rail using a predetermined load coefficient based on the input value of the normalized
(C) Input of normalized
(D) A remaining snow presence /
従って、本実施の形態によれば、時系列判定部7Aは1つのニューラルネットワークのみを備えればよいので、実施の形態2に比較して、ニューラルネットワークの荷重係数をあらかじめ学習して記憶するためのメモリ資源を節約できる。従って、軌道監視装置101Bがメモリ資源の制約を受ける場合に、限られたメモリ資源で従来技術に比較して安定に残雪を検出できる。なお、メモリ資源に制約がない場合は、実施の形態2に係る時系列判定部7を用いることが好ましい。これにより、時系列データ正規化処理部80を備える必要がなく、高速に残雪の有無を判定できる。
Therefore, according to the present embodiment, the time
なお、本実施の形態において、残雪有無推定値算出部6及び車速検出部8に代えて、図16の残雪有無推定値算出部6A及び車速検出部8Aを備えてもよい。
In the present embodiment, the remaining snow presence / absence estimated
また、実施の形態2〜4において、軌道監視装置101A,101B及び101Cはレール間の残雪の有無を判定したが、本発明はこれに限られず、人間などの他の検出対象の有無を識別してもよい。 In the second to fourth embodiments, the track monitoring devices 101A, 101B, and 101C determine the presence or absence of residual snow between the rails. However, the present invention is not limited to this, and the presence or absence of other detection targets such as humans is identified. May be.
さらに、上記各実施の形態において、軌道検出装置100は画像撮影装置1を備えたが、本発明はこれに限られず、画像撮影装置1を備えなくてもよい。またさらに、上記各実施の形態において、軌道監視装置101,101A,101Bは車速検出部8又は8Aを備えたが、本発明はこれに限られず、車速検出部8及び8Aを軌道監視装置101,101A,101Bの外部に設けてもよい。
Furthermore, in each of the embodiments described above, the
以上詳述したように、本発明に係る軌道検出装置及び軌道監視装置によれば、軌道検出追従手段は、画像撮影手段から第1のフレーム画像データを入力したとき、第1のフレーム画像データにおける左レールの下端と、左レール及び右レールの消失点とを通るように左レール近似曲線を算出するとともに、第1のフレーム画像データにおける右レールの下端と消失点とを通るように右レール近似曲線を算出する。また、軌道検出追従手段は、画像撮影手段から第1のフレーム画像データより後の第2のフレーム画像データを入力したとき、第1のフレーム画像データにおける左レールの下端を通るように、第2のフレーム画像データにおける左レール近似曲線を算出するとともに、第1のフレーム画像データにおける右レールの下端を通るように、第2のフレーム画像データにおける右レール近似曲線を算出する。従って、従来技術に比較して処理時間を削減しかつ軌道の誤識別を少なくできる。 As described above in detail, according to the trajectory detection apparatus and trajectory monitoring apparatus according to the present invention, when the trajectory detection follow-up means inputs the first frame image data from the image photographing means, the first frame image data The left rail approximation curve is calculated so as to pass through the lower end of the left rail and the vanishing points of the left rail and the right rail, and the right rail is approximated so as to pass through the lower end of the right rail and the vanishing point in the first frame image data. Calculate the curve. In addition, when the second frame image data after the first frame image data is input from the image capturing unit, the trajectory detection follow-up unit passes through the lower end of the left rail in the first frame image data. The left rail approximate curve in the second frame image data is calculated so as to pass through the lower end of the right rail in the first frame image data. Therefore, it is possible to reduce processing time and to reduce misidentification of the trajectory as compared with the prior art.
1 画像撮影装置、2 軌道検出追従部、3 出力部、4 残雪検出領域設定部、5 1次元投射データ生成部、6,6A 残雪有無推定値算出部、7,7A 時系列判定部、8,8A 車速検出部、9 出力部、10 左レール近似曲線、11 右レール近似曲線、14 残雪検出領域、15 画像データ、14 残雪検出領域、17,21 1次元投射データ、20 フレーム画像データ、25 残雪有無推定値、32 残雪有無判定値、78 残雪判定部、79 ニューラルネットワーク選択部、80 時系列データ正規化処理部、100 軌道検出装置、101,101A,101B 軌道監視装置。
DESCRIPTION OF
Claims (9)
上記各フレーム画像データにおける上記左レールの位置を表す左レール近似曲線と、上記右レールの位置を表す右レール近似曲線とを算出する軌道検出追従手段とを備えた軌道検出装置であって、
上記軌道検出追従手段は、
上記画像撮影手段から第1のフレーム画像データを入力したとき、上記第1のフレーム画像データにおける上記左レールの下端と、上記左レール及び右レールの消失点とを通るように上記左レール近似曲線を算出するとともに、上記第1のフレーム画像データにおける上記右レールの下端と上記消失点とを通るように上記右レール近似曲線を算出し、
上記画像撮影手段から上記第1のフレーム画像データより後の第2のフレーム画像データを入力したとき、上記第1のフレーム画像データにおける上記左レールの下端を通るように、上記第2のフレーム画像データにおける上記左レール近似曲線を算出するとともに、上記第1のフレーム画像データにおける上記右レールの下端を通るように、上記第2のフレーム画像データにおける上記右レール近似曲線を算出することを特徴とする軌道検出装置。 Image capturing means that is fixed to a train that travels on a track including the left rail and the right rail, acquires moving image data of the traveling direction of the train, and sequentially outputs a plurality of frame image data included in the moving image data;
A trajectory detection apparatus comprising a left rail approximate curve representing the position of the left rail in each frame image data and a trajectory detection follow-up means for calculating a right rail approximate curve representing the position of the right rail,
The trajectory detection tracking means is
When the first frame image data is input from the image photographing means, the left rail approximate curve passes through the lower end of the left rail and the vanishing points of the left rail and the right rail in the first frame image data. And calculating the right rail approximate curve so as to pass through the lower end of the right rail and the vanishing point in the first frame image data,
When the second frame image data after the first frame image data is input from the image photographing means, the second frame image passes through the lower end of the left rail in the first frame image data. Calculating the left rail approximate curve in the second frame image data so as to pass through the lower end of the right rail in the first frame image data. Orbit detection device.
上記各フレーム画像データにおいて、上記軌道検出追従手段によって算出された左レール近似曲線の一部及び右レール近似曲線の一部を含む検出対象検出領域を設定する検出対象検出領域設定手段と、
上記各フレーム画像データの上記検出対象検出領域内の画像データを用いて、上記左レール及び右レールを横切る方向に沿った輝度分布を示す1次元投射データを生成する1次元投射データ生成手段と、
上記各フレーム画像データの1次元投射データに基づいて、上記左レールと上記右レールとの間における上記検出対象の有無を表す検出対象有無推定値を算出する検出対象有無推定値算出手段と、
上記各フレーム画像データにおいて算出された検出対象有無推定値の時系列データと、上記列車の速度の情報とを用いて、上記左レールと上記右レールとの間における上記検出対象の有無を判定し、当該判定結果を出力する時系列判定手段とを備えたことを特徴とする軌道監視装置。 A trajectory monitoring device comprising the trajectory detection device according to claim 1, wherein the trajectory monitoring device determines the presence or absence of a predetermined detection target between the left rail and the right rail,
In each frame image data, detection target detection region setting means for setting a detection target detection region including a part of the left rail approximate curve and a part of the right rail approximate curve calculated by the trajectory detection follow-up means,
One-dimensional projection data generating means for generating one-dimensional projection data indicating a luminance distribution along a direction crossing the left rail and the right rail, using image data in the detection target detection region of each frame image data;
Detection target presence / absence estimation value calculating means for calculating a detection target presence / absence estimation value representing the presence / absence of the detection target between the left rail and the right rail based on the one-dimensional projection data of each frame image data;
The presence / absence of the detection target between the left rail and the right rail is determined using time series data of the detection target presence / absence estimated value calculated in each frame image data and the train speed information. A trajectory monitoring device comprising time series determination means for outputting the determination result.
上記左レールと上記右レールとの間に上記検出対象があるときの上記1次元投射データの入力値と、上記左レールと上記右レールとの間に上記検出対象がないときの上記1次元投射データの入力値とを用いて、上記検出対象有無推定値を算出するために用いられる各パラメータをあらかじめ学習して決定し、上記1次元投射データに基づいて、上記決定された各パラメータを用いて上記検出対象有無推定値を算出することを特徴する請求項3記載の軌道監視装置。 The detection target presence / absence estimated value calculation means includes:
The input value of the one-dimensional projection data when the detection target is between the left rail and the right rail, and the one-dimensional projection when the detection target is not between the left rail and the right rail. Each parameter used to calculate the detection target presence / absence estimated value is determined by learning in advance using the input value of the data, and based on the one-dimensional projection data, the determined parameters are used. The trajectory monitoring apparatus according to claim 3, wherein the estimated detection target presence / absence value is calculated.
上記列車の複数の速度分類にそれぞれ対応して設けられ、上記時系列データの入力値に基づいて、所定の荷重係数を用いて、上記左レールと上記右レールとの間における上記検出対象の有無を示す出力値を算出する複数のニューラルネットワークと、
上記各ニューラルネットワーク毎に、上記列車の速度が上記ニューラルネットワークに対応する速度でありかつ上記左レールと上記右レールとの間に上記検出対象があるときの上記時系列データの入力値と、上記列車の速度が上記ニューラルネットワークに対応する速度でありかつ上記左レールと上記右レールとの間に上記検出対象がないときの上記時系列データの入力値とを用いて、上記各ニューラルネットワークの荷重係数をあらかじめ学習して決定する学習手段と、
上記列車の速度に基づいて、上記列車の速度が含まれる速度分類に対応して設けられたニューラルネットワークを選択し、上記検出対象有無推定値の時系列データを上記選択されたニューラルネットワークに出力する選択手段と、
上記選択されたニューラルネットワークからの出力値に基づいて、上記左レールと上記右レールとの間における上記検出対象の有無を判定する検出対象有無判定手段とを備えたことを特徴とする請求項3乃至5のうちのいずれか1つに記載の軌道監視装置。 The time series determination means is
Presence / absence of the detection object between the left rail and the right rail using a predetermined load coefficient based on the input value of the time series data provided corresponding to the plurality of speed classifications of the train A plurality of neural networks for calculating an output value indicating
For each of the neural networks, the input value of the time series data when the speed of the train is a speed corresponding to the neural network and the detection target is between the left rail and the right rail, and Using the input value of the time series data when the speed of the train corresponds to the neural network and there is no detection target between the left rail and the right rail, the load of each neural network Learning means for learning and determining coefficients in advance;
Based on the train speed, the neural network provided corresponding to the speed classification including the train speed is selected, and the time series data of the detection target presence / absence estimated value is output to the selected neural network. A selection means;
4. A detection target presence / absence determining means for determining the presence / absence of the detection target between the left rail and the right rail based on an output value from the selected neural network. The trajectory monitoring apparatus according to any one of 1 to 5.
上記列車の速度を用いて上記検出対象有無推定値の時系列データを時間軸方向に拡大又は縮小することにより、上記時系列データを、所定の基準速度での正規化時系列データに変換する時系列データ正規化処理手段と、
上記正規化時系列データの入力値に基づいて、所定の荷重係数を用いて、上記左レールと上記右レールとの間における上記検出対象の有無を示す出力値を算出する1つのニューラルネットワークと、
上記左レールと上記右レールとの間に上記検出対象があるときの上記正規化時系列データの入力値と、上記左レールと上記右レールとの間に上記検出対象がないときの上記正規化時系列データの入力値とを用いて、上記ニューラルネットワークの荷重係数をあらかじめ学習して決定する学習手段と、
上記ニューラルネットワークからの出力値に基づいて、上記左レールと上記右レールとの間における上記検出対象の有無を判定する検出対象有無判定手段とを備えたことを特徴とする請求項3乃至5のうちのいずれか1つに記載の軌道監視装置。 The time series determination means is
When the time series data is converted into normalized time series data at a predetermined reference speed by expanding or reducing the time series data of the detection target presence / absence estimated value in the time axis direction using the train speed. Series data normalization processing means;
One neural network that calculates an output value indicating the presence or absence of the detection target between the left rail and the right rail using a predetermined load coefficient based on the input value of the normalized time series data;
The normalized time series data input value when the detection target is between the left rail and the right rail, and the normalization when the detection target is not between the left rail and the right rail Learning means for learning and determining in advance the weighting factor of the neural network using input values of time series data,
6. A detection target presence / absence determining means for determining the presence / absence of the detection target between the left rail and the right rail based on an output value from the neural network. The trajectory monitoring apparatus according to any one of the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012208752A JP2014062415A (en) | 2012-09-21 | 2012-09-21 | Trajectory detector and trajectory monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012208752A JP2014062415A (en) | 2012-09-21 | 2012-09-21 | Trajectory detector and trajectory monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014062415A true JP2014062415A (en) | 2014-04-10 |
Family
ID=50617875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012208752A Pending JP2014062415A (en) | 2012-09-21 | 2012-09-21 | Trajectory detector and trajectory monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014062415A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018194158A1 (en) * | 2017-04-21 | 2018-10-25 | 株式会社東芝 | Trajectory identification device, program, and trajectory identification method |
WO2019088021A1 (en) * | 2017-11-01 | 2019-05-09 | 株式会社東芝 | Trajectory discrimination device |
JP2019209734A (en) * | 2018-05-31 | 2019-12-12 | 株式会社東芝 | Track identification apparatus |
JP2022505726A (en) * | 2018-10-24 | 2022-01-14 | プラッサー ウント トイラー エクスポート フォン バーンバウマシーネン ゲゼルシャフト ミット ベシュレンクテル ハフツング | Track builder and method for tamping the bottom of track sleepers |
CN116071566A (en) * | 2023-03-23 | 2023-05-05 | 广东石油化工学院 | Steel drum track detection method based on grid flow denoising and multi-scale target network |
-
2012
- 2012-09-21 JP JP2012208752A patent/JP2014062415A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018194158A1 (en) * | 2017-04-21 | 2018-10-25 | 株式会社東芝 | Trajectory identification device, program, and trajectory identification method |
JP2018181254A (en) * | 2017-04-21 | 2018-11-15 | 株式会社東芝 | Track identification device and program |
TWI673654B (en) * | 2017-04-21 | 2019-10-01 | 日商東芝股份有限公司 | Track identification device and program |
US11210548B2 (en) | 2017-04-21 | 2021-12-28 | Kabushiki Kaisha Toshiba | Railroad track recognition device, program, and railroad track recognition method |
WO2019088021A1 (en) * | 2017-11-01 | 2019-05-09 | 株式会社東芝 | Trajectory discrimination device |
JP2019084857A (en) * | 2017-11-01 | 2019-06-06 | 株式会社東芝 | Track identification apparatus |
CN111295320A (en) * | 2017-11-01 | 2020-06-16 | 株式会社东芝 | Track recognition device |
CN111295320B (en) * | 2017-11-01 | 2023-03-07 | 株式会社东芝 | Track recognition device |
JP2019209734A (en) * | 2018-05-31 | 2019-12-12 | 株式会社東芝 | Track identification apparatus |
JP2022505726A (en) * | 2018-10-24 | 2022-01-14 | プラッサー ウント トイラー エクスポート フォン バーンバウマシーネン ゲゼルシャフト ミット ベシュレンクテル ハフツング | Track builder and method for tamping the bottom of track sleepers |
JP7389115B2 (en) | 2018-10-24 | 2023-11-29 | プラッサー ウント トイラー エクスポート フォン バーンバウマシーネン ゲゼルシャフト ミット ベシュレンクテル ハフツング | Track building machine and method for compacting the lower part of track sleepers |
CN116071566A (en) * | 2023-03-23 | 2023-05-05 | 广东石油化工学院 | Steel drum track detection method based on grid flow denoising and multi-scale target network |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10753758B2 (en) | Top-down refinement in lane marking navigation | |
US9811742B2 (en) | Vehicle-surroundings recognition device | |
Kim et al. | Robust lane detection based on convolutional neural network and random sample consensus | |
JP6266238B2 (en) | Approaching object detection system and vehicle | |
JP2020052694A (en) | Object detection apparatus, object detection method, and computer program for object detection | |
KR101912914B1 (en) | Method and system for recognition of speed limit sign using front camera | |
CN107463890B (en) | A kind of Foregut fermenters and tracking based on monocular forward sight camera | |
Apostoloff et al. | Vision in and out of vehicles: Integrated driver and road scene monitoring | |
US11010622B2 (en) | Infrastructure-free NLoS obstacle detection for autonomous cars | |
Truong et al. | Deep learning-based super-resolution reconstruction and marker detection for drone landing | |
Moghadam et al. | Road direction detection based on vanishing-point tracking | |
JP2014062415A (en) | Trajectory detector and trajectory monitoring device | |
Huang et al. | Tightly-coupled LIDAR and computer vision integration for vehicle detection | |
CN111967396A (en) | Processing method, device and equipment for obstacle detection and storage medium | |
Berriel et al. | A particle filter-based lane marker tracking approach using a cubic spline model | |
CN101320477B (en) | Human body tracing method and equipment thereof | |
Nambi et al. | ALT: towards automating driver license testing using smartphones | |
WO2013026205A1 (en) | System and method for detecting and recognizing rectangular traffic signs | |
CN113591722B (en) | Target person following control method and system for mobile robot | |
KR20060121503A (en) | Apparatus and method for tracking salient human face in robot surveillance | |
CN116434156A (en) | Target detection method, storage medium, road side equipment and automatic driving system | |
KR101564760B1 (en) | Image processing apparatus and method for predicting criminal incident | |
KR101912085B1 (en) | Reliability calaulation method of lane detection and Apparatus for calcaulating for performing thereof | |
Yamashita et al. | Pedestrian and part position detection using a regression-based multiple task deep convolutional neural network | |
JP2019191691A (en) | Image processing apparatus, mobile apparatus and method, and program |