JP2014062415A - Trajectory detector and trajectory monitoring device - Google Patents

Trajectory detector and trajectory monitoring device Download PDF

Info

Publication number
JP2014062415A
JP2014062415A JP2012208752A JP2012208752A JP2014062415A JP 2014062415 A JP2014062415 A JP 2014062415A JP 2012208752 A JP2012208752 A JP 2012208752A JP 2012208752 A JP2012208752 A JP 2012208752A JP 2014062415 A JP2014062415 A JP 2014062415A
Authority
JP
Japan
Prior art keywords
image data
frame image
rail
absence
left rail
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012208752A
Other languages
Japanese (ja)
Inventor
Yasushi Kage
裕史 鹿毛
Makito Seki
真規人 関
Takashi Hirai
隆史 平位
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012208752A priority Critical patent/JP2014062415A/en
Publication of JP2014062415A publication Critical patent/JP2014062415A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machines For Laying And Maintaining Railways (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a trajectory detector capable of reducing processing time and reducing erroneous identification of a trajectory, and a trajectory monitoring device with the trajectory detector.SOLUTION: A trajectory detection follow-up part calculates a left rail approximate curve so as to pass through a lower end L of a left rail, and vanishing points V of the left rail and a right rail in frame image data 20, and calculates a right rail approximate curve so as to pass through a lower end R and the vanishing point V of the right rail in the frame image data 20 when the first frame image data 20 is input from an image photographing device. In addition, the trajectory detection follow-up part fixes the lower end L of the left rail and the lower end R of the right rail R, and calculates the left rail approximate curve and the right rail approximate curve in frame image data after the first frame image data 20.

Description

本発明は、軌道上を走行する車両に搭載された画像撮影装置により撮影された進行方向の画像を解析し、車両の前方に存在する軌道の位置を検出する軌道検出装置と、当該軌道検出装置を備えた軌道監視装置とに関する。   The present invention analyzes a traveling direction image captured by an image capturing device mounted on a vehicle traveling on a track, and detects a position of the track existing in front of the vehicle, and the track detection device. And a trajectory monitoring device.

特許文献1記載の列車前方鉄道信号・標識認識装置は、ビデオカメラと鉄道信号・標識認識装置とを備え、パターンマッチングを行って列車前方のレールの近傍に設置されている鉄道信号・標識を認識する列車前方鉄道信号・標識認識装置において、列車前方の撮影画像データから取得した1フレームの画面である検索画面の中にレールを抽出する手段と、段階的に変更したテンプレート画像のスケールに対応した探索エリアを鉄道固有の情報を利用して前記検索画面上のレールの近傍に特定する探索エリア特定手段と、探索エリア毎にパターンマッチングを行う手段と、最高のスコアを出したパターンマッチングに対応した探索エリアを決定し鉄道信号・標識を認識する手段とで構成したことを特徴とする。従って、レールの近傍に存在する鉄道信号及び標識を認識できる。   The train forward railway signal / sign recognition device described in Patent Document 1 includes a video camera and a railway signal / sign recognition device, and performs pattern matching to recognize the railway signal / signs installed near the rail ahead of the train. In the train ahead railway signal / sign recognition device, it corresponds to the means for extracting the rail in the search screen, which is a one-frame screen obtained from the captured image data ahead of the train, and the scale of the template image changed in stages. Corresponding to search area specifying means for specifying the search area in the vicinity of the rail on the search screen using information specific to the railway, means for performing pattern matching for each search area, and pattern matching that gave the highest score It comprises a means for determining a search area and recognizing a railway signal / sign. Therefore, it is possible to recognize railway signals and signs existing in the vicinity of the rail.

特開2008−215938号公報(5頁23行〜8頁4行)JP 2008-215938 A (5 pages 23 lines to 8 pages 4 lines) 特開2010−286985号公報JP 2010-286985 A

King Hann Lim et al., "Lane Detection and Kalman-based Linear-Parabolic Lane Tracking", 2009 International Conference on Intelligent Human-Machine Systems and Cybernetics, pp, 351-354, August 2009.King Hann Lim et al., "Lane Detection and Kalman-based Linear-Parabolic Lane Tracking", 2009 International Conference on Intelligent Human-Machine Systems and Cybernetics, pp, 351-354, August 2009. Richard O. Duda et al., "Use of the Hough Transformation to Detect Lines and Curves in Pictures", Communications of the ACM, Vol. 15, No. 1, pp. 11-15, January 1972.Richard O. Duda et al., "Use of the Hough Transformation to Detect Lines and Curves in Pictures", Communications of the ACM, Vol. 15, No. 1, pp. 11-15, January 1972. Herve Abdi, "A Neural Network Primer", Journal of Biological Systems, Vol.2, No. 3, pp. 247-283, 1994.Herve Abdi, "A Neural Network Primer", Journal of Biological Systems, Vol.2, No. 3, pp. 247-283, 1994. Lawrence R. Rabiner, "A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition", Proceedings of the IEEE, Vol. 77, No. 2, pp. 257-286, February 1989.Lawrence R. Rabiner, "A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition", Proceedings of the IEEE, Vol. 77, No. 2, pp. 257-286, February 1989.

従来技術に係る列車前方鉄道信号・標識認識装置は、2次元画像処理に比較的時間がかかり、天候及び日照条件により画質が低下する場合はレールを安定に検出できなかった。また、1フレームの画像のみに基づいてレールを検出するので、レールを偶然に誤識別する可能性があった。   The train front railway signal / sign recognition device according to the prior art takes a relatively long time for two-dimensional image processing, and when the image quality deteriorates due to weather and sunshine conditions, the rail cannot be detected stably. Further, since the rail is detected based only on the image of one frame, there is a possibility that the rail is erroneously identified by chance.

本発明の目的は以上の問題点を解決し、従来技術に比較して処理時間を削減しかつ軌道の誤識別を少なくできる軌道検出装置と、当該軌道検出装置を備えた軌道監視装置とを提供することにある。   An object of the present invention is to provide a trajectory detection device that solves the above-described problems, reduces processing time and reduces misidentification of trajectories, and a trajectory monitoring device including the trajectory detection device. There is to do.

本発明に係る軌道検出装置は、左レール及び右レールを含む軌道上を走行する列車に固定され、上記列車の進行方向の動画データを取得し、上記動画データに含まれる複数のフレーム画像データを順次出力する画像撮影手段と、上記各フレーム画像データにおける上記左レールの位置を表す左レール近似曲線と、上記右レールの位置を表す右レール近似曲線とを算出する軌道検出追従手段とを備えた軌道検出装置であって、上記軌道検出追従手段は、上記画像撮影手段から第1のフレーム画像データを入力したとき、上記第1のフレーム画像データにおける上記左レールの下端と、上記左レール及び右レールの消失点とを通るように上記左レール近似曲線を算出するとともに、上記第1のフレーム画像データにおける上記右レールの下端と上記消失点とを通るように上記右レール近似曲線を算出し、上記画像撮影手段から上記第1のフレーム画像データより後の第2のフレーム画像データを入力したとき、上記第1のフレーム画像データにおける上記左レールの下端を通るように、上記第2のフレーム画像データにおける上記左レール近似曲線を算出するとともに、上記第1のフレーム画像データにおける上記右レールの下端を通るように、上記第2のフレーム画像データにおける上記右レール近似曲線を算出することを特徴とする。   The track detection device according to the present invention is fixed to a train traveling on a track including a left rail and a right rail, acquires moving image data of the traveling direction of the train, and obtains a plurality of frame image data included in the moving image data. Image capturing means for sequentially outputting, trajectory detection tracking means for calculating a left rail approximate curve representing the position of the left rail in each frame image data, and a right rail approximate curve representing the position of the right rail. In the trajectory detection device, the trajectory detection follow-up means receives the first frame image data from the image photographing means, the lower end of the left rail, the left rail and the right in the first frame image data. The left rail approximate curve is calculated so as to pass through the vanishing point of the rail, and the lower and upper ends of the right rail in the first frame image data are calculated. When the right rail approximate curve is calculated so as to pass through the vanishing point, and the second frame image data after the first frame image data is input from the image photographing means, the first frame image data The left rail approximate curve in the second frame image data is calculated so as to pass through the lower end of the left rail, and the second rail is passed through the lower end of the right rail in the first frame image data. The right rail approximate curve in the frame image data is calculated.

本発明に係る軌道検出装置及び軌道監視装置によれば、軌道検出追従手段は、画像撮影手段から第1のフレーム画像データを入力したとき、第1のフレーム画像データにおける左レールの下端と、左レール及び右レールの消失点とを通るように左レール近似曲線を算出するとともに、第1のフレーム画像データにおける右レールの下端と消失点とを通るように右レール近似曲線を算出する。また、軌道検出追従手段は、画像撮影手段から第1のフレーム画像データより後の第2のフレーム画像データを入力したとき、第1のフレーム画像データにおける左レールの下端を通るように、第2のフレーム画像データにおける左レール近似曲線を算出するとともに、第1のフレーム画像データにおける右レールの下端を通るように、第2のフレーム画像データにおける右レール近似曲線を算出する。従って、従来技術に比較して処理時間を削減しかつ軌道の誤識別を少なくできる。   According to the trajectory detection device and the trajectory monitoring device according to the present invention, the trajectory detection follow-up means receives the first frame image data from the image photographing means, the lower end of the left rail in the first frame image data, and the left The left rail approximate curve is calculated so as to pass through the vanishing point of the rail and the right rail, and the right rail approximate curve is calculated so as to pass through the lower end of the right rail and the vanishing point in the first frame image data. In addition, when the second frame image data after the first frame image data is input from the image capturing unit, the trajectory detection follow-up unit passes through the lower end of the left rail in the first frame image data. The left rail approximate curve in the second frame image data is calculated so as to pass through the lower end of the right rail in the first frame image data. Therefore, it is possible to reduce processing time and to reduce misidentification of the trajectory as compared with the prior art.

本発明の実施の形態1に係る軌道検出装置100の構成を示すブロック図である。It is a block diagram which shows the structure of the orbit detection apparatus 100 which concerns on Embodiment 1 of this invention. 図1の軌道検出追従部2によって実行される軌道検出追従処理を示すフローチャートである。It is a flowchart which shows the track | orbit detection follow-up process performed by the track | orbit detection follow-up part 2 of FIG. 図2のステップS2において実行される左レール検出追従処理を示すフローチャートである。It is a flowchart which shows the left rail detection follow-up process performed in step S2 of FIG. 図1の画像撮影装置1から出力されるフレーム画像データ20の一例と、当該フレーム画像データ20に対して図2のステップS1の処理を実行して得られた消失点Vの初期位置と、左レール下端Lの位置と、右レール下端Rの位置とを示す写真である。An example of the frame image data 20 output from the image photographing device 1 of FIG. 1, the initial position of the vanishing point V obtained by executing the process of step S1 of FIG. 2 on the frame image data 20, and the left It is a photograph which shows the position of the rail lower end L, and the position of the right rail lower end R. 図3のステップS11において得られる左レール近似曲線10を示すグラフである。It is a graph which shows the left rail approximated curve 10 obtained in step S11 of FIG. 図3のステップS11において、制御点27に代えて制御点28を用いた場合の左レール近似曲線29を示すグラフである。4 is a graph showing a left rail approximate curve 29 when a control point 28 is used in place of the control point 27 in step S11 of FIG. 図3のステップS12において設定される5個の矩形領域24を示すグラフである。It is a graph which shows the five rectangular area | regions 24 set in step S12 of FIG. 図3のステップS14において、各矩形領域24で検出される線分24Sを示すグラフである。4 is a graph showing a line segment 24S detected in each rectangular area 24 in step S14 of FIG. 図3のステップS15において算出される左レール近似曲線26を示すグラフである。It is a graph which shows the left rail approximated curve 26 calculated in step S15 of FIG. 本発明の実施の形態2に係る軌道監視装置101の構成を示すブロック図である。It is a block diagram which shows the structure of the track monitoring apparatus 101 which concerns on Embodiment 2 of this invention. 図10の残雪検出領域設定部4によって設定される残雪検出領域14と、残雪検出領域14内の画像データ15と、画像データ15に基づいて生成される規格化矩形画像データ16と、規格化矩形画像データ16に基づいて生成される1次元射影データ17及び21とを示す説明図である。The remaining snow detection area 14 set by the remaining snow detection area setting unit 4 in FIG. 10, the image data 15 in the remaining snow detection area 14, the normalized rectangular image data 16 generated based on the image data 15, and the normalized rectangle It is explanatory drawing which shows the one-dimensional projection data 17 and 21 produced | generated based on the image data 16. FIG. 図10の残雪有無推定値算出部6の構成及び動作を示す説明図である。It is explanatory drawing which shows the structure and operation | movement of the remaining snow existence estimated value calculation part 6 of FIG. 図10の時系列判定部7の構成を示すブロック図である。It is a block diagram which shows the structure of the time series determination part 7 of FIG. 低速時の図10の残雪有無推定値25の時系列データ26の一例を示すグラフである。It is a graph which shows an example of the time series data 26 of the remaining snow existence estimated value 25 of FIG. 10 at the time of low speed. 高速時の図10の残雪有無推定値25の時系列データ26の一例を示すグラフである。It is a graph which shows an example of the time series data 26 of the remaining snow existence estimation value 25 of FIG. 10 at the time of high speed. 本発明の実施の形態3に係る軌道監視装置101Aの構成を示すブロック図である。It is a block diagram which shows the structure of 101 A of track monitoring apparatuses which concern on Embodiment 3 of this invention. 図16の残雪有無推定値算出部6Aによって用いられる残雪検出チェック範囲22と、残雪があるときの1次元投射データ21とを示すグラフである。It is a graph which shows the remaining snow detection check range 22 used by 6 A of remaining snow existence estimated value calculation parts of FIG. 16, and the one-dimensional projection data 21 when there is remaining snow. 図16の残雪有無推定値算出部6Aによって用いられる残雪検出チェック範囲22と、残雪がないときの1次元投射データ21とを示すグラフである。It is a graph which shows the remaining snow detection check range 22 used by 6A of remaining snow existence estimated value calculation parts of FIG. 16, and the one-dimensional projection data 21 when there is no remaining snow. 本発明の実施の形態4に係る軌道監視装置101Bの構成を示すブロック図である。It is a block diagram which shows the structure of the trajectory monitoring apparatus 101B which concerns on Embodiment 4 of this invention. 図19の時系列判定部7Aの構成を示すブロック図である。It is a block diagram which shows the structure of the time series determination part 7A of FIG. 図19の時系列判定部7Aの動作を示す説明図である。It is explanatory drawing which shows operation | movement of the time series determination part 7A of FIG.

以下、本発明に係る実施の形態について図面を参照して説明する。なお、以下の各実施の形態において、同様の構成要素については同一の符号を付している。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In addition, in each following embodiment, the same code | symbol is attached | subjected about the same component.

実施の形態1.
図1は、本発明の実施の形態1に係る軌道検出装置100の構成を示すブロック図である。軌道検出装置100は、2本のレール上を走向する列車の運転台に搭載され、画像撮影装置1と、軌道検出追従部2と、出力部3とを備えて構成される。ここで、軌道検出追従部2及び出力部3の各機能は、当該各機能に対応するプログラムを、例えば軌道検出装置100のCPU(Central Processing Unit)が実行することによって実現される。画像撮影装置1は、列車の先頭に設けられる運転台に進行方向に向かって据え付けられたビデオカメラなどの撮像装置であって、列車の進行方向に横たわる左レール及び右レールを撮影する。そして、当該撮影した動画データに含まれるフレーム画像データ20を、軌道検出追従部2に順次出力する。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of a trajectory detection apparatus 100 according to Embodiment 1 of the present invention. The track detection device 100 is mounted on a cab of a train that runs on two rails, and includes an image capturing device 1, a track detection tracking unit 2, and an output unit 3. Here, each function of the trajectory detection follow-up unit 2 and the output unit 3 is realized by, for example, a CPU (Central Processing Unit) of the trajectory detection device 100 executing a program corresponding to each function. The image capturing device 1 is an image capturing device such as a video camera installed in a traveling direction on a cab provided at the head of a train, and captures a left rail and a right rail lying in the traveling direction of the train. Then, the frame image data 20 included in the captured moving image data is sequentially output to the trajectory detection follow-up unit 2.

次に、軌道検出追従部2の動作を説明する。図2は、図1の軌道検出追従部2によって実行される軌道検出追従処理を示すフローチャートである。まず始めに、図2のステップS1において、軌道検出追従部2は、画像撮影装置1からの最初のフレーム画像データ20における2本のレールの消失点Vの初期位置と、左レール下端Lの位置と、右レール下端Rの位置とを取得する。ステップS1において実行される処理は、具体的には以下のとおりである。2本のレールに対する列車の相対的な位置は変化せず、特に、フレーム画像データ20における左レール下端Lの位置と、右レール下端Rの位置とは実質的に変化しない。これを利用して、軌道検出追従部2は、例えば、画像撮影装置1の3次元位置情報と、画像撮影装置1の撮影方向を示す視軸の3次元ベクトル情報と、画像撮影装置1と2本のレールとの間の進行方向に沿った距離と、画像撮影装置1と2本のレールとの間の進行方向に垂直な軸に沿った距離とに基づいて、フレーム画像データ20上での左レール下端Lの位置と、右レール下端Rの位置とを算出して取得する。さらに、軌道検出追従部2は、算出された左レール下端Lの位置及び右レール下端Rの位置をそれぞれ通るレールの位置を、例えばハフ変換などのフレーム画像データ20上の線分を検出する所定の線分検出処理によって推定し、推定した2つの線分の延長上の交点を消失点Vの初期位置として取得する。なお、最初のフレーム画像データ20における消失点Vの初期位置と、左レール下端Lの位置と、右レール下端Rの位置とを、人間が目視判断することにより決定し、取得してもよい。   Next, the operation of the trajectory detection follow-up unit 2 will be described. FIG. 2 is a flowchart showing the trajectory detection tracking process executed by the trajectory detection tracking unit 2 of FIG. First, in step S1 of FIG. 2, the trajectory detection follow-up unit 2 sets the initial position of the vanishing point V of the two rails and the position of the lower end L of the left rail in the first frame image data 20 from the image capturing device 1. And the position of the lower end R of the right rail. The processing executed in step S1 is specifically as follows. The relative position of the train with respect to the two rails does not change, and in particular, the position of the left rail lower end L and the position of the right rail lower end R in the frame image data 20 do not substantially change. Using this, the trajectory detection follow-up unit 2 uses, for example, the three-dimensional position information of the image capturing device 1, the three-dimensional vector information of the visual axis indicating the capturing direction of the image capturing device 1, and the image capturing devices 1 and 2. Based on the distance along the traveling direction between the two rails and the distance along the axis perpendicular to the traveling direction between the imaging device 1 and the two rails on the frame image data 20 The position of the left rail lower end L and the position of the right rail lower end R are calculated and acquired. Further, the trajectory detection follow-up unit 2 detects a line segment on the frame image data 20 such as a Hough transform, based on the calculated position of the left rail lower end L and the position of the right rail lower end R. The intersection point on the extension of the two estimated line segments is acquired as the initial position of the vanishing point V. Note that the initial position of the vanishing point V, the position of the left rail lower end L, and the position of the right rail lower end R in the first frame image data 20 may be determined and obtained by visual judgment by a human.

なお、上述したように、フレーム画像データ20における左レール下端Lの位置及び右レール下端Rの位置は、列車の走行中に実質的に変化しない。従って、軌道検出追従部2は、軌道検出追従処理のステップS2以降の各処理において、ステップS1において取得した左レール下端Lの位置及び右レール下端Rの位置を変化させずに用いる。   As described above, the position of the left rail lower end L and the position of the right rail lower end R in the frame image data 20 are not substantially changed during the traveling of the train. Therefore, the trajectory detection follow-up unit 2 uses the position of the left rail lower end L and the position of the right rail lower end R acquired in step S1 without changing in each process after step S2 of the trajectory detection follow-up process.

図4は、図1の画像撮影装置1から出力されるフレーム画像データ20の一例と、当該フレーム画像データ20に対して図2のステップS1の処理を実行して取得された消失点Vの初期位置と、左レール下端Lの位置と、右レール下端Rの位置とを示す写真である。なお、図4に示すように、フレーム画像データ20の左下角を原点Oとするxy座標系を定義する。図2において、ステップS1に続いてステップS2において、軌道検出追従部2は、左レール近似曲線10を算出するための図3の左レール検出追従処理と、右レール近似曲線11を算出するための右レール検出追従処理とを実行して軌道検出追従処理を終了する。なお、右レール検出追従処理は左レール検出追従処理と同様であるので、以下、左レール検出追従処理のみを説明する。   FIG. 4 shows an example of the frame image data 20 output from the image capturing device 1 of FIG. 1 and the initial vanishing point V acquired by executing the processing of step S1 of FIG. It is a photograph which shows a position, the position of the left rail lower end L, and the position of the right rail lower end R. As shown in FIG. 4, an xy coordinate system is defined in which the lower left corner of the frame image data 20 is the origin O. In FIG. 2, in step S <b> 2 following step S <b> 1, the trajectory detection tracking unit 2 calculates the left rail detection tracking process of FIG. 3 for calculating the left rail approximate curve 10 and the right rail approximate curve 11. The right rail detection tracking process is executed, and the trajectory detection tracking process is terminated. Since the right rail detection tracking process is the same as the left rail detection tracking process, only the left rail detection tracking process will be described below.

図3は、図2のステップS2において実行される左レール検出追従処理を示すフローチャートである。図3のステップS11において、軌道検出追従部2は、制御点27を決定し、消失点Vと、左レール下端Lと、制御点27とを通る2次スプライン曲線を算出し、得られた2次スプライン曲線を左レール近似曲線10に設定する。具体的には、軌道検出追従部2は、非特許文献1記載の車線検出方法を用いてステップS11の処理を実行する。図5は、図3のステップS11において得られる左レール近似曲線10を示すグラフであり、図6は、図3のステップS11において、制御点27に代えて制御点28を用いた場合の左レール近似曲線29を示すグラフである。図5及び図6に示すように、制御点を制御点27から制御点28に移動させることにより、2次スプライン曲線を変化させることができるので、消失点Vと、左レール下端Lとを通る任意の曲線を得ることができる。   FIG. 3 is a flowchart showing the left rail detection follow-up process executed in step S2 of FIG. In step S11 of FIG. 3, the trajectory detection follow-up unit 2 determines the control point 27, calculates a quadratic spline curve that passes through the vanishing point V, the left rail lower end L, and the control point 27. The next spline curve is set to the left rail approximate curve 10. Specifically, the track detection follow-up unit 2 performs the process of step S11 using the lane detection method described in Non-Patent Document 1. FIG. 5 is a graph showing the left rail approximate curve 10 obtained in step S11 of FIG. 3, and FIG. 6 shows the left rail when the control point 28 is used in place of the control point 27 in step S11 of FIG. 3 is a graph showing an approximate curve 29. As shown in FIGS. 5 and 6, the secondary spline curve can be changed by moving the control point from the control point 27 to the control point 28, so that the vanishing point V and the left rail lower end L are passed. Arbitrary curves can be obtained.

図3において、ステップS11に続いてステップS12において、軌道検出追従部2は、x軸と、消失点Vを含む水平線30との間の領域をx軸に平行な5個の領域に等分割し、各領域において、左レール近似曲線10を含む矩形領域24を設定する。図7は、図3のステップS12において設定される5個の矩形領域24を示すグラフである。図7に示すように、各矩形領域24は、所定の幅W24を有しかつ左レール近似曲線10が矩形領域24の中心24Cを通るように設定される。ここで、幅W24は、例えば、フレーム画像データ20のx軸方向の幅の25%に設定される。5個の矩形領域24は、以下のステップS14及びS15において、次に入力されるフレーム画像データ20上で、列車の進行に伴って変化する左レールの位置を検出するために用いられる。   3, in step S12 following step S11, the trajectory detection follow-up unit 2 equally divides the region between the x axis and the horizontal line 30 including the vanishing point V into five regions parallel to the x axis. In each region, a rectangular region 24 including the left rail approximate curve 10 is set. FIG. 7 is a graph showing the five rectangular areas 24 set in step S12 of FIG. As shown in FIG. 7, each rectangular area 24 has a predetermined width W <b> 24 and is set so that the left rail approximate curve 10 passes through the center 24 </ b> C of the rectangular area 24. Here, the width W24 is set to, for example, 25% of the width of the frame image data 20 in the x-axis direction. In the following steps S14 and S15, the five rectangular areas 24 are used to detect the position of the left rail that changes as the train progresses on the frame image data 20 that is input next.

図3のステップS12に続いてステップS13において、軌道検出追従部2は、所定の時間以内に画像撮影装置1から次のフレーム画像データ20を入力したか否かを判断し、YESのときはステップS14に進む一方、NOのときは図2の軌道検出追従処理に戻る。ここで、所定の時間は、例えば、画像撮影装置1におけるフレーム画像データ20の生成時間間隔に設定される。ステップS14において、軌道検出追従部2は、入力されたフレーム画像データ20の各矩形領域24において、ハフ変換を用いて左レールに対応する線分24Sを検出する。具体的には、軌道検出追従部2は、非特許文献2記載の方法を用いてステップS14の処理を実行する。図8は、図3のステップS14において、各矩形領域24で検出される線分24Sを示すグラフである。   In step S13 following step S12 in FIG. 3, the trajectory detection follow-up unit 2 determines whether or not the next frame image data 20 has been input from the image capturing apparatus 1 within a predetermined time. While the process proceeds to S14, when the determination is NO, the process returns to the trajectory detection tracking process of FIG. Here, the predetermined time is set, for example, as a generation time interval of the frame image data 20 in the image capturing apparatus 1. In step S14, the trajectory detection follow-up unit 2 detects a line segment 24S corresponding to the left rail using the Hough transform in each rectangular area 24 of the input frame image data 20. Specifically, the trajectory detection follow-up unit 2 executes the process of step S14 using the method described in Non-Patent Document 2. FIG. 8 is a graph showing the line segment 24S detected in each rectangular area 24 in step S14 of FIG.

図3のステップS14に続いてステップS15において、軌道検出追従部2は、各矩形領域24の5本の線分24Sに対して、左レール下端Lを通るスプライン曲線を当てはめることにより、左レール近似曲線26を算出し、左レール近似曲線10を左レール近似曲線26に更新し、出力部3に出力する。具体的には、軌道検出追従部2は、左レール下端Lの位置を固定し、左レール近似曲線26の消失点及び制御点は、左レール近似曲線10の消失点V及び制御点27から移動可能であるという条件の下で、各y座標位置における、左レール近似曲線26のx座標と各線分24Sのx座標との間の誤差の大きさの総和を最小にするように、左レール近似曲線26を算出する。図9は、図3のステップS15において算出される左レール近似曲線26を示すグラフである。さらに、ステップS14において、出力部3は、更新後の左レール近似曲線10を、例えばディスプレイに出力してフレーム画像データ20とともに表示する。   In step S15 following step S14 in FIG. 3, the trajectory detection follow-up unit 2 applies a spline curve passing through the lower end L of the left rail to the five line segments 24S of each rectangular region 24, thereby approximating the left rail. The curve 26 is calculated, the left rail approximate curve 10 is updated to the left rail approximate curve 26, and is output to the output unit 3. Specifically, the track detection follower 2 fixes the position of the lower end L of the left rail, and the vanishing point and control point of the left rail approximate curve 26 move from the vanishing point V and control point 27 of the left rail approximate curve 10. Under the condition that it is possible, the left rail approximation is performed so as to minimize the sum of the magnitudes of errors between the x coordinate of the left rail approximate curve 26 and the x coordinate of each line segment 24S at each y coordinate position. A curve 26 is calculated. FIG. 9 is a graph showing the left rail approximate curve 26 calculated in step S15 of FIG. Furthermore, in step S <b> 14, the output unit 3 outputs the updated left rail approximate curve 10 to, for example, a display and displays it together with the frame image data 20.

次に、軌道検出追従部2は、ステップS16において、x軸と、更新後の左レール近似曲線10の消失点Vを含む水平線30との間の領域をx軸に平行な5個の領域に等分割し、各領域において、左レール近似曲線10を含む矩形領域24を設定して、ステップS13に戻る。なお、ステップS16における矩形領域24の設定方法は、ステップS12における設定方法と同様である。また、ステップS16において用いる更新後の左レール近似曲線10の消失点Vは、左レール近似曲線10を算出したフレーム画像データ20において左レール近似曲線10と同様に算出された右レール近似曲線11と、左レール近似曲線10との交点である。   Next, in step S16, the trajectory detection follow-up unit 2 changes the area between the x-axis and the horizontal line 30 including the vanishing point V of the updated left rail approximate curve 10 into five areas parallel to the x-axis. Divide into equal parts, set a rectangular area 24 including the left rail approximate curve 10 in each area, and return to step S13. Note that the method for setting the rectangular area 24 in step S16 is the same as the setting method in step S12. Further, the vanishing point V of the updated left rail approximate curve 10 used in step S16 is the same as the right rail approximate curve 11 calculated in the same manner as the left rail approximate curve 10 in the frame image data 20 from which the left rail approximate curve 10 is calculated. The intersection with the left rail approximate curve 10.

以上説明したように、本実施の形態に係る軌道検出装置100は、左レール及び右レールを含む軌道上を走行する列車に固定され、列車の進行方向の動画データを取得し、動画データに含まれる複数のフレーム画像データ20を順次出力する画像撮影装置1と、各フレーム画像データ20における左レールの位置を表す左レール近似曲線10と、右レールの位置を表す右レール近似曲線11とを算出する軌道検出追従部2とを備えて構成される。ここで、軌道検出追従部2は、画像撮影装置1から最初のフレーム画像データ20を入力したとき、最初のフレーム画像データ20における左レールの下端Lと、左レール及び右レールの消失点Vとを通るように左レール近似曲線10を算出するとともに、最初のフレーム画像データ20における右レールの下端Rと消失点Vとを通るように右レール近似曲線11を算出する。さらに、軌道検出追従部2は、画像撮影装置1から最初のフレーム画像データより後のフレーム画像データ20を入力したとき、最初のフレーム画像データにおける左レールの下端Lを通るように、入力したフレーム画像データ20における左レール近似曲線10を算出するとともに、最初のフレーム画像データ20における右レールの下端Rを通るように、入力したフレーム画像データ20における右レール近似曲線11を算出する。   As described above, the track detection device 100 according to the present embodiment is fixed to a train traveling on a track including the left rail and the right rail, acquires moving image data of the traveling direction of the train, and is included in the moving image data. The image capturing device 1 that sequentially outputs a plurality of frame image data 20, the left rail approximate curve 10 that represents the position of the left rail in each frame image data 20, and the right rail approximate curve 11 that represents the position of the right rail are calculated. The trajectory detection follow-up unit 2 is configured. Here, when the first frame image data 20 is input from the image capturing device 1, the trajectory detection follow-up unit 2 includes the lower end L of the left rail and the vanishing points V of the left rail and the right rail in the first frame image data 20. The left rail approximate curve 10 is calculated so as to pass through, and the right rail approximate curve 11 is calculated so as to pass through the lower end R and vanishing point V of the right rail in the first frame image data 20. Furthermore, when the trajectory detection follow-up unit 2 inputs the frame image data 20 after the first frame image data from the image capturing device 1, the input frame passes through the lower end L of the left rail in the first frame image data. The left rail approximate curve 10 in the image data 20 is calculated, and the right rail approximate curve 11 in the input frame image data 20 is calculated so as to pass through the lower end R of the right rail in the first frame image data 20.

また、軌道検出追従部2は、最初のフレーム画像データ20より後のフレーム画像データ20を入力したとき、入力したフレーム画像データ20より1つ前のフレーム画像データ20において算出された左レール近似曲線10を含む所定の領域24において線分24Sを検出することにより、入力したフレーム画像データ20における左レール近似曲線10を算出するとともに、入力したフレーム画像データ20より1つ前のフレーム画像データ20において算出された右レール近似曲線11を含む所定の領域24において線分24Sを検出することにより、入力したフレーム画像データ20における右レール近似曲線11を算出することを特徴とする。   In addition, when the frame image data 20 after the first frame image data 20 is input, the trajectory detection follow-up unit 2 calculates the left rail approximate curve calculated in the frame image data 20 immediately before the input frame image data 20. By detecting the line segment 24S in the predetermined region 24 including 10, the left rail approximate curve 10 in the input frame image data 20 is calculated, and in the frame image data 20 immediately before the input frame image data 20 By detecting a line segment 24S in a predetermined region 24 including the calculated right rail approximate curve 11, the right rail approximate curve 11 in the input frame image data 20 is calculated.

従って、本実施の形態によれば、フレーム画像データ20における左レール下端Lの位置及び右レール下端Rの位置をあらかじめ取得し、各フレーム画像データ20において、左レール下端Lの位置及び右レール下端Rの位置を固定して左レール及び右レールを検出するので、従来技術に比較して処理時間を削減できる。また、天候及び日照条件の影響でフレーム画像データ20のコントラストが低下しても、従来技術に比較して安定して左レール及び右レールを検出し、検出される左レール及び右レールの各位置を、フレーム画像データ20上の左レール及び右レールの各位置に追従させることができる。従って、従来技術に比較して、左レール及び右レールの誤識別を少なくできる。   Therefore, according to the present embodiment, the position of the left rail lower end L and the position of the right rail lower end R in the frame image data 20 are acquired in advance, and the position of the left rail lower end L and the position of the right rail lower end in each frame image data 20 are acquired. Since the left rail and the right rail are detected while fixing the position of R, the processing time can be reduced as compared with the prior art. Further, even if the contrast of the frame image data 20 decreases due to the influence of weather and sunshine conditions, the left rail and the right rail are detected more stably than in the prior art, and the detected positions of the left rail and the right rail are detected. Can follow the positions of the left rail and the right rail on the frame image data 20. Therefore, it is possible to reduce misidentification of the left rail and the right rail as compared with the prior art.

また、特許文献1記載の列車前方鉄道信号・標識認識装置は1フレームの画像のみに基づいてレールを検出するので、レールを偶然に誤識別する可能性があったが、本実施の形態によれば、処理対象のフレーム画像データ20の1つ前のフレーム画像データ20において設定された矩形領域24を用いて、処理対象のフレーム画像データ20におけるレールの位置を検出するので、誤識別を少なくできる。   In addition, since the train ahead railway signal / sign recognition device described in Patent Document 1 detects a rail based only on an image of one frame, there is a possibility that the rail is accidentally mistakenly identified. For example, since the position of the rail in the frame image data 20 to be processed is detected using the rectangular area 24 set in the frame image data 20 immediately before the frame image data 20 to be processed, misidentification can be reduced. .

なお、本実施の形態において、軌道検出追従部2及び出力部3の各機能は当該各機能に対応するプログラムを、例えば軌道検出装置100のCPUが実行することによって実現されたが、本発明はこれに限られず、各機能に対応するハードウエア回路を構成して実現されてもよい。   In the present embodiment, each function of the trajectory detection follow-up unit 2 and the output unit 3 is realized by executing a program corresponding to each function, for example, by the CPU of the trajectory detection device 100. However, the present invention is not limited thereto, and may be realized by configuring a hardware circuit corresponding to each function.

また、軌道検出追従部2は、x軸と、消失点Vを含む水平線30との間の領域をx軸に平行な5個の領域に分割し、各領域において、左レール近似曲線10を含む矩形領域24を設定したが、本発明はこれに限られない。軌道検出追従部2は、x軸と、消失点Vを含む水平線30との間の領域をx軸に平行な2個以上の複数の領域に分割し、各領域において、左レール近似曲線10を含む矩形領域24を設定すればよい。   Further, the trajectory detection follow-up unit 2 divides the region between the x axis and the horizontal line 30 including the vanishing point V into five regions parallel to the x axis, and includes the left rail approximate curve 10 in each region. Although the rectangular area 24 is set, the present invention is not limited to this. The trajectory detection follow-up unit 2 divides the region between the x-axis and the horizontal line 30 including the vanishing point V into two or more regions parallel to the x-axis, and in each region, the left rail approximate curve 10 is The rectangular area 24 to be included may be set.

実施の形態2.
図10は、本発明の実施の形態2に係る軌道監視装置101の構成を示すブロック図である。軌道監視装置101は、実施の形態1に係る軌道検出装置100と、残雪検出領域設定部4と、1次元投射データ生成部5と、残雪有無推定値算出部6と、時系列判定部7と、車速検出部8と、出力部9とを備えて構成され、2本のレール間の残雪の有無を判定する。ここで、本実施の形態において、軌道検出装置100は、実施の形態1に係る軌道検出装置100と同様に動作し、消失点Vの位置と、左レール下端Lの位置と、右レール下端Rの位置と、左レール近似曲線10と、右レール近似曲線11との各データを残雪検出領域設定部4に出力する。また、残雪検出領域設定部4と、1次元投射データ生成部5と、残雪有無推定値算出部6と、時系列判定部7と、車速検出部8と、出力部9との各機能は、当該各機能に対応するプログラムを、例えば軌道監視装置101のCPUが実行することによって実現される。
Embodiment 2. FIG.
FIG. 10 is a block diagram showing the configuration of the trajectory monitoring apparatus 101 according to Embodiment 2 of the present invention. The trajectory monitoring apparatus 101 includes a trajectory detection apparatus 100 according to the first embodiment, a remaining snow detection area setting unit 4, a one-dimensional projection data generation unit 5, a remaining snow presence / absence estimated value calculation unit 6, and a time series determination unit 7. The vehicle speed detection part 8 and the output part 9 are comprised, and the presence or absence of the remaining snow between two rails is determined. Here, in the present embodiment, the trajectory detection device 100 operates in the same manner as the trajectory detection device 100 according to the first embodiment, and the position of the vanishing point V, the position of the left rail lower end L, and the right rail lower end R. , The left rail approximate curve 10 and the right rail approximate curve 11 are output to the remaining snow detection area setting unit 4. The remaining snow detection area setting unit 4, the one-dimensional projection data generation unit 5, the remaining snow presence / absence estimated value calculation unit 6, the time series determination unit 7, the vehicle speed detection unit 8, and the output unit 9 are For example, the program corresponding to each function is executed by the CPU of the trajectory monitoring apparatus 101.

図11を参照して、図10の残雪検出領域設定部4及び1次元投射データ生成部5の動作を説明する。図11は、図10の残雪検出領域設定部4によって設定される残雪検出領域14と、残雪検出領域14内の画像データ15と、画像データ15に基づいて生成される規格化矩形画像データ16と、規格化矩形画像データ16に基づいて生成される1次元射影データ17及び21とを示す説明図である。   With reference to FIG. 11, operations of the remaining snow detection region setting unit 4 and the one-dimensional projection data generation unit 5 in FIG. 10 will be described. 11 shows the remaining snow detection area 14 set by the remaining snow detection area setting unit 4 in FIG. 10, the image data 15 in the remaining snow detection area 14, and the normalized rectangular image data 16 generated based on the image data 15. FIG. 4 is an explanatory diagram showing one-dimensional projection data 17 and 21 generated based on normalized rectangular image data 16.

まず始めに、残雪検出領域設定部4は、図11に示すように、左レール下端Lの位置からx軸の負の方向に所定の距離wsだけ離れた位置Lsと、消失点Vとを通る2次スプライン曲線を左レール路肩曲線12として算出する。また、右レール下端Rの位置からx軸の正の方向に所定の距離wsだけ離れた位置Rsと、消失点Vとを通る2次スプライン曲線を右レール路肩曲線13として算出する。ここで、距離wsは、フレーム画像データ20のx軸上での左レール及び右レールの路肩の幅に対応する距離に設定され、左レール路肩曲線12及び右レール路肩近似曲線13は、左レール及び右レールの外側の路肩の縁に対応する。   First, as shown in FIG. 11, the remaining snow detection region setting unit 4 passes through a position Ls that is a predetermined distance ws away from the position of the lower end L of the left rail in the negative direction of the x axis and the vanishing point V. A secondary spline curve is calculated as the left rail road shoulder curve 12. Further, a quadratic spline curve passing through a position Rs that is a predetermined distance ws away from the position of the right rail lower end R in the positive direction of the x-axis and the vanishing point V is calculated as the right rail road shoulder curve 13. Here, the distance ws is set to a distance corresponding to the width of the shoulder of the left rail and the right rail on the x-axis of the frame image data 20, and the left rail shoulder curve 12 and the right rail shoulder approximate curve 13 are And corresponding to the outer shoulder edge of the right rail.

次に、残雪検出領域設定部4は、残雪の有無を検出するための残雪検出領域14を、頂点L1,L2,R1及びR2を有する台形領域に設定し、残雪検出領域14内の画像データ15を1次元投射データ生成部5に出力する。ここで、頂点L1及びR1のy座標はyh×a(ただし、yhは水平線30のy座標であり、0<a<1である。)であり、頂点L2及びR2のy座標はyh×b(ただし、0<b<a<1である。)である。また、辺L1−L2は左レール路肩曲線12を近似する線分であり、辺R1−R2は右レール路肩曲線13を近似する線分である。なお、定数aは例えば0.6に設定され、定数bは例えば0.4に設定される。以上説明したように設定された残雪検出領域設定部4は、左レール近似曲線10の一部と、右レール近似曲線11の一部とを含む。   Next, the remaining snow detection area setting unit 4 sets the remaining snow detection area 14 for detecting the presence or absence of remaining snow to a trapezoid area having vertices L1, L2, R1, and R2, and image data 15 in the remaining snow detection area 14 is set. Is output to the one-dimensional projection data generation unit 5. Here, the y coordinates of the vertices L1 and R1 are yh × a (where yh is the y coordinate of the horizontal line 30 and 0 <a <1), and the y coordinates of the vertices L2 and R2 are yh × b. (However, 0 <b <a <1.) Further, the side L1-L2 is a line segment that approximates the left rail road shoulder curve 12, and the side R1-R2 is a line segment that approximates the right rail road shoulder curve 13. The constant a is set to 0.6, for example, and the constant b is set to 0.4, for example. The remaining snow detection area setting unit 4 set as described above includes a part of the left rail approximate curve 10 and a part of the right rail approximate curve 11.

1次元投射データ生成部5は、図11に示すように、台形形状を有する画像データ15を、長方形形状を有する画像データに幾何変換し、幾何変換後の画像データ15の輝度値を正規化して規格化画像データ16に変換する。具体的には、1次元投射データ生成部5は、例えば、幾何変換後の画像データの輝度値の最小値が0になりかつ最大値が255になるように、輝度値を線形変換する。なお、図11に示すように、規格化画像データ16の左下角を原点Oとするpq座標系を定義する。このとき、フレーム画像データ20における左レール下端Lの位置と、右レール下端Rの位置とは、規格化画像データ16におけるp軸上の位置18及び位置19にそれぞれ変換される。次に、1次元投射データ生成部5は、規格化画像データ16をq軸方向に射影して1次元射影データ17を生成する。具体的には、1次元投射データ生成部5は、p軸上の各位置において各画素値をq軸方向に累積することにより、1次元射影データ17を生成する。さらに、1次元投射データ生成部5は、1次元射影データ17のうち左レールの位置18と右レールの位置19との間のデータのみを、複数N個のデータを有する1次元投射データ21として残雪有無推定値算出部6に出力する。以上説明したように生成された一次元投射データ17及び21は、左レール及び右レールを横切る方向に沿った輝度分布を示す。   As shown in FIG. 11, the one-dimensional projection data generation unit 5 geometrically converts the image data 15 having a trapezoidal shape into image data having a rectangular shape, and normalizes the luminance value of the image data 15 after the geometric conversion. Conversion to standardized image data 16 is performed. Specifically, the one-dimensional projection data generation unit 5 linearly converts the luminance value so that the minimum value of the luminance value of the image data after geometric conversion becomes 0 and the maximum value becomes 255, for example. Note that, as shown in FIG. 11, a pq coordinate system is defined in which the lower left corner of the normalized image data 16 is the origin O. At this time, the position of the left rail lower end L and the position of the right rail lower end R in the frame image data 20 are converted into the position 18 and the position 19 on the p-axis in the normalized image data 16, respectively. Next, the one-dimensional projection data generation unit 5 generates the one-dimensional projection data 17 by projecting the standardized image data 16 in the q-axis direction. Specifically, the one-dimensional projection data generation unit 5 generates the one-dimensional projection data 17 by accumulating pixel values in the q-axis direction at each position on the p-axis. Further, the one-dimensional projection data generation unit 5 uses only the data between the left rail position 18 and the right rail position 19 in the one-dimensional projection data 17 as one-dimensional projection data 21 having a plurality of N pieces of data. Output to remaining snow presence / absence estimated value calculation unit 6. The one-dimensional projection data 17 and 21 generated as described above indicate the luminance distribution along the direction crossing the left rail and the right rail.

図12は、図10の残雪有無推定値算出部6の構成及び動作を示す説明図である。図12において、残雪有無推定値算出部6は、N個のニューロンを備えた入力層61と、複数のニューロンを備えた中間層62と、1個のニューロンを備えた出力層63とを含む3層構造のニューラルネットワークと、学習コントローラ60とを備えて構成される。1次元投射データ生成部5からの1次元投射データ21は、入力層61に入力され、入力層61の各ニューロンと中間層62の各ニューロンとの間の各荷重係数に応じて中間層62に出力された後、中間層62の各ニューロンと出力層63のニューロンとの間の各荷重係数に応じて、残雪有無推定値25として出力層63から出力される。   FIG. 12 is an explanatory diagram showing the configuration and operation of the remaining snow presence / absence estimated value calculation unit 6 of FIG. 12, the remaining snow presence / absence estimated value calculation unit 6 includes an input layer 61 having N neurons, an intermediate layer 62 having a plurality of neurons, and an output layer 63 having a single neuron. A layered neural network and a learning controller 60 are provided. The one-dimensional projection data 21 from the one-dimensional projection data generation unit 5 is input to the input layer 61, and is input to the intermediate layer 62 according to each load coefficient between each neuron of the input layer 61 and each neuron of the intermediate layer 62. After being output, the remaining snow presence / absence estimated value 25 is output from the output layer 63 according to each load coefficient between each neuron of the intermediate layer 62 and the neuron of the output layer 63.

また、学習コントローラ60は、左レールと右レールとの間に残雪があるときの1次元投射データ21の学習データの入力値と、左レールと右レールとの間に残雪がないときの1次元投射データ21の学習データの入力値とを用いて、左レールと右レールとの間に残雪があるときに残雪有無推定値25が1になりかつ左レールと右レールとの間に残雪がないときに残雪有無推定値25が0になるように、入力層61の各ニューロンと中間層62の各ニューロンとの間の各荷重係数と、中間層62の各ニューロンと出力層63のニューロンとの間の各荷重係数とをあらかじめ学習して決定する。従って、出力層63からの残雪有無推定値25は、残雪があるときは1に近い値になり、残雪がないときは0に近い値になる。なお、学習コントローラ60は、例えば、非特許文献3記載の3層パーセプトロンを用いた誤差逆伝搬学習則を用いて各荷重係数を決定する。また、学習データは、複数の天候条件及び複数の日射条件での1次元投射データ21を含む。   Further, the learning controller 60 inputs the learning data input value of the one-dimensional projection data 21 when there is residual snow between the left rail and the right rail, and one-dimensional when there is no residual snow between the left rail and the right rail. Using the learning data input value of the projection data 21, when there is remaining snow between the left rail and the right rail, the remaining snow presence / absence estimated value 25 becomes 1, and there is no remaining snow between the left rail and the right rail. Sometimes, the load coefficient between each neuron in the input layer 61 and each neuron in the intermediate layer 62 and each neuron in the intermediate layer 62 and each neuron in the output layer 63 are set so that the remaining snow presence / absence estimated value 25 becomes zero. Each load coefficient in between is learned and determined in advance. Therefore, the remaining snow presence / absence estimated value 25 from the output layer 63 is close to 1 when there is remaining snow, and close to 0 when there is no remaining snow. Note that the learning controller 60 determines each load coefficient using, for example, a back propagation learning rule using a three-layer perceptron described in Non-Patent Document 3. The learning data includes one-dimensional projection data 21 under a plurality of weather conditions and a plurality of solar radiation conditions.

図13は、図10の時系列判定部7の構成を示すブロック図である。図13において、時系列判定部7は、3層構造の低速時判定用ニューラルネットワーク7Lと、3層構造の高速時判定用ニューラルネットワーク7Hと、学習コントローラ70及び74と、残雪判定部78と、ニューラルネットワーク選択部79と、スイッチSWとを備えて構成される。また、低速時判定用ニューラルネットワーク7Lは、複数のニューロンを備えた入力層71と、複数のニューロンを備えた中間層62と、1個のニューロンを備えた出力層73とを備え、高速時判定用ニューラルネットワーク7Hは、複数のニューロンを備えた入力層75と、複数のニューロンを備えた中間層76と、1個のニューロンを備えた出力層74とを備える。   FIG. 13 is a block diagram showing a configuration of the time series determination unit 7 of FIG. In FIG. 13, a time series determination unit 7 includes a three-layer structure low-speed determination neural network 7L, a three-layer structure high-speed determination neural network 7H, learning controllers 70 and 74, a remaining snow determination unit 78, A neural network selection unit 79 and a switch SW are provided. Further, the low-speed determination neural network 7L includes an input layer 71 having a plurality of neurons, an intermediate layer 62 having a plurality of neurons, and an output layer 73 having a single neuron. The neural network 7H includes an input layer 75 including a plurality of neurons, an intermediate layer 76 including a plurality of neurons, and an output layer 74 including a single neuron.

図13において、ニューラルネットワーク選択部79は、車速検出部8からの列車の速度の情報に基づいて、列車の速度が所定の速度しきい値以上であるか否かを判断し、列車の速度が所定の速度しきい値未満であるときはスイッチSWを所定の期間Tだけ低速時判定用ニューラルネットワーク7L側に切り替える一方、列車の速度が所定の速度しきい値以上であるときはスイッチSWを所定の期間Tだけ高速時判定用ニューラルネットワーク7H側に切り替える。ここで、車速検出部8は、例えば、車輪の回転数に基づいて列車の速度を算出する車速センサ又はトンネル以外の屋外で利用可能なGPS(Global Positioning System)からの列車の位置情報に基づいて列車の速度を算出してニューラルネットワーク選択部79に出力する車速算出装置である。スイッチSWは、残雪有無推定値算出部6からの残雪有無推定値25の所定の期間T内の時系列データ26を、低速時判定用ニューラルネットワーク7Lの入力層71又は高速時判定用ニューラルネットワーク7Hの入力層75に出力する。   In FIG. 13, the neural network selection unit 79 determines whether or not the train speed is equal to or higher than a predetermined speed threshold based on the train speed information from the vehicle speed detection unit 8. When the speed is less than the predetermined speed threshold, the switch SW is switched to the low-speed determination neural network 7L side for a predetermined period T, while when the train speed is equal to or higher than the predetermined speed threshold, the switch SW is Is switched to the high-speed determination neural network 7H side during the period T. Here, the vehicle speed detection unit 8 is based on, for example, a vehicle speed sensor that calculates the speed of the train based on the number of rotations of the wheels or the position information of the train from a GPS (Global Positioning System) that can be used outdoors other than the tunnel. This is a vehicle speed calculation device that calculates the speed of the train and outputs it to the neural network selection unit 79. The switch SW converts the time series data 26 within the predetermined period T of the remaining snow presence / absence estimated value 25 from the remaining snow presence / absence estimated value calculation unit 6 to the input layer 71 of the low speed determination neural network 7L or the high speed determination neural network 7H. Are output to the input layer 75.

時系列データ26は、入力層71に入力されると、入力層71の各ニューロンと中間層71の各ニューロンとの間の各荷重係数に応じて中間層71に出力された後、中間層71の各ニューロンと出力層73のニューロンとの間の各荷重係数に応じて、出力層73から残雪判定部78に出力される。また、時系列データ26は、入力層75に入力されると、入力層75の各ニューロンと中間層76の各ニューロンとの間の各荷重係数に応じて中間層76に出力された後、中間層76の各ニューロンと出力層77のニューロンとの間の各荷重係数に応じて、出力層76から残雪判定部78に出力される。   When the time series data 26 is input to the input layer 71, the time series data 26 is output to the intermediate layer 71 in accordance with each load coefficient between each neuron of the input layer 71 and each neuron of the intermediate layer 71, and then the intermediate layer 71. Are output from the output layer 73 to the remaining snow determination unit 78 in accordance with the respective load coefficients between the respective neurons and the neurons of the output layer 73. Further, when the time series data 26 is input to the input layer 75, the time series data 26 is output to the intermediate layer 76 in accordance with each load coefficient between each neuron of the input layer 75 and each neuron of the intermediate layer 76, and then intermediate In response to each load coefficient between each neuron in the layer 76 and each neuron in the output layer 77, the remaining snow is determined from the output layer 76 to the remaining snow determination unit 78.

また、学習コントローラ70は、列車の速度が所定の速度しきい値未満でありかつ左レールと右レールとの間に残雪があるときの時系列データ26の学習データの入力値と、列車の速度が所定の速度しきい値未満でありかつ左レールと右レールとの間に残雪がないときの時系列データ26の学習データの入力値とを用いて、左レールと右レールとの間に残雪があるときに残雪有無判定値32が1になりかつ左レールと右レールとの間に残雪がないときに残雪有無判定値32が0になるように、入力層71の各ニューロンと中間層72の各ニューロンとの間の各荷重係数と、中間層72の各ニューロンと出力層73のニューロンとの間の各荷重係数とをあらかじめ学習して決定する。従って、出力層73からの出力値は、残雪があるときは1に近い値になり、残雪がないときは0に近い値になる。   The learning controller 70 also inputs the learning data input value of the time-series data 26 when the train speed is less than a predetermined speed threshold and there is residual snow between the left rail and the right rail, and the train speed. Is less than a predetermined speed threshold value, and the remaining snow between the left rail and the right rail using the input value of the learning data of the time series data 26 when there is no remaining snow between the left rail and the right rail. Each of the neurons of the input layer 71 and the intermediate layer 72 are set such that the remaining snow presence / absence determination value 32 becomes 1 and there is no remaining snow between the left rail and the right rail. Each load coefficient between each neuron and each load coefficient between each neuron in the intermediate layer 72 and each neuron in the output layer 73 is determined by learning in advance. Therefore, the output value from the output layer 73 is a value close to 1 when there is residual snow, and a value close to 0 when there is no residual snow.

さらに、学習コントローラ74は、列車の速度が所定の速度しきい値以上でありかつ左レールと右レールとの間に残雪があるときの時系列データ26の学習データの入力値と、列車の速度が所定の速度しきい値以上でありかつ左レールと右レールとの間に残雪がないときの時系列データ26の学習データの入力値とを用いて、左レールと右レールとの間に残雪があるときに残雪有無判定値32が1になりかつ左レールと右レールとの間に残雪がないときに残雪有無判定値32が0になるように、入力層75の各ニューロンと中間層76の各ニューロンとの間の各荷重係数と、中間層76の各ニューロンと出力層77のニューロンとの間の各荷重係数とをあらかじめ学習して決定する。従って、出力層77からの出力値は、残雪があるときは1に近い値になり、残雪がないときは0に近い値になる。   Further, the learning controller 74 inputs the learning data input value of the time-series data 26 when the train speed is equal to or higher than a predetermined speed threshold and there is residual snow between the left rail and the right rail, and the train speed. Remaining snow between the left rail and the right rail using the input value of the learning data of the time series data 26 when is equal to or greater than a predetermined speed threshold and there is no remaining snow between the left rail and the right rail. Each of the neurons in the input layer 75 and the intermediate layer 76 are set so that the remaining snow presence / absence determination value 32 becomes 1 when there is, and the remaining snow presence / absence determination value 32 becomes 0 when there is no remaining snow between the left rail and the right rail. Each load coefficient between each neuron and each load coefficient between each neuron in the intermediate layer 76 and each neuron in the output layer 77 is determined by learning in advance. Therefore, the output value from the output layer 77 is a value close to 1 when there is remaining snow, and a value close to 0 when there is no remaining snow.

なお、学習コントローラ60は、例えば、非特許文献3記載の3層パーセプトロンを用いた誤差逆伝搬学習則又は非特許文献4に記載されている隠れマルコフモデルなどの学習アルゴリズムを用いて、各荷重係数を決定する。   Note that the learning controller 60 uses, for example, a learning algorithm such as a back propagation learning rule using a three-layer perceptron described in Non-Patent Document 3 or a hidden Markov model described in Non-Patent Document 4 to load each weight coefficient. To decide.

また、図13において、残雪判定部78は、出力層73又は77からの出力値が所定の判定しきい値以上であるときは残雪ありと判定する一方、出力層73又は77からの出力値が所定の残雪判定しきい値未満であるときは残雪なしと判定し、判定結果を示す残雪有無判定値32を出力部9に出力する。ここで、残雪判定しきい値は、例えば0.5に設定される。さらに、出力部9は、残雪有無判定値32を例えばディスプレイに出力してフレーム画像データ20とともに表示する。   In FIG. 13, the remaining snow determination unit 78 determines that there is remaining snow when the output value from the output layer 73 or 77 is equal to or greater than a predetermined determination threshold, while the output value from the output layer 73 or 77 is When it is less than the predetermined remaining snow determination threshold, it is determined that there is no remaining snow, and a remaining snow presence / absence determination value 32 indicating the determination result is output to the output unit 9. Here, the remaining snow determination threshold value is set to 0.5, for example. Further, the output unit 9 outputs the remaining snow presence / absence determination value 32 to, for example, a display and displays it together with the frame image data 20.

以上説明したように、本実施の形態に係る軌道監視装置101は、
(a)軌道検出装置100と、
(b)各フレーム画像データ20において、軌道検出追従部2によって算出された左レール近似曲線10の一部及び右レール近似曲線11の一部を含む検出対象検出領域14を設定する残雪検出領域設定部4と、
(c)各フレーム画像データ20の残雪検出領域14内の画像データ15を用いて、左レール及び右レールを横切る方向に沿った輝度分布を示す1次元投射データ21を生成する1次元投射データ生成部5と、
(d)各フレーム画像データ20の1次元投射データ21に基づいて、左レールと右レールとの間における残雪の有無を表す残雪有無推定値25を算出する残雪有無推定値算出部6と、
(e)各フレーム画像データ20において算出された残雪有無推定値25の時系列データ26と、列車の速度の情報とを用いて、左レールと右レールとの間における残雪の有無を判定し、当該判定結果を出力する時系列判定部7とを備えたことを特徴とする。
As described above, the trajectory monitoring apparatus 101 according to the present embodiment is
(A) the trajectory detection device 100;
(B) In each frame image data 20, a remaining snow detection region setting for setting a detection target detection region 14 including a part of the left rail approximate curve 10 and a part of the right rail approximate curve 11 calculated by the trajectory detection follow-up unit 2. Part 4
(C) One-dimensional projection data generation for generating one-dimensional projection data 21 indicating the luminance distribution along the direction crossing the left rail and the right rail using the image data 15 in the remaining snow detection region 14 of each frame image data 20 Part 5;
(D) based on the one-dimensional projection data 21 of each frame image data 20, a remaining snow presence / absence estimated value calculation unit 6 that calculates a remaining snow presence / absence estimated value 25 indicating the presence or absence of remaining snow between the left rail and the right rail;
(E) Using the time series data 26 of the remaining snow presence / absence estimated value 25 calculated in each frame image data 20 and the train speed information, the presence / absence of remaining snow between the left rail and the right rail is determined, A time-series determination unit 7 that outputs the determination result is provided.

また、残雪有無推定値算出部6は、左レールと右レールとの間に残雪があるときの1次元投射データ21の入力値と、左レールと右レールとの間に残雪がないときの1次元投射データ21の入力値とを用いて、残雪有無推定値25を算出するために用いられる各パラメータ(荷重係数)をあらかじめ学習して決定し、1次元投射データ21に基づいて、決定された各パラメータを用いて残雪有無推定値25を算出することを特徴する。   Further, the remaining snow presence / absence estimated value calculation unit 6 inputs the one-dimensional projection data 21 when there is remaining snow between the left rail and the right rail, and 1 when there is no remaining snow between the left rail and the right rail. Each parameter (load coefficient) used to calculate the remaining snow presence / absence estimated value 25 is learned and determined in advance using the input value of the two-dimensional projection data 21, and is determined based on the one-dimensional projection data 21. The remaining snow presence / absence estimated value 25 is calculated using each parameter.

さらに、時系列判定部7は、
(a)列車の複数の速度分類にそれぞれ対応して設けられ、時系列データ26の入力値に基づいて、所定の荷重係数を用いて、左レールと右レールとの間における残雪の有無を示す出力値を算出する複数のニューラルネットワーク7L及び7Hと、
(b)各ニューラルネットワーク7L及び7H毎に、列車の速度がニューラルネットワークに対応する速度でありかつ左レールと右レールとの間に残雪があるときの時系列データ26の入力値と、列車の速度がニューラルネットワークに対応する速度でありかつ左レールと右レールとの間に残雪がないときの時系列データ26の入力値とを用いて、各ニューラルネットワーク7L及び7Hの荷重係数をあらかじめ学習して決定する学習コントローラ70及び74と、
(c)列車の速度に基づいて、列車の速度が含まれる速度分類に対応して設けられたニューラルネットワーク7L又は7Hを選択し、残雪有無推定値25の時系列データ26を選択されたニューラルネットワーク7L又は7Hに出力するニューラルネットワーク選択部79と、
(d)選択されたニューラルネットワーク7L又は7Hからの出力値に基づいて、左レールと右レールとの間における残雪の有無を判定する残雪有無判定部78とを備えたことを特徴とする。
Furthermore, the time series determination unit 7
(A) Provided corresponding to each of a plurality of speed classifications of the train, and based on the input value of the time series data 26, using a predetermined load coefficient, indicates the presence or absence of residual snow between the left rail and the right rail A plurality of neural networks 7L and 7H for calculating output values;
(B) For each neural network 7L and 7H, the input value of the time-series data 26 when the train speed is the speed corresponding to the neural network and there is residual snow between the left rail and the right rail, The load coefficient of each neural network 7L and 7H is previously learned using the input value of the time series data 26 when the speed is a speed corresponding to the neural network and there is no remaining snow between the left rail and the right rail. Learning controllers 70 and 74 to be determined,
(C) The neural network 7L or 7H provided corresponding to the speed classification including the train speed is selected based on the train speed, and the time-series data 26 of the remaining snow presence / absence estimated value 25 is selected. A neural network selection unit 79 for outputting to 7L or 7H;
(D) A remaining snow presence / absence determining unit 78 that determines the presence / absence of remaining snow between the left rail and the right rail based on the output value from the selected neural network 7L or 7H is provided.

左レールと右レールとの間の残雪の有無を判定する単純な方法として、残雪有無推定値算出部6からの残雪有無推定値25が所定のしきい値以上であれば残雪ありと判定する一方、残雪有無推定値25が所定のしきい値未満であれば残雪なしと判定する方法がある。しかしながら、この方法の場合、レール間の水溜りの具合又は日照条件によって、残雪に類似した画像パターンが偶然に現れた場合は、残雪ありと誤って判定してしまう。本実施の形態では、残雪有無推定値25の時系列データ26を用いて残雪の有無を判定するので、誤判定を減らすことができる。   As a simple method for determining the presence or absence of remaining snow between the left rail and the right rail, if the remaining snow presence / absence estimated value 25 from the remaining snow presence / absence estimated value calculation unit 6 is equal to or greater than a predetermined threshold, it is determined that there is remaining snow. There is a method of determining that there is no remaining snow if the remaining snow presence / absence estimated value 25 is less than a predetermined threshold. However, in the case of this method, if an image pattern similar to the remaining snow appears by chance due to the water pool between the rails or the sunshine condition, it is erroneously determined that there is remaining snow. In the present embodiment, since the presence / absence of remaining snow is determined using the time series data 26 of the remaining snow presence / absence estimated value 25, erroneous determination can be reduced.

図14は、低速時の図10の残雪有無推定値25の時系列データ26の一例を示すグラフであり、図15は、高速時の図10の残雪有無推定値25の時系列データ26の一例を示すグラフである。図14及び図15に示すように、一般に、レール間に残雪があるとき、列車の速度が小さいほど比較的大きい残雪有無推定値25が長い時間にわたって出力される。このため、列車の速度を考慮せずに同一のニューラルネットワークを用いて残雪の有無を判定すると、誤判定につながる。本実施の形態では、列車の速度に応じてニューラルネットワーク7H又は7Lを選択して用いるので、列車の速度が変化しても残雪の有無を安定に判定できる。   14 is a graph showing an example of the time series data 26 of the remaining snow presence / absence estimated value 25 of FIG. 10 at low speed, and FIG. 15 is an example of the time series data 26 of the remaining snow presence / absence estimated value 25 of FIG. 10 at high speed. It is a graph which shows. As shown in FIGS. 14 and 15, in general, when there is residual snow between the rails, a relatively large residual snow presence / absence estimated value 25 is output over a long period of time as the train speed decreases. For this reason, determining the presence or absence of residual snow using the same neural network without considering the train speed leads to an erroneous determination. In this embodiment, since the neural network 7H or 7L is selected and used according to the train speed, the presence or absence of remaining snow can be determined stably even if the train speed changes.

また、本実施の形態によれば、残雪有無推定値算出部6は、1次元投射データ21に基づいて残雪有無推定値25を算出するためのニューラルネットワークを備え、当該ニューラルネットワークの荷重係数をあらかじめ学習して決定する。従って、1次元投射データ21の平均値又は分散などの比較的単純な統計的パラメータのみを所定のしきい値と比較して残雪の有無を推定できない場合にも、残雪の有無を自動的に判定できる。さらに、複数の天候条件及び複数の日射条件での1次元投射データ21を含む学習データを用いてあらかじめ学習を行うので、人間が手動で1次元投射データ21の特徴を抽出する必要がなく、かつ従来技術に比較して誤識別を減らすことができる。   Further, according to the present embodiment, the remaining snow presence / absence estimated value calculation unit 6 includes the neural network for calculating the remaining snow presence / absence estimated value 25 based on the one-dimensional projection data 21, and the load coefficient of the neural network is determined in advance. Learn and decide. Accordingly, even when only a relatively simple statistical parameter such as an average value or variance of the one-dimensional projection data 21 is compared with a predetermined threshold value and the presence or absence of remaining snow cannot be estimated, the presence or absence of remaining snow is automatically determined. it can. Furthermore, since learning is performed in advance using learning data including the one-dimensional projection data 21 under a plurality of weather conditions and a plurality of solar radiation conditions, it is not necessary for a human to manually extract the features of the one-dimensional projection data 21 and Misidentification can be reduced compared to the prior art.

さらに、本実施の形態によれば、画像撮影装置1により列車進行方向の画像を撮影してフレーム画像データ20を生成し、軌道検出追従部2により最初のフレーム画像データ20における2本のレールの消失点Vの初期位置と、左レール下端Lの位置と、右レール下端Rの位置とに基づいて左レール近似曲線10及び右レール近似曲線11を算出した後に、順次入力されるフレーム画像データ20毎に、左レール近似曲線10及び右レール近似曲線11を更新する。また、残雪検出領域設定部4により、左レールと右レールとの間の残雪有無を判定するための必要な残雪検出領域14を設定し、当該残雪検出領域14内の画像データ15を取得する。さらに、1次元投射データ生成部5により、画像データ15を1次元射影データ17に変換し、残雪有無推定値算出部6により、あらかじめ学習したニューラルネットワーク(識別回路)を用いて、1次元射影データ17の一部の1次元投射データ21に基づいて残雪有無推定値25を算出して出力する。そして、時系列判定部7により、残雪有無推定値25の時系列データ26と、列車の速度とを用いて残雪有無を判定する。従って、従来技術に比較して高速に、少ないメモリ資源で、かつ撮影環境に依存せずに安定に左レールと右レールとの間の残雪有無を判定できる。   Furthermore, according to the present embodiment, the image capturing apparatus 1 captures an image in the train traveling direction to generate frame image data 20, and the trajectory detection follow-up unit 2 detects the two rails in the first frame image data 20. After calculating the left rail approximate curve 10 and the right rail approximate curve 11 based on the initial position of the vanishing point V, the position of the left rail lower end L, and the position of the right rail lower end R, the frame image data 20 sequentially input. Each time, the left rail approximate curve 10 and the right rail approximate curve 11 are updated. Further, the remaining snow detection area setting unit 4 sets a remaining snow detection area 14 necessary for determining the presence or absence of remaining snow between the left rail and the right rail, and acquires image data 15 in the remaining snow detection area 14. Further, the one-dimensional projection data generation unit 5 converts the image data 15 into one-dimensional projection data 17, and the remaining snow presence / absence estimated value calculation unit 6 uses the neural network (identification circuit) learned in advance to generate the one-dimensional projection data. A remaining snow presence / absence estimated value 25 is calculated and output based on a part of the one-dimensional projection data 21 of 17. Then, the time series determination unit 7 determines the presence / absence of remaining snow using the time series data 26 of the estimated remaining snow presence / absence value 25 and the train speed. Accordingly, it is possible to determine the presence or absence of remaining snow between the left rail and the right rail stably at a high speed, with less memory resources, and without depending on the shooting environment, as compared with the prior art.

なお、本実施の形態において、列車の速度を高速と低速の2段階に分類し、時系列判定部7は列車の速度に応じて低速時判定用ニューラルネットワーク7L又は高速時判定用ニューラルネットワーク7Hを選択して用いたが、本発明はこれに限られない。列車の速度を3段階以上の複数段階に分類し、列車の速度に応じて複数のニューラルネットワークのうちの1つを選択して用いてもよい。   In the present embodiment, the train speed is classified into two stages, high speed and low speed, and the time-series determination unit 7 determines the low speed determination neural network 7L or the high speed determination neural network 7H according to the train speed. Although selected and used, the present invention is not limited to this. The train speed may be classified into three or more stages, and one of a plurality of neural networks may be selected and used according to the train speed.

また、本実施の形態において、残雪有無推定値算出部6のニューラルネットワークは、1つの中間層61を備えたが、本発明はこれに限られず、複数の中間層を備えてもよい。さらに、低速時判定用ニューラルネットワーク7L及び高速時判定用ニューラルネットワーク7Hはそれぞれ、1つの中間層72及び76を備えたが、本発明はこれに限られず、複数の中間層を備えてもよい。   In the present embodiment, the neural network of the remaining snow presence / absence estimated value calculation unit 6 includes one intermediate layer 61. However, the present invention is not limited to this, and may include a plurality of intermediate layers. Further, the low-speed determination neural network 7L and the high-speed determination neural network 7H each include one intermediate layer 72 and 76, but the present invention is not limited to this, and may include a plurality of intermediate layers.

さらに、本実施の形態において、残雪検出領域設定部4と、1次元投射データ生成部5と、残雪有無推定値算出部6と、時系列判定部7と、車速検出部8と、出力部9との各機能は、当該各機能に対応するプログラムを、例えば軌道監視装置101のCPUが実行することによって実現されたが、本発明はこれに限られず、各機能に対応するハードウエア回路を構成して実現されてもよい。   Furthermore, in the present embodiment, the remaining snow detection area setting unit 4, the one-dimensional projection data generation unit 5, the remaining snow presence / absence estimated value calculation unit 6, the time series determination unit 7, the vehicle speed detection unit 8, and the output unit 9 Each function is realized by, for example, the CPU of the trajectory monitoring apparatus 101 executing a program corresponding to each function, but the present invention is not limited to this, and a hardware circuit corresponding to each function is configured. May be realized.

実施の形態3.
図16は、本発明の実施の形態3に係る軌道監視装置101Aの構成を示すブロック図である。本実施の形態に係る軌道監視装置101Aは、実施の形態2に係る軌道監視装置101に比較して、残雪有無推定値算出部6及び車速検出部8に代えて残雪有無推定値算出部6A及び車速検出部8Aを備えた点のみが異なり、その他の点については軌道監視装置101と同様に構成される。以下、軌道監視装置101との間の相違点のみを説明する。
Embodiment 3 FIG.
FIG. 16 is a block diagram showing a configuration of a trajectory monitoring apparatus 101A according to Embodiment 3 of the present invention. Compared to the track monitoring apparatus 101 according to the second embodiment, the track monitoring apparatus 101A according to the present embodiment replaces the remaining snow presence / absence estimated value calculation unit 6 and the vehicle speed detection unit 8 with a remaining snow presence / absence estimated value calculation unit 6A and Only the point provided with the vehicle speed detector 8A is different, and the other points are configured in the same manner as the track monitoring apparatus 101. Only differences from the trajectory monitoring apparatus 101 will be described below.

図16において、画像撮影装置1は、フレーム画像データ20を軌道検出部2に加えて車速検出部8Aに出力する。車速検出部8Aは、画像撮影装置1からの複数のフレーム画像データ20を画像処理することにより列車の速度を算出して時系列判定部7に出力する。具体的には、例えば、特許文献2記載のフレーム画像における同一の特徴点を結ぶことによって生成されるオプティカルフローに基づいて物体を検出する物体検出方法を用いて列車の速度を算出する。   In FIG. 16, the image capturing apparatus 1 adds the frame image data 20 to the trajectory detection unit 2 and outputs the frame image data 20 to the vehicle speed detection unit 8A. The vehicle speed detection unit 8A calculates the train speed by performing image processing on the plurality of frame image data 20 from the image capturing device 1, and outputs the train speed to the time series determination unit 7. Specifically, for example, the train speed is calculated using an object detection method that detects an object based on an optical flow generated by connecting the same feature points in a frame image described in Patent Document 2.

図17は、図16の残雪有無推定値算出部6Aによって用いられる残雪検出チェック範囲22と、残雪があるときの1次元投射データ21とを示すグラフであり、図18は、図16の残雪有無推定値算出部6Aによって用いられる残雪検出チェック範囲22と、残雪がないときの1次元投射データ21とを示すグラフである。残雪有無推定値算出部6Aは、1次元投射データ21を用いて残雪の有無を推定するための所定の残雪検出チェック範囲22と残雪判定用しきい値23を設定し、残雪検出チェック範囲22で1次元投射データ21が残雪判定用しきい値23以上であるときは残雪ありと判定し、残雪検出チェック範囲22で1次元投射データ21が残雪判定用しきい値23未満であるときは残雪なしと判定する。さらに、残雪有無推定値算出部6Aは、残雪検出チェック範囲22の1次元投射データ21を積分して、積分値を残雪有無推定値25として時系列判定部7に出力する。ここで、一般に、右レールと左レールとの間に残雪があるときの残雪検出チェック範囲22の1次元投射データ21の積分値は、右レールと左レールとの間に残雪がないときの残雪検出チェック範囲22の1次元投射データ21の積分値より大きい。   FIG. 17 is a graph showing the remaining snow detection check range 22 used by the remaining snow presence / absence estimated value calculation unit 6A in FIG. 16 and the one-dimensional projection data 21 when there is remaining snow, and FIG. 18 shows the remaining snow presence / absence in FIG. It is a graph which shows the remaining snow detection check range 22 used by the estimated value calculation part 6A, and the one-dimensional projection data 21 when there is no remaining snow. The remaining snow presence / absence estimated value calculation unit 6A uses the one-dimensional projection data 21 to set a predetermined remaining snow detection check range 22 and a remaining snow determination threshold value 23 for estimating the presence / absence of remaining snow. When the one-dimensional projection data 21 is greater than or equal to the remaining snow determination threshold 23, it is determined that there is remaining snow. When the one-dimensional projection data 21 is less than the remaining snow determination threshold 23 in the remaining snow detection check range 22, there is no remaining snow. Is determined. Furthermore, the remaining snow presence / absence estimated value calculation unit 6A integrates the one-dimensional projection data 21 in the remaining snow detection check range 22 and outputs the integrated value to the time series determination unit 7 as the remaining snow presence / absence estimated value 25. Here, generally, the integrated value of the one-dimensional projection data 21 in the residual snow detection check range 22 when there is residual snow between the right rail and the left rail is the residual snow when there is no residual snow between the right rail and the left rail. It is larger than the integral value of the one-dimensional projection data 21 in the detection check range 22.

1次元射影データ21に含まれる残雪の特徴が明らかで、1次元投射データ21の平均値又は分散などの比較的単純な統計的パラメータのみを所定のしきい値と比較して残雪の有無を判定できる場合は、本実施の形態に係る残雪有無推定値算出部6Aを用いることができる。この場合、例えば、残雪有無推定値算出部6のニューラルネットワークの荷重係数をあらかじめ学習して記憶するためのメモリが不要であるので、実施の形態1に比較して、メモリ資源を節約して残雪を識別できる。   The characteristics of the remaining snow contained in the one-dimensional projection data 21 are clear, and only the relatively simple statistical parameters such as the average value or variance of the one-dimensional projection data 21 are compared with a predetermined threshold value to determine the presence or absence of remaining snow. If possible, the remaining snow presence / absence estimated value calculation unit 6A according to the present embodiment can be used. In this case, for example, a memory for learning and storing the load coefficient of the neural network in the remaining snow presence / absence estimated value calculation unit 6 in advance is unnecessary, so that compared with the first embodiment, the memory resources are saved and the remaining snow is saved. Can be identified.

また、本実施の形態によれば、画像撮影装置1により取得されるフレーム画像データ20を利用して列車の速度を推定するので、車輪の回転をセンシングする車速センサ又はGPSなどの地理情報取得センサを用いることなく、実施の形態2に比較して安価に残雪を検出できる。   In addition, according to the present embodiment, since the train speed is estimated using the frame image data 20 acquired by the image capturing device 1, a vehicle speed sensor for sensing wheel rotation or a geographic information acquisition sensor such as GPS. The remaining snow can be detected at a lower cost than in the second embodiment without using.

なお、車速検出部8Aを時系列判定部7内に設けてもよい。   The vehicle speed detection unit 8A may be provided in the time series determination unit 7.

また、本実施の形態において、残雪有無推定値算出部6Aは、残雪有無推定値算出部6Aは、残雪検出チェック範囲22の1次元投射データ21を積分して、積分値を残雪有無推定値25として時系列判定部7に出力したが、本発明はこれに限られない。残雪有無推定値算出部6Aは、左レールと右レールとの間における残雪の有無に応じて変化する所定の特徴量を1次元投射データ生成部5からの1次元投射データ21から抽出し、抽出された特徴量に基づいて検出対象有無推定値25を算出すればよい。   In the present embodiment, the remaining snow presence / absence estimated value calculation unit 6A integrates the one-dimensional projection data 21 of the remaining snow presence / absence estimated value calculation unit 22 to obtain the integrated value as the remaining snow presence / absence estimated value 25. Is output to the time series determination unit 7, but the present invention is not limited to this. The remaining snow presence / absence estimated value calculation unit 6A extracts a predetermined feature amount that changes in accordance with the presence / absence of remaining snow between the left rail and the right rail from the one-dimensional projection data 21 from the one-dimensional projection data generation unit 5 and extracts it. The detection target presence / absence estimated value 25 may be calculated based on the feature amount thus determined.

さらに、本実施の形態において、残雪検出領域設定部4と、1次元投射データ生成部5と、残雪有無推定値算出部6Aと、時系列判定部7と、車速検出部8Aと、出力部9との各機能は、当該各機能に対応するプログラムを、例えば軌道監視装置101AのCPUが実行することによって実現されるが、本発明はこれに限られず、各機能に対応するハードウエア回路を構成して実現されてもよい。   Furthermore, in the present embodiment, the remaining snow detection area setting unit 4, the one-dimensional projection data generation unit 5, the remaining snow presence / absence estimated value calculation unit 6A, the time series determination unit 7, the vehicle speed detection unit 8A, and the output unit 9 Each function is realized by, for example, the CPU of the trajectory monitoring apparatus 101A executing a program corresponding to each function, but the present invention is not limited to this, and a hardware circuit corresponding to each function is configured. May be realized.

実施の形態4.
図19は、本発明の実施の形態4に係る軌道監視装置101Bの構成を示すブロック図であり、図20は、図19の時系列判定部7Aの構成を示すブロック図である。また、図21は、図19の時系列判定部7Aの動作を示す説明図である。図19において、本実施の形態に係る軌道監視装置101Bは、図10の実施の形態2に係る軌道監視装置101に比較して、時系列判定部7に代えて時系列判定部7Aを備えた点が異なる。以下、実施の形態2に係る軌道監視装置101との間の相違点のみを説明する。
Embodiment 4 FIG.
FIG. 19 is a block diagram showing a configuration of the trajectory monitoring apparatus 101B according to Embodiment 4 of the present invention, and FIG. 20 is a block diagram showing a configuration of the time series determination unit 7A in FIG. FIG. 21 is an explanatory diagram showing the operation of the time series determination unit 7A of FIG. 19, the trajectory monitoring apparatus 101B according to the present embodiment includes a time series determination unit 7A instead of the time series determination unit 7 as compared with the trajectory monitoring apparatus 101 according to the second embodiment in FIG. The point is different. Only differences from the trajectory monitoring apparatus 101 according to the second embodiment will be described below.

図20において、時系列判定部7Aは、複数のニューロンを備えた入力層91と、複数のニューロンを備えた中間層92と、1個のニューロンを備えた出力層93とを含む3層構造のニューラルネットワークと、時系列データ正規化処理部80と、残雪判定部78とを備えて構成される。時系列データ正規化処理部80は、車速検出部8からの列車の速度の情報に基づいて、残雪有無推定値算出部6からの残雪有無推定値25の時系列データ26を時間方向に拡大又は縮小して、所定の基準速度における正規化時系列データ26Aに変換して入力層91に出力する。ここで、基準速度は、例えば90km/hに設定される。この場合、図21に示すように、列車の速度が60km/hのときは時系列データ26を時間軸方向に2/3に縮小し、残雪有無推定値25を補間して正規化時系列データ26Aを生成する。また、列車の速度が135km/hのときは時系列データ26を時間軸方向に3/2倍に拡大し、残雪有無推定値25を補間して正規化時系列データ26Aを生成する。   20, the time-series determination unit 7A has a three-layer structure including an input layer 91 having a plurality of neurons, an intermediate layer 92 having a plurality of neurons, and an output layer 93 having a single neuron. A neural network, a time series data normalization processing unit 80, and a remaining snow determination unit 78 are provided. The time series data normalization processing unit 80 expands the time series data 26 of the remaining snow presence / absence estimated value 25 from the remaining snow presence / absence estimated value calculation unit 6 in the time direction based on the train speed information from the vehicle speed detection unit 8. The data is reduced, converted to normalized time-series data 26A at a predetermined reference speed, and output to the input layer 91. Here, the reference speed is set to 90 km / h, for example. In this case, as shown in FIG. 21, when the train speed is 60 km / h, the time series data 26 is reduced to 2/3 in the time axis direction, and the remaining snow presence / absence estimated value 25 is interpolated to normalize time series data. 26A is generated. Further, when the train speed is 135 km / h, the time series data 26 is expanded 3/2 times in the time axis direction and the remaining snow presence / absence estimated value 25 is interpolated to generate normalized time series data 26A.

図20において、正規化時系列データ26Aは、入力層91に入力され、入力層91の各ニューロンと中間層92の各ニューロンとの間の各荷重係数に応じて中間層92に出力された後、中間層92の各ニューロンと出力層93のニューロンとの間の各荷重係数に応じて、出力層93から残雪判定部78に出力される。残雪判定部78は、出力層93からの出力値が所定の判定しきい値以上であるときは残雪ありと判定する一方、出力層93からの出力値が所定の残雪判定しきい値未満であるときは残雪なしと判定し、判定結果を示す残雪有無判定値32を出力部9に出力する。ここで、残雪判定しきい値は、例えば0.5に設定される。さらに、出力部9は、残雪有無判定値32を例えばディスプレイに出力してフレーム画像データ20とともに表示する。   In FIG. 20, the normalized time series data 26A is input to the input layer 91, and is output to the intermediate layer 92 in accordance with each load coefficient between each neuron in the input layer 91 and each neuron in the intermediate layer 92. In response to each load coefficient between each neuron in the intermediate layer 92 and each neuron in the output layer 93, the output is output from the output layer 93 to the remaining snow determination unit 78. The remaining snow determination unit 78 determines that there is remaining snow when the output value from the output layer 93 is equal to or greater than a predetermined determination threshold value, while the output value from the output layer 93 is less than the predetermined remaining snow determination threshold value. When there is no remaining snow, the remaining snow presence / absence determination value 32 indicating the determination result is output to the output unit 9. Here, the remaining snow determination threshold value is set to 0.5, for example. Further, the output unit 9 outputs the remaining snow presence / absence determination value 32 to, for example, a display and displays it together with the frame image data 20.

また、学習コントローラ90は、左レールと右レールとの間に残雪があるときの正規化時系列データ26Aの学習データの入力値、左レールと右レールとの間に残雪がないときの正規化時系列データ26Aの学習データの入力値を用いて、左レールと右レールとの間に残雪があるときに残雪有無判定値32が1になりかつ左レールと右レールとの間に残雪がないときに残雪有無判定値32が0になるように、入力層91の各ニューロンと中間層92の各ニューロンとの間の各荷重係数と、中間層92の各ニューロンと出力層93のニューロンとの間の各荷重係数とをあらかじめ学習して決定する。従って、出力層93からの残雪有無判定値32は、残雪があるときは1に近い値になり、残雪がないときは0に近い値になる。   The learning controller 90 also inputs the learning data input value of the normalized time series data 26A when there is residual snow between the left rail and the right rail, and normalizes when there is no residual snow between the left rail and the right rail. Using the input value of the learning data of the time series data 26A, when there is remaining snow between the left rail and the right rail, the remaining snow presence / absence determination value 32 becomes 1, and there is no remaining snow between the left rail and the right rail. Sometimes, the load coefficient between each neuron in the input layer 91 and each neuron in the intermediate layer 92 and each neuron in the intermediate layer 92 and each neuron in the output layer 93 are set so that the remaining snow presence / absence determination value 32 becomes 0. Each load coefficient in between is learned and determined in advance. Accordingly, the remaining snow presence / absence determination value 32 from the output layer 93 is a value close to 1 when there is remaining snow, and a value close to 0 when there is no remaining snow.

以上説明したように、時系列判定部7Aは、
(a)列車の速度を用いて残雪有無推定値25の時系列データ26を時間軸方向に拡大又は縮小することにより、時系列データ26を、所定の基準速度での正規化時系列データ26Aに変換する時系列データ正規化処理部80と、
(b)正規化時系列データ26Aの入力値に基づいて、所定の荷重係数を用いて、左レールと右レールとの間における残雪の有無を示す出力値を算出する1つのニューラルネットワークと、
(c)左レールと右レールとの間に残雪があるときの正規化時系列データ26Aの入力値と、左レールと右レールとの間に残雪がないときの正規化時系列データ26Aの入力値とを用いて、ニューラルネットワークの荷重係数をあらかじめ学習して決定する学習コントローラ90と、
(d)ニューラルネットワークからの出力値に基づいて、左レールと右レールとの間における残雪の有無を判定する残雪有無判定部78とを備えたことを特徴とする。
As described above, the time series determination unit 7A
(A) By expanding or reducing the time series data 26 of the remaining snow presence / absence estimated value 25 in the time axis direction using the train speed, the time series data 26 is converted into normalized time series data 26A at a predetermined reference speed. A time series data normalization processing unit 80 for conversion;
(B) one neural network that calculates an output value indicating the presence or absence of remaining snow between the left rail and the right rail using a predetermined load coefficient based on the input value of the normalized time series data 26A;
(C) Input of normalized time series data 26A when there is residual snow between the left rail and the right rail, and input of normalized time series data 26A when there is no residual snow between the left rail and the right rail A learning controller 90 that learns and determines the weighting factor of the neural network in advance using the value;
(D) A remaining snow presence / absence determination unit 78 that determines the presence / absence of remaining snow between the left rail and the right rail based on an output value from the neural network is provided.

従って、本実施の形態によれば、時系列判定部7Aは1つのニューラルネットワークのみを備えればよいので、実施の形態2に比較して、ニューラルネットワークの荷重係数をあらかじめ学習して記憶するためのメモリ資源を節約できる。従って、軌道監視装置101Bがメモリ資源の制約を受ける場合に、限られたメモリ資源で従来技術に比較して安定に残雪を検出できる。なお、メモリ資源に制約がない場合は、実施の形態2に係る時系列判定部7を用いることが好ましい。これにより、時系列データ正規化処理部80を備える必要がなく、高速に残雪の有無を判定できる。   Therefore, according to the present embodiment, the time series determination unit 7A only needs to have one neural network. Therefore, compared with the second embodiment, the neural network load coefficient is learned and stored in advance. Can save memory resources. Therefore, when the trajectory monitoring apparatus 101B is restricted by memory resources, it is possible to detect remaining snow stably with limited memory resources as compared to the conventional technology. In addition, when there is no restriction | limiting in a memory resource, it is preferable to use the time series determination part 7 which concerns on Embodiment 2. FIG. Thereby, it is not necessary to provide the time series data normalization processing unit 80, and the presence or absence of remaining snow can be determined at high speed.

なお、本実施の形態において、残雪有無推定値算出部6及び車速検出部8に代えて、図16の残雪有無推定値算出部6A及び車速検出部8Aを備えてもよい。   In the present embodiment, the remaining snow presence / absence estimated value calculation unit 6 and the vehicle speed detection unit 8 may be replaced with the remaining snow presence / absence estimated value calculation unit 6A and the vehicle speed detection unit 8A shown in FIG.

また、実施の形態2〜4において、軌道監視装置101A,101B及び101Cはレール間の残雪の有無を判定したが、本発明はこれに限られず、人間などの他の検出対象の有無を識別してもよい。   In the second to fourth embodiments, the track monitoring devices 101A, 101B, and 101C determine the presence or absence of residual snow between the rails. However, the present invention is not limited to this, and the presence or absence of other detection targets such as humans is identified. May be.

さらに、上記各実施の形態において、軌道検出装置100は画像撮影装置1を備えたが、本発明はこれに限られず、画像撮影装置1を備えなくてもよい。またさらに、上記各実施の形態において、軌道監視装置101,101A,101Bは車速検出部8又は8Aを備えたが、本発明はこれに限られず、車速検出部8及び8Aを軌道監視装置101,101A,101Bの外部に設けてもよい。   Furthermore, in each of the embodiments described above, the trajectory detection device 100 includes the image capturing device 1, but the present invention is not limited thereto, and the image capturing device 1 may not be included. Furthermore, in each of the above embodiments, the trajectory monitoring devices 101, 101A, and 101B include the vehicle speed detection unit 8 or 8A. However, the present invention is not limited to this, and the vehicle speed detection units 8 and 8A are connected to the trajectory monitoring device 101, You may provide outside of 101A and 101B.

以上詳述したように、本発明に係る軌道検出装置及び軌道監視装置によれば、軌道検出追従手段は、画像撮影手段から第1のフレーム画像データを入力したとき、第1のフレーム画像データにおける左レールの下端と、左レール及び右レールの消失点とを通るように左レール近似曲線を算出するとともに、第1のフレーム画像データにおける右レールの下端と消失点とを通るように右レール近似曲線を算出する。また、軌道検出追従手段は、画像撮影手段から第1のフレーム画像データより後の第2のフレーム画像データを入力したとき、第1のフレーム画像データにおける左レールの下端を通るように、第2のフレーム画像データにおける左レール近似曲線を算出するとともに、第1のフレーム画像データにおける右レールの下端を通るように、第2のフレーム画像データにおける右レール近似曲線を算出する。従って、従来技術に比較して処理時間を削減しかつ軌道の誤識別を少なくできる。   As described above in detail, according to the trajectory detection apparatus and trajectory monitoring apparatus according to the present invention, when the trajectory detection follow-up means inputs the first frame image data from the image photographing means, the first frame image data The left rail approximation curve is calculated so as to pass through the lower end of the left rail and the vanishing points of the left rail and the right rail, and the right rail is approximated so as to pass through the lower end of the right rail and the vanishing point in the first frame image data. Calculate the curve. In addition, when the second frame image data after the first frame image data is input from the image capturing unit, the trajectory detection follow-up unit passes through the lower end of the left rail in the first frame image data. The left rail approximate curve in the second frame image data is calculated so as to pass through the lower end of the right rail in the first frame image data. Therefore, it is possible to reduce processing time and to reduce misidentification of the trajectory as compared with the prior art.

1 画像撮影装置、2 軌道検出追従部、3 出力部、4 残雪検出領域設定部、5 1次元投射データ生成部、6,6A 残雪有無推定値算出部、7,7A 時系列判定部、8,8A 車速検出部、9 出力部、10 左レール近似曲線、11 右レール近似曲線、14 残雪検出領域、15 画像データ、14 残雪検出領域、17,21 1次元投射データ、20 フレーム画像データ、25 残雪有無推定値、32 残雪有無判定値、78 残雪判定部、79 ニューラルネットワーク選択部、80 時系列データ正規化処理部、100 軌道検出装置、101,101A,101B 軌道監視装置。   DESCRIPTION OF SYMBOLS 1 Image pick-up device, 2 orbit detection follow-up part, 3 output part, 4 remaining snow detection area setting part, 5 one-dimensional projection data generation part, 6, 6A remaining snow existence estimated value calculation part, 7, 7A time series determination part, 8, 8A Vehicle speed detection unit, 9 output unit, 10 left rail approximate curve, 11 right rail approximate curve, 14 remaining snow detection area, 15 image data, 14 remaining snow detection area, 17, 21 one-dimensional projection data, 20 frame image data, 25 remaining snow Presence / absence estimated value, 32 residual snow presence / absence determination value, 78 residual snow determination unit, 79 neural network selection unit, 80 time series data normalization processing unit, 100 trajectory detection device, 101, 101A, 101B trajectory monitoring device.

Claims (9)

左レール及び右レールを含む軌道上を走行する列車に固定され、上記列車の進行方向の動画データを取得し、上記動画データに含まれる複数のフレーム画像データを順次出力する画像撮影手段と、
上記各フレーム画像データにおける上記左レールの位置を表す左レール近似曲線と、上記右レールの位置を表す右レール近似曲線とを算出する軌道検出追従手段とを備えた軌道検出装置であって、
上記軌道検出追従手段は、
上記画像撮影手段から第1のフレーム画像データを入力したとき、上記第1のフレーム画像データにおける上記左レールの下端と、上記左レール及び右レールの消失点とを通るように上記左レール近似曲線を算出するとともに、上記第1のフレーム画像データにおける上記右レールの下端と上記消失点とを通るように上記右レール近似曲線を算出し、
上記画像撮影手段から上記第1のフレーム画像データより後の第2のフレーム画像データを入力したとき、上記第1のフレーム画像データにおける上記左レールの下端を通るように、上記第2のフレーム画像データにおける上記左レール近似曲線を算出するとともに、上記第1のフレーム画像データにおける上記右レールの下端を通るように、上記第2のフレーム画像データにおける上記右レール近似曲線を算出することを特徴とする軌道検出装置。
Image capturing means that is fixed to a train that travels on a track including the left rail and the right rail, acquires moving image data of the traveling direction of the train, and sequentially outputs a plurality of frame image data included in the moving image data;
A trajectory detection apparatus comprising a left rail approximate curve representing the position of the left rail in each frame image data and a trajectory detection follow-up means for calculating a right rail approximate curve representing the position of the right rail,
The trajectory detection tracking means is
When the first frame image data is input from the image photographing means, the left rail approximate curve passes through the lower end of the left rail and the vanishing points of the left rail and the right rail in the first frame image data. And calculating the right rail approximate curve so as to pass through the lower end of the right rail and the vanishing point in the first frame image data,
When the second frame image data after the first frame image data is input from the image photographing means, the second frame image passes through the lower end of the left rail in the first frame image data. Calculating the left rail approximate curve in the second frame image data so as to pass through the lower end of the right rail in the first frame image data. Orbit detection device.
上記軌道検出追従手段は、上記第2のフレーム画像データを入力したとき、上記入力した第2のフレーム画像データより1つ前のフレーム画像データにおいて算出された左レール近似曲線を含む所定の領域において線分を検出することにより、上記第2のフレーム画像データにおける上記左レール近似曲線を算出するとともに、上記入力した第2のフレーム画像データより1つ前のフレーム画像データにおいて算出された右レール近似曲線を含む所定の領域において線分を検出することにより、上記第2のフレーム画像データにおける上記右レール近似曲線を算出することを特徴とする請求項1記載の軌道検出装置。   When the second frame image data is input, the trajectory detection follow-up means includes a predetermined region including a left rail approximate curve calculated in the frame image data immediately before the input second frame image data. The left rail approximate curve in the second frame image data is calculated by detecting a line segment, and the right rail approximation calculated in the frame image data immediately before the input second frame image data The trajectory detection device according to claim 1, wherein the right rail approximate curve in the second frame image data is calculated by detecting a line segment in a predetermined region including a curve. 請求項1又は2記載の軌道検出装置を備え、上記左レールと上記右レールとの間における所定の検出対象の有無を判定する軌道監視装置であって、
上記各フレーム画像データにおいて、上記軌道検出追従手段によって算出された左レール近似曲線の一部及び右レール近似曲線の一部を含む検出対象検出領域を設定する検出対象検出領域設定手段と、
上記各フレーム画像データの上記検出対象検出領域内の画像データを用いて、上記左レール及び右レールを横切る方向に沿った輝度分布を示す1次元投射データを生成する1次元投射データ生成手段と、
上記各フレーム画像データの1次元投射データに基づいて、上記左レールと上記右レールとの間における上記検出対象の有無を表す検出対象有無推定値を算出する検出対象有無推定値算出手段と、
上記各フレーム画像データにおいて算出された検出対象有無推定値の時系列データと、上記列車の速度の情報とを用いて、上記左レールと上記右レールとの間における上記検出対象の有無を判定し、当該判定結果を出力する時系列判定手段とを備えたことを特徴とする軌道監視装置。
A trajectory monitoring device comprising the trajectory detection device according to claim 1, wherein the trajectory monitoring device determines the presence or absence of a predetermined detection target between the left rail and the right rail,
In each frame image data, detection target detection region setting means for setting a detection target detection region including a part of the left rail approximate curve and a part of the right rail approximate curve calculated by the trajectory detection follow-up means,
One-dimensional projection data generating means for generating one-dimensional projection data indicating a luminance distribution along a direction crossing the left rail and the right rail, using image data in the detection target detection region of each frame image data;
Detection target presence / absence estimation value calculating means for calculating a detection target presence / absence estimation value representing the presence / absence of the detection target between the left rail and the right rail based on the one-dimensional projection data of each frame image data;
The presence / absence of the detection target between the left rail and the right rail is determined using time series data of the detection target presence / absence estimated value calculated in each frame image data and the train speed information. A trajectory monitoring device comprising time series determination means for outputting the determination result.
上記検出対象有無推定値算出手段は、
上記左レールと上記右レールとの間に上記検出対象があるときの上記1次元投射データの入力値と、上記左レールと上記右レールとの間に上記検出対象がないときの上記1次元投射データの入力値とを用いて、上記検出対象有無推定値を算出するために用いられる各パラメータをあらかじめ学習して決定し、上記1次元投射データに基づいて、上記決定された各パラメータを用いて上記検出対象有無推定値を算出することを特徴する請求項3記載の軌道監視装置。
The detection target presence / absence estimated value calculation means includes:
The input value of the one-dimensional projection data when the detection target is between the left rail and the right rail, and the one-dimensional projection when the detection target is not between the left rail and the right rail. Each parameter used to calculate the detection target presence / absence estimated value is determined by learning in advance using the input value of the data, and based on the one-dimensional projection data, the determined parameters are used. The trajectory monitoring apparatus according to claim 3, wherein the estimated detection target presence / absence value is calculated.
上記検出対象有無推定値算出手段は、上記左レールと上記右レールとの間における上記検出対象の有無に応じて変化する所定の特徴量を上記1次元投射データ生成手段からの上記1次元投射データから抽出し、上記抽出された特徴量に基づいて上記記検出対象有無推定値を算出することを特徴とする請求項3記載の軌道監視装置。   The detection target presence / absence estimated value calculation means calculates the predetermined feature amount that changes according to the presence / absence of the detection target between the left rail and the right rail from the one-dimensional projection data generation means. The trajectory monitoring apparatus according to claim 3, wherein the detection target presence / absence estimation value is calculated based on the extracted feature amount. 上記時系列判定手段は、
上記列車の複数の速度分類にそれぞれ対応して設けられ、上記時系列データの入力値に基づいて、所定の荷重係数を用いて、上記左レールと上記右レールとの間における上記検出対象の有無を示す出力値を算出する複数のニューラルネットワークと、
上記各ニューラルネットワーク毎に、上記列車の速度が上記ニューラルネットワークに対応する速度でありかつ上記左レールと上記右レールとの間に上記検出対象があるときの上記時系列データの入力値と、上記列車の速度が上記ニューラルネットワークに対応する速度でありかつ上記左レールと上記右レールとの間に上記検出対象がないときの上記時系列データの入力値とを用いて、上記各ニューラルネットワークの荷重係数をあらかじめ学習して決定する学習手段と、
上記列車の速度に基づいて、上記列車の速度が含まれる速度分類に対応して設けられたニューラルネットワークを選択し、上記検出対象有無推定値の時系列データを上記選択されたニューラルネットワークに出力する選択手段と、
上記選択されたニューラルネットワークからの出力値に基づいて、上記左レールと上記右レールとの間における上記検出対象の有無を判定する検出対象有無判定手段とを備えたことを特徴とする請求項3乃至5のうちのいずれか1つに記載の軌道監視装置。
The time series determination means is
Presence / absence of the detection object between the left rail and the right rail using a predetermined load coefficient based on the input value of the time series data provided corresponding to the plurality of speed classifications of the train A plurality of neural networks for calculating an output value indicating
For each of the neural networks, the input value of the time series data when the speed of the train is a speed corresponding to the neural network and the detection target is between the left rail and the right rail, and Using the input value of the time series data when the speed of the train corresponds to the neural network and there is no detection target between the left rail and the right rail, the load of each neural network Learning means for learning and determining coefficients in advance;
Based on the train speed, the neural network provided corresponding to the speed classification including the train speed is selected, and the time series data of the detection target presence / absence estimated value is output to the selected neural network. A selection means;
4. A detection target presence / absence determining means for determining the presence / absence of the detection target between the left rail and the right rail based on an output value from the selected neural network. The trajectory monitoring apparatus according to any one of 1 to 5.
上記時系列判定手段は、
上記列車の速度を用いて上記検出対象有無推定値の時系列データを時間軸方向に拡大又は縮小することにより、上記時系列データを、所定の基準速度での正規化時系列データに変換する時系列データ正規化処理手段と、
上記正規化時系列データの入力値に基づいて、所定の荷重係数を用いて、上記左レールと上記右レールとの間における上記検出対象の有無を示す出力値を算出する1つのニューラルネットワークと、
上記左レールと上記右レールとの間に上記検出対象があるときの上記正規化時系列データの入力値と、上記左レールと上記右レールとの間に上記検出対象がないときの上記正規化時系列データの入力値とを用いて、上記ニューラルネットワークの荷重係数をあらかじめ学習して決定する学習手段と、
上記ニューラルネットワークからの出力値に基づいて、上記左レールと上記右レールとの間における上記検出対象の有無を判定する検出対象有無判定手段とを備えたことを特徴とする請求項3乃至5のうちのいずれか1つに記載の軌道監視装置。
The time series determination means is
When the time series data is converted into normalized time series data at a predetermined reference speed by expanding or reducing the time series data of the detection target presence / absence estimated value in the time axis direction using the train speed. Series data normalization processing means;
One neural network that calculates an output value indicating the presence or absence of the detection target between the left rail and the right rail using a predetermined load coefficient based on the input value of the normalized time series data;
The normalized time series data input value when the detection target is between the left rail and the right rail, and the normalization when the detection target is not between the left rail and the right rail Learning means for learning and determining in advance the weighting factor of the neural network using input values of time series data,
6. A detection target presence / absence determining means for determining the presence / absence of the detection target between the left rail and the right rail based on an output value from the neural network. The trajectory monitoring apparatus according to any one of the above.
上記画像撮影手段からの複数のフレーム画像データを用いて上記列車の速度を算出して出力する車速検出手段をさらに備えたことを特徴とする請求項3乃至7のうちのいずれか1つに記載の軌道監視装置。   The vehicle speed detection means for calculating and outputting the speed of the train using a plurality of frame image data from the image photographing means is further provided. Orbit monitoring device. 上記検出対象は残雪であることを特徴とする請求項3乃至8のうちのいずれか1つに記載の軌道監視装置。   The trajectory monitoring apparatus according to any one of claims 3 to 8, wherein the detection target is residual snow.
JP2012208752A 2012-09-21 2012-09-21 Trajectory detector and trajectory monitoring device Pending JP2014062415A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012208752A JP2014062415A (en) 2012-09-21 2012-09-21 Trajectory detector and trajectory monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012208752A JP2014062415A (en) 2012-09-21 2012-09-21 Trajectory detector and trajectory monitoring device

Publications (1)

Publication Number Publication Date
JP2014062415A true JP2014062415A (en) 2014-04-10

Family

ID=50617875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012208752A Pending JP2014062415A (en) 2012-09-21 2012-09-21 Trajectory detector and trajectory monitoring device

Country Status (1)

Country Link
JP (1) JP2014062415A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018194158A1 (en) * 2017-04-21 2018-10-25 株式会社東芝 Trajectory identification device, program, and trajectory identification method
WO2019088021A1 (en) * 2017-11-01 2019-05-09 株式会社東芝 Trajectory discrimination device
JP2019209734A (en) * 2018-05-31 2019-12-12 株式会社東芝 Track identification apparatus
JP2022505726A (en) * 2018-10-24 2022-01-14 プラッサー ウント トイラー エクスポート フォン バーンバウマシーネン ゲゼルシャフト ミット ベシュレンクテル ハフツング Track builder and method for tamping the bottom of track sleepers
CN116071566A (en) * 2023-03-23 2023-05-05 广东石油化工学院 Steel drum track detection method based on grid flow denoising and multi-scale target network

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018194158A1 (en) * 2017-04-21 2018-10-25 株式会社東芝 Trajectory identification device, program, and trajectory identification method
JP2018181254A (en) * 2017-04-21 2018-11-15 株式会社東芝 Track identification device and program
TWI673654B (en) * 2017-04-21 2019-10-01 日商東芝股份有限公司 Track identification device and program
US11210548B2 (en) 2017-04-21 2021-12-28 Kabushiki Kaisha Toshiba Railroad track recognition device, program, and railroad track recognition method
WO2019088021A1 (en) * 2017-11-01 2019-05-09 株式会社東芝 Trajectory discrimination device
JP2019084857A (en) * 2017-11-01 2019-06-06 株式会社東芝 Track identification apparatus
CN111295320A (en) * 2017-11-01 2020-06-16 株式会社东芝 Track recognition device
CN111295320B (en) * 2017-11-01 2023-03-07 株式会社东芝 Track recognition device
JP2019209734A (en) * 2018-05-31 2019-12-12 株式会社東芝 Track identification apparatus
JP2022505726A (en) * 2018-10-24 2022-01-14 プラッサー ウント トイラー エクスポート フォン バーンバウマシーネン ゲゼルシャフト ミット ベシュレンクテル ハフツング Track builder and method for tamping the bottom of track sleepers
JP7389115B2 (en) 2018-10-24 2023-11-29 プラッサー ウント トイラー エクスポート フォン バーンバウマシーネン ゲゼルシャフト ミット ベシュレンクテル ハフツング Track building machine and method for compacting the lower part of track sleepers
CN116071566A (en) * 2023-03-23 2023-05-05 广东石油化工学院 Steel drum track detection method based on grid flow denoising and multi-scale target network

Similar Documents

Publication Publication Date Title
US10753758B2 (en) Top-down refinement in lane marking navigation
US9811742B2 (en) Vehicle-surroundings recognition device
Kim et al. Robust lane detection based on convolutional neural network and random sample consensus
JP6266238B2 (en) Approaching object detection system and vehicle
JP2020052694A (en) Object detection apparatus, object detection method, and computer program for object detection
KR101912914B1 (en) Method and system for recognition of speed limit sign using front camera
CN107463890B (en) A kind of Foregut fermenters and tracking based on monocular forward sight camera
Apostoloff et al. Vision in and out of vehicles: Integrated driver and road scene monitoring
US11010622B2 (en) Infrastructure-free NLoS obstacle detection for autonomous cars
Truong et al. Deep learning-based super-resolution reconstruction and marker detection for drone landing
Moghadam et al. Road direction detection based on vanishing-point tracking
JP2014062415A (en) Trajectory detector and trajectory monitoring device
Huang et al. Tightly-coupled LIDAR and computer vision integration for vehicle detection
CN111967396A (en) Processing method, device and equipment for obstacle detection and storage medium
Berriel et al. A particle filter-based lane marker tracking approach using a cubic spline model
CN101320477B (en) Human body tracing method and equipment thereof
Nambi et al. ALT: towards automating driver license testing using smartphones
WO2013026205A1 (en) System and method for detecting and recognizing rectangular traffic signs
CN113591722B (en) Target person following control method and system for mobile robot
KR20060121503A (en) Apparatus and method for tracking salient human face in robot surveillance
CN116434156A (en) Target detection method, storage medium, road side equipment and automatic driving system
KR101564760B1 (en) Image processing apparatus and method for predicting criminal incident
KR101912085B1 (en) Reliability calaulation method of lane detection and Apparatus for calcaulating for performing thereof
Yamashita et al. Pedestrian and part position detection using a regression-based multiple task deep convolutional neural network
JP2019191691A (en) Image processing apparatus, mobile apparatus and method, and program