WO2022018918A1 - 鉄道線路情報取得装置、及び鉄道線路情報取得方法 - Google Patents

鉄道線路情報取得装置、及び鉄道線路情報取得方法 Download PDF

Info

Publication number
WO2022018918A1
WO2022018918A1 PCT/JP2021/015949 JP2021015949W WO2022018918A1 WO 2022018918 A1 WO2022018918 A1 WO 2022018918A1 JP 2021015949 W JP2021015949 W JP 2021015949W WO 2022018918 A1 WO2022018918 A1 WO 2022018918A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
image
unit
coordinate system
track
Prior art date
Application number
PCT/JP2021/015949
Other languages
English (en)
French (fr)
Inventor
拓也 二神
雄介 高橋
達哉 大嶽
広幸 小林
世支明 山崎
義喜 間嶋
泰誠 瀬川
紀康 加藤
陽平 服部
Original Assignee
株式会社 東芝
東芝インフラシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝インフラシステムズ株式会社 filed Critical 株式会社 東芝
Priority to CN202180039062.1A priority Critical patent/CN115916623A/zh
Priority to EP21846756.1A priority patent/EP4183660A4/en
Publication of WO2022018918A1 publication Critical patent/WO2022018918A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L25/00Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
    • B61L25/02Indicating or recording positions or identities of vehicles or trains
    • B61L25/025Absolute localisation, e.g. providing geodetic coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • B61L23/04Control, warning or like safety means along the route or between vehicles or trains for monitoring the mechanical state of the route
    • B61L23/041Obstacle detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Definitions

  • An embodiment of the present invention relates to a railway track information acquisition device and a railway track information acquisition method.
  • a monitoring method for monitoring obstacles ahead by using an image captured by a camera mounted on a railroad vehicle is generally known.
  • it is determined whether or not an object in front of the object is an obstacle that may collide with the object. Therefore, it is necessary to perform a process of detecting a track to be traveled in the image. Since railroad vehicles have a long braking distance until they stop, it is required to detect a farther track with high accuracy and high speed.
  • a railway track information acquisition device capable of detecting track position information with higher accuracy, and a railway track information acquisition method.
  • the railway track information acquisition device includes an image acquisition unit, a track information acquisition unit, a conversion unit, and a control unit.
  • the image acquisition unit acquires a captured image of the traveling direction of the railway vehicle.
  • the track information acquisition unit acquires the position information of the first track in the direction in which the railway vehicle travels, based on the position of the railway vehicle.
  • the conversion unit converts the captured image and the first line into a common coordinate system.
  • the control unit acquires the position information of the first line corresponding to the second line in the captured image in the common coordinate system.
  • the image pickup device 10 can continuously capture R, G, and B images as an image pickup moving image.
  • the image pickup device 10 is fixed in front of, for example, a railroad vehicle 5. Therefore, each image constituting the captured moving image captured while the railway vehicle 5 is traveling on the railroad track is, for example, an image having the same angle and the same imaging magnification when captured at the same position. These images are stored in the storage unit 204 described later.
  • the notification unit 50 displays various information together with the image captured by the image pickup device 10. Further, the notification unit 50 notifies, for example, information about the obstacle detected by the obstacle detection device 40 to, for example, the central control room.
  • the image acquisition unit 201 of the railway track information acquisition device 20 acquires images captured in the traveling direction of the railway vehicle 5 in order from the image acquisition unit 101.
  • the planned traveling track position acquisition unit 202 acquires the position information of the track in the direction in which the railway vehicle 5 travels from the traveling position information collecting device 30.
  • the railway track information acquisition device 20 includes, for example, a CPU (Central Processing Unit).
  • the storage unit 204 stores various programs for executing the monitoring operation. As a result, the railway line information acquisition device 20 constitutes each unit by, for example, executing a program stored in the storage unit 204.
  • the traveling track output unit 302 outputs information on the track position in a predetermined range in the traveling direction of the railway vehicle 5 based on the current position of the railway vehicle 5 acquired by the current position collecting unit 301.
  • the predetermined range is, for example, 50 to 200 meters ahead in the direction of travel.
  • the range of 50 to 200 meters is an example and is not limited to this.
  • the track position / image acquisition unit 401 of the obstacle detection device 40 acquires the image captured by the image pickup unit 101 and the position information of the track in the captured image contrasted by the matching unit 205.
  • Homography matrices Hn and T are associated with and stored in each setting point (PnL, PnR), as will be described later.
  • the homography matrix H of the present embodiment is a matrix that associates the geographic coordinate system (X, Y) with the camera coordinate system (x, y) of the imaging unit 101.
  • FIG. 5 is a diagram schematically showing the positions where the setting points (PnL, PnR) are set on the lines R 0 and R 1. In this way, the latitude and longitude are associated with the set points (PnL, PnR) for the entire range of the railroad track on which the railroad vehicle 5 travels.
  • the line information indicated by the camera coordinates (x, y) in the image 808 is a homography matrix of the line information indicated by the geographic coordinate system (X, Y) in the image 802 corresponding to the setting point (P0L, P0R).
  • the line information converted into camera coordinates by H0 and T corresponds to the line information converted into camera coordinates by H0 and T. That is, the line information indicated by the camera coordinates (x, y) in the image 808 coincides with the position coordinates of the camera coordinate system of the line in the image captured by the image pickup unit 101 at the position indicated by T in the region corresponding to the image 802. do.
  • the matching unit 205 detects a line from the captured image 902 using, for example, templates (0, T) to (n, T) generated by coordinate transformation using the homography matrix H shown in FIG.
  • the matching unit 205 expresses, for example, a line in the captured image 902 as a line component connecting a short straight line and a curved line segment. Then, the matching unit 205 selects the template that best matches the line component and the template (0, T) to (n, T).
  • the line output unit 206 outputs the position information of the line in the most matching template as the line position information in the captured image 902.
  • FIG. 9 is a diagram showing a processing example of the line output unit 206.
  • Images 904b to 908b show templates that best match the captured images captured at time T1 to T3, respectively.
  • the image 904b corresponds to the set point (P0L, P0r) template the line information 904a corresponding to the generated converted by homography matrix H 0,0. That is, the line output unit 206 outputs the line information shown in the image 904b converted into the camera coordinate system (x, y) for the captured image captured at time T1.
  • the image 906b corresponds to a template generated by converting the line information 906a corresponding to the setting points (P3L, P3R) with the homography matrices H3 and T-1.
  • the parameter correction unit 210 outputs a signal including parameter information to the parameter setting unit 102 based on the current position of the railway vehicle 5 output by the current position detection unit 207.
  • the storage unit 204 also stores tunnel position information in association with the track information.
  • the parameter correction unit 210 determines whether or not the tunnel is imaged in the image captured by the image pickup unit 101 with respect to the current position of the railway vehicle 5.
  • the parameter correction unit 210 outputs a parameter for lowering the exposure to the parameter setting unit 102. More specifically, the parameter correction unit 210 corrects the contrast of the adjustment area A130 in the tunnel to a parameter having a predetermined contrast as an evaluation value.
  • the parameter correction unit 210 outputs a signal including parameter information to the parameter setting unit 102 based on the current position of the railway vehicle 5 output by the current position detection unit 207 (step S15), and ends the process.
  • FIG. 15 is a flowchart showing a detailed processing flow of the line detection process.
  • the image acquisition unit 201 acquires an image captured in the traveling direction of the railway vehicle 5 from the image acquisition unit 101. (Step S110).
  • the line output unit 206 outputs the position information of the line that matches the line in the captured image controlled by the matching unit 205 (step S115), and ends the process.
  • the traveling position information collecting device 30 calculates an error between the current position of the railway vehicle 5 output by the current position detection unit 207 and the current position of the railway vehicle 5 by GNSS (step S142). Then, when the error exceeds a predetermined value, the traveling position information collecting device 30 corrects the output value based on the current position of the railway vehicle 5 output by the current position detection unit 207, and corrects the correction information via the notification unit 50. Notify (step S143) and end the process.
  • FIG. 17 is a flowchart showing a detailed processing flow of the shooting parameter correction processing. Here, an example of parameter correction using the contrast in the captured image as an evaluation value will be described.
  • the parameter correction unit 210 acquires the information of the brightness adjustment area A130 associated with the position information of the tunnel (step S151).
  • the line coordinate conversion unit 203 has acquired the position information of the line of the geographic coordinate system in the predetermined range and the captured image of the camera coordinate system in which the predetermined range is captured. Is converted into a common coordinate system, and the matching unit 205 acquires the position information of the line of the geographic coordinate system corresponding to the line in the captured image.
  • This makes it possible to acquire the position information of the line in the captured image corresponding to the position information of the line of the geographic coordinate system acquired in advance. In this way, even if the line in the captured image of the camera coordinate system is not clearly captured, by converting it to a common coordinate system, the position information of the line in the geographic coordinate system that best matches the line in the captured image as a whole. Can be acquired, and the position information of the track in the captured image can be acquired more accurately.
  • the railroad track acquisition system 1 according to the second embodiment is different from the railroad track acquisition system 1 according to the first embodiment in that the image projection unit 203b converts the captured image of the camera coordinate system into the geographic coordinate system. ..
  • the differences from the railroad track acquisition system 1 according to the first embodiment will be described.
  • FIG. 18 is a block diagram showing the configuration of the railroad track acquisition system 1 according to the second embodiment.
  • the image projection unit 203b converts the captured image of the camera coordinate system into the geographic coordinate system.
  • the image projection unit 203b according to the present embodiment corresponds to the conversion unit.
  • FIG. 19 is a diagram showing inverse transformation matrices RH 0, 0 to RH 0, T of homography matrices H 0, 0 to H 0, T corresponding to setting points (P0L, P0R).
  • the image 192 of the camera coordinate system is an image taken at a reference position of a setting point (P0L, P0R). Therefore, when the image projection unit 203b reversely changes the image 192 with the inverse transformation matrix RH 0 , 0, it matches the image 194 of the geographic coordinate system corresponding to the set point (P0L, P0R).
  • the images 196 and 198 of the line information of the geographic coordinate system that do not actually exist are generated.
  • the inverse transformation matrix RH 0 that is inversely converted to the matched image. , 0 indicates that the region for image 194 was imaged from a distance corresponding to 0.
  • FIG. 20 is a diagram showing an example of an inverse template generated by the image projection unit 203b by performing inverse coordinate conversion.
  • An image obtained by inversely transforming the line information of the image 902 of the camera coordinate system by the inverse transformation matrix RH 0, 0 to RH n, T of the homography matrix H 0, 0 to H n, T is shown, respectively.
  • the line information converted into the geographic coordinate system (X, Y) by the inverse transformation matrix RH n, T of the homography matrix is referred to as an inverse template R (n, T).
  • the image projection unit 203b considers the range in which an error occurs in the position of the railroad vehicle 5, and considers the reverse template R for the setting points (P0L, P0R) to (PnL, PnR) in the range where the image of the railroad vehicle 5 is possible. (0, T) to R (n, T) are generated.
  • the matching unit 205 uses, for example, the inverse templates R (0, T) to R (n, T) generated by inverse coordinate conversion with the inverse transformation matrix RH of the homography matrix shown in FIG. 20, and the setting point (P0L, Select the inverse template that best matches the line information of the geographic coordinate system corresponding to P0R) to (PnL, PnR).
  • FIG. 21 is a diagram showing a processing example of the line output unit 206.
  • the images 904b to 908b are captured images taken at time T1 to T3, respectively, and the images 904c to 908c show the most matched inverse template.
  • the image 904c corresponds to the inverse template generated by converting with the inverse matrix RH 0 , 0 corresponding to the setting point (P0L, P0R). That is, the line output unit 206 outputs the line information of the geographic coordinate system (X, Y) corresponding to the set point (P0L, P0R) to the captured image 904b captured at the time T1.
  • the image 906c corresponds to the inverse template generated by conversion with the inverse matrices RH 3 and T-1 corresponding to the setting points (P3L, P3R). That is, the line output unit 206 outputs the geographic coordinate system (X, Y) line information corresponding to the set point (P3L, P3R) to the captured image 906b captured at time T2.
  • FIG. 22 is a flowchart showing a detailed processing flow of the current position detection processing according to the second embodiment.
  • the image acquisition unit 201 acquires an image captured in the traveling direction of the railway vehicle 5 from the image acquisition unit 101. (Step S220).
  • the planned traveling track position acquisition unit 202 acquires the position information of the track in the direction in which the railway vehicle 5 travels from the traveling position information collecting device 30. (Step S221).
  • the image projection unit 203b converts the captured image acquired by the image acquisition unit 20 and the position information of the track into a common coordinate system.
  • the inverse transformation matrix RH of the homography matrix is used for inverse transformation to the geographic coordinate system.
  • the matching unit 205 acquires the position information of the line corresponding to the line in the captured image in the common coordinate system (step S223).
  • the line output unit 206 outputs the position information of the line (step S223), and ends the whole process.
  • the image projection unit 203b converts the captured image of the camera coordinate system that captures a predetermined range into the geographic coordinate system, and the matching unit 205 corresponds to the line in the captured image. Moreover, the position information of the line in the geographic coordinate system acquired in advance is acquired. This makes it possible to acquire the position information of the line in the captured image corresponding to the position information of the line acquired in advance.
  • the railway track acquisition system 1 according to the third embodiment acquires the railway track according to the first embodiment in that the track information of the geographic coordinate system is stored in the coordinates of the three axes (X, Y, Z). Different from system 1.
  • the differences from the railroad track acquisition system 1 according to the first embodiment will be described.
  • FIG. 23 is a flowchart showing a detailed processing flow of the line detection processing according to the third embodiment.
  • the image acquisition unit 201 acquires a stereo image taken in the traveling direction of the railway vehicle 5 from the image acquisition unit 101. (Step S230).
  • the planned traveling track position acquisition unit 202 acquires the position information of the track in the direction in which the railway vehicle 5 travels from the traveling position information collecting device 30. (Step S231).
  • the line coordinate conversion unit 203 is limited to the position information of the line having the calculated inclination and the inclination within a predetermined range (step S234), and converts the captured image acquired by the image acquisition unit 20 and the position information of the line into a common coordinate system. do. (Step S113).
  • the elevation information which is a value in the Z-axis direction, is used to convert to the camera coordinate system in the horizontal plane.
  • the image converted by this camera coordinate system is a so-called bird's-eye view.
  • the matching unit 205 acquires the position information of the line corresponding to the line in the captured image in the common coordinate system (step S114).
  • the position information of the tracks having different inclinations into a bird's-eye view which is a horizontal plane, the influence of the inclination can be suppressed and matching in the matching unit 205 becomes possible with higher accuracy.
  • the line output unit 206 outputs the position information of the line that matches the line in the captured image controlled by the matching unit 205 (step S115), and ends the process.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

[解決手段]本実施形態に係る鉄道線路情報取得装置は、画像取得部と、線路情報取得部と、変換部と、対照部と、を備える。画像取得部は、鉄道車両の進行方向の撮像画像を得る。線路情報取得部は、鉄道車両の位置に基づき、鉄道車両が進行する方向の第1線路の位置情報を取得する。変換部は、撮像画像と第1線路とを共通の座標系に変換する。対照部は、共通の座標系において、撮像画像内の第2線路が対応する第1線路の位置情報を取得する。

Description

鉄道線路情報取得装置、及び鉄道線路情報取得方法
 本発明の実施形態は、鉄道線路情報取得装置、及び鉄道線路情報取得方法に関する。
 鉄道車両に搭載したカメラにより撮像した画像を利用することで、前方障害物を監視する監視方法が一般に知られている。このような監視方法では、前方に存在する物体が衝突する可能性のある障害物であるか否かを判断する。このため、画像中に存在する走行予定の線路を検出する処理が必要である。鉄道車両は停止するまでの制動距離が長いため、より遠方の線路を高精度に、かつ高速に検出することが求められる。
 ところが、天候、時間帯、周囲の状況(トンネル等)によって線路が鮮明に撮像されないこともあり、遠方まで高精度に線路を検出することが困難となってしまう恐れがある。
特願2016-172824号公報 特開2019-218022号公報
Conference: 2016 12th World Congress on Intelligent Control and Automation (WCICA)、 "Geometry Constraints-based Visual Rail Track Extraction"
 より高精度に線路の位置情報を検出可能な鉄道線路情報取得装置、及び鉄道線路情報取得方法を提供する。
 本実施形態に係る鉄道線路情報取得装置は、画像取得部と、線路情報取得部と、変換部と、対照部と、を備える。画像取得部は、鉄道車両の進行方向の撮像画像を得る。線路情報取得部は、鉄道車両の位置に基づき、鉄道車両が進行する方向の第1線路の位置情報を取得する。変換部は、撮像画像と第1線路を共通の座標系に変換する。対照部は、共通の座標系において、撮像画像内の第2線路が対応する第1線路の位置情報を取得する。
鉄道線路情報取得装置の構成例を示すブロック図。 本実施形態に係る鉄道線路情報取得装置の詳細な構成例を示すブロック図。 水平面上に表示した線路を示す図。 線路間の中点における緯度、経度と、設定ポイントの関係を示す図。 設定ポイントが、線路に設定されている位置を模式的に示す図。 設定ポイントのホモグラフィ行列を模式的に説明する図。 設定ポイントに対応するホモグラフィ行列を用いた座標変換例を示す図。 線路座標変換部が座標変換して生成するテンプレート例を示す図。 線路出力部の処理例を示す図。 現在位置検出部の処理例を示す図。 トングレールを含む設定ポインを示す図。 設定ポインに対応する線路情報をカメラ座標系に変換した線路情報を示す図。 撮像部で撮像される画像にトンネルが撮像される例を示す図。 鉄道線路情報取得装置の全体の処理の流れを示すフローチャート。 線路検出処理の詳細な処理の流れを示すフローチャート。 現在位置補正処理の詳細な処理の流れを示すフローチャート。 撮影パラメータ補正処理の詳細な処理の流れを示すフローチャート。 第2実施形態に係る鉄道線路情報取得装置の構成を示すブロック図。 設定ポイントに対応するホモグラフィ行列の逆変換行列を示す図。 画像投影部が逆座標変換して生成する逆テンプレートの例をしめす図。 線路出力部の処理例を示す図。 第2実施形態に係る現在位置検出処理の詳細な処理の流れを示すフローチャート。 第3実施形態に係る線路検出処理の詳細な処理の流れを示すフローチャート。 鉄道車両が水平面と傾斜面を走行している例を模式的に示す図。
 以下、図面を参照して、本発明の実施形態について説明する。なお、本件明細書に添付する図面においては、図示と理解のしやすさの便宜上、適宜縮尺及び縦横の寸法比等を、実物のそれらから変更し誇張してある。
(第1実施形態)
 まず、図1は、本実施形態に係る鉄道走行線路取得システム1の構成例を示すブロック図である。図1に示すように、本実施形態に係る鉄道走行線路取得システム1は、鉄道走行線路の位置情報を取得可能なシステムであり、鉄道車両5に搭載される撮像装置10と、鉄道線路情報取得装置20と、走行位置情報収集装置30と、障害物検出装置40と、通知部50とを備える。鉄道車両5は、固定された軌道である線路上を走行する。
 撮像装置10は、R、G、B画像を撮像動画として連続的に撮像可能である。この撮像装置10は、例えば鉄道車両5の前方に固定されている。このため、鉄道車両5が線路上を走行中に撮像した撮像動画を構成する各画像は、例えば同じ位置で撮像された場合には、同じアングル且つ同じ撮像倍率の画像となる。これらの画像は、後述する記憶部204に記憶される。
 鉄道線路情報取得装置20は、撮像装置10により撮像された撮像画像を、線路の位置情報に基づき照合し、撮像画像内の線路の位置情報を検出し、出力する。なお、鉄道線路情報取得装置20の詳細は後述する。
 走行位置情報収集装置30は、鉄道車両5の現在位置を取得し、鉄道車両5の進行方向における現在位置に対して所定の線路範囲の情報を出力する。
 障害物検出装置40は、撮像装置10により撮像された撮像画像、及び鉄道線路情報取得装置20で検出された線路に基づき、鉄道車両5が進行する際に障害となる障害物を検出する。
 通知部50は、撮像装置10で撮像した撮像画像と共に各種の情報を表示する。また、通知部50は、障害物検出装置40で検出された障害物に関する情報を、例えば中央管理室等に通知する。
 図2は、本実施形態に係る鉄道走行線路取得システム1の詳細な構成例を示すブロック図である。図2に示すように、撮像装置10は、撮像部101と、パラメータ設定部102とを有する。鉄道線路情報取得装置20は、画像取得部201、進行予定線路位置取得部202、線路座標変換部203、記憶部204、マッチング部205、線路出力部206、現在位置検出部207、現在位置出力部208、トングレール状態監視部209、及び撮影パラメータ補正部210を、有する。走行位置情報収集装置30は、現在位置収集部301、及び進行線路出力部302を、有する。障害物検出装置40は、線路位置・画像取得部401、及び走行支障物検出部402を有する。通知部50は、表示部501、及び異常通知部502を有する。
 図2に示すように、撮像装置10の撮像部101は、例えばカメラであり、露出の制御が可能である。パラメータ設定部102は、撮像部101の撮影パラメータを設定する。また、撮像部101で撮像された画像の階調処理を行うことも可能である。
 鉄道線路情報取得装置20の画像取得部201は、鉄道車両5の進行方向の撮像画像を撮像部101から順に取得する。進行予定線路位置取得部202は、鉄道車両5が進行する方向の線路の位置情報を走行位置情報収集装置30から取得する。なお、鉄道線路情報取得装置20は、例えば、CPU(Central Processing Unit)を含んで構成される。記憶部204は、監視動作を実行するための各種のプログラムを記憶している。これにより、鉄道線路情報取得装置20は、例えば記憶部204に記憶されるプログラムを実行することにより、各部を構成する。
 線路座標変換部203は、画像取得部20が取得した撮像画像と線路の位置情報を共通の座標系に変換する。例えば、線路座標変換部203は、撮像画像を撮像した撮像部101のカメラ座標系に位置情報で示す線路の座標を変換する。なお、線路座標変換部203の詳細は後述する。また、本実施形態に係る線路座標変換部203が変換部に対応する。
 記憶部204は、例えばHDD(ハードディスクドライブ)やSSD(ソリッドステートドライブ)等で構成される。記憶部204は、監視対象となる線路の位置情報、監視対象となる線路の座標変換マトリクス、撮像部101の各種の情報、例えば、撮影光学系の光軸の向き、撮影倍率などを、座標変換情報として記憶する。
 マッチング部205は、共通の座標系において、撮像画像内の線路が対応する線路の位置情報を取得する。なお、マッチング部205の詳細も後述する。また、本実施形態に係るマッチング部205が対照部に対応する。
 線路出力部206は、マッチング部205で対照した撮像画像中の線路と一致した線路の位置情報を出力する。
 現在位置検出部207は、マッチング部205で取得した線路の位置情報と、撮像部101の撮影光学系の情報を用いて、鉄道車両5の現在位置を算出する。なお、現在位置検出部207の詳細も後述する。現在位置出力部208は、現在位置検出部207が検出した現在位置を出力する。
 トングレール状態監視部209は、線路分岐部におけるトングレールの状態を監視して進行線路位置情報との照合を行うことで、トングレール状態の整合性を確認する。なお、トングレール状態監視部209の詳細も後述する。
 撮影パラメータ補正部210は、マッチング部205で取得した線路の位置情報を用いて、鉄道車両5の進行方向の撮影パラメータを補正する。なお、撮影パラメータ補正部210の詳細も後述する。
 走行位置情報収集装置30の現在位置収集部301は、現在位置検出部207が出力する鉄道車両5の現在位置を取得する。また、現在位置収集部301は、GNSS(全球測位衛星システム:Global Navigation Satellite System)により鉄道車両5の現在位置の情報を取得している。これにより、走行位置情報収集装置30は、現在位置検出部207が出力する鉄道車両5の現在位置と、GNSSによる鉄道車両5の現在位置とを相補的に用いて、鉄道車両5の現在位置の情報を含む信号を進行線路出力部302に出力する。
 進行線路出力部302は、現在位置収集部301が取得した鉄道車両5の現在位置に基づき、鉄道車両5の進行方向における所定範囲の線路位置の情報を出力する。所定範囲は、進行方向における前方の例えば50~200メートルの範囲である。なお、50~200メートルの範囲は、一例であり、これに限定されない。
 障害物検出装置40の線路位置・画像取得部401は、撮像部101が撮像した撮像画像と、マッチング部205が対照したその撮像画像内の線路の位置情報を取得する。
 走行支障物検出部402は、撮像画像内の線路の位置情報に基づき、鉄道車両5の走行の障害となる障害物を検出する。走行支障物検出部402は、障害物を検出すると、撮像画像内の線路の位置情報に基づき、障害物の位置を通知部50に通知する。
 通知部50の表示部501は、例えばモニタであり、撮像部101が撮像した撮像画像を表示する。また、表示部501は、走行支障物検出部402が障害物を検知した際には、障害物の位置を示す、マークなどの表示形態を表示する。
 異常通知部502は、走行支障物検出部402が障害物を検知した際に、障害物の位置を示す情報などを、中央監視室などに通知する。
 ここで、線路座標変換部203の詳細を図3乃至図8に基づき説明する。図3は、水平面上、例えば鳥瞰図上に表示した線路R、Rを示す図である。図3に示すように、線路R、は線路Rと分岐している。記憶部204には、鉄道車両5が走行する全範囲の線路の位置情報が、例えば地理座標系(X、Y)で記憶されている。
 図4は、線路間の中点における緯度、経度と、設定ポイント(PnL、PnR)の関係を示す図である。図4に示すように、例えば線路間の中点における緯度、経度と、設定ポイント(PnL、PnR)が対応付けられて記憶部204に記憶されている。ここで、nは自然数、Lは進行方向に対して線路の左側、Rは進行方向に対して線路の右側を示す。すなわち、PnLは、線路の左側の位置を示し、PnRは、PnLに対応する線路の右側の位置を示す。各設定ポイント(PnL、PnR)には、後述するように、ホモグラフィ行列Hn、Tが対応付けられ、記憶されている。本実施形態のホモグラフィ行列Hは、地理座標系(X、Y)と撮像部101のカメラ座標系(x、y)を対応付ける行列である。
 図5は、設定ポイント(PnL、PnR)が、線路R、Rに設定されている位置を模式的に示す図である。このように、鉄道車両5が走行する全範囲の線路に対して緯度、経度と、設定ポイント(PnL、PnR)が対応付けられている。
 図6は、設定ポイント(PnL、PnR)のホモグラフィ行列Hn、Tを模式的に説明する図である。これらのホモグラフィ行列Hは、各設定ポイント(PnL、PnR)に対して例えば非特許文献1の技術により演算可能である。Hn、Tのnは、設定ポイント(PnL、PnR)を示している。例えば、n=3であれば設定ポイント(P3L、P3R)を示す。
 画像500aは、ホモグラフィ行列Hn、Tを計算する際に想定した鉄道車両5の位置から撮像部101が撮像した撮像画像である。また、画像500bは、設定ポイント(PnL、PnR)のホモグラフィ行列Hn、Tで変換する線路情報の範囲を示している。また、Tは、設定ポイント(PnL、PnR)からの鉄道車両5の撮像部101までの距離を示している。例えば、0は、設定ポイント(PnL、PnR)からの鉄道車両5の撮像部101までの基準距離であり、例えば100メートルである。例えば、T=1は、設定ポイント(PnL、PnR)からの撮像部101までの距離が101メートルであり、例えばT=5は、設定ポイント(PnL、PnR)からの撮像部101までの距離が105メートルである。一方で、例えばT=-1は、設定ポイント(PnL、PnR)からの撮像部101までの距離が99メートルであり、例えばT=-5は、設定ポイント(PnL、PnR)からの撮像部101までの距離が95メートルである。これらは、一例であり、Tの数、及び対応する距離は、これらに限定されない。
 上述のように記憶部204に記憶される線路情報には、地理座標系(X、Y)が設定されている。また、撮像部101は、上述のように撮像系を固定して撮像している。このため、ホモグラフィ行列Hでカメラ座標(x、y)に変換した線路の地理座標系(X、Y)は、ホモグラフィ行列Hn、Tを計算する際に想定した鉄道車両5の位置から撮像した画像500a内の線路のカメラ座標系で示す位置に一致する。すなわち、ホモグラフィ行列Hn、Tで座標変換した線路の地理座標系(X、Y)は、Tに対応する距離から撮像した画像500a内の線路のカメラ座標系で示す位置座標(x、y)に変換される。
 図7は、設定ポイント(P0L、P0R)に対応するホモグラフィ行列H0、0~H0、Tを用いた線路座標変換部203による座標変換例を示す図である。画像802は、設定ポイント(P0L、P0R)に対応する画像領域であり、地理座標系(X、Y)で示す線路情報を示す。画像804~808は、画像802内の地理座標系(X、Y)で示す線路情報をホモグラフィ行列H0、0~H0、Tでカメラ座標系(x、y)に変換した線路情報を示す。
 より具体的には、H0、0は、設定ポイント(P0L、P0R)から鉄道車両5の撮像部101までの距離が基準位置、例えば設定ポイント(P0L、P0R)から100メートル手前の位置におけるホモグラフィ行列を示す。画像804におけるカメラ座標(x、y)で示す線路情報は、設定ポイント(P0L、P0R)に対応する画像802内の地理座標系(X、Y)で示す線路情報を、ホモグラフィ行列H0、0でカメラ座標に変換した線路情報に対応する。すなわち、画像804におけるカメラ座標(x、y)で示す線路情報は、画像802に対応する領域を基準位置における撮像部101で撮像した画像内の線路のカメラ座標系の位置座標と一致する。
 同様に、画像806におけるカメラ座標(x、y)で示す線路情報は、設定ポイント(P0L、P0R)に対応する画像802内の地理座標系(X、Y)で示す線路情報を、ホモグラフィ行列H0、T-1でカメラ座標に変換した線路情報に対応する。すなわち、画像806におけるカメラ座標(x、y)で示す線路情報は、画像802に対応する領域を、T-1で示す位置における撮像部101で撮像した画像内の線路のカメラ座標系の位置座標と一致する。同様に、画像808におけるカメラ座標(x、y)で示す線路情報は、設定ポイント(P0L、P0R)に対応する画像802内の地理座標系(X、Y)で示す線路情報を、ホモグラフィ行列H0、Tでカメラ座標に変換した線路情報に対応する。すなわち、画像808におけるカメラ座標(x、y)で示す線路情報は、画像802に対応する領域を、Tで示す位置における撮像部101で撮像した画像内における線路のカメラ座標系の位置座標と一致する。このように、線路座標変換部203は、設定ポイント(P0L、P0R)に対応する画像802内の地理座標系(X、Y)で示す線路情報を、各ホモグラフィ行列H0、Tで変換する。ここで、Tは、撮影状況合わせて設定された-n≦T≦mの範囲の整数を示す。n、mは自然数である。
 これにより、線路座標変換部203は、画像802に対応する領域を複数の撮像位置Tから撮像したカメラ座標系の線路の位置座標に変換可能である。なお、本実施形態では、設定ポイント(PnL、PnR)に対応する地理座標系(X、Y)の線路情報を、ホモグラフィ行列Hn、Tでカメラ座標系(x、y)に変換し、変換後のカメラ座標系(x、y)の線路情報をテンプレート(n、T)と称することとする。
 図8は、線路座標変換部203が座標変換して生成するテンプレート例を示す図である。走行位置情報収集装置30が出力する鉄道車両5の位置は誤差が生じる場合がある。そこで、走行位置情報収集装置30は、誤差が生じる範囲を考慮して、鉄道車両5の撮像の可能性のある範囲における設定ポイント(P0L、P0R)~(PnL、PnR)に対するテンプレート(0、0)~(n、T)を生成する。
 ここで、撮像画像902を撮像した際の鉄道車両5の現在位置が設定ポイント(P0L、P0R)の基準位置であるとする。この場合、線路座標変換部203は、設定ポイント(P0L、P0R)に対応する地理座標系(X、Y)の線路情報をホモグラフィ行列H0、Tそれぞれでカメラ座標系(x、y)に変換した線路情報を生成する。同様に、設定ポイント(P1L、P1R)~(PnL、PnR)に対応する地理座標系(X、Y)の線路情報をホモグラフィ行列H1、0~Hn、Tそれぞれでカメラ座標系(x、y)に変換した線路情報を生成する。n及びTの範囲は、鉄道車両5の現在位置の測定精度から予め設定されている。
 マッチング部205は、例えば図8で示すホモグラフィ行列Hで座標変換して生成したテンプレート(0、T)~(n、T)を用いて、撮像画像902内から線路を検出する。マッチング部205は、例えば撮像画像902内の線路を、短い直線と曲線セグメントを連結した線成分として表現する。そして、マッチング部205は、線成分とテンプレート(0、T)~(n、T)と最もマッチングするテンプレートを選択する。
 線路出力部206は、最もマッチングするテンプレートにおける線路の位置情報を撮像画像902内における線路位置情報として出力する。
 図9は、線路出力部206の処理例を示す図である。画像904b~908bはそれぞれ時間T1~T3で撮像された撮像画像に最もマッチしたテンプレート示している。例えば、画像904bは、設定ポイント(P0L、P0R)に対応する線路情報904aをホモグラフィ行列H0、0で変換して生成したテンプレートに対応する。すなわち、線路出力部206は、時間T1で撮像された撮像画像に対しては、カメラ座標系(x、y)に変換した画像904bで示す線路情報を出力する。同様に、画像906bは、設定ポイント(P3L、P3R)に対応する線路情報906aをホモグラフィ行列H3、T-1で変換して生成したテンプレートに対応する。すなわち、線路出力部206は、時間T2で撮像された撮像画像に対しては、カメラ座標系(x、y)に変換した画像906bで示す線路情報を出力する。同様に、画像908bは、設定ポイント(P6L、P6R)に対応する線路情報908aをホモグラフィ行列H6、2で変換して生成したテンプレートに対応する。すなわち、線路出力部206は、時間T3で撮像された撮像画像に対しては、カメラ座標系(x、y)に変換した画像908bで示す線路情報を出力する。
 これらの、画像904b~908bは、実際の線路情報904a~908aを変換して生成した画像であるので、線路出力部206の出力するカメラ座標系(x、y)の線路情報は、実際の線路情報とほぼ一致する。このため、線路出力部206は、時間T1~T3で撮像された撮像画像内から実際の線路に対応する線路情報を出力可能となる。
 図10は、現在位置検出部207の処理例を示す図である。画像100aは、撮像画像に対してマッチング部205での処理により最もマッチした画像を示す。また、画像100aは、ホモグラフィ行列H0、T-3で画像100bを変換して得た画像である。ホモグラフィ行列H0、T-3は、画像100bの設定ポイント(P0L、P0R)から予め定められた距離に対応するホモグラフィ行列である。すなわち、マッチング部205での処理により最もマッチした画像100aが選択されると、画像100aの生成に用いたホモグラフィ行列H0、T-3に対応する距離情報から画像100aを撮像した現在位置を正確に生成可能である。このように、現在位置検出部207は、マッチング部205での処理により最もマッチしたテンプレートへの変換に用いたホモグラフィ行列H0、T-3に対応する位置を現在位置として検出する。
 ここで、図11及び図12に基づき、トングレール状態監視部209の詳細を説明する。
 図11は、トングレールを含む設定ポイン(PTL、PTR)を示す図である。画像110aは、設定ポイン(PTL、PTR)に対応する画像範囲である。
 図12は、設定ポイン(PTL、PTR)に対応する画像110a(図11参照)内の線路情報をカメラ座標系に変換した線路情報を示す図である。すなわち、画像110bは、画像110a(図11参照)に対応する。すなわち、画像110bは、マッチング部205で最もマッチしたテンプレートに対応する。
 トングレール状態監視部209は、マッチング部205で最もマッチしたテンプレートに対応する設定ポイン(PTL、PTR)がトングレールを含む場合、トングレールの状態判定を行う。より詳細には、トングレール状態監視部209は、例えば、トングレールに対応する設定ポイン(PTL、PTR)に関連付けられた分岐を含む画像領域T1の撮像画像における画像情報を解析する(特許文献2参照)。すなわち、トングレール状態監視部209は、分岐を含む画像領域T1に基いて、トングレールにおける2箇所の開閉部分における少なくともいずれかの開閉部分の開閉状態を撮像画像において判定することで、鉄道車両5が進行する線路を識別する。また、トングレール状態監視部209は、進行方向に関する情報を含む信号を、例えば中央監視室などから取得する。そして、トングレール状態監視部209は、開閉状態の識別結果と、進行方向が一致するか否かを判定する。トングレール状態監視部209は、一致しない場合には、通知部50を介してトングレール状態の異常を通知する。
 ここで、図13に基づいて、パラメータ補正部210の詳細を説明する。図13は、撮像部101で撮像される画像にトンネルが撮像される例を示す図である。撮像部101の露光はトンネル外の明るさに調整されている。このため、トンネル内の画像は黒つぶれする恐れがある。
 パラメータ補正部210は、現在位置検出部207が出力する鉄道車両5の現在位置に基づき、パラメータ設定部102にパラメータの情報を含む信号を出力する。記憶部204には、線路情報に関連づけられてトンネルの位置情報も記憶されている。パラメータ補正部210は、鉄道車両5の現在位置に対して撮像部101で撮像される画像にトンネルが撮像されるか否かを判定する。パラメータ補正部210は、トンネルが撮像されると判定する場合に、露光を下げるパラメータをパラメータ設定部102に出力する。より詳細には、パラメータ補正部210は、トンネル内の調整エリアA130のコントラストを評価値として所定のコントラストになるパラメータに補正する。
 また、パラメータ補正部210は、トングレール状態監視部209の状態監視情報も取得しており、分岐線路の一方にはトンネルが有り、他方にはトンネルがない場合には、進行方向に応じてトンネル内の画像に対して露光制御が必要か否かを判定する。例えば、トンネル側に進行する場合には、露光を上げるパラメータをパラメータ設定部102に出力する。一方で、パラメータ補正部210は、撮像部101によりトンネルが撮像されても、トンネル側に進行しない場合には、露光パラメータを維持する。このように、トンネル側に進行する場合には、トンネル内の調整エリアA130の照度に露光を合わせることが可能となり、トンネル内の調整エリアA130における障害物の確認が容易となる。一方で、トンネル側に進行しない場合には、ンネルが撮像されても露光パラメータを維持するので、進行方向側の障害物の確認が容易となる。
 図14は、鉄道走行線路取得システム1の全体の処理の流れを示すフローチャートである。図14に示すように、先ず、鉄道線路情報取得装置20は、撮像装置10により撮像された撮像画像を、線路の位置情報に基づき照合し、撮像画像内の線路情報を検出する(ステップS11)。
 次に、障害物検出装置40は、鉄道線路情報取得装置20で検出された線路、及び撮像装置10により撮像された撮像画像に基づき、鉄道車両5が進行する際に障害となる障害物を検出する(ステップS12)。
 次に、トングレール状態監視部209は、マッチング部205で最もマッチしたテンプレートに対応する設定ポインがトングレールを含む場合、トングレールの状態判定を行う(ステップS13)。
 次に、走行位置情報収集装置30は、現在位置検出部207が検出した鉄道車両5の現在位置を、正しい現在位置として、走行位置情報収集装置30が出力する現在位置を補正する(ステップS14)。
 そして、パラメータ補正部210は、現在位置検出部207が出力する鉄道車両5の現在位置に基づき、パラメータ設定部102にパラメータの情報を含む信号を出力し(ステップS15)、処理を終了する
 図15は、線路検出処理の詳細な処理の流れを示すフローチャートである。図15に示すように、先ず、画像取得部201は、鉄道車両5の進行方向の撮像画像を撮像部101から取得する。(ステップS110)。
 次に、進行予定線路位置取得部202は、鉄道車両5が進行する方向の線路の位置情報を走行位置情報収集装置30から取得する。(ステップS112)。
 次に、線路座標変換部203は、画像取得部20が取得した撮像画像と線路の位置情報を共通の座標系に変換する。(ステップS113)。ここでは、カメラ座標系に変換する。
 次に、マッチング部205は、共通の座標系において、撮像画像内の線路が対応する線路の位置情報を取得する(ステップS114)。
 そして、線路出力部206は、マッチング部205で対照した撮像画像中の線路と一致した線路の位置情報を出力し(ステップS115)、処理を終了する。
 図16は、現在位置補正処理の詳細な処理の流れを示すフローチャートである。図16に示すように、先ず、現在位置収集部301は、現在位置検出部207が出力する鉄道車両5の現在位置を線路検出結果関連情報として取得する(ステップS140)。
 次に、現在位置収集部301は、GNSS(全球測位衛星システム:Global Navigation Satellite System)により鉄道車両5の現在位置の情報取得する(ステップS141)。
 次に、走行位置情報収集装置30は、現在位置検出部207が出力する鉄道車両5の現在位置と、GNSSによる鉄道車両5の現在位置との誤差を算出する(ステップS142)。
 そして、走行位置情報収集装置30は、誤差が所定値を超える場合に、出力値を現在位置検出部207が出力する鉄道車両5の現在位置に基づき補正し、通知部50を介して補正情報を通知し(ステップS143)、処理を終了する。
 図17は、撮影パラメータ補正処理の詳細な処理の流れを示すフローチャートである。ここでは、撮像画像内のコントラスを評価値としてパラメータ補正する例を説明する。
 図17に示すように、先ず、パラメータ補正部210は、現在位置検出部207が出力する鉄道車両5の現在位置と、現在位置からの撮像範囲にあるトンネルの位置情報を線路検出結果関連情報として取得する(ステップS150)。
 次に、パラメータ補正部210は、トンネルの位置情報に関連づけられている明るさ調整エリアA130の情報を取得する(ステップS151)。
 次に、パラメータ補正部210は、撮像画像中の調整エリアA130のコントラストを評価する(ステップS151)。
 そして、パラメータ補正部210は、コントラストを所定値にする露光パラメータをパラメータ設定部102に出力し(ステップS143)、処理を終了する。
 以上説明したように、本実施形態によれば、線路座標変換部203が、予め取得してある所定範囲における地理座標系の線路の位置情報と、所定範囲を撮像したカメラ座標系の撮像画像とを共通の座標系に変換し、マッチィング部205が撮像画像内の線路が対応する地理座標系の線路の位置情報を取得する。これにより、予め取得してある地理座標系の線路の位置情報に対応する撮像画像内の線路の位置情報を取得可能となる。このように、カメラ座標系の撮像画像内の線路が鮮明に撮像されない場合にも、共通の座標系に変換することにより、撮像画像中の線路全体として最もマッチする地理座標系における線路の位置情報を取得することができ、より正確に撮像画像中の線路の位置情報を取得できる。
(第2実施形態)
 第2実施形態に係る鉄道走行線路取得システム1は、画像投影部203bが、カメラ座標系の撮像画像を地理座標系に変換する点で第1実施形態に係る鉄道走行線路取得システム1と相違する。以下では、第1実施形態に係る鉄道走行線路取得システム1と相違する点を説明する。
 図18は、第2実施形態に係る鉄道走行線路取得システム1の構成を示すブロック図である。図18に示すように、画像投影部203bは、カメラ座標系の撮像画像を地理座標系に変換する。なお、本実施形態に係る画像投影部203bが変換部に対応する。
 図19は、設定ポイント(P0L、P0R)に対応するホモグラフィ行列H0、0~H0、Tの逆変換行列RH0、0~RH0、Tを示す図である。カメラ座標系の画像192は、設定ポイント(P0L、P0R)の基準位置で撮像した画像である。このため、画像投影部203bが、画像192を逆変換行列RH0、0で逆変化すると、設定ポイント(P0L、P0R)に対応する地理座標系の画像194と一致する。一方で、画像192を逆変換行列RH0、1~RH0、Tで逆変化すると、実際には存在しない地理座標系の線路情報の画像196、198が生成される。換言すると、画像194、196、198の中に設定ポイント(P0L、P0R)に対応する地理座標系の線路情報の画像と一致する画像があれば、一致した画像に逆変換した逆変換行列RH0、0に対応する距離から画像194に対する領域を撮像したことを示している。
 図20は、画像投影部203bが逆座標変換して生成する逆テンプレートの例をしめす図である。ホモグラフィ行列H0、0~Hn、Tの逆変換行列RH0、0~RHn、Tによりカメラ座標系の画像902の線路情報を逆変換した画像をそれぞれ示している。なお、本実施形態では、ホモグラフィ行列の逆変換行列RHn、Tで地理座標系(X、Y)に変換した線路情報を逆テンプレートR(n、T)と称することとする。画像投影部203bは、鉄道車両5の位置に誤差が生じる範囲を考慮して、鉄道車両5の撮像の可能性のある範囲における設定ポイント(P0L、P0R)~(PnL、PnR)に対する逆テンプレートR(0、T)~R(n、T)を生成する。
 マッチング部205は、例えば図20で示すホモグラフィ行列の逆変換行列RHで逆座標変換して生成した逆テンプレートR(0、T)~R(n、T)を用いて、設定ポイント(P0L、P0R)~(PnL、PnR)に対応する地理座標系の線路情報に最もマッチングする逆テンプレートを選択する。
 線路出力部206は、最もマッチングする逆テンプレートにおける地理座標系の線路の位置情報を撮像画像902内における線路位置情報として出力する
 図21は、線路出力部206の処理例を示す図である。画像904b~908bはそれぞれ時間T1~T3で撮像された撮像画像であり、画像904c~908cは、最もマッチした逆テンプレートを示している。例えば、画像904cは、設定ポイント(P0L、P0R)に対応する逆行列RH0、0で変換して生成した逆テンプレートに対応する。すなわち、線路出力部206は、時間T1で撮像された撮像画像904bに対しては、設定ポイント(P0L、P0R)に対応する地理座標系(X、Y)の線路情報を出力する。
 同様に、画像906cは、設定ポイント(P3L、P3R)に対応する逆行列RH3、T-1で変換して生成した逆テンプレートに対応する。すなわち、線路出力部206は、時間T2で撮像された撮像画像906bに対しては、設定ポイント(P3L、P3R)に対応する地理座標系(X、Y)線路情報を出力する。
 同様に、画像908cは、設定ポイント(P6L、P6R)に対応する逆行列RH6、2で変換して生成した逆テンプレートに対応する。すなわち、線路出力部206は、時間T3で撮像された画像908bに対しては、設定ポイント(P6L、P6R)に対応する地理座標系(X、Y)線路情報を出力する。
 現在位置検出部207は、マッチング部205での処理により最もマッチした逆テンプレートへの変換に用いた逆変換行列RHn、Tに対応する位置を現在位置として検出する。例えば、逆行列RH2、T-1で変換して生成した逆テンプレートが最もマッチした場合、設定ポイント(P3L、P3R)に対してT-1に対応する距離を鉄道車両5の現在位置として検出する。
 図22は、第2実施形態に係る現在位置検出処理の詳細な処理の流れを示すフローチャートである。図21に示すように、先ず、画像取得部201は、鉄道車両5の進行方向の撮像画像を撮像部101から取得する。(ステップS220)。
 次に、進行予定線路位置取得部202は、鉄道車両5が進行する方向の線路の位置情報を走行位置情報収集装置30から取得する。(ステップS221)。
 次に、画像投影部203bは、画像取得部20が取得した撮像画像と線路の位置情報を共通の座標系に変換する。(ステップS222)。ここでは、ホモグラフィ行列の逆変換行列RHで地理座標系に逆変換する。
 次に、マッチング部205は、共通の座標系において、撮像画像内の線路が対応する線路の位置情報を取得する(ステップS223)。
 そして、線路出力部206は、線路の位置情報を出力し(ステップS223)、全体処理を終了する。
 以上説明したように、本実施形態によれば、画像投影部203bが、所定範囲を撮像したカメラ座標系の撮像画像を地理座標系変換し、マッチィング部205が撮像画像内の線路が対応し、且つ予め取得してある地理座標系における線路の位置情報を取得する。これにより、予め取得してある線路の位置情報に対応する撮像画像内の線路の位置情報を取得可能となる。
(第3実施形態)
 第3実施形態に係る鉄道走行線路取得システム1は、地理座標系の線路情報が(X、Y、Z)の3軸の座標で保存されている点で第1実施形態に係る鉄道走行線路取得システム1と相違する。以下では、第1実施形態に係る鉄道走行線路取得システム1と相違する点を説明する。
 撮像部101(図2参照)で用いるカメラはステレオカメラであり、カメラ座標系の画像も(x、y、z)の3軸の座標で生成される。
 図23は、第3実施形態に係る線路検出処理の詳細な処理の流れを示すフローチャートである。図23に示すように、先ず、画像取得部201は、鉄道車両5の進行方向のステレオの撮像画像を撮像部101から取得する。(ステップS230)。
 次に、進行予定線路位置取得部202は、鉄道車両5が進行する方向の線路の位置情報を走行位置情報収集装置30から取得する。(ステップS231)。
 図24は、鉄道車両5が水平面F1と傾斜θの傾斜面F2とを走行している例を模式的に示す図である。図24に示すように、傾斜面F2を走行している鉄道車両5から撮像されたステレオ画像には、傾斜に応じたz座標の値が各画素に割振られている。これにより、線路座標変換部203は、ステレオの撮像画像の座標情報により、画像の手前側のz座標と奥手側のz座標の値から傾斜を演算することができる(ステップS232)。
 線路座標変換部203は、演算した傾斜と所定範囲の傾斜を有する線路の位置情報に限定し(ステップS234)、画像取得部20が取得した撮像画像と線路の位置情報を共通の座標系に変換する。(ステップS113)。ここでは、Z軸方向の値である標高情報を用いて水平面内のカメラ座標系に変換する。このカメラ座標系で変換された画像は、所謂鳥瞰図となる
 次に、マッチング部205は、共通の座標系において、撮像画像内の線路が対応する線路の位置情報を取得する(ステップS114)。傾斜の異なる線路の位置情報を水平面である鳥瞰図に変換することにより、傾斜の影響を抑制し、より高精度にマッチング部205におけるマッチングが可能となる。
 そして、線路出力部206は、マッチング部205で対照した撮像画像中の線路と一致した線路の位置情報を出力し(ステップS115)、処理を終了する。
 以上説明したように、3軸の地理座標系の線路情報が(X、Y、Z)と、3軸のカメラ座標系のステレオ撮像画像を用いることとした。これにより、線路座標変換部203が、予め取得してある所定範囲における線路の位置情報を、ステレオ撮像画像の傾斜情報により制限することが可能となる。このため、マッチィング部205が撮像画像内の線路が対応する線路の位置情報を取得する際に情報が制限され、より高速且つより高精度に、予め取得してある線路の位置情報に対応する撮像画像内の線路の位置情報を取得可能となる。
 これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (12)

  1.  鉄道車両の進行方向の撮像画像を得る画像取得部と、
     前記鉄道車両の位置に基づき、前記鉄道車両が進行する方向の第1線路の位置情報を取得する線路情報取得部と、
     前記撮像画像と前記第1線路とを共通の座標系に変換する変換部と、
     前記共通の座標系において、前記撮像画像内の第2線路が対応する前記第1線路の位置情報を取得する対照部と、
     を備える鉄道線路情報取得装置。
  2.  前記変換部は、前記撮像画像を撮像した撮像装置の座標系に前記位置情報で示す前記第1線路の座標を変換する、請求項1に記載の鉄道線路情報取得装置。
  3.  前記変換部は、前記撮像画像の座標系を前記第1線路の座標系に変換する、請求項1に記載の鉄道線路情報取得装置。
  4.  前記変換部は、前記撮像画像と前記第1線路の位置情報とを複数の距離に対応させた複数の座標系に変換する、請求項1乃至3のいずれか一項に記載の鉄道線路情報取得装置。
  5.  前記撮像画像は、ステレオカメラで撮像した3次元座標が割振られた画像であり、
     前記撮像画像の座標系と前記第1線路の座標系とに基づき、共通の座標系に変換する、請求項1乃至4のいずれか一項に記載の鉄道線路情報取得装置。
  6.  3次元座標が割振られた画像を用いて、進行方向に対する傾斜を演算し、
     前記傾斜に基づいて前記共通の座標系に変換する、請求項5に記載の鉄道線路情報取得装置。
  7.  前記第1線路の前記位置情報は標高情報を有し、
     前記変換部は、標高情報を利用して前記第1線路の位置と画像の座標系を水平座標系に変換する、請求項1乃至4のいずれか一項に記載の鉄道線路情報取得装置。
  8.  線路分岐部におけるトングレールの状態を監視して進行線路位置情報との照合を行うことで、トングレール状態の整合性を確認するトングレール状態監視部を、
     更に備える、請求項1乃至7のいずれか一項に記載の鉄道線路情報取得装置。
  9.  前記対照部により得られた前記第1線路の位置情報に基づいて前記撮影装置の撮影パラメータを設定する設定部を、
     更に備える、請求項2に記載の鉄道線路情報取得装置。
  10.  前記設定部は、トンネル内の所定領域内のコントラストに基づき、撮影パラメータを設定する、請求項9に記載の鉄道線路情報取得装置。
  11.  前記対照部により得られた前記線路位置に基づいて現在位置を検出する位置検出部を、
     更に備える、請求項1乃至10のいずれか一項に記載の鉄道線路情報取得装置。
  12.  鉄道車両の進行方向の撮像画像を得る画像取得工程と、
     前記鉄道車両の位置に基づき、前記鉄道車両が進行する方向の第1線路の位置情報を取得する線路情報取得工程と、
     前記撮像画像と前記第1線路を共通の座標系に変換する変換工程と、
     前記共通の座標系において、前記撮像画像内の線路が対応する前記第1線路の位置情報を取得する対照工程と、
     を備える鉄道走行線路取得方法。
PCT/JP2021/015949 2020-07-20 2021-04-20 鉄道線路情報取得装置、及び鉄道線路情報取得方法 WO2022018918A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180039062.1A CN115916623A (zh) 2020-07-20 2021-04-20 铁道线路信息取得装置以及铁道线路信息取得方法
EP21846756.1A EP4183660A4 (en) 2020-07-20 2021-04-20 DEVICE FOR ACQUIRING RAILWAY LINE INFORMATION AND METHOD FOR ACQUIRING RAILWAY LINE INFORMATION

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020123798A JP7455690B2 (ja) 2020-07-20 2020-07-20 鉄道線路情報取得装置、及び鉄道線路情報取得方法
JP2020-123798 2020-07-20

Publications (1)

Publication Number Publication Date
WO2022018918A1 true WO2022018918A1 (ja) 2022-01-27

Family

ID=79728596

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/015949 WO2022018918A1 (ja) 2020-07-20 2021-04-20 鉄道線路情報取得装置、及び鉄道線路情報取得方法

Country Status (4)

Country Link
EP (1) EP4183660A4 (ja)
JP (1) JP7455690B2 (ja)
CN (1) CN115916623A (ja)
WO (1) WO2022018918A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4286245A1 (en) * 2022-06-03 2023-12-06 Kabushiki Kaisha Toshiba Position information detection device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096510A (ja) * 2005-09-27 2007-04-12 Omron Corp 前方撮影装置
JP2016172824A (ja) 2015-03-17 2016-09-29 日本化薬株式会社 ポリイミド樹脂組成物、及びそれを用いた接着フィルム
JP2018039288A (ja) * 2016-09-05 2018-03-15 株式会社明電舎 分岐器進入可否判定装置及び分岐器進入可否判定方法
WO2018101455A1 (ja) * 2016-12-02 2018-06-07 東日本旅客鉄道株式会社 設備巡視システム及び設備巡視方法
JP2019218022A (ja) 2018-06-22 2019-12-26 株式会社東芝 線路検出装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018508418A (ja) * 2015-01-20 2018-03-29 ソルフィス リサーチ、インコーポレイテッド リモートセンシング及び車両制御のための実時間マシンビジョン並びに点群分析
EP3048559A1 (en) * 2015-01-21 2016-07-27 RindInvest AB Method and system for detecting a rail track

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096510A (ja) * 2005-09-27 2007-04-12 Omron Corp 前方撮影装置
JP2016172824A (ja) 2015-03-17 2016-09-29 日本化薬株式会社 ポリイミド樹脂組成物、及びそれを用いた接着フィルム
JP2018039288A (ja) * 2016-09-05 2018-03-15 株式会社明電舎 分岐器進入可否判定装置及び分岐器進入可否判定方法
WO2018101455A1 (ja) * 2016-12-02 2018-06-07 東日本旅客鉄道株式会社 設備巡視システム及び設備巡視方法
JP2019218022A (ja) 2018-06-22 2019-12-26 株式会社東芝 線路検出装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Geometry Constraints-based Visual Rail Track Extraction", CONFERENCE: 2016 12TH WORLD CONGRESS ON INTELLIGENT CONTROL AND AUTOMATION (WCICA
See also references of EP4183660A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4286245A1 (en) * 2022-06-03 2023-12-06 Kabushiki Kaisha Toshiba Position information detection device

Also Published As

Publication number Publication date
JP2022020355A (ja) 2022-02-01
EP4183660A4 (en) 2024-07-31
JP7455690B2 (ja) 2024-03-26
CN115916623A (zh) 2023-04-04
EP4183660A1 (en) 2023-05-24

Similar Documents

Publication Publication Date Title
JP6209141B2 (ja) 障害物検出装置及び方法
US8452467B2 (en) System and method for verifying track database information
CN109084782B (zh) 基于摄像头传感器的车道线地图构建方法以及构建系统
US8538609B2 (en) System, method, and computer readable memory medium for verifying track database information
JP4370869B2 (ja) 地図データ更新方法および地図データ更新装置
CN109478335B (zh) 驾驶辅助方法、驾驶辅助系统和车辆
JP7197282B2 (ja) 物体検知システム
CN110599853B (zh) 驾校智能教学系统及方法
CN103733077A (zh) 用于测量沿着导向轨道移动的车辆的速度和位置的装置、及其对应的方法和计算机程序产品
WO2014188536A1 (ja) ナビゲーション装置
CN109477728A (zh) 用于确定车辆相对于路面的车道的横向位置的方法、装置和带有指令的计算机可读存储介质
JP2021513481A (ja) 鉄道線路上の関心点または線を位置特定し、鉄道線路上に介入マシンを位置決めし、かつ駆動するための方法
KR102037129B1 (ko) 차량의 위치 보정 장치 및 방법과 이를 이용한 차량 위치 보정 시스템 및 무인 운행이 가능한 차량
JPH0710003A (ja) 鉄道車両用支障物検知装置
KR20200077426A (ko) 유도로 상의 항공기 포지셔닝
CN113316706A (zh) 路标位置估计设备和方法以及存储被编程为执行该方法的计算机程序的计算机可读记录介质
WO2022018918A1 (ja) 鉄道線路情報取得装置、及び鉄道線路情報取得方法
CN104506821A (zh) 一种基于数字图像测量的渡口人员落水快速定位系统
Wang et al. An inverse projective mapping-based approach for robust rail track extraction
KR20060134719A (ko) 차량의 주차 구획 인식방법
JP2020006845A (ja) 線路曲率推定装置及び方法
JP4462533B2 (ja) 路面走行レーン検出装置
JP6308681B2 (ja) 渡り線設備監視装置及び方法
CN116402871B (zh) 一种基于场景平行要素的单目测距方法、系统及电子设备
Ristić-Durrant et al. Reliable Obstacle Detection for Smart Automation of Rail Transport

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21846756

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021846756

Country of ref document: EP

Effective date: 20230220