JP2019206318A - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP2019206318A
JP2019206318A JP2018104018A JP2018104018A JP2019206318A JP 2019206318 A JP2019206318 A JP 2019206318A JP 2018104018 A JP2018104018 A JP 2018104018A JP 2018104018 A JP2018104018 A JP 2018104018A JP 2019206318 A JP2019206318 A JP 2019206318A
Authority
JP
Japan
Prior art keywords
predetermined
determination
frame
unit
determination frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018104018A
Other languages
Japanese (ja)
Other versions
JP7217094B2 (en
Inventor
章紘 木村
Akihiro Kimura
章紘 木村
湯浅 誉之
Yoshiyuki Yuasa
誉之 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP2018104018A priority Critical patent/JP7217094B2/en
Publication of JP2019206318A publication Critical patent/JP2019206318A/en
Application granted granted Critical
Publication of JP7217094B2 publication Critical patent/JP7217094B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a monitoring device which is improved to detect obstacles accurately.SOLUTION: A monitoring device 100 comprises a first measurement part 41 of a vehicle control device 31 which functions as a first judgement part for detecting obstacles in a prescribed decision frame AR1 that is set in response to a travel position along a line RL as a track and a second measurement part 42 of the vehicle control device 31 which functions as a second judgement part for detecting obstacles in comparison with a reference distance image (reference information) regarding spatial arrangements in a prescribed recognition area AR2 including surroundings of the line RL as the track.SELECTED DRAWING: Figure 2

Description

本発明は、鉄道その他の交通設備において軌道の周辺に存在する障害物を監視する監視装置に関する。   The present invention relates to a monitoring device for monitoring obstacles existing around a track in a railway or other transportation facility.

障害物の監視に利用可能な画像処理装置として、ステレオ画像をマッチング処理して前方物体までの距離を与える視差を算出するステレオ画像処理装置であって、基準画像の基準点と同じ座標となる対応画像上の点を検出して一次対応点とし、その一次対応点から同じ走査線上をレール抽出による視差だけずらした点を二次対応点とし、その二次対応点から対応画像の左右にマッチング処理を行って相関値を算出するものが存在する(特許文献1参照)。   As an image processing apparatus that can be used to monitor an obstacle, a stereo image processing apparatus that calculates a parallax that gives a distance to a forward object by performing a matching process on a stereo image, and that has the same coordinates as the reference point of the reference image A point on the image is detected as a primary corresponding point, a point that is shifted by the parallax due to rail extraction on the same scanning line from the primary corresponding point is set as a secondary corresponding point, and matching processing is performed from the secondary corresponding point to the left and right of the corresponding image. There is one that calculates the correlation value by performing (see Patent Document 1).

また、鉄道の障害物用の監視装置として、観測画像データと背景画像データとの差分を算出し、両者の画素値の相違度が大きい前景領域を検出するとともに、前景領域が検出された観測画像データに対して軌道検出処理を施して軌道軸に対する前景領域内の点の位置又は軌跡を求めることにより、前景領域内の点が建築限界内に存在するか否かを判定するものが存在する(特許文献2参照)。   Also, as a railway obstacle monitoring device, the difference between the observed image data and the background image data is calculated, and a foreground region having a large degree of difference between the two pixel values is detected, and an observed image in which the foreground region is detected There is one that determines whether or not a point in the foreground area exists within the building limits by performing a trajectory detection process on the data to obtain a position or locus of the point in the foreground area with respect to the trajectory axis ( Patent Document 2).

しかしながら、特許文献1の場合、視差によって前方の障害物までの距離を判定できるが、視差だけに頼ることになり、障害物の検出精度を高めることは容易でない。また、特許文献2の場合、建築限界内に前景領域の点が存在することを検出できるが、撮影画像の差分を抽出した2次元的情報が前提であり、障害物の検出精度を高めることは容易でない。   However, in the case of Patent Document 1, although the distance to the obstacle ahead can be determined by the parallax, it depends on only the parallax, and it is not easy to increase the detection accuracy of the obstacle. Further, in the case of Patent Document 2, it can be detected that a point in the foreground region exists within the building limit, but two-dimensional information obtained by extracting the difference between the captured images is a premise, and it is possible to improve the detection accuracy of the obstacle. Not easy.

特開2016−192106号公報JP 2016-192106 A 特開2016−52849号公報JP, 2006-52849, A

本発明は上記した点に鑑みてなされたものであり、障害物の検出精度を高めた監視装置を提供することを目的とする。   The present invention has been made in view of the above-described points, and an object thereof is to provide a monitoring device with improved obstacle detection accuracy.

上記目的を達成するため、本発明に係る監視装置は、軌道に沿った走行位置に応じて設定される所定の判定枠内に存在する物体を検出する第1判定部と、軌道の周辺を含む所定の認識領域内における空間的配置に関する参照情報に基づいて物体を検出する第2判定部とを備える。   In order to achieve the above object, a monitoring apparatus according to the present invention includes a first determination unit that detects an object that exists within a predetermined determination frame that is set according to a travel position along a track, and a periphery of the track. And a second determination unit that detects an object based on reference information regarding spatial arrangement in a predetermined recognition area.

上記監視装置では、第1判定部が軌道に沿った走行位置に応じて設定される所定の判定枠内に存在する物体を検出し、第2判定部が、軌道の周辺を含む所定の認識領域内における空間的配置に関する参照情報に基づいて物体を検出するので、判定枠内における物体検出と認識領域内における空間的配置の変化との組合せによって、障害物の検出精度を高めることができる。   In the monitoring apparatus, the first determination unit detects an object existing in a predetermined determination frame set according to the travel position along the track, and the second determination unit has a predetermined recognition area including the periphery of the track. Since the object is detected based on the reference information regarding the spatial arrangement in the object, the detection accuracy of the obstacle can be improved by combining the object detection in the determination frame and the change in the spatial arrangement in the recognition area.

本発明の具体的な側面では、上記監視装置おいて、第1判定部は、電磁波を所定の判定枠内に照射し所定の判定枠内の物体からの反射波を検出する。この場合、電波や光を用いた簡易で高精度の計測が可能になる。   In a specific aspect of the present invention, in the monitoring device, the first determination unit irradiates an electromagnetic wave in a predetermined determination frame and detects a reflected wave from an object in the predetermined determination frame. In this case, simple and highly accurate measurement using radio waves and light becomes possible.

本発明の別の側面では、第1判定部は、事前走行によって走行位置に対応付けて所定の判定枠を生成した枠データを参照して、本走行時に走行位置に対応する所定の判定枠を設定する。この場合、走行位置に対応して適切な判定枠を設定できる。   In another aspect of the present invention, the first determination unit refers to frame data in which a predetermined determination frame is generated in association with the travel position by pre-travel, and determines a predetermined determination frame corresponding to the travel position during the main travel. Set. In this case, an appropriate determination frame can be set corresponding to the travel position.

本発明のさらに別の側面では、所定の判定枠は、軌道中心と既定幅とに基づいて生成される。この場合、判定枠の規定が簡単なものとなる。   In still another aspect of the present invention, the predetermined determination frame is generated based on the trajectory center and the predetermined width. In this case, the determination frame is easily defined.

本発明のさらに別の側面では、第2判定部は、本走行時に走行位置で得た空間的配置に関する計測情報と、事前走行によって走行位置に対応付けて得た空間的配置に関する参照情報との差分を抽出する。この場合、事前の参照情報を利用した確度の高い物体検出が可能になる。   In still another aspect of the present invention, the second determination unit includes measurement information related to the spatial arrangement obtained at the travel position during the main travel, and reference information related to the spatial layout obtained in association with the travel position by the preliminary travel. Extract the difference. In this case, highly accurate object detection using prior reference information is possible.

本発明のさらに別の側面では、所定の認識領域は、所定の判定枠を含んで方位的により広い領域に設定されている。この場合、判定枠の上下左右の周囲における物体検出が可能になり、判定枠内については物体検出の確度を高めることができる。   In still another aspect of the present invention, the predetermined recognition area is set to a wider azimuth area including a predetermined determination frame. In this case, it is possible to detect an object around the upper, lower, left, and right sides of the determination frame, and the accuracy of object detection can be increased in the determination frame.

本発明のさらに別の側面では、所定の認識領域は、所定の判定枠を含んでより遠い領域に設定されている。この場合、判定枠の後方における物体検出が可能になる。   In still another aspect of the present invention, the predetermined recognition area is set to a farther area including a predetermined determination frame. In this case, an object can be detected behind the determination frame.

本発明のさらに別の側面では、第1判定部は、物体の方位及び距離を計測するためのレーダー装置又はレーザーレーダー装置を有し、第2判定部は、物体の配置を3次元的に計測するためのカメラ又はレーザーレーダー装置を有する。この場合、枠内の物体や認識領域内の物体を正確に判定できる。   In still another aspect of the present invention, the first determination unit includes a radar device or a laser radar device for measuring the azimuth and distance of the object, and the second determination unit measures the arrangement of the object three-dimensionally. To have a camera or laser radar device. In this case, an object in the frame or an object in the recognition area can be accurately determined.

本発明のさらに別の側面では、第1判定部及び第2判定部のいずれかによって物体が検出された場合に、障害物が存在すると判断する。   In still another aspect of the present invention, it is determined that an obstacle exists when an object is detected by either the first determination unit or the second determination unit.

列車に搭載された第1実施形態の監視装置を説明する概念的なブロック図である。It is a conceptual block diagram explaining the monitoring apparatus of 1st Embodiment mounted in the train. 監視装置の本体を説明する概念的なブロック図である。It is a conceptual block diagram explaining the main body of a monitoring apparatus. (A)及び(B)は、第1及び第2判定部による判定範囲を説明する概念的な側面図及び正面図であり、(C)及び(D)は、第1判定部による判定枠の変形例を説明する図である。(A) and (B) are a conceptual side view and a front view for explaining a determination range by the first and second determination units, and (C) and (D) are determination frames of the first determination unit. It is a figure explaining a modification. 監視装置による参照データの作成を説明するフローチャートである。It is a flowchart explaining preparation of the reference data by the monitoring apparatus. 監視装置による監視動作を説明するフローチャートである。It is a flowchart explaining the monitoring operation | movement by a monitoring apparatus. 具体的な動作を説明する概念的平面図である。It is a conceptual plan view explaining a specific operation. (A)〜(C)は、具体的な動作を説明する概念的斜視図である。(A)-(C) are the conceptual perspective views explaining a concrete operation | movement. 第2実施形態の監視装置による監視動作を説明するフローチャートである。It is a flowchart explaining the monitoring operation | movement by the monitoring apparatus of 2nd Embodiment.

図1に示す第1実施形態の監視装置100は、列車TRに組み込まれた車上装置200の一部となっている。   The monitoring device 100 according to the first embodiment shown in FIG. 1 is a part of the on-board device 200 incorporated in the train TR.

監視装置100は、各部の動作を統括に制御する車両制御装置31と、列車TRの現在速度を検出する車速検出部34と、線路RL側に設けた地上子との間で通信を行って線路RL上の列車TRの位置を検出する車上子35と、不図示の列車運行管理システム又は指令所との間で通信を可能にする通信部37と、列車TRの前方の物体を検出する計測を行う第1計測部41と、列車TRの前方及びその周辺の物体を検出する計測を行う第2計測部42とを備える。車上装置200は、監視装置100を構成する上記要素31,34,35,37,41,42のほかに、列車TRを加速するためのモーター等からなる駆動装置32と、列車TRを減速するためのブレーキ装置33と、乗客等に向けて各種情報を伝達するための報知手段であるスピーカーや表示部といった車内出力部36とを備える。   The monitoring device 100 performs communication between the vehicle control device 31 that controls the operation of each unit in an integrated manner, the vehicle speed detection unit 34 that detects the current speed of the train TR, and the ground unit provided on the track RL side. Measurement that detects an object in front of the train TR, a communication unit 37 that enables communication between a vehicle upper member 35 that detects the position of the train TR on the RL, a train operation management system (not shown) or a command station. And a second measurement unit 42 that performs measurement to detect objects in front of and around the train TR. The on-board device 200 decelerates the train TR in addition to the elements 31, 34, 35, 37, 41, and 42 constituting the monitoring device 100, and a drive device 32 including a motor for accelerating the train TR. And an in-vehicle output unit 36 such as a speaker or a display unit, which are notification means for transmitting various types of information to passengers and the like.

車両制御装置31は、運転手等の指示に基づいて列車TRの各部を動作させ、列車TRの適切な速度での走行や適切なタイミングでの停止を可能にするとともに、緊急時の自動列車停止機能を有する。車両制御装置31は、車速検出部34を利用した積算距離と車上子35を利用した較正とによって、列車TRの現在の走行位置を把握している。車両制御装置31は、第1計測部41とともに第1判定部を構成する。つまり、車両制御装置31は、第1計測部41を利用して線路RLに沿った走行位置に応じて設定される所定の判定枠内に存在する物体を検出する。さらに、車両制御装置31は、第2計測部42とともに第2判定部を構成する。つまり、車両制御装置31は、第2計測部42を利用して軌道又は線路RLの周辺を含む所定の認識領域内における空間的配置に関する参照情報に基づいて物体を検出する。   The vehicle control device 31 operates each part of the train TR based on instructions from the driver, etc., and enables the train TR to travel at an appropriate speed and stop at an appropriate timing, and to stop an automatic train in an emergency. It has a function. The vehicle control device 31 grasps the current traveling position of the train TR based on the accumulated distance using the vehicle speed detection unit 34 and the calibration using the vehicle upper member 35. The vehicle control device 31 constitutes a first determination unit together with the first measurement unit 41. That is, the vehicle control device 31 uses the first measurement unit 41 to detect an object that exists within a predetermined determination frame that is set according to the travel position along the track RL. Furthermore, the vehicle control device 31 constitutes a second determination unit together with the second measurement unit 42. That is, the vehicle control device 31 uses the second measurement unit 42 to detect the object based on the reference information regarding the spatial arrangement in the predetermined recognition area including the periphery of the track or the track RL.

列車TRの現在の走行位置については、上記のように車速検出部34を利用するものに限らず、レーダーその他の測距装置を用いた計測に際してドップラー効果を監視することによる速度値、GPS信号のドップラー効果を利用した速度値等に基づくものとしてもよい。その他、RFIDを利用した位置検出、みちびきその他の衛星測位による位置検出も可能である。   The current travel position of the train TR is not limited to the one using the vehicle speed detection unit 34 as described above, but the speed value and the GPS signal obtained by monitoring the Doppler effect at the time of measurement using a radar or other distance measuring device. It may be based on a speed value using the Doppler effect. In addition, position detection using RFID, position detection by Michibiki or other satellite positioning is also possible.

図2に示すように、車両制御装置31は、演算処理部101と、記憶部102と、入出力部103と、インターフェース部104とを備える。車両制御装置31は、具体的には、走行制御用のプログラムを搭載したコンピューターを含み、走行制御用のプログラムには、一般的制御プログラムのほかに障害物監視用のプログラムが付加されている。車両制御装置31又は車上装置200は、列車TRの走行状態の制御を基本的な役割又は動作とするものであるが、以下では、車両制御装置31等を主に障害物監視機能の側面から説明する。   As shown in FIG. 2, the vehicle control device 31 includes an arithmetic processing unit 101, a storage unit 102, an input / output unit 103, and an interface unit 104. Specifically, the vehicle control device 31 includes a computer on which a program for traveling control is mounted, and an obstacle monitoring program is added to the traveling control program in addition to the general control program. The vehicle control device 31 or the on-board device 200 has a basic role or operation for controlling the running state of the train TR. Hereinafter, the vehicle control device 31 and the like are mainly used from the aspect of the obstacle monitoring function. explain.

演算処理部101は、記憶部102に保管されたプログラムやデータに基づいて動作し、入出力部103やインターフェース部104から得た情報に基づいて処理を行い、処理の経過や結果を記憶部102に保管するとともに入出力部103に提示する。また、演算処理部101は、プログラム等に基づいてインターフェース部104を介して第1計測部41を動作させ、図3(A)に示すように線路RLに沿って軌間幅等に対応するサイズを有する所定の判定枠AR1内に存在する障害物を監視する。また、演算処理部101は、プログラム等に基づいてインターフェース部104を介して第2計測部42を動作させ、図3(A)に示すように線路RLに沿って判定枠AR1よりも広い範囲をカバーする所定の認識領域AR2内に存在する障害物を監視する。障害物については、典型的には、人や車、落石や動物といったある程度以上の大きさの物体が考えられる。演算処理部101は、第1計測部41により取得した判定枠AR1内での計測データに基づく物体の有無の検知結果や、第2計測部42により取得した認識領域AR2内での計測データに基づく物体の有無の検知結果から、進行方向前方に障害物があると判断すると、ブレーキ装置33を動作させて車両を減速させたり停止させたりするとともに、車内出力部36により、乗客に対して急ブレーキによる停止を行う旨の報知等を行う。   The arithmetic processing unit 101 operates based on programs and data stored in the storage unit 102, performs processing based on information obtained from the input / output unit 103 and the interface unit 104, and stores the progress and results of the processing. And is presented to the input / output unit 103. Further, the arithmetic processing unit 101 operates the first measuring unit 41 via the interface unit 104 based on a program or the like, and sets a size corresponding to the gauge width along the line RL as shown in FIG. Obstacles existing within a predetermined determination frame AR1 are monitored. In addition, the arithmetic processing unit 101 operates the second measurement unit 42 via the interface unit 104 based on a program or the like, and has a wider range than the determination frame AR1 along the line RL as illustrated in FIG. Obstacles existing in a predetermined recognition area AR2 to be covered are monitored. As the obstacle, typically, an object of a certain size or larger, such as a person, a car, a rockfall, or an animal, can be considered. The arithmetic processing unit 101 is based on the detection result of the presence or absence of an object based on the measurement data in the determination frame AR1 acquired by the first measurement unit 41, or the measurement data in the recognition area AR2 acquired by the second measurement unit 42. If it is determined from the detection result of the presence or absence of an object that there is an obstacle ahead of the traveling direction, the brake device 33 is operated to decelerate or stop the vehicle, and the in-vehicle output unit 36 suddenly brakes the passenger. Informs that the stop will be performed.

図3(A)及び3(B)に示すように、第1計測部41を用いた監視における個々の判定枠AR1は、軌道としての線路RL又は軌道中心RCに沿って延びる四角錐状の領域であり、車両限界程度の範囲に設定されて、線路RLの軌間幅を既定幅として、この既定幅を有するとともに列車TRの高さ程度の高さを有する。判定枠AR1の奥行き距離D1は、制動距離との関係で設定されるが、例えば40mに設定することができる。判定枠AR1による判定は、中距離を対象とするものである。なお、判定枠AR1は、列車TRの移動に伴って移動し、連続した判定枠AR1の集合である全体の判定枠TA1は、四角柱状の領域となる。第2計測部42を用いた監視における認識領域AR2は、軌道としての線路RL又は軌道中心RCに沿って延びる四角柱状の領域であり、建築限界以上の範囲に設定されて、判定枠AR1を含んで広い範囲をカバーするものとなっている。つまり、認識領域AR2は、判定枠AR1を含んで方位的により広い領域に設定され、かつ、判定枠AR1を含んでより遠い領域に設定されている。認識領域AR2は、具体的には線路RLの軌間幅又は路床幅を超えて周辺を含むように設定されている。認識領域AR2の横幅は、線路RLの横に数m広がったものとでき、認識領域AR2の奥行き距離D2は、制動距離との関係で設定されるが、例えば100mに設定することができる。認識領域AR2による識別は、中距離及び長距離を対象とするものである。   As shown in FIGS. 3A and 3B, each determination frame AR1 in monitoring using the first measurement unit 41 is a quadrangular pyramid region extending along the track RL as the track or the track center RC. It is set to a range of about the vehicle limit, and has a predetermined width as the gauge width of the track RL, and has the predetermined width and the height of the train TR. The depth distance D1 of the determination frame AR1 is set in relation to the braking distance, but can be set to 40 m, for example. The determination by the determination frame AR1 is for a medium distance. Note that the determination frame AR1 moves with the movement of the train TR, and the entire determination frame TA1 that is a set of continuous determination frames AR1 is a quadrangular columnar region. The recognition area AR2 in monitoring using the second measuring unit 42 is a quadrangular prism-shaped area extending along the track RL or the track center RC as a track, and is set to a range equal to or greater than the building limit and includes a determination frame AR1. It covers a wide range. That is, the recognition area AR2 is set to an area that is azimuthally wider including the determination frame AR1, and is set to a farther area including the determination frame AR1. The recognition area AR2 is specifically set to include the periphery beyond the gauge width or the road bed width of the track RL. The width of the recognition area AR2 can be several meters wide next to the track RL, and the depth distance D2 of the recognition area AR2 is set in relation to the braking distance, but can be set to 100 m, for example. The identification by the recognition area AR2 is intended for medium distance and long distance.

判定枠AR1は、判定枠AR1の前方端FA1が軌道としての線路RL上方をカバーするように軌道中心RCを基準として設定されるものであり、列車TRが線路RL上のどの地点に存在するかによって時々刻々と変化する。判定枠AR1は、線路RL上の走行位置の関数として与えられ、列車TR又は計測車を事前に走行させることで具体的に決定され、距離又は走行位置毎の判定枠データベースとして記憶部102等に保管される。実際の計測において、演算処理部101は、列車TRの線路RL上の走行位置に基づいて記憶部102に保管された判定枠データベースから対応する判定枠AR1を読み出すことにより、走行位置に対応する判定枠AR1を設定し、第1計測部41を利用して計測を行い、判定枠AR1内に障害物その他の所定サイズ以上の物体が存在するか否かを判断する。判定枠AR1の範囲又は位置は、線路RLの軌道中心RC及び列車TRの先頭位置を基準として、例えば1mといった線路RLに沿った間隔又は刻みで設定することができる。列車TRが大きく曲がる曲線区間では、本来判定枠AR1とすべき箇所が物陰に隠れる可能性があり、この場合、判定枠AR1の設定を行わず第1計測部41を用いた監視も一時的に中断させることができる。判定枠AR1が部分的に物陰に隠れる場合、判定枠AR1を部分的に有効にすることもできる。   The determination frame AR1 is set on the basis of the track center RC so that the front end FA1 of the determination frame AR1 covers the track RL as a track, and at which point on the track RL the train TR exists. Depending on the time. The determination frame AR1 is given as a function of the travel position on the track RL, and is specifically determined by running the train TR or the measurement vehicle in advance, and is stored in the storage unit 102 as a determination frame database for each distance or travel position. Stored. In actual measurement, the arithmetic processing unit 101 reads the determination frame AR1 corresponding to the travel position from the determination frame database stored in the storage unit 102 based on the travel position of the train TR on the track RL, thereby determining the travel position. A frame AR1 is set, measurement is performed using the first measurement unit 41, and it is determined whether there is an obstacle or other object of a predetermined size or more in the determination frame AR1. The range or position of the determination frame AR1 can be set at intervals or increments along the track RL such as 1 m, for example, with reference to the track center RC of the track RL and the head position of the train TR. In a curved section where the train TR bends greatly, there is a possibility that a portion that should originally be the determination frame AR1 may be hidden behind the object. In this case, the determination frame AR1 is not set and monitoring using the first measurement unit 41 is temporarily performed. Can be interrupted. When the determination frame AR1 is partially hidden behind the object, the determination frame AR1 can be partially validated.

認識領域AR2は、軌道としての線路RL及びその周辺を広くカバーするように軌道中心RCを基準として設定されるものであり、列車TRが線路RL上のどの地点に存在するかによって時々刻々と変化する。認識領域AR2は、それ自体が単独でデータベース化されるものではなく、認識領域AR2において、距離画像が取得される。認識領域AR2における距離画像は、線路RL上の走行位置の関数として与えられ、例えば列車TR又は計測車を事前に走行させることで具体的に取得され、距離又は位置毎の距離画像データベースとして記憶部102等に保管される。実際の計測において、演算処理部101は、列車TRの線路RL上の走行位置に基づいて、記憶部102に保管された参照情報として認識領域AR2内の参照距離画像(参照情報)を読み出すとともに、第2計測部42を利用して認識領域AR2内で運用時距離画像(計測情報)を計測し、認識領域AR2内に障害物その他の所定サイズ以上の物体が出現した否かを判断する。認識領域AR2の範囲は、線路RLの軌道中心RC及び列車TRの先頭位置を基準として、例えば1mといった線路RLに沿った間隔又は刻みで設定することができる。列車TRが大きく曲がる曲線区間では、本来認識領域AR2とすべき箇所が近景に遮られる可能性があるが、この場合、近景が参照距離画像(参照情報)となり、第2計測部42を用いた監視を継続することができる。   The recognition area AR2 is set on the basis of the track center RC so as to widely cover the track RL as a track and its periphery, and changes from moment to moment depending on where the train TR exists on the track RL. To do. The recognition area AR2 itself is not databased by itself, and a distance image is acquired in the recognition area AR2. The distance image in the recognition area AR2 is given as a function of the travel position on the track RL, and is specifically acquired by traveling the train TR or the measurement vehicle in advance, for example, and is stored as a distance image database for each distance or position. 102 etc. In actual measurement, the arithmetic processing unit 101 reads the reference distance image (reference information) in the recognition area AR2 as reference information stored in the storage unit 102 based on the travel position of the train TR on the track RL, An operating distance image (measurement information) is measured in the recognition area AR2 using the second measurement unit 42, and it is determined whether or not an obstacle or other object of a predetermined size or more has appeared in the recognition area AR2. The range of the recognition area AR2 can be set at intervals or increments along the track RL such as 1 m, for example, with reference to the track center RC of the track RL and the head position of the train TR. In a curved section where the train TR bends greatly, there is a possibility that the portion that should be the recognition area AR2 is obstructed by the near view. In this case, the close view becomes the reference distance image (reference information), and the second measurement unit 42 is used. Monitoring can be continued.

図3(C)に示すように、判定枠AR1については、補助的な判定枠AR11,AR12を追加することもできる。補助的な判定枠AR11,AR12は、基本的な判定枠AR1に対して奥行き距離D1が異なるように設定されている。このように、距離ごとに設定した複数の判定枠AR1,AR11,AR12を用いることで、各位置での障害物の有無の判定が可能になり、列車TRの速度を考慮した衝突危険性判断の確度を高めることができる。   As shown in FIG. 3C, auxiliary determination frames AR11 and AR12 may be added for the determination frame AR1. The auxiliary determination frames AR11 and AR12 are set so that the depth distance D1 is different from the basic determination frame AR1. In this way, by using the plurality of determination frames AR1, AR11, AR12 set for each distance, it is possible to determine the presence or absence of an obstacle at each position, and the collision risk determination in consideration of the speed of the train TR. Accuracy can be increased.

図3(D)に示す判定枠AR13は、図3(B)に示す判定枠AR1より広く、車両限界又は建築限界よりも横に広がった領域をカバーしている。   The determination frame AR13 illustrated in FIG. 3D covers an area that is wider than the determination frame AR1 illustrated in FIG. 3B and extends laterally beyond the vehicle limit or the building limit.

図1に戻って、第1計測部41は、例えばミリ波(つまり電磁波)によって物体検出を行うレーダー装置を有し、前方の計測領域内(具体的には判定枠AR1内)に存在する物体を計測する。第1計測部41は、列車TRの前方に対して電磁波ビームをアンテナアレイ等を利用して2次元的に走査しつつ照射し、物体で反射されて戻って来た反射波の方位及び検出タイミングから物体の奥行き方向を含めた位置を計測する。この際、反射波の角度範囲から物体のサイズに関する情報も得ることができる。第1計測部41による物体検出に際して図3(A)に示すような判定枠AR1を設定すれば、この判定枠AR1内に存在する物体又は障害物を抽出することもできる。第1計測部41は、列車TRの走行に伴って高速で撮像及び距離算出を行うので、列車TRの前方の変化する前景についてリアルタイムで距離画像を計測することができる。第1計測部41については、レーダー装置に限らず、例えば電磁波として赤外光その他のレーザー光を用いポリゴンミラー、MEMSミラー等により走査を行うレーザーレーダー装置又は3次元画像センサーを用いることができる。   Returning to FIG. 1, the first measurement unit 41 includes a radar device that performs object detection using, for example, millimeter waves (that is, electromagnetic waves), and an object that exists in the front measurement region (specifically, in the determination frame AR1). Measure. The first measurement unit 41 irradiates the front of the train TR with an electromagnetic wave while scanning two-dimensionally using an antenna array or the like, and the direction and detection timing of the reflected wave that is reflected by the object and returned. The position including the depth direction of the object is measured. At this time, information on the size of the object can also be obtained from the angle range of the reflected wave. If a determination frame AR1 as shown in FIG. 3A is set when an object is detected by the first measurement unit 41, an object or an obstacle existing in the determination frame AR1 can be extracted. Since the first measurement unit 41 performs imaging and distance calculation at a high speed as the train TR travels, the first measurement unit 41 can measure a distance image in real time for the foreground that changes in front of the train TR. The first measurement unit 41 is not limited to a radar device, and for example, a laser radar device or a three-dimensional image sensor that scans with a polygon mirror, a MEMS mirror, or the like using infrared light or other laser light as electromagnetic waves can be used.

第2計測部42は、例えば可視光又は赤外光によって撮影を行うステレオカメラを有し、演算処理部101と協働して、前景について可視域又は赤外域で距離画像を計測する。つまり、第2計測部42は、列車TRの前方画像をステレオ方式で撮影し、演算処理部101は、撮影した画像中の各部までの距離を計算することができる。演算処理部101は、画像中から所定サイズ以上のオブジェクトを抽出し、視差を利用して各オブジェクトまでの距離を算出する。この場合、第2計測部42の前方景色の各部について距離を与えることになり、距離画像を計測することになる。第2計測部42及び演算処理部101は、列車TRの走行に伴って高速で撮像及び距離算出を行うので、列車TRの前方の変化する前景についてリアルタイムで距離画像を計測することができる。第2計測部42及び演算処理部101については、他の光学的原理、例えばフォーカスを移動させて各焦点位置でピントが合うオブジェクトを抽出するようなものであってもよい。第2計測部42及び演算処理部101については、ステレオカメラに限らず、例えばレーザーレーダー装置又は3次元画像センサーを用いることができる。   The second measurement unit 42 includes a stereo camera that performs imaging using, for example, visible light or infrared light, and measures a distance image of the foreground in the visible region or the infrared region in cooperation with the arithmetic processing unit 101. That is, the 2nd measurement part 42 can image | photograph the front image of train TR by a stereo system, and the arithmetic processing part 101 can calculate the distance to each part in the image | photographed image. The arithmetic processing unit 101 extracts an object having a predetermined size or more from the image, and calculates the distance to each object using parallax. In this case, a distance is given to each part of the front scenery of the second measuring unit 42, and a distance image is measured. Since the second measurement unit 42 and the arithmetic processing unit 101 perform imaging and distance calculation at high speed as the train TR travels, the distance image can be measured in real time for the foreground that changes in front of the train TR. About the 2nd measurement part 42 and the arithmetic processing part 101, another optical principle, for example, a thing which moves a focus and extracts the object which focuses on each focus position may be used. About the 2nd measurement part 42 and the arithmetic processing part 101, not only a stereo camera but a laser radar apparatus or a three-dimensional image sensor can be used, for example.

図4及び5は、図1等に示す監視装置100の具体的動作を説明するフローチャートである。   4 and 5 are flowcharts for explaining specific operations of the monitoring apparatus 100 shown in FIG.

図4を参照して、リファレンスデータの作成手順について説明する。まず、列車TR又は計測車を事前に走行させる。この事前走行に際して、演算処理部101は、オペレータの指示下で動作し、車速検出部34等を利用して列車TRの走行位置を取得しつつ、第2計測部42を利用して走行位置の最小単位ごとに画像を取得し、記憶部102等に保管する(ステップS11)。次に、演算処理部101は、走行位置の最小単位ごとに判定枠AR1を決定する(ステップS12)。判定枠AR1は、例えば第2計測部42を利用して得た前景画像から得た軌道中心RCを基準として決定することができ、具体的には、前方端FA1を、軌道中心RCの左右方向に既定幅を有し、軌道中心RCの上方に所定の高さ幅を有するものとする。この際、判定枠AR1の前方端FA1のサイズ及び中心方位が走行位置に関連づけて記憶部102に記憶される。次に、演算処理部101は、第2計測部42を利用して得た画像に対して画像処理を行って、走行位置の最小単位ごとに距離画像を得る(ステップS13)。ステップS13で得た距離画像については、軌道中心RCを基準として決定した認識領域AR2の範囲内のみに限ることができる。次に、演算処理部101は、オペレータの指示下で動作し、走行位置ごとに判定枠AR1の方位等を紐付けたデータベースを作成し、この判定枠データベースを記憶部102等に保管する(ステップS14)。次に、演算処理部101は、オペレータの指示下で動作し、走行位置ごとに距離画像を紐付けたデータベースを作成し、この距離画像データベースを記憶部102等に保管する(ステップS15)。距離画像データベースは、走行位置の関数である多数の参照距離画像で構成される参照情報である。ここで、参照距離画像のうち、所定以上の距離の領域については、データ欠落点又は無限遠点として処理することができるが、認識領域AR2の外縁に設定することもできる。   A reference data creation procedure will be described with reference to FIG. First, the train TR or the measurement vehicle is run in advance. During the preliminary traveling, the arithmetic processing unit 101 operates under the instruction of the operator, acquires the traveling position of the train TR using the vehicle speed detecting unit 34 and the like, and uses the second measuring unit 42 to determine the traveling position. An image is acquired for each minimum unit and stored in the storage unit 102 or the like (step S11). Next, the arithmetic processing unit 101 determines the determination frame AR1 for each minimum unit of the travel position (step S12). The determination frame AR1 can be determined using, for example, the trajectory center RC obtained from the foreground image obtained using the second measurement unit 42, and specifically, the front end FA1 is determined in the left-right direction of the trajectory center RC. It has a predetermined width and a predetermined height width above the track center RC. At this time, the size and center orientation of the front end FA1 of the determination frame AR1 are stored in the storage unit 102 in association with the travel position. Next, the arithmetic processing unit 101 performs image processing on the image obtained by using the second measurement unit 42, and obtains a distance image for each minimum unit of the traveling position (step S13). The distance image obtained in step S13 can be limited to the range of the recognition area AR2 determined based on the trajectory center RC. Next, the arithmetic processing unit 101 operates under the instruction of the operator, creates a database in which the direction of the determination frame AR1 is associated with each traveling position, and stores this determination frame database in the storage unit 102 or the like (step S102). S14). Next, the arithmetic processing unit 101 operates under the instruction of the operator, creates a database in which distance images are associated with each traveling position, and stores this distance image database in the storage unit 102 or the like (step S15). The distance image database is reference information composed of a number of reference distance images that are functions of the traveling position. Here, in the reference distance image, an area of a predetermined distance or more can be processed as a data missing point or an infinite point, but can also be set at the outer edge of the recognition area AR2.

図5を参照して、運用走行時又は本走行時における障害物検出について説明する。演算処理部101は、車速検出部34等を利用して列車TRの走行位置を取得する(ステップS21)。次に、演算処理部101は、第1計測部41を利用して物体計測を行う(ステップS22)。これにより、列車TRの前方に物体が存在する場合、その物体の方位(角度)や距離が得られる。次に、演算処理部101は、ステップS21で得た走行位置に対応する判定枠AR1を設定するとともに、ステップS22で得た物体の方位及び距離が設定した判定枠AR1内であるか否かを判断する(ステップS23)。演算処理部101は、判定枠AR1内に物体が存在すると判断した場合(ステップS23でYes)、入出力部103を介して運転手に線路上に障害物が存在することを警報出力する(ステップS24)。この際、演算処理部101は、ブレーキ装置33を適宜動作させて列車TRに緊急停止を行わせることができる。一方、演算処理部101は、判定枠AR1内に物体が存在しないと判断した場合(ステップS23でNo)、ステップS21に戻って列車TRの走行位置を取得する処理を再開する。判定枠AR1内における物体の計測(ステップS22,S23)と並行して、演算処理部101は、第2計測部42を利用して距離画像計測を行う(ステップS25)。次に、演算処理部101は、ステップS25で得た運用時距離画像をステップS21で得た走行位置に対応する参照距離画像(参照情報)と比較することで差分を抽出する(ステップS26)。次に、演算処理部101は、ステップS26で得た差分が認識領域AR2内における顕著な空間変化に相当するか否かを判断する(ステップS27)。顕著な空間変化に相当するか否かは、差分に相当する画素群の輪郭、距離、面積等を判定要素として決定される。演算処理部101は、認識領域AR2内に顕著な空間変化が生じていると判断した場合(ステップS27でYes)、入出力部103を介して運転手に線路上又はその周囲に障害物が存在することを警報出力する(ステップS24)。一方、演算処理部101は、判定枠AR1内に物体が存在しないと判断した場合(ステップS27でNo)、ステップS21に戻る。以上の処理は、列車TRの運用走行が完了するまで繰り返される(ステップS28でNo)。   With reference to FIG. 5, the obstacle detection at the time of operation driving or main driving will be described. The arithmetic processing unit 101 acquires the travel position of the train TR using the vehicle speed detection unit 34 or the like (step S21). Next, the arithmetic processing unit 101 performs object measurement using the first measurement unit 41 (step S22). Thereby, when an object exists ahead of train TR, the direction (angle) and distance of the object are obtained. Next, the arithmetic processing unit 101 sets the determination frame AR1 corresponding to the travel position obtained in step S21, and determines whether the azimuth and distance of the object obtained in step S22 are within the set determination frame AR1. Judgment is made (step S23). When the arithmetic processing unit 101 determines that an object exists in the determination frame AR1 (Yes in step S23), the arithmetic processing unit 101 outputs a warning to the driver that an obstacle exists on the track via the input / output unit 103 (step S23). S24). At this time, the arithmetic processing unit 101 can cause the train TR to perform an emergency stop by appropriately operating the brake device 33. On the other hand, when it is determined that there is no object in the determination frame AR1 (No in step S23), the arithmetic processing unit 101 returns to step S21 and resumes the process of acquiring the travel position of the train TR. In parallel with the measurement of the object in the determination frame AR1 (steps S22 and S23), the arithmetic processing unit 101 performs distance image measurement using the second measurement unit 42 (step S25). Next, the arithmetic processing unit 101 extracts the difference by comparing the operating distance image obtained in step S25 with the reference distance image (reference information) corresponding to the travel position obtained in step S21 (step S26). Next, the arithmetic processing unit 101 determines whether or not the difference obtained in step S26 corresponds to a significant spatial change in the recognition area AR2 (step S27). Whether or not it corresponds to a significant spatial change is determined by using the outline, distance, area, etc. of the pixel group corresponding to the difference as a determination element. If the arithmetic processing unit 101 determines that a significant spatial change has occurred in the recognition area AR2 (Yes in step S27), the driver has an obstacle on or around the track via the input / output unit 103. A warning output is made (step S24). On the other hand, when the arithmetic processing unit 101 determines that there is no object in the determination frame AR1 (No in step S27), the arithmetic processing unit 101 returns to step S21. The above process is repeated until the operation running of the train TR is completed (No in step S28).

図6は、認識領域AR2の具体例を説明する平面であり、線路RLの周辺に、ビルP1、進入防止柵P2、踏切P3、道路P4、信号器P5、架線柱P6、樹木P7等が存在し、これらの物体P1,P2,P3,P4,P5,P6,P7が、事前走行時及び本走行時に走行位置に関連づけられた参照距離画像を構成するオブジェクトとして抽出される。図7(A)は、事前走行時に得た参照距離画像を説明する概念図であり、踏切P3等の画像が得られている。また、図7(B)は、本走行時に得た運用時距離画像を説明する概念図であり、踏切P3の背後に歩行者P9の画像が得られている。この例では、歩行者P9が認識領域AR2外に待機しているため、演算処理部101は、認識領域AR2内に障害物が存在しないと判断する。一方、図7(C)は、別のタイミングで得た運用時距離画像を説明する概念図であり、踏切P3の内側に歩行者P9の画像が得られている。この例では、歩行者P9が認識領域AR2内に入り込んでいるため、演算処理部101は、認識領域AR2内に障害物が存在すると判断する。   FIG. 6 is a plane illustrating a specific example of the recognition area AR2, and there are a building P1, an approach prevention fence P2, a railroad crossing P3, a road P4, a traffic light P5, an overhead pole P6, a tree P7, and the like around the track RL. These objects P1, P2, P3, P4, P5, P6, and P7 are extracted as objects constituting the reference distance image associated with the travel position during the preliminary travel and the main travel. FIG. 7A is a conceptual diagram for explaining a reference distance image obtained during preliminary traveling, and an image of a crossing P3 and the like is obtained. FIG. 7B is a conceptual diagram for explaining the operating distance image obtained during the actual travel, and an image of the pedestrian P9 is obtained behind the level crossing P3. In this example, since the pedestrian P9 is waiting outside the recognition area AR2, the arithmetic processing unit 101 determines that there is no obstacle in the recognition area AR2. On the other hand, FIG. 7C is a conceptual diagram for explaining an operating distance image obtained at another timing, and an image of a pedestrian P9 is obtained inside the level crossing P3. In this example, since the pedestrian P9 has entered the recognition area AR2, the arithmetic processing unit 101 determines that an obstacle exists in the recognition area AR2.

以上のように、本実施形態に係る監視装置100では、第1判定部としての第1計測部41及び車両制御装置31が、軌道である線路RLに沿った走行位置に応じて設定される所定の判定枠AR1内に存在する物体を検出し、第2判定部としての第2計測部42及び車両制御装置31が、軌道である線路RLの周辺を含む所定の認識領域AR2内における空間的配置に関する参照情報に基づいて物体を検出するので、判定枠AR1内における物体検出と認識領域AR2内における空間的配置の変化との組合せによって、障害物の検出精度を高めることができる。   As described above, in the monitoring device 100 according to the present embodiment, the first measurement unit 41 and the vehicle control device 31 as the first determination unit are set in accordance with the travel position along the track RL that is a track. An object existing in the determination frame AR1 is detected, and the second measurement unit 42 and the vehicle control device 31 as the second determination unit are spatially arranged in a predetermined recognition area AR2 including the periphery of the track RL that is a track. Since the object is detected based on the reference information regarding, the detection accuracy of the obstacle can be increased by a combination of the object detection in the determination frame AR1 and the spatial arrangement change in the recognition area AR2.

〔第2実施形態〕
以下、図8を参照して、第1実施形態を変形した第2実施形態について説明する。なお、本実施形態に係る監視装置100は、具体的動作が異なるが、第1実施形態と同様の構成であるので、監視装置100全体についての詳細な説明を省略する。
[Second Embodiment]
Hereinafter, a second embodiment obtained by modifying the first embodiment will be described with reference to FIG. Although the monitoring device 100 according to the present embodiment is different in specific operation, the monitoring device 100 has the same configuration as that of the first embodiment, and thus detailed description of the entire monitoring device 100 is omitted.

第2実施形態の監視装置100の場合、演算処理部101は、認識領域AR2内で検出した空間変化が認識領域AR2うち判定枠AR1に近い建築限界その他の限界枠内におけるに相当するか否かを判断する(ステップS41)。空間変化が限界枠内である場合(ステップS41でYes)、演算処理部101は、入出力部103を介して運転手に線路上に障害物が存在することを警報出力する(ステップS24)。一方、空間変化が限界枠外である場合(ステップS41でNo)、演算処理部101は、物体又は対象までの距離、限界枠への近接状況に応じて、入出力部103を介して、運転手に対して線路の周辺に障害物が存在することを警戒表示する(ステップS42)。   In the case of the monitoring apparatus 100 according to the second embodiment, the arithmetic processing unit 101 determines whether the spatial change detected in the recognition area AR2 corresponds to a construction limit or other limit frame that is close to the determination frame AR1 in the recognition area AR2. Is determined (step S41). If the spatial change is within the limit frame (Yes in step S41), the arithmetic processing unit 101 outputs a warning to the driver that there is an obstacle on the track via the input / output unit 103 (step S24). On the other hand, when the spatial change is outside the limit frame (No in step S41), the arithmetic processing unit 101 determines the driver via the input / output unit 103 according to the distance to the object or the target and the state of proximity to the limit frame. Is warned that there is an obstacle around the track (step S42).

〔その他〕
この発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
[Others]
The present invention is not limited to the above embodiment, and can be implemented in various modes without departing from the scope of the invention.

例えば、上記実施形態では、走行位置ごとに距離画像を紐付けることによって一連の参照距離画像からなるデータベースを作成しているが(ステップS15)、走行位置ごとの距離画像等を用いて沿線の距離画像マッピングを行うこともできる。この場合、距離画像マッピングによって沿線に沿った空間的配置情報が得られ、走行位置を与えれば空間的配置情報から走行位置に対応する参照距離画像を取得することもできる。これにより、走行位置を連続的に細かく変化させた詳細な参照距離画像に基づいて、認識領域AR2内の空間変化を抽出することができる。   For example, in the above embodiment, a database composed of a series of reference distance images is created by associating distance images for each traveling position (step S15), but the distance along the railroad using distance images for each traveling position, etc. Image mapping can also be performed. In this case, spatial arrangement information along the line is obtained by distance image mapping, and if a traveling position is given, a reference distance image corresponding to the traveling position can be acquired from the spatial arrangement information. Thereby, the spatial change in the recognition area AR2 can be extracted based on the detailed reference distance image in which the traveling position is continuously finely changed.

以上では、運用走行時に運用時距離画像を得るための第2計測部42と、事前走行時に参照距離画像を得るための第2計測部42とが同じであることを前提としたが、運用時距離画像を計測するための第2計測部42と、参照距離画像を計測するための第2計測部42とは、別の計測原理を利用した別ものとすることができる。例えば、参照距離画像を取得する際には、可視光のステレオカメラを利用し、運用時距離画像を取得する際には、赤外光のステレオカメラやレーザーレーダー装置を利用することができる。異種の計測装置からのデータを比較する場合、較正、正規化といった手法によって判断の信頼性を高めることができる。   In the above description, it is assumed that the second measurement unit 42 for obtaining the operation distance image during operation travel is the same as the second measurement unit 42 for obtaining the reference distance image during preliminary travel. The second measurement unit 42 for measuring the distance image and the second measurement unit 42 for measuring the reference distance image may be different using different measurement principles. For example, when acquiring the reference distance image, a visible light stereo camera can be used, and when acquiring the operation distance image, an infrared light stereo camera or a laser radar device can be used. When comparing data from different types of measuring devices, the reliability of judgment can be increased by techniques such as calibration and normalization.

以上では、第2計測部42を利用して距離画像を得ているが、距離画像に代えて2次元的な画像を得ることもできる。この場合、距離画像の差分としての立体的な情報に基づいて物体を検出するのではなく、2次元的な差分情報に基づいて物体の空間的配置を検出することになる。なお、移動しない物体又は障害物については、時刻が異なる2次元画像の差分情報に基づいて物体までの距離を判定することもできる。   In the above, the distance image is obtained using the second measurement unit 42, but a two-dimensional image can be obtained instead of the distance image. In this case, instead of detecting the object based on the three-dimensional information as the difference between the distance images, the spatial arrangement of the object is detected based on the two-dimensional difference information. For an object or an obstacle that does not move, the distance to the object can be determined based on difference information of two-dimensional images at different times.

車上装置200は、不図示の列車運行管理システムの制御下で、列車TRの自動運転を可能としており、自動運転については、運転士を乗せた状態で行う場合のほか、運転士がいない完全無人の自動運転も含み得るものとしている。自動運転については、運行区間の全体を運転士がいない完全無人の自動運転とする場合のほか、運行区間の一部を、運転士を乗せた状態で自動運転とする場合や、運行区間の一部については、自動運転とせず、運転士による通常運転とすることも考えられる。   The on-board device 200 enables automatic operation of the train TR under the control of a train operation management system (not shown). The automatic operation is performed in a state where the driver is onboard, and there is no driver. It can also include unmanned automated driving. As for automatic driving, in addition to the case where the entire operation section is completely unmanned automatic driving without a driver, a part of the operation section is set to automatic driving with a driver on it, It is conceivable that the section is not automatically operated but is normally operated by a driver.

参照距離画像(参照情報)を取得するための事前走行は適宜繰り返して行うことができ、参照距離画像を定期的に更新することができる。   Advance travel for acquiring a reference distance image (reference information) can be repeated as appropriate, and the reference distance image can be updated periodically.

参照距離画像(参照情報)や判定枠AR1に関する情報は、通信部37を介して列車運行管理システムから暫時取得することもできる。   Information regarding the reference distance image (reference information) and the determination frame AR1 can be acquired for a while from the train operation management system via the communication unit 37.

監視装置100は、車上装置200に組み込むのではなく、遠隔の列車運行管理システム側に組み込むこともできる。   The monitoring device 100 can be incorporated in the remote train operation management system side instead of being incorporated in the on-board device 200.

監視装置100による監視対象は、鉄道の線路RLに限らず、路面電車用の軌道であってもよい。   The monitoring target by the monitoring device 100 is not limited to the railroad track RL, but may be a tram track.

31…車両制御装置、 32…駆動装置、 33…ブレーキ装置、 34…車速検出部、 35…車上子、 36…車内出力部、 37…通信部、 41…第1計測部、 42…第2計測部、 100…監視装置、 101…演算処理部、 102…記憶部、 103…入出力部、 104…インターフェース部、 200…車上装置、 AR1…本来判定枠、 AR11,AR12,AR13…判定枠、 AR2…認識領域、 FA1…前方端、 RC…軌道中心、 RL…線路、 TR…列車   DESCRIPTION OF SYMBOLS 31 ... Vehicle control apparatus, 32 ... Drive apparatus, 33 ... Brake device, 34 ... Vehicle speed detection part, 35 ... Vehicle upper part, 36 ... In-vehicle output part, 37 ... Communication part, 41 ... 1st measurement part, 42 ... 2nd Measuring unit, 100 ... monitoring device, 101 ... arithmetic processing unit, 102 ... storage unit, 103 ... input / output unit, 104 ... interface unit, 200 ... on-vehicle device, AR1 ... original determination frame, AR11, AR12, AR13 ... determination frame , AR2 ... recognition area, FA1 ... front end, RC ... track center, RL ... track, TR ... train

Claims (9)

軌道に沿った走行位置に応じて設定される所定の判定枠内に存在する物体を検出する第1判定部と、
軌道の周辺を含む所定の認識領域内における空間的配置に関する参照情報に基づいて物体を検出する第2判定部と
を備える監視装置。
A first determination unit that detects an object existing within a predetermined determination frame set according to a travel position along the track;
A monitoring apparatus comprising: a second determination unit that detects an object based on reference information regarding a spatial arrangement in a predetermined recognition area including a periphery of a trajectory.
前記第1判定部は、電磁波を前記所定の判定枠内に照射し前記所定の判定枠内の物体からの反射波を検出する、請求項1に記載の監視装置。   The monitoring apparatus according to claim 1, wherein the first determination unit irradiates an electromagnetic wave in the predetermined determination frame and detects a reflected wave from an object in the predetermined determination frame. 前記第1判定部は、事前走行によって走行位置に対応付けて前記所定の判定枠を生成した枠データを参照して、本走行時に走行位置に対応する前記所定の判定枠を設定する、請求項1及び2のいずれか一項に記載の監視装置。   The first determination unit sets the predetermined determination frame corresponding to the travel position at the time of the main travel with reference to the frame data generated in association with the travel position by the pre-travel to generate the predetermined determination frame. The monitoring apparatus according to any one of 1 and 2. 前記所定の判定枠は、軌道中心と既定幅とに基づいて生成される、請求項1〜3のいずれか一項に記載の監視装置。   The monitoring apparatus according to claim 1, wherein the predetermined determination frame is generated based on a trajectory center and a predetermined width. 前記第2判定部は、本走行時に走行位置で得た空間的配置に関する計測情報と、事前走行によって走行位置に対応付けて得た空間的配置に関する前記参照情報との差分を抽出する、請求項1〜4のいずれか一項に記載の監視装置。   The second determination unit extracts a difference between measurement information related to a spatial layout obtained at a travel position during the main travel and the reference information related to a spatial layout obtained in association with the travel position by preliminary travel. The monitoring apparatus as described in any one of 1-4. 前記所定の認識領域は、前記所定の判定枠を含んで方位的により広い領域に設定されている、請求項5に記載の監視装置。   The monitoring apparatus according to claim 5, wherein the predetermined recognition area is set to an azimuthally wider area including the predetermined determination frame. 前記所定の認識領域は、前記所定の判定枠を含んでより遠い領域に設定されている、請求項5及び6のいずれか一項に記載の監視装置。   The monitoring apparatus according to claim 5, wherein the predetermined recognition area is set to a farther area including the predetermined determination frame. 前記第1判定部は、物体の方位及び距離を計測するためのレーダー装置又はレーザーレーダー装置を有し、
前記第2判定部は、物体の配置を3次元的に計測するためのカメラ又はレーザーレーダー装置を有する、請求項1〜7のいずれか一項に記載の監視装置。
The first determination unit has a radar device or a laser radar device for measuring the azimuth and distance of an object,
The monitoring device according to any one of claims 1 to 7, wherein the second determination unit includes a camera or a laser radar device for measuring the arrangement of an object three-dimensionally.
前記第1判定部及び前記第2判定部のいずれかによって物体が検出された場合に、障害物が存在すると判断する、請求項1〜8のいずれか一項に記載の監視装置。   The monitoring apparatus according to any one of claims 1 to 8, wherein when an object is detected by any one of the first determination unit and the second determination unit, it is determined that an obstacle exists.
JP2018104018A 2018-05-30 2018-05-30 monitoring device Active JP7217094B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018104018A JP7217094B2 (en) 2018-05-30 2018-05-30 monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104018A JP7217094B2 (en) 2018-05-30 2018-05-30 monitoring device

Publications (2)

Publication Number Publication Date
JP2019206318A true JP2019206318A (en) 2019-12-05
JP7217094B2 JP7217094B2 (en) 2023-02-02

Family

ID=68768255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104018A Active JP7217094B2 (en) 2018-05-30 2018-05-30 monitoring device

Country Status (1)

Country Link
JP (1) JP7217094B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022009273A1 (en) * 2020-07-06 2022-01-13
WO2023032344A1 (en) * 2021-08-31 2023-03-09 株式会社日立製作所 System for detecting object and method for detecting object

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59156089A (en) * 1983-10-11 1984-09-05 Hitachi Ltd Obstacle detecting method for vehicle
JPH0710003A (en) * 1993-04-28 1995-01-13 East Japan Railway Co Hindrance detecting device for railroad vehicle
JPH07309238A (en) * 1994-05-17 1995-11-28 Ishikawajima Harima Heavy Ind Co Ltd Rolling stock having safety confirmation function
JPH0955932A (en) * 1995-08-15 1997-02-25 Fuji Electric Co Ltd Method for detecting abnormality of abnormality monitor device
JP2001310733A (en) * 2000-04-28 2001-11-06 Fuji Heavy Ind Ltd Automatically operative vehicle
JP2004352107A (en) * 2003-05-29 2004-12-16 Aichi Corp Railway equipment managing system
JP2008502538A (en) * 2004-06-11 2008-01-31 ストラテック システムズ リミテッド Railway track scanning system and method
JP2009243963A (en) * 2008-03-28 2009-10-22 Toyota Motor Corp Object detector
JP2010202017A (en) * 2009-03-03 2010-09-16 Mitsubishi Electric Corp Data analysis device and method, and program
JP2015175644A (en) * 2014-03-13 2015-10-05 株式会社リコー Ranging system, information processing device, information processing method, and program
WO2015198423A1 (en) * 2014-06-25 2015-12-30 三菱電機株式会社 Device for creating construction gauge measurement diagram, device for creating construction gauge measurement diagram data, method for creating construction gauge measurement diagram, construction gauge measurement diagram, and construction gauge measurement diagram data
JP2016052849A (en) * 2014-09-04 2016-04-14 公益財団法人鉄道総合技術研究所 Obstacle detection device and method
JP2016088183A (en) * 2014-10-31 2016-05-23 株式会社Ihi Obstacle detection system and railway vehicle

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59156089A (en) * 1983-10-11 1984-09-05 Hitachi Ltd Obstacle detecting method for vehicle
JPH0710003A (en) * 1993-04-28 1995-01-13 East Japan Railway Co Hindrance detecting device for railroad vehicle
JPH07309238A (en) * 1994-05-17 1995-11-28 Ishikawajima Harima Heavy Ind Co Ltd Rolling stock having safety confirmation function
JPH0955932A (en) * 1995-08-15 1997-02-25 Fuji Electric Co Ltd Method for detecting abnormality of abnormality monitor device
JP2001310733A (en) * 2000-04-28 2001-11-06 Fuji Heavy Ind Ltd Automatically operative vehicle
JP2004352107A (en) * 2003-05-29 2004-12-16 Aichi Corp Railway equipment managing system
JP2008502538A (en) * 2004-06-11 2008-01-31 ストラテック システムズ リミテッド Railway track scanning system and method
JP2009243963A (en) * 2008-03-28 2009-10-22 Toyota Motor Corp Object detector
JP2010202017A (en) * 2009-03-03 2010-09-16 Mitsubishi Electric Corp Data analysis device and method, and program
JP2015175644A (en) * 2014-03-13 2015-10-05 株式会社リコー Ranging system, information processing device, information processing method, and program
WO2015198423A1 (en) * 2014-06-25 2015-12-30 三菱電機株式会社 Device for creating construction gauge measurement diagram, device for creating construction gauge measurement diagram data, method for creating construction gauge measurement diagram, construction gauge measurement diagram, and construction gauge measurement diagram data
JP2016052849A (en) * 2014-09-04 2016-04-14 公益財団法人鉄道総合技術研究所 Obstacle detection device and method
JP2016088183A (en) * 2014-10-31 2016-05-23 株式会社Ihi Obstacle detection system and railway vehicle

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022009273A1 (en) * 2020-07-06 2022-01-13
WO2022009273A1 (en) * 2020-07-06 2022-01-13 三菱電機株式会社 Obstacle detection device and obstacle detection method
JP7166494B2 (en) 2020-07-06 2022-11-07 三菱電機株式会社 Obstacle detection device and obstacle detection method
WO2023032344A1 (en) * 2021-08-31 2023-03-09 株式会社日立製作所 System for detecting object and method for detecting object

Also Published As

Publication number Publication date
JP7217094B2 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
CN108271408B (en) Generating three-dimensional maps of scenes using passive and active measurements
US10591928B2 (en) Vehicle control device, vehicle control method, and computer readable storage medium
CN110103967B (en) Automatic lane changing method for vehicle, vehicle control system and vehicle
US9915951B2 (en) Detection of overhanging objects
KR101395089B1 (en) System and method for detecting obstacle applying to vehicle
JP5947938B1 (en) Obstacle detection device and moving body equipped with the same
WO2005013236A1 (en) Safe movement support device
JP6547785B2 (en) Target detection device
JP3666332B2 (en) Pedestrian detection device
US20220253065A1 (en) Information processing apparatus, information processing method, and information processing program
CN113994408A (en) Information processing apparatus, information processing method, and program
CN113253298A (en) Vehicle lidar polarization
CN110703770A (en) Method and device for controlling automatic running of track inspection vehicle
KR102017958B1 (en) Augmented reality head up display system for railway train
JP7217094B2 (en) monitoring device
KR101779963B1 (en) Method of enhancing performance for road-environment recognition device based on learning and apparatus for the same
JP6609292B2 (en) Outside environment recognition device
JP7259685B2 (en) Driving control device for automatic driving vehicle, stop target, driving control system
JP7350598B2 (en) monitoring device
JP7384147B2 (en) Target object detection device and vehicle equipped with it
JP2019095875A (en) Vehicle control device, vehicle control method, and program
JP7316107B2 (en) monitoring device
JP7290942B2 (en) monitoring device
CN114930423A (en) Sensing system
US20240059310A1 (en) Method for controlling drive-through and apparatus for controlling drive-through

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R150 Certificate of patent or registration of utility model

Ref document number: 7217094

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150