JP2020023285A - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP2020023285A
JP2020023285A JP2018149569A JP2018149569A JP2020023285A JP 2020023285 A JP2020023285 A JP 2020023285A JP 2018149569 A JP2018149569 A JP 2018149569A JP 2018149569 A JP2018149569 A JP 2018149569A JP 2020023285 A JP2020023285 A JP 2020023285A
Authority
JP
Japan
Prior art keywords
image
unit
monitoring
position information
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018149569A
Other languages
Japanese (ja)
Inventor
直人 瀬戸
Naoto Seto
直人 瀬戸
広幸 小林
Hiroyuki Kobayashi
広幸 小林
雄介 高橋
Yusuke Takahashi
雄介 高橋
勝大 堀江
Katsuhiro Horie
勝大 堀江
拓也 二神
Takuya Futagami
拓也 二神
陽平 服部
Yohei Hattori
陽平 服部
雄史 鴨
Yushi Kamo
雄史 鴨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2018149569A priority Critical patent/JP2020023285A/en
Priority to PCT/JP2019/030518 priority patent/WO2020031898A1/en
Publication of JP2020023285A publication Critical patent/JP2020023285A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61KAUXILIARY EQUIPMENT SPECIALLY ADAPTED FOR RAILWAYS, NOT OTHERWISE PROVIDED FOR
    • B61K13/00Other auxiliaries or accessories for railways
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To enable detection of abnormality of a railway facility installed on the ground.SOLUTION: The monitoring device includes: a storage unit storing a plurality of images including images of a railway facility installed on the ground, which are photographed in advance by an imaging unit installed to face a front part of a railway vehicle, in association with positional information of the railway vehicle as a plurality of reference images; a monitoring image acquisition unit for acquiring images photographed by the imaging unit as monitoring images; a positional information acquisition unit for acquiring positional information of a present position of the railway vehicle; a reference image selection unit for selecting a reference image corresponding to the positional information acquired by the positional information acquisition unit from the plurality of reference images stored in the storage unit; a difference area detection unit for detecting a difference area that is an area in which a difference in luminance between the monitoring image and the reference image selected by the reference image selection unit is a predetermined value or more; and a detection image generation unit for generating a detection image by embedding the difference area into the monitoring image to be displayed.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、監視装置に関する。   Embodiments of the present invention relate to a monitoring device.

従来から、鉄道管理者は、地上に設置してある鉄道設備に異常があればその異常を速やかに知る必要がある。そのために、例えば、鉄道車両において前方に向けて設置されたカメラによって鉄道設備を含む画像を撮影して記憶し、監視員がその画像を見ることで鉄道設備の異常を調べる手法がある。   2. Description of the Related Art Conventionally, a railroad administrator has to promptly know any abnormality in railway equipment installed on the ground. For this purpose, for example, there is a method in which an image including railway equipment is captured and stored by a camera installed forward in a railway vehicle, and an observer looks at the image to check for an abnormality in the railway equipment.

特開2001−23091号公報JP 2001-23091 A

しかしながら、上述の手法では、監視員が画像を見て鉄道設備の異常を調べるので手間がかかるという問題がある。   However, in the above-mentioned method, there is a problem that it takes time and effort since the observer checks the abnormality of the railway equipment by looking at the image.

そこで、本実施形態の課題は、地上に設置してある鉄道設備の異常を検知可能な監視装置を提供することである。   Therefore, an object of the present embodiment is to provide a monitoring device capable of detecting an abnormality of railway equipment installed on the ground.

実施形態の監視装置は、予め、鉄道車両において前方に向けて設置された撮影部によって撮影された、地上に設置してある鉄道設備を含む複数の画像を、前記鉄道車両の位置情報と関連付けて、複数の参照画像として記憶する記憶部と、前記撮影部によって撮影された画像を、監視画像として取得する監視画像取得部と、前記鉄道車両の現在位置の位置情報を取得する位置情報取得部と、前記記憶部に記憶されている複数の前記参照画像から、前記位置情報取得部によって取得された位置情報に対応する参照画像を選択する参照画像選択部と、前記監視画像と前記参照画像選択部によって選択された前記参照画像の間で輝度の差分が所定値以上ある領域である差分領域を検出する差分領域検出部と、前記監視画像に前記差分領域を表示可能に埋め込んで検知画像を生成する検知画像生成部と、を備える。   The monitoring device of the embodiment is, in advance, a plurality of images including the railway equipment installed on the ground, which is captured by the imaging unit installed forward in the railway vehicle, in association with the position information of the railway vehicle A storage unit that stores a plurality of reference images, an image captured by the imaging unit, a monitoring image obtaining unit that obtains a monitoring image, and a position information obtaining unit that obtains position information of the current position of the railway vehicle. A reference image selection unit that selects a reference image corresponding to the position information acquired by the position information acquisition unit from the plurality of reference images stored in the storage unit, and the monitoring image and the reference image selection unit A difference area detecting unit that detects a difference area in which the difference in luminance between the reference images selected by the method is equal to or more than a predetermined value, and enables the difference area to be displayed on the monitoring image. And a detection image generation unit for generating a detection image crowded because.

図1は、第1実施形態の鉄道車両の概略構成を示す図である。FIG. 1 is a diagram illustrating a schematic configuration of the railway vehicle according to the first embodiment. 図2は、第1実施形態の監視装置の機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the monitoring device according to the first embodiment. 図3は、第1実施形態の監視装置による処理を示すフローチャートである。FIG. 3 is a flowchart illustrating a process performed by the monitoring device according to the first embodiment. 図4は、第1実施形態における差分領域検出部の動作説明図である。FIG. 4 is an explanatory diagram of the operation of the difference area detection unit in the first embodiment. 図5は、第2実施形態の監視装置の機能構成を示すブロック図である。FIG. 5 is a block diagram illustrating a functional configuration of the monitoring device according to the second embodiment. 図6は、第2実施形態における参照画像選択部の動作説明図である。FIG. 6 is a diagram illustrating the operation of the reference image selection unit according to the second embodiment. 図7は、第3実施形態の監視装置の機能構成を示すブロック図である。FIG. 7 is a block diagram illustrating a functional configuration of the monitoring device according to the third embodiment. 図8は、第4実施形態の監視装置の機能構成を示すブロック図である。FIG. 8 is a block diagram illustrating a functional configuration of the monitoring device according to the fourth embodiment. 図9は、第4実施形態の監視装置による処理を示すフローチャートである。FIG. 9 is a flowchart illustrating a process performed by the monitoring device according to the fourth embodiment.

以下、添付の図面を参照して、第1実施形態〜第4実施形態の監視装置について説明する。なお、第2実施形態以降の説明において、それまでに説明した実施形態と同様の事項については説明を適宜省略する。   Hereinafter, the monitoring devices according to the first to fourth embodiments will be described with reference to the accompanying drawings. In the description of the second embodiment and thereafter, the description of the same items as those of the embodiments described above will be omitted as appropriate.

(第1実施形態)
図1は、第1実施形態の鉄道車両RVの概略構成を示す図である。図1に示すように、鉄道車両RVは、カメラ10(撮影部)、監視装置20、位置計測装置30、および、表示装置40を備える。カメラ10は、鉄道車両RVにおいて進行方向(前方)に向けて設置され、鉄道車両RVが線路R上を走行するときに、地上に設置してある鉄道設備を含む画像を撮影して記憶する。監視装置20は、鉄道設備の異常を検知可能なコンピュータ装置である(詳細は後述)。なお、カメラ10の種別は限定されないが、高解像度のカメラであることが好ましい。
(1st Embodiment)
FIG. 1 is a diagram illustrating a schematic configuration of the railway vehicle RV of the first embodiment. As illustrated in FIG. 1, the railway vehicle RV includes a camera 10 (an imaging unit), a monitoring device 20, a position measurement device 30, and a display device 40. The camera 10 is installed in the traveling direction (forward) of the railway vehicle RV, and captures and stores an image including railway equipment installed on the ground when the railway vehicle RV runs on the track R. The monitoring device 20 is a computer device capable of detecting an abnormality in the railway equipment (details will be described later). The type of the camera 10 is not limited, but is preferably a high-resolution camera.

位置計測装置30は、鉄道車両RVの現在位置を計測し、その位置情報を監視装置20に送信する手段である。位置計測装置30は、例えば、GNSS(Global Navigation Satellite System)装置である。GNSS装置は、アンテナによって複数の人工衛星から電波を受信して、鉄道車両RVの現在位置を計測する。なお、鉄道車両RVがトンネルに入っているとき等の場合、GNSS装置は人工衛星から電波を受信できない。そこで、位置計測装置30として、鉄道車両RVの車軸に設けられる速度発電機(タコジェネレータ)の出力に基いて鉄道車両RVの現在位置を計測する装置を併用してもよい。また、位置計測装置30として、加速度センサやジャイロセンサを用いて鉄道車両RVの進行方向の加速度を検出し、加速度を二階積分して位置を算出することで鉄道車両RVの現在位置を計測する装置を併用や代用してもよい。また、表示装置40は、各種情報を表示する手段であり、例えば、LCD(Liquid Crystal Display)である。   The position measuring device 30 is a unit that measures the current position of the railway vehicle RV and transmits the position information to the monitoring device 20. The position measurement device 30 is, for example, a GNSS (Global Navigation Satellite System) device. The GNSS device receives a radio wave from a plurality of artificial satellites via an antenna and measures the current position of the railway vehicle RV. Note that, for example, when the railway vehicle RV is in a tunnel, the GNSS device cannot receive radio waves from artificial satellites. Therefore, a device that measures the current position of the railway vehicle RV based on the output of a speed generator (tach generator) provided on the axle of the railway vehicle RV may be used as the position measurement device 30. Further, as the position measuring device 30, an apparatus that detects the acceleration in the traveling direction of the railway vehicle RV using an acceleration sensor or a gyro sensor, calculates the position by integrating the acceleration two-dimensionally, and measures the current position of the railway vehicle RV. May be used together or substituted. The display device 40 is a unit for displaying various information, and is, for example, an LCD (Liquid Crystal Display).

図2は、第1実施形態の監視装置20の機能構成を示すブロック図である。図2に示すように、監視装置20は、参照画像記憶部201、検知画像記憶部202、位置情報取得部203、監視画像取得部204、画像変換部205、参照画像選択部206、差分領域検出部207、検知画像生成部208、表示制御部209、および、記憶部220を備える。なお、各部203〜209のうちの一部または全部は、鉄道車両RVが有するCPU(Central Processing Unit)等のプロセッサが記憶部220に記憶されるソフトウェアを実行することによって実現される。また、各部203〜209のうちの一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の回路基板であるハードウェアによって実現されてもよい。   FIG. 2 is a block diagram illustrating a functional configuration of the monitoring device 20 according to the first embodiment. As illustrated in FIG. 2, the monitoring device 20 includes a reference image storage unit 201, a detected image storage unit 202, a position information acquisition unit 203, a monitoring image acquisition unit 204, an image conversion unit 205, a reference image selection unit 206, a difference area detection The storage unit 207 includes a unit 207, a detected image generation unit 208, a display control unit 209, and a storage unit 220. Part or all of the units 203 to 209 are realized by a processor such as a CPU (Central Processing Unit) of the railway vehicle RV executing software stored in the storage unit 220. Further, some or all of the units 203 to 209 may be realized by hardware which is a circuit board such as an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field Programmable Gate Array). Good.

記憶部220は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等により実現される。また、参照画像記憶部201および検知画像記憶部202は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。   The storage unit 220 is realized by, for example, a random access memory (RAM), a read only memory (ROM), a flash memory, or the like. The reference image storage unit 201 and the detected image storage unit 202 are realized by, for example, an HDD (Hard Disk Drive), a flash memory, or the like.

記憶部220は、鉄道車両RVが有するプロセッサが実行するプログラム等の各種情報を記憶する。   The storage unit 220 stores various information such as a program executed by a processor of the railway vehicle RV.

参照画像記憶部201は、予め、鉄道車両RVの走行時にカメラ10によって撮影された鉄道設備を含む複数の画像を、鉄道車両RVの位置情報および時間情報と関連付けて、複数の参照画像として記憶する。参照画像とは、監視画像との比較に用いられる基準画像である。図1では、参照画像記憶部201に、参照画像1、2、・・・、nが記憶されていることを示している。位置情報は、位置計測装置30によって計測される。位置情報は、監視画像と参照画像のマッチングに用いられる(詳細は後述)。   The reference image storage unit 201 previously stores a plurality of images including the railway equipment captured by the camera 10 when the railroad vehicle RV is running as a plurality of reference images in association with the position information and the time information of the railroad vehicle RV. . The reference image is a reference image used for comparison with the monitoring image. 1 shows that reference images 1, 2,..., N are stored in the reference image storage unit 201. The position information is measured by the position measuring device 30. The position information is used for matching between the monitoring image and the reference image (details will be described later).

時間情報は、例えば、1日のうちの時刻を示す情報である。時間情報は、監視画像と参照画像を比較する際の補助情報として用いられる。例えば、監視画像が日中の画像で、参照画像が夜の画像であれば、撮影対象物が同一でも輝度の違いが大きいが、時間情報を用いることで両画像の撮影時間帯の違いを把握し、対応することができる。また、参照画像に対して、位置情報と時間情報のほかに、撮影時の天候(晴れ、曇り、雨、雪等)等の情報を関連付けておいてもよい。なお、参照画像に対して関連付けておく必須の情報は位置情報であり、時間情報や天候等の情報は必須ではない。   The time information is, for example, information indicating the time of the day. The time information is used as auxiliary information when comparing the monitoring image with the reference image. For example, if the monitoring image is a daytime image and the reference image is a nighttime image, the difference in luminance is large even if the shooting target is the same, but the difference in the shooting time zone of both images can be grasped by using time information. And can respond. Further, in addition to the position information and the time information, information such as the weather at the time of shooting (clear, cloudy, rain, snow, etc.) may be associated with the reference image. Note that essential information associated with the reference image is position information, and information such as time information and weather is not essential.

検知画像記憶部202は、検知画像生成部208によって生成された検知画像を記憶する。なお、検知画像記憶部202に記憶された検知画像を外部装置に転送できるように監視装置20を構成しておくことが好ましい。そうすれば、外部装置において検知画像を見ることができる。   The detected image storage unit 202 stores the detected image generated by the detected image generation unit 208. It is preferable that the monitoring device 20 be configured so that the detection image stored in the detection image storage unit 202 can be transferred to an external device. Then, the detected image can be viewed on the external device.

位置情報取得部203は、位置計測装置30から、走行している鉄道車両RVの現在位置の位置情報と時間情報を取得する。   The position information acquisition unit 203 acquires, from the position measurement device 30, position information and time information of the current position of the running railway vehicle RV.

監視画像取得部204は、鉄道車両RVの走行時にカメラ10によって撮影された画像を、監視画像として取得する。   The monitoring image obtaining unit 204 obtains, as a monitoring image, an image captured by the camera 10 when the railway vehicle RV runs.

画像変換部205は、監視画像を、参照画像と同じフォーマットに変換(画像変換)する。なお、監視画像のフォーマットが元から参照画像のフォーマットと同じであれば、画像変換部205による変換(画像変換)は不要である。   The image conversion unit 205 converts the monitoring image into the same format as the reference image (image conversion). Note that if the format of the monitoring image is originally the same as the format of the reference image, conversion (image conversion) by the image conversion unit 205 is unnecessary.

参照画像選択部206は、参照画像記憶部201に記憶されている複数の参照画像から、位置情報取得部203によって取得された位置情報に対応する参照画像(例えば、位置情報同士が最も近い参照画像)を選択する。なお、参照画像選択部206は、参照画像を選択するときに時間情報を併せて用いてもよい。   The reference image selection unit 206 selects a reference image corresponding to the position information acquired by the position information acquisition unit 203 from the plurality of reference images stored in the reference image storage unit 201 (for example, a reference image whose position information is closest to each other). ). Note that the reference image selection unit 206 may also use time information when selecting a reference image.

差分領域検出部207は、監視画像と参照画像選択部206によって選択された参照画像の間で輝度の差分が所定値以上ある領域である差分領域を検出する。ここで、図4は、第1実施形態における差分領域検出部207の動作説明図である。差分領域検出部207は、監視画像(図4(a))と参照画像(図4(b))に関して、以下の(1)〜(6)の処理を行う。   The difference area detection unit 207 detects a difference area in which the difference in luminance between the monitoring image and the reference image selected by the reference image selection unit 206 is equal to or more than a predetermined value. Here, FIG. 4 is an explanatory diagram of the operation of the difference area detection unit 207 in the first embodiment. The difference area detection unit 207 performs the following processes (1) to (6) on the monitoring image (FIG. 4A) and the reference image (FIG. 4B).

(1)監視画像、参照画像を同一の格子状に分割
(2)監視画像、参照画像のそれぞれについて、格子ごとの輝度平均値を算出
(3)各格子について、監視画像の輝度平均値と参照画像の輝度平均値の差分を算出
(4)輝度平均値の差分が所定値(閾値)以上か否か判定
(5)輝度平均値の差分が所定値以上の領域(格子)を差分領域として検出
(6)検出した差分領域(格子。または複数の格子を連結したもの)の領域情報(例えば矩形であれば格子の左上の座標と縦幅と横幅)を出力
(1) The monitoring image and the reference image are divided into the same lattice. (2) The average luminance value of each lattice is calculated for each of the monitoring image and the reference image. (3) The average luminance value of the monitoring image and the reference are calculated for each lattice. Calculate the difference between the average brightness values of the images. (4) Determine whether the difference between the average brightness values is equal to or greater than a predetermined value (threshold). (6) Output the area information (for example, the coordinates of the upper left corner, the vertical width, and the horizontal width of the grid in the case of a rectangle) of the detected difference area (grid or a combination of a plurality of grids).

なお、図4(c)に示す差分画像では、差分の無い部分を黒色としている。つまり、真っ黒でない格子部分が差分領域である。例えば、監視画像において鉄道設備(例えば架線等)にビニール袋等の異物が付着していて、参照画像におけるその部分にその異物が無いと、輝度平均値の差分が所定値以上となって差分領域として検出される可能性がある。また、異物としては、ほかに、例えば、傾いたり倒れたりした樹木等が考えられる。   In the difference image shown in FIG. 4C, a portion having no difference is black. That is, the grid portion that is not black is the difference area. For example, if a foreign matter such as a plastic bag adheres to a railway facility (for example, an overhead line) in the monitoring image and the foreign matter does not exist in that part in the reference image, the difference in the average luminance value becomes a predetermined value or more and the difference area May be detected as In addition, as the foreign substance, for example, a tree or the like which is tilted or fallen can be considered.

図2に戻って、検知画像生成部208は、画像変換後の監視画像に、差分領域検出部207によって検出された差分領域を表示可能に埋め込んで検知画像を生成して検知画像記憶部202に記憶する。また、検知画像生成部208は、検知画像を検知画像記憶部202に記憶する際、位置情報や時間情報も関連付けて記憶する。なお、検知画像のフォーマットは任意である。   Returning to FIG. 2, the detected image generation unit 208 generates a detection image by embedding the difference area detected by the difference area detection unit 207 in the monitor image after the image conversion so that it can be displayed, and stores the detection image in the detection image storage unit 202. Remember. When storing the detected image in the detected image storage unit 202, the detected image generation unit 208 also stores the position information and the time information in association with each other. The format of the detected image is arbitrary.

表示制御部209は、ユーザの操作等に基いて、検知画像記憶部202に記憶された検知画像を表示装置40に表示させる。これにより、表示装置40に、差分領域を明示した検知画像が表示され、ユーザは、当該差分領域を容易に認識できる。そして、ユーザは、例えば、鉄道設備に対して異物が付着していることや樹木が近付いたり倒れ込んだりしていること等を容易に認識できる。   The display control unit 209 causes the display device 40 to display the detected image stored in the detected image storage unit 202 based on a user operation or the like. As a result, the detection image in which the difference area is clearly displayed is displayed on the display device 40, and the user can easily recognize the difference area. Then, the user can easily recognize, for example, that a foreign object is attached to the railway facility, that a tree is approaching or falls down, and the like.

図3は、第1実施形態の監視装置20による処理を示すフローチャートである。ステップS1において、監視画像取得部204は、鉄道車両RVの走行時にカメラ10によって撮影された画像を監視画像として取得し、位置情報取得部203は位置計測装置30から鉄道車両RVの現在位置の位置情報と時間情報を取得する。   FIG. 3 is a flowchart illustrating a process performed by the monitoring device 20 according to the first embodiment. In step S <b> 1, the monitoring image acquisition unit 204 acquires an image captured by the camera 10 during traveling of the railway vehicle RV as a monitoring image, and the position information acquisition unit 203 transmits the position of the current position of the railway vehicle RV from the position measurement device 30. Get information and time information.

次に、ステップS2において、参照画像選択部206は、位置情報と時間情報に基いて参照画像を選択する。具体的には、参照画像選択部206は、参照画像記憶部201に記憶されている複数の参照画像から、ステップS1で取得された位置情報と時間情報に対応する参照画像を選択する。   Next, in step S2, the reference image selection unit 206 selects a reference image based on the position information and the time information. Specifically, the reference image selection unit 206 selects a reference image corresponding to the position information and the time information acquired in step S1, from a plurality of reference images stored in the reference image storage unit 201.

次に、ステップS3において、画像変換部205は、監視画像を、参照画像と同じフォーマットに変換する。   Next, in step S3, the image conversion unit 205 converts the monitoring image into the same format as the reference image.

次に、ステップS4において、差分領域検出部207は、監視画像と参照画像の格子単位(格子数N)での輝度平均値を算出する。   Next, in step S4, the difference area detection unit 207 calculates an average luminance value of the monitoring image and the reference image in grid units (the number of grids N).

次に、差分領域検出部207は、全格子についてステップS5〜S7の処理を実行する。ステップS5において、差分領域検出部207は、1つの格子について、監視画像と参照画像の輝度平均値の差分を算出する。   Next, the difference area detection unit 207 performs the processing of steps S5 to S7 for all the lattices. In step S5, the difference area detection unit 207 calculates a difference between the average luminance value of the monitoring image and the average luminance value of the reference image for one grid.

次に、ステップS6において、その格子について、輝度平均値の差分が所定値以上か否かを判定し、Yesの場合はステップS7に進み、Noの場合はステップS5に戻る。   Next, in step S6, it is determined whether or not the difference between the average luminance values of the grid is equal to or larger than a predetermined value. If Yes, the process proceeds to step S7, and if No, the process returns to step S5.

ステップS7において、差分領域検出部207は、その格子を差分領域として記憶部220に記憶する。   In step S7, the difference area detection unit 207 stores the grid in the storage unit 220 as a difference area.

ステップS5〜S7が終了した後、ステップS8において、検知画像生成部208は、差分領域が存在するか否かを判定し、Yesの場合はステップS9に進み、Noの場合は処理を終了する。   After Steps S5 to S7 are completed, in Step S8, the detected image generation unit 208 determines whether or not a difference area exists. If Yes, the process proceeds to Step S9, and if No, the process ends.

ステップS9において、検知画像生成部208は、監視画像に差分領域を表示可能に埋め込んで検知画像を生成して検知画像記憶部202に記憶する。ステップS9の後、処理を終了する。   In step S <b> 9, the detection image generation unit 208 generates a detection image by embedding the difference area in the monitoring image so as to be displayed, and stores the detection image in the detection image storage unit 202. After step S9, the process ends.

このように、第1実施形態の監視装置20によれば、地上に設置してある鉄道設備の異常を検知することができる。つまり、検知画像記憶部202には、差分領域が表示可能に埋め込んである検知画像が記憶される。したがって、ユーザはその差分領域を明示した検知画像を見ることで差分領域に基いて鉄道設備の異常(例えば、鉄道設備に対する異物の付着や樹木の接近等)を容易に認識することができる。   Thus, according to the monitoring device 20 of the first embodiment, it is possible to detect an abnormality of the railway equipment installed on the ground. That is, the detected image storage unit 202 stores the detected image in which the difference area is embedded so as to be displayed. Therefore, the user can easily recognize abnormality of the railway equipment (for example, attachment of foreign matter to the railway equipment, approach of a tree, or the like) based on the difference area by looking at the detection image clearly indicating the difference area.

(第2実施形態)
次に、第2実施形態の監視装置20について説明する。図5は、第2実施形態の監視装置20の機能構成を示すブロック図である。図5の監視装置20は、図2の監視装置20と比較して、参照画像候補選択部210を備えている点と、参照画像選択部206の動作内容が異なる点で相違する。
(2nd Embodiment)
Next, a monitoring device 20 according to a second embodiment will be described. FIG. 5 is a block diagram illustrating a functional configuration of the monitoring device 20 according to the second embodiment. The monitoring device 20 of FIG. 5 is different from the monitoring device 20 of FIG. 2 in that a reference image candidate selection unit 210 is provided and that the operation content of the reference image selection unit 206 is different.

参照画像候補選択部210は、参照画像記憶部201に記憶されている複数の参照画像から、位置情報取得部によって取得された位置情報(あるいは時間情報も)に対応する複数の参照画像を選択する。また、参照画像選択部206は、監視画像と、参照画像候補選択部210によって選択された複数の参照画像それぞれとの正規化相互相関(NCC(Normalized Cross Correlation):−1.0〜1.0の間の値)を算出し、正規化相互相関が最大の参照画像を選択する。   The reference image candidate selection unit 210 selects a plurality of reference images corresponding to the position information (or time information) acquired by the position information acquisition unit from the plurality of reference images stored in the reference image storage unit 201. . The reference image selection unit 206 also provides a normalized cross-correlation (NCC: -1.0 to 1.0) between the monitoring image and each of the plurality of reference images selected by the reference image candidate selection unit 210. Is calculated, and the reference image having the largest normalized cross-correlation is selected.

ここで、図6は、第2実施形態における参照画像選択部206の動作説明図である。まず、図6(a)に示す複数の参照画像C1〜C3は、参照画像候補選択部210が、参照画像記憶部201に記憶されている複数の参照画像から、位置情報取得部によって取得された位置情報に対応して選択したものである。   Here, FIG. 6 is an explanatory diagram of the operation of the reference image selection unit 206 in the second embodiment. First, the plurality of reference images C1 to C3 illustrated in FIG. 6A are acquired by the reference image candidate selection unit 210 from the plurality of reference images stored in the reference image storage unit 201 by the position information acquisition unit. This is selected according to the position information.

そして、参照画像選択部206は、例えば、図6(b)に示す監視画像M1について、図6(a)に示す複数の参照画像C1〜C3それぞれとの正規化相互相関を算出し、正規化相互相関が最大の参照画像を選択する。監視画像M2〜M5についても同様である。   Then, for example, the reference image selection unit 206 calculates the normalized cross-correlation of the monitoring image M1 shown in FIG. 6B with each of the plurality of reference images C1 to C3 shown in FIG. Select the reference image with the largest cross-correlation. The same applies to the monitoring images M2 to M5.

このように、第2実施形態の監視装置20によれば、参照画像選択部206が、参照画像候補選択部210によって選択された複数の参照画像のうち、監視画像との正規化相互相関が最大の参照画像を選択することにより、監視画像と参照画像のマッチングをより高精度にすることができる。また、正規化相互相関を算出する際、画像をベクトルとして計算するため、環境による輝度の誤差に対して強いという長所もある。   As described above, according to the monitoring device 20 of the second embodiment, the reference image selecting unit 206 has the maximum normalized cross-correlation with the monitoring image among the plurality of reference images selected by the reference image candidate selecting unit 210. By selecting the reference image, the matching between the monitoring image and the reference image can be made more accurate. Further, when calculating the normalized cross-correlation, since the image is calculated as a vector, there is an advantage that it is strong against an error in luminance due to the environment.

(第3実施形態)
次に、第3実施形態の監視装置20について説明する。図7は、第3実施形態の監視装置の機能構成を示すブロック図である。図7の監視装置20は、図5の監視装置20と比較して、キロ程情報記憶部211を備えている点と、参照画像候補選択部210の動作内容が異なる点で相違する。なお、キロ程とは、鉄道管理者等が所有する情報で、線路R(図1)のある位置を基準として駅や鉄道設備等の位置を示す情報である。
(Third embodiment)
Next, a monitoring device 20 according to a third embodiment will be described. FIG. 7 is a block diagram illustrating a functional configuration of the monitoring device according to the third embodiment. The monitoring device 20 of FIG. 7 is different from the monitoring device 20 of FIG. 5 in that a kilometer information storage unit 211 is provided and that the operation content of the reference image candidate selection unit 210 is different. The kilometer is information owned by a railway manager or the like, and is information indicating a position of a station, a railway facility, or the like based on a certain position of the track R (FIG. 1).

キロ程情報記憶部211は、キロ程情報を記憶している。そして、参照画像記憶部201は、参照画像を、鉄道車両RVの位置情報、時間情報、および、キロ程情報と関連付けて記憶している。また、参照画像候補選択部210は、参照画像記憶部201に記憶されている複数の参照画像から、それぞれの参照画像の位置情報、時間情報、および、キロ程情報に基いて、位置情報取得部203によって取得された位置情報に対応する複数の参照画像を選択する。   The kilometer information storage unit 211 stores kilometer information. The reference image storage unit 201 stores the reference image in association with the position information, the time information, and the kilometer information of the railway vehicle RV. Further, the reference image candidate selection unit 210 is configured to obtain a position information acquisition unit from the plurality of reference images stored in the reference image storage unit 201 based on the position information, time information, and kilometer information of each reference image. A plurality of reference images corresponding to the position information acquired by 203 are selected.

このように、第3実施形態の監視装置20によれば、参照画像候補選択部210は、位置情報や時間情報に加えてキロ程情報も用いることで、参照画像記憶部201に記憶されている複数の参照画像からより適切な複数の参照画像を選択することができる。   As described above, according to the monitoring device 20 of the third embodiment, the reference image candidate selection unit 210 stores the reference image storage unit 201 by using the kilometer information in addition to the position information and the time information. More appropriate plural reference images can be selected from the plural reference images.

(第4実施形態)
次に、第4実施形態の監視装置20について説明する。図8は、第4実施形態の監視装置20の機能構成を示すブロック図である。図8の監視装置20は、図2の監視装置20と比較して、動画データ生成部212を備えている点と、検知画像記憶部202が動画データ記憶部213に置き換えられている点で相違する。
(Fourth embodiment)
Next, a monitoring device 20 according to a fourth embodiment will be described. FIG. 8 is a block diagram illustrating a functional configuration of the monitoring device 20 according to the fourth embodiment. The monitoring device 20 of FIG. 8 is different from the monitoring device 20 of FIG. 2 in that a moving image data generation unit 212 is provided and that the detected image storage unit 202 is replaced with a video data storage unit 213. I do.

動画データ記憶部213は、検知画像生成部208によって生成された複数の検知画像を符号化して動画データを生成する。画像の符号化には、例えば、H.264等の標準規格を使用すればよい。動画データ記憶部213は、動画データ記憶部213によって生成された動画データを記憶する。   The moving image data storage unit 213 encodes the plurality of detected images generated by the detected image generating unit 208 to generate moving image data. For example, H.264 is used for image coding. A standard such as H.264 may be used. The moving image data storage unit 213 stores the moving image data generated by the moving image data storage unit 213.

図9は、第4実施形態の監視装置20による処理を示すフローチャートである。ステップS1〜S8は図3と同様である。ステップS8でYesの場合、ステップS10において、検知画像生成部208は、監視画像に差分領域を表示可能に埋め込んで検知画像を生成する。以下、ステップS11の時点では、複数の検知画像が蓄積されているものとする。   FIG. 9 is a flowchart illustrating a process performed by the monitoring device 20 according to the fourth embodiment. Steps S1 to S8 are the same as in FIG. In the case of Yes in step S8, in step S10, the detection image generation unit 208 generates a detection image by embedding the difference area in the monitoring image so as to be displayable. Hereinafter, it is assumed that a plurality of detected images are accumulated at the time of step S11.

次に、ステップS11において、動画データ記憶部213は、複数の検知画像を符号化して動画データを生成し、動画データ記憶部213に記憶する。ステップS11の後、処理を終了する。   Next, in step S11, the moving image data storage unit 213 generates moving image data by encoding a plurality of detected images, and stores the generated moving image data in the moving image data storage unit 213. After step S11, the process ends.

このように、第4実施形態の監視装置20によれば、動画データ記憶部213は、差分領域が表示可能に埋め込んである複数の検知画像から生成された動画データを記憶する。したがって、ユーザは差分領域を明示したその動画データを見ることで差分領域に基いて鉄道設備の異常(例えば、鉄道設備に対する異物の付着や樹木の接近等)を容易に認識することができる。そして、動画データであるので、再生することで、ユーザは、差分領域の経時的変化の様子を確認することができる。なお、動画データの再生には、符号化に対応した復号化が可能な専用のプレイヤーを用いればよい。   As described above, according to the monitoring device 20 of the fourth embodiment, the moving image data storage unit 213 stores the moving image data generated from the plurality of detected images in which the difference area is embedded so as to be displayed. Therefore, the user can easily recognize the abnormality of the railway equipment (for example, the attachment of a foreign object to the railway equipment or the approach of a tree, etc.) based on the difference area by viewing the moving image data indicating the difference area. Since the data is moving image data, by reproducing the data, the user can check how the difference area changes over time. Note that a dedicated player capable of decoding corresponding to the encoding may be used for reproducing the moving image data.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These new embodiments can be implemented in other various forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and their equivalents.

例えば、カメラ10によって撮影される画像がカラーの場合、撮影の時間帯や天候等によって画像の輝度や色味が変わることがあるため、画像にモノクロ化やγ補正等の処理を行って、輝度や色味の違いを減らすようにしてもよい。   For example, if the image captured by the camera 10 is color, the brightness and color of the image may change depending on the shooting time zone, weather, and the like. Or the difference in color may be reduced.

また、位置計測装置30として、GNSS装置の代わりにGPS(Global Positioning System)装置を用いてもよい。   In addition, a GPS (Global Positioning System) device may be used as the position measurement device 30 instead of the GNSS device.

10…カメラ、20…監視装置、30…位置計測装置、40…表示装置、201…参照画像記憶部、202…検知画像記憶部、203…位置情報取得部、204…監視画像取得部、205…画像変換部、206…参照画像選択部、207…差分領域検出部、208…検知画像生成部、209…表示制御部、210…参照画像候補選択部、211…キロ程情報記憶部、212…動画データ生成部、213…動画データ記憶部、R…線路、RV…鉄道車両   DESCRIPTION OF SYMBOLS 10 ... Camera, 20 ... Monitoring device, 30 ... Position measuring device, 40 ... Display device, 201 ... Reference image storage part, 202 ... Detection image storage part, 203 ... Position information acquisition part, 204 ... Monitoring image acquisition part, 205 ... Image conversion unit, 206: reference image selection unit, 207: difference area detection unit, 208: detected image generation unit, 209: display control unit, 210: reference image candidate selection unit, 211: kilometer information storage unit, 212: video Data generation unit, 213: moving image data storage unit, R: track, RV: railway vehicle

Claims (4)

予め、鉄道車両において前方に向けて設置された撮影部によって撮影された、地上に設置してある鉄道設備を含む複数の画像を、前記鉄道車両の位置情報と関連付けて、複数の参照画像として記憶する記憶部と、
前記撮影部によって撮影された画像を、監視画像として取得する監視画像取得部と、
前記鉄道車両の現在位置の位置情報を取得する位置情報取得部と、
前記記憶部に記憶されている複数の前記参照画像から、前記位置情報取得部によって取得された位置情報に対応する参照画像を選択する参照画像選択部と、
前記監視画像と前記参照画像選択部によって選択された前記参照画像の間で輝度の差分が所定値以上ある領域である差分領域を検出する差分領域検出部と、
前記監視画像に前記差分領域を表示可能に埋め込んで検知画像を生成する検知画像生成部と、
を備える監視装置。
In advance, a plurality of images including the railway equipment installed on the ground, which are captured by the imaging unit installed forward in the railway vehicle, are stored as a plurality of reference images in association with the position information of the railway vehicle. Storage unit to
A monitoring image acquisition unit that acquires an image photographed by the imaging unit as a monitoring image,
A position information acquisition unit that acquires position information of a current position of the railway vehicle,
From the plurality of reference images stored in the storage unit, a reference image selection unit that selects a reference image corresponding to the position information acquired by the position information acquisition unit,
A difference region detection unit that detects a difference region in which the difference in luminance between the monitoring image and the reference image selected by the reference image selection unit is a region having a predetermined value or more,
A detection image generation unit that embeds the difference area in the monitoring image so as to be displayable and generates a detection image;
A monitoring device comprising:
予め、鉄道車両において前方に向けて設置された撮影部によって撮影された、地上に設置してある鉄道設備を含む複数の画像を、前記鉄道車両の位置情報と関連付けて、複数の参照画像として記憶する記憶部と、
前記撮影部によって撮影された画像を、監視画像として取得する監視画像取得部と、
前記鉄道車両の現在位置の位置情報を取得する位置情報取得部と、
前記記憶部に記憶されている複数の前記参照画像から、前記位置情報取得部によって取得された位置情報に対応する複数の前記参照画像を選択する参照画像候補選択部と、
前記監視画像と、前記参照画像候補選択部によって選択された前記複数の前記参照画像それぞれとの正規化相互相関を算出し、前記正規化相互相関が最大の前記参照画像を選択する参照画像選択部と、
前記監視画像と前記参照画像選択部によって選択された前記参照画像の間で輝度の差分が所定値以上ある領域である差分領域を検出する差分領域検出部と、
前記監視画像に前記差分領域を表示可能に埋め込んで検知画像を生成する検知画像生成部と、
を備える監視装置。
In advance, a plurality of images including the railway equipment installed on the ground, which are captured by the imaging unit installed forward in the railway vehicle, are stored as a plurality of reference images in association with the position information of the railway vehicle. Storage unit to
A monitoring image acquisition unit that acquires an image photographed by the imaging unit as a monitoring image,
A position information acquisition unit that acquires position information of a current position of the railway vehicle,
From the plurality of reference images stored in the storage unit, a reference image candidate selection unit that selects a plurality of the reference images corresponding to the position information acquired by the position information acquisition unit,
A reference image selection unit that calculates a normalized cross-correlation between the monitoring image and each of the plurality of reference images selected by the reference image candidate selection unit, and selects the reference image having the largest normalized cross-correlation. When,
A difference region detection unit that detects a difference region in which the difference in luminance between the monitoring image and the reference image selected by the reference image selection unit is a region having a predetermined value or more,
A detection image generation unit that embeds the difference area in the monitoring image so as to be displayable and generates a detection image;
A monitoring device comprising:
前記記憶部は、前記参照画像を、前記鉄道車両の位置情報およびキロ程情報と関連付けて記憶しており、
前記参照画像候補選択部は、前記記憶部に記憶されている複数の参照画像から、それぞれの前記参照画像の前記位置情報および前記キロ程情報に基いて、前記位置情報取得部によって取得された位置情報に対応する複数の参照画像を選択する、請求項2に記載の監視装置。
The storage unit stores the reference image in association with position information and kilometer information of the railway vehicle,
The reference image candidate selection unit is configured to obtain, from a plurality of reference images stored in the storage unit, the position acquired by the position information acquisition unit based on the position information and the kilometer information of each of the reference images. The monitoring device according to claim 2, wherein a plurality of reference images corresponding to the information are selected.
前記検知画像生成部によって生成された複数の検知画像を符号化して動画データを生成する動画データ生成部を、さらに備える、請求項1から請求項3のいずれか一項に記載の監視装置。   The monitoring device according to any one of claims 1 to 3, further comprising a moving image data generation unit that generates moving image data by encoding a plurality of detection images generated by the detection image generation unit.
JP2018149569A 2018-08-08 2018-08-08 Monitoring device Pending JP2020023285A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018149569A JP2020023285A (en) 2018-08-08 2018-08-08 Monitoring device
PCT/JP2019/030518 WO2020031898A1 (en) 2018-08-08 2019-08-02 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018149569A JP2020023285A (en) 2018-08-08 2018-08-08 Monitoring device

Publications (1)

Publication Number Publication Date
JP2020023285A true JP2020023285A (en) 2020-02-13

Family

ID=69413582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018149569A Pending JP2020023285A (en) 2018-08-08 2018-08-08 Monitoring device

Country Status (2)

Country Link
JP (1) JP2020023285A (en)
WO (1) WO2020031898A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021190850A (en) * 2020-05-29 2021-12-13 株式会社東芝 Monitoring device and monitoring method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005125709A (en) * 2003-10-27 2005-05-19 Sumitomo Heavy Ind Ltd Mold monitoring apparatus, mold monitoring method and program
JP4919036B2 (en) * 2007-01-30 2012-04-18 アイシン精機株式会社 Moving object recognition device
JP2016088325A (en) * 2014-11-06 2016-05-23 三菱重工業株式会社 Travel direction monitoring device, method of monitoring travel direction, and program

Also Published As

Publication number Publication date
WO2020031898A1 (en) 2020-02-13

Similar Documents

Publication Publication Date Title
US8325979B2 (en) Method and apparatus for detecting objects from terrestrial based mobile mapping data
US10325350B2 (en) System and method for forming a video stream containing GIS data in real-time
JP2019145089A (en) Method and device for fusing point cloud data
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
US20190360820A1 (en) Method and device for executing at least one measure for increasing the safety of a vehicle
US20200249332A1 (en) Online Extrinsic Miscalibration Detection Between Sensors
US20230081098A1 (en) Deterioration diagnosis device, deterioration diagnosis method, and recording medium
JP2018116004A (en) Data compression apparatus, control method, program and storage medium
TW201836891A (en) Vehicle-mounted device, station-side device, and calibration method
WO2020031898A1 (en) Monitoring device
CN109658507A (en) Information processing method and device, electronic equipment
JP6414954B2 (en) Road image management system
JP2023111921A (en) Information processing device
JP5230354B2 (en) POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE
CN114694107A (en) Image processing method and device, electronic equipment and storage medium
CN113874681B (en) Evaluation method and system for point cloud map quality
JP6727032B2 (en) Mobile terminal, self-position estimation system using the same, server and self-position estimation method
JP7399729B2 (en) Equipment diagnosis system
JP2017181393A (en) Navigation device and navigation method
JP5409451B2 (en) 3D change detector
WO2024018726A1 (en) Program, method, system, road map, and road map creation method
CN103229073A (en) Method and apparatus for calculating position information of image
RU2818049C2 (en) Method of correcting digital elevation model (embodiments)
JP7185786B2 (en) Positioning system and terminal
JP7342499B2 (en) tagging device