JP2020023285A - Monitoring device - Google Patents
Monitoring device Download PDFInfo
- Publication number
- JP2020023285A JP2020023285A JP2018149569A JP2018149569A JP2020023285A JP 2020023285 A JP2020023285 A JP 2020023285A JP 2018149569 A JP2018149569 A JP 2018149569A JP 2018149569 A JP2018149569 A JP 2018149569A JP 2020023285 A JP2020023285 A JP 2020023285A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- monitoring
- position information
- reference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012806 monitoring device Methods 0.000 title claims abstract description 41
- 238000012544 monitoring process Methods 0.000 claims abstract description 45
- 238000001514 detection method Methods 0.000 claims abstract description 39
- 238000003384 imaging method Methods 0.000 claims abstract description 9
- 230000005856 abnormality Effects 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 14
- 238000000034 method Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000013500 data storage Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61K—AUXILIARY EQUIPMENT SPECIALLY ADAPTED FOR RAILWAYS, NOT OTHERWISE PROVIDED FOR
- B61K13/00—Other auxiliaries or accessories for railways
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L23/00—Control, warning or like safety means along the route or between vehicles or trains
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Train Traffic Observation, Control, And Security (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明の実施形態は、監視装置に関する。 Embodiments of the present invention relate to a monitoring device.
従来から、鉄道管理者は、地上に設置してある鉄道設備に異常があればその異常を速やかに知る必要がある。そのために、例えば、鉄道車両において前方に向けて設置されたカメラによって鉄道設備を含む画像を撮影して記憶し、監視員がその画像を見ることで鉄道設備の異常を調べる手法がある。 2. Description of the Related Art Conventionally, a railroad administrator has to promptly know any abnormality in railway equipment installed on the ground. For this purpose, for example, there is a method in which an image including railway equipment is captured and stored by a camera installed forward in a railway vehicle, and an observer looks at the image to check for an abnormality in the railway equipment.
しかしながら、上述の手法では、監視員が画像を見て鉄道設備の異常を調べるので手間がかかるという問題がある。 However, in the above-mentioned method, there is a problem that it takes time and effort since the observer checks the abnormality of the railway equipment by looking at the image.
そこで、本実施形態の課題は、地上に設置してある鉄道設備の異常を検知可能な監視装置を提供することである。 Therefore, an object of the present embodiment is to provide a monitoring device capable of detecting an abnormality of railway equipment installed on the ground.
実施形態の監視装置は、予め、鉄道車両において前方に向けて設置された撮影部によって撮影された、地上に設置してある鉄道設備を含む複数の画像を、前記鉄道車両の位置情報と関連付けて、複数の参照画像として記憶する記憶部と、前記撮影部によって撮影された画像を、監視画像として取得する監視画像取得部と、前記鉄道車両の現在位置の位置情報を取得する位置情報取得部と、前記記憶部に記憶されている複数の前記参照画像から、前記位置情報取得部によって取得された位置情報に対応する参照画像を選択する参照画像選択部と、前記監視画像と前記参照画像選択部によって選択された前記参照画像の間で輝度の差分が所定値以上ある領域である差分領域を検出する差分領域検出部と、前記監視画像に前記差分領域を表示可能に埋め込んで検知画像を生成する検知画像生成部と、を備える。 The monitoring device of the embodiment is, in advance, a plurality of images including the railway equipment installed on the ground, which is captured by the imaging unit installed forward in the railway vehicle, in association with the position information of the railway vehicle A storage unit that stores a plurality of reference images, an image captured by the imaging unit, a monitoring image obtaining unit that obtains a monitoring image, and a position information obtaining unit that obtains position information of the current position of the railway vehicle. A reference image selection unit that selects a reference image corresponding to the position information acquired by the position information acquisition unit from the plurality of reference images stored in the storage unit, and the monitoring image and the reference image selection unit A difference area detecting unit that detects a difference area in which the difference in luminance between the reference images selected by the method is equal to or more than a predetermined value, and enables the difference area to be displayed on the monitoring image. And a detection image generation unit for generating a detection image crowded because.
以下、添付の図面を参照して、第1実施形態〜第4実施形態の監視装置について説明する。なお、第2実施形態以降の説明において、それまでに説明した実施形態と同様の事項については説明を適宜省略する。 Hereinafter, the monitoring devices according to the first to fourth embodiments will be described with reference to the accompanying drawings. In the description of the second embodiment and thereafter, the description of the same items as those of the embodiments described above will be omitted as appropriate.
(第1実施形態)
図1は、第1実施形態の鉄道車両RVの概略構成を示す図である。図1に示すように、鉄道車両RVは、カメラ10(撮影部)、監視装置20、位置計測装置30、および、表示装置40を備える。カメラ10は、鉄道車両RVにおいて進行方向(前方)に向けて設置され、鉄道車両RVが線路R上を走行するときに、地上に設置してある鉄道設備を含む画像を撮影して記憶する。監視装置20は、鉄道設備の異常を検知可能なコンピュータ装置である(詳細は後述)。なお、カメラ10の種別は限定されないが、高解像度のカメラであることが好ましい。
(1st Embodiment)
FIG. 1 is a diagram illustrating a schematic configuration of the railway vehicle RV of the first embodiment. As illustrated in FIG. 1, the railway vehicle RV includes a camera 10 (an imaging unit), a
位置計測装置30は、鉄道車両RVの現在位置を計測し、その位置情報を監視装置20に送信する手段である。位置計測装置30は、例えば、GNSS(Global Navigation Satellite System)装置である。GNSS装置は、アンテナによって複数の人工衛星から電波を受信して、鉄道車両RVの現在位置を計測する。なお、鉄道車両RVがトンネルに入っているとき等の場合、GNSS装置は人工衛星から電波を受信できない。そこで、位置計測装置30として、鉄道車両RVの車軸に設けられる速度発電機(タコジェネレータ)の出力に基いて鉄道車両RVの現在位置を計測する装置を併用してもよい。また、位置計測装置30として、加速度センサやジャイロセンサを用いて鉄道車両RVの進行方向の加速度を検出し、加速度を二階積分して位置を算出することで鉄道車両RVの現在位置を計測する装置を併用や代用してもよい。また、表示装置40は、各種情報を表示する手段であり、例えば、LCD(Liquid Crystal Display)である。
The
図2は、第1実施形態の監視装置20の機能構成を示すブロック図である。図2に示すように、監視装置20は、参照画像記憶部201、検知画像記憶部202、位置情報取得部203、監視画像取得部204、画像変換部205、参照画像選択部206、差分領域検出部207、検知画像生成部208、表示制御部209、および、記憶部220を備える。なお、各部203〜209のうちの一部または全部は、鉄道車両RVが有するCPU(Central Processing Unit)等のプロセッサが記憶部220に記憶されるソフトウェアを実行することによって実現される。また、各部203〜209のうちの一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の回路基板であるハードウェアによって実現されてもよい。
FIG. 2 is a block diagram illustrating a functional configuration of the
記憶部220は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等により実現される。また、参照画像記憶部201および検知画像記憶部202は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
The
記憶部220は、鉄道車両RVが有するプロセッサが実行するプログラム等の各種情報を記憶する。
The
参照画像記憶部201は、予め、鉄道車両RVの走行時にカメラ10によって撮影された鉄道設備を含む複数の画像を、鉄道車両RVの位置情報および時間情報と関連付けて、複数の参照画像として記憶する。参照画像とは、監視画像との比較に用いられる基準画像である。図1では、参照画像記憶部201に、参照画像1、2、・・・、nが記憶されていることを示している。位置情報は、位置計測装置30によって計測される。位置情報は、監視画像と参照画像のマッチングに用いられる(詳細は後述)。
The reference
時間情報は、例えば、1日のうちの時刻を示す情報である。時間情報は、監視画像と参照画像を比較する際の補助情報として用いられる。例えば、監視画像が日中の画像で、参照画像が夜の画像であれば、撮影対象物が同一でも輝度の違いが大きいが、時間情報を用いることで両画像の撮影時間帯の違いを把握し、対応することができる。また、参照画像に対して、位置情報と時間情報のほかに、撮影時の天候(晴れ、曇り、雨、雪等)等の情報を関連付けておいてもよい。なお、参照画像に対して関連付けておく必須の情報は位置情報であり、時間情報や天候等の情報は必須ではない。 The time information is, for example, information indicating the time of the day. The time information is used as auxiliary information when comparing the monitoring image with the reference image. For example, if the monitoring image is a daytime image and the reference image is a nighttime image, the difference in luminance is large even if the shooting target is the same, but the difference in the shooting time zone of both images can be grasped by using time information. And can respond. Further, in addition to the position information and the time information, information such as the weather at the time of shooting (clear, cloudy, rain, snow, etc.) may be associated with the reference image. Note that essential information associated with the reference image is position information, and information such as time information and weather is not essential.
検知画像記憶部202は、検知画像生成部208によって生成された検知画像を記憶する。なお、検知画像記憶部202に記憶された検知画像を外部装置に転送できるように監視装置20を構成しておくことが好ましい。そうすれば、外部装置において検知画像を見ることができる。
The detected
位置情報取得部203は、位置計測装置30から、走行している鉄道車両RVの現在位置の位置情報と時間情報を取得する。
The position
監視画像取得部204は、鉄道車両RVの走行時にカメラ10によって撮影された画像を、監視画像として取得する。
The monitoring
画像変換部205は、監視画像を、参照画像と同じフォーマットに変換(画像変換)する。なお、監視画像のフォーマットが元から参照画像のフォーマットと同じであれば、画像変換部205による変換(画像変換)は不要である。
The
参照画像選択部206は、参照画像記憶部201に記憶されている複数の参照画像から、位置情報取得部203によって取得された位置情報に対応する参照画像(例えば、位置情報同士が最も近い参照画像)を選択する。なお、参照画像選択部206は、参照画像を選択するときに時間情報を併せて用いてもよい。
The reference
差分領域検出部207は、監視画像と参照画像選択部206によって選択された参照画像の間で輝度の差分が所定値以上ある領域である差分領域を検出する。ここで、図4は、第1実施形態における差分領域検出部207の動作説明図である。差分領域検出部207は、監視画像(図4(a))と参照画像(図4(b))に関して、以下の(1)〜(6)の処理を行う。
The difference
(1)監視画像、参照画像を同一の格子状に分割
(2)監視画像、参照画像のそれぞれについて、格子ごとの輝度平均値を算出
(3)各格子について、監視画像の輝度平均値と参照画像の輝度平均値の差分を算出
(4)輝度平均値の差分が所定値(閾値)以上か否か判定
(5)輝度平均値の差分が所定値以上の領域(格子)を差分領域として検出
(6)検出した差分領域(格子。または複数の格子を連結したもの)の領域情報(例えば矩形であれば格子の左上の座標と縦幅と横幅)を出力
(1) The monitoring image and the reference image are divided into the same lattice. (2) The average luminance value of each lattice is calculated for each of the monitoring image and the reference image. (3) The average luminance value of the monitoring image and the reference are calculated for each lattice. Calculate the difference between the average brightness values of the images. (4) Determine whether the difference between the average brightness values is equal to or greater than a predetermined value (threshold). (6) Output the area information (for example, the coordinates of the upper left corner, the vertical width, and the horizontal width of the grid in the case of a rectangle) of the detected difference area (grid or a combination of a plurality of grids).
なお、図4(c)に示す差分画像では、差分の無い部分を黒色としている。つまり、真っ黒でない格子部分が差分領域である。例えば、監視画像において鉄道設備(例えば架線等)にビニール袋等の異物が付着していて、参照画像におけるその部分にその異物が無いと、輝度平均値の差分が所定値以上となって差分領域として検出される可能性がある。また、異物としては、ほかに、例えば、傾いたり倒れたりした樹木等が考えられる。 In the difference image shown in FIG. 4C, a portion having no difference is black. That is, the grid portion that is not black is the difference area. For example, if a foreign matter such as a plastic bag adheres to a railway facility (for example, an overhead line) in the monitoring image and the foreign matter does not exist in that part in the reference image, the difference in the average luminance value becomes a predetermined value or more and the difference area May be detected as In addition, as the foreign substance, for example, a tree or the like which is tilted or fallen can be considered.
図2に戻って、検知画像生成部208は、画像変換後の監視画像に、差分領域検出部207によって検出された差分領域を表示可能に埋め込んで検知画像を生成して検知画像記憶部202に記憶する。また、検知画像生成部208は、検知画像を検知画像記憶部202に記憶する際、位置情報や時間情報も関連付けて記憶する。なお、検知画像のフォーマットは任意である。
Returning to FIG. 2, the detected
表示制御部209は、ユーザの操作等に基いて、検知画像記憶部202に記憶された検知画像を表示装置40に表示させる。これにより、表示装置40に、差分領域を明示した検知画像が表示され、ユーザは、当該差分領域を容易に認識できる。そして、ユーザは、例えば、鉄道設備に対して異物が付着していることや樹木が近付いたり倒れ込んだりしていること等を容易に認識できる。
The
図3は、第1実施形態の監視装置20による処理を示すフローチャートである。ステップS1において、監視画像取得部204は、鉄道車両RVの走行時にカメラ10によって撮影された画像を監視画像として取得し、位置情報取得部203は位置計測装置30から鉄道車両RVの現在位置の位置情報と時間情報を取得する。
FIG. 3 is a flowchart illustrating a process performed by the
次に、ステップS2において、参照画像選択部206は、位置情報と時間情報に基いて参照画像を選択する。具体的には、参照画像選択部206は、参照画像記憶部201に記憶されている複数の参照画像から、ステップS1で取得された位置情報と時間情報に対応する参照画像を選択する。
Next, in step S2, the reference
次に、ステップS3において、画像変換部205は、監視画像を、参照画像と同じフォーマットに変換する。
Next, in step S3, the
次に、ステップS4において、差分領域検出部207は、監視画像と参照画像の格子単位(格子数N)での輝度平均値を算出する。
Next, in step S4, the difference
次に、差分領域検出部207は、全格子についてステップS5〜S7の処理を実行する。ステップS5において、差分領域検出部207は、1つの格子について、監視画像と参照画像の輝度平均値の差分を算出する。
Next, the difference
次に、ステップS6において、その格子について、輝度平均値の差分が所定値以上か否かを判定し、Yesの場合はステップS7に進み、Noの場合はステップS5に戻る。 Next, in step S6, it is determined whether or not the difference between the average luminance values of the grid is equal to or larger than a predetermined value. If Yes, the process proceeds to step S7, and if No, the process returns to step S5.
ステップS7において、差分領域検出部207は、その格子を差分領域として記憶部220に記憶する。
In step S7, the difference
ステップS5〜S7が終了した後、ステップS8において、検知画像生成部208は、差分領域が存在するか否かを判定し、Yesの場合はステップS9に進み、Noの場合は処理を終了する。
After Steps S5 to S7 are completed, in Step S8, the detected
ステップS9において、検知画像生成部208は、監視画像に差分領域を表示可能に埋め込んで検知画像を生成して検知画像記憶部202に記憶する。ステップS9の後、処理を終了する。
In step S <b> 9, the detection
このように、第1実施形態の監視装置20によれば、地上に設置してある鉄道設備の異常を検知することができる。つまり、検知画像記憶部202には、差分領域が表示可能に埋め込んである検知画像が記憶される。したがって、ユーザはその差分領域を明示した検知画像を見ることで差分領域に基いて鉄道設備の異常(例えば、鉄道設備に対する異物の付着や樹木の接近等)を容易に認識することができる。
Thus, according to the
(第2実施形態)
次に、第2実施形態の監視装置20について説明する。図5は、第2実施形態の監視装置20の機能構成を示すブロック図である。図5の監視装置20は、図2の監視装置20と比較して、参照画像候補選択部210を備えている点と、参照画像選択部206の動作内容が異なる点で相違する。
(2nd Embodiment)
Next, a
参照画像候補選択部210は、参照画像記憶部201に記憶されている複数の参照画像から、位置情報取得部によって取得された位置情報(あるいは時間情報も)に対応する複数の参照画像を選択する。また、参照画像選択部206は、監視画像と、参照画像候補選択部210によって選択された複数の参照画像それぞれとの正規化相互相関(NCC(Normalized Cross Correlation):−1.0〜1.0の間の値)を算出し、正規化相互相関が最大の参照画像を選択する。
The reference image
ここで、図6は、第2実施形態における参照画像選択部206の動作説明図である。まず、図6(a)に示す複数の参照画像C1〜C3は、参照画像候補選択部210が、参照画像記憶部201に記憶されている複数の参照画像から、位置情報取得部によって取得された位置情報に対応して選択したものである。
Here, FIG. 6 is an explanatory diagram of the operation of the reference
そして、参照画像選択部206は、例えば、図6(b)に示す監視画像M1について、図6(a)に示す複数の参照画像C1〜C3それぞれとの正規化相互相関を算出し、正規化相互相関が最大の参照画像を選択する。監視画像M2〜M5についても同様である。
Then, for example, the reference
このように、第2実施形態の監視装置20によれば、参照画像選択部206が、参照画像候補選択部210によって選択された複数の参照画像のうち、監視画像との正規化相互相関が最大の参照画像を選択することにより、監視画像と参照画像のマッチングをより高精度にすることができる。また、正規化相互相関を算出する際、画像をベクトルとして計算するため、環境による輝度の誤差に対して強いという長所もある。
As described above, according to the
(第3実施形態)
次に、第3実施形態の監視装置20について説明する。図7は、第3実施形態の監視装置の機能構成を示すブロック図である。図7の監視装置20は、図5の監視装置20と比較して、キロ程情報記憶部211を備えている点と、参照画像候補選択部210の動作内容が異なる点で相違する。なお、キロ程とは、鉄道管理者等が所有する情報で、線路R(図1)のある位置を基準として駅や鉄道設備等の位置を示す情報である。
(Third embodiment)
Next, a
キロ程情報記憶部211は、キロ程情報を記憶している。そして、参照画像記憶部201は、参照画像を、鉄道車両RVの位置情報、時間情報、および、キロ程情報と関連付けて記憶している。また、参照画像候補選択部210は、参照画像記憶部201に記憶されている複数の参照画像から、それぞれの参照画像の位置情報、時間情報、および、キロ程情報に基いて、位置情報取得部203によって取得された位置情報に対応する複数の参照画像を選択する。
The kilometer information storage unit 211 stores kilometer information. The reference
このように、第3実施形態の監視装置20によれば、参照画像候補選択部210は、位置情報や時間情報に加えてキロ程情報も用いることで、参照画像記憶部201に記憶されている複数の参照画像からより適切な複数の参照画像を選択することができる。
As described above, according to the
(第4実施形態)
次に、第4実施形態の監視装置20について説明する。図8は、第4実施形態の監視装置20の機能構成を示すブロック図である。図8の監視装置20は、図2の監視装置20と比較して、動画データ生成部212を備えている点と、検知画像記憶部202が動画データ記憶部213に置き換えられている点で相違する。
(Fourth embodiment)
Next, a
動画データ記憶部213は、検知画像生成部208によって生成された複数の検知画像を符号化して動画データを生成する。画像の符号化には、例えば、H.264等の標準規格を使用すればよい。動画データ記憶部213は、動画データ記憶部213によって生成された動画データを記憶する。
The moving image data storage unit 213 encodes the plurality of detected images generated by the detected
図9は、第4実施形態の監視装置20による処理を示すフローチャートである。ステップS1〜S8は図3と同様である。ステップS8でYesの場合、ステップS10において、検知画像生成部208は、監視画像に差分領域を表示可能に埋め込んで検知画像を生成する。以下、ステップS11の時点では、複数の検知画像が蓄積されているものとする。
FIG. 9 is a flowchart illustrating a process performed by the
次に、ステップS11において、動画データ記憶部213は、複数の検知画像を符号化して動画データを生成し、動画データ記憶部213に記憶する。ステップS11の後、処理を終了する。 Next, in step S11, the moving image data storage unit 213 generates moving image data by encoding a plurality of detected images, and stores the generated moving image data in the moving image data storage unit 213. After step S11, the process ends.
このように、第4実施形態の監視装置20によれば、動画データ記憶部213は、差分領域が表示可能に埋め込んである複数の検知画像から生成された動画データを記憶する。したがって、ユーザは差分領域を明示したその動画データを見ることで差分領域に基いて鉄道設備の異常(例えば、鉄道設備に対する異物の付着や樹木の接近等)を容易に認識することができる。そして、動画データであるので、再生することで、ユーザは、差分領域の経時的変化の様子を確認することができる。なお、動画データの再生には、符号化に対応した復号化が可能な専用のプレイヤーを用いればよい。
As described above, according to the
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These new embodiments can be implemented in other various forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and their equivalents.
例えば、カメラ10によって撮影される画像がカラーの場合、撮影の時間帯や天候等によって画像の輝度や色味が変わることがあるため、画像にモノクロ化やγ補正等の処理を行って、輝度や色味の違いを減らすようにしてもよい。
For example, if the image captured by the
また、位置計測装置30として、GNSS装置の代わりにGPS(Global Positioning System)装置を用いてもよい。
In addition, a GPS (Global Positioning System) device may be used as the
10…カメラ、20…監視装置、30…位置計測装置、40…表示装置、201…参照画像記憶部、202…検知画像記憶部、203…位置情報取得部、204…監視画像取得部、205…画像変換部、206…参照画像選択部、207…差分領域検出部、208…検知画像生成部、209…表示制御部、210…参照画像候補選択部、211…キロ程情報記憶部、212…動画データ生成部、213…動画データ記憶部、R…線路、RV…鉄道車両
DESCRIPTION OF
Claims (4)
前記撮影部によって撮影された画像を、監視画像として取得する監視画像取得部と、
前記鉄道車両の現在位置の位置情報を取得する位置情報取得部と、
前記記憶部に記憶されている複数の前記参照画像から、前記位置情報取得部によって取得された位置情報に対応する参照画像を選択する参照画像選択部と、
前記監視画像と前記参照画像選択部によって選択された前記参照画像の間で輝度の差分が所定値以上ある領域である差分領域を検出する差分領域検出部と、
前記監視画像に前記差分領域を表示可能に埋め込んで検知画像を生成する検知画像生成部と、
を備える監視装置。 In advance, a plurality of images including the railway equipment installed on the ground, which are captured by the imaging unit installed forward in the railway vehicle, are stored as a plurality of reference images in association with the position information of the railway vehicle. Storage unit to
A monitoring image acquisition unit that acquires an image photographed by the imaging unit as a monitoring image,
A position information acquisition unit that acquires position information of a current position of the railway vehicle,
From the plurality of reference images stored in the storage unit, a reference image selection unit that selects a reference image corresponding to the position information acquired by the position information acquisition unit,
A difference region detection unit that detects a difference region in which the difference in luminance between the monitoring image and the reference image selected by the reference image selection unit is a region having a predetermined value or more,
A detection image generation unit that embeds the difference area in the monitoring image so as to be displayable and generates a detection image;
A monitoring device comprising:
前記撮影部によって撮影された画像を、監視画像として取得する監視画像取得部と、
前記鉄道車両の現在位置の位置情報を取得する位置情報取得部と、
前記記憶部に記憶されている複数の前記参照画像から、前記位置情報取得部によって取得された位置情報に対応する複数の前記参照画像を選択する参照画像候補選択部と、
前記監視画像と、前記参照画像候補選択部によって選択された前記複数の前記参照画像それぞれとの正規化相互相関を算出し、前記正規化相互相関が最大の前記参照画像を選択する参照画像選択部と、
前記監視画像と前記参照画像選択部によって選択された前記参照画像の間で輝度の差分が所定値以上ある領域である差分領域を検出する差分領域検出部と、
前記監視画像に前記差分領域を表示可能に埋め込んで検知画像を生成する検知画像生成部と、
を備える監視装置。 In advance, a plurality of images including the railway equipment installed on the ground, which are captured by the imaging unit installed forward in the railway vehicle, are stored as a plurality of reference images in association with the position information of the railway vehicle. Storage unit to
A monitoring image acquisition unit that acquires an image photographed by the imaging unit as a monitoring image,
A position information acquisition unit that acquires position information of a current position of the railway vehicle,
From the plurality of reference images stored in the storage unit, a reference image candidate selection unit that selects a plurality of the reference images corresponding to the position information acquired by the position information acquisition unit,
A reference image selection unit that calculates a normalized cross-correlation between the monitoring image and each of the plurality of reference images selected by the reference image candidate selection unit, and selects the reference image having the largest normalized cross-correlation. When,
A difference region detection unit that detects a difference region in which the difference in luminance between the monitoring image and the reference image selected by the reference image selection unit is a region having a predetermined value or more,
A detection image generation unit that embeds the difference area in the monitoring image so as to be displayable and generates a detection image;
A monitoring device comprising:
前記参照画像候補選択部は、前記記憶部に記憶されている複数の参照画像から、それぞれの前記参照画像の前記位置情報および前記キロ程情報に基いて、前記位置情報取得部によって取得された位置情報に対応する複数の参照画像を選択する、請求項2に記載の監視装置。 The storage unit stores the reference image in association with position information and kilometer information of the railway vehicle,
The reference image candidate selection unit is configured to obtain, from a plurality of reference images stored in the storage unit, the position acquired by the position information acquisition unit based on the position information and the kilometer information of each of the reference images. The monitoring device according to claim 2, wherein a plurality of reference images corresponding to the information are selected.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018149569A JP2020023285A (en) | 2018-08-08 | 2018-08-08 | Monitoring device |
PCT/JP2019/030518 WO2020031898A1 (en) | 2018-08-08 | 2019-08-02 | Monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018149569A JP2020023285A (en) | 2018-08-08 | 2018-08-08 | Monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020023285A true JP2020023285A (en) | 2020-02-13 |
Family
ID=69413582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018149569A Pending JP2020023285A (en) | 2018-08-08 | 2018-08-08 | Monitoring device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020023285A (en) |
WO (1) | WO2020031898A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021190850A (en) * | 2020-05-29 | 2021-12-13 | 株式会社東芝 | Monitoring device and monitoring method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005125709A (en) * | 2003-10-27 | 2005-05-19 | Sumitomo Heavy Ind Ltd | Mold monitoring apparatus, mold monitoring method and program |
JP4919036B2 (en) * | 2007-01-30 | 2012-04-18 | アイシン精機株式会社 | Moving object recognition device |
JP2016088325A (en) * | 2014-11-06 | 2016-05-23 | 三菱重工業株式会社 | Travel direction monitoring device, method of monitoring travel direction, and program |
-
2018
- 2018-08-08 JP JP2018149569A patent/JP2020023285A/en active Pending
-
2019
- 2019-08-02 WO PCT/JP2019/030518 patent/WO2020031898A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2020031898A1 (en) | 2020-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8325979B2 (en) | Method and apparatus for detecting objects from terrestrial based mobile mapping data | |
US10325350B2 (en) | System and method for forming a video stream containing GIS data in real-time | |
JP2019145089A (en) | Method and device for fusing point cloud data | |
JP6950832B2 (en) | Position coordinate estimation device, position coordinate estimation method and program | |
US20190360820A1 (en) | Method and device for executing at least one measure for increasing the safety of a vehicle | |
US20200249332A1 (en) | Online Extrinsic Miscalibration Detection Between Sensors | |
US20230081098A1 (en) | Deterioration diagnosis device, deterioration diagnosis method, and recording medium | |
JP2018116004A (en) | Data compression apparatus, control method, program and storage medium | |
TW201836891A (en) | Vehicle-mounted device, station-side device, and calibration method | |
WO2020031898A1 (en) | Monitoring device | |
CN109658507A (en) | Information processing method and device, electronic equipment | |
JP6414954B2 (en) | Road image management system | |
JP2023111921A (en) | Information processing device | |
JP5230354B2 (en) | POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE | |
CN114694107A (en) | Image processing method and device, electronic equipment and storage medium | |
CN113874681B (en) | Evaluation method and system for point cloud map quality | |
JP6727032B2 (en) | Mobile terminal, self-position estimation system using the same, server and self-position estimation method | |
JP7399729B2 (en) | Equipment diagnosis system | |
JP2017181393A (en) | Navigation device and navigation method | |
JP5409451B2 (en) | 3D change detector | |
WO2024018726A1 (en) | Program, method, system, road map, and road map creation method | |
CN103229073A (en) | Method and apparatus for calculating position information of image | |
RU2818049C2 (en) | Method of correcting digital elevation model (embodiments) | |
JP7185786B2 (en) | Positioning system and terminal | |
JP7342499B2 (en) | tagging device |