JP2021148589A - Trolley wire inspection device and trolley wire inspection method - Google Patents

Trolley wire inspection device and trolley wire inspection method Download PDF

Info

Publication number
JP2021148589A
JP2021148589A JP2020048517A JP2020048517A JP2021148589A JP 2021148589 A JP2021148589 A JP 2021148589A JP 2020048517 A JP2020048517 A JP 2020048517A JP 2020048517 A JP2020048517 A JP 2020048517A JP 2021148589 A JP2021148589 A JP 2021148589A
Authority
JP
Japan
Prior art keywords
image
line sensor
trolley
wear
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020048517A
Other languages
Japanese (ja)
Other versions
JP7384083B2 (en
Inventor
大樹 山本
Hiroki Yamamoto
大樹 山本
匠朗 川畑
Shiro Kawabata
匠朗 川畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP2020048517A priority Critical patent/JP7384083B2/en
Publication of JP2021148589A publication Critical patent/JP2021148589A/en
Application granted granted Critical
Publication of JP7384083B2 publication Critical patent/JP7384083B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a trolley wire inspection device and a trolley wire inspection method, with which it is possible to execute inspection of trolley wires easily with good accuracy.SOLUTION: Provided is a trolley wire inspection device 20 comprising: a line sensor image generation unit 30 for arranging input images having been imaged by a line sensor 22 in order of time series and generating a line sensor image; a learning model 40 having been trained by deep learning using, as training data, the line sensor image and a correct answer value, for each pixel in the line sensor image, of whether or not the pixel corresponds to a worn region of trolley wire; a worn region extraction unit 31 for inputting the line sensor image to the learning model 40, inferring, for each pixel in the line sensor image, whether or not the pixel corresponds to the worn region, and generating a worn region extraction image in which the worn region is extracted; and a trolley wire inspection unit 32 for executing, on the basis of the worn region extraction image, one of calculation of the remaining diameter of the trolley wire, calculation of deviation, and determination of excessive wear, or a combination of some of these.SELECTED DRAWING: Figure 2

Description

本発明は、トロリ線検測装置及びトロリ線検測方法に関する。 The present invention relates to a trolley line inspection device and a trolley line inspection method.

電気鉄道車両は、線路上を走行するに際し、線路の上方に設けられたトロリ線からパンタグラフ等の集電装置を介して給電されることで、動力を得る。電気鉄道車両が通過するたびに、集電装置がトロリ線の下面に対して滑動する。このため、電気鉄道車両を継続して運用すると、トロリ線は徐々に摩耗し、最終的には破断する。したがって、トロリ線には摩耗限界が設定されており、トロリ線の残存直径が管理値を下回った場合には、トロリ線は新品に交換される。
一方、集電装置の接触部も摩耗するため、接触部が一か所に集中しないように、トロリ線はレール直角方向にジグザグに偏位させて設置しており、この偏位量も管理されている。
これらの、トロリ線の検査測定を作業員が手作業で行うには、多大な手間を要する。したがって、トロリ線の自動検測装置やシステムが、運用されている。
When traveling on a railroad track, an electric railroad vehicle obtains power by supplying power from a trolley wire provided above the railroad track via a current collector such as a pantograph. Each time an electric railroad vehicle passes, the current collector slides against the underside of the trolley wire. Therefore, if the electric railway vehicle is continuously operated, the trolley wire gradually wears and eventually breaks. Therefore, a wear limit is set for the trolley wire, and when the remaining diameter of the trolley wire falls below the control value, the trolley wire is replaced with a new one.
On the other hand, since the contact part of the current collector also wears, the trolley wire is installed in a zigzag manner in the direction perpendicular to the rail so that the contact part is not concentrated in one place, and this deviation amount is also controlled. ing.
It takes a lot of time and effort for the worker to manually perform the inspection and measurement of the trolley wire. Therefore, automatic trolley wire inspection devices and systems are in operation.

上記のような装置においては、電気鉄道車両の上方に、トロリ線の下側に位置する摩耗領域を照射する照明と、当該照明により照射された摩耗領域を撮像するラインセンサが設けられることがある。ラインセンサは、上向きに、走査線がトロリ線を横切るように設けられ、ラインセンサにより撮像された画像を時系列的に並べてラインセンサ画像が生成される。このラインセンサ画像に画像処理を適用した上で、例えばトロリ線の高さや太さ等のトロリ線の仕様に関する既知のデータを用いることで、トロリ線の偏位や残存直径が計算される。
例えば、特許文献1に、上記のような装置が開示されている。
In a device as described above, an illumination that irradiates a wear area located below the trolley line and a line sensor that images the wear area illuminated by the illumination may be provided above the electric railway vehicle. .. The line sensor is provided so that the scanning line crosses the trolley line upward, and the images captured by the line sensor are arranged in chronological order to generate the line sensor image. After applying image processing to this line sensor image, the deviation and residual diameter of the trolley wire are calculated by using known data on the specifications of the trolley wire such as the height and thickness of the trolley wire.
For example, Patent Document 1 discloses the above-mentioned device.

特許第5287177号公報Japanese Patent No. 5287177

上記のような装置においては、ラインセンサは上向きに設けられているため、ラインセンサ画像中の背景には、基本的には空が写されるが、場合によっては周囲の建築物や樹木など、空以外の物体が写り込むことがある。
また、トロリ線を撮像する時間帯に依存して、背景の輝度値が大きく変動する。例えば、晴れた昼間であれば輝度値は高くなるが、曇りであると輝度値は低くなるし、夜間やトンネル内等では輝度値は更に低下する。
In the above device, since the line sensor is provided facing upward, the sky is basically reflected in the background in the line sensor image, but in some cases, surrounding buildings, trees, etc. Objects other than the sky may be reflected.
In addition, the brightness value of the background fluctuates greatly depending on the time zone in which the trolley line is imaged. For example, in the daytime when it is sunny, the brightness value becomes high, but when it is cloudy, the brightness value becomes low, and in the nighttime or in a tunnel, the brightness value further decreases.

このように、ラインセンサ画像の背景の輝度値や、空以外の物体の写り込みの程度が、上記装置を実行させる線路区間や天候に依存して大きく異なる。
摩耗領域を正確に抽出するためには、基本的には、このような背景の影響を考慮し、処理対象となる画像に適した画像処理アルゴリズムやパラメータを、適宜選択するのが望ましい。
しかし、作業員が画像を都度確認して、これに適する画像処理アルゴリズムやパラメータを選択するのは、大きな工数を要する。
トロリ線を、容易に、かつ撮像環境の影響を低減して精度よく検測することが望まれている。
As described above, the brightness value of the background of the line sensor image and the degree of reflection of an object other than the sky greatly differ depending on the track section on which the device is executed and the weather.
In order to accurately extract the wear area, it is basically desirable to appropriately select an image processing algorithm and parameters suitable for the image to be processed in consideration of the influence of such a background.
However, it takes a lot of man-hours for the worker to check the image each time and select an image processing algorithm or parameter suitable for the image.
It is desired to inspect the trolley wire easily and accurately by reducing the influence of the imaging environment.

本発明が解決しようとする課題は、ラインセンサにより撮像された画像を基にトロリ線を検測するに際し、検測を容易に、かつ撮像環境の影響を低減して精度よく実行可能な、トロリ線検測装置及びトロリ線検測方法を提供することである。 The problem to be solved by the present invention is that when the trolley line is inspected based on the image captured by the line sensor, the inspection can be easily performed and the influence of the imaging environment can be reduced and the trolley can be accurately executed. It is to provide a line inspection device and a trolley line inspection method.

本発明は、上記課題を解決するため、以下の手段を採用する。すなわち、本発明は、トロリ線を撮像するラインセンサを備え、当該ラインセンサにより撮像された画像を入力画像としてこれを基に前記トロリ線を検測する、トロリ線検測装置であって、前記入力画像を時系列的に並べてラインセンサ画像を生成する、ラインセンサ画像生成部と、前記ラインセンサ画像と、当該ラインセンサ画像内の各画素に対する、当該画素が前記トロリ線の摩耗領域に該当するか否かの正解値とを学習データとして、セマンティックセグメンテーションにより深層学習された学習モデルと、当該学習モデルに対し、前記ラインセンサ画像を入力し、当該ラインセンサ画像内の各画素に対して、当該画素が前記摩耗領域に該当するか否かを推論し、前記摩耗領域を抽出した摩耗領域抽出画像を生成する、摩耗領域抽出部と、当該摩耗領域抽出画像を基に、前記トロリ線の残存直径の算出、偏位の算出、過剰摩耗の判定のいずれかまたはいずれかの組み合わせを実行する、トロリ線検測部と、を備える、トロリ線検測装置を提供する。 The present invention employs the following means in order to solve the above problems. That is, the present invention is a trolley line inspection device comprising a line sensor that captures a trolley line and inspecting the trolley line based on an image captured by the line sensor as an input image. For each pixel in the line sensor image generator, the line sensor image, and the line sensor image, which generates a line sensor image by arranging the input images in chronological order, the pixel corresponds to the wear region of the trolley line. The line sensor image is input to the training model deeply trained by semantic segmentation and the training model using the correct answer value of whether or not to be training data, and the line sensor image is input to each pixel in the line sensor image. The residual diameter of the trolley wire is based on the wear region extraction unit that infers whether or not the pixel corresponds to the wear region and generates a wear region extract image that extracts the wear region, and the wear region extract image. Provided is a trolley line inspection device including a trolley line inspection unit that executes any or a combination of calculation, deviation calculation, and determination of excess wear.

また、本発明は、トロリ線を撮像するラインセンサにより撮像された画像を入力画像としてこれを基に前記トロリ線を検測する、トロリ線検測方法であって、前記入力画像を時系列的に並べてラインセンサ画像を生成し、前記ラインセンサ画像と、当該ラインセンサ画像内の各画素に対する、当該画素が前記トロリ線の摩耗領域に該当するか否かの正解値とを学習データとして、セマンティックセグメンテーションにより深層学習された学習モデルに対し、前記ラインセンサ画像を入力し、当該ラインセンサ画像内の各画素に対して、当該画素が前記摩耗領域に該当するか否かを推論し、前記摩耗領域を抽出した摩耗領域抽出画像を生成し、当該摩耗領域抽出画像を基に、前記トロリ線の残存直径の算出、偏位の算出、過剰摩耗の判定のいずれかまたはいずれかの組み合わせを実行する、トロリ線検測方法を提供する。 Further, the present invention is a trolley line inspection method in which an image captured by a line sensor that captures a trolley line is used as an input image and the trolley line is inspected based on the input image, and the input image is time-series. A line sensor image is generated by arranging them side by side, and the line sensor image and the correct answer value for each pixel in the line sensor image as to whether or not the pixel corresponds to the wear region of the trolley wire are used as learning data and semantically. The line sensor image is input to the learning model deeply trained by segmentation, and for each pixel in the line sensor image, it is inferred whether or not the pixel corresponds to the wear region, and the wear region. A wear region extract image is generated, and based on the wear region extract image, any one or a combination of calculation of the residual diameter of the trolley wire, calculation of deviation, and determination of excess wear is executed. A trolley line inspection method is provided.

本発明によれば、ラインセンサにより撮像された画像を基にトロリ線を検測するに際し、検測を容易に、かつ撮像環境の影響を低減して精度よく実行可能な、トロリ線検測装置及びトロリ線検測方法を提供することができる。 According to the present invention, when inspecting a trolley line based on an image captured by a line sensor, the trolley line inspection device can easily perform the inspection and can accurately execute the inspection by reducing the influence of the imaging environment. And a trolley line inspection method can be provided.

本発明の実施形態におけるトロリ線検測装置が搭載された電気鉄道車両の走行環境を示す説明図である。It is explanatory drawing which shows the traveling environment of the electric railroad vehicle equipped with the tram line inspection apparatus in embodiment of this invention. 上記トロリ線検測装置のブロック図である。It is a block diagram of the said trolley line inspection apparatus. 上記トロリ線検測装置のラインセンサにより撮像された画像を基に生成された、ラインセンサ画像の例である。This is an example of a line sensor image generated based on an image captured by the line sensor of the trolley line inspection device. 上記トロリ線検測装置の、学習モデルの学習時に使用される教師画像の説明図である。It is explanatory drawing of the teacher image used at the time of learning of the learning model of the said tram line inspection apparatus. 上記学習モデルのブロック図である。It is a block diagram of the said learning model. 上記トロリ線検測装置の、トロリ線偏位算出部の説明図である。It is explanatory drawing of the trolley line deviation calculation part of the said trolley line inspection apparatus. 上記トロリ線検測装置の、トロリ線残存直径算出部の説明図である。It is explanatory drawing of the trolley line residual diameter calculation part of the said trolley line inspection apparatus. 上記トロリ線検測装置を用いて動作される、トロリ線検測方法のフローチャートである。It is a flowchart of the trolley line inspection method operated by using the said trolley line inspection apparatus. 上記実施形態の第1変形例に関するトロリ線検測装置のブロック図である。It is a block diagram of the trolley line inspection apparatus which concerns on the 1st modification of the said embodiment. 上記第1変形例に関するトロリ線検測装置において、二値化処理後の画像の説明図である。It is explanatory drawing of the image after the binarization processing in the trolley line inspection apparatus which concerns on the said 1st modification. 上記第1変形例に関するトロリ線検測装置において、二値化処理後の画像において領域選択を行った状態の説明図である。It is explanatory drawing of the state which the area was selected in the image after the binarization processing in the tram line inspection apparatus which concerns on the 1st modification. 上記第1変形例に関するトロリ線検測装置において、選択された領域をラインセンサ画像に適用した状態の説明図である。It is explanatory drawing of the state which applied the selected area to the line sensor image in the trolley line inspection apparatus which concerns on the 1st modification. 上記第1変形例に関するトロリ線検測装置において、選択された領域でラインセンサ画像を切り出した状態の説明図である。It is explanatory drawing of the state which cut out the line sensor image in the selected area in the trolley line inspection apparatus which concerns on the 1st modification. 上記第1変形例に関するトロリ線検測装置を用いて動作される、トロリ線検測方法のフローチャートである。It is a flowchart of the trolley line inspection method operated by using the trolley line inspection apparatus which concerns on the 1st modification. 上記実施形態の第2変形例に関するトロリ線検測装置のブロック図である。It is a block diagram of the trolley line inspection apparatus which concerns on the 2nd modification of the said embodiment. 上記第2変形例に関するトロリ線検測装置において、学習モデルによって出力された画像の説明図である。It is explanatory drawing of the image output by the learning model in the trolley line inspection apparatus which concerns on the said 2nd modification. 上記第2変形例に関するトロリ線検測装置を用いて動作される、トロリ線検測方法のフローチャートである。It is a flowchart of the trolley line inspection method operated by using the trolley line inspection apparatus which concerns on the 2nd modification.

以下、本発明の実施形態について図面を参照して詳細に説明する。
図1は、本実施形態におけるトロリ線検測装置20が搭載された、トロリ線の検測を行う検査車両1の走行環境を示す説明図である。
検査車両1は、地面に敷設された一対の線路2上を走行する。線路2の側には、線路2に沿って間隔をおいて、複数の電柱3が立設されている。電柱3にはビーム5や曲引き金具6が設けられている。ビーム5の上方には、検査車両1に電力を供給するための電力線であるき電線4が、線路2の延びる方向Rに沿って延在し、ビーム5に支持されて設けられている。ビーム5や曲引き金具6の下側には、同様に線路2の延びる方向Rに沿って延在するように、次に説明するトロリ線9を吊架する吊架線7が、ビーム5や曲引き金具6に支持されて設けられている。吊架線7には、線路2の延びる方向Rに略一定の間隔をおいて、複数のハンガ8が吊架されて設けられている。
トロリ線9は、これら複数のハンガ8に、一定の張力を有するように吊架されて、吊架線7の下側に、吊架線7と略平行となるように設けられている。トロリ線9には、図示されないき電分岐線によって、き電線4から電力が供給される。
検査車両1の上面1aには、パンタグラフ等の集電装置1bが設けられており、検査車両1が走行中に集電装置1bがトロリ線9に接触することで、トロリ線9から検査車両1に電力が供給される。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is an explanatory diagram showing a running environment of an inspection vehicle 1 that inspects a trolley line and is equipped with the trolley line inspection device 20 according to the present embodiment.
The inspection vehicle 1 travels on a pair of railroad tracks 2 laid on the ground. On the side of the track 2, a plurality of utility poles 3 are erected at intervals along the track 2. A beam 5 and a bending metal fitting 6 are provided on the utility pole 3. Above the beam 5, a power line 4 for supplying electric power to the inspection vehicle 1 extends along the extending direction R of the line 2 and is supported by the beam 5. On the lower side of the beam 5 and the bending metal fitting 6, the hanging wire 7 for suspending the trolley wire 9 described below extends along the extending direction R of the track 2 as well as the beam 5 and the bending wire 7. It is provided by being supported by the pull metal fitting 6. A plurality of hangers 8 are suspended from the suspension line 7 at a substantially constant interval in the extending direction R of the line 2.
The trolley wire 9 is suspended from the plurality of hangers 8 so as to have a constant tension, and is provided below the suspension wire 7 so as to be substantially parallel to the suspension wire 7. Electric power is supplied to the trolley wire 9 from the feeder wire 4 by a feeder branch line (not shown).
A current collector 1b such as a pantograph is provided on the upper surface 1a of the inspection vehicle 1. When the current collector 1b comes into contact with the trolley wire 9 while the inspection vehicle 1 is traveling, the trolley wire 9 to the inspection vehicle 1 Is supplied with power.

トロリ線9が線路2と、平面視したときに平行に設けられていると、集電装置1bのトロリ線9と接する部分が限定されるため、集電装置1bの限られた部分が偏って摩耗し損傷するおそれがある。これを防ぐため、トロリ線9は線路2の延びる方向Rに沿って、緩やかにジグザグに蛇行するように設けられている。トロリ線9においては、この蛇行により生じる、一対の線路2間の中心に対するトロリ線9の左右の偏りである偏位が、厳重に管理されている。 If the trolley wire 9 is provided parallel to the line 2 when viewed in a plan view, the portion of the current collector 1b in contact with the trolley wire 9 is limited, so that the limited portion of the current collector 1b is biased. It may be worn and damaged. In order to prevent this, the trolley wire 9 is provided so as to gently meander in a zigzag along the extending direction R of the track 2. In the trolley wire 9, the deviation caused by this meandering, which is the left-right deviation of the trolley wire 9 with respect to the center between the pair of lines 2, is strictly controlled.

検査車両1をはじめとした電気鉄道車両が通過するたびに、集電装置1bがトロリ線9の下面に対して滑動する。このため、電気鉄道車両を継続して運用すると、トロリ線9は徐々に摩耗し、最終的には破断する。したがって、トロリ線9には摩耗限界が設定されており、トロリ線9の残存直径が管理値を下回った場合には、トロリ線9は新品に交換される。
本実施形態におけるトロリ線検測装置20は、トロリ線9の残存直径や偏位を測定することで、トロリ線9を検測する。
図2は、トロリ線検測装置20のブロック図である。図1、図2に示されるように、トロリ線検測装置20は、照明21、ラインセンサ22、及び制御装置23を備えている。
Every time an electric railway vehicle such as the inspection vehicle 1 passes, the current collector 1b slides with respect to the lower surface of the trolley wire 9. Therefore, when the electric railway vehicle is continuously operated, the trolley wire 9 gradually wears and eventually breaks. Therefore, a wear limit is set for the trolley wire 9, and when the remaining diameter of the trolley wire 9 falls below the control value, the trolley wire 9 is replaced with a new one.
The trolley wire inspection device 20 in the present embodiment inspects the trolley wire 9 by measuring the residual diameter and deviation of the trolley wire 9.
FIG. 2 is a block diagram of the trolley line inspection device 20. As shown in FIGS. 1 and 2, the trolley line inspection device 20 includes an illumination 21, a line sensor 22, and a control device 23.

照明21は、検査車両1の上面1aに、光を上方に向けて照射するように設けられている。次に説明するラインセンサ22によってトロリ線9を撮像した際に、トロリ線9の下側の、集電装置1bが滑動することによりトロリ線9が摩耗して平面状に形成された摩耗領域が、照明21の光を反射することにより、明るい領域として表示されるように撮像される。 The illumination 21 is provided so as to irradiate the upper surface 1a of the inspection vehicle 1 with light upward. When the trolley wire 9 is imaged by the line sensor 22 described below, the wear region formed in a flat shape due to the wear of the trolley wire 9 due to the sliding of the current collector 1b under the trolley wire 9 is formed. By reflecting the light of the illumination 21, the image is taken so as to be displayed as a bright region.

ラインセンサ22は、照明21と同様に、検査車両1の上面1aに設けられている。ラインセンサ22は、縦方向に1画素、横方向に複数の、例えば8192画素の画素数で構成される画像を撮像するカメラである。本実施形態においては、ラインセンサ22は、グレースケールの画像を撮像するため、各画素は1つの輝度値を有している。
ラインセンサ22は、鉛直方向上向きに、かつ走査線22aの方向22bが線路2の延びる方向Rに直交して、図示されない枕木の延在する方向と同一となるように設けられている。これにより、ラインセンサ22の走査線22aがトロリ線9を横切るようになっている。
ラインセンサ22は、検査車両1の走行中に、短い時間間隔をおいて連続的に、トロリ線9を撮像する。ラインセンサ22により撮像された画像は、入力画像として、制御装置23に送信される。
The line sensor 22 is provided on the upper surface 1a of the inspection vehicle 1 like the lighting 21. The line sensor 22 is a camera that captures an image composed of one pixel in the vertical direction and a plurality of pixels in the horizontal direction, for example, 8192 pixels. In the present embodiment, since the line sensor 22 captures a grayscale image, each pixel has one luminance value.
The line sensor 22 is provided so as to be upward in the vertical direction and so that the direction 22b of the scanning line 22a is orthogonal to the extending direction R of the line 2 and is the same as the extending direction of the sleepers (not shown). As a result, the scanning line 22a of the line sensor 22 crosses the trolley line 9.
The line sensor 22 continuously images the trolley line 9 at short time intervals while the inspection vehicle 1 is traveling. The image captured by the line sensor 22 is transmitted to the control device 23 as an input image.

制御装置23は、例えばパーソナルコンピュータ等の情報処理装置である。制御装置23は、検査車両1に搭載されている。
検査車両1は、ラインセンサ画像生成部30、摩耗領域抽出部31、及びトロリ線検測部32を備えている。摩耗領域抽出部31は、学習部35と補間処理部37を備えている。学習部35は、後に説明する学習モデル40と、学習データ記憶部36を備えている。トロリ線検測部32は、トロリ線偏位算出部38とトロリ線残存直径算出部39を備えている。
これら制御装置23の構成要素のうち、学習データ記憶部36以外は、例えば上記の各情報処理装置内のCPUにより実行されるソフトウェア、プログラムであってよい。また、学習データ記憶部36は、上記各情報処理装置内外に設けられた半導体メモリや磁気ディスクなどの記憶装置により実現されていてよい。
The control device 23 is an information processing device such as a personal computer. The control device 23 is mounted on the inspection vehicle 1.
The inspection vehicle 1 includes a line sensor image generation unit 30, a wear area extraction unit 31, and a trolley line inspection unit 32. The wear region extraction unit 31 includes a learning unit 35 and an interpolation processing unit 37. The learning unit 35 includes a learning model 40, which will be described later, and a learning data storage unit 36. The trolley line inspection unit 32 includes a trolley line deviation calculation unit 38 and a trolley line residual diameter calculation unit 39.
Of the components of the control device 23, other than the learning data storage unit 36, for example, software or a program executed by the CPU in each of the above-mentioned information processing devices may be used. Further, the learning data storage unit 36 may be realized by a storage device such as a semiconductor memory or a magnetic disk provided inside or outside each of the information processing devices.

ラインセンサ画像生成部30は、ラインセンサ22から入力画像を受信し、これを縦方向に時系列的に、例えば1000ラインを並べた整列画像を生成し、これをラインセンサ画像とする。
図3は、ラインセンサ画像50の説明図である。ラインセンサ画像50において、横方向Xは、ラインセンサ22の走査線22aの方向22bであり、縦方向Yは、時系列の方向、すなわち入力画像が並べられる方向である。
The line sensor image generation unit 30 receives an input image from the line sensor 22, generates an aligned image in which 1000 lines are arranged in a time series in the vertical direction, and uses this as a line sensor image.
FIG. 3 is an explanatory diagram of the line sensor image 50. In the line sensor image 50, the horizontal direction X is the direction 22b of the scanning line 22a of the line sensor 22, and the vertical direction Y is the time series direction, that is, the direction in which the input images are arranged.

図3に示されるラインセンサ画像50には、最も手前に、トロリ線9が撮像されている。トロリ線9は新品の状態においては略円形の断面を有しており、その下側が集電装置1bの滑動によって削られて、平面状の摩耗領域9aとなっている。摩耗領域9aには、照明21により光が照射されるため、明るく撮像されている。トロリ線9の、摩耗領域9aの両側には、摩耗領域9aの幅方向端部から外側へと湾曲しながら上方へと続くトロリ線9の表面が、側面領域9bとして撮像されている。すなわち、この側面領域9bは、トロリ線9の、集電装置1bが滑動、摺動しない、非摺動面である。図3のラインセンサ画像50においては、トロリ線9が曲引き金具6により屈曲する部分が撮像されている。
トロリ線9の奥には、吊架線7が撮像されている。吊架線7のさらに奥には、き電線4と、これらを支持するビーム5、曲引き金具6が撮像されている。ビーム5と曲引き金具6は、ラインセンサ22の撮像間隔の影響で、実際よりも細く撮像されている。
トロリ線9、吊架線7、き電線4、ビーム5、及び曲引き金具6の背景として、空10が撮像されている。
In the line sensor image 50 shown in FIG. 3, the trolley line 9 is imaged in the foreground. The trolley wire 9 has a substantially circular cross section in a new state, and the lower side thereof is scraped by the sliding of the current collector 1b to form a flat wear region 9a. Since the wear region 9a is irradiated with light by the illumination 21, the image is brightly captured. On both sides of the wear region 9a of the trolley wire 9, the surface of the trolley wire 9 that continues upward while curving outward from the widthwise end of the wear region 9a is imaged as a side surface region 9b. That is, the side surface region 9b is a non-sliding surface of the trolley wire 9 where the current collector 1b does not slide or slide. In the line sensor image 50 of FIG. 3, the portion where the trolley wire 9 is bent by the bending metal fitting 6 is imaged.
Behind the trolley wire 9, the suspension wire 7 is imaged. Further behind the suspension wire 7, a wire wire 4, a beam 5 supporting the electric wire 4, and a bending metal fitting 6 are imaged. The beam 5 and the bending metal fitting 6 are imaged thinner than they actually are due to the influence of the imaging interval of the line sensor 22.
The sky 10 is imaged as the background of the trolley wire 9, the suspension wire 7, the electric wire 4, the beam 5, and the bending metal fitting 6.

ラインセンサ画像生成部30は、このような整列画像であるラインセンサ画像50を生成し、摩耗領域抽出部31へと送信する。 The line sensor image generation unit 30 generates a line sensor image 50 which is such an aligned image and transmits it to the wear region extraction unit 31.

摩耗領域抽出部31の学習部35は、ラインセンサ画像50を受信し、ラインセンサ画像50内の各画素に対して、当該画素が摩耗領域9aに該当するか否かを推論し、摩耗領域9aを抽出する。この推論を効果的に行うために、学習部35は機械学習器を備えており、この機械学習器を深層学習して学習モデル40を生成する。学習部35は、実際に摩耗領域9aを抽出する処理を行う際には、この学習が完了した学習モデル40を使用して、入力されたラインセンサ画像50内の各画素に対して、当該画素が摩耗領域9aに該当するか否かを推論する。
すなわち、機械学習器は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される、適切な学習パラメータが学習された学習モデル40を生成するものである。
以下、説明を簡単にするため、学習部35が備えている機械学習器と、これが学習されて生成される学習モデルをともに、同じ符号を付して、学習モデル40と呼称する。
The learning unit 35 of the wear region extraction unit 31 receives the line sensor image 50, infers whether or not the pixel corresponds to the wear region 9a for each pixel in the line sensor image 50, and determines whether or not the pixel corresponds to the wear region 9a. Is extracted. In order to effectively perform this inference, the learning unit 35 is provided with a machine learning device, and the machine learning device is deeply trained to generate a learning model 40. When the learning unit 35 actually performs the process of extracting the wear region 9a, the learning model 40 using the learning model 40 for which the learning is completed is used for each pixel in the input line sensor image 50. It is inferred whether or not corresponds to the wear region 9a.
That is, the machine learning device generates a learning model 40 in which appropriate learning parameters are learned, which is used as a program module that is a part of artificial intelligence software.
Hereinafter, for the sake of simplicity, both the machine learning device included in the learning unit 35 and the learning model generated by learning the machine learning device are referred to as the learning model 40 with the same reference numerals.

学習モデル40の学習前の時点において、学習データ記憶部36には、多くのラインセンサ画像50が、学習データとして格納されている。
学習データ記憶部36に保存された各ラインセンサ画像50は、この学習モデル40の深層学習における、入力画像として使用される。学習モデル40が、入力されたラインセンサ画像50に対して深層学習するためには、深層学習の目標となる、ラインセンサ画像50に対応する教師データが必要である。
At the time before learning of the learning model 40, many line sensor images 50 are stored as learning data in the learning data storage unit 36.
Each line sensor image 50 stored in the learning data storage unit 36 is used as an input image in the deep learning of the learning model 40. In order for the learning model 40 to perform deep learning on the input line sensor image 50, teacher data corresponding to the line sensor image 50, which is the target of deep learning, is required.

各ラインセンサ画像50に対応する教師データは、ラインセンサ画像50内の各画素に対する、当該画素が摩耗領域9aに該当するか否かの正解値である。より詳細には、正解値は、学習画像45内の各画素に対応して表示される物が、摩耗領域9aか、またはそれ以外のものであるかとして大別される分類区分のいずれに該当するかを示すものである。
特に本実施形態においては、各画素に対して、当該画素が摩耗領域9aに該当するか否かを示す値である摩耗領域値、及び当該画素が摩耗領域9a以外のものに該当するか否かを示す値である背景値の、2つの値の組み合わせが正解値となる。摩耗領域値、背景値には、画素が分類区分内の各要素に該当する場合には例えば1が、該当しない場合には例えば0が、設定される。したがって、各画素に対して、各要素が0または1の、摩耗領域値、背景値の組み合わせである(摩耗領域値、背景値)が正解値となる。
例えば、図3において摩耗領域9aに該当する画素の正解値は、(1、0)となり得る。摩耗領域9a以外に該当する画素の正解値は、(0、1)となり得る。
The teacher data corresponding to each line sensor image 50 is a correct answer value for each pixel in the line sensor image 50 whether or not the pixel corresponds to the wear region 9a. More specifically, the correct answer value corresponds to either of the classification categories in which the object displayed corresponding to each pixel in the learning image 45 is roughly classified as the wear region 9a or other than that. It indicates whether to do it.
In particular, in the present embodiment, for each pixel, the wear area value which is a value indicating whether or not the pixel corresponds to the wear area 9a, and whether or not the pixel corresponds to something other than the wear area 9a. The combination of the two values of the background value, which is the value indicating, is the correct answer value. The wear area value and the background value are set to, for example, 1 when the pixel corresponds to each element in the classification category, and 0, for example, when the pixel does not correspond to each element. Therefore, for each pixel, a combination of a wear region value and a background value in which each element is 0 or 1 (wear region value, background value) is the correct answer value.
For example, in FIG. 3, the correct answer value of the pixel corresponding to the wear region 9a can be (1, 0). The correct answer value of the pixel corresponding to the area other than the wear region 9a can be (0, 1).

各分類区分に固有の色を対応づけた際に、各画素を、対応する正解値が該当する分類区分の色で着色した画像を、以下、教師画像と呼称する。すなわち、教師画像は、ラインセンサ画像50と同等の解像度を備えており、各画素は、ラインセンサ画像50において当該画素に対応する画素に表示される物体が該当する分類区分に対応した色を有している。
図4は、教師画像51の説明図である。ラインセンサ画像50の、摩耗領域9aに相当する領域は白く、及び摩耗領域9a以外に相当する背景領域11は黒く、それぞれ着色されている。
教師画像51は、ラインセンサ画像50に対応付けられて、ラインセンサ画像50とあわせて学習データとして、学習データ記憶部36に保存されている。
An image in which each pixel is colored with the color of the classification category to which the corresponding correct answer value corresponds when the unique color is associated with each classification category is hereinafter referred to as a teacher image. That is, the teacher image has the same resolution as the line sensor image 50, and each pixel has a color corresponding to the classification category in which the object displayed in the pixel corresponding to the pixel in the line sensor image 50 corresponds to the corresponding classification. doing.
FIG. 4 is an explanatory diagram of the teacher image 51. In the line sensor image 50, the region corresponding to the wear region 9a is white, and the background region 11 other than the wear region 9a is black, and each is colored.
The teacher image 51 is associated with the line sensor image 50 and is stored in the learning data storage unit 36 as learning data together with the line sensor image 50.

学習部35の学習モデル40は、上記のような学習データにより深層学習される。図5は、学習モデル40の模式的なブロック図である。本実施形態においては、学習モデル43は、全層畳み込みネットワークにより実現されて、セマンティックセグメンテーションにより、入力された画像内の各画素が異常に該当するか否かを推論するように、学習されている。
学習モデル40は、複数の畳み込み層41a、41b、41cを備えた畳み込み処理部41と、複数の逆畳み込み層42c、42b、42aを備えた逆畳み込み処理部42を備えている。
The learning model 40 of the learning unit 35 is deep-learned by the learning data as described above. FIG. 5 is a schematic block diagram of the learning model 40. In the present embodiment, the learning model 43 is realized by a full-layer convolutional network, and is trained by semantic segmentation to infer whether or not each pixel in the input image corresponds abnormally. ..
The learning model 40 includes a convolution processing unit 41 having a plurality of convolution layers 41a, 41b, 41c, and a deconvolution processing unit 42 having a plurality of deconvolution layers 42c, 42b, 42a.

摩耗領域抽出部31は、学習データ記憶部36からラインセンサ画像50を取得し、初段の畳み込み層41aへと入力する。
畳み込み層41aは、図示されない所定の数のフィルタを備えている。学習モデル40は、これらのフィルタを用いて畳み込みフィルタ処理を実行し、フィルタの数に応じた特徴マップを生成する。
畳み込み層41aにおいて生成された特徴マップは、次段の畳み込み層41bの入力画像となる。
畳み込み層41b、41cにおいても同様に畳み込みフィルタ処理が実行され、特徴マップが生成される。畳み込み層41cにおいて生成された特徴マップは、逆畳み込み処理部42の逆畳み込み層42cへの入力となる。
The wear area extraction unit 31 acquires the line sensor image 50 from the learning data storage unit 36 and inputs it to the convolution layer 41a of the first stage.
The convolution layer 41a includes a predetermined number of filters (not shown). The learning model 40 executes a convolution filter process using these filters, and generates a feature map according to the number of filters.
The feature map generated in the convolution layer 41a becomes an input image of the convolution layer 41b in the next stage.
Similarly, the convolution filter processing is executed in the convolution layers 41b and 41c, and the feature map is generated. The feature map generated in the convolution layer 41c serves as an input to the deconvolution layer 42c of the deconvolution processing unit 42.

逆畳み込み処理部42は、畳み込み処理部41と対称的な構造となっている。すなわち、ラインセンサ画像50は畳み込み処理部41により低次元に圧縮されたが、逆畳み込み処理部42においては、低次元に圧縮された状態から拡大し、復元されるように動作する。より詳細には、畳み込み層41cに対応する逆畳み込み処理を実行する逆畳み込み層42c、畳み込み層41bに対応する逆畳み込み処理を実行する逆畳み込み層42b、及び畳み込み層41aに対応する逆畳み込み処理を実行する逆畳み込み層42aを順に経ることで、出力データが生成される。 The deconvolution processing unit 42 has a structure symmetrical to that of the convolution processing unit 41. That is, the line sensor image 50 is compressed to a low dimension by the convolution processing unit 41, but the deconvolution processing unit 42 operates so as to expand and restore the compressed state from the low dimension. More specifically, the deconvolution layer 42c that executes the deconvolution process corresponding to the convolution layer 41c, the deconvolution layer 42b that executes the deconvolution process corresponding to the convolution layer 41b, and the deconvolution process corresponding to the convolution layer 41a are performed. Output data is generated by sequentially passing through the deconvolution layer 42a to be executed.

学習モデル40は、出力データとして、教師データと同様な要領で、ラインセンサ画像50内の各画素が分類区分の各々に該当し得る確率を出力する。例えば、ある画素に対し、当該画素が摩耗領域9aに該当する確率が0.8、摩耗領域9a以外に該当する確率が0.2であると、学習モデル40が推論した場合、当該画素に対して(0.8、0.2)の値の組み合わせが出力される。
出力データに基づき、図4に示される教師画像51と同様に表現した画像を、以下、推論結果画像52と呼称する。すなわち、推論結果画像52は、推論結果の各々に関する情報を、これに対応する画素の位置に、色として反映して配置した画像であり、図4に示されるように、各画素が、当該画素に対応する出力値に含まれる複数の確率値の中で、最も高い値の確率に対応する分類区分に対応した色を有するようになっている。
The learning model 40 outputs, as output data, the probability that each pixel in the line sensor image 50 can correspond to each of the classification categories in the same manner as the teacher data. For example, when the learning model 40 infers that the probability that the pixel corresponds to the wear region 9a is 0.8 and the probability that the pixel corresponds to other than the wear region 9a is 0.2 for a certain pixel, the pixel is The combination of values (0.8, 0.2) is output.
An image expressed in the same manner as the teacher image 51 shown in FIG. 4 based on the output data is hereinafter referred to as an inference result image 52. That is, the inference result image 52 is an image in which information about each of the inference results is reflected as a color at the position of the corresponding pixel, and as shown in FIG. 4, each pixel is the pixel. Among the plurality of probability values included in the output value corresponding to, the color corresponding to the classification category corresponding to the probability of the highest value is obtained.

上記のように各畳み込み層41a、41b、41cの各々において生成された特徴マップは、画像内の物体の位置のずれや大きさの違いの影響を受けにくいものとなっている。換言すれば、畳み込み処理部41により生成された特徴マップにおいては、物体の位置に関する情報の多くが失われている。
ここで、各逆畳み込み層42c、42b、42aにおいては、上記のように対応する畳み込み層41c、41b、41aに対応する処理を実行するとともに、各畳み込み層41c、41b、41aにおける処理データを使用することによって、各畳み込み層41a、41b、41cにおいて失われた位置情報を補完している。これにより、逆畳み込み処理部42から出力された推論結果画像52は、位置情報が画素単位で復元されたものとなっている。
As described above, the feature maps generated in each of the convolution layers 41a, 41b, and 41c are not easily affected by the displacement of the position of the object in the image and the difference in size. In other words, much of the information about the position of the object is lost in the feature map generated by the convolution processing unit 41.
Here, in each of the deconvolution layers 42c, 42b, 42a, the processing corresponding to the corresponding convolution layers 41c, 41b, 41a is executed as described above, and the processing data in the respective convolution layers 41c, 41b, 41a is used. By doing so, the position information lost in each of the convolution layers 41a, 41b, and 41c is complemented. As a result, the inference result image 52 output from the deconvolution processing unit 42 has the position information restored in pixel units.

学習モデル40では、推論結果画像52における各画素に関する推論結果が、入力されたラインセンサ画像50に対応する教師データの正解値に近い値となるように、機械学習が行われる。このために、学習部35は、入力されたラインセンサ画像50に対応する教師画像51を学習データ記憶部36から取得し、教師画像51内の正解値と推論結果画像52の値を画素単位で比較して、例えば各画素間のこれらの差分の2乗誤差をコスト関数として計算する。
その上で、このコスト関数を小さくするように、誤差逆伝搬法等により、各フィルタの重みの値等を調整することで、学習モデル40が機械学習される。
結果として、例えば、図3において摩耗領域9aに該当する画素の、教師画像51上での正解値は(1、0)であるため、出力データの当該画素に対応する出力値としては、1番目の摩耗領域9aに該当する確率値が他よりも1に近く、他の確率値が1番目の確率値よりも0に近い値の組み合わせとなり得る。
このように、学習が終了した学習モデル40は、何らかの画像が入力画像として入力された際に、入力画像内の各画素に対し、当該画素が分類区分の各々に該当し得る確率を出力する。
In the learning model 40, machine learning is performed so that the inference result for each pixel in the inference result image 52 is close to the correct answer value of the teacher data corresponding to the input line sensor image 50. For this purpose, the learning unit 35 acquires the teacher image 51 corresponding to the input line sensor image 50 from the learning data storage unit 36, and obtains the correct answer value in the teacher image 51 and the value of the inference result image 52 in pixel units. By comparison, for example, the squared error of these differences between each pixel is calculated as a cost function.
Then, the learning model 40 is machine-learned by adjusting the weight value of each filter by the error back propagation method or the like so as to reduce the cost function.
As a result, for example, in FIG. 3, the correct answer value of the pixel corresponding to the wear region 9a on the teacher image 51 is (1, 0), so that it is the first output value of the output data corresponding to the pixel. The probability value corresponding to the wear region 9a of is closer to 1 than the others, and the other probability values can be a combination of values closer to 0 than the first probability value.
In this way, when some image is input as an input image, the learning model 40 that has completed learning outputs the probability that the pixel can correspond to each of the classification categories for each pixel in the input image.

実際にトロリ線9を検測する際には、摩耗領域抽出部31は、上記のように機械学習された学習モデル40に対し、ラインセンサ画像生成部30によって生成されたラインセンサ画像50を入力し、推論結果画像52を生成する。
補間処理部37は、推論結果画像52に対し、画像を縦方向Yに膨張、収縮させることで、縦方向Yに近接して分断されて表されている摩耗領域9aをつなぎ合わせる、クロージング処理を実行する。
このようにして、摩耗領域抽出部31は、ラインセンサ画像50を基に、摩耗領域9aが抽出された摩耗領域抽出画像を生成し、トロリ線検測部32に送信する。
When actually inspecting the trolley wire 9, the wear region extraction unit 31 inputs the line sensor image 50 generated by the line sensor image generation unit 30 to the learning model 40 machine-learned as described above. Then, the inference result image 52 is generated.
The interpolation processing unit 37 performs a closing process on the inference result image 52 by expanding and contracting the image in the vertical direction Y to connect the wear regions 9a represented by being divided close to the vertical direction Y. Run.
In this way, the wear region extraction unit 31 generates a wear region extraction image from which the wear region 9a is extracted based on the line sensor image 50, and transmits the wear region extraction unit 31 to the trolley line inspection unit 32.

トロリ線検測部32のトロリ線偏位算出部38は、摩耗領域抽出画像を受信し、これを基に、トロリ線9の偏位を計算する。図6は、偏位の算出原理の説明図である。
トロリ線偏位算出部38は、摩耗領域9aの重心座標d(単位:画素)を計算する。トロリ線偏位算出部38は、この重心座標と、事前に設定されたパラメータである、線路2からラインセンサ22のセンサ面22cまでの距離hs(mm)、ラインセンサ22のレンズの焦点距離f(mm)、ラインセンサ22のセンサ面22cの長さs(mm)、ラインセンサ22の画素数p(画素)、及び、本トロリ線検測装置20以外の他の測定装置により計算された、線路2からトロリ線9までの距離h(mm)を用いて、偏位D(単位:mm)を、次式により計算する。

Figure 2021148589
The trolley line deviation calculation unit 38 of the trolley line inspection unit 32 receives the wear region extraction image, and calculates the deviation of the trolley line 9 based on the wear region extraction image. FIG. 6 is an explanatory diagram of the deviation calculation principle.
The trolley line deviation calculation unit 38 calculates the coordinates d (unit: pixel) of the center of gravity of the wear region 9a. The trolley line deviation calculation unit 38 has the coordinates of the center of gravity, the distance hs (mm) from the line 2 to the sensor surface 22c of the line sensor 22, and the focal distance f of the lens of the line sensor 22, which are preset parameters. (Mm), the length s (mm) of the sensor surface 22c of the line sensor 22, the number of pixels p (pixels) of the line sensor 22, and calculated by a measuring device other than the trolley line inspection device 20. Using the distance h (mm) from the line 2 to the trolley line 9, the deviation D (unit: mm) is calculated by the following equation.
Figure 2021148589

トロリ線偏位算出部38は、上記のようにトロリ線9の偏位を計算し、トロリ線9が、摩耗領域抽出画像に対応する実際の場所において許容される偏位の範囲内に位置しているか否かを判定する。
トロリ線9が許容される偏位の範囲内に位置していない場合は異常であると判断し、記録する。
The trolley line deviation calculation unit 38 calculates the deviation of the trolley line 9 as described above, and the trolley line 9 is located within the range of the deviation allowed in the actual place corresponding to the wear region extraction image. Determine if it is.
If the trolley wire 9 is not located within the allowable deviation range, it is judged to be abnormal and recorded.

トロリ線残存直径算出部39は、摩耗領域抽出画像を受信し、これを基に、トロリ線9の残存直径を算出する。図7は、残存直径の算出原理の説明図である。
本実施形態においては、トロリ線9の残存直径、すなわち摩耗後のトロリ線9の高さを、残存直径として計算する。
トロリ線残存直径算出部39は、摩耗領域9aの摩耗面幅w(画素)を計算する。トロリ線残存直径算出部39は、摩耗領域9aの重心座標d(画素)と摩耗面幅w(画素)を基に、トロリ線9の実際の摩耗面幅W(mm)を計算する。トロリ線9の残存直径Dr(mm)は、この摩耗面幅W(mm)と、トロリ線9の半径を用いて、次式により表される。

Figure 2021148589
The trolley wire residual diameter calculation unit 39 receives the wear region extraction image, and calculates the residual diameter of the trolley wire 9 based on the image. FIG. 7 is an explanatory diagram of the calculation principle of the remaining diameter.
In the present embodiment, the residual diameter of the trolley wire 9, that is, the height of the trolley wire 9 after wear is calculated as the residual diameter.
The trolley wire residual diameter calculation unit 39 calculates the wear surface width w (pixels) of the wear region 9a. The trolley wire residual diameter calculation unit 39 calculates the actual wear surface width W (mm) of the trolley wire 9 based on the center of gravity coordinates d (pixels) and the wear surface width w (pixels) of the wear region 9a. The residual diameter Dr (mm) of the trolley wire 9 is expressed by the following equation using the wear surface width W (mm) and the radius of the trolley wire 9.
Figure 2021148589

トロリ線残存直径算出部39は、上記のようにトロリ線9の残存直径を計算し、残存直径が管理値を下回っていないか判定する。
残存直径が管理値を下回っている場合は異常であると判断し、その旨を記録する。
The trolley wire residual diameter calculation unit 39 calculates the residual diameter of the trolley wire 9 as described above, and determines whether the residual diameter is less than the control value.
If the remaining diameter is less than the control value, it is judged to be abnormal and a record to that effect is recorded.

次に、図1〜図7、及び図8を用いて、上記のトロリ線検測装置20を用いたトロリ線検測方法を説明する。図8は、本実施形態におけるトロリ線検測方法のフローチャートである。 Next, a trolley line inspection method using the above-mentioned trolley line inspection device 20 will be described with reference to FIGS. 1 to 7 and FIG. FIG. 8 is a flowchart of the trolley line inspection method according to the present embodiment.

まず、ラインセンサ画像50と、当該ラインセンサ画像50内の各画素に対する、当該画素がトロリ線9の摩耗領域9aに該当するか否かの正解値とを学習データとして、セマンティックセグメンテーションにより、学習モデル40を深層学習する。
実際にトロリ線9を検測する際には、処理が開始されると(ステップS1)、ラインセンサ画像生成部30は、ラインセンサ22から入力画像を受信し、これを基にラインセンサ画像50を生成し、摩耗領域抽出部31へと送信する。
摩耗領域抽出部31は、ラインセンサ画像50を受信し、学習が終了した学習モデル40にラインセンサ画像50を入力し、ラインセンサ画像50内の各画素に対して、当該画素が摩耗領域9aに該当するか否かを推論して、推論結果画像52を生成する(ステップS9)。
補間処理部37は、推論結果画像52に対してクロージング処理を実行する(ステップS11)。
このようにして、摩耗領域抽出部31は、ラインセンサ画像50を基に、摩耗領域9aが抽出された摩耗領域抽出画像を生成し、トロリ線検測部32に送信する。
First, the line sensor image 50 and the correct answer value for each pixel in the line sensor image 50 as to whether or not the pixel corresponds to the wear region 9a of the trolley wire 9 are used as training data, and a learning model is performed by semantic segmentation. 40 is deep learning.
When actually inspecting the trolley wire 9, when the process is started (step S1), the line sensor image generation unit 30 receives an input image from the line sensor 22, and based on this, the line sensor image 50 Is generated and transmitted to the wear region extraction unit 31.
The wear region extraction unit 31 receives the line sensor image 50, inputs the line sensor image 50 to the learning model 40 for which learning has been completed, and for each pixel in the line sensor image 50, the pixel is in the wear region 9a. It is inferred whether or not it corresponds, and the inference result image 52 is generated (step S9).
The interpolation processing unit 37 executes a closing process on the inference result image 52 (step S11).
In this way, the wear region extraction unit 31 generates a wear region extraction image from which the wear region 9a is extracted based on the line sensor image 50, and transmits the wear region extraction unit 31 to the trolley line inspection unit 32.

トロリ線検測部32のトロリ線偏位算出部38は、摩耗領域抽出画像を受信し、これを基に、トロリ線9の偏位を計算する(ステップS15)。
また、トロリ線検測部32のトロリ線残存直径算出部39は、摩耗領域抽出画像を基に、トロリ線9の残存直径を算出する(ステップS17)。
The trolley line deviation calculation unit 38 of the trolley line inspection unit 32 receives the wear region extraction image, and calculates the deviation of the trolley line 9 based on the wear region extraction image (step S15).
Further, the trolley wire residual diameter calculation unit 39 of the trolley wire inspection unit 32 calculates the residual diameter of the trolley wire 9 based on the wear region extraction image (step S17).

次に、上記のトロリ線検測装置20及びトロリ線検測方法の効果について説明する。 Next, the effects of the trolley line inspection device 20 and the trolley line inspection method described above will be described.

本実施形態におけるトロリ線検測装置20は、トロリ線9を撮像するラインセンサ22を備え、ラインセンサ22により撮像された画像を入力画像としてこれを基にトロリ線9を検測する、トロリ線検測装置20であって、入力画像を時系列的に並べてラインセンサ画像50を生成する、ラインセンサ画像生成部30と、ラインセンサ画像50と、当該ラインセンサ画像50内の各画素に対する、当該画素がトロリ線9の摩耗領域9aに該当するか否かの正解値とを学習データとして、セマンティックセグメンテーションにより深層学習された学習モデル40と、学習モデル40に対し、ラインセンサ画像50を入力し、ラインセンサ画像50内の各画素に対して、当該画素が摩耗領域9aに該当するか否かを推論し、摩耗領域9aを抽出した摩耗領域抽出画像を生成する、摩耗領域抽出部31と、摩耗領域抽出画像を基に、トロリ線9の残存直径の算出と偏位の算出を実行する、トロリ線検測部32と、を備える。
また、本実施形態におけるトロリ線検測方法は、トロリ線9を撮像するラインセンサ22により撮像された画像を入力画像としてこれを基にトロリ線9を検測する、トロリ線検測方法であって、入力画像を時系列的に並べてラインセンサ画像50を生成し、ラインセンサ画像50と、当該ラインセンサ画像50内の各画素に対する、当該画素がトロリ線9の摩耗領域9aに該当するか否かの正解値とを学習データとして、セマンティックセグメンテーションにより深層学習された学習モデル40に対し、ラインセンサ画像50を入力し、ラインセンサ画像50内の各画素に対して、当該画素が摩耗領域9aに該当するか否かを推論し、摩耗領域9aを抽出した摩耗領域抽出画像を生成し、摩耗領域抽出画像を基に、トロリ線9の残存直径の算出と偏位の算出を実行する。
上記のような構成、方法によれば、学習モデル40は、ラインセンサ画像50と、当該ラインセンサ画像50内の各画素に対する、当該画素がトロリ線9の摩耗領域9aに該当するか否かの正解値とを学習データとして、セマンティックセグメンテーションにより深層学習されている。この学習モデル40を用いて、ラインセンサ画像50内の各画素に対して、当該画素が摩耗領域9aに該当するか否かが推論される。
すなわち、ラインセンサ画像50の各画素に対して、画素単位で摩耗領域9aに該当するか否かが推論されるため、摩耗領域9aに関する正確な情報を、摩耗領域抽出部31が出力可能である。
また、学習モデル40はセマンティックセグメンテーションにより、摩耗領域9aの特徴を把握するように学習されているため、摩耗領域9aの抽出に際し、ラインセンサ22によって撮像された天候や時間等の撮像環境の影響を受けにくい。
したがって、トロリ線9の検測、本実施形態においては残存直径と偏位の算出を、撮像環境の影響を低減して、精度よく行うことができる。
また、学習モデル40は、一旦適切に学習されると、再学習や特段のパラメータ設定等を行う必要なく、使用することができる。特に、上記のように学習モデル40による摩耗領域9aの抽出は撮像環境の影響を受けにくいため、撮像環境に応じて処理内容を変更したりする必要がない。したがって、トロリ線検測装置20の運用が容易であり、トロリ線9を容易に検測可能となる。
The trolley wire inspection device 20 in the present embodiment includes a line sensor 22 that captures the trolley wire 9, and uses the image captured by the line sensor 22 as an input image to inspect the trolley wire 9 based on the line sensor 22. The inspection device 20, the line sensor image generation unit 30 that generates the line sensor image 50 by arranging the input images in chronological order, the line sensor image 50, and each pixel in the line sensor image 50. The line sensor image 50 is input to the learning model 40 deeply trained by semantic segmentation and the learning model 40 using the correct answer value of whether or not the pixel corresponds to the wear region 9a of the trolley wire 9 as training data. For each pixel in the line sensor image 50, a wear region extraction unit 31 that infers whether or not the pixel corresponds to the wear region 9a and generates a wear region extraction image that extracts the wear region 9a, and wear. A trolley line inspection unit 32 that calculates the remaining diameter of the trolley line 9 and the deviation is calculated based on the region extracted image.
Further, the trolley line inspection method in the present embodiment is a trolley line inspection method in which an image captured by the line sensor 22 that captures the trolley line 9 is used as an input image and the trolley line 9 is inspected based on the input image. Then, the input images are arranged in chronological order to generate the line sensor image 50, and for the line sensor image 50 and each pixel in the line sensor image 50, whether or not the pixel corresponds to the wear region 9a of the trolley wire 9. The line sensor image 50 is input to the learning model 40 deeply trained by semantic segmentation using the correct answer value as training data, and the pixels are set in the wear region 9a for each pixel in the line sensor image 50. It is inferred whether or not it corresponds, a wear region extraction image from which the wear region 9a is extracted is generated, and the calculation of the residual diameter of the trolley wire 9 and the calculation of the deviation are executed based on the wear region extraction image.
According to the above configuration and method, the learning model 40 determines whether or not the pixel corresponds to the wear region 9a of the trolley wire 9 for the line sensor image 50 and each pixel in the line sensor image 50. Deep learning is performed by semantic segmentation using the correct answer value as training data. Using this learning model 40, it is inferred for each pixel in the line sensor image 50 whether or not the pixel corresponds to the wear region 9a.
That is, since it is inferred for each pixel of the line sensor image 50 whether or not it corresponds to the wear region 9a on a pixel-by-pixel basis, the wear region extraction unit 31 can output accurate information on the wear region 9a. ..
Further, since the learning model 40 is trained to grasp the characteristics of the wear region 9a by semantic segmentation, the influence of the imaging environment such as the weather and time imaged by the line sensor 22 is affected when the wear region 9a is extracted. Hard to receive.
Therefore, the inspection of the trolley wire 9 and the calculation of the residual diameter and the deviation in the present embodiment can be performed accurately while reducing the influence of the imaging environment.
Further, once the learning model 40 is properly learned, it can be used without the need for re-learning or setting special parameters. In particular, as described above, the extraction of the wear region 9a by the learning model 40 is not easily affected by the imaging environment, so it is not necessary to change the processing content according to the imaging environment. Therefore, the operation of the trolley wire inspection device 20 is easy, and the trolley wire 9 can be easily inspected.

[実施形態の第1変形例]
次に、図9〜図14を用いて、上記実施形態として示したトロリ線検測装置20及びトロリ線検測方法の第1変形例を説明する。図9は、本変形例に関するトロリ線検測装置のブロック図である。図10は、本変形例に関するトロリ線検測装置において、二値化処理後の画像の説明図である。図11は、本変形例に関するトロリ線検測装置において、二値化処理後の画像において領域選択を行った状態の説明図である。図12は、本変形例に関するトロリ線検測装置において、選択された領域をラインセンサ画像に適用した状態の説明図である。図13は、本変形例に関するトロリ線検測装置において、選択された領域でラインセンサ画像を切り出した状態の説明図である。図14は、本変形例に関するトロリ線検測装置を用いて動作される、トロリ線検測方法のフローチャートである。本変形例におけるトロリ線検測装置20Aは、上記実施形態のトロリ線検測装置20とは、ラインセンサ画像生成部30Aが、線条物抽出部60、二値化部61、及び画像切り出し部62を備えている点が異なっている。
本変形例のラインセンサ画像生成部30Aにおいては、上記実施形態において図3を用いて示した、ラインセンサ22からの入力画像を時系列に並べた整列画像をラインセンサ画像として摩耗領域抽出部31に送付しない。ラインセンサ画像生成部30Aは、この整列画像に対し、線条物抽出部60、二値化部61、及び画像切り出し部62により更なる処理を適用して、ラインセンサ画像を生成する。
[First Modified Example of Embodiment]
Next, a first modification of the trolley line inspection device 20 and the trolley line inspection method shown as the above-described embodiment will be described with reference to FIGS. 9 to 14. FIG. 9 is a block diagram of a trolley line inspection device for this modified example. FIG. 10 is an explanatory diagram of an image after binarization processing in the trolley line inspection device for this modified example. FIG. 11 is an explanatory diagram of a state in which a region is selected in the image after the binarization process in the trolley line inspection device according to the present modification. FIG. 12 is an explanatory diagram of a state in which the selected region is applied to the line sensor image in the trolley line inspection device according to the present modification. FIG. 13 is an explanatory diagram of a state in which a line sensor image is cut out in a selected region in the trolley line inspection device according to the present modification. FIG. 14 is a flowchart of a trolley line inspection method operated by using the trolley line inspection device according to the present modification. The trolley line inspection device 20A in this modification is different from the trolley line inspection device 20 of the above embodiment in that the line sensor image generation unit 30A has a line sensor image extraction unit 60, a binarization unit 61, and an image cutout unit. The difference is that it has 62.
In the line sensor image generation unit 30A of this modification, the wear region extraction unit 31 uses an aligned image in which the input images from the line sensor 22 are arranged in chronological order, which is shown with reference to FIG. 3 in the above embodiment, as a line sensor image. Do not send to. The line sensor image generation unit 30A generates a line sensor image by applying further processing to the aligned image by the streak extraction unit 60, the binarization unit 61, and the image cropping unit 62.

線条物抽出部60は、図3に示される整列画像に対し、例えば画像を収縮、膨張させてオープニングした後に、膨張収縮させる元となる画像を減算するGSTH(グレースケールトップハット)処理を適用することで、横方向Xに延在している線条物を抽出する。
その後、二値化部61において、線条物とそれ以外の領域の各々に関するクラス内分散とクラス間分散の分散比が最大となるように、画像に応じて二値化の閾値を決定する、判別分析二値化処理により、二値化処理を行う。図10には、この二値化後の画像である二値化画像65が示されている。本変形例においては、線条物が白く、線条物以外の領域が黒くなるように、二値化画像65が生成されている。
The linear object extraction unit 60 applies a GSTH (grayscale top hat) process to the aligned image shown in FIG. 3, for example, by contracting and expanding the image to open it, and then subtracting the image that is the source of the expansion and contraction. By doing so, the streaks extending in the lateral direction X are extracted.
After that, the binarization unit 61 determines the binarization threshold according to the image so that the variance ratio of the intraclass variance and the interclass variance for each of the linear object and the other region is maximized. The binarization process is performed by the discriminant analysis binarization process. FIG. 10 shows the binarized image 65, which is the image after the binarization. In this modification, the binarized image 65 is generated so that the streaks are white and the areas other than the streaks are black.

画像切り出し部62は、二値化画像65に対し、白い領域を囲繞するような領域R1を、特に横方向Xに白い領域と領域R1の外縁との間に十分な間隔を有するように、設定する。そして、画像切り出し部62は、図12に示されるように、整列画像に対し、二値化画像65に対して設定された領域R1を、二値化画像65と同一の部分に設け、整列画像の当該領域R1内の部分を切り出すことで、図13に示されるようなラインセンサ画像66を生成する。
本変形例においては、このように摩耗領域9aに相当する部分が切り出されて横方向Xの解像度が小さくなった画像をラインセンサ画像66として、学習モデル40の学習や、トロリ線9の検測処理が実行される。
The image cutout unit 62 sets the binarized image 65 so that the region R1 surrounding the white region has a sufficient distance between the white region and the outer edge of the region R1 in the lateral direction X in particular. do. Then, as shown in FIG. 12, the image cutout unit 62 provides the aligned image with a region R1 set for the binarized image 65 in the same portion as the binarized image 65, and provides the aligned image. By cutting out the portion in the region R1 of the above, the line sensor image 66 as shown in FIG. 13 is generated.
In this modification, the image in which the portion corresponding to the wear region 9a is cut out and the resolution in the lateral direction X is reduced is used as the line sensor image 66 for learning the learning model 40 and inspecting the trolley line 9. The process is executed.

本変形例のトロリ線検測装置20Aを用いて動作される、トロリ線検測方法においては、図14に示されるように、線条物を抽出する処理(ステップS3)、二値化処理(ステップS5)、及び整列画像からラインセンサ画像66を切り出す処理(ステップS7)が、図8に示される上記実施形態のトロリ線検測方法に追加されている。 In the trolley line inspection method operated by using the trolley line inspection device 20A of this modification, as shown in FIG. 14, a process of extracting streaks (step S3) and a binarization process (step S3). Step S5) and the process of cutting out the line sensor image 66 from the aligned image (step S7) are added to the trolley line inspection method of the above embodiment shown in FIG.

本変形例のトロリ線検測装置20Aにおいては、ラインセンサ画像生成部30Aは、入力画像を時系列的に並べた整列画像から、入力画像が時系列的に並べられた方向Yに延在する線条物を抽出する、線条物抽出部60と、整列画像から、抽出された線条物を含むように画像を切り出し、当該画像を、ラインセンサ画像66として出力する、画像切り出し部62と、を備える。
上記実施形態の構成においては、摩耗領域9aの幅が、ラインセンサ画像50の横方向Xの幅に対して小さくなりがちである。特に学習モデル40においては畳み込み処理が行われているが、このような幅が小さな部分は畳み込み処理によりつぶれて消失することがある。したがって、学習モデル40の学習精度や、摩耗領域9aの推論精度が向上しにくい場合がある。
これに対し、本変形例においては、トロリ線9の近傍を切り出すことにより、横方向Xの幅に対する摩耗領域9aの幅の比が大きくなる。このような、切り出された画像を学習モデル40の学習、及び学習モデル40による推論に用いることにより、学習モデル40の学習精度や、摩耗領域9aの推論精度が向上する。
本変形例が、既に説明した実施形態と同様な他の効果を奏することは言うまでもない。
In the trolley line inspection device 20A of this modification, the line sensor image generation unit 30A extends from the aligned image in which the input images are arranged in time series to the direction Y in which the input images are arranged in time series. A strip extraction unit 60 for extracting stripes, and an image cropping section 62 for cutting out an image from the aligned image so as to include the extracted stripes and outputting the image as a line sensor image 66. , Equipped with.
In the configuration of the above embodiment, the width of the wear region 9a tends to be smaller than the width of the line sensor image 50 in the lateral direction X. In particular, in the learning model 40, the convolution process is performed, but such a small width portion may be crushed and disappear by the convolution process. Therefore, it may be difficult to improve the learning accuracy of the learning model 40 and the inference accuracy of the wear region 9a.
On the other hand, in this modification, by cutting out the vicinity of the trolley wire 9, the ratio of the width of the wear region 9a to the width in the lateral direction X becomes large. By using such a cut-out image for learning of the learning model 40 and inference by the learning model 40, the learning accuracy of the learning model 40 and the inference accuracy of the wear region 9a are improved.
Needless to say, this modification has other effects similar to those of the embodiments already described.

[実施形態の第2変形例]
次に、図15〜図17を用いて、上記実施形態として示したトロリ線検測装置20及びトロリ線検測方法の第2変形例を説明する。図15は、本変形例に関するトロリ線検測装置のブロック図である。図16は、本変形例に関するトロリ線検測装置において、学習モデルによって出力された画像の説明図である。図17は、本変形例に関するトロリ線検測装置を用いて動作される、トロリ線検測方法のフローチャートである。本変形例におけるトロリ線検測装置20Bは、上記第1変形例のトロリ線検測装置20Aの更なる変形例であり、トロリ線検測装置20Aとは、トロリ線検測部32Bが、トロリ線9の残存直径と偏位の算出に加え、過剰摩耗の判定を行う点が異なっている。
[Second variant of the embodiment]
Next, a second modification of the trolley line inspection device 20 and the trolley line inspection method shown as the above-described embodiment will be described with reference to FIGS. 15 to 17. FIG. 15 is a block diagram of a trolley line inspection device for this modified example. FIG. 16 is an explanatory diagram of an image output by the learning model in the trolley line inspection device for this modified example. FIG. 17 is a flowchart of a trolley line inspection method operated by using the trolley line inspection device according to the present modification. The trolley line inspection device 20B in this modification is a further modification of the trolley line inspection device 20A of the first modification. The difference is that in addition to the calculation of the residual diameter and deviation of the line 9, the determination of excess wear is performed.

本変形例においては、トロリ線検測装置20Bは、トロリ線9の摩耗が進行し、摩耗領域9aの高さが、トロリ線9の中心を超えた上方の位置、例えば図7にH1として示される位置となるまで、過剰に摩耗した、過剰摩耗を判定する。
トロリ線9の摩耗領域9aの高さがトロリ線9の中心を超えない場合においては、ラインセンサ画像は、例えば図3に示されるように、摩耗領域9aの両側方に、摩耗領域9aに沿って、摩耗領域9aの幅方向端部から外側へと湾曲しながら上方へと続くトロリ線9の表面が、側面領域9bとして撮像される。これに対し、トロリ線9の摩耗領域9aの高さがトロリ線9の中心を超えて過剰摩耗していると、ラインセンサ22はトロリ線9を下方から撮像するため、ラインセンサ画像においては摩耗領域9aの両側方に側面領域9bが撮像されない。
トロリ線検測装置20Bは、この側面領域9bの有無を判定して、トロリ線9が過剰に摩耗しているか否かを判定する。
In this modification, in the trolley wire inspection device 20B, the wear of the trolley wire 9 progresses, and the height of the wear region 9a is shown as H1 at a position above the center of the trolley wire 9, for example, FIG. Excessive wear and excessive wear are determined until the position is reached.
When the height of the wear region 9a of the trolley wire 9 does not exceed the center of the trolley wire 9, the line sensor image is along the wear region 9a on both sides of the wear region 9a, for example, as shown in FIG. The surface of the trolley wire 9 that continues upward while curving outward from the widthwise end of the wear region 9a is imaged as the side surface region 9b. On the other hand, if the height of the wear region 9a of the trolley wire 9 exceeds the center of the trolley wire 9 and is excessively worn, the line sensor 22 images the trolley wire 9 from below, so that the line sensor image is worn. The side area 9b is not imaged on both sides of the area 9a.
The trolley wire inspection device 20B determines the presence or absence of the side surface region 9b, and determines whether or not the trolley wire 9 is excessively worn.

これに対応するため、本変形例における学習モデル40Bにおいて、学習時に適用される正解値は、当該正解値に対応するラインセンサ画像の画素が、摩耗領域9a、側面領域9b、他の架線領域12、及び背景領域11を含む分類区分のいずれに該当するかを示すものとなっている。これにより、学習モデル40Bは、各画素が摩耗領域9a、側面領域9b、他の架線領域12、及び背景領域11のいずれに該当するかを推論した、推論結果画像52Bを出力するように、学習されている。 In order to correspond to this, in the learning model 40B in this modification, the correct answer value applied at the time of learning is that the pixels of the line sensor image corresponding to the correct answer value are the wear region 9a, the side surface region 9b, and the other overhead wire region 12. , And which of the classification categories including the background area 11 is applicable. As a result, the learning model 40B learns to output the inference result image 52B inferring which of the wear region 9a, the side surface region 9b, the other overhead wire region 12, and the background region 11 each pixel corresponds to. Has been done.

この推論結果画像52Bに対して、補間処理部37によってクロージング処理が実行されて、摩耗領域抽出画像が生成される。
本変形例のトロリ線検測部32Bは、トロリ線摩耗進行度判定部70を備えている。トロリ線摩耗進行度判定部70は、摩耗領域抽出画像を受信して、摩耗領域9aの周囲に側面領域9bがあるか否かを判断し、無い場合には、トロリ線9が過剰に摩耗していると判定する。
The interpolation processing unit 37 executes a closing process on the inference result image 52B to generate a wear region extraction image.
The trolley wire inspection unit 32B of this modified example includes a trolley wire wear progress determination unit 70. The trolley wire wear progress determination unit 70 receives the wear region extraction image, determines whether or not there is a side surface region 9b around the wear region 9a, and if not, the trolley wire 9 is excessively worn. It is determined that it is.

本変形例のトロリ線検測装置20Bを用いて動作される、トロリ線検測方法においては、図17に示されるように、トロリ線9の過剰摩耗を判定する処理(ステップS13)が、図14に示される上記第1変形例のトロリ線検測方法に追加されている。 In the trolley wire inspection method operated by using the trolley wire inspection device 20B of the present modification, as shown in FIG. 17, the process of determining the excessive wear of the trolley wire 9 (step S13) is shown in FIG. It is added to the trolley line inspection method of the first modification shown in 14.

本変形例のトロリ線検測装置20Bにおいては、正解値は、当該正解値に対応するラインセンサ画像の画素が、摩耗領域9a、摩耗領域9aに隣接するトロリ線9の側面領域9b、及び摩耗領域9aと側面領域9b以外の他の領域11、12を含む分類区分のいずれに該当するかを示すものであり、摩耗領域抽出部31Bは、学習モデル40Bに対し、ラインセンサ画像を入力し、当該ラインセンサ画像内の各画素に対して、当該画素が摩耗領域9a、側面領域9b、及び他の領域11、12のいずれに該当するか否かを推論し、トロリ線検測部32Bは、側面領域9bの有無により、トロリ線9が過剰に摩耗しているか否かを判定する。
側面領域9bの幅は微小なものとなりがちであり、通常の画像処理において側面領域9bの有無を正確に判定することは難しい。
これに対し、本変形例においては、学習モデル40Bがセマンティックセグメンテーションにより側面領域9bの領域を推論し、この結果を基にトロリ線検測部32Bがトロリ線9の過剰摩耗を判定するため、精度よく側面領域9bを抽出することができる。したがって、正確に、過剰摩耗の判定を行うことができる。
本変形例が、既に説明した実施形態と同様な他の効果を奏することは言うまでもない。
In the trolley wire inspection device 20B of this modification, the correct answer values are the wear region 9a, the side surface region 9b of the trolley wire 9 adjacent to the wear region 9a, and the wear of the pixels of the line sensor image corresponding to the correct answer value. It indicates which of the classification categories including the region 9a and the other regions 11 and 12 other than the side region 9b corresponds to, and the wear region extraction unit 31B inputs a line sensor image to the learning model 40B and inputs the line sensor image. For each pixel in the line sensor image, it is inferred whether or not the pixel corresponds to the wear region 9a, the side surface region 9b, and the other regions 11 and 12, and the trolley line inspection unit 32B determines whether or not the pixel corresponds to the wear region 9a, the side surface region 9b, and the other regions 11 and 12. Whether or not the trolley wire 9 is excessively worn is determined based on the presence or absence of the side surface region 9b.
The width of the side surface region 9b tends to be very small, and it is difficult to accurately determine the presence or absence of the side surface region 9b in normal image processing.
On the other hand, in this modification, the learning model 40B infers the region of the side region 9b by semantic segmentation, and the trolley line inspection unit 32B determines the excessive wear of the trolley wire 9 based on this result. The side region 9b can be well extracted. Therefore, it is possible to accurately determine excess wear.
Needless to say, this modification has other effects similar to those of the embodiments already described.

なお、本発明のトロリ線検測装置及びトロリ線検測方法は、図面を参照して説明した上述の実施形態及び各変形例に限定されるものではなく、その技術的範囲において他の様々な変形例が考えられる。 The trolley line inspection device and the trolley line inspection method of the present invention are not limited to the above-described embodiment and each modification described with reference to the drawings, and various other trolley line inspection devices are provided within the technical scope thereof. A modified example is conceivable.

例えば、上記実施形態及び第1変形例においては、トロリ線検測装置はトロリ線偏位算出部38とトロリ線残存直径測定部39の双方を備え、トロリ線9の残存直径と偏位の双方を算出するように構成されていた。また、上記第2変形例においては、トロリ線検測装置は、トロリ線偏位算出部38とトロリ線残存直径測定部39に加えてトロリ線摩耗進行度判定部70を備え、トロリ線9の残存直径の算出、偏位の算出、及び過剰摩耗の判定を実行していた。
トロリ線検測装置の構成はこれに限られない。例えば、トロリ線検測装置は、トロリ線偏位算出部38、トロリ線残存直径算出部39、及びトロリ線摩耗進行度判定部70のいずれかを1つだけ備え、トロリ線9の残存直径の算出、偏位の算出、及び過剰摩耗の判定のいずれか1つのみを実行してもよい。あるいは、トロリ線検測装置は、トロリ線偏位算出部38とトロリ線摩耗進行度判定部70を備え、偏位の算出と過剰摩耗の判定を行うように構成されていてもよい。または、トロリ線検測装置は、トロリ線残存直径算出部39とトロリ線摩耗進行度判定部70を備え、残存直径の算出と過剰摩耗の判定を行うように構成されていてもよい。
For example, in the above embodiment and the first modification, the trolley wire inspection device includes both the trolley wire deviation calculation unit 38 and the trolley wire residual diameter measurement unit 39, and both the residual diameter and the deviation of the trolley wire 9 are provided. Was configured to calculate. Further, in the second modification, the trolley wire inspection device includes a trolley wire deviation calculation unit 38, a trolley wire residual diameter measurement unit 39, and a trolley wire wear progress determination unit 70, and the trolley wire 9 has a trolley wire wear progress determination unit 70. The calculation of the residual diameter, the calculation of the deviation, and the determination of excess wear were performed.
The configuration of the trolley line inspection device is not limited to this. For example, the trolley wire inspection device includes only one of the trolley wire deviation calculation unit 38, the trolley wire residual diameter calculation unit 39, and the trolley wire wear progress determination unit 70, and has the residual diameter of the trolley wire 9. Only one of the calculation, the deviation calculation, and the determination of excess wear may be performed. Alternatively, the trolley wire inspection device may include a trolley wire deviation calculation unit 38 and a trolley wire wear progress determination unit 70, and may be configured to calculate the deviation and determine excess wear. Alternatively, the trolley wire inspection device may include a trolley wire residual diameter calculation unit 39 and a trolley wire wear progress determination unit 70, and may be configured to calculate the residual diameter and determine excess wear.

また、上記実施形態及び第1変形例においては、分類区分は、摩耗領域9aと背景領域11に対応して設けられ、摩耗領域抽出部31は、ラインセンサ画像の各画素がこれら2つの分類区分のいずれに該当するかをセマンティックセグメンテーションにより推論することで、摩耗領域9aを抽出した。
同様に、第2変形例においては、分類区分は、摩耗領域9a、側面領域9b、及び他の領域11、12に対応して設けられ、摩耗領域抽出部31Bは、ラインセンサ画像の各画素がこれら複数の分類区分のいずれに該当するかをセマンティックセグメンテーションにより推論することで、摩耗領域9aを抽出した。
分類区分の設定は、上記に限られない。例えば、分類区分は、入力画像内に撮像される物体の種類に応じて設けられていてもよい。
例えば、分類区分を、図3に示される全ての物体の種類、例えば摩耗領域9a、側面領域9b、き電線4、ビーム5、曲引き金具6、吊架線7、及びその他の領域の各々に対応付けて設けても構わない。あるいは、これらに加えて、図3には示されていない、背景として撮像される可能性のある物体、例えば建築構造物、トンネル、鉄塔、樹木、空等の各々に対応付けるように、分類区分を更に細分化して設けても構わない。
上記実施形態及び各変形例においては、十分な精度で摩耗領域9aが抽出されることが確認されている。しかし、上記のように、分類区分をより細分化することにより、摩耗領域9a以外の他の物体の各々が、これに対応する分類区分に分類されるため、他の物体が誤って摩耗領域9aとして判定されることが抑制され、結果として摩耗領域9aの抽出精度が更に向上する。
あるいは、分類区分をこのように細分化しなくとも、例えば摩耗領域9aと誤認される可能性が高い物体に対してのみ、分類区分を設けるようにしてもよい。例えば、摩耗領域9aとき電線4、及び吊架線7は、ラインセンサ画像の縦方向Yに延在する線条物であるという同一の特徴を有するため、き電線4や吊架線7が誤って摩耗領域9aとして抽出される可能性もある。このような場合においては、複数の分類区分を、摩耗領域9a、き電線4、吊架線7と他の物体の各々に対応して設けてもよい。
このように、効果的に摩耗領域9aを抽出するに際し、複数の分類区分は、状況に応じ、どのように設けられても構わない。
以上記載したような形態においては、正解値は、当該正解値に対応するラインセンサ画像の画素が、入力画像内に撮像される物体の種類に応じて設けられた分類区分のいずれに該当するかを示すものであり、分類区分は摩耗領域9aを含み、摩耗領域抽出部は、学習モデルに対し、ラインセンサ画像を入力し、当該ラインセンサ画像内の各画素に対して、当該画素がどの分類区分に該当するかを推論する。
このような構成によれば、摩耗領域9aの抽出精度を向上することができる。
Further, in the above embodiment and the first modification, the classification division is provided corresponding to the wear region 9a and the background region 11, and in the wear region extraction unit 31, each pixel of the line sensor image is classified into these two classification divisions. The wear region 9a was extracted by inferring which of the above was applicable by semantic segmentation.
Similarly, in the second modification, the classification division is provided corresponding to the wear region 9a, the side surface region 9b, and the other regions 11 and 12, and the wear region extraction unit 31B has each pixel of the line sensor image. The wear region 9a was extracted by inferring which of these plurality of classifications it corresponds to by semantic segmentation.
The setting of the classification category is not limited to the above. For example, the classification classification may be provided according to the type of the object to be imaged in the input image.
For example, the classification category corresponds to each of the types of objects shown in FIG. 3, such as wear area 9a, side area 9b, wire 4, beam 5, curved metal fitting 6, overhead wire 7, and other areas. It may be attached. Alternatively, in addition to these, the classification classification is assigned so as to correspond to each of objects that may be imaged as a background, such as building structures, tunnels, steel towers, trees, and the sky, which are not shown in FIG. It may be further subdivided.
In the above embodiment and each modification, it has been confirmed that the wear region 9a is extracted with sufficient accuracy. However, as described above, by further subdividing the classification classification, each of the objects other than the wear region 9a is classified into the corresponding classification classification, so that the other objects are erroneously classified into the wear region 9a. As a result, the extraction accuracy of the wear region 9a is further improved.
Alternatively, even if the classification classification is not subdivided in this way, the classification classification may be provided only for an object that is likely to be mistaken for, for example, the wear region 9a. For example, when the wear region 9a, the electric wire 4 and the suspension wire 7 have the same characteristic that they are strips extending in the vertical direction Y of the line sensor image, so that the wire 4 and the suspension wire 7 are erroneously worn. It may be extracted as region 9a. In such a case, a plurality of classification categories may be provided corresponding to each of the wear region 9a, the wire 4, the suspension wire 7, and other objects.
As described above, in effectively extracting the wear region 9a, a plurality of classification categories may be provided in any manner depending on the situation.
In the above-described form, the correct answer value corresponds to which of the classification categories provided according to the type of the object imaged in the input image, the pixels of the line sensor image corresponding to the correct answer value. The classification classification includes the wear region 9a, and the wear region extraction unit inputs a line sensor image to the learning model, and for each pixel in the line sensor image, which classification the pixel is. Infer whether it corresponds to the classification.
According to such a configuration, the extraction accuracy of the wear region 9a can be improved.

これ以外にも、本発明の主旨を逸脱しない限り、上記実施形態及び各変形例で挙げた構成を取捨選択したり、他の構成に適宜変更したりすることが可能である。 In addition to this, as long as the gist of the present invention is not deviated, the configurations given in the above-described embodiment and each modification can be selected or changed to other configurations as appropriate.

1 検査車両
9 トロリ線
9a 摩耗領域
9b 側面領域
11 背景領域(他の領域)
12 他の架線領域(他の領域)
20、20A、20B トロリ線検測装置
21 照明
22 ラインセンサ
23 制御装置
30、30A ラインセンサ画像生成部
31、31B 摩耗領域抽出部
32、32B トロリ線検測部
35 学習部
36 学習データ記憶部
37 補間処理部
38 トロリ線偏位算出部
39 トロリ線残存直径算出部
40、40B 学習モデル
50、66 ラインセンサ画像
60 線条物抽出部
61 二値化部
62 画像切り出し部
70 トロリ線摩耗進行度判定部
1 Inspection vehicle 9 Tram wire 9a Wear area 9b Side area 11 Background area (other area)
12 Other overhead line areas (other areas)
20, 20A, 20B Trolley line inspection device 21 Lighting 22 Line sensor 23 Control device 30, 30A Line sensor Image generation unit 31, 31B Wear area extraction unit 32, 32B Trolley line inspection unit 35 Learning unit 36 Learning data storage unit 37 Interpolation processing unit 38 Trolley line deviation calculation unit 39 Trolley line residual diameter calculation unit 40, 40B Learning model 50, 66 Line sensor image 60 Line strip extraction unit 61 Binarization unit 62 Image cutout unit 70 Trolley wire wear progress determination Department

Claims (5)

トロリ線を撮像するラインセンサを備え、当該ラインセンサにより撮像された画像を入力画像としてこれを基に前記トロリ線を検測する、トロリ線検測装置であって、
前記入力画像を時系列的に並べてラインセンサ画像を生成する、ラインセンサ画像生成部と、
前記ラインセンサ画像と、当該ラインセンサ画像内の各画素に対する、当該画素が前記トロリ線の摩耗領域に該当するか否かの正解値とを学習データとして、セマンティックセグメンテーションにより深層学習された学習モデルと、
当該学習モデルに対し、前記ラインセンサ画像を入力し、当該ラインセンサ画像内の各画素に対して、当該画素が前記摩耗領域に該当するか否かを推論し、前記摩耗領域を抽出した摩耗領域抽出画像を生成する、摩耗領域抽出部と、
当該摩耗領域抽出画像を基に、前記トロリ線の残存直径の算出、偏位の算出、過剰摩耗の判定のいずれかまたはいずれかの組み合わせを実行する、トロリ線検測部と、
を備える、トロリ線検測装置。
It is a trolley line inspection device provided with a line sensor that captures a trolley line and inspects the trolley line based on an image captured by the line sensor as an input image.
A line sensor image generator that generates a line sensor image by arranging the input images in chronological order,
A learning model deeply trained by semantic segmentation using the line sensor image and the correct answer value of whether or not the pixel corresponds to the wear region of the trolley wire for each pixel in the line sensor image as training data. ,
The line sensor image is input to the learning model, and for each pixel in the line sensor image, it is inferred whether or not the pixel corresponds to the wear region, and the wear region is extracted from the wear region. A wear area extractor that generates an extracted image,
A trolley wire inspection unit that executes any or a combination of calculation of the remaining diameter of the trolley wire, calculation of deviation, and determination of excess wear based on the wear region extraction image.
A trolley line inspection device equipped with.
前記ラインセンサ画像生成部は、
前記入力画像を時系列的に並べた整列画像から、前記入力画像が時系列的に並べられた方向に延在する線条物を抽出する、線条物抽出部と、
前記整列画像から、抽出された前記線条物を含むように画像を切り出し、当該画像を、前記ラインセンサ画像として出力する、画像切り出し部と、
を備える、請求項1に記載のトロリ線検測装置。
The line sensor image generation unit
A streak extraction unit that extracts streaks extending in the direction in which the input images are arranged in time series from an aligned image in which the input images are arranged in time series.
An image cutout portion that cuts out an image from the aligned image so as to include the extracted streaks and outputs the image as the line sensor image.
The trolley line inspection device according to claim 1.
前記正解値は、当該正解値に対応する前記ラインセンサ画像の画素が、前記摩耗領域、前記摩耗領域に隣接する前記トロリ線の側面領域、及び前記摩耗領域と前記側面領域以外の他の領域を含む分類区分のいずれに該当するかを示すものであり、
前記摩耗領域抽出部は、前記学習モデルに対し、前記ラインセンサ画像を入力し、当該ラインセンサ画像内の各画素に対して、当該画素が前記摩耗領域、前記側面領域、及び前記他の領域のいずれに該当するか否かを推論し、
前記トロリ線検測部は、前記側面領域の有無により、前記トロリ線が過剰に摩耗しているか否かを判定する、請求項1または2に記載のトロリ線検測装置。
The correct answer value is such that the pixels of the line sensor image corresponding to the correct answer value cover the wear region, the side region of the trolley wire adjacent to the wear region, and the wear region and other regions other than the side region. It indicates which of the included classifications it corresponds to.
The wear region extraction unit inputs the line sensor image to the learning model, and for each pixel in the line sensor image, the pixel is the wear region, the side surface region, and the other region. Infer which one it corresponds to,
The trolley wire inspection device according to claim 1 or 2, wherein the trolley wire inspection unit determines whether or not the trolley wire is excessively worn based on the presence or absence of the side surface region.
前記正解値は、当該正解値に対応する前記ラインセンサ画像の画素が、前記入力画像内に撮像される物体の種類に応じて設けられた分類区分のいずれに該当するかを示すものであり、前記分類区分は前記摩耗領域を含み、
前記摩耗領域抽出部は、前記学習モデルに対し、前記ラインセンサ画像を入力し、当該ラインセンサ画像内の各画素に対して、当該画素がどの前記分類区分に該当するかを推論する、請求項1または2に記載のトロリ線検測装置。
The correct answer value indicates which of the classification categories provided according to the type of the object imaged in the input image corresponds to the pixel of the line sensor image corresponding to the correct answer value. The classification category includes the wear area.
The claim that the wear area extraction unit inputs the line sensor image to the learning model, and infers which of the classification categories the pixel corresponds to for each pixel in the line sensor image. The trolley line inspection device according to 1 or 2.
トロリ線を撮像するラインセンサにより撮像された画像を入力画像としてこれを基に前記トロリ線を検測する、トロリ線検測方法であって、
前記入力画像を時系列的に並べてラインセンサ画像を生成し、
前記ラインセンサ画像と、当該ラインセンサ画像内の各画素に対する、当該画素が前記トロリ線の摩耗領域に該当するか否かの正解値とを学習データとして、セマンティックセグメンテーションにより深層学習された学習モデルに対し、前記ラインセンサ画像を入力し、当該ラインセンサ画像内の各画素に対して、当該画素が前記摩耗領域に該当するか否かを推論し、前記摩耗領域を抽出した摩耗領域抽出画像を生成し、
当該摩耗領域抽出画像を基に、前記トロリ線の残存直径の算出、偏位の算出、過剰摩耗の判定のいずれかまたはいずれかの組み合わせを実行する、トロリ線検測方法。
This is a trolley line inspection method in which an image captured by a line sensor that captures a trolley line is used as an input image and the trolley line is inspected based on the input image.
A line sensor image is generated by arranging the input images in chronological order.
The line sensor image and the correct answer value of whether or not the pixel corresponds to the wear region of the trolley wire for each pixel in the line sensor image are used as training data in a learning model deeply trained by semantic segmentation. On the other hand, the line sensor image is input, and for each pixel in the line sensor image, it is inferred whether or not the pixel corresponds to the wear region, and a wear region extraction image obtained by extracting the wear region is generated. death,
A trolley line inspection method for executing any or a combination of calculation of the remaining diameter of the trolley wire, calculation of deviation, and determination of excess wear based on the wear region extracted image.
JP2020048517A 2020-03-19 2020-03-19 Contact wire inspection device and contact wire inspection method Active JP7384083B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020048517A JP7384083B2 (en) 2020-03-19 2020-03-19 Contact wire inspection device and contact wire inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020048517A JP7384083B2 (en) 2020-03-19 2020-03-19 Contact wire inspection device and contact wire inspection method

Publications (2)

Publication Number Publication Date
JP2021148589A true JP2021148589A (en) 2021-09-27
JP7384083B2 JP7384083B2 (en) 2023-11-21

Family

ID=77848388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020048517A Active JP7384083B2 (en) 2020-03-19 2020-03-19 Contact wire inspection device and contact wire inspection method

Country Status (1)

Country Link
JP (1) JP7384083B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015137871A (en) * 2014-01-20 2015-07-30 株式会社日立ハイテクファインシステムズ Collector head, trolley wire measuring device, and trolley wire measuring method
JP2016223882A (en) * 2015-05-29 2016-12-28 公益財団法人鉄道総合技術研究所 Trolley line abrasion assessing device, and trolley line abrasion assessing method
JP2017215743A (en) * 2016-05-31 2017-12-07 クラリオン株式会社 Image processing device, and external world recognition device
JP2019028861A (en) * 2017-08-02 2019-02-21 ソニー株式会社 Signal processor, signal processing method, program, and moving object
JP2019078716A (en) * 2017-10-27 2019-05-23 キヤノン株式会社 Distance measuring device, distance measuring system, imaging apparatus, mobile body, method for controlling distance measuring device, and program
JP2020037356A (en) * 2018-09-05 2020-03-12 株式会社明電舎 Overhead wire abrasion inspection device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015137871A (en) * 2014-01-20 2015-07-30 株式会社日立ハイテクファインシステムズ Collector head, trolley wire measuring device, and trolley wire measuring method
JP2016223882A (en) * 2015-05-29 2016-12-28 公益財団法人鉄道総合技術研究所 Trolley line abrasion assessing device, and trolley line abrasion assessing method
JP2017215743A (en) * 2016-05-31 2017-12-07 クラリオン株式会社 Image processing device, and external world recognition device
JP2019028861A (en) * 2017-08-02 2019-02-21 ソニー株式会社 Signal processor, signal processing method, program, and moving object
JP2019078716A (en) * 2017-10-27 2019-05-23 キヤノン株式会社 Distance measuring device, distance measuring system, imaging apparatus, mobile body, method for controlling distance measuring device, and program
JP2020037356A (en) * 2018-09-05 2020-03-12 株式会社明電舎 Overhead wire abrasion inspection device

Also Published As

Publication number Publication date
JP7384083B2 (en) 2023-11-21

Similar Documents

Publication Publication Date Title
KR102017870B1 (en) Real-time line defect detection system
CN104567684B (en) A kind of contact net geometric parameter detection method and device
JP5245445B2 (en) Crossover measuring device
CN112434695B (en) Upper pull rod fault detection method based on deep learning
RU2416068C2 (en) Measuring device of wear of contact wire line
CN110455214B (en) Pantograph slide plate abrasion state monitoring system and method
EP2960620A1 (en) Wear measuring device and method for same
JP7226493B2 (en) Contact wire wear inspection method
JP5811637B2 (en) Trolley wire wear measuring device by image processing
JP6644720B2 (en) Train wire fitting detection system and its detection method
CN105426894A (en) Image detection method and device for railroad plug nails
CN112508911A (en) Rail joint touch net suspension support component crack detection system based on inspection robot and detection method thereof
CN111242052A (en) Method and device for automatically distinguishing rigid and flexible wires of contact network
JP7299041B2 (en) Overhead wire fitting detection device and overhead wire fitting detection method
JP2021148589A (en) Trolley wire inspection device and trolley wire inspection method
JP7196806B2 (en) Contact wire inspection device and contact wire inspection method
JP4305073B2 (en) Pantograph obstacle detection method and apparatus
JP2020149286A (en) Overhead wire fitting detection device and overhead wire fitting detection method
JP5629478B2 (en) Pantograph monitoring device
JP2020034499A (en) Noncontact-type pantograph contact force measuring apparatus
JP2020179798A (en) Turnout detection device and turnout detection method
US10373331B2 (en) Identification of a pantograph represented in an image
JP2019111942A (en) Overhead power line metal fitting detection device and method
CN113504243A (en) Imaging device and imaging method for connecting area of contact net elastic sling and carrier cable
JP5945780B2 (en) Trolley wire illumination reflected light distribution map creation method and trolley wire wear measuring device using the method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R150 Certificate of patent or registration of utility model

Ref document number: 7384083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150