JP2020128877A - Linear object abnormality detection device and abnormality detection method - Google Patents

Linear object abnormality detection device and abnormality detection method Download PDF

Info

Publication number
JP2020128877A
JP2020128877A JP2019020188A JP2019020188A JP2020128877A JP 2020128877 A JP2020128877 A JP 2020128877A JP 2019020188 A JP2019020188 A JP 2019020188A JP 2019020188 A JP2019020188 A JP 2019020188A JP 2020128877 A JP2020128877 A JP 2020128877A
Authority
JP
Japan
Prior art keywords
abnormality
image
pixel
linear body
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019020188A
Other languages
Japanese (ja)
Other versions
JP7124743B2 (en
Inventor
凛平 望月
Rimpei Mochizuki
凛平 望月
寛修 深井
Hironaga Fukai
寛修 深井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP2019020188A priority Critical patent/JP7124743B2/en
Publication of JP2020128877A publication Critical patent/JP2020128877A/en
Application granted granted Critical
Publication of JP7124743B2 publication Critical patent/JP7124743B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Abstract

To provide a linear object abnormality detection device and an abnormality detection method that can detect an abnormality more accurately by improving detection accuracy in the shape and position of the abnormality and that can present the determination basis in more detail when the abnormality is detected.SOLUTION: A linear object abnormality detection device 10 detects an abnormality of a linear object by analyzing an image obtained by imaging the linear object. The linear object abnormality detection device 10 includes: a learning model 43 that deeply learns as learning data, a learning image about the linear object and a correct value of whether or not a pixel corresponds to the abnormality in each pixel in the learning image; an abnormality inference part 42 that infers whether or not a pixel corresponds to the abnormality for each pixel in an input image that is the image input as the input image to the learning model 43; and an abnormality determination part 51 that determines whether or not the abnormality exists in the input image based on the inference result of the abnormality inference unit 42.SELECTED DRAWING: Figure 2

Description

本発明は、線状体の異常検出装置及び異常検出方法に関する。 The present invention relates to a linear body abnormality detection device and an abnormality detection method.

従来より、例えばワイヤーやロープ、電線等の線状体が、設備等を構成する重要な部品として、広く使用されている。線状体は、物体を結束、吊架することによる物体の支持や、電気の導電等の、様々な目的で使用されている。
線状体は、経年劣化や、外力が作用することにより、断線、裂傷等の異常が生じる場合がある。線状体の異常は、点検作業員が目視で線状体そのものを確認したり、あるいは線状体を撮像した画像を閲覧したりすることにより検出されることがあるが、これらの作業は多くの時間や労力を必要とする。このため、線状体の点検作業に要する時間や労力を低減することが検討されている。
BACKGROUND ART Conventionally, linear bodies such as wires, ropes, and electric wires have been widely used as important parts constituting equipment and the like. The linear body is used for various purposes such as supporting an object by binding and suspending the object and conducting electricity.
The linear body may be deteriorated with age or an external force may be applied to cause abnormalities such as disconnection and laceration. Abnormalities in the linear body may be detected by an inspection worker visually confirming the linear body itself or by viewing an image of the linear body. Need time and effort. Therefore, reduction of time and labor required for the inspection work of the linear body has been studied.

特許文献1には、高次局所的自己相関特徴を用いて、点検対象物の異常の有無と、及び異常の位置を検出する、異常領域検出装置が開示されている。より詳細には、高次局所自己相関特徴による領域特徴空間の中で正常領域特徴の部分空間を生成し、その部分空間からの距離あるいは角度を指標として異常領域を検出する。正常領域部分空間の生成には例えば主成分分析手法を用い、例えば累積寄与率0.99の主成分ベクトルにより主成分部分空間を構成する。
特許文献1のような異常領域検出装置においては、事前の準備作業として、正常なデータの集合から正常なデータの分布を求める必要がある。また、正常なデータの分布から異常を判定するための閾値を設定する必要がある。これらの作業には、専門的な知識が必要であり、導入が容易ではない。
Patent Document 1 discloses an abnormal area detection device that detects the presence or absence of an abnormality in an inspection target and the position of the abnormality using high-order local autocorrelation characteristics. More specifically, a subspace of the normal area feature is generated in the area feature space based on the higher-order local autocorrelation feature, and the abnormal area is detected using the distance or angle from the subspace as an index. For example, a principal component analysis method is used to generate the normal region subspace, and the principal component subspace is formed by, for example, a principal component vector with a cumulative contribution ratio of 0.99.
In the abnormal area detection device as in Patent Document 1, it is necessary to obtain a normal data distribution from a normal data set as a preliminary work. Further, it is necessary to set a threshold value for judging abnormality from the distribution of normal data. These tasks require specialized knowledge and are not easy to introduce.

これに対し、特許文献2には、送電設備に生じた異常個所を画像処理によって検出する巡視点検システムが開示されている。特許文献2の巡視点検システムにおいては、架空地線あるいは送電線に落雷があったことにより生じたアーク痕の画像データのサンプルが少ないことから、実際に生じた異常箇所の画像データだけでなく、被点検物に対して擬似的に付加した異常/劣化の状態を撮影した画像データをもとに疑似画像を生成し、ニューラルネットワークを活用したディープラーニングの技術を利用して大量の学習モデルを学習する。 On the other hand, Patent Document 2 discloses a patrol inspection system that detects an abnormal portion occurring in a power transmission facility by image processing. In the patrol inspection system of Patent Document 2, since there are few samples of image data of arc traces generated by lightning strikes on overhead ground lines or power transmission lines, not only image data of abnormal points actually generated, Generates a pseudo image based on the image data of the abnormal/degraded state that is artificially added to the object to be inspected, and learns a large amount of learning models using the deep learning technology that utilizes a neural network. To do.

特開2011−14152号公報JP, 2011-14152, A 特開2018−74757号公報JP, 2008-74757, A

上記の特許文献2のようなシステムや装置において、例えば一般的な畳み込みニューラルネットワーク(Convolutional Neural Network、以下CNNと記載する)を適用し、これに線状体を撮像した画像を入力することで線状体の異常を検出することが考えられる。CNNは、基本的に、画像内の特徴を様々なフィルタにより抽出する畳み込み層と、畳み込み層により出力された特徴画像の中から有効な値を残すように、特徴画像を縮小させるプーリング層を備えている。すなわち、CNNにおいては、画像内の特徴が抽出され縮小される過程において、特徴の、画像内での位置情報は曖昧になり、結果として物体の位置ずれの影響に強いパターン認識が可能となっている。
しかし、CNNを線状体の異常検出に適用する場合には、上記のような特徴を受け得る反面、異常を特徴として検出できたとしても、画像内での位置情報や形状が曖昧となる。また、CNNでは上記のようにフィルタによる処理を行っているため、検出された異常が、フィルタが適用される矩形領域の中の、どこに位置する、どのような形状の物体であるのかを、詳細に知ることが難しい。
したがって、線状体の検出装置にCNNを適用した場合には、異常が検出された際に、CNNが画像中のどの位置のどの形状の物体を異常と判断したか、その判定根拠を詳細に把握できない。このため、異常検出を自動化したとしても、結局は作業員が画像を目視確認して、異常の大きさや種類、位置を判断しなければならない場合がある。
異常の形状や位置の検出精度を高めることにより、異常をより正確に検出し、かつ異常検出時の判定根拠をより詳細に提示可能な、線状体の異常検出装置及び異常検出方法が求められている。
In the system or apparatus as in the above-mentioned Patent Document 2, for example, a general convolutional neural network (Convolutional Neural Network, hereinafter referred to as CNN) is applied, and a line image is input to the line to input the image. It is possible to detect abnormalities in the state. The CNN basically includes a convolution layer that extracts features in an image by various filters, and a pooling layer that reduces the feature image so that an effective value remains in the feature image output by the convolution layer. ing. That is, in CNN, in the process of extracting and reducing the feature in the image, the position information of the feature in the image becomes ambiguous, and as a result, pattern recognition that is strong against the influence of the displacement of the object becomes possible. There is.
However, when the CNN is applied to the abnormality detection of the linear body, the positional information and the shape in the image are ambiguous even if the abnormality as described above can be detected although the characteristic as described above can be received. In addition, since the CNN performs the processing by the filter as described above, it is possible to determine in detail the position and the shape of the detected abnormality in the rectangular area to which the filter is applied. Difficult to know in.
Therefore, when the CNN is applied to the linear object detection device, when the abnormality is detected, the shape of the object at which position in the image the CNN has determined to be abnormal, and the basis for the determination are described in detail. I can't figure it out. Therefore, even if the abnormality detection is automated, in some cases, the operator must eventually visually check the image to determine the size, type, and position of the abnormality.
There is a need for an anomaly detection device and an anomaly detection method for linear objects that can detect anomalies more accurately by presenting more accurate anomaly shape and position detection, and that can provide a more detailed basis for making judgments when anomalies are detected. ing.

本発明が解決しようとする課題は、異常の形状や位置の検出精度を高めることにより、異常をより正確に検出し、かつ異常検出時の判定根拠をより詳細に提示可能な、線状体の異常検出装置及び異常検出方法を提供することである。 The problem to be solved by the present invention is to improve the detection accuracy of the shape and position of the abnormality, thereby detecting the abnormality more accurately, and presenting the determination basis at the time of the abnormality detection in more detail. An anomaly detection device and an anomaly detection method are provided.

本発明は、上記課題を解決するため、以下の手段を採用する。すなわち、本発明は、線状体を撮像した画像を解析して前記線状体の異常を検出する、線状体の異常検出装置であって、前記線状体に関する学習画像と、当該学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデルを備え、当該学習モデルに対し、前記画像を入力画像として入力し、当該入力画像内の各画素に対して、当該画素が異常に該当するか否かを推論する、異常推論部と、当該異常推論部の推論結果を基に、前記入力画像内の異常の有無を判定する、異常判定部と、を備えている、線状体の異常検出装置を提供する。 The present invention adopts the following means in order to solve the above problems. That is, the present invention is a linear body abnormality detection device that analyzes an image of a linear body to detect an abnormality of the linear body, the learning image relating to the linear body, and the learning image. For each pixel in, the correct value of whether or not the pixel is abnormal, and a learning model deep learning has been provided as learning data, the image is input as an input image to the learning model, For each pixel in the input image, it is inferred whether or not the pixel corresponds to an abnormality, and the presence or absence of abnormality in the input image is determined based on the abnormality inference unit and the inference result of the abnormality inference unit. An abnormality detection device for a linear body, comprising:

また、本発明は、線状体を撮像した画像を解析して前記線状体の異常を検出する、線状体の異常検出方法であって、前記線状体に関する学習画像と、当該学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデルに対し、前記画像を入力画像として入力し、当該入力画像内の各画素に対して、当該画素が異常に該当するか否かを推論し、推論結果を基に、前記入力画像内の異常の有無を判定する、線状体の異常検出方法を提供する。 Further, the present invention is a method for detecting an abnormality of a linear body, which detects an abnormality of the linear body by analyzing an image obtained by capturing an image of the linear body, the learning image relating to the linear body, and the learning image. For each pixel in, the correct value of whether or not the pixel is abnormal, and the learning model deep learning as learning data, the image is input as an input image, each pixel in the input image On the other hand, there is provided a method for detecting an abnormality in a linear body, which infers whether or not the pixel corresponds to an abnormality, and determines the presence or absence of abnormality in the input image based on the inference result.

本発明によれば、異常の形状や位置の検出精度を高めることにより、異常をより正確に検出し、かつ異常検出時の判定根拠をより詳細に提示可能な、線状体の異常検出装置及び異常検出方法を提供することができる。 According to the present invention, by increasing the detection accuracy of the shape and position of the abnormality, it is possible to detect the abnormality more accurately, and to present the determination basis at the time of abnormality detection in more detail, and An abnormality detection method can be provided.

本発明の実施形態における線状体の異常検出装置及び異常検出方法において、異常検出の対象となる架空地線の説明図である。FIG. 4 is an explanatory diagram of an overhead ground wire which is a target of abnormality detection in the abnormality detection device and the abnormality detection method for a linear body according to the embodiment of the present invention. 上記線状体の異常検出装置のブロック図である。It is a block diagram of the above-mentioned linear body abnormality detection device. 上記線状体の異常検出装置内の学習モデルに入力される、学習画像の説明図である。It is explanatory drawing of the learning image input into the learning model in the abnormality detection device of the said linear body. 上記学習モデルにおける、教師画像の説明図である。It is explanatory drawing of the teacher image in the said learning model. 上記学習モデルの模式的なブロック図である。It is a schematic block diagram of the said learning model. 上記線状体の異常検出方法のフローチャートである。It is a flowchart of the abnormality detection method of the said linear body. 上記実施形態の第1変形例に関する、線状体の異常検出装置のブロック図である。It is a block diagram of an abnormality detection device of a linear object concerning the 1st modification of the above-mentioned embodiment. 上記第1変形例に関する線状体の異常検出装置の推論結果精査部へ入力される、異常推論部の出力画像である推論結果画像と、推論結果精査部の出力画像である精査画像の説明図である。Explanatory diagrams of an inference result image which is an output image of the abnormality inference unit and an inspection image which is an output image of the inference result inspection unit, which are input to the inference result inspection unit of the abnormality detecting device for the linear body according to the first modification. Is. 上記第1変形例に関する線状体の異常検出方法のフローチャートである。It is a flowchart of the abnormality detection method of the linear body regarding the said 1st modification. 上記実施形態の第2変形例に関する、線状体の異常検出装置の推論結果精査部へ入力される、異常推論部の出力画像である推論結果画像と、推論結果精査部の処理中の画像、及び推論結果精査部の出力画像である精査画像の説明図である。An inference result image which is an output image of the abnormality inference unit, which is input to the inference result inspection unit of the abnormality detecting device for a linear body, and an image which is being processed by the inference result inspection unit, regarding the second modified example of the embodiment. 9A and 9B are explanatory diagrams of a detailed examination image which is an output image of the inference result detailed examination unit.

以下、本発明の実施形態について図面を参照して詳細に説明する。
本実施形態における線状体の異常検出装置は、線状体を撮像した画像を解析して線状体の異常を検出するものであって、線状体に関する学習画像と、学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデルを備え、学習モデルに対し、画像を入力画像として入力し、入力画像内の各画素に対して、当該画素が異常に該当するか否かを推論する、異常推論部と、異常推論部の推論結果を基に、入力画像内の異常の有無を判定する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
The linear body abnormality detection device in the present embodiment detects an abnormality of the linear body by analyzing an image of the linear body, and includes a learning image regarding the linear body and each of the learning images in the learning image. A corrective value of whether or not the pixel is abnormal is provided for a pixel, and a learning model that is deeply learned as learning data is provided, and an image is input as an input image to the learning model, and each pixel in the input image is input. On the other hand, the presence/absence of an abnormality in the input image is determined based on the abnormality inference unit that infers whether or not the pixel corresponds to the abnormality and the inference result of the abnormality inference unit.

図1は、架空地線の説明図である。
上記のように、異常検出装置10は、線状体の異常を検出する装置である。本実施形態における線状体2は、例えば、鉄塔1間に架設された架空地線2である。架空地線2は、送電、配電等を目的として同様に鉄塔1間に架設された架空線3を、主に雷から保護する。
異常検出装置10は、点検機11、制御装置12、及び表示装置13を備えている。
FIG. 1 is an explanatory view of an overhead ground wire.
As described above, the abnormality detection device 10 is a device that detects an abnormality in the linear body. The linear body 2 in the present embodiment is, for example, an overhead ground wire 2 that is installed between the steel towers 1. The overhead ground wire 2 mainly protects the overhead wire 3 similarly installed between the steel towers 1 for the purpose of power transmission, distribution, etc. from lightning.
The abnormality detection device 10 includes an inspection machine 11, a control device 12, and a display device 13.

図2は、線状体2の異常検出装置10のブロック図である。
点検機11は、線状体2上を自律的に、あるいは操作されて走行するように構成されている。点検機11は、撮像装置20、記憶部21、及びGPS受信部22を備えている。
撮像装置20は、点検機11が線状体2上を走行する際に、線状体2の表面の画像を、動画として撮像する。撮像装置20は動画を記憶部21に保存する。
GPS受信部22は、所定の時間間隔で、図示されないGPS衛星からGPS信号を受信し、点検機11の座標位置を特定する。GPS受信部22は、特定された座標位置を、座標位置取得時の時刻と対応付け、組み合わせて記憶部21に保存する。
表示装置13は、例えばディスプレイ等であり、次に説明する制御装置12の指示に従って、制御装置12による異常の検出結果等を表示する。
FIG. 2 is a block diagram of the abnormality detection device 10 for the linear body 2.
The inspection machine 11 is configured to travel on the linear body 2 autonomously or by being operated. The inspection machine 11 includes an imaging device 20, a storage unit 21, and a GPS reception unit 22.
The imaging device 20 captures an image of the surface of the linear body 2 as a moving image when the inspection machine 11 travels on the linear body 2. The imaging device 20 stores the moving image in the storage unit 21.
The GPS receiving unit 22 receives a GPS signal from a GPS satellite (not shown) at a predetermined time interval and identifies the coordinate position of the inspection machine 11. The GPS receiving unit 22 associates the specified coordinate position with the time when the coordinate position is acquired, and stores the combined coordinate position in the storage unit 21 in combination.
The display device 13 is, for example, a display or the like, and displays a detection result of an abnormality by the control device 12 according to an instruction from the control device 12 described below.

制御装置12は、例えばパーソナルコンピュータやサーバ等の情報処理装置である。制御装置12は、データ保存部30、画像変換部31、学習部40、及び異常検出部50を備えている。学習部40は、学習用データ記憶部41と異常推論部42を備えている。異常検出部50は、異常判定部51、判定結果保存部52、及び表示制御部53を備えている。
これら制御装置12の構成要素のうち、画像変換部31、異常推論部42、異常判定部51、及び表示制御部53は、例えば上記の各情報処理装置内のCPUにより実行されるソフトウェア、プログラムであってよい。また、データ保存部30、学習用データ記憶部41、及び判定結果保存部52は、上記各情報処理装置内外に設けられた半導体メモリや磁気ディスクなどの記憶装置により実現されていてよい。
The control device 12 is an information processing device such as a personal computer or a server. The control device 12 includes a data storage unit 30, an image conversion unit 31, a learning unit 40, and an abnormality detection unit 50. The learning unit 40 includes a learning data storage unit 41 and an abnormality inference unit 42. The abnormality detection unit 50 includes an abnormality determination unit 51, a determination result storage unit 52, and a display control unit 53.
Among the components of the control device 12, the image conversion unit 31, the abnormality inference unit 42, the abnormality determination unit 51, and the display control unit 53 are, for example, software and programs executed by the CPU in each of the above information processing devices. You can Further, the data storage unit 30, the learning data storage unit 41, and the determination result storage unit 52 may be realized by a storage device such as a semiconductor memory or a magnetic disk provided inside or outside each of the information processing devices.

後に説明するように、異常推論部42は、入力された画像内の各画素に対して、当該画素が異常に該当するか否かを推論する。この推論を効果的に行うために、異常推論部42は、後に説明するように機械学習器を備えており、この機械学習器を深層学習して学習モデル43を生成する。異常推論部42は、実際に線状体2の異常を検出する処理を行う際には、この学習が完了した学習モデル43を使用して、入力された画像内の各画素に対して、当該画素が異常に該当するか否かを推論する。
すなわち、制御装置12は大別して、深層学習時における学習と、実際に線状体2の異常を検出する際における各画素が異常に該当するか否かの推論の、2通りの動作を行う。説明を簡単にするために、以下ではまず、深層学習時における、制御装置12の各構成要素の説明をした後に、実際の異常検出に際して各画素が異常に該当するか否かを推論する場合での各構成要素の挙動について説明する。
As described later, the abnormality inference unit 42 infers, with respect to each pixel in the input image, whether or not the pixel corresponds to an abnormality. In order to effectively perform this inference, the abnormality inference unit 42 includes a machine learning device as described later, and deep learning is performed on the machine learning device to generate the learning model 43. When actually performing the process of detecting the abnormality of the linear body 2, the abnormality inference unit 42 uses the learning model 43 for which the learning has been completed, with respect to each pixel in the input image. It is inferred whether or not the pixel corresponds to an abnormality.
In other words, the control device 12 roughly performs two operations, that is, learning during deep learning and inference as to whether or not each pixel corresponds to an abnormality when actually detecting an abnormality of the linear body 2. In order to simplify the explanation, in the following, first, a description will be given of each component of the control device 12 at the time of deep learning, and then it is inferred whether or not each pixel corresponds to an abnormality when actually detecting an abnormality. The behavior of each component of will be described.

まず、深層学習時における、制御装置12の構成要素の挙動を説明する。
データ保存部30には、点検機11の記憶部21に保存された、動画と、及び座標位置と時刻の複数の組み合わせとの各々が転送され、保存される。
画像変換部31は、データ保存部30から動画を取得し、これを複数の静止画に変換する。画像変換部31は、静止画を学習部40に送信する。
First, the behavior of the constituent elements of the control device 12 during deep learning will be described.
Each of the moving image and the plurality of combinations of coordinate positions and times stored in the storage unit 21 of the inspection machine 11 are transferred to and stored in the data storage unit 30.
The image conversion unit 31 acquires a moving image from the data storage unit 30 and converts this into a plurality of still images. The image conversion unit 31 transmits the still image to the learning unit 40.

学習部40は、画像変換部31から静止画を受信し、受信した静止画を学習画像として学習用データ記憶部41に保存する。
図3は、学習画像の説明図である。線状体2には、例えば難着雪リング等の、線状体2上に設けられる設備である線上設備4が設けられることがある。図3に示される学習画像45は、線状体2上の線上設備4が設けられた部分が撮像されたものである。
線状体2には、裂傷やアーク痕等の異常が生じる場合がある。図3に示される学習画像45は、線状体2上に2つの異常部分5が示されており、異常を含むものとなっている。しかし、学習画像45としては、正常な状態の、すなわち異常を含まない線状体2が撮像された画像も当然含み得る。
本実施形態においては、学習画像45の生成元である動画は、線状体2上を走行する点検機11によって、線状体2の近くから撮像されている。このため、線上設備4と異常部分5を含む、線状体2の部分が、学習画像45内で所定の割合以上の面積を占めている。線状体2の部分以外は、背景6となっている。
The learning unit 40 receives a still image from the image conversion unit 31, and saves the received still image as a learning image in the learning data storage unit 41.
FIG. 3 is an explanatory diagram of a learning image. The linear body 2 may be provided with a linear facility 4 such as a snow-hardening ring, which is a facility provided on the linear body 2. The learning image 45 shown in FIG. 3 is an image of a portion of the linear body 2 where the on-line equipment 4 is provided.
Abnormalities such as lacerations and arc marks may occur on the linear body 2. In the learning image 45 shown in FIG. 3, two abnormal portions 5 are shown on the linear body 2 and include an abnormality. However, the learning image 45 may naturally include an image of the linear body 2 in a normal state, that is, that does not include any abnormality.
In the present embodiment, the moving image, which is the generation source of the learning image 45, is imaged from the vicinity of the linear body 2 by the inspection machine 11 traveling on the linear body 2. Therefore, the portion of the linear body 2 including the on-line equipment 4 and the abnormal portion 5 occupies an area of a predetermined ratio or more in the learning image 45. The background 6 is provided except for the portion of the linear body 2.

学習用データ記憶部41には、上記のように点検機11から画像変換部31を介して受信した静止画が学習画像として保存される他に、学習作業者により他の手段で用意された、正常な、または異常を含む線状体2の画像が、学習画像として保存される。
このような、他の手段で用意された学習画像においても、線上設備4と異常部分5を含む線状体2の部分が、学習画像45内で所定の割合以上の面積を占めるように撮像され、または加工されている。
In the learning data storage unit 41, the still image received from the inspection machine 11 via the image conversion unit 31 as described above is stored as a learning image, and also prepared by a learning operator by other means. An image of the linear body 2 including normal or abnormal is stored as a learning image.
In such a learning image prepared by other means as well, the portion of the linear body 2 including the on-line equipment 4 and the abnormal portion 5 is imaged so as to occupy an area of a predetermined ratio or more in the learning image 45. , Or processed.

異常推論部42は、機械学習器を備えている。この機械学習器が深層学習されることにより、学習モデル43が生成される。学習モデル43は、実際の異常検出に際して各画素が異常に該当するか否かを推論する。すなわち、機械学習器は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される、適切な学習パラメータが学習された学習済みモデル43を生成するものである。
以下、説明を簡単にするため、異常推論部42が備えている機械学習器と、これが学習されて生成される学習モデルをともに、同じ符号を付して、機械学習器43、または学習モデル43と呼称する。
学習用データ記憶部41に保存された各学習画像45は、この機械学習器43の深層学習における、入力画像として使用される。機械学習器43が、入力された学習画像45に対して深層学習するためには、深層学習の目標となる、学習画像45に対応する教師データが必要である。
The abnormality inference unit 42 includes a machine learning device. The learning model 43 is generated by performing deep learning on the machine learning device. The learning model 43 infers whether or not each pixel corresponds to an abnormality when actually detecting the abnormality. In other words, the machine learning device is used as a program module that is a part of artificial intelligence software to generate a learned model 43 in which appropriate learning parameters have been learned.
Hereinafter, for simplification of description, the machine learning device included in the abnormality inference unit 42 and the learning model generated by learning the same are allotted with the same reference numeral, and the machine learning device 43 or the learning model 43 is used. I call it.
Each learning image 45 stored in the learning data storage unit 41 is used as an input image in the deep learning of the machine learning device 43. In order for the machine learning device 43 to perform deep learning on the input learning image 45, teacher data corresponding to the learning image 45, which is a target of deep learning, is necessary.

各学習画像45に対応する教師データは、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値である。より詳細には、正解値は、学習画像45内の各画素に対応して表示される物が、背景6、線状体2、線上設備4、及び異常部分5として大別される分類区分のいずれに該当するかを示すものである。
特に本実施形態においては、各画素に対して、当該画素が図3に示される背景6に該当するか否かを示す値である背景値、当該画素が線状体2に該当するか否かを示す値である線状体値、当該画素が線上設備4に該当するか否かを示す値である線上設備値、及び当該画素が異常部分5に該当するか否かを示す値である異常部分値の、4つの値の組み合わせが正解値となる。背景値、線状体値、線上設備値、異常部分値には、画素が分類区分内の各要素に該当する場合には例えば1が、該当しない場合には例えば0が、設定される。したがって、各画素に対して、各要素が0または1の、背景値、線状体値、線上設備値、異常部分値の組み合わせである(背景値、線状体値、線上設備値、異常部分値)が正解値となる。
例えば、図3において背景6に該当する画素の正解値は、(1、0、0、0)となり得る。線状体2に該当する画素の正解値は、(0、1、0、0)となり得る。線上設備4に該当する画素の正解値は、(0、0、1、0)となり得る。更に、異常部分5に該当する画素の正解値は、(0、0、0、1)となり得る。
このように、正解値は、学習画像45内の各画素に対応して設けられ、対応する画素が背景6、線状体2、及び異常部分5を含む分類区分のいずれに該当するかを示すものである。
The teacher data corresponding to each learning image 45 is, for each pixel in the learning image 45, a correct value of whether or not the pixel corresponds to an abnormality. More specifically, the correct answer values are classified into the classification categories in which the objects displayed corresponding to each pixel in the learning image 45 are roughly classified into the background 6, the linear body 2, the linear equipment 4, and the abnormal portion 5. It indicates which one is applicable.
In particular, in the present embodiment, for each pixel, a background value that is a value indicating whether or not the pixel corresponds to the background 6 shown in FIG. 3, and whether or not the pixel corresponds to the linear body 2. , A linear body value that is a value that indicates the pixel, a linear facility value that is a value that indicates whether the pixel corresponds to the on-line equipment 4, and an abnormality that is a value that indicates whether the pixel corresponds to the abnormal portion 5. The combination of four partial values is the correct value. The background value, the linear object value, the on-line equipment value, and the abnormal portion value are set to 1, for example, when the pixel corresponds to each element in the classification section, and when not corresponding, for example, 0. Therefore, for each pixel, a combination of the background value, the linear body value, the line facility value, and the abnormal portion value in which each element is 0 or 1 (background value, linear body value, linear facility value, abnormal portion value) Value) is the correct value.
For example, the correct answer value of the pixel corresponding to the background 6 in FIG. 3 may be (1, 0, 0, 0). The correct value of the pixel corresponding to the linear body 2 can be (0, 1, 0, 0). The correct value of the pixel corresponding to the on-line facility 4 can be (0, 0, 1, 0). Further, the correct value of the pixel corresponding to the abnormal portion 5 can be (0, 0, 0, 1).
In this way, the correct answer value is provided corresponding to each pixel in the learning image 45, and indicates which of the classification category including the background 6, the linear body 2, and the abnormal portion 5 the corresponding pixel corresponds to. It is a thing.

各分類区分に固有の色を対応づけた際に、各画素を、対応する正解値が該当する分類区分の色で着色した画像を、以下、教師画像と呼称する。すなわち、教師画像は、学習画像45と同等の解像度を備えており、各画素は、学習画像45において当該画素に対応する画素に表示される物体が該当する分類区分に対応した色を有している。
図4は、教師画像46の説明図である。教師画像46の、図3における背景6に相当する領域である背景領域6R内の各画素は、淡く見えるドットパターン(例えば淡い灰色に対応)で着色されている。教師画像46の、図3における線状体2に相当する領域である線状体領域2R内の各画素は、濃く見えるドットパターン(例えば黒色に対応)で着色されている。教師画像46の、図3における線上設備4に相当する領域である線上設備領域4R内の各画素は、線状体領域2Rと背景領域6Rとは異なる濃度のドットパターン(例えば濃い灰色に対応)で着色されている。教師画像46の、図3における異常部分5に相当する領域である異常部分領域(異常領域)5R内の各画素は、例えば白色で着色されている。
教師データは、例えばこのような構成の教師画像に対して、各画素に対応する上記の正解値が付与されたもので有り得る。
教師データは、学習画像45に対応付けられて、学習用データ記憶部41に保存されている。
An image in which each pixel is colored with a color of a classification category to which a corresponding correct value corresponds when a unique color is associated with each classification category is hereinafter referred to as a teacher image. That is, the teacher image has a resolution equivalent to that of the learning image 45, and each pixel has a color corresponding to the classification category to which the object displayed in the pixel corresponding to the pixel in the learning image 45 corresponds. There is.
FIG. 4 is an explanatory diagram of the teacher image 46. Each pixel in the background area 6R of the teacher image 46, which is an area corresponding to the background 6 in FIG. 3, is colored with a dot pattern that looks light (corresponding to light gray, for example). Each pixel in the linear body region 2R of the teacher image 46, which is a region corresponding to the linear body 2 in FIG. 3, is colored with a dot pattern that appears dark (corresponding to, for example, black). Each pixel in the linear equipment region 4R of the teacher image 46, which is a region corresponding to the linear facility 4 in FIG. 3, has a dot pattern with a different density between the linear body region 2R and the background region 6R (corresponding to dark gray, for example). It is colored with. Each pixel in the abnormal portion area (abnormal area) 5R of the teacher image 46, which is an area corresponding to the abnormal portion 5 in FIG. 3, is colored in white, for example.
The teacher data may be, for example, the teacher image of such a configuration to which the correct value corresponding to each pixel is added.
The teacher data is stored in the learning data storage unit 41 in association with the learning image 45.

異常推論部42の学習モデル43は、上記のような、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値を含む教師データとを、学習データとして深層学習される。
図5は、機械学習器(学習モデル)43の模式的なブロック図である。本実施形態においては、学習モデル43は、全層畳み込みネットワーク(Fully Convolutional Network、以下FCNと記載する)により実現されて、セマンティックセグメンテーションにより、入力された画像内の各画素が異常に該当するか否かを推論するように、学習されている。FCNは、以下に説明するように、全結合層を備えず、畳み込み層において処理、生成された特徴マップを直接、逆畳み込み層への入力とするものである。FCNによって、任意の大きさの画像を入力として使用できるとともに、学習により適切な特徴を選択して推定することが可能となる。
The learning model 43 of the abnormality inference unit 42 includes a learning image 45 regarding the linear body 2 as described above, and a teacher that includes, for each pixel in the learning image 45, a correct value of whether or not the pixel is abnormal. Deep learning is performed using the data and as learning data.
FIG. 5 is a schematic block diagram of the machine learning device (learning model) 43. In the present embodiment, the learning model 43 is realized by a full-layer convolutional network (Fully Convolutional Network, hereinafter referred to as FCN), and whether or not each pixel in the input image corresponds to abnormality is realized by the semantic segmentation. Learned to reason. As will be described below, the FCN does not have a fully connected layer and directly inputs the feature map processed and generated in the convolutional layer to the deconvolutional layer. The FCN allows an image of an arbitrary size to be used as an input, and allows learning to select and estimate an appropriate feature.

機械学習器43は、畳み込み処理部47と逆畳み込み処理部48を備えている。畳み込み処理部47は、直列に接続された、複数の畳み込み層47a、47b、47cを備えている。逆畳み込み処理部48は、同様に直列に接続された、複数の逆畳み込み層48c、48b、48aを備えている。図5においては、畳み込み層と逆畳み込み層の数はそれぞれ3となるように図示されているが、これら畳み込み層と逆畳み込み層の数は3に限られない。 The machine learning device 43 includes a convolution processing unit 47 and a deconvolution processing unit 48. The convolution processing unit 47 includes a plurality of convolution layers 47a, 47b, 47c connected in series. The deconvolution processing unit 48 includes a plurality of deconvolution layers 48c, 48b and 48a which are similarly connected in series. In FIG. 5, the number of convolutional layers and the number of deconvolutional layers are illustrated as three, respectively, but the number of convolutional layers and deconvolutional layers is not limited to three.

異常推論部42は、学習用データ記憶部41から学習画像45を取得し、初段の畳み込み層47aへと入力する。
畳み込み層47aは、図示されない所定の数のフィルタを備えている。機械学習器43は、各フィルタに対し、これを学習画像45上に位置付け、フィルタ内の学習画像45の各画素の画素値に対して、フィルタ内に画素位置に対応して設定された重みを付けて和を計算することで、畳み込みフィルタ処理を実行する。これにより、畳み込み層47aにおける1つの画素の画素値が演算される。機械学習器43は、フィルタを学習画像45上で所定の解像度刻みで移動させつつ、このような畳み込みフィルタ処理を実行することで複数の画素値を演算し、これを並べて、フィルタに対応した1枚の画像を生成する。
機械学習器43は、この処理を、全てのフィルタに対して実行し、フィルタの数に応じた特徴マップを生成する。
The abnormality inference unit 42 acquires the learning image 45 from the learning data storage unit 41 and inputs it to the convolutional layer 47a in the first stage.
The convolutional layer 47a includes a predetermined number of filters (not shown). The machine learning device 43 positions each filter on the learning image 45 and assigns the weight set in the filter corresponding to the pixel position to the pixel value of each pixel of the learning image 45 in the filter. The convolution filter processing is executed by adding the sum and calculating the sum. Thereby, the pixel value of one pixel in the convolutional layer 47a is calculated. The machine learning device 43 calculates a plurality of pixel values by executing such convolution filter processing while moving the filter on the learning image 45 at a predetermined resolution step, and arranges the pixel values so that 1 corresponding to the filter is obtained. Generates one image.
The machine learning device 43 executes this process for all the filters, and generates a feature map according to the number of filters.

フィルタは、実際には、学習画像45の画素値の強調や平滑化等を重みとして表現したものである。このようなフィルタを用いて畳み込みフィルタ処理を実行して生成された特徴マップにおいては、エッジ特徴等の画像の濃淡パターンが効果的に抽出されている。また、学習画像45の局所的な領域からフィルタを通して特徴を抽出するため、学習画像45内に存在する物体の位置のずれに対して頑健となる。 The filter is actually expressed by weighting the enhancement or smoothing of the pixel value of the learning image 45. In the feature map generated by executing the convolution filter process using such a filter, the grayscale pattern of the image such as the edge feature is effectively extracted. Further, since the feature is extracted from the local area of the learning image 45 through the filter, the object is robust against the displacement of the position of the object existing in the learning image 45.

畳み込み層47aにおいては、畳み込みフィルタ処理の後に、プーリング処理が実行される。より詳細には、各特徴マップを例えば2×2の大きさの複数の小領域に区切り、各小領域に対して当該小領域内の画素値の最大値を算出して、1つの画素の画素値とすることで、各特徴マップの2×2の小領域の各々を1×1の画素へと変換し、情報を縮約させる。プーリング処理は、上記のように、各特徴マップの局所領域から最大の画素値を選択するため、画像に特化された適切な特徴のみを残すことが可能であり、以降の処理を効率的に行うことができる。 In the convolutional layer 47a, pooling processing is executed after the convolutional filter processing. More specifically, each feature map is divided into a plurality of small regions each having a size of 2×2, the maximum pixel value in each small region is calculated, and the pixel of one pixel is calculated. By setting the value, each of the 2×2 small areas of each feature map is converted into a 1×1 pixel, and the information is contracted. As described above, in the pooling process, the maximum pixel value is selected from the local area of each feature map, so it is possible to leave only the appropriate features that are specialized for the image, and the subsequent processes can be performed efficiently. It can be carried out.

畳み込み層47aにおいて生成された、プーリング処理された特徴マップは、次段の畳み込み層47bの入力画像となる。 The pooled feature map generated in the convolutional layer 47a becomes the input image of the convolutional layer 47b in the next stage.

畳み込み層47bにおいては、畳み込み層47aと同様に、畳み込みフィルタ処理とプーリング処理が順次実行される。畳み込み層47bは、畳み込み層47aのフィルタよりも小さい大きさの、所定の数のフィルタを備えており、これらを用いて畳み込みフィルタ処理を実行し、更にプーリング処理を実行することで、フィルタの数に応じた所定の数の、プーリング処理された特徴マップを生成する。
畳み込み層47cにおいても、畳み込みフィルタ処理とプーリング処理が順次実行される。畳み込み層47cは、畳み込み層47bのフィルタよりも小さい大きさの、所定の数のフィルタを備えており、これらを用いて畳み込みフィルタ処理を実行し、更にプーリング処理を実行することで、フィルタの数に応じた所定の数の、プーリング処理された特徴マップを生成する。
各畳み込み層47a、47b、47cにおけるフィルタの重みは、機械学習により調整される。
畳み込み層47cにおいてプーリング処理された特徴マップは、逆畳み込み処理部48の逆畳み込み層48cへの入力となる。
Similar to the convolutional layer 47a, the convolutional layer 47b sequentially executes the convolutional filter process and the pooling process. The convolutional layer 47b has a predetermined number of filters smaller in size than the filters of the convolutional layer 47a. By using these filters, the convolutional filtering process is executed, and further the pooling process is executed. A predetermined number of pooled feature maps according to the above are generated.
Also in the convolution layer 47c, the convolution filter process and the pooling process are sequentially executed. The convolutional layer 47c is provided with a predetermined number of filters smaller in size than the filters of the convolutional layer 47b. By using these, the convolutional filtering process is executed, and further the pooling process is executed. A predetermined number of pooled feature maps according to the above are generated.
The filter weight in each convolutional layer 47a, 47b, 47c is adjusted by machine learning.
The feature map subjected to the pooling processing in the convolutional layer 47c is input to the deconvolutional layer 48c of the deconvolution processing unit 48.

逆畳み込み処理部48は、畳み込み処理部47と対称的な構造となっている。すなわち、学習画像45は畳み込み処理部47により低次元に圧縮されたが、逆畳み込み処理部48においては、低次元に圧縮された状態から拡大し、復元されるように動作する。より詳細には、畳み込み層47cに対応する逆畳み込み処理を実行する逆畳み込み層48c、畳み込み層47bに対応する逆畳み込み処理を実行する逆畳み込み層48b、及び畳み込み層47aに対応する逆畳み込み処理を実行する逆畳み込み層48aを順に経ることで、出力データ49が生成される。 The deconvolution processing unit 48 has a symmetrical structure with the convolution processing unit 47. That is, the learning image 45 is compressed into a low dimension by the convolution processing unit 47, but the deconvolution processing unit 48 operates so as to be expanded and restored from the low-dimensional compression state. More specifically, the deconvolution layer 48c that executes the deconvolution process corresponding to the convolution layer 47c, the deconvolution layer 48b that executes the deconvolution process corresponding to the convolution layer 47b, and the deconvolution process corresponding to the convolution layer 47a are executed. The output data 49 is generated by sequentially passing through the deconvolution layer 48a to be executed.

機械学習器43は、出力データ49として、教師データと同様な要領で、学習画像45内の各画素が分類区分の各々に該当し得る確率を出力する。例えば、ある画素に対し、当該画素が背景6に該当する確率が0.6、線状体2に該当する確率が0.2、線上設備4及び異常部分5の各々に該当する確率が0.1であると、機械学習器43が推論した場合、当該画素に対して(0.6、0.2、0.1、0.1)の値の組み合わせが出力される。
出力データ49に基づき、図4に示される教師画像46と同様に表現した画像を、以下、推論結果画像56と呼称する。すなわち、推論結果画像56は、推論結果の各々に関する情報を、これに対応する画素の位置に、色として反映して配置した画像であり、図4に示されるように、各画素が、当該画素に対応する出力値に含まれる複数の確率値の中で、最も高い値の確率に対応する分類区分に対応した色を有するようになっている。
The machine learning device 43 outputs, as the output data 49, the probability that each pixel in the learning image 45 can correspond to each of the classification categories, in the same manner as the teacher data. For example, with respect to a certain pixel, the probability that the pixel corresponds to the background 6 is 0.6, the probability that the pixel corresponds to the linear body 2 is 0.2, and the probability that the pixel corresponds to each of the linear equipment 4 and the abnormal portion 5 is 0. When the value is 1, when the machine learning unit 43 infers, a combination of values (0.6, 0.2, 0.1, 0.1) is output for the pixel.
An image expressed based on the output data 49 in the same manner as the teacher image 46 shown in FIG. 4 is hereinafter referred to as an inference result image 56. That is, the inference result image 56 is an image in which information regarding each of the inference results is reflected and arranged at the position of the pixel corresponding thereto as a color. As shown in FIG. Among the plurality of probability values included in the output value corresponding to, the color corresponding to the classification section corresponding to the highest value probability is provided.

上記のように各畳み込み層47a、47b、47cの各々において生成された特徴マップは、画像内の物体の位置のずれや大きさの違いの影響を受けにくいものとなっている。換言すれば、畳み込み処理部47により生成された特徴マップにおいては、物体の位置に関する情報の多くが失われている。
ここで、各逆畳み込み層48c、48b、48aにおいては、上記のように対応する畳み込み層47c、47b、47aに対応する処理を実行するとともに、各畳み込み層47c、47b、47aにおける処理データを使用することによって、各畳み込み層47a、47b、47cにおいて失われた位置情報を補完している。これにより、逆畳み込み処理部48から出力された出力データ49及びこれに対応する推論結果画像56は、位置情報が画素単位で復元されたものとなっている。
位置情報の補完は、例えば、各畳み込み層47a、47b、47cのプーリング処理において最大の画素値として選択された画素の位置を記憶しておき、逆畳み込み層48c、48b、48aにおいて画像を拡大、復元する際に、記憶された場所に特徴マップの画素値をコピーしたうえで、コピーされた画素間の画素の画素値を、これら特徴マップからコピーされた画素の画素値を基に、例えばバイリニアで補完することにより行われ得る。
The feature map generated in each of the convolutional layers 47a, 47b, and 47c as described above is less susceptible to the positional shift and the size difference of the object in the image. In other words, much of the information regarding the position of the object is lost in the feature map generated by the convolution processing unit 47.
Here, in each of the convolutional layers 48c, 48b, 48a, the processing corresponding to the corresponding convolutional layers 47c, 47b, 47a is executed as described above, and the processed data in each of the convolutional layers 47c, 47b, 47a is used. By doing so, the positional information lost in each convolutional layer 47a, 47b, 47c is complemented. As a result, the output data 49 output from the deconvolution processing unit 48 and the inference result image 56 corresponding to the output data 49 have position information restored in pixel units.
The position information is complemented, for example, by storing the position of the pixel selected as the maximum pixel value in the pooling process of each convolution layer 47a, 47b, 47c, and enlarging the image in the deconvolution layers 48c, 48b, 48a. At the time of restoration, after copying the pixel values of the feature map to the stored location, the pixel values of the pixels between the copied pixels are set based on the pixel values of the pixels copied from these feature maps, for example, bilinear. Can be done by complementing with.

機械学習器43では、出力データ49における各画素に関する推論結果が、入力された学習画像45に対応する教師データの正解値に近い値となるように、機械学習が行われる。このために、異常推論部42は、入力された学習画像45に対応する教師データを学習用データ記憶部41から取得し、教師データ内の正解値と出力データ49の値を画素単位で比較して、例えば各画素間のこれらの差分の2乗誤差をコスト関数として計算する。
その上で、このコスト関数を小さくするように、誤差逆伝搬法等により、各フィルタの重みの値等を調整することで、機械学習器43が機械学習される。
結果として、例えば、図3において背景6に該当する画素の、教師データ上での正解値は(1、0、0、0)であるため、出力データ49の当該画素に対応する出力値としては、1番目の背景6に該当する確率値が他よりも1に近く、他の確率値が1番目の確率値よりも0に近い値の組み合わせとなり得る。
このように、学習が終了した学習モデル43は、何らかの画像が入力画像として入力された際に、入力画像内の各画素に対し、当該画素が分類区分の各々に該当し得る確率を出力する。
In the machine learning device 43, machine learning is performed so that the inference result regarding each pixel in the output data 49 becomes a value close to the correct value of the teacher data corresponding to the input learning image 45. For this reason, the abnormality inference unit 42 acquires the teacher data corresponding to the input learning image 45 from the learning data storage unit 41, and compares the correct answer value in the teacher data and the value of the output data 49 in pixel units. Then, for example, the squared error of these differences between each pixel is calculated as a cost function.
Then, the machine learning device 43 is machine-learned by adjusting the weight value of each filter by the error back propagation method or the like so as to reduce the cost function.
As a result, for example, the correct value of the pixel corresponding to the background 6 in FIG. 3 on the teacher data is (1, 0, 0, 0), and therefore the output value corresponding to the pixel of the output data 49 is It is possible that the probability value corresponding to the first background 6 is closer to 1 than the other, and the other probability values are closer to 0 than the first probability value.
As described above, when learning is completed, the learning model 43 outputs the probability that, when an image is input as an input image, for each pixel in the input image, the pixel may correspond to each of the classification categories.

次に、実際の異常検出に際して各画素が異常に該当するか否かを推論する場合での、すなわち、学習モデル43の深層学習が終了した後における、制御装置12の各構成要素の挙動について説明する。 Next, the behavior of each component of the control device 12 in the case of inferring whether or not each pixel corresponds to an abnormality in actual abnormality detection, that is, after the deep learning of the learning model 43 is finished will be described. To do.

点検機11を、上記の説明と同様な要領で、異常検出の対象となる線状体2上を走行させ、動画と、及び座標位置と時刻の複数の組み合わせを、記憶部21に保存する。
データ保存部30には、点検機11の記憶部21に保存された、動画と、及び座標位置と時刻の複数の組み合わせとの各々が転送され、保存される。
画像変換部31は、データ保存部30から動画を取得し、これを複数の静止画に変換する。画像変換部31は、座標位置と時刻の複数の組み合わせをデータ保存部30から取得し、変換された静止画の各々に対して、この複数の組み合わせと当該静止画が撮像された時刻を基に当該静止画が撮像された座標位置を推定する。
画像変換部31は、静止画を学習モデル43への入力画像として、学習部40に送信する。
画像変換部31はまた、上記入力画像と、これに対応する撮像された座標位置を、学習部40に送信すると同時に、後に説明する判定結果保存部52に送信し、保存する。
In the same manner as described above, the inspection machine 11 is caused to travel on the linear body 2 that is the target of abnormality detection, and a moving image and a plurality of combinations of coordinate position and time are stored in the storage unit 21.
Each of the moving image and the plurality of combinations of coordinate positions and times stored in the storage unit 21 of the inspection machine 11 are transferred to and stored in the data storage unit 30.
The image conversion unit 31 acquires a moving image from the data storage unit 30 and converts this into a plurality of still images. The image conversion unit 31 acquires a plurality of combinations of coordinate position and time from the data storage unit 30, and for each of the converted still images, based on the plurality of combinations and the time when the still image was captured. The coordinate position where the still image is captured is estimated.
The image conversion unit 31 transmits the still image as an input image to the learning model 43 to the learning unit 40.
The image conversion unit 31 also transmits the input image and the imaged coordinate position corresponding to the input image to the learning unit 40 and at the same time to the determination result storage unit 52, which will be described later, to store the same.

入力画像は、例えば図3に学習画像45として示した画像と同様な画像55となる。本実施形態においては、入力画像55の生成元である動画は、学習画像45と同様に線状体2上を走行する点検機11によって撮像されているため、線上設備4と異常部分5を含む線状体2の部分が、入力画像55内で所定の割合以上の面積を占めている。 The input image is, for example, an image 55 similar to the image shown as the learning image 45 in FIG. In the present embodiment, the moving image, which is the generation source of the input image 55, is captured by the inspection machine 11 traveling on the linear body 2 similarly to the learning image 45, and thus includes the linear equipment 4 and the abnormal portion 5. The part of the linear body 2 occupies an area of a predetermined ratio or more in the input image 55.

学習部40の異常推論部42は、画像変換部31から入力画像55を受信する。
異常推論部42は、学習モデル43に、入力画像55を入力画像として入力し、学習モデル43によって、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論する。
この学習モデル43は、入力画像55の各画素が異常に該当するか否かを推論するように深層学習されている、学習済みのモデルである。
The abnormality inference unit 42 of the learning unit 40 receives the input image 55 from the image conversion unit 31.
The anomaly inference unit 42 inputs the input image 55 as an input image to the learning model 43, and infers, for each pixel in the input image 55, whether or not the pixel corresponds to an anomaly, by the learning model 43. ..
The learning model 43 is a learned model that has undergone deep learning so as to infer whether or not each pixel of the input image 55 corresponds to an abnormality.

異常推論部42は、学習部40によって事前に深層学習されて、フィルタの重み等のFCNを構成する各パラメータの値が調整、決定された、学習済みの学習モデル43が、例えばCPU上でプログラムとして実行されることで、入力画像55の各画素が異常に該当するか否かを推論する。
より詳細には、異常推論部42が、入力画像55を学習モデル43に入力すると、学習モデル43は、畳み込み層47a、47b、47cと、及び逆畳み込み層48c、48b、48aを順に辿りながら、畳み込み処理、プーリング処理、逆畳み込み処理等を実行する。最終的に逆畳み込み層48aから、入力画像55に対応する出力データ49が出力される。
The anomaly inference unit 42 performs a deep learning in advance by the learning unit 40 and adjusts and determines the value of each parameter constituting the FCN such as the weight of the filter, and the learned learning model 43 is programmed on the CPU, for example. Is executed to infer whether or not each pixel of the input image 55 corresponds to an abnormality.
More specifically, when the anomaly inference unit 42 inputs the input image 55 to the learning model 43, the learning model 43 sequentially traces the convolution layers 47a, 47b, 47c and the deconvolution layers 48c, 48b, 48a, Executes convolution processing, pooling processing, deconvolution processing, and the like. Finally, the output data 49 corresponding to the input image 55 is output from the deconvolution layer 48a.

学習が終了した学習モデル43は、入力画像55が入力された際に、入力画像55内の各画素が分類区分の各々に該当し得る確率を、出力データ49として出力する。
異常推論部42は、各画素に対し、出力データ49上で該当し得る確率が最も高い分類区分を、当該画素に該当する分類区分であると推論する。
異常推論部42はまた、出力データ49に対し、図4に示されるような推論結果画像56を生成する。すなわち、推論結果画像56は、各画素が、上記のように該当すると推論された分類区分に対応した色を有するように生成される。
異常推論部42は、入力画像55と、出力データ49、及び出力データ49を基に生成した推論結果画像56を、異常検出部50の異常判定部51へ送信する。
When the input image 55 is input, the learning model 43 that has finished learning outputs the probability that each pixel in the input image 55 can correspond to each of the classification categories, as output data 49.
The anomaly inference unit 42 infers that for each pixel, the classification category having the highest probability of being applicable on the output data 49 is the classification category corresponding to the pixel.
The abnormality inference unit 42 also generates an inference result image 56 as shown in FIG. 4 for the output data 49. That is, the inference result image 56 is generated such that each pixel has a color corresponding to the classification section inferred to be applicable as described above.
The abnormality inference unit 42 transmits the input image 55, the output data 49, and the inference result image 56 generated based on the output data 49 to the abnormality determination unit 51 of the abnormality detection unit 50.

異常判定部51は、異常推論部42から、入力画像55、出力データ49、及び推論結果画像56を受信する。
異常判定部51は、異常推論部42の推論結果、この場合においては推論結果画像56を基に、入力画像55内の異常の有無を判定する。
The abnormality determination unit 51 receives the input image 55, the output data 49, and the inference result image 56 from the abnormality inference unit 42.
The abnormality determination unit 51 determines the presence or absence of abnormality in the input image 55 based on the inference result of the abnormality inference unit 42, in this case, the inference result image 56.

FCNを用いて、セマンティックセグメンテーションによって画素単位で分類区分を推論した場合には、分類区分の推論が画素単位で行われるため、例えば類似する画像パターンが存在する場合に、誤判断が生じる場合がある。また、背景6と、例えば線状体2等の物体との境界部分は推論が難しく、このような理由によっても誤判断が生じる場合もある。このような場合においては、誤判断は推論結果画像56において、微小領域のノイズとなって表れることが多い。
このようなノイズを低減するため、異常判定部51は、異常部分5に該当すると異常推論部42によって推論された画素が、例えば推論結果画像56上で連続することにより形成される異常部分領域(異常領域)5Rの面積が、所定の閾値以上の場合に、入力画像55内に異常があると判定する。
また、異常判定部51は、面積が上記の所定の閾値以下の異常部分領域5Rがある場合には、推論結果画像56内の該当する部分を周囲の、例えば線状体2の分類区分に対応する色(例えば図4においては濃く見えるドットパターンに対応する黒色)に再設定する。
これにより、ノイズとみなされる異常部分領域5Rによって、入力画像55内に異常があると判定される可能性が低減される。
When the classification section is inferred on a pixel-by-pixel basis by the semantic segmentation using the FCN, the classification section is inferred on a pixel-by-pixel basis, so that a misjudgment may occur, for example, when similar image patterns exist. .. Further, it is difficult to infer a boundary portion between the background 6 and an object such as the linear body 2, and an erroneous judgment may occur due to such a reason. In such a case, the misjudgment often appears as noise in a minute area in the inference result image 56.
In order to reduce such noise, the abnormality determining unit 51 causes the abnormality inferring unit 42 to infer that the pixels inferred by the abnormality inferring unit 42 are continuous on the inference result image 56, for example. When the area of the abnormal region) 5R is equal to or larger than a predetermined threshold value, it is determined that the input image 55 has an abnormality.
Further, when there is an abnormal portion region 5R having an area equal to or smaller than the above-mentioned predetermined threshold value, the abnormality determination unit 51 corresponds the corresponding portion in the inference result image 56 to the surrounding classification of, for example, the linear body 2. (For example, black corresponding to a dot pattern that appears dark in FIG. 4) is reset.
As a result, the possibility that the input image 55 is determined to be abnormal is reduced due to the abnormal partial region 5R that is regarded as noise.

異常判定部51は、画像変換部31によって既に判定結果保存部52に保存されている入力画像55に対応付けて、判定結果と、出力データ49、及び着色が再設定されてノイズが低減された推論結果画像56を判定結果保存部52に保存する。 The abnormality determination unit 51 resets the determination result, the output data 49, and the coloring in association with the input image 55 that is already stored in the determination result storage unit 52 by the image conversion unit 31, thus reducing noise. The inference result image 56 is stored in the determination result storage unit 52.

判定結果保存部52には入力画像55が、これが撮像された座標位置とともに保存されている。
判定結果保存部52にはまた、各入力画像55に対応する、判定結果と、出力データ49、及び着色が再設定されてノイズが低減された推論結果画像56が、異常判定部51によって保存されている。
The determination result storage unit 52 stores the input image 55 together with the coordinate position where the input image 55 was captured.
The determination result storage unit 52 also stores the determination result corresponding to each input image 55, the output data 49, and the inference result image 56 in which coloring is reset and noise is reduced, by the abnormality determination unit 51. ing.

表示制御部53は、判定結果保存部52から、異常と判定された判定結果を抽出し、当該判定結果に対応する入力画像55と、当該入力画像55が撮像された座標位置、及び着色が再設定されてノイズが低減された推論結果画像56を取得する。
表示制御部53は、表示装置13に、入力画像55と推論結果画像56を対比させて表示するとともに、当該入力画像55内には異常があると判定した旨を表示する。表示制御部53はまた、入力画像55が撮像された座標位置を、例えば近傍の地図を表示したうえで地図上の該当する座標位置に印を付与することで表示する。
The display control unit 53 extracts the determination result that is determined to be abnormal from the determination result storage unit 52, and inputs the input image 55 corresponding to the determination result, the coordinate position where the input image 55 is captured, and the coloring is restored. The inference result image 56 in which the noise is reduced by being set is acquired.
The display control unit 53 displays the input image 55 and the inference result image 56 in contrast with each other on the display device 13, and also displays that the input image 55 is determined to be abnormal. The display control unit 53 also displays the coordinate position at which the input image 55 is captured by, for example, displaying a map in the vicinity and then marking the corresponding coordinate position on the map.

次に、上記の線状体2の異常検出装置10を用いた異常検出方法を説明する。
本実施形態における線状体2の異常検出方法は、線状体2を撮像した画像を解析して線状体2の異常を検出するものであって、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデル43に対し、画像を入力画像55として入力し、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論し、推論結果を基に、入力画像55内の異常の有無を判定する。
まず、図1〜図5を用いて、深層学習時における、主に学習部40の動作を説明する。
Next, an abnormality detection method using the abnormality detection device 10 for the linear body 2 will be described.
The abnormality detecting method of the linear body 2 according to the present embodiment detects an abnormality of the linear body 2 by analyzing an image obtained by capturing the linear body 2, and includes a learning image 45 regarding the linear body 2, For each pixel in the learning image 45, the correct value as to whether or not the pixel corresponds to an abnormality is input as an input image 55 to the learning model 43 deeply learned as learning data, and the input image 55 is input. For each pixel inside, whether or not the pixel corresponds to an abnormality is inferred, and whether or not there is an abnormality in the input image 55 is determined based on the inference result.
First, the operation of the learning unit 40 during deep learning will be mainly described with reference to FIGS. 1 to 5.

学習用データ記憶部41には、点検機11から画像変換部31を介して受信した静止画が学習画像45として保存されている。また、学習用データ記憶部41には、学習作業者により他の手段で用意された、正常な、または異常を含む線状体2の画像が、学習画像45として保存されている。 In the learning data storage unit 41, a still image received from the inspection machine 11 via the image conversion unit 31 is stored as a learning image 45. Further, the learning data storage unit 41 stores, as a learning image 45, an image of the linear body 2 prepared by the learning operator by other means and including a normal or abnormal state.

異常推論部42は、学習用データ記憶部41から学習画像45を取得し、学習モデル43の畳み込み処理部47へと入力する。
畳み込み処理部47は、各畳み込み層47a、47b、47cにより畳み込み処理及びプーリング処理を順次実行して特徴マップを生成し、逆畳み込み処理部48へ入力する。
逆畳み込み処理部48は、各逆畳み込み層48c、48b、48aにより特徴マップを拡大、復元するように逆畳み込み処理を実行する。ここで、各逆畳み込み層48c、48b、48aにおいては、対応する畳み込み層47c、47b、47aに対応する処理を実行するとともに、各畳み込み層47c、47b、47aにおける処理データを使用することによって、各畳み込み層47a、47b、47cにおいて失われた位置情報を補完する。これにより、逆畳み込み処理部48から出力された出力データ49及びこれに対応する推論結果画像56は、位置情報が画素単位で復元されたものとなっている。
The abnormality inference unit 42 acquires the learning image 45 from the learning data storage unit 41 and inputs it to the convolution processing unit 47 of the learning model 43.
The convolution processing unit 47 sequentially performs the convolution processing and the pooling processing by each of the convolution layers 47 a, 47 b, and 47 c to generate a feature map, and inputs the feature map to the deconvolution processing unit 48.
The deconvolution processing unit 48 executes deconvolution processing so as to enlarge and restore the feature map by each deconvolution layer 48c, 48b, 48a. Here, in each of the deconvolutional layers 48c, 48b, 48a, by executing the processing corresponding to the corresponding convolutional layers 47c, 47b, 47a, and by using the processing data in each of the convolutional layers 47c, 47b, 47a, The position information lost in each convolutional layer 47a, 47b, 47c is complemented. As a result, the output data 49 output from the deconvolution processing unit 48 and the inference result image 56 corresponding to the output data 49 have position information restored in pixel units.

異常推論部42は、入力された学習画像45に対応する教師データを学習用データ記憶部41から取得し、教師データ内の正解値と出力データ49の値を画素単位で比較して、例えば各画素間のこれらの差分の2乗誤差をコスト関数として計算する。
その上で、このコスト関数を小さくするように、誤差逆伝搬法等により、各フィルタの重みの値等を調整することで、機械学習器43が機械学習される。
The abnormality inference unit 42 acquires the teacher data corresponding to the input learning image 45 from the learning data storage unit 41, compares the correct value in the teacher data with the value of the output data 49 in pixel units, and The squared error of these differences between pixels is calculated as a cost function.
Then, the machine learning device 43 is machine-learned by adjusting the weight value of each filter by the error back propagation method or the like so as to reduce the cost function.

次に、図1〜図5、及び図6を用いて、実際の異常検出に際して各画素が異常に該当するか否かを推論する場合での、すなわち、学習モデル43の深層学習が終了した後における、異常検出方法を説明する。図6は、線状体2の異常検出方法のフローチャートである。 Next, using FIG. 1 to FIG. 5 and FIG. 6, in the case of inferring whether or not each pixel corresponds to an abnormality in the actual abnormality detection, that is, after the deep learning of the learning model 43 is finished. The abnormality detection method in will be described. FIG. 6 is a flowchart of the method for detecting an abnormality in the linear body 2.

点検機11を、異常検出の対象となる線状体2上を走行させ、動画と、及び座標位置と時刻の複数の組み合わせを、記憶部21に保存する。
データ保存部30には、点検機11の記憶部21に保存された、動画と、及び座標位置と時刻の複数の組み合わせとの各々が転送され、保存される。
画像変換部31は、データ保存部30から動画を取得し、これを複数の静止画に変換する(ステップS1)。画像変換部31は、座標位置と時刻の複数の組み合わせをデータ保存部30から取得し、変換された静止画の各々に対して、この複数の組み合わせと当該静止画が撮像された時刻を基に当該静止画が撮像された座標位置を推定する。
画像変換部31は、静止画を学習モデル43への入力画像として、学習部40に送信する。
画像変換部31はまた、上記入力画像と、これに対応する撮像された座標位置を、学習部40に送信すると同時に、判定結果保存部52に送信し、保存する。
The inspection machine 11 is run on the linear body 2 that is the target of abnormality detection, and a moving image and a plurality of combinations of coordinate position and time are stored in the storage unit 21.
Each of the moving image and the plurality of combinations of coordinate positions and times stored in the storage unit 21 of the inspection machine 11 are transferred to and stored in the data storage unit 30.
The image conversion unit 31 acquires a moving image from the data storage unit 30 and converts the moving image into a plurality of still images (step S1). The image conversion unit 31 acquires a plurality of combinations of coordinate position and time from the data storage unit 30, and for each of the converted still images, based on the plurality of combinations and the time when the still image was captured. The coordinate position where the still image is captured is estimated.
The image conversion unit 31 transmits the still image as an input image to the learning model 43 to the learning unit 40.
The image conversion unit 31 also transmits the input image and the imaged coordinate position corresponding to the input image to the learning unit 40 and at the same time to the determination result storage unit 52 for storage.

学習部40の異常推論部42は、画像変換部31から入力画像55を受信する。
異常推論部42は、学習モデル43に、入力画像55を入力画像として入力し、学習モデル43によって、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論する(ステップS3)。
より詳細には、異常推論部42が、入力画像55を学習モデル43に入力すると、学習モデル43は、畳み込み層47a、47b、47cと、及び逆畳み込み層48c、48b、48aを順に辿りながら、畳み込み処理、プーリング処理、逆畳み込み処理等を実行する。最終的に逆畳み込み層48aから、入力画像55に対応する出力データ49が出力される。
The abnormality inference unit 42 of the learning unit 40 receives the input image 55 from the image conversion unit 31.
The anomaly inference unit 42 inputs the input image 55 as an input image to the learning model 43, and infers, for each pixel in the input image 55, whether or not the pixel corresponds to an anomaly, by the learning model 43. (Step S3).
More specifically, when the anomaly inference unit 42 inputs the input image 55 to the learning model 43, the learning model 43 sequentially traces the convolution layers 47a, 47b, 47c and the deconvolution layers 48c, 48b, 48a, Executes convolution processing, pooling processing, deconvolution processing, and the like. Finally, the output data 49 corresponding to the input image 55 is output from the deconvolution layer 48a.

異常推論部42は、各画素に対し、出力データ49上で該当し得る確率が最も高い分類区分を、当該画素に該当する分類区分であると推論する。
異常推論部42はまた、出力データ49に対し、図4に示されるような推論結果画像56を生成する。すなわち、推論結果画像56は、各画素が、上記のように該当すると推論された分類区分に対応した色を有するように生成される。
異常推論部42は、入力画像55と、出力データ49、及び出力データ49を基に生成した推論結果画像56を、異常検出部50の異常判定部51へ送信する。
The anomaly inference unit 42 infers that for each pixel, the classification category having the highest probability of being applicable on the output data 49 is the classification category corresponding to the pixel.
The abnormality inference unit 42 also generates an inference result image 56 as shown in FIG. 4 for the output data 49. That is, the inference result image 56 is generated such that each pixel has a color corresponding to the classification section inferred to be applicable as described above.
The abnormality inference unit 42 transmits the input image 55, the output data 49, and the inference result image 56 generated based on the output data 49 to the abnormality determination unit 51 of the abnormality detection unit 50.

異常判定部51は、異常推論部42から、入力画像55、出力データ49、及び推論結果画像56を受信する。
異常判定部51は、異常推論部42の推論結果、この場合においては推論結果画像56を基に、入力画像55内の異常の有無を判定する(ステップS5)。
異常判定部51は、異常部分5に該当すると異常推論部42によって推論された画素が、例えば推論結果画像56上で連続することにより形成される異常部分領域(異常領域)5Rの面積が、所定の閾値以上の場合に、入力画像55内に異常があると判定する。
また、異常判定部51は、面積が上記の所定の閾値以下の異常部分領域5Rがある場合には、推論結果画像56内の該当する部分を周囲の、例えば線状体2の分類区分に対応する色(例えば図4においては濃く見えるドットパターンに対応する黒色)に再設定する。
異常判定部51は、画像変換部31によって既に判定結果保存部52に保存されている入力画像55に対応付けて、判定結果と、出力データ49、及び着色が再設定されてノイズが低減された推論結果画像56を判定結果保存部52に保存する。
The abnormality determination unit 51 receives the input image 55, the output data 49, and the inference result image 56 from the abnormality inference unit 42.
The abnormality determination unit 51 determines whether or not there is an abnormality in the input image 55 based on the inference result of the abnormality inference unit 42, in this case, the inference result image 56 (step S5).
The abnormality determination unit 51 determines that the area of the abnormal portion region (abnormal region) 5R formed by the pixels inferred by the abnormality inference unit 42 corresponding to the abnormal portion 5 being continuous on the inference result image 56 is predetermined, for example. If it is equal to or larger than the threshold of, it is determined that there is an abnormality in the input image 55.
Further, when there is an abnormal portion region 5R having an area equal to or smaller than the above-mentioned predetermined threshold value, the abnormality determination unit 51 corresponds the corresponding portion in the inference result image 56 to the surrounding classification of, for example, the linear body 2. (For example, black corresponding to a dot pattern that appears dark in FIG. 4) is reset.
The abnormality determination unit 51 resets the determination result, the output data 49, and the coloring in association with the input image 55 that is already stored in the determination result storage unit 52 by the image conversion unit 31, thus reducing noise. The inference result image 56 is stored in the determination result storage unit 52.

表示制御部53は、判定結果保存部52から、異常と判定された判定結果を抽出し、当該判定結果に対応する入力画像55と、当該入力画像55が撮像された座標位置、及び着色が再設定されてノイズが低減された推論結果画像56を取得する。
表示制御部53は、表示装置13に、入力画像55と推論結果画像56を対比させて表示するとともに、当該入力画像55内には異常があると判定した旨を表示する(ステップS7)。表示制御部53はまた、入力画像55が撮像された座標位置を、例えば近傍の地図を表示したうえで地図上の該当する座標位置に印を付与することで表示する。
The display control unit 53 extracts the determination result that is determined to be abnormal from the determination result storage unit 52, and inputs the input image 55 corresponding to the determination result, the coordinate position where the input image 55 is captured, and the coloring is restored. The inference result image 56 in which the noise is reduced by being set is acquired.
The display control unit 53 displays the input image 55 and the inference result image 56 in contrast with each other on the display device 13 and displays that the input image 55 is determined to be abnormal (step S7). The display control unit 53 also displays the coordinate position at which the input image 55 is captured by, for example, displaying a map in the vicinity and then marking the corresponding coordinate position on the map.

次に、上記の線状体2の異常検出装置10及び異常検出方法の効果について説明する。 Next, effects of the abnormality detecting device 10 and the abnormality detecting method for the linear body 2 will be described.

本実施形態の線状体2の異常検出装置10は、線状体2を撮像した画像を解析して線状体2の異常を検出するものであって、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデル43を備え、学習モデル43に対し、画像を入力画像55として入力し、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論する、異常推論部42と、異常推論部42の推論結果を基に、入力画像55内の異常の有無を判定する、異常判定部51と、を備えている。
また、本実施形態の線状体2の異常検出方法は、線状体2を撮像した画像を解析して線状体2の異常を検出するものであって、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデル43に対し、画像を入力画像55として入力し、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論し、推論結果を基に、入力画像55内の異常の有無を判定する。
上記のような構成、方法によれば、学習モデル43は、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習されている。この学習モデル43を用いて、画像を入力画像55として入力し、入力画像55内の各画素に対して、当該画素が異常に該当するか否かが推論される。
すなわち、入力画像55の各画素に対して、画素単位で異常に該当するか否かが推論されるため、入力画像55内の線状体2に異常があると推論された場合においては、推論された異常の位置や形状に関する正確な情報を、異常推論部42が出力可能である。したがって、異常の形状や位置の検出精度が高まるとともに、異常推論部42が入力画像55内のどの位置のどの形状の物体を異常と推論したか、その判定根拠をより詳細に把握可能である。
The linear body 2 abnormality detection device 10 of the present embodiment detects an abnormality of the linear body 2 by analyzing an image of the linear body 2 and includes a learning image 45 regarding the linear body 2. , A learning model 43 deeply learned as learning data for each pixel in the learning image 45 and a correct value of whether or not the pixel corresponds to an abnormality, and an image is input to the learning model 43 as an input image 55. , And infers with respect to each pixel in the input image 55 whether or not the pixel corresponds to abnormality, based on the inference result of the abnormality inference unit 42 and the abnormality inference unit 42. And an abnormality determination unit 51 for determining the presence or absence of abnormality.
Further, the abnormality detecting method of the linear body 2 of the present embodiment is to detect an abnormality of the linear body 2 by analyzing an image obtained by capturing the linear body 2, and a learning image 45 regarding the linear body 2. And the correct value for each pixel in the learning image 45 as to whether or not the pixel corresponds to an abnormality are input as an input image 55 to the learning model 43 that has undergone deep learning as learning data. For each pixel in the image 55, it is inferred whether or not the pixel corresponds to an abnormality, and the presence or absence of an abnormality in the input image 55 is determined based on the inference result.
According to the above-described configuration and method, the learning model 43 sets the learning image 45 regarding the linear body 2 and the correct value for each pixel in the learning image 45 as to whether or not the pixel corresponds to an abnormality. , Deep learning is performed as learning data. An image is input as the input image 55 using the learning model 43, and for each pixel in the input image 55, it is inferred whether or not the pixel corresponds to an abnormality.
That is, for each pixel of the input image 55, it is inferred whether or not an abnormality corresponds to each pixel. Therefore, when it is inferred that the linear body 2 in the input image 55 is abnormal, the inference is performed. The abnormality inference unit 42 can output accurate information regarding the position and shape of the generated abnormality. Therefore, it is possible to increase the accuracy of detecting the shape and position of the abnormality, and it is possible to understand in more detail the basis of the determination as to which position and shape of the object in the input image 55 the shape is inferred as.

異常の形状や位置の検出精度が高まり、異常判定の判定根拠を詳細に把握できると、例えば判定結果を判定結果保存部52に保存するに際し、異常の大きさにより入力画像55を自動的に分類することも可能となる。この場合には、例えば線状体2の検査作業者が、異常と判定された推論結果画像56を表示装置13によって目視する際に、異常が大きいものから優先順位をつけて確認することができる。あるいは、分類時に重大な異常がある場合には、判定結果保存部52への保存時で表示装置13による目視確認の前に、検査作業者にメールなどで警告する等のシステムを実現することも可能となる。すなわち、上記のような線状体2の異常検出装置10及び異常検出方法においては、重大な異常を効率的に探すことができるため、検査作業者の作業量を低減することも可能である。 If the accuracy of detection of the shape and position of the abnormality is improved and the basis of the abnormality determination can be grasped in detail, for example, when the determination result is stored in the determination result storage unit 52, the input image 55 is automatically classified according to the size of the abnormality. It is also possible to do. In this case, for example, when the inspector of the linear body 2 visually checks the inference result image 56 that is determined to be abnormal on the display device 13, it is possible to confirm the inference result image 56 by prioritizing the abnormalities. .. Alternatively, if there is a serious abnormality during classification, a system may be realized in which the inspection operator is warned by e-mail or the like before the visual confirmation by the display device 13 during storage in the determination result storage unit 52. It will be possible. That is, in the abnormality detecting device 10 and the abnormality detecting method for the linear body 2 as described above, since it is possible to efficiently search for a serious abnormality, it is possible to reduce the work amount of the inspection worker.

また、学習モデル43は、FCNにより実現されて、セマンティックセグメンテーションにより、入力画像55内の各画素が異常に該当するか否かを推論する。
上記のような構成によれば、線状体2の異常検出装置10及び異常検出方法を適切に実現可能である。
Further, the learning model 43 is realized by FCN and infers whether or not each pixel in the input image 55 corresponds to an abnormality by semantic segmentation.
According to the above configuration, the abnormality detecting device 10 and the abnormality detecting method for the linear body 2 can be appropriately realized.

また、学習画像45及び入力画像55は、線状体2が学習画像45及び入力画像55内で所定の割合以上の面積を占めるように撮像され、異常判定部51は、異常に該当すると推論された画素が連続することにより形成される異常領域5Rの面積が所定の閾値以上の場合に、入力画像55内に異常があると判定する。
上記のような構成によれば、ノイズとみなされる異常部分領域5Rによって、入力画像55内に異常があると判定される可能性が低減される。したがって、異常検出の精度を向上させることができる。
Further, the learning image 45 and the input image 55 are imaged so that the linear body 2 occupies an area of a predetermined ratio or more in the learning image 45 and the input image 55, and the abnormality determination unit 51 infers that the abnormality corresponds to the abnormality. When the area of the abnormal region 5R formed by the continuous pixels is equal to or larger than a predetermined threshold value, it is determined that the input image 55 has an abnormality.
According to the above configuration, the possibility that the input image 55 is determined to be abnormal is reduced due to the abnormal partial region 5R that is regarded as noise. Therefore, the accuracy of abnormality detection can be improved.

また、正解値は、正解値に対応する学習画像45内の画素が、背景6、線状体2、及び異常を含む分類区分のいずれに該当するかを示すものであり、学習モデル43は、入力画像55内の各画素が分類区分の各々に該当し得る確率を出力し、異常推論部42は、各画素における確率が最も高い分類区分が、当該画素に該当すると推論する。
上記のような構成によれば、線状体2の異常検出装置10及び異常検出方法を適切に実現可能である。
The correct answer value indicates which of the background 6, the linear body 2, and the classification category including the abnormality, the pixel in the learning image 45 corresponding to the correct answer value, and the learning model 43 The probability that each pixel in the input image 55 may correspond to each of the classification sections is output, and the anomaly inference unit 42 infers that the classification section having the highest probability in each pixel corresponds to the pixel.
According to the above configuration, the abnormality detecting device 10 and the abnormality detecting method for the linear body 2 can be appropriately realized.

また、線状体2は架空地線である
上記のような構成によれば、架空地線の異常を検出することが可能となる。
Further, the linear body 2 is an overhead ground wire. According to the above configuration, it is possible to detect an abnormality in the overhead ground wire.

[実施形態の第1変形例]
次に、図7、図8、図9を用いて、上記実施形態として示した線状体2の異常検出装置10及び異常検出方法の第1変形例を説明する。図7は、本第1変形例に関する線状体の異常検出装置のブロック図である。図8(a)、(b)は、それぞれ、本第1変形例に関する線状体の異常検出装置の推論結果精査部へ入力される、異常推論部の出力画像である推論結果画像と、推論結果精査部の出力画像である精査画像の説明図である。図9は、本第1変形例に関する線状体の異常検出方法のフローチャートである。
本第1変形例における線状体2の異常検出装置60は、上記実施形態の線状体2の異常検出装置60とは、制御装置61の異常検出部62が推論結果精査部63を備えている点が異なっている。
以下においては、推論結果精査部63に関連する事柄のみ説明する。
[First Modification of Embodiment]
Next, a first modified example of the abnormality detection device 10 and the abnormality detection method for the linear body 2 shown as the above embodiment will be described with reference to FIGS. 7, 8, and 9. FIG. 7 is a block diagram of a linear body abnormality detection device according to the first modification. 8A and 8B are an inference result image which is an output image of the abnormality inference unit and an inference result which are input to the inference result inspection unit of the abnormality detecting device of the linear body according to the first modified example, respectively. It is explanatory drawing of the detailed examination image which is an output image of a result detailed examination part. FIG. 9 is a flowchart of the linear body abnormality detection method according to the first modification.
The abnormality detecting device 60 of the linear body 2 in the first modified example is different from the abnormality detecting device 60 of the linear body 2 in the above-described embodiment in that the abnormality detecting unit 62 of the control device 61 includes an inference result scrutinizing unit 63. The difference is that
Only matters related to the inference result scrutinizing unit 63 will be described below.

推論結果精査部63は、学習モデル43の深層学習が終了した後における、実際の異常検出に際して各画素が異常に該当するか否かを推論する場合に動作する。したがって、深層学習時においては、異常検出装置60は、上記実施形態の異常検出装置10と同様に動作する。 The inference result inspection unit 63 operates to infer whether or not each pixel corresponds to an abnormality in actual abnormality detection after the deep learning of the learning model 43 is completed. Therefore, during deep learning, the abnormality detection device 60 operates in the same manner as the abnormality detection device 10 of the above embodiment.

実際の異常検出に際して各画素が異常に該当するか否かを推論する場合には、異常検出装置60は上記実施形態の異常検出装置10と同様に、異常推論部42によって、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論し、出力データ49と、出力データ49を基にした推論結果画像56を生成する。
異常推論部42は、入力画像55、出力データ49、及び推論結果画像56を、異常検出部62の推論結果精査部63へ送信する。
When inferring whether or not each pixel corresponds to an abnormality in the actual abnormality detection, the abnormality detection device 60 uses the abnormality inference unit 42 in the input image 55 in the same manner as the abnormality detection device 10 of the above embodiment. For each pixel, it is inferred whether or not the pixel is abnormal, and the output data 49 and the inference result image 56 based on the output data 49 are generated.
The abnormality inference unit 42 transmits the input image 55, the output data 49, and the inference result image 56 to the inference result scrutiny unit 63 of the abnormality detection unit 62.

推論結果精査部63は、異常推論部42から、入力画像55、出力データ49、及び推論結果画像56を受信する。
異常推論部42により生成された推論結果画像56には、異常ではない部分が異常と推論された誤推論が混入している可能性がある。例えば図8(a)に示される推論結果画像56Aには、背景領域6Rに、異常部分領域5Rと同様に異常部分と推論されて白く着色された誤推論部分64が存在する。
推論結果精査部63は、このように、異常推論部42において異常に該当すると推論された画素が、線状体2が占める領域である線状体領域2Rの外に在る場合に、当該画素は異常に該当しないと判断する。
その結果、推論結果精査部63は、図8(b)に部分66として示されるように、誤推論部分64を、周囲の、この場合においては背景領域6Rと同様に着色し、精査画像65を生成する。
このように、推論結果精査部63は、異常推論部42によって異常に該当すると推論された画素を、異常には該当しないと再判断することにより、推論結果を精査する。
推論結果精査部63は、異常推論部42から受信した入力画像55、出力データ49、及び生成した精査画像65を、異常判定部51へ送信する。
The inference result inspection unit 63 receives the input image 55, the output data 49, and the inference result image 56 from the abnormality inference unit 42.
The inference result image 56 generated by the abnormality inference unit 42 may include erroneous inference that the non-abnormal portion is inferred to be abnormal. For example, in the inference result image 56A shown in FIG. 8A, in the background region 6R, the false inference part 64 that is inferred to be an abnormal part and is colored white is present as in the abnormal part region 5R.
When the pixel inferred to be abnormal in the abnormality inference unit 42 is outside the linear body region 2R, which is the region occupied by the linear body 2, as described above, the inference result inspection unit 63 determines that pixel. Judges that it does not correspond to an abnormality.
As a result, the inference result inspection unit 63 colors the erroneous inference portion 64 in the same manner as the surrounding, in this case, the background region 6R, as shown by the portion 66 in FIG. To generate.
In this way, the inference result inspection unit 63 scrutinizes the inference result by re-determining that the pixel inferred to be abnormal by the abnormality inference unit 42 is not abnormal.
The inference result inspection unit 63 transmits the input image 55 received from the abnormality inference unit 42, the output data 49, and the generated inspection image 65 to the abnormality determination unit 51.

異常判定部51は、推論結果精査部63の精査結果を基に、入力画像55内の異常の有無を判定する。すなわち、上記実施形態においては、異常判定部51は異常推論部42から受信した推論結果画像56を基に入力画像55の異常の有無を判定したが、本変形例においてはこれに代えて、精査画像65を基に入力画像55の異常の有無を判定する。 The abnormality determination unit 51 determines the presence/absence of abnormality in the input image 55 based on the inspection result of the inference result inspection unit 63. That is, in the above-described embodiment, the abnormality determination unit 51 determines whether or not there is an abnormality in the input image 55 based on the inference result image 56 received from the abnormality inference unit 42. However, in the present modification, instead of this, a close inspection is performed. Based on the image 65, it is determined whether or not the input image 55 is abnormal.

本変形例の線状体2の異常検出方法においては、図9に示されるように、上記実施形態でステップS3として示した異常推論部42における処理の後に、推論結果精査部63が、異常推論部42によって異常に該当すると推論された画素を、異常には該当しないと再判断することにより、推論結果を精査する(ステップS4)。
その後、上記実施形態でステップS5として示した、異常判定部51による処理に遷移する。
In the abnormality detecting method for the linear body 2 according to the present modification, as shown in FIG. 9, after the processing in the abnormality inference unit 42 shown as step S3 in the above-described embodiment, the inference result inspection unit 63 causes the abnormality inference to be performed. The inference result is scrutinized by re-determining that the pixel inferred to be abnormal by the unit 42 is not abnormal (step S4).
After that, the processing shifts to the processing by the abnormality determination unit 51, which is shown as step S5 in the above embodiment.

本第1変形例が、既に説明した実施形態と同様な効果を奏することは言うまでもない。
特に本変形例においては、効果的に、異常の誤推論及び誤検出を抑制することができる。
It goes without saying that the first modified example has the same effect as that of the embodiment already described.
In particular, in this modification, it is possible to effectively suppress erroneous inference and erroneous detection of an abnormality.

[実施形態の第2変形例]
次に、図10を用いて、上記実施形態として示した線状体2の異常検出装置10及び異常検出方法の第2変形例を説明する。図10(a)、(b)、(c)は、それぞれ、本第2変形例における推論結果精査部へ入力される、異常推論部の出力画像である推論結果画像と、推論結果精査部の処理中の画像、及び推論結果精査部の出力画像である精査画像の説明図である。本第2変形例は、上記第1変形例の更なる変形例であり、上記第1変形例とは、推論結果精査部の処理内容が異なっている。
[Second Modification of Embodiment]
Next, a second modified example of the abnormality detecting device 10 and the abnormality detecting method for the linear body 2 shown as the above embodiment will be described with reference to FIG. 10. FIGS. 10A, 10B, and 10C respectively show an inference result image which is an output image of the abnormal inference unit and an inference result inspection unit which are input to the inference result inspection unit in the second modified example. It is explanatory drawing of the image in process and the detailed examination image which is an output image of the inference result detailed examination part. The second modified example is a further modified example of the first modified example, and differs from the first modified example in the processing content of the inference result inspection unit.

本変形例における推論結果精査部は、異常推論部42から、入力画像55、出力データ49、及び推論結果画像56を受信する。
第1変形例において説明したように、異常推論部42により生成された推論結果画像56には、例えば図10(a)に示される推論結果画像56Bの誤推論部分64のように、異常の誤推論が混入している可能性がある。これに加えて、異常推論部42により生成された推論結果画像56には、線状体領域2Rに関する誤推論が混入している可能性もある。推論結果画像56Bには、背景領域6Rに、線状体領域2Rと同様に線状体2であると推論されて黒く着色(濃く見えるドットパターンに対応)された誤推論部分72が存在する。
The inference result inspection unit in this modification receives the input image 55, the output data 49, and the inference result image 56 from the abnormality inference unit 42.
As described in the first modification, the inference result image 56 generated by the anomaly inference unit 42 includes an erroneous error such as an erroneous inference part 64 of the inference result image 56B shown in FIG. Reasoning may be mixed. In addition to this, the inference result image 56 generated by the anomaly inference unit 42 may include erroneous inference regarding the linear body region 2R. In the inference result image 56B, in the background region 6R, there is an erroneous inference part 72 that is inferred to be the linear body 2 and colored black (corresponding to a dot pattern that looks dark), like the linear body region 2R.

推論結果精査部は、誤推論部分64に加え、線状体2に関する誤推論部分72を除去する。
このために、推論結果精査部はまず、線状体領域2R、線上設備領域4R、及び異常部分領域5Rにより占められる、背景領域6R以外の領域を縮小する。この縮小処理により、線状体領域2R、線上設備領域4R、及び異常部分領域5Rに関する、面積が小さなノイズが推論結果画像56に存在していた場合に、これが除去される。
次に、線状体領域2R、線上設備領域4R、及び異常部分領域5Rにより占められる領域を拡大して元の大きさに復元した後に、最も面積が大きな領域のみを線状体に関連する、背景領域6R以外の領域と見做し、他の領域を除去する。これにより、縮小処理によっても除去されない線状体2の誤推論が除去される。
以上の縮小拡大処理により、推論結果精査部は、図10(b)に線状体再推定画像70として示されるように、線状体2に関連する、すなわち背景領域6R以外の領域2RAを再推定する。
The inference result inspection unit removes the erroneous inference portion 72 related to the linear body 2 in addition to the erroneous inference portion 64.
For this purpose, the inference result inspection unit first reduces the area other than the background area 6R occupied by the linear body area 2R, the on-line equipment area 4R, and the abnormal portion area 5R. By this reduction processing, when noise having a small area related to the linear body region 2R, the on-line equipment region 4R, and the abnormal portion region 5R is present in the inference result image 56, this is removed.
Next, after enlarging the area occupied by the linear body region 2R, the on-line equipment region 4R, and the abnormal portion region 5R to restore the original size, only the region having the largest area is associated with the linear body, The area other than the background area 6R is considered, and the other area is removed. As a result, erroneous inference of the linear body 2 that is not removed even by the reduction processing is removed.
As a result of the reduction/enlargement processing described above, the inference result inspection unit reconstructs the area 2RA related to the linear body 2, that is, the area 2RA other than the background area 6R, as shown as the linear body re-estimation image 70 in FIG. presume.

推論結果精査部は、線状体2に関連する領域2RAが再推定された線状体再推定画像70と、推論結果画像56Bを比較し、推論結果画像56B内の領域2RAに相当する部分以外に位置する部分64、72を誤推論部分64、72と判断して除去する。
結果として、図10(c)に部分73として示されるように、誤推論部分64、72の双方が背景領域6Rであると精査された、精査画像71が生成される。
このように、推論結果精査部は、推論結果の各々を、これに対応する画素の位置に配置した推論結果画像56に対し、線状体2が占める領域を縮小した後に拡大する。
The inference result reviewing unit compares the linear body re-estimation image 70 in which the region 2RA related to the linear body 2 is re-estimated with the inference result image 56B, except for the portion corresponding to the region 2RA in the inference result image 56B. The portions 64 and 72 located at are judged to be erroneous inference portions 64 and 72 and removed.
As a result, as shown as a portion 73 in FIG. 10C, a close-up image 71 in which both the false inference portions 64 and 72 have been close-inspected as the background region 6R is generated.
In this way, the inference result inspection unit enlarges each inference result with respect to the inference result image 56 arranged at the position of the pixel corresponding thereto after reducing the area occupied by the linear body 2.

本第2変形例が、既に説明した実施形態及び第1変形例と同様な効果を奏することは言うまでもない。
特に本変形例においては、効果的に、異常の誤推論及び誤検出を抑制することができる。
It goes without saying that the second modification has the same effects as those of the embodiment and the first modification described above.
In particular, in this modification, it is possible to effectively suppress erroneous inference and erroneous detection of an abnormality.

なお、本発明の線状体の異常検出装置及び異常検出方法は、図面を参照して説明した上述の実施形態及び各変形例に限定されるものではなく、その技術的範囲において他の様々な変形例が考えられる。 The abnormality detecting device and the abnormality detecting method for a linear body of the present invention are not limited to the above-described embodiment and each modified example described with reference to the drawings, and various other within the technical scope thereof. Modifications are possible.

例えば、上記実施形態及び各変形例においては、学習画像45や入力画像55は点検機11に搭載された撮像装置20によって撮像されていたが、これに限られない。学習画像45や入力画像55は、ヘリコプターやドローン等に搭載された撮像装置により撮像されてもかまわない。この場合においては、学習画像45や入力画像55中の線状体2の部分の面積が所定の割合以上の面積を占めるように、望遠レンズ等を用いて拡大して撮像するのが望ましい。あるいは、画像変換部31において静止画を生成する際に、既存の画像処理技術を用いて線状体2の部分を拡大処理することで、学習画像45や入力画像55中の線状体2の部分の面積が所定の割合以上の面積を占めるようにしても構わない。
また、上記実施形態及び各変形例においては、各静止画像に対応する座標位置情報は、点検機11に搭載されたGPS受信部22により取得されたGPS信号を基にしていたが、これに限られない。例えば、点検機11を等速で走行するように制御し、走行速度を基に静止画の撮影時刻から逆算して座標位置を導出してもよい。あるいは、点検機11を駆動する滑車の部分に、滑車の回転した数を計測するエンコーダ等のセンサを設け、これにより移動距離を計算することで、座標位置を導出してもよい。
For example, although the learning image 45 and the input image 55 are picked up by the image pickup device 20 mounted on the inspection machine 11 in the above-described embodiment and each modification, the present invention is not limited to this. The learning image 45 and the input image 55 may be picked up by an image pickup device mounted on a helicopter, a drone, or the like. In this case, it is desirable to magnify and image using a telephoto lens or the like so that the area of the linear body 2 in the learning image 45 or the input image 55 occupies an area of a predetermined ratio or more. Alternatively, when a still image is generated in the image conversion unit 31, the existing image processing technique is used to enlarge the portion of the linear body 2 so that the linear body 2 in the learning image 45 or the input image 55 can be displayed. The area of the part may occupy an area of a predetermined ratio or more.
Further, in the above-described embodiment and each modification, the coordinate position information corresponding to each still image is based on the GPS signal acquired by the GPS reception unit 22 mounted on the inspection machine 11, but the present invention is not limited to this. I can't. For example, the inspection machine 11 may be controlled to run at a constant speed, and the coordinate position may be derived by back-calculating from the shooting time of the still image based on the running speed. Alternatively, the coordinate position may be derived by providing a sensor such as an encoder for measuring the number of rotations of the pulley on the portion of the pulley that drives the inspection machine 11, and calculating the moving distance by this.

これ以外にも、本発明の主旨を逸脱しない限り、上記実施形態及び各変形例で挙げた構成を取捨選択したり、他の構成に適宜変更したりすることが可能である。 Other than this, the configurations described in the above-described embodiments and modifications may be selected or changed to other configurations without departing from the gist of the present invention.

2 線状体(架空地線)
2R 線状体領域
4 線上設備
4R 線上設備領域
5 異常部分
5R 異常部分領域(異常領域)
6 背景
6R 背景領域
10、60 異常検出装置
11 点検機
12 制御装置
13 表示装置
42 異常推論部
43 学習モデル
45 学習画像
51 異常判定部
55 入力画像
56 推論結果画像
63 推論結果精査部
2 linear bodies (overhead ground wire)
2R Linear object area 4 On-line equipment 4R On-line equipment area 5 Abnormal area 5R Abnormal area (abnormal area)
6 background 6R background area 10, 60 abnormality detection device 11 inspection machine 12 control device 13 display device 42 abnormality reasoning unit 43 learning model 45 learning image 51 abnormality determination unit 55 input image 56 inference result image 63 inference result inspection unit

Claims (9)

線状体を撮像した画像を解析して前記線状体の異常を検出する、線状体の異常検出装置であって、
前記線状体に関する学習画像と、当該学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデルを備え、当該学習モデルに対し、前記画像を入力画像として入力し、当該入力画像内の各画素に対して、当該画素が異常に該当するか否かを推論する、異常推論部と、
当該異常推論部の推論結果を基に、前記入力画像内の異常の有無を判定する、異常判定部と、を備えている、線状体の異常検出装置。
A linear body abnormality detection device, which detects an abnormality of the linear body by analyzing an image of a linear body,
The learning image regarding the linear body, and for each pixel in the learning image, the correct value of whether or not the pixel is abnormal, provided with a learning model deep learning as learning data, the learning model On the other hand, by inputting the image as an input image, for each pixel in the input image, to infer whether the pixel corresponds to an abnormality, an abnormality inference unit,
An abnormality detection device for a linear body, comprising: an abnormality determination unit that determines whether or not there is an abnormality in the input image based on the inference result of the abnormality inference unit.
前記学習モデルは、全層畳み込みネットワークにより実現されて、セマンティックセグメンテーションにより、前記入力画像内の各画素が異常に該当するか否かを推論する、請求項1に記載の線状体の異常検出装置。 The linear body abnormality detection device according to claim 1, wherein the learning model is realized by a full-layer convolutional network, and it is inferred by semantic segmentation whether or not each pixel in the input image corresponds to an abnormality. .. 前記学習画像及び前記入力画像は、前記線状体が前記学習画像及び前記入力画像内で所定の割合以上の面積を占めるように撮像され、
前記異常判定部は、異常に該当すると推論された画素が連続することにより形成される異常領域の面積が所定の閾値以上の場合に、前記入力画像内に異常があると判定する、請求項1または2に記載の線状体の異常検出装置。
The learning image and the input image are captured so that the linear body occupies an area of a predetermined ratio or more in the learning image and the input image,
The abnormality determining unit determines that there is abnormality in the input image when an area of an abnormal region formed by continuous pixels inferred to be abnormal is equal to or larger than a predetermined threshold value. Or the linear body abnormality detection device according to 2.
前記正解値は、当該正解値に対応する前記学習画像内の画素が、背景、前記線状体、及び異常を含む分類区分のいずれに該当するかを示すものであり、
前記学習モデルは、前記入力画像内の各画素が前記分類区分の各々に該当し得る確率を出力し、
前記異常推論部は、各画素における前記確率が最も高い前記分類区分が、当該画素に該当すると推論する、請求項1から3のいずれか一項に記載の線状体の異常検出装置。
The correct answer value indicates whether the pixel in the learning image corresponding to the correct answer value corresponds to a background, the linear body, or a classification category including an abnormality,
The learning model outputs a probability that each pixel in the input image can correspond to each of the classification categories,
The abnormality detecting device for a linear body according to claim 1, wherein the abnormality inferring unit infers that the classification section having the highest probability in each pixel corresponds to the pixel.
前記異常推論部によって異常に該当すると推論された画素を、異常には該当しないと再判断することにより、前記推論結果を精査する推論結果精査部を更に備え、
前記異常判定部は、当該推論結果精査部の精査結果を基に、前記入力画像内の異常の有無を判定する、請求項1から4のいずれか一項に記載の線状体の異常検出装置。
A pixel further inferred to be abnormal by the anomaly inference unit is re-determined as not to be abnormal, and further comprises an inference result inspection unit for inspecting the inference result.
The linear abnormality detecting device according to any one of claims 1 to 4, wherein the abnormality determining unit determines whether or not there is an abnormality in the input image based on a detailed inspection result of the inference result detailed inspection unit. ..
前記推論結果精査部は、前記異常推論部において異常に該当すると推論された画素が、前記線状体が占める領域の外に在る場合に、当該画素は異常に該当しないと判断する、請求項5に記載の線状体の異常検出装置。 The inference result scrutinizing unit determines that the pixel is not anomalous when the pixel inferred to be anomalous by the anomaly inference unit is outside the region occupied by the linear body. 5. The linear body abnormality detection device according to item 5. 前記推論結果精査部は、前記推論結果の各々を、これに対応する画素の位置に配置した推論結果画像に対し、前記線状体が占める領域を縮小した後に拡大する、請求項5または6に記載の線状体の異常検出装置。 7. The inference result inspection unit enlarges each of the inference results with respect to an inference result image arranged at a position of a pixel corresponding to the inference result after reducing the area occupied by the linear body. Abnormality detection device for the linear body described. 前記線状体は架空地線である、請求項1から7のいずれか一項に記載の線状体の異常検出装置。 The abnormality detecting device for a linear body according to claim 1, wherein the linear body is an overhead ground wire. 線状体を撮像した画像を解析して前記線状体の異常を検出する、線状体の異常検出方法であって、
前記線状体に関する学習画像と、当該学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデルに対し、前記画像を入力画像として入力し、当該入力画像内の各画素に対して、当該画素が異常に該当するか否かを推論し、
推論結果を基に、前記入力画像内の異常の有無を判定する、線状体の異常検出方法。
A method of detecting an abnormality of a linear body, which detects an abnormality of the linear body by analyzing an image of a linear body,
The learning image regarding the linear body and the correct value for each pixel in the learning image regarding whether or not the pixel is abnormal are input as learning data to the learning model deeply learned. Input as an image, for each pixel in the input image, infer whether the pixel is abnormal,
A method for detecting an abnormality in a linear body, which determines whether or not there is an abnormality in the input image based on the inference result.
JP2019020188A 2019-02-07 2019-02-07 Anomaly detection device and anomaly detection method for linear body Active JP7124743B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019020188A JP7124743B2 (en) 2019-02-07 2019-02-07 Anomaly detection device and anomaly detection method for linear body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019020188A JP7124743B2 (en) 2019-02-07 2019-02-07 Anomaly detection device and anomaly detection method for linear body

Publications (2)

Publication Number Publication Date
JP2020128877A true JP2020128877A (en) 2020-08-27
JP7124743B2 JP7124743B2 (en) 2022-08-24

Family

ID=72175372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019020188A Active JP7124743B2 (en) 2019-02-07 2019-02-07 Anomaly detection device and anomaly detection method for linear body

Country Status (1)

Country Link
JP (1) JP7124743B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021057957A (en) * 2019-09-27 2021-04-08 朝日航洋株式会社 Patrol inspection system and patrol inspection method
JP2022019737A (en) * 2019-09-27 2022-01-27 朝日航洋株式会社 Patrol inspection system and patrol inspection method
WO2022065272A1 (en) * 2020-09-25 2022-03-31 ファナック株式会社 Device for creating models for visual inspection, and visual inspection device
CN114622311A (en) * 2022-05-17 2022-06-14 北京东方国信科技股份有限公司 Yarn breakage detection method and device and spinning machine
JP2023005359A (en) * 2021-06-29 2023-01-18 株式会社かんでんエンジニアリング Overhead wire damage determination system
WO2023157825A1 (en) * 2022-02-18 2023-08-24 ブラザー工業株式会社 Computer program and processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074757A (en) * 2016-10-28 2018-05-10 株式会社東芝 Patrol inspection system, information processing apparatus, and patrol inspection control program
JP2018119873A (en) * 2017-01-26 2018-08-02 株式会社 日立産業制御ソリューションズ Inspection device and inspection method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074757A (en) * 2016-10-28 2018-05-10 株式会社東芝 Patrol inspection system, information processing apparatus, and patrol inspection control program
JP2018119873A (en) * 2017-01-26 2018-08-02 株式会社 日立産業制御ソリューションズ Inspection device and inspection method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LONG ET AL.: "Fully Convolutional Networks for Semantic Segmentation", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 第39巻第4号, JPN7022002453, 24 May 2016 (2016-05-24), ISSN: 0004786219 *
RONNEBERGER ET AL.: "U-Net: Convolutional Networks for Biomedical Image Segmentation", MICCAI 2015, JPN7022002454, 18 November 2015 (2015-11-18), pages 234 - 241, XP047565084, ISSN: 0004786218, DOI: 10.1007/978-3-319-24574-4_28 *
木村 宇任ほか: "Fully Convolutional Networkを用いたインフラ点検におけるひび割れの自動検出", 情報処理学会研究報告, JPN7022002452, 18 September 2017 (2017-09-18), pages 1 - 5, ISSN: 0004786217 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021057957A (en) * 2019-09-27 2021-04-08 朝日航洋株式会社 Patrol inspection system and patrol inspection method
JP6993391B2 (en) 2019-09-27 2022-01-13 朝日航洋株式会社 Patrol inspection system and patrol inspection method
JP2022019737A (en) * 2019-09-27 2022-01-27 朝日航洋株式会社 Patrol inspection system and patrol inspection method
JP7018540B2 (en) 2019-09-27 2022-02-10 朝日航洋株式会社 Patrol inspection system and patrol inspection method
WO2022065272A1 (en) * 2020-09-25 2022-03-31 ファナック株式会社 Device for creating models for visual inspection, and visual inspection device
JP2023005359A (en) * 2021-06-29 2023-01-18 株式会社かんでんエンジニアリング Overhead wire damage determination system
JP7332654B2 (en) 2021-06-29 2023-08-23 株式会社かんでんエンジニアリング Overhead line damage assessment system
WO2023157825A1 (en) * 2022-02-18 2023-08-24 ブラザー工業株式会社 Computer program and processing device
CN114622311A (en) * 2022-05-17 2022-06-14 北京东方国信科技股份有限公司 Yarn breakage detection method and device and spinning machine

Also Published As

Publication number Publication date
JP7124743B2 (en) 2022-08-24

Similar Documents

Publication Publication Date Title
JP2020128877A (en) Linear object abnormality detection device and abnormality detection method
JP7004145B2 (en) Defect inspection equipment, defect inspection methods, and their programs
US20220309764A1 (en) Method and device for small sample defect classification and computing equipment
KR102206698B1 (en) Abnormality inspection device and abnormality inspection method
CN111539927B (en) Detection method of automobile plastic assembly fastening buckle missing detection device
Zhou et al. Automatic detection of industrial wire rope surface damage using deep learning-based visual perception technology
US20210150700A1 (en) Defect detection device and method
CN115641332B (en) Method, device, medium and equipment for detecting product edge appearance defects
CN110596120A (en) Glass boundary defect detection method, device, terminal and storage medium
CN111351789B (en) Method, system and electronic device for detecting/maintaining equipment
CN111080600A (en) Fault identification method for split pin on spring supporting plate of railway wagon
KR102297232B1 (en) Anomaly Detection via Morphological Transformations
CN115830004A (en) Surface defect detection method, device, computer equipment and storage medium
CN113554645A (en) Industrial anomaly detection method and device based on WGAN
CN115797314B (en) Method, system, equipment and storage medium for detecting surface defects of parts
CN113008470B (en) Gas leakage detection device and gas leakage detection method
WO2022130814A1 (en) Index selection device, information processing device, information processing system, inspection device, inspection system, index selection method, and index selection program
CN115082850A (en) Template support safety risk identification method based on computer vision
US11120541B2 (en) Determination device and determining method thereof
KR20230036650A (en) Defect detection method and system based on image patch
CN113920087A (en) Micro component defect detection system and method based on deep learning
CN109446016B (en) AR function test method, device and system for augmented reality technology
CN117292329B (en) Method, system, medium and equipment for monitoring abnormal work of building robot
CN117218125B (en) Display screen defect detection method, device, storage medium, device and system
JP7361613B2 (en) Winding inspection method, winding inspection device, and manufacturing method of superconducting coil device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R150 Certificate of patent or registration of utility model

Ref document number: 7124743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150