JP7124743B2 - 線状体の異常検出装置及び異常検出方法 - Google Patents

線状体の異常検出装置及び異常検出方法 Download PDF

Info

Publication number
JP7124743B2
JP7124743B2 JP2019020188A JP2019020188A JP7124743B2 JP 7124743 B2 JP7124743 B2 JP 7124743B2 JP 2019020188 A JP2019020188 A JP 2019020188A JP 2019020188 A JP2019020188 A JP 2019020188A JP 7124743 B2 JP7124743 B2 JP 7124743B2
Authority
JP
Japan
Prior art keywords
image
abnormality
pixel
learning
linear body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019020188A
Other languages
English (en)
Other versions
JP2020128877A (ja
Inventor
凛平 望月
寛修 深井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP2019020188A priority Critical patent/JP7124743B2/ja
Publication of JP2020128877A publication Critical patent/JP2020128877A/ja
Application granted granted Critical
Publication of JP7124743B2 publication Critical patent/JP7124743B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Electric Cable Installation (AREA)
  • Image Analysis (AREA)

Description

本発明は、線状体の異常検出装置及び異常検出方法に関する。
従来より、例えばワイヤーやロープ、電線等の線状体が、設備等を構成する重要な部品として、広く使用されている。線状体は、物体を結束、吊架することによる物体の支持や、電気の導電等の、様々な目的で使用されている。
線状体は、経年劣化や、外力が作用することにより、断線、裂傷等の異常が生じる場合がある。線状体の異常は、点検作業員が目視で線状体そのものを確認したり、あるいは線状体を撮像した画像を閲覧したりすることにより検出されることがあるが、これらの作業は多くの時間や労力を必要とする。このため、線状体の点検作業に要する時間や労力を低減することが検討されている。
特許文献1には、高次局所的自己相関特徴を用いて、点検対象物の異常の有無と、及び異常の位置を検出する、異常領域検出装置が開示されている。より詳細には、高次局所自己相関特徴による領域特徴空間の中で正常領域特徴の部分空間を生成し、その部分空間からの距離あるいは角度を指標として異常領域を検出する。正常領域部分空間の生成には例えば主成分分析手法を用い、例えば累積寄与率0.99の主成分ベクトルにより主成分部分空間を構成する。
特許文献1のような異常領域検出装置においては、事前の準備作業として、正常なデータの集合から正常なデータの分布を求める必要がある。また、正常なデータの分布から異常を判定するための閾値を設定する必要がある。これらの作業には、専門的な知識が必要であり、導入が容易ではない。
これに対し、特許文献2には、送電設備に生じた異常個所を画像処理によって検出する巡視点検システムが開示されている。特許文献2の巡視点検システムにおいては、架空地線あるいは送電線に落雷があったことにより生じたアーク痕の画像データのサンプルが少ないことから、実際に生じた異常箇所の画像データだけでなく、被点検物に対して擬似的に付加した異常/劣化の状態を撮影した画像データをもとに疑似画像を生成し、ニューラルネットワークを活用したディープラーニングの技術を利用して大量の学習モデルを学習する。
特開2011-14152号公報 特開2018-74757号公報
上記の特許文献2のようなシステムや装置において、例えば一般的な畳み込みニューラルネットワーク(Convolutional Neural Network、以下CNNと記載する)を適用し、これに線状体を撮像した画像を入力することで線状体の異常を検出することが考えられる。CNNは、基本的に、画像内の特徴を様々なフィルタにより抽出する畳み込み層と、畳み込み層により出力された特徴画像の中から有効な値を残すように、特徴画像を縮小させるプーリング層を備えている。すなわち、CNNにおいては、画像内の特徴が抽出され縮小される過程において、特徴の、画像内での位置情報は曖昧になり、結果として物体の位置ずれの影響に強いパターン認識が可能となっている。
しかし、CNNを線状体の異常検出に適用する場合には、上記のような特徴を受け得る反面、異常を特徴として検出できたとしても、画像内での位置情報や形状が曖昧となる。また、CNNでは上記のようにフィルタによる処理を行っているため、検出された異常が、フィルタが適用される矩形領域の中の、どこに位置する、どのような形状の物体であるのかを、詳細に知ることが難しい。
したがって、線状体の検出装置にCNNを適用した場合には、異常が検出された際に、CNNが画像中のどの位置のどの形状の物体を異常と判断したか、その判定根拠を詳細に把握できない。このため、異常検出を自動化したとしても、結局は作業員が画像を目視確認して、異常の大きさや種類、位置を判断しなければならない場合がある。
異常の形状や位置の検出精度を高めることにより、異常をより正確に検出し、かつ異常検出時の判定根拠をより詳細に提示可能な、線状体の異常検出装置及び異常検出方法が求められている。
本発明が解決しようとする課題は、異常の形状や位置の検出精度を高めることにより、異常をより正確に検出し、かつ異常検出時の判定根拠をより詳細に提示可能な、線状体の異常検出装置及び異常検出方法を提供することである。
本発明は、上記課題を解決するため、以下の手段を採用する。すなわち、本発明は、線状体を撮像した画像を解析して前記線状体の異常を検出する、線状体の異常検出装置であって、前記線状体に関する学習画像と、当該学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデルを備え、当該学習モデルに対し、前記画像を入力画像として入力し、当該入力画像内の各画素に対して、当該画素が異常に該当するか否かを推論する、異常推論部と、当該異常推論部の推論結果を基に、前記入力画像内の異常の有無を判定する、異常判定部と、を備えている、線状体の異常検出装置を提供する。
また、本発明は、線状体を撮像した画像を解析して前記線状体の異常を検出する、線状体の異常検出方法であって、前記線状体に関する学習画像と、当該学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデルに対し、前記画像を入力画像として入力し、当該入力画像内の各画素に対して、当該画素が異常に該当するか否かを推論し、推論結果を基に、前記入力画像内の異常の有無を判定する、線状体の異常検出方法を提供する。
本発明によれば、異常の形状や位置の検出精度を高めることにより、異常をより正確に検出し、かつ異常検出時の判定根拠をより詳細に提示可能な、線状体の異常検出装置及び異常検出方法を提供することができる。
本発明の実施形態における線状体の異常検出装置及び異常検出方法において、異常検出の対象となる架空地線の説明図である。 上記線状体の異常検出装置のブロック図である。 上記線状体の異常検出装置内の学習モデルに入力される、学習画像の説明図である。 上記学習モデルにおける、教師画像の説明図である。 上記学習モデルの模式的なブロック図である。 上記線状体の異常検出方法のフローチャートである。 上記実施形態の第1変形例に関する、線状体の異常検出装置のブロック図である。 上記第1変形例に関する線状体の異常検出装置の推論結果精査部へ入力される、異常推論部の出力画像である推論結果画像と、推論結果精査部の出力画像である精査画像の説明図である。 上記第1変形例に関する線状体の異常検出方法のフローチャートである。 上記実施形態の第2変形例に関する、線状体の異常検出装置の推論結果精査部へ入力される、異常推論部の出力画像である推論結果画像と、推論結果精査部の処理中の画像、及び推論結果精査部の出力画像である精査画像の説明図である。
以下、本発明の実施形態について図面を参照して詳細に説明する。
本実施形態における線状体の異常検出装置は、線状体を撮像した画像を解析して線状体の異常を検出するものであって、線状体に関する学習画像と、学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデルを備え、学習モデルに対し、画像を入力画像として入力し、入力画像内の各画素に対して、当該画素が異常に該当するか否かを推論する、異常推論部と、異常推論部の推論結果を基に、入力画像内の異常の有無を判定する。
図1は、架空地線の説明図である。
上記のように、異常検出装置10は、線状体の異常を検出する装置である。本実施形態における線状体2は、例えば、鉄塔1間に架設された架空地線2である。架空地線2は、送電、配電等を目的として同様に鉄塔1間に架設された架空線3を、主に雷から保護する。
異常検出装置10は、点検機11、制御装置12、及び表示装置13を備えている。
図2は、線状体2の異常検出装置10のブロック図である。
点検機11は、線状体2上を自律的に、あるいは操作されて走行するように構成されている。点検機11は、撮像装置20、記憶部21、及びGPS受信部22を備えている。
撮像装置20は、点検機11が線状体2上を走行する際に、線状体2の表面の画像を、動画として撮像する。撮像装置20は動画を記憶部21に保存する。
GPS受信部22は、所定の時間間隔で、図示されないGPS衛星からGPS信号を受信し、点検機11の座標位置を特定する。GPS受信部22は、特定された座標位置を、座標位置取得時の時刻と対応付け、組み合わせて記憶部21に保存する。
表示装置13は、例えばディスプレイ等であり、次に説明する制御装置12の指示に従って、制御装置12による異常の検出結果等を表示する。
制御装置12は、例えばパーソナルコンピュータやサーバ等の情報処理装置である。制御装置12は、データ保存部30、画像変換部31、学習部40、及び異常検出部50を備えている。学習部40は、学習用データ記憶部41と異常推論部42を備えている。異常検出部50は、異常判定部51、判定結果保存部52、及び表示制御部53を備えている。
これら制御装置12の構成要素のうち、画像変換部31、異常推論部42、異常判定部51、及び表示制御部53は、例えば上記の各情報処理装置内のCPUにより実行されるソフトウェア、プログラムであってよい。また、データ保存部30、学習用データ記憶部41、及び判定結果保存部52は、上記各情報処理装置内外に設けられた半導体メモリや磁気ディスクなどの記憶装置により実現されていてよい。
後に説明するように、異常推論部42は、入力された画像内の各画素に対して、当該画素が異常に該当するか否かを推論する。この推論を効果的に行うために、異常推論部42は、後に説明するように機械学習器を備えており、この機械学習器を深層学習して学習モデル43を生成する。異常推論部42は、実際に線状体2の異常を検出する処理を行う際には、この学習が完了した学習モデル43を使用して、入力された画像内の各画素に対して、当該画素が異常に該当するか否かを推論する。
すなわち、制御装置12は大別して、深層学習時における学習と、実際に線状体2の異常を検出する際における各画素が異常に該当するか否かの推論の、2通りの動作を行う。説明を簡単にするために、以下ではまず、深層学習時における、制御装置12の各構成要素の説明をした後に、実際の異常検出に際して各画素が異常に該当するか否かを推論する場合での各構成要素の挙動について説明する。
まず、深層学習時における、制御装置12の構成要素の挙動を説明する。
データ保存部30には、点検機11の記憶部21に保存された、動画と、及び座標位置と時刻の複数の組み合わせとの各々が転送され、保存される。
画像変換部31は、データ保存部30から動画を取得し、これを複数の静止画に変換する。画像変換部31は、静止画を学習部40に送信する。
学習部40は、画像変換部31から静止画を受信し、受信した静止画を学習画像として学習用データ記憶部41に保存する。
図3は、学習画像の説明図である。線状体2には、例えば難着雪リング等の、線状体2上に設けられる設備である線上設備4が設けられることがある。図3に示される学習画像45は、線状体2上の線上設備4が設けられた部分が撮像されたものである。
線状体2には、裂傷やアーク痕等の異常が生じる場合がある。図3に示される学習画像45は、線状体2上に2つの異常部分5が示されており、異常を含むものとなっている。しかし、学習画像45としては、正常な状態の、すなわち異常を含まない線状体2が撮像された画像も当然含み得る。
本実施形態においては、学習画像45の生成元である動画は、線状体2上を走行する点検機11によって、線状体2の近くから撮像されている。このため、線上設備4と異常部分5を含む、線状体2の部分が、学習画像45内で所定の割合以上の面積を占めている。線状体2の部分以外は、背景6となっている。
学習用データ記憶部41には、上記のように点検機11から画像変換部31を介して受信した静止画が学習画像として保存される他に、学習作業者により他の手段で用意された、正常な、または異常を含む線状体2の画像が、学習画像として保存される。
このような、他の手段で用意された学習画像においても、線上設備4と異常部分5を含む線状体2の部分が、学習画像45内で所定の割合以上の面積を占めるように撮像され、または加工されている。
異常推論部42は、機械学習器を備えている。この機械学習器が深層学習されることにより、学習モデル43が生成される。学習モデル43は、実際の異常検出に際して各画素が異常に該当するか否かを推論する。すなわち、機械学習器は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される、適切な学習パラメータが学習された学習済みモデル43を生成するものである。
以下、説明を簡単にするため、異常推論部42が備えている機械学習器と、これが学習されて生成される学習モデルをともに、同じ符号を付して、機械学習器43、または学習モデル43と呼称する。
学習用データ記憶部41に保存された各学習画像45は、この機械学習器43の深層学習における、入力画像として使用される。機械学習器43が、入力された学習画像45に対して深層学習するためには、深層学習の目標となる、学習画像45に対応する教師データが必要である。
各学習画像45に対応する教師データは、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値である。より詳細には、正解値は、学習画像45内の各画素に対応して表示される物が、背景6、線状体2、線上設備4、及び異常部分5として大別される分類区分のいずれに該当するかを示すものである。
特に本実施形態においては、各画素に対して、当該画素が図3に示される背景6に該当するか否かを示す値である背景値、当該画素が線状体2に該当するか否かを示す値である線状体値、当該画素が線上設備4に該当するか否かを示す値である線上設備値、及び当該画素が異常部分5に該当するか否かを示す値である異常部分値の、4つの値の組み合わせが正解値となる。背景値、線状体値、線上設備値、異常部分値には、画素が分類区分内の各要素に該当する場合には例えば1が、該当しない場合には例えば0が、設定される。したがって、各画素に対して、各要素が0または1の、背景値、線状体値、線上設備値、異常部分値の組み合わせである(背景値、線状体値、線上設備値、異常部分値)が正解値となる。
例えば、図3において背景6に該当する画素の正解値は、(1、0、0、0)となり得る。線状体2に該当する画素の正解値は、(0、1、0、0)となり得る。線上設備4に該当する画素の正解値は、(0、0、1、0)となり得る。更に、異常部分5に該当する画素の正解値は、(0、0、0、1)となり得る。
このように、正解値は、学習画像45内の各画素に対応して設けられ、対応する画素が背景6、線状体2、及び異常部分5を含む分類区分のいずれに該当するかを示すものである。
各分類区分に固有の色を対応づけた際に、各画素を、対応する正解値が該当する分類区分の色で着色した画像を、以下、教師画像と呼称する。すなわち、教師画像は、学習画像45と同等の解像度を備えており、各画素は、学習画像45において当該画素に対応する画素に表示される物体が該当する分類区分に対応した色を有している。
図4は、教師画像46の説明図である。教師画像46の、図3における背景6に相当する領域である背景領域6R内の各画素は、淡く見えるドットパターン(例えば淡い灰色に対応)で着色されている。教師画像46の、図3における線状体2に相当する領域である線状体領域2R内の各画素は、濃く見えるドットパターン(例えば黒色に対応)で着色されている。教師画像46の、図3における線上設備4に相当する領域である線上設備領域4R内の各画素は、線状体領域2Rと背景領域6Rとは異なる濃度のドットパターン(例えば濃い灰色に対応)で着色されている。教師画像46の、図3における異常部分5に相当する領域である異常部分領域(異常領域)5R内の各画素は、例えば白色で着色されている。
教師データは、例えばこのような構成の教師画像に対して、各画素に対応する上記の正解値が付与されたもので有り得る。
教師データは、学習画像45に対応付けられて、学習用データ記憶部41に保存されている。
異常推論部42の学習モデル43は、上記のような、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値を含む教師データとを、学習データとして深層学習される。
図5は、機械学習器(学習モデル)43の模式的なブロック図である。本実施形態においては、学習モデル43は、全層畳み込みネットワーク(Fully Convolutional Network、以下FCNと記載する)により実現されて、セマンティックセグメンテーションにより、入力された画像内の各画素が異常に該当するか否かを推論するように、学習されている。FCNは、以下に説明するように、全結合層を備えず、畳み込み層において処理、生成された特徴マップを直接、逆畳み込み層への入力とするものである。FCNによって、任意の大きさの画像を入力として使用できるとともに、学習により適切な特徴を選択して推定することが可能となる。
機械学習器43は、畳み込み処理部47と逆畳み込み処理部48を備えている。畳み込み処理部47は、直列に接続された、複数の畳み込み層47a、47b、47cを備えている。逆畳み込み処理部48は、同様に直列に接続された、複数の逆畳み込み層48c、48b、48aを備えている。図5においては、畳み込み層と逆畳み込み層の数はそれぞれ3となるように図示されているが、これら畳み込み層と逆畳み込み層の数は3に限られない。
異常推論部42は、学習用データ記憶部41から学習画像45を取得し、初段の畳み込み層47aへと入力する。
畳み込み層47aは、図示されない所定の数のフィルタを備えている。機械学習器43は、各フィルタに対し、これを学習画像45上に位置付け、フィルタ内の学習画像45の各画素の画素値に対して、フィルタ内に画素位置に対応して設定された重みを付けて和を計算することで、畳み込みフィルタ処理を実行する。これにより、畳み込み層47aにおける1つの画素の画素値が演算される。機械学習器43は、フィルタを学習画像45上で所定の解像度刻みで移動させつつ、このような畳み込みフィルタ処理を実行することで複数の画素値を演算し、これを並べて、フィルタに対応した1枚の画像を生成する。
機械学習器43は、この処理を、全てのフィルタに対して実行し、フィルタの数に応じた特徴マップを生成する。
フィルタは、実際には、学習画像45の画素値の強調や平滑化等を重みとして表現したものである。このようなフィルタを用いて畳み込みフィルタ処理を実行して生成された特徴マップにおいては、エッジ特徴等の画像の濃淡パターンが効果的に抽出されている。また、学習画像45の局所的な領域からフィルタを通して特徴を抽出するため、学習画像45内に存在する物体の位置のずれに対して頑健となる。
畳み込み層47aにおいては、畳み込みフィルタ処理の後に、プーリング処理が実行される。より詳細には、各特徴マップを例えば2×2の大きさの複数の小領域に区切り、各小領域に対して当該小領域内の画素値の最大値を算出して、1つの画素の画素値とすることで、各特徴マップの2×2の小領域の各々を1×1の画素へと変換し、情報を縮約させる。プーリング処理は、上記のように、各特徴マップの局所領域から最大の画素値を選択するため、画像に特化された適切な特徴のみを残すことが可能であり、以降の処理を効率的に行うことができる。
畳み込み層47aにおいて生成された、プーリング処理された特徴マップは、次段の畳み込み層47bの入力画像となる。
畳み込み層47bにおいては、畳み込み層47aと同様に、畳み込みフィルタ処理とプーリング処理が順次実行される。畳み込み層47bは、畳み込み層47aのフィルタよりも小さい大きさの、所定の数のフィルタを備えており、これらを用いて畳み込みフィルタ処理を実行し、更にプーリング処理を実行することで、フィルタの数に応じた所定の数の、プーリング処理された特徴マップを生成する。
畳み込み層47cにおいても、畳み込みフィルタ処理とプーリング処理が順次実行される。畳み込み層47cは、畳み込み層47bのフィルタよりも小さい大きさの、所定の数のフィルタを備えており、これらを用いて畳み込みフィルタ処理を実行し、更にプーリング処理を実行することで、フィルタの数に応じた所定の数の、プーリング処理された特徴マップを生成する。
各畳み込み層47a、47b、47cにおけるフィルタの重みは、機械学習により調整される。
畳み込み層47cにおいてプーリング処理された特徴マップは、逆畳み込み処理部48の逆畳み込み層48cへの入力となる。
逆畳み込み処理部48は、畳み込み処理部47と対称的な構造となっている。すなわち、学習画像45は畳み込み処理部47により低次元に圧縮されたが、逆畳み込み処理部48においては、低次元に圧縮された状態から拡大し、復元されるように動作する。より詳細には、畳み込み層47cに対応する逆畳み込み処理を実行する逆畳み込み層48c、畳み込み層47bに対応する逆畳み込み処理を実行する逆畳み込み層48b、及び畳み込み層47aに対応する逆畳み込み処理を実行する逆畳み込み層48aを順に経ることで、出力データ49が生成される。
機械学習器43は、出力データ49として、教師データと同様な要領で、学習画像45内の各画素が分類区分の各々に該当し得る確率を出力する。例えば、ある画素に対し、当該画素が背景6に該当する確率が0.6、線状体2に該当する確率が0.2、線上設備4及び異常部分5の各々に該当する確率が0.1であると、機械学習器43が推論した場合、当該画素に対して(0.6、0.2、0.1、0.1)の値の組み合わせが出力される。
出力データ49に基づき、図4に示される教師画像46と同様に表現した画像を、以下、推論結果画像56と呼称する。すなわち、推論結果画像56は、推論結果の各々に関する情報を、これに対応する画素の位置に、色として反映して配置した画像であり、図4に示されるように、各画素が、当該画素に対応する出力値に含まれる複数の確率値の中で、最も高い値の確率に対応する分類区分に対応した色を有するようになっている。
上記のように各畳み込み層47a、47b、47cの各々において生成された特徴マップは、画像内の物体の位置のずれや大きさの違いの影響を受けにくいものとなっている。換言すれば、畳み込み処理部47により生成された特徴マップにおいては、物体の位置に関する情報の多くが失われている。
ここで、各逆畳み込み層48c、48b、48aにおいては、上記のように対応する畳み込み層47c、47b、47aに対応する処理を実行するとともに、各畳み込み層47c、47b、47aにおける処理データを使用することによって、各畳み込み層47a、47b、47cにおいて失われた位置情報を補完している。これにより、逆畳み込み処理部48から出力された出力データ49及びこれに対応する推論結果画像56は、位置情報が画素単位で復元されたものとなっている。
位置情報の補完は、例えば、各畳み込み層47a、47b、47cのプーリング処理において最大の画素値として選択された画素の位置を記憶しておき、逆畳み込み層48c、48b、48aにおいて画像を拡大、復元する際に、記憶された場所に特徴マップの画素値をコピーしたうえで、コピーされた画素間の画素の画素値を、これら特徴マップからコピーされた画素の画素値を基に、例えばバイリニアで補完することにより行われ得る。
機械学習器43では、出力データ49における各画素に関する推論結果が、入力された学習画像45に対応する教師データの正解値に近い値となるように、機械学習が行われる。このために、異常推論部42は、入力された学習画像45に対応する教師データを学習用データ記憶部41から取得し、教師データ内の正解値と出力データ49の値を画素単位で比較して、例えば各画素間のこれらの差分の2乗誤差をコスト関数として計算する。
その上で、このコスト関数を小さくするように、誤差逆伝搬法等により、各フィルタの重みの値等を調整することで、機械学習器43が機械学習される。
結果として、例えば、図3において背景6に該当する画素の、教師データ上での正解値は(1、0、0、0)であるため、出力データ49の当該画素に対応する出力値としては、1番目の背景6に該当する確率値が他よりも1に近く、他の確率値が1番目の確率値よりも0に近い値の組み合わせとなり得る。
このように、学習が終了した学習モデル43は、何らかの画像が入力画像として入力された際に、入力画像内の各画素に対し、当該画素が分類区分の各々に該当し得る確率を出力する。
次に、実際の異常検出に際して各画素が異常に該当するか否かを推論する場合での、すなわち、学習モデル43の深層学習が終了した後における、制御装置12の各構成要素の挙動について説明する。
点検機11を、上記の説明と同様な要領で、異常検出の対象となる線状体2上を走行させ、動画と、及び座標位置と時刻の複数の組み合わせを、記憶部21に保存する。
データ保存部30には、点検機11の記憶部21に保存された、動画と、及び座標位置と時刻の複数の組み合わせとの各々が転送され、保存される。
画像変換部31は、データ保存部30から動画を取得し、これを複数の静止画に変換する。画像変換部31は、座標位置と時刻の複数の組み合わせをデータ保存部30から取得し、変換された静止画の各々に対して、この複数の組み合わせと当該静止画が撮像された時刻を基に当該静止画が撮像された座標位置を推定する。
画像変換部31は、静止画を学習モデル43への入力画像として、学習部40に送信する。
画像変換部31はまた、上記入力画像と、これに対応する撮像された座標位置を、学習部40に送信すると同時に、後に説明する判定結果保存部52に送信し、保存する。
入力画像は、例えば図3に学習画像45として示した画像と同様な画像55となる。本実施形態においては、入力画像55の生成元である動画は、学習画像45と同様に線状体2上を走行する点検機11によって撮像されているため、線上設備4と異常部分5を含む線状体2の部分が、入力画像55内で所定の割合以上の面積を占めている。
学習部40の異常推論部42は、画像変換部31から入力画像55を受信する。
異常推論部42は、学習モデル43に、入力画像55を入力画像として入力し、学習モデル43によって、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論する。
この学習モデル43は、入力画像55の各画素が異常に該当するか否かを推論するように深層学習されている、学習済みのモデルである。
異常推論部42は、学習部40によって事前に深層学習されて、フィルタの重み等のFCNを構成する各パラメータの値が調整、決定された、学習済みの学習モデル43が、例えばCPU上でプログラムとして実行されることで、入力画像55の各画素が異常に該当するか否かを推論する。
より詳細には、異常推論部42が、入力画像55を学習モデル43に入力すると、学習モデル43は、畳み込み層47a、47b、47cと、及び逆畳み込み層48c、48b、48aを順に辿りながら、畳み込み処理、プーリング処理、逆畳み込み処理等を実行する。最終的に逆畳み込み層48aから、入力画像55に対応する出力データ49が出力される。
学習が終了した学習モデル43は、入力画像55が入力された際に、入力画像55内の各画素が分類区分の各々に該当し得る確率を、出力データ49として出力する。
異常推論部42は、各画素に対し、出力データ49上で該当し得る確率が最も高い分類区分を、当該画素に該当する分類区分であると推論する。
異常推論部42はまた、出力データ49に対し、図4に示されるような推論結果画像56を生成する。すなわち、推論結果画像56は、各画素が、上記のように該当すると推論された分類区分に対応した色を有するように生成される。
異常推論部42は、入力画像55と、出力データ49、及び出力データ49を基に生成した推論結果画像56を、異常検出部50の異常判定部51へ送信する。
異常判定部51は、異常推論部42から、入力画像55、出力データ49、及び推論結果画像56を受信する。
異常判定部51は、異常推論部42の推論結果、この場合においては推論結果画像56を基に、入力画像55内の異常の有無を判定する。
FCNを用いて、セマンティックセグメンテーションによって画素単位で分類区分を推論した場合には、分類区分の推論が画素単位で行われるため、例えば類似する画像パターンが存在する場合に、誤判断が生じる場合がある。また、背景6と、例えば線状体2等の物体との境界部分は推論が難しく、このような理由によっても誤判断が生じる場合もある。このような場合においては、誤判断は推論結果画像56において、微小領域のノイズとなって表れることが多い。
このようなノイズを低減するため、異常判定部51は、異常部分5に該当すると異常推論部42によって推論された画素が、例えば推論結果画像56上で連続することにより形成される異常部分領域(異常領域)5Rの面積が、所定の閾値以上の場合に、入力画像55内に異常があると判定する。
また、異常判定部51は、面積が上記の所定の閾値以下の異常部分領域5Rがある場合には、推論結果画像56内の該当する部分を周囲の、例えば線状体2の分類区分に対応する色(例えば図4においては濃く見えるドットパターンに対応する黒色)に再設定する。
これにより、ノイズとみなされる異常部分領域5Rによって、入力画像55内に異常があると判定される可能性が低減される。
異常判定部51は、画像変換部31によって既に判定結果保存部52に保存されている入力画像55に対応付けて、判定結果と、出力データ49、及び着色が再設定されてノイズが低減された推論結果画像56を判定結果保存部52に保存する。
判定結果保存部52には入力画像55が、これが撮像された座標位置とともに保存されている。
判定結果保存部52にはまた、各入力画像55に対応する、判定結果と、出力データ49、及び着色が再設定されてノイズが低減された推論結果画像56が、異常判定部51によって保存されている。
表示制御部53は、判定結果保存部52から、異常と判定された判定結果を抽出し、当該判定結果に対応する入力画像55と、当該入力画像55が撮像された座標位置、及び着色が再設定されてノイズが低減された推論結果画像56を取得する。
表示制御部53は、表示装置13に、入力画像55と推論結果画像56を対比させて表示するとともに、当該入力画像55内には異常があると判定した旨を表示する。表示制御部53はまた、入力画像55が撮像された座標位置を、例えば近傍の地図を表示したうえで地図上の該当する座標位置に印を付与することで表示する。
次に、上記の線状体2の異常検出装置10を用いた異常検出方法を説明する。
本実施形態における線状体2の異常検出方法は、線状体2を撮像した画像を解析して線状体2の異常を検出するものであって、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデル43に対し、画像を入力画像55として入力し、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論し、推論結果を基に、入力画像55内の異常の有無を判定する。
まず、図1~図5を用いて、深層学習時における、主に学習部40の動作を説明する。
学習用データ記憶部41には、点検機11から画像変換部31を介して受信した静止画が学習画像45として保存されている。また、学習用データ記憶部41には、学習作業者により他の手段で用意された、正常な、または異常を含む線状体2の画像が、学習画像45として保存されている。
異常推論部42は、学習用データ記憶部41から学習画像45を取得し、学習モデル43の畳み込み処理部47へと入力する。
畳み込み処理部47は、各畳み込み層47a、47b、47cにより畳み込み処理及びプーリング処理を順次実行して特徴マップを生成し、逆畳み込み処理部48へ入力する。
逆畳み込み処理部48は、各逆畳み込み層48c、48b、48aにより特徴マップを拡大、復元するように逆畳み込み処理を実行する。ここで、各逆畳み込み層48c、48b、48aにおいては、対応する畳み込み層47c、47b、47aに対応する処理を実行するとともに、各畳み込み層47c、47b、47aにおける処理データを使用することによって、各畳み込み層47a、47b、47cにおいて失われた位置情報を補完する。これにより、逆畳み込み処理部48から出力された出力データ49及びこれに対応する推論結果画像56は、位置情報が画素単位で復元されたものとなっている。
異常推論部42は、入力された学習画像45に対応する教師データを学習用データ記憶部41から取得し、教師データ内の正解値と出力データ49の値を画素単位で比較して、例えば各画素間のこれらの差分の2乗誤差をコスト関数として計算する。
その上で、このコスト関数を小さくするように、誤差逆伝搬法等により、各フィルタの重みの値等を調整することで、機械学習器43が機械学習される。
次に、図1~図5、及び図6を用いて、実際の異常検出に際して各画素が異常に該当するか否かを推論する場合での、すなわち、学習モデル43の深層学習が終了した後における、異常検出方法を説明する。図6は、線状体2の異常検出方法のフローチャートである。
点検機11を、異常検出の対象となる線状体2上を走行させ、動画と、及び座標位置と時刻の複数の組み合わせを、記憶部21に保存する。
データ保存部30には、点検機11の記憶部21に保存された、動画と、及び座標位置と時刻の複数の組み合わせとの各々が転送され、保存される。
画像変換部31は、データ保存部30から動画を取得し、これを複数の静止画に変換する(ステップS1)。画像変換部31は、座標位置と時刻の複数の組み合わせをデータ保存部30から取得し、変換された静止画の各々に対して、この複数の組み合わせと当該静止画が撮像された時刻を基に当該静止画が撮像された座標位置を推定する。
画像変換部31は、静止画を学習モデル43への入力画像として、学習部40に送信する。
画像変換部31はまた、上記入力画像と、これに対応する撮像された座標位置を、学習部40に送信すると同時に、判定結果保存部52に送信し、保存する。
学習部40の異常推論部42は、画像変換部31から入力画像55を受信する。
異常推論部42は、学習モデル43に、入力画像55を入力画像として入力し、学習モデル43によって、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論する(ステップS3)。
より詳細には、異常推論部42が、入力画像55を学習モデル43に入力すると、学習モデル43は、畳み込み層47a、47b、47cと、及び逆畳み込み層48c、48b、48aを順に辿りながら、畳み込み処理、プーリング処理、逆畳み込み処理等を実行する。最終的に逆畳み込み層48aから、入力画像55に対応する出力データ49が出力される。
異常推論部42は、各画素に対し、出力データ49上で該当し得る確率が最も高い分類区分を、当該画素に該当する分類区分であると推論する。
異常推論部42はまた、出力データ49に対し、図4に示されるような推論結果画像56を生成する。すなわち、推論結果画像56は、各画素が、上記のように該当すると推論された分類区分に対応した色を有するように生成される。
異常推論部42は、入力画像55と、出力データ49、及び出力データ49を基に生成した推論結果画像56を、異常検出部50の異常判定部51へ送信する。
異常判定部51は、異常推論部42から、入力画像55、出力データ49、及び推論結果画像56を受信する。
異常判定部51は、異常推論部42の推論結果、この場合においては推論結果画像56を基に、入力画像55内の異常の有無を判定する(ステップS5)。
異常判定部51は、異常部分5に該当すると異常推論部42によって推論された画素が、例えば推論結果画像56上で連続することにより形成される異常部分領域(異常領域)5Rの面積が、所定の閾値以上の場合に、入力画像55内に異常があると判定する。
また、異常判定部51は、面積が上記の所定の閾値以下の異常部分領域5Rがある場合には、推論結果画像56内の該当する部分を周囲の、例えば線状体2の分類区分に対応する色(例えば図4においては濃く見えるドットパターンに対応する黒色)に再設定する。
異常判定部51は、画像変換部31によって既に判定結果保存部52に保存されている入力画像55に対応付けて、判定結果と、出力データ49、及び着色が再設定されてノイズが低減された推論結果画像56を判定結果保存部52に保存する。
表示制御部53は、判定結果保存部52から、異常と判定された判定結果を抽出し、当該判定結果に対応する入力画像55と、当該入力画像55が撮像された座標位置、及び着色が再設定されてノイズが低減された推論結果画像56を取得する。
表示制御部53は、表示装置13に、入力画像55と推論結果画像56を対比させて表示するとともに、当該入力画像55内には異常があると判定した旨を表示する(ステップS7)。表示制御部53はまた、入力画像55が撮像された座標位置を、例えば近傍の地図を表示したうえで地図上の該当する座標位置に印を付与することで表示する。
次に、上記の線状体2の異常検出装置10及び異常検出方法の効果について説明する。
本実施形態の線状体2の異常検出装置10は、線状体2を撮像した画像を解析して線状体2の異常を検出するものであって、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデル43を備え、学習モデル43に対し、画像を入力画像55として入力し、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論する、異常推論部42と、異常推論部42の推論結果を基に、入力画像55内の異常の有無を判定する、異常判定部51と、を備えている。
また、本実施形態の線状体2の異常検出方法は、線状体2を撮像した画像を解析して線状体2の異常を検出するものであって、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデル43に対し、画像を入力画像55として入力し、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論し、推論結果を基に、入力画像55内の異常の有無を判定する。
上記のような構成、方法によれば、学習モデル43は、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習されている。この学習モデル43を用いて、画像を入力画像55として入力し、入力画像55内の各画素に対して、当該画素が異常に該当するか否かが推論される。
すなわち、入力画像55の各画素に対して、画素単位で異常に該当するか否かが推論されるため、入力画像55内の線状体2に異常があると推論された場合においては、推論された異常の位置や形状に関する正確な情報を、異常推論部42が出力可能である。したがって、異常の形状や位置の検出精度が高まるとともに、異常推論部42が入力画像55内のどの位置のどの形状の物体を異常と推論したか、その判定根拠をより詳細に把握可能である。
異常の形状や位置の検出精度が高まり、異常判定の判定根拠を詳細に把握できると、例えば判定結果を判定結果保存部52に保存するに際し、異常の大きさにより入力画像55を自動的に分類することも可能となる。この場合には、例えば線状体2の検査作業者が、異常と判定された推論結果画像56を表示装置13によって目視する際に、異常が大きいものから優先順位をつけて確認することができる。あるいは、分類時に重大な異常がある場合には、判定結果保存部52への保存時で表示装置13による目視確認の前に、検査作業者にメールなどで警告する等のシステムを実現することも可能となる。すなわち、上記のような線状体2の異常検出装置10及び異常検出方法においては、重大な異常を効率的に探すことができるため、検査作業者の作業量を低減することも可能である。
また、学習モデル43は、FCNにより実現されて、セマンティックセグメンテーションにより、入力画像55内の各画素が異常に該当するか否かを推論する。
上記のような構成によれば、線状体2の異常検出装置10及び異常検出方法を適切に実現可能である。
また、学習画像45及び入力画像55は、線状体2が学習画像45及び入力画像55内で所定の割合以上の面積を占めるように撮像され、異常判定部51は、異常に該当すると推論された画素が連続することにより形成される異常領域5Rの面積が所定の閾値以上の場合に、入力画像55内に異常があると判定する。
上記のような構成によれば、ノイズとみなされる異常部分領域5Rによって、入力画像55内に異常があると判定される可能性が低減される。したがって、異常検出の精度を向上させることができる。
また、正解値は、正解値に対応する学習画像45内の画素が、背景6、線状体2、及び異常を含む分類区分のいずれに該当するかを示すものであり、学習モデル43は、入力画像55内の各画素が分類区分の各々に該当し得る確率を出力し、異常推論部42は、各画素における確率が最も高い分類区分が、当該画素に該当すると推論する。
上記のような構成によれば、線状体2の異常検出装置10及び異常検出方法を適切に実現可能である。
また、線状体2は架空地線である
上記のような構成によれば、架空地線の異常を検出することが可能となる。
[実施形態の第1変形例]
次に、図7、図8、図9を用いて、上記実施形態として示した線状体2の異常検出装置10及び異常検出方法の第1変形例を説明する。図7は、本第1変形例に関する線状体の異常検出装置のブロック図である。図8(a)、(b)は、それぞれ、本第1変形例に関する線状体の異常検出装置の推論結果精査部へ入力される、異常推論部の出力画像である推論結果画像と、推論結果精査部の出力画像である精査画像の説明図である。図9は、本第1変形例に関する線状体の異常検出方法のフローチャートである。
本第1変形例における線状体2の異常検出装置60は、上記実施形態の線状体2の異常検出装置60とは、制御装置61の異常検出部62が推論結果精査部63を備えている点が異なっている。
以下においては、推論結果精査部63に関連する事柄のみ説明する。
推論結果精査部63は、学習モデル43の深層学習が終了した後における、実際の異常検出に際して各画素が異常に該当するか否かを推論する場合に動作する。したがって、深層学習時においては、異常検出装置60は、上記実施形態の異常検出装置10と同様に動作する。
実際の異常検出に際して各画素が異常に該当するか否かを推論する場合には、異常検出装置60は上記実施形態の異常検出装置10と同様に、異常推論部42によって、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論し、出力データ49と、出力データ49を基にした推論結果画像56を生成する。
異常推論部42は、入力画像55、出力データ49、及び推論結果画像56を、異常検出部62の推論結果精査部63へ送信する。
推論結果精査部63は、異常推論部42から、入力画像55、出力データ49、及び推論結果画像56を受信する。
異常推論部42により生成された推論結果画像56には、異常ではない部分が異常と推論された誤推論が混入している可能性がある。例えば図8(a)に示される推論結果画像56Aには、背景領域6Rに、異常部分領域5Rと同様に異常部分と推論されて白く着色された誤推論部分64が存在する。
推論結果精査部63は、このように、異常推論部42において異常に該当すると推論された画素が、線状体2が占める領域である線状体領域2Rの外に在る場合に、当該画素は異常に該当しないと判断する。
その結果、推論結果精査部63は、図8(b)に部分66として示されるように、誤推論部分64を、周囲の、この場合においては背景領域6Rと同様に着色し、精査画像65を生成する。
このように、推論結果精査部63は、異常推論部42によって異常に該当すると推論された画素を、異常には該当しないと再判断することにより、推論結果を精査する。
推論結果精査部63は、異常推論部42から受信した入力画像55、出力データ49、及び生成した精査画像65を、異常判定部51へ送信する。
異常判定部51は、推論結果精査部63の精査結果を基に、入力画像55内の異常の有無を判定する。すなわち、上記実施形態においては、異常判定部51は異常推論部42から受信した推論結果画像56を基に入力画像55の異常の有無を判定したが、本変形例においてはこれに代えて、精査画像65を基に入力画像55の異常の有無を判定する。
本変形例の線状体2の異常検出方法においては、図9に示されるように、上記実施形態でステップS3として示した異常推論部42における処理の後に、推論結果精査部63が、異常推論部42によって異常に該当すると推論された画素を、異常には該当しないと再判断することにより、推論結果を精査する(ステップS4)。
その後、上記実施形態でステップS5として示した、異常判定部51による処理に遷移する。
本第1変形例が、既に説明した実施形態と同様な効果を奏することは言うまでもない。
特に本変形例においては、効果的に、異常の誤推論及び誤検出を抑制することができる。
[実施形態の第2変形例]
次に、図10を用いて、上記実施形態として示した線状体2の異常検出装置10及び異常検出方法の第2変形例を説明する。図10(a)、(b)、(c)は、それぞれ、本第2変形例における推論結果精査部へ入力される、異常推論部の出力画像である推論結果画像と、推論結果精査部の処理中の画像、及び推論結果精査部の出力画像である精査画像の説明図である。本第2変形例は、上記第1変形例の更なる変形例であり、上記第1変形例とは、推論結果精査部の処理内容が異なっている。
本変形例における推論結果精査部は、異常推論部42から、入力画像55、出力データ49、及び推論結果画像56を受信する。
第1変形例において説明したように、異常推論部42により生成された推論結果画像56には、例えば図10(a)に示される推論結果画像56Bの誤推論部分64のように、異常の誤推論が混入している可能性がある。これに加えて、異常推論部42により生成された推論結果画像56には、線状体領域2Rに関する誤推論が混入している可能性もある。推論結果画像56Bには、背景領域6Rに、線状体領域2Rと同様に線状体2であると推論されて黒く着色(濃く見えるドットパターンに対応)された誤推論部分72が存在する。
推論結果精査部は、誤推論部分64に加え、線状体2に関する誤推論部分72を除去する。
このために、推論結果精査部はまず、線状体領域2R、線上設備領域4R、及び異常部分領域5Rにより占められる、背景領域6R以外の領域を縮小する。この縮小処理により、線状体領域2R、線上設備領域4R、及び異常部分領域5Rに関する、面積が小さなノイズが推論結果画像56に存在していた場合に、これが除去される。
次に、線状体領域2R、線上設備領域4R、及び異常部分領域5Rにより占められる領域を拡大して元の大きさに復元した後に、最も面積が大きな領域のみを線状体に関連する、背景領域6R以外の領域と見做し、他の領域を除去する。これにより、縮小処理によっても除去されない線状体2の誤推論が除去される。
以上の縮小拡大処理により、推論結果精査部は、図10(b)に線状体再推定画像70として示されるように、線状体2に関連する、すなわち背景領域6R以外の領域2RAを再推定する。
推論結果精査部は、線状体2に関連する領域2RAが再推定された線状体再推定画像70と、推論結果画像56Bを比較し、推論結果画像56B内の領域2RAに相当する部分以外に位置する部分64、72を誤推論部分64、72と判断して除去する。
結果として、図10(c)に部分73として示されるように、誤推論部分64、72の双方が背景領域6Rであると精査された、精査画像71が生成される。
このように、推論結果精査部は、推論結果の各々を、これに対応する画素の位置に配置した推論結果画像56に対し、線状体2が占める領域を縮小した後に拡大する。
本第2変形例が、既に説明した実施形態及び第1変形例と同様な効果を奏することは言うまでもない。
特に本変形例においては、効果的に、異常の誤推論及び誤検出を抑制することができる。
なお、本発明の線状体の異常検出装置及び異常検出方法は、図面を参照して説明した上述の実施形態及び各変形例に限定されるものではなく、その技術的範囲において他の様々な変形例が考えられる。
例えば、上記実施形態及び各変形例においては、学習画像45や入力画像55は点検機11に搭載された撮像装置20によって撮像されていたが、これに限られない。学習画像45や入力画像55は、ヘリコプターやドローン等に搭載された撮像装置により撮像されてもかまわない。この場合においては、学習画像45や入力画像55中の線状体2の部分の面積が所定の割合以上の面積を占めるように、望遠レンズ等を用いて拡大して撮像するのが望ましい。あるいは、画像変換部31において静止画を生成する際に、既存の画像処理技術を用いて線状体2の部分を拡大処理することで、学習画像45や入力画像55中の線状体2の部分の面積が所定の割合以上の面積を占めるようにしても構わない。
また、上記実施形態及び各変形例においては、各静止画像に対応する座標位置情報は、点検機11に搭載されたGPS受信部22により取得されたGPS信号を基にしていたが、これに限られない。例えば、点検機11を等速で走行するように制御し、走行速度を基に静止画の撮影時刻から逆算して座標位置を導出してもよい。あるいは、点検機11を駆動する滑車の部分に、滑車の回転した数を計測するエンコーダ等のセンサを設け、これにより移動距離を計算することで、座標位置を導出してもよい。
これ以外にも、本発明の主旨を逸脱しない限り、上記実施形態及び各変形例で挙げた構成を取捨選択したり、他の構成に適宜変更したりすることが可能である。
2 線状体(架空地線)
2R 線状体領域
4 線上設備
4R 線上設備領域
5 異常部分
5R 異常部分領域(異常領域)
6 背景
6R 背景領域
10、60 異常検出装置
11 点検機
12 制御装置
13 表示装置
42 異常推論部
43 学習モデル
45 学習画像
51 異常判定部
55 入力画像
56 推論結果画像
63 推論結果精査部

Claims (8)

  1. 線状体を撮像した画像を解析して前記線状体の異常を検出する、線状体の異常検出装置であって、
    前記線状体に関する学習画像と、当該学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデルを備え、当該学習モデルに対し、前記画像を入力画像として入力し、当該入力画像内の各画素に対して、当該画素が異常に該当するか否かを推論する、異常推論部と、
    当該異常推論部の推論結果を基に、前記入力画像内の異常の有無を判定する、異常判定部と、を備え
    前記正解値は、当該正解値に対応する前記学習画像内の画素が、背景、前記線状体、及び異常を含む分類区分のいずれに該当するかを示すものであり、
    前記学習モデルは、前記入力画像内の各画素が前記分類区分の各々に該当し得る確率を出力し、
    前記異常推論部は、前記入力画像内の各画素における前記確率が最も高い前記分類区分が、当該画素に該当すると推論する、線状体の異常検出装置。
  2. 前記学習モデルは、全層畳み込みネットワークにより実現されて、セマンティックセグメンテーションにより、前記入力画像内の各画素が異常に該当するか否かを推論する、請求項1に記載の線状体の異常検出装置。
  3. 前記学習画像及び前記入力画像は、前記線状体が前記学習画像及び前記入力画像内で所定の割合以上の面積を占めるように撮像され、
    前記異常判定部は、異常に該当すると推論された画素が連続することにより形成される異常領域の面積が所定の閾値以上の場合に、前記入力画像内に異常があると判定する、請求項1または2に記載の線状体の異常検出装置。
  4. 前記異常推論部によって異常に該当すると推論された画素を、異常には該当しないと再判断することにより、前記推論結果を精査する推論結果精査部を更に備え、
    前記異常判定部は、当該推論結果精査部の精査結果を基に、前記入力画像内の異常の有無を判定する、請求項1からのいずれか一項に記載の線状体の異常検出装置。
  5. 前記推論結果精査部は、前記異常推論部において異常に該当すると推論された画素が、前記線状体が占める領域の外に在る場合に、当該画素は異常に該当しないと判断する、請求項に記載の線状体の異常検出装置。
  6. 前記推論結果精査部は、前記推論結果の各々を、これに対応する画素の位置に配置した推論結果画像に対し、前記線状体が占める領域を縮小した後に拡大する、請求項またはに記載の線状体の異常検出装置。
  7. 前記線状体は架空地線である、請求項1からのいずれか一項に記載の線状体の異常検出装置。
  8. 線状体を撮像した画像を解析して前記線状体の異常を検出する、線状体の異常検出方法であって、
    前記線状体に関する学習画像と、当該学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値であって、対応する前記学習画像内の画素が、背景、前記線状体、及び異常を含む分類区分のいずれに該当するかを示すものである前記正解値とを、学習データとして深層学習された学習モデルに対し、前記画像を入力画像として入力し、前記学習モデルは、前記入力画像内の各画素が前記分類区分の各々に該当し得る確率を出力し、前記入力画像内の各画素に対して、前記確率が最も高い前記分類区分が、当該画素に該当すると推論することで、当該画素が異常に該当するか否かを推論し、
    推論結果を基に、前記入力画像内の異常の有無を判定する、線状体の異常検出方法。
JP2019020188A 2019-02-07 2019-02-07 線状体の異常検出装置及び異常検出方法 Active JP7124743B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019020188A JP7124743B2 (ja) 2019-02-07 2019-02-07 線状体の異常検出装置及び異常検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019020188A JP7124743B2 (ja) 2019-02-07 2019-02-07 線状体の異常検出装置及び異常検出方法

Publications (2)

Publication Number Publication Date
JP2020128877A JP2020128877A (ja) 2020-08-27
JP7124743B2 true JP7124743B2 (ja) 2022-08-24

Family

ID=72175372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019020188A Active JP7124743B2 (ja) 2019-02-07 2019-02-07 線状体の異常検出装置及び異常検出方法

Country Status (1)

Country Link
JP (1) JP7124743B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7018540B2 (ja) * 2019-09-27 2022-02-10 朝日航洋株式会社 巡視点検システムおよび巡視点検方法
JP6993391B2 (ja) * 2019-09-27 2022-01-13 朝日航洋株式会社 巡視点検システムおよび巡視点検方法
DE112021005038T5 (de) * 2020-09-25 2023-07-13 Fanuc Corporation Modellerzeugungsvorrichtung für die sichtprüfung und sichtprüfungsvorrichtung
JP7332654B2 (ja) * 2021-06-29 2023-08-23 株式会社かんでんエンジニアリング 架空線損傷判定システム
JP2023121084A (ja) * 2022-02-18 2023-08-30 ブラザー工業株式会社 コンピュータプログラム、および、処理装置
CN114622311A (zh) * 2022-05-17 2022-06-14 北京东方国信科技股份有限公司 断线检测方法、装置及纺纱机

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074757A (ja) 2016-10-28 2018-05-10 株式会社東芝 巡視点検システム、情報処理装置、巡視点検制御プログラム
JP2018119873A (ja) 2017-01-26 2018-08-02 株式会社 日立産業制御ソリューションズ 検査装置及び検査方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074757A (ja) 2016-10-28 2018-05-10 株式会社東芝 巡視点検システム、情報処理装置、巡視点検制御プログラム
JP2018119873A (ja) 2017-01-26 2018-08-02 株式会社 日立産業制御ソリューションズ 検査装置及び検査方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Long et al.,Fully Convolutional Networks for Semantic Segmentation,IEEE Transactions on Pattern Analysis and Machine Intelligence,第39巻第4号,IEEE,2016年05月24日
Ronneberger et al.,U-Net: Convolutional Networks for Biomedical Image Segmentation,MICCAI 2015,2015年11月18日,p.234-241
木村 宇任ほか,Fully Convolutional Networkを用いたインフラ点検におけるひび割れの自動検出,情報処理学会研究報告,2017年09月18日,p.1-5

Also Published As

Publication number Publication date
JP2020128877A (ja) 2020-08-27

Similar Documents

Publication Publication Date Title
JP7124743B2 (ja) 線状体の異常検出装置及び異常検出方法
US20220004818A1 (en) Systems and Methods for Evaluating Perception System Quality
CN109740609B (zh) 一种轨距检测方法及装置
US8811750B2 (en) Apparatus and method for extracting edge in image
CN111080600A (zh) 一种铁路货车弹簧托板上开口销的故障识别方法
CN111539927B (zh) 汽车塑料组合件紧固卡扣缺装检测装置的检测方法
JP2019191117A (ja) 画像処理装置、画像処理方法及びプログラム
KR102297232B1 (ko) 형태학적 영상처리를 활용한 이상 탐지 방법
CN115980050B (zh) 排水口的水质检测方法、装置、计算机设备及存储介质
CN105976398A (zh) 一种白天火灾视频检测方法
CN111178424A (zh) 一种石油化工生产现场安全合规性实时检测系统及方法
JP2021086379A (ja) 情報処理装置、情報処理方法、プログラム及び学習モデルの生成方法
CN114738205B (zh) 一种浮式风机基础的状态监测方法、装置、设备和介质
CN115359431A (zh) 一种大气环境污染源污染程度评估方法及系统
CN113554645B (zh) 基于wgan的工业异常检测方法和装置
CN115082850A (zh) 基于计算机视觉的模板支架安全风险识别方法
US20210304400A1 (en) System and method for inspection of heat recovery steam generator
JP7075057B2 (ja) 画像判定装置、画像判定方法及び画像判定プログラム
CN111415326A (zh) 一种用于铁路接触网螺栓异常状态的检测方法及系统
US11120541B2 (en) Determination device and determining method thereof
CN110634124A (zh) 一种区域检测的方法及设备
CN115438945A (zh) 基于电力设备巡检的风险识别方法、装置、设备及介质
KR20230036650A (ko) 영상 패치 기반의 불량 검출 시스템 및 방법
US20230093034A1 (en) Target area detection device, target area detection method, and target area detection program
CN112967335A (zh) 气泡尺寸监测方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R150 Certificate of patent or registration of utility model

Ref document number: 7124743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150