JP7124743B2 - 線状体の異常検出装置及び異常検出方法 - Google Patents
線状体の異常検出装置及び異常検出方法 Download PDFInfo
- Publication number
- JP7124743B2 JP7124743B2 JP2019020188A JP2019020188A JP7124743B2 JP 7124743 B2 JP7124743 B2 JP 7124743B2 JP 2019020188 A JP2019020188 A JP 2019020188A JP 2019020188 A JP2019020188 A JP 2019020188A JP 7124743 B2 JP7124743 B2 JP 7124743B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- abnormality
- pixel
- learning
- linear body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Electric Cable Installation (AREA)
- Image Analysis (AREA)
Description
線状体は、経年劣化や、外力が作用することにより、断線、裂傷等の異常が生じる場合がある。線状体の異常は、点検作業員が目視で線状体そのものを確認したり、あるいは線状体を撮像した画像を閲覧したりすることにより検出されることがあるが、これらの作業は多くの時間や労力を必要とする。このため、線状体の点検作業に要する時間や労力を低減することが検討されている。
特許文献1のような異常領域検出装置においては、事前の準備作業として、正常なデータの集合から正常なデータの分布を求める必要がある。また、正常なデータの分布から異常を判定するための閾値を設定する必要がある。これらの作業には、専門的な知識が必要であり、導入が容易ではない。
しかし、CNNを線状体の異常検出に適用する場合には、上記のような特徴を受け得る反面、異常を特徴として検出できたとしても、画像内での位置情報や形状が曖昧となる。また、CNNでは上記のようにフィルタによる処理を行っているため、検出された異常が、フィルタが適用される矩形領域の中の、どこに位置する、どのような形状の物体であるのかを、詳細に知ることが難しい。
したがって、線状体の検出装置にCNNを適用した場合には、異常が検出された際に、CNNが画像中のどの位置のどの形状の物体を異常と判断したか、その判定根拠を詳細に把握できない。このため、異常検出を自動化したとしても、結局は作業員が画像を目視確認して、異常の大きさや種類、位置を判断しなければならない場合がある。
異常の形状や位置の検出精度を高めることにより、異常をより正確に検出し、かつ異常検出時の判定根拠をより詳細に提示可能な、線状体の異常検出装置及び異常検出方法が求められている。
本実施形態における線状体の異常検出装置は、線状体を撮像した画像を解析して線状体の異常を検出するものであって、線状体に関する学習画像と、学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデルを備え、学習モデルに対し、画像を入力画像として入力し、入力画像内の各画素に対して、当該画素が異常に該当するか否かを推論する、異常推論部と、異常推論部の推論結果を基に、入力画像内の異常の有無を判定する。
上記のように、異常検出装置10は、線状体の異常を検出する装置である。本実施形態における線状体2は、例えば、鉄塔1間に架設された架空地線2である。架空地線2は、送電、配電等を目的として同様に鉄塔1間に架設された架空線3を、主に雷から保護する。
異常検出装置10は、点検機11、制御装置12、及び表示装置13を備えている。
点検機11は、線状体2上を自律的に、あるいは操作されて走行するように構成されている。点検機11は、撮像装置20、記憶部21、及びGPS受信部22を備えている。
撮像装置20は、点検機11が線状体2上を走行する際に、線状体2の表面の画像を、動画として撮像する。撮像装置20は動画を記憶部21に保存する。
GPS受信部22は、所定の時間間隔で、図示されないGPS衛星からGPS信号を受信し、点検機11の座標位置を特定する。GPS受信部22は、特定された座標位置を、座標位置取得時の時刻と対応付け、組み合わせて記憶部21に保存する。
表示装置13は、例えばディスプレイ等であり、次に説明する制御装置12の指示に従って、制御装置12による異常の検出結果等を表示する。
これら制御装置12の構成要素のうち、画像変換部31、異常推論部42、異常判定部51、及び表示制御部53は、例えば上記の各情報処理装置内のCPUにより実行されるソフトウェア、プログラムであってよい。また、データ保存部30、学習用データ記憶部41、及び判定結果保存部52は、上記各情報処理装置内外に設けられた半導体メモリや磁気ディスクなどの記憶装置により実現されていてよい。
すなわち、制御装置12は大別して、深層学習時における学習と、実際に線状体2の異常を検出する際における各画素が異常に該当するか否かの推論の、2通りの動作を行う。説明を簡単にするために、以下ではまず、深層学習時における、制御装置12の各構成要素の説明をした後に、実際の異常検出に際して各画素が異常に該当するか否かを推論する場合での各構成要素の挙動について説明する。
データ保存部30には、点検機11の記憶部21に保存された、動画と、及び座標位置と時刻の複数の組み合わせとの各々が転送され、保存される。
画像変換部31は、データ保存部30から動画を取得し、これを複数の静止画に変換する。画像変換部31は、静止画を学習部40に送信する。
図3は、学習画像の説明図である。線状体2には、例えば難着雪リング等の、線状体2上に設けられる設備である線上設備4が設けられることがある。図3に示される学習画像45は、線状体2上の線上設備4が設けられた部分が撮像されたものである。
線状体2には、裂傷やアーク痕等の異常が生じる場合がある。図3に示される学習画像45は、線状体2上に2つの異常部分5が示されており、異常を含むものとなっている。しかし、学習画像45としては、正常な状態の、すなわち異常を含まない線状体2が撮像された画像も当然含み得る。
本実施形態においては、学習画像45の生成元である動画は、線状体2上を走行する点検機11によって、線状体2の近くから撮像されている。このため、線上設備4と異常部分5を含む、線状体2の部分が、学習画像45内で所定の割合以上の面積を占めている。線状体2の部分以外は、背景6となっている。
このような、他の手段で用意された学習画像においても、線上設備4と異常部分5を含む線状体2の部分が、学習画像45内で所定の割合以上の面積を占めるように撮像され、または加工されている。
以下、説明を簡単にするため、異常推論部42が備えている機械学習器と、これが学習されて生成される学習モデルをともに、同じ符号を付して、機械学習器43、または学習モデル43と呼称する。
学習用データ記憶部41に保存された各学習画像45は、この機械学習器43の深層学習における、入力画像として使用される。機械学習器43が、入力された学習画像45に対して深層学習するためには、深層学習の目標となる、学習画像45に対応する教師データが必要である。
特に本実施形態においては、各画素に対して、当該画素が図3に示される背景6に該当するか否かを示す値である背景値、当該画素が線状体2に該当するか否かを示す値である線状体値、当該画素が線上設備4に該当するか否かを示す値である線上設備値、及び当該画素が異常部分5に該当するか否かを示す値である異常部分値の、4つの値の組み合わせが正解値となる。背景値、線状体値、線上設備値、異常部分値には、画素が分類区分内の各要素に該当する場合には例えば1が、該当しない場合には例えば0が、設定される。したがって、各画素に対して、各要素が0または1の、背景値、線状体値、線上設備値、異常部分値の組み合わせである(背景値、線状体値、線上設備値、異常部分値)が正解値となる。
例えば、図3において背景6に該当する画素の正解値は、(1、0、0、0)となり得る。線状体2に該当する画素の正解値は、(0、1、0、0)となり得る。線上設備4に該当する画素の正解値は、(0、0、1、0)となり得る。更に、異常部分5に該当する画素の正解値は、(0、0、0、1)となり得る。
このように、正解値は、学習画像45内の各画素に対応して設けられ、対応する画素が背景6、線状体2、及び異常部分5を含む分類区分のいずれに該当するかを示すものである。
図4は、教師画像46の説明図である。教師画像46の、図3における背景6に相当する領域である背景領域6R内の各画素は、淡く見えるドットパターン(例えば淡い灰色に対応)で着色されている。教師画像46の、図3における線状体2に相当する領域である線状体領域2R内の各画素は、濃く見えるドットパターン(例えば黒色に対応)で着色されている。教師画像46の、図3における線上設備4に相当する領域である線上設備領域4R内の各画素は、線状体領域2Rと背景領域6Rとは異なる濃度のドットパターン(例えば濃い灰色に対応)で着色されている。教師画像46の、図3における異常部分5に相当する領域である異常部分領域(異常領域)5R内の各画素は、例えば白色で着色されている。
教師データは、例えばこのような構成の教師画像に対して、各画素に対応する上記の正解値が付与されたもので有り得る。
教師データは、学習画像45に対応付けられて、学習用データ記憶部41に保存されている。
図5は、機械学習器(学習モデル)43の模式的なブロック図である。本実施形態においては、学習モデル43は、全層畳み込みネットワーク(Fully Convolutional Network、以下FCNと記載する)により実現されて、セマンティックセグメンテーションにより、入力された画像内の各画素が異常に該当するか否かを推論するように、学習されている。FCNは、以下に説明するように、全結合層を備えず、畳み込み層において処理、生成された特徴マップを直接、逆畳み込み層への入力とするものである。FCNによって、任意の大きさの画像を入力として使用できるとともに、学習により適切な特徴を選択して推定することが可能となる。
畳み込み層47aは、図示されない所定の数のフィルタを備えている。機械学習器43は、各フィルタに対し、これを学習画像45上に位置付け、フィルタ内の学習画像45の各画素の画素値に対して、フィルタ内に画素位置に対応して設定された重みを付けて和を計算することで、畳み込みフィルタ処理を実行する。これにより、畳み込み層47aにおける1つの画素の画素値が演算される。機械学習器43は、フィルタを学習画像45上で所定の解像度刻みで移動させつつ、このような畳み込みフィルタ処理を実行することで複数の画素値を演算し、これを並べて、フィルタに対応した1枚の画像を生成する。
機械学習器43は、この処理を、全てのフィルタに対して実行し、フィルタの数に応じた特徴マップを生成する。
畳み込み層47cにおいても、畳み込みフィルタ処理とプーリング処理が順次実行される。畳み込み層47cは、畳み込み層47bのフィルタよりも小さい大きさの、所定の数のフィルタを備えており、これらを用いて畳み込みフィルタ処理を実行し、更にプーリング処理を実行することで、フィルタの数に応じた所定の数の、プーリング処理された特徴マップを生成する。
各畳み込み層47a、47b、47cにおけるフィルタの重みは、機械学習により調整される。
畳み込み層47cにおいてプーリング処理された特徴マップは、逆畳み込み処理部48の逆畳み込み層48cへの入力となる。
出力データ49に基づき、図4に示される教師画像46と同様に表現した画像を、以下、推論結果画像56と呼称する。すなわち、推論結果画像56は、推論結果の各々に関する情報を、これに対応する画素の位置に、色として反映して配置した画像であり、図4に示されるように、各画素が、当該画素に対応する出力値に含まれる複数の確率値の中で、最も高い値の確率に対応する分類区分に対応した色を有するようになっている。
ここで、各逆畳み込み層48c、48b、48aにおいては、上記のように対応する畳み込み層47c、47b、47aに対応する処理を実行するとともに、各畳み込み層47c、47b、47aにおける処理データを使用することによって、各畳み込み層47a、47b、47cにおいて失われた位置情報を補完している。これにより、逆畳み込み処理部48から出力された出力データ49及びこれに対応する推論結果画像56は、位置情報が画素単位で復元されたものとなっている。
位置情報の補完は、例えば、各畳み込み層47a、47b、47cのプーリング処理において最大の画素値として選択された画素の位置を記憶しておき、逆畳み込み層48c、48b、48aにおいて画像を拡大、復元する際に、記憶された場所に特徴マップの画素値をコピーしたうえで、コピーされた画素間の画素の画素値を、これら特徴マップからコピーされた画素の画素値を基に、例えばバイリニアで補完することにより行われ得る。
その上で、このコスト関数を小さくするように、誤差逆伝搬法等により、各フィルタの重みの値等を調整することで、機械学習器43が機械学習される。
結果として、例えば、図3において背景6に該当する画素の、教師データ上での正解値は(1、0、0、0)であるため、出力データ49の当該画素に対応する出力値としては、1番目の背景6に該当する確率値が他よりも1に近く、他の確率値が1番目の確率値よりも0に近い値の組み合わせとなり得る。
このように、学習が終了した学習モデル43は、何らかの画像が入力画像として入力された際に、入力画像内の各画素に対し、当該画素が分類区分の各々に該当し得る確率を出力する。
データ保存部30には、点検機11の記憶部21に保存された、動画と、及び座標位置と時刻の複数の組み合わせとの各々が転送され、保存される。
画像変換部31は、データ保存部30から動画を取得し、これを複数の静止画に変換する。画像変換部31は、座標位置と時刻の複数の組み合わせをデータ保存部30から取得し、変換された静止画の各々に対して、この複数の組み合わせと当該静止画が撮像された時刻を基に当該静止画が撮像された座標位置を推定する。
画像変換部31は、静止画を学習モデル43への入力画像として、学習部40に送信する。
画像変換部31はまた、上記入力画像と、これに対応する撮像された座標位置を、学習部40に送信すると同時に、後に説明する判定結果保存部52に送信し、保存する。
異常推論部42は、学習モデル43に、入力画像55を入力画像として入力し、学習モデル43によって、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論する。
この学習モデル43は、入力画像55の各画素が異常に該当するか否かを推論するように深層学習されている、学習済みのモデルである。
より詳細には、異常推論部42が、入力画像55を学習モデル43に入力すると、学習モデル43は、畳み込み層47a、47b、47cと、及び逆畳み込み層48c、48b、48aを順に辿りながら、畳み込み処理、プーリング処理、逆畳み込み処理等を実行する。最終的に逆畳み込み層48aから、入力画像55に対応する出力データ49が出力される。
異常推論部42は、各画素に対し、出力データ49上で該当し得る確率が最も高い分類区分を、当該画素に該当する分類区分であると推論する。
異常推論部42はまた、出力データ49に対し、図4に示されるような推論結果画像56を生成する。すなわち、推論結果画像56は、各画素が、上記のように該当すると推論された分類区分に対応した色を有するように生成される。
異常推論部42は、入力画像55と、出力データ49、及び出力データ49を基に生成した推論結果画像56を、異常検出部50の異常判定部51へ送信する。
異常判定部51は、異常推論部42の推論結果、この場合においては推論結果画像56を基に、入力画像55内の異常の有無を判定する。
このようなノイズを低減するため、異常判定部51は、異常部分5に該当すると異常推論部42によって推論された画素が、例えば推論結果画像56上で連続することにより形成される異常部分領域(異常領域)5Rの面積が、所定の閾値以上の場合に、入力画像55内に異常があると判定する。
また、異常判定部51は、面積が上記の所定の閾値以下の異常部分領域5Rがある場合には、推論結果画像56内の該当する部分を周囲の、例えば線状体2の分類区分に対応する色(例えば図4においては濃く見えるドットパターンに対応する黒色)に再設定する。
これにより、ノイズとみなされる異常部分領域5Rによって、入力画像55内に異常があると判定される可能性が低減される。
判定結果保存部52にはまた、各入力画像55に対応する、判定結果と、出力データ49、及び着色が再設定されてノイズが低減された推論結果画像56が、異常判定部51によって保存されている。
表示制御部53は、表示装置13に、入力画像55と推論結果画像56を対比させて表示するとともに、当該入力画像55内には異常があると判定した旨を表示する。表示制御部53はまた、入力画像55が撮像された座標位置を、例えば近傍の地図を表示したうえで地図上の該当する座標位置に印を付与することで表示する。
本実施形態における線状体2の異常検出方法は、線状体2を撮像した画像を解析して線状体2の異常を検出するものであって、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデル43に対し、画像を入力画像55として入力し、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論し、推論結果を基に、入力画像55内の異常の有無を判定する。
まず、図1~図5を用いて、深層学習時における、主に学習部40の動作を説明する。
畳み込み処理部47は、各畳み込み層47a、47b、47cにより畳み込み処理及びプーリング処理を順次実行して特徴マップを生成し、逆畳み込み処理部48へ入力する。
逆畳み込み処理部48は、各逆畳み込み層48c、48b、48aにより特徴マップを拡大、復元するように逆畳み込み処理を実行する。ここで、各逆畳み込み層48c、48b、48aにおいては、対応する畳み込み層47c、47b、47aに対応する処理を実行するとともに、各畳み込み層47c、47b、47aにおける処理データを使用することによって、各畳み込み層47a、47b、47cにおいて失われた位置情報を補完する。これにより、逆畳み込み処理部48から出力された出力データ49及びこれに対応する推論結果画像56は、位置情報が画素単位で復元されたものとなっている。
その上で、このコスト関数を小さくするように、誤差逆伝搬法等により、各フィルタの重みの値等を調整することで、機械学習器43が機械学習される。
データ保存部30には、点検機11の記憶部21に保存された、動画と、及び座標位置と時刻の複数の組み合わせとの各々が転送され、保存される。
画像変換部31は、データ保存部30から動画を取得し、これを複数の静止画に変換する(ステップS1)。画像変換部31は、座標位置と時刻の複数の組み合わせをデータ保存部30から取得し、変換された静止画の各々に対して、この複数の組み合わせと当該静止画が撮像された時刻を基に当該静止画が撮像された座標位置を推定する。
画像変換部31は、静止画を学習モデル43への入力画像として、学習部40に送信する。
画像変換部31はまた、上記入力画像と、これに対応する撮像された座標位置を、学習部40に送信すると同時に、判定結果保存部52に送信し、保存する。
異常推論部42は、学習モデル43に、入力画像55を入力画像として入力し、学習モデル43によって、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論する(ステップS3)。
より詳細には、異常推論部42が、入力画像55を学習モデル43に入力すると、学習モデル43は、畳み込み層47a、47b、47cと、及び逆畳み込み層48c、48b、48aを順に辿りながら、畳み込み処理、プーリング処理、逆畳み込み処理等を実行する。最終的に逆畳み込み層48aから、入力画像55に対応する出力データ49が出力される。
異常推論部42はまた、出力データ49に対し、図4に示されるような推論結果画像56を生成する。すなわち、推論結果画像56は、各画素が、上記のように該当すると推論された分類区分に対応した色を有するように生成される。
異常推論部42は、入力画像55と、出力データ49、及び出力データ49を基に生成した推論結果画像56を、異常検出部50の異常判定部51へ送信する。
異常判定部51は、異常推論部42の推論結果、この場合においては推論結果画像56を基に、入力画像55内の異常の有無を判定する(ステップS5)。
異常判定部51は、異常部分5に該当すると異常推論部42によって推論された画素が、例えば推論結果画像56上で連続することにより形成される異常部分領域(異常領域)5Rの面積が、所定の閾値以上の場合に、入力画像55内に異常があると判定する。
また、異常判定部51は、面積が上記の所定の閾値以下の異常部分領域5Rがある場合には、推論結果画像56内の該当する部分を周囲の、例えば線状体2の分類区分に対応する色(例えば図4においては濃く見えるドットパターンに対応する黒色)に再設定する。
異常判定部51は、画像変換部31によって既に判定結果保存部52に保存されている入力画像55に対応付けて、判定結果と、出力データ49、及び着色が再設定されてノイズが低減された推論結果画像56を判定結果保存部52に保存する。
表示制御部53は、表示装置13に、入力画像55と推論結果画像56を対比させて表示するとともに、当該入力画像55内には異常があると判定した旨を表示する(ステップS7)。表示制御部53はまた、入力画像55が撮像された座標位置を、例えば近傍の地図を表示したうえで地図上の該当する座標位置に印を付与することで表示する。
また、本実施形態の線状体2の異常検出方法は、線状体2を撮像した画像を解析して線状体2の異常を検出するものであって、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデル43に対し、画像を入力画像55として入力し、入力画像55内の各画素に対して、当該画素が異常に該当するか否かを推論し、推論結果を基に、入力画像55内の異常の有無を判定する。
上記のような構成、方法によれば、学習モデル43は、線状体2に関する学習画像45と、学習画像45内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習されている。この学習モデル43を用いて、画像を入力画像55として入力し、入力画像55内の各画素に対して、当該画素が異常に該当するか否かが推論される。
すなわち、入力画像55の各画素に対して、画素単位で異常に該当するか否かが推論されるため、入力画像55内の線状体2に異常があると推論された場合においては、推論された異常の位置や形状に関する正確な情報を、異常推論部42が出力可能である。したがって、異常の形状や位置の検出精度が高まるとともに、異常推論部42が入力画像55内のどの位置のどの形状の物体を異常と推論したか、その判定根拠をより詳細に把握可能である。
上記のような構成によれば、線状体2の異常検出装置10及び異常検出方法を適切に実現可能である。
上記のような構成によれば、ノイズとみなされる異常部分領域5Rによって、入力画像55内に異常があると判定される可能性が低減される。したがって、異常検出の精度を向上させることができる。
上記のような構成によれば、線状体2の異常検出装置10及び異常検出方法を適切に実現可能である。
上記のような構成によれば、架空地線の異常を検出することが可能となる。
次に、図7、図8、図9を用いて、上記実施形態として示した線状体2の異常検出装置10及び異常検出方法の第1変形例を説明する。図7は、本第1変形例に関する線状体の異常検出装置のブロック図である。図8(a)、(b)は、それぞれ、本第1変形例に関する線状体の異常検出装置の推論結果精査部へ入力される、異常推論部の出力画像である推論結果画像と、推論結果精査部の出力画像である精査画像の説明図である。図9は、本第1変形例に関する線状体の異常検出方法のフローチャートである。
本第1変形例における線状体2の異常検出装置60は、上記実施形態の線状体2の異常検出装置60とは、制御装置61の異常検出部62が推論結果精査部63を備えている点が異なっている。
以下においては、推論結果精査部63に関連する事柄のみ説明する。
異常推論部42は、入力画像55、出力データ49、及び推論結果画像56を、異常検出部62の推論結果精査部63へ送信する。
異常推論部42により生成された推論結果画像56には、異常ではない部分が異常と推論された誤推論が混入している可能性がある。例えば図8(a)に示される推論結果画像56Aには、背景領域6Rに、異常部分領域5Rと同様に異常部分と推論されて白く着色された誤推論部分64が存在する。
推論結果精査部63は、このように、異常推論部42において異常に該当すると推論された画素が、線状体2が占める領域である線状体領域2Rの外に在る場合に、当該画素は異常に該当しないと判断する。
その結果、推論結果精査部63は、図8(b)に部分66として示されるように、誤推論部分64を、周囲の、この場合においては背景領域6Rと同様に着色し、精査画像65を生成する。
このように、推論結果精査部63は、異常推論部42によって異常に該当すると推論された画素を、異常には該当しないと再判断することにより、推論結果を精査する。
推論結果精査部63は、異常推論部42から受信した入力画像55、出力データ49、及び生成した精査画像65を、異常判定部51へ送信する。
その後、上記実施形態でステップS5として示した、異常判定部51による処理に遷移する。
特に本変形例においては、効果的に、異常の誤推論及び誤検出を抑制することができる。
次に、図10を用いて、上記実施形態として示した線状体2の異常検出装置10及び異常検出方法の第2変形例を説明する。図10(a)、(b)、(c)は、それぞれ、本第2変形例における推論結果精査部へ入力される、異常推論部の出力画像である推論結果画像と、推論結果精査部の処理中の画像、及び推論結果精査部の出力画像である精査画像の説明図である。本第2変形例は、上記第1変形例の更なる変形例であり、上記第1変形例とは、推論結果精査部の処理内容が異なっている。
第1変形例において説明したように、異常推論部42により生成された推論結果画像56には、例えば図10(a)に示される推論結果画像56Bの誤推論部分64のように、異常の誤推論が混入している可能性がある。これに加えて、異常推論部42により生成された推論結果画像56には、線状体領域2Rに関する誤推論が混入している可能性もある。推論結果画像56Bには、背景領域6Rに、線状体領域2Rと同様に線状体2であると推論されて黒く着色(濃く見えるドットパターンに対応)された誤推論部分72が存在する。
このために、推論結果精査部はまず、線状体領域2R、線上設備領域4R、及び異常部分領域5Rにより占められる、背景領域6R以外の領域を縮小する。この縮小処理により、線状体領域2R、線上設備領域4R、及び異常部分領域5Rに関する、面積が小さなノイズが推論結果画像56に存在していた場合に、これが除去される。
次に、線状体領域2R、線上設備領域4R、及び異常部分領域5Rにより占められる領域を拡大して元の大きさに復元した後に、最も面積が大きな領域のみを線状体に関連する、背景領域6R以外の領域と見做し、他の領域を除去する。これにより、縮小処理によっても除去されない線状体2の誤推論が除去される。
以上の縮小拡大処理により、推論結果精査部は、図10(b)に線状体再推定画像70として示されるように、線状体2に関連する、すなわち背景領域6R以外の領域2RAを再推定する。
結果として、図10(c)に部分73として示されるように、誤推論部分64、72の双方が背景領域6Rであると精査された、精査画像71が生成される。
このように、推論結果精査部は、推論結果の各々を、これに対応する画素の位置に配置した推論結果画像56に対し、線状体2が占める領域を縮小した後に拡大する。
特に本変形例においては、効果的に、異常の誤推論及び誤検出を抑制することができる。
また、上記実施形態及び各変形例においては、各静止画像に対応する座標位置情報は、点検機11に搭載されたGPS受信部22により取得されたGPS信号を基にしていたが、これに限られない。例えば、点検機11を等速で走行するように制御し、走行速度を基に静止画の撮影時刻から逆算して座標位置を導出してもよい。あるいは、点検機11を駆動する滑車の部分に、滑車の回転した数を計測するエンコーダ等のセンサを設け、これにより移動距離を計算することで、座標位置を導出してもよい。
2R 線状体領域
4 線上設備
4R 線上設備領域
5 異常部分
5R 異常部分領域(異常領域)
6 背景
6R 背景領域
10、60 異常検出装置
11 点検機
12 制御装置
13 表示装置
42 異常推論部
43 学習モデル
45 学習画像
51 異常判定部
55 入力画像
56 推論結果画像
63 推論結果精査部
Claims (8)
- 線状体を撮像した画像を解析して前記線状体の異常を検出する、線状体の異常検出装置であって、
前記線状体に関する学習画像と、当該学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値とを、学習データとして深層学習された学習モデルを備え、当該学習モデルに対し、前記画像を入力画像として入力し、当該入力画像内の各画素に対して、当該画素が異常に該当するか否かを推論する、異常推論部と、
当該異常推論部の推論結果を基に、前記入力画像内の異常の有無を判定する、異常判定部と、を備え、
前記正解値は、当該正解値に対応する前記学習画像内の画素が、背景、前記線状体、及び異常を含む分類区分のいずれに該当するかを示すものであり、
前記学習モデルは、前記入力画像内の各画素が前記分類区分の各々に該当し得る確率を出力し、
前記異常推論部は、前記入力画像内の各画素における前記確率が最も高い前記分類区分が、当該画素に該当すると推論する、線状体の異常検出装置。 - 前記学習モデルは、全層畳み込みネットワークにより実現されて、セマンティックセグメンテーションにより、前記入力画像内の各画素が異常に該当するか否かを推論する、請求項1に記載の線状体の異常検出装置。
- 前記学習画像及び前記入力画像は、前記線状体が前記学習画像及び前記入力画像内で所定の割合以上の面積を占めるように撮像され、
前記異常判定部は、異常に該当すると推論された画素が連続することにより形成される異常領域の面積が所定の閾値以上の場合に、前記入力画像内に異常があると判定する、請求項1または2に記載の線状体の異常検出装置。 - 前記異常推論部によって異常に該当すると推論された画素を、異常には該当しないと再判断することにより、前記推論結果を精査する推論結果精査部を更に備え、
前記異常判定部は、当該推論結果精査部の精査結果を基に、前記入力画像内の異常の有無を判定する、請求項1から3のいずれか一項に記載の線状体の異常検出装置。 - 前記推論結果精査部は、前記異常推論部において異常に該当すると推論された画素が、前記線状体が占める領域の外に在る場合に、当該画素は異常に該当しないと判断する、請求項4に記載の線状体の異常検出装置。
- 前記推論結果精査部は、前記推論結果の各々を、これに対応する画素の位置に配置した推論結果画像に対し、前記線状体が占める領域を縮小した後に拡大する、請求項4または5に記載の線状体の異常検出装置。
- 前記線状体は架空地線である、請求項1から6のいずれか一項に記載の線状体の異常検出装置。
- 線状体を撮像した画像を解析して前記線状体の異常を検出する、線状体の異常検出方法であって、
前記線状体に関する学習画像と、当該学習画像内の各画素に対する、当該画素が異常に該当するか否かの正解値であって、対応する前記学習画像内の画素が、背景、前記線状体、及び異常を含む分類区分のいずれに該当するかを示すものである前記正解値とを、学習データとして深層学習された学習モデルに対し、前記画像を入力画像として入力し、前記学習モデルは、前記入力画像内の各画素が前記分類区分の各々に該当し得る確率を出力し、前記入力画像内の各画素に対して、前記確率が最も高い前記分類区分が、当該画素に該当すると推論することで、当該画素が異常に該当するか否かを推論し、
推論結果を基に、前記入力画像内の異常の有無を判定する、線状体の異常検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019020188A JP7124743B2 (ja) | 2019-02-07 | 2019-02-07 | 線状体の異常検出装置及び異常検出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019020188A JP7124743B2 (ja) | 2019-02-07 | 2019-02-07 | 線状体の異常検出装置及び異常検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020128877A JP2020128877A (ja) | 2020-08-27 |
JP7124743B2 true JP7124743B2 (ja) | 2022-08-24 |
Family
ID=72175372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019020188A Active JP7124743B2 (ja) | 2019-02-07 | 2019-02-07 | 線状体の異常検出装置及び異常検出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7124743B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7018540B2 (ja) * | 2019-09-27 | 2022-02-10 | 朝日航洋株式会社 | 巡視点検システムおよび巡視点検方法 |
JP6993391B2 (ja) * | 2019-09-27 | 2022-01-13 | 朝日航洋株式会社 | 巡視点検システムおよび巡視点検方法 |
DE112021005038T5 (de) * | 2020-09-25 | 2023-07-13 | Fanuc Corporation | Modellerzeugungsvorrichtung für die sichtprüfung und sichtprüfungsvorrichtung |
JP7332654B2 (ja) * | 2021-06-29 | 2023-08-23 | 株式会社かんでんエンジニアリング | 架空線損傷判定システム |
JP2023121084A (ja) * | 2022-02-18 | 2023-08-30 | ブラザー工業株式会社 | コンピュータプログラム、および、処理装置 |
CN114622311A (zh) * | 2022-05-17 | 2022-06-14 | 北京东方国信科技股份有限公司 | 断线检测方法、装置及纺纱机 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018074757A (ja) | 2016-10-28 | 2018-05-10 | 株式会社東芝 | 巡視点検システム、情報処理装置、巡視点検制御プログラム |
JP2018119873A (ja) | 2017-01-26 | 2018-08-02 | 株式会社 日立産業制御ソリューションズ | 検査装置及び検査方法 |
-
2019
- 2019-02-07 JP JP2019020188A patent/JP7124743B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018074757A (ja) | 2016-10-28 | 2018-05-10 | 株式会社東芝 | 巡視点検システム、情報処理装置、巡視点検制御プログラム |
JP2018119873A (ja) | 2017-01-26 | 2018-08-02 | 株式会社 日立産業制御ソリューションズ | 検査装置及び検査方法 |
Non-Patent Citations (3)
Title |
---|
Long et al.,Fully Convolutional Networks for Semantic Segmentation,IEEE Transactions on Pattern Analysis and Machine Intelligence,第39巻第4号,IEEE,2016年05月24日 |
Ronneberger et al.,U-Net: Convolutional Networks for Biomedical Image Segmentation,MICCAI 2015,2015年11月18日,p.234-241 |
木村 宇任ほか,Fully Convolutional Networkを用いたインフラ点検におけるひび割れの自動検出,情報処理学会研究報告,2017年09月18日,p.1-5 |
Also Published As
Publication number | Publication date |
---|---|
JP2020128877A (ja) | 2020-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7124743B2 (ja) | 線状体の異常検出装置及び異常検出方法 | |
US20220004818A1 (en) | Systems and Methods for Evaluating Perception System Quality | |
CN109740609B (zh) | 一种轨距检测方法及装置 | |
US8811750B2 (en) | Apparatus and method for extracting edge in image | |
CN111080600A (zh) | 一种铁路货车弹簧托板上开口销的故障识别方法 | |
CN111539927B (zh) | 汽车塑料组合件紧固卡扣缺装检测装置的检测方法 | |
JP2019191117A (ja) | 画像処理装置、画像処理方法及びプログラム | |
KR102297232B1 (ko) | 형태학적 영상처리를 활용한 이상 탐지 방법 | |
CN115980050B (zh) | 排水口的水质检测方法、装置、计算机设备及存储介质 | |
CN105976398A (zh) | 一种白天火灾视频检测方法 | |
CN111178424A (zh) | 一种石油化工生产现场安全合规性实时检测系统及方法 | |
JP2021086379A (ja) | 情報処理装置、情報処理方法、プログラム及び学習モデルの生成方法 | |
CN114738205B (zh) | 一种浮式风机基础的状态监测方法、装置、设备和介质 | |
CN115359431A (zh) | 一种大气环境污染源污染程度评估方法及系统 | |
CN113554645B (zh) | 基于wgan的工业异常检测方法和装置 | |
CN115082850A (zh) | 基于计算机视觉的模板支架安全风险识别方法 | |
US20210304400A1 (en) | System and method for inspection of heat recovery steam generator | |
JP7075057B2 (ja) | 画像判定装置、画像判定方法及び画像判定プログラム | |
CN111415326A (zh) | 一种用于铁路接触网螺栓异常状态的检测方法及系统 | |
US11120541B2 (en) | Determination device and determining method thereof | |
CN110634124A (zh) | 一种区域检测的方法及设备 | |
CN115438945A (zh) | 基于电力设备巡检的风险识别方法、装置、设备及介质 | |
KR20230036650A (ko) | 영상 패치 기반의 불량 검출 시스템 및 방법 | |
US20230093034A1 (en) | Target area detection device, target area detection method, and target area detection program | |
CN112967335A (zh) | 气泡尺寸监测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220630 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7124743 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |