JP7410442B2 - Deterioration detection device, deterioration detection method, and program - Google Patents
Deterioration detection device, deterioration detection method, and program Download PDFInfo
- Publication number
- JP7410442B2 JP7410442B2 JP2022555012A JP2022555012A JP7410442B2 JP 7410442 B2 JP7410442 B2 JP 7410442B2 JP 2022555012 A JP2022555012 A JP 2022555012A JP 2022555012 A JP2022555012 A JP 2022555012A JP 7410442 B2 JP7410442 B2 JP 7410442B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- unit
- teacher
- degraded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006866 deterioration Effects 0.000 title claims description 107
- 238000001514 detection method Methods 0.000 title claims description 81
- 230000006870 function Effects 0.000 claims description 40
- 238000012360 testing method Methods 0.000 claims description 26
- 238000010801 machine learning Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 50
- 238000012545 processing Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 35
- 238000001914 filtration Methods 0.000 description 35
- 238000010276 construction Methods 0.000 description 31
- 230000007797 corrosion Effects 0.000 description 27
- 238000005260 corrosion Methods 0.000 description 27
- 238000006243 chemical reaction Methods 0.000 description 25
- 238000000034 method Methods 0.000 description 24
- 239000002184 metal Substances 0.000 description 18
- 238000004891 communication Methods 0.000 description 16
- 230000002250 progressing effect Effects 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 7
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 4
- 230000003014 reinforcing effect Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 235000011389 fruit/vegetable juice Nutrition 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241000221535 Pucciniales Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Description
本開示は、劣化検出装置、劣化検出方法、及びプログラムに関する。 The present disclosure relates to a deterioration detection device, a deterioration detection method, and a program.
画像処理を用いて特定の画像領域を検出する手法は数多く存在する。これらの手法の中でも、昨今は検出精度の高さ及び構築の手軽さから、ディープラーニングにおけるセグメンテーション手法が有効とされている(非特許文献1)。このセグメンテーション手法を用いて、通信用マンホールの撮影画像から、コンクリート壁面に発生した露筋及び躯体部に設置された金物の腐食といった、構造物の劣化を検出する画像処理システムを構築することが考えられる。 There are many methods for detecting specific image regions using image processing. Among these methods, segmentation methods based on deep learning have recently been considered effective due to their high detection accuracy and ease of construction (Non-Patent Document 1). The idea is to use this segmentation method to build an image processing system that detects structural deterioration, such as exposed reinforcement on concrete walls and corrosion of metal fittings installed in the frame, from images taken of communication manholes. It will be done.
しかしながら、通信用マンホールは地中に設置されているため、撮影画像中には多く泥等の汚れが映り込み、また、これらの汚れは露筋及び金物の腐食等の劣化部分と画像中の色が似ている。そのため、従来の技術をそのまま適用しただけでは、これらの汚れ等が誤って構造物の劣化として検出されてしまう。また、従来の技術は、撮影画像から漏れなく劣化と思われる領域を検出して、構造物の耐久性という意味では全く影響のない微小な劣化までをも検出してしまう。そのため、従来の技術をそのまま適用しただけでは、検出後において、検出された劣化の領域が構造物の耐久性に影響を及ぼしうるものかを人間が再確認する工程が発生してしまう。 However, since communication manholes are installed underground, many dirts such as mud are reflected in the captured images, and these dirts are mixed with deteriorated parts such as exposed streaks and corrosion of metal parts and the colors in the images. are similar. Therefore, if conventional techniques are simply applied, these stains and the like will be mistakenly detected as deterioration of the structure. Further, the conventional technology detects all areas that are considered to be deteriorated from the photographed images, and even detects minute deterioration that has no effect on the durability of the structure. Therefore, if the conventional technology is simply applied as is, there will be a step after detection in which a person reconfirms whether the detected degraded area is likely to affect the durability of the structure.
本開示の目的は、構造物に影響を及ぼしうる劣化を精度よく検出する劣化検出装置、劣化検出方法、及びプログラムを提供することである。 An object of the present disclosure is to provide a deterioration detection device, a deterioration detection method, and a program that accurately detect deterioration that may affect a structure.
一実施形態に係る劣化検出装置は、撮影により得られた画像である教師画像と、当該教師画像において撮影対象の劣化部分を示す画素を特定する教師ラベルとを教師データとして機械学習された判定器を取得し、構造物を撮影して得られた撮影画像を取得し、前記撮影画像を予め定められた色空間に変換し、前記判定器を用いて、前記変換された前記撮影画像において前記構造物の劣化部分が占める領域を予測し、予測された前記領域のうち、予め定められた画素数以上の画素を含む領域を、前記撮影画像において前記構造物に影響を及ぼしうる劣化部分が占める領域である劣化領域として判定する制御部を備え、前記制御部は、前記教師画像と異なるテスト画像と、当該テスト画像において撮影対象の劣化部分を示す画素を特定するテストラベルとを用いて、ROC曲線を取得し、前記ROC曲線に基づき、予測された前記領域のうち、前記劣化領域として判定すべき領域が少なくとも有する画素数の閾値を決定し、予測された前記領域のうち、前記予め定められた画素数として、前記閾値以上の画素を含む領域を前記劣化領域として判定する。 The deterioration detection device according to one embodiment is a judgment device that is machine-learned using a teacher image, which is an image obtained by photographing, and a teacher label that specifies a pixel in the teacher image that indicates a deteriorated portion of the photographed object as training data. , obtain a photographed image obtained by photographing a structure, convert the photographed image into a predetermined color space, and use the judger to determine the structure in the converted photographed image. A region occupied by a deteriorated part of the object is predicted, and a region including a predetermined number of pixels or more among the predicted regions is an area occupied by the deteriorated part that can affect the structure in the photographed image. The controller includes a control unit that determines a degraded area as a degraded area, and the control unit generates an ROC curve using a test image different from the teacher image and a test label that specifies pixels in the test image that indicate a degraded area of the photographing target. is obtained, based on the ROC curve, determines a threshold value of at least the number of pixels of a region to be determined as the degraded region among the predicted regions, and A region including pixels whose number of pixels is equal to or greater than the threshold value is determined as the degraded region .
一実施形態に係る劣化検出方法は、劣化検出装置の制御部が、撮影により得られた画像である教師画像と、当該教師画像において撮影対象の劣化部分を示す画素を特定する教師ラベルとを教師データとして機械学習された判定器を取得し、構造物を撮影して得られた撮影画像を取得し、前記撮影画像を予め定められた色空間に変換し、前記判定器を用いて、前記変換された前記撮影画像において前記構造物の劣化部分が占める領域を予測し、予測された前記領域のうち、予め定められた画素数以上の画素を含む領域を、前記撮影画像において前記構造物に影響を及ぼしうる劣化部分が占める領域である劣化領域として判定する劣化検出方法において、前記制御部は、前記教師画像と異なるテスト画像と、当該テスト画像において撮影対象の劣化部分を示す画素を特定するテストラベルとを用いて、ROC曲線を取得し、前記ROC曲線に基づき、予測された前記領域のうち、前記劣化領域として判定すべき領域が少なくとも有する画素数の閾値を決定し、予測された前記領域のうち、前記予め定められた画素数として、前記閾値以上の画素を含む領域を前記劣化領域として判定する。 In a deterioration detection method according to an embodiment, a control unit of a deterioration detection device selects a teacher image, which is an image obtained by photographing, and a teacher label that specifies a pixel indicating a degraded portion of a photographing target in the teacher image. A machine-learning judge is acquired as data, a photographed image obtained by photographing a structure is acquired, the photographed image is converted into a predetermined color space, and the judgment unit is used to perform the conversion. The area occupied by the deteriorated portion of the structure in the photographed image is predicted, and the area containing pixels of a predetermined number or more is selected from among the predicted areas as areas that will affect the structure in the photographed image. In the deterioration detection method of determining a degraded area that is an area occupied by a degraded portion that may cause A label is used to obtain an ROC curve, and based on the ROC curve, a threshold value of the number of pixels of at least a region to be determined as the degraded region among the predicted regions is determined, and the predicted region is Among them, an area including pixels whose number is equal to or greater than the threshold value as the predetermined number of pixels is determined as the degraded area .
一実施形態に係るプログラムは、コンピュータを上記劣化検出装置として機能させる。 A program according to an embodiment causes a computer to function as the deterioration detection device.
本開示の一実施形態によれば、構造物に影響を及ぼしうる劣化を精度よく検出する劣化検出装置、劣化検出方法、及びプログラムを提供することができる。 According to an embodiment of the present disclosure, it is possible to provide a deterioration detection device, a deterioration detection method, and a program that accurately detect deterioration that may affect a structure.
以下、本開示の一実施形態について、図面を参照して説明する。各図面中、同一又は相当する部分には、同一符号を付している。本実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。 Hereinafter, one embodiment of the present disclosure will be described with reference to the drawings. In each drawing, the same or corresponding parts are given the same reference numerals. In the description of this embodiment, the description of the same or corresponding parts will be omitted or simplified as appropriate.
<実施の形態1>
画像から劣化を検出する劣化検出装置10について説明する。劣化検出装置10は、撮影画像から通信用マンホールの劣化を検出する装置およびシステムに関する。検出の対象となる劣化は、撮影画像における通信用マンホールの躯体部に発生した露筋及び通信用マンホールの内部に設置した金物の腐食等である。劣化検出装置10は、セグメンテーション手法を用いて劣化を検出する際に、検出結果から汚れ等を削除することで検出精度を向上しかつ、構造物にとって影響のない微小な劣化を削除する。これにより、劣化検出装置10は、撮影画像から劣化に該当する画素領域を精度よく検出する。図1は、本開示の一実施形態に係る劣化検出装置10のハードウェア構成を示す図である。<
A
劣化検出装置10は、1つ又は互いに通信可能な複数のサーバ装置である。劣化検出装置10は、これらに限定されず、汎用コンピュータ、専用コンピュータ、ワークステーション、PC(Personal Computer)、電子ノートパッド等の任意の電子機器であってもよい。図1に示すように、劣化検出装置10は、制御部11、記憶部12、通信部13、入力部14、出力部15、及びバス16を備える。
The
制御部11は、1つ以上のプロセッサを含む。一実施形態において「プロセッサ」は、汎用のプロセッサ、又は特定の処理に特化した専用のプロセッサであるが、これらに限定されない。プロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)などであってもよい。制御部11は、劣化検出装置10を構成する各構成部とバス16を介して通信可能に接続され、劣化検出装置10全体の動作を制御する。
記憶部12は、HDD、SSD、EEPROM、ROM、及びRAMを含む任意の記憶モジュールを含む。記憶部12は、例えば、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部12は、劣化検出装置10の動作に用いられる任意の情報を記憶する。例えば、記憶部12は、システムプログラム、アプリケーションプログラム、及び通信部13によって受信された各種情報等を記憶してもよい。記憶部12は、劣化検出装置10に内蔵されているものに限定されず、USB等のデジタル入出力ポート等によって接続されている外付けのデータベース又は外付け型の記憶モジュールであってもよい。HDDはHard Disk Driveの略称である。SSDはSolid State Driveの略称である。EEPROMはElectrically Erasable Programmable Read-Only Memoryの略称である。ROMはRead-Only Memoryの略称である。RAMはRandom Access Memoryの略称である。USBはUniversal Serial Busの略称である。
The
通信部13は、任意の通信技術によって他の装置と通信接続可能な、任意の通信モジュールを含む。通信部13は、さらに、他の装置との通信を制御するための通信制御モジュール、及び他の装置との通信に必要となる識別情報等の通信用データを記憶する記憶モジュールを含んでもよい。
The
入力部14は、ユーザの入力操作を受け付けて、ユーザの操作に基づく入力情報を取得する1つ以上の入力インタフェースを含む。例えば、入力部14は、物理キー、静電容量キー、ポインティングディバイス、出力部15のディスプレイと一体的に設けられたタッチスクリーン、又は音声入力を受け付けるマイク等であるが、これらに限定されない。
The
出力部15は、ユーザに対して情報を出力し、ユーザに通知する1つ以上の出力インタフェースを含む。例えば、出力部15は、情報を画像で出力するディスプレイ、又は情報を音声で出力するスピーカ等であるが、これらに限定されない。なお、上述の入力部14及び出力部15の少なくとも一方は、劣化検出装置10と一体に構成されてもよいし、別体として設けられてもよい。
The
劣化検出装置10の機能は、本実施形態に係るプログラムを、制御部11に含まれるプロセッサで実行することにより実現される。すなわち、劣化検出装置10の機能は、ソフトウェアにより実現される。プログラムは、劣化検出装置10の動作に含まれるステップの処理をコンピュータに実行させることで、当該ステップの処理に対応する機能をコンピュータに実現させる。すなわち、プログラムは、コンピュータを本実施形態に係る劣化検出装置10として機能させるためのプログラムである。プログラム命令は、必要なタスクを実行するためのプログラムコード、コードセグメントなどであってもよい。
The functions of the
プログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。このような記録媒体を用いれば、プログラムをコンピュータにインストールすることが可能である。ここで、プログラムが記録された記録媒体は、非一過性の(非一時的な)記録媒体であってもよい。非一過性の記録媒体は、CD(Compact Disk)-ROM(Read-Only Memory)、DVD(Digital Versatile Disc)-ROM、BD(Blu-ray(登録商標) Disc)-ROMなどであってもよい。また、プログラムをサーバのストレージに格納しておき、ネットワークを介して、サーバから他のコンピュータにプログラムを転送することにより、プログラムは流通されてもよい。プログラムはプログラムプロダクトとして提供されてもよい。 The program may be recorded on a computer readable recording medium. Using such a recording medium, it is possible to install a program on a computer. Here, the recording medium on which the program is recorded may be a non-transitory recording medium. Non-transitory recording media may be CD (Compact Disk)-ROM (Read-Only Memory), DVD (Digital Versatile Disc)-ROM, BD (Blu-ray (registered trademark) Disc)-ROM, etc. good. Alternatively, the program may be distributed by storing the program in the storage of a server and transferring the program from the server to another computer via a network. The program may be provided as a program product.
コンピュータは、例えば、可搬型記録媒体に記録されたプログラム又はサーバから転送されたプログラムを、一旦、主記憶装置に格納する。そして、コンピュータは、主記憶装置に格納されたプログラムをプロセッサで読み取り、読み取ったプログラムに従った処理をプロセッサで実行する。コンピュータは、可搬型記録媒体から直接プログラムを読み取り、プログラムに従った処理を実行してもよい。コンピュータは、コンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行してもよい。このような処理は、サーバからコンピュータへのプログラムの転送を行わず、実行指示及び結果取得のみによって機能を実現する、いわゆるASP型のサービスによって実行されてもよい。「ASP」は、Application Service Providerの略称である。プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるものが含まれる。例えば、コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータは、「プログラムに準ずるもの」に該当する。 For example, a computer temporarily stores a program recorded on a portable recording medium or a program transferred from a server in a main storage device. Then, the computer uses a processor to read a program stored in the main memory, and causes the processor to execute processing according to the read program. A computer may directly read a program from a portable recording medium and execute processing according to the program. The computer may sequentially execute processing according to the received program each time the program is transferred to the computer from the server. Such processing may be executed by a so-called ASP type service that does not transfer the program from the server to the computer, but realizes the function only by issuing execution instructions and obtaining results. "ASP" is an abbreviation for Application Service Provider. The program includes information similar to a program that is used for processing by an electronic computer. For example, data that is not a direct command to a computer but has the property of regulating computer processing falls under "something similar to a program."
劣化検出装置10の一部又は全ての機能が、制御部11に含まれる専用回路により実現されてもよい。すなわち、劣化検出装置10の一部又は全ての機能が、ハードウェアにより実現されてもよい。また、劣化検出装置10は単一の情報処理装置により実現されてもよいし、複数の情報処理装置の協働により実現されてもよい。
A part or all of the functions of the
図2は、本開示の実施の形態1に係る劣化検出装置10の機能構成を示す図である。劣化検出装置10は、判定器構築部20、判定部30、及びフィルタリング部40を備える。判定器構築部20は、教師画像入力部21、色空間変換部22、教師ラベル入力部23、及び学習部24を備える。判定部30は、画像入力部31、色空間変換部32、及び判定器格納部33を備える。
FIG. 2 is a diagram showing a functional configuration of the
判定器構築部20における教師画像入力部21は、判定器を構築するための学習用画像(教師画像)となる撮影画像の入力を行う。撮影画像とは、デジタルカメラ等により撮影された静止画像のデジタルデータのことを指す。教師画像入力部21では、撮影画像はビットマップ画像として入力され、多次元配列のデータが格納される。例えば、静止画像がグレー画像であれば1層の行列データとして格納され、カラー画像であれば複数層の行列データとして格納される。ビットマップ画像の解像度は任意である。
A teacher
判定器構築部20における教師ラベル入力部23は、教師ラベルの行列データを入力する機能を持つ。図3Aは、教師画像の一例を示す図である。図3Bは、教師ラベルの一例を示す図である。図3A及び図3Bの例では、教師画像となる撮影画像において、劣化に該当する金物の腐食の画素に「1」(白)、それ以外の画素に「0」(黒)を対応させた教師ラベルの行列データを作成している。教師ラベル入力部23では、このラベルの行列データを入力する。図3A及び図3Bは、劣化を金物の腐食とした事例を示しているが、劣化の種類は金物の腐食に限られない。他の種類の劣化として、例えば、コンクリート内部の鉄筋の腐食膨張により表面コンクリートが押し出された上に剥離してしまい、腐食鉄筋が露わになった状態(露筋という)をも劣化として定義して入力することができる。教師画像入力部21と教師ラベル入力部23に入力するデータ数は任意であるが、両データは必ずペアになっている必要がある。教師画像として用いる撮影画像には、既知の劣化が含まれている。教師ラベルは、ペアとなる撮影画像中の劣化に該当する画素を「1」に、それ以外を「0」に対応させたものである。
The teacher
判定器構築部20における色空間変換部22は、教師画像入力部21に入力されたビットマップ画像の色空間を変換する機能を持つ。色空間として、一般的なデジタルカメラ画像で撮影されたカラー画像は、RGB(Red, Green, Blue)色空間の数値配列にて画像入力部31に行列データとして格納されている。色空間変換部22は、このようなRGB色空間の数値配列の行列データを、例えば、HSV(Hue, Saturation, Value)又はL*a*b*等の他の色空間の行列データに変換することができる。色空間を変換することによって、判定器の判定精度を向上することができる。RGB色空間は、人間の知覚より出力機器の都合が優先されているが、L*a*b*色空間は人間の感覚に合わせて考案された色空間である。劣化において金物の腐食は、進行途中の微小な錆、錆っぽい汚れ、又は、錆汁等を撮影画像内に多数含むため、腐食している画素領域を明確に特定しにくい。そのため、教師ラベルを作成する際には、人間の視覚に大きく依存することが重要である。露筋においても、腐食鉄筋の領域は、周辺のコンクリートへの錆汁又は錆による凹凸を含むため、明確に画素領域を特定できずに、人間の視覚に依存した教師ラベルの作成になる。よって、金物の腐食と露筋の色空間には人間の視覚がより表現されるL*a*b*色空間の方が有効になる。The color
図4A及び図4Bは、色空間の種類に応じた検出率の変化の一例を示す図である。図4A及び図4Bは、RGB色空間、HSV色空間、及び、L*a*b*色空間の3種類の色空間で判定器を作成して、劣化の検出率を検証した結果を示している。図4Aは露筋の画像320枚で検出率を検証した結果を示し、図4Bは金物の腐食画像400枚で検出率を検証した結果を示す。図4A及び図4Bは、露筋と金物の腐食とのそれぞれにおいて、セグメンテーション手法による判定器を作成し、作成した判定器を用いて検出率の評価を行った結果を示す。図4A及び図4Bに示すように、金物の腐食領域と露筋領域の検出において、L*a*b*色空間に撮影画像の行列データを変換した場合が最も検出率が高かった。ここで、検出率とは判定器により判定された劣化領域と人間が真値として与えた劣化領域の画素領域との一致率である。本ケースの劣化では、L*a*b*色空間を用いたが、判定器の学習および構築を行う際に、判定精度が最も向上する色空間を任意に設定することができる。FIGS. 4A and 4B are diagrams illustrating an example of a change in detection rate depending on the type of color space. Figures 4A and 4B show the results of verifying the deterioration detection rate by creating determiners in three types of color spaces: RGB color space, HSV color space, and L * a * b * color space. There is. FIG. 4A shows the results of verifying the detection rate using 320 images of exposed streaks, and FIG. 4B shows the results of verifying the detection rate using 400 images of corrosion of metal objects. FIGS. 4A and 4B show the results of creating a determination device using a segmentation method for exposed streaks and corrosion of metal objects, respectively, and evaluating the detection rate using the created determination device. As shown in FIGS. 4A and 4B, in detecting corroded areas and exposed streak areas of hardware, the highest detection rate was achieved when the matrix data of the photographed image was converted into the L * a * b * color space. Here, the detection rate is the coincidence rate between the degraded area determined by the determiner and the pixel area of the degraded area given as the true value by a human. Although the L * a * b * color space was used for the degradation in this case, when learning and constructing a determiner, a color space that improves the determination accuracy the most can be arbitrarily set.
色空間変換を行うにあたり、判定器構築部20における色空間変換部22は、格納されている行列データを正規化する処理を行う。ここでの正規化とは、行列データの各要素の値が0以上1以下に収まっていない場合、行列の各層において0以上1以下に各要素が収まるように数値を変換することである。例えば、RGB色空間の場合、3層の行列データとして格納されているが、各層における要素の数値は0以上255以下である。そこで、色空間変換部22は、各要素の数値を255で除算する処理により正規化する。色空間変換部22は、各層の要素の数値が0以上1以下となるように、各層に入力されている要素の数値範囲で処理を定める。
In performing color space conversion, the color
判定器構築部20における学習部24は、教師画像と教師ラベルから劣化を検出するための判定器を作成するものである。学習部24は、色空間変換部22と教師ラベル入力部23のそれぞれが出力する行列データを入力して判定器を構築する。学習部24は、構築した判定器を判定部30に出力するとともに、後述する劣化と非劣化を区別するための閾値hをフィルタリング部40に出力する。
The
図5は、図2の劣化検出装置10が備える学習部24の構成例を示す図である。学習部24は、損失関数決定部241及び学習進行部242を備える。
FIG. 5 is a diagram showing a configuration example of the
損失関数決定部241は、学習進行部242におけるニューラルネットワークの予測精度の評価に用いる損失関数を指定する。指定できる損失関数は交差エントロピー誤差、二乗誤差等を任意に設定できるが、金物の腐食及び露筋を含む劣化の検出にはAUC(Area Under the Curve)最大化及びF1スコアが有効となる。
The loss
図6は、真値と判定器による判定結果との関係を示す混同行列の一例を示す図である。混同行列(Confusion Matrix)とは、二値分類問題で出力されたクラス分類の結果をまとめた行列をいう。二値分類問題とは、ある命題(例えば、その画素は劣化に当たるか)について真(Positive)又は偽(False)を判定する問題である。二値分類に関する判定器が出した結果(予測)と実際の結果には、TP(True Positive)、TN(True Negative)、FP(False Positive)、及びFN(False Negative)の4つのパターンがある。TPは、判定器による予測がPositive(例えば、その画素は劣化に当たる)である場合において、予測が実際を正しく示している(True)、すなわち、実際もPositiveである場合をいう。TNは、判定器による予測がNegative(例えば、その画素は劣化に当たらない)である場合において、予測が実際を正しく示している(True)、すなわち、実際もNegativeである場合をいう。FPは、判定器による予測がPositive(例えば、その画素は劣化に当たる)である場合において、予測が実際を正しく示していない(False)、すなわち、実際はNegative(例えば、その画素は劣化に当たらない)である場合をいう。FNは、判定器による予測がNegative(例えば、その画素は劣化に当たらない)である場合において、予測が実際を正しく示していない(False)、すなわち、実際はPositive(例えば、その画素は劣化に当たる)である場合をいう。 FIG. 6 is a diagram illustrating an example of a confusion matrix showing the relationship between the true value and the determination result by the determiner. A confusion matrix is a matrix that summarizes the class classification results output from a binary classification problem. A binary classification problem is a problem in which a certain proposition (for example, whether the pixel is degraded) is determined to be true (Positive) or false (False). There are four patterns between the results (prediction) and actual results produced by the judge for binary classification: TP (True Positive), TN (True Negative), FP (False Positive), and FN (False Negative). . TP refers to a case where the prediction by the determiner is positive (for example, the pixel is degraded) and the prediction correctly indicates the actual situation (True), that is, the actual situation is also positive. TN refers to a case where the prediction by the determiner is Negative (for example, the pixel is not degraded) and the prediction correctly indicates the reality (True), that is, the reality is also Negative. In FP, when the prediction by the determiner is Positive (e.g., the pixel is degraded), the prediction does not correctly indicate the reality (False), that is, it is actually Negative (e.g., the pixel is not degraded). This refers to the case where FN indicates that when the prediction by the determiner is Negative (e.g., the pixel is not degraded), the prediction does not correctly indicate the reality (False), that is, it is actually Positive (e.g., the pixel is degraded). This refers to the case where
制御部11は、撮影画像に対して、実際を反映した教師ラベルとして、金物の腐食及び露筋等の劣化の画素を「1」、それ以外の非劣化の画素を「0」とラベリング処理を施した画像に対して、劣化の画素をPositive、非劣化の画素をNegativeとする。この場合、図6に示すような混合行列で真値(実際:Actual)と判定器による判定結果(予測:Predicted)の関係性を示すことができる。判定器による判定結果として、判定器により出力された行列データの各画素には0以上1以下の数値が入力される。0以上1以下の値を閾値とする閾値処理によって「0」もしくは「1」に二値化することよって、判定器による判定結果は、「1」となった画素を劣化と判定するPositive、及び、「0」となった画素を非劣化の画素と判定するNegativeに分類することができる。
The
図7は、ROC曲線とAUCとの関係を示す図である。混合行列を用いて判定器による判定結果の性能を示した曲線は、ROC曲線(Receiver Operating Characteristic curve、受信者動作特性曲線)と呼ばれる。ROC曲線は、劣化又は非劣化を判定するための閾値を変化させた場合における、FP率とTP率との関係を示す曲線である。FP率(False Positive Rate)は、実際にはNegativeと判定すべきデータのうち、誤ってPositiveと判定したデータの割合であり、この値が小さいほど判定器の性能が高い。FP率は、FPのサンプル数/(FPのサンプル数+TNのサンプル数)と表される。TP率(True Positive Rate)は、実際にはPositiveと判定すべきデータのうち、正しくPositiveと判定できたデータの割合であり、この値が大きいほど判定器の性能が高い。TP率は、TPのサンプル数/(TPのサンプル数+FNのサンプル数)と表される。 FIG. 7 is a diagram showing the relationship between the ROC curve and AUC. A curve showing the performance of a judgment result by a judgment device using a mixing matrix is called an ROC curve (Receiver Operating Characteristic curve). The ROC curve is a curve that shows the relationship between the FP rate and the TP rate when the threshold value for determining deterioration or non-deterioration is changed. The FP rate (False Positive Rate) is the ratio of data that is erroneously determined to be Positive among data that should actually be determined to be Negative, and the smaller this value is, the higher the performance of the determiner is. The FP rate is expressed as the number of FP samples/(the number of FP samples+the number of TN samples). The TP rate (True Positive Rate) is the ratio of data that is correctly determined to be positive among data that should actually be determined to be positive, and the larger this value is, the higher the performance of the determiner is. The TP rate is expressed as the number of TP samples/(the number of TP samples+the number of FN samples).
横軸にFP率、縦軸にTP率としてROC曲線を描いた場合において、ROC曲線をFP率軸に対して0から1まで積分した値は、AUCと呼ばれる。前述のように、FP率が小さいほど、また、TP率が大きいほど、判定器の性能が高いため、AUCの大きさは判定器の性能を示す指標の一つとなる。このAUCの面積が最大化するように損失関数を設定することをAUC最大化という。金物の腐食及び露筋等のような劣化現象は、各撮影画像中の画素領域としては比較的少ない領域になる。劣化している領域をPositive、非劣化の領域をNegativeとするとPositiveとNegativeのデータ量がアンバランスになる現象をデータの不均衡問題という。このデータの不均衡問題に対しては、Negativeの画素と比べて割合の少ないPositiveとなる画素が検出されるようにTP率を向上させつつ、FP率を抑制するようなAUC最大化を損失関数に設定することが有効となる。 When an ROC curve is drawn with the horizontal axis as the FP rate and the vertical axis as the TP rate, the value obtained by integrating the ROC curve from 0 to 1 with respect to the FP rate axis is called AUC. As described above, the smaller the FP rate and the larger the TP rate, the higher the performance of the determiner, so the magnitude of AUC is one of the indicators of the performance of the determiner. Setting the loss function so that the area of AUC is maximized is called AUC maximization. Deterioration phenomena such as metal corrosion and exposed streaks occur in a relatively small area of pixel areas in each photographed image. When a degraded area is defined as positive and a non-degraded area is defined as negative, the phenomenon in which the amount of data for positive and negative becomes unbalanced is called a data imbalance problem. To deal with this data imbalance problem, we use a loss function to maximize AUC to suppress the FP rate while improving the TP rate so that a smaller proportion of positive pixels are detected compared to negative pixels. It is valid to set it to .
F1スコアとは、式(1)に示す数式である。
F1=(2Recall×Precision)/(Recall+Precision) (1)
ただし、Recall(再現率)及びPrecision(適合率)は式(2)(3)により示される。
Recall=TP/(TP+FN) (2)
Precision=TP/(TP+FP) (3)
F1スコアも同様にデータの不均衡問題に対して有効であり、このF1スコアを損失関数に設定することが今回のように構造物の金物の腐食又は露筋等の劣化といった、画像全体中において少ない領域の検出では有効となる。The F1 score is a mathematical formula shown in equation (1).
F1=(2Recall×Precision)/(Recall+Precision) (1)
However, Recall (recall rate) and Precision (precision rate) are shown by equations (2) and (3).
Recall=TP/(TP+FN) (2)
Precision=TP/(TP+FP) (3)
The F1 score is also effective for data imbalance problems, and setting this F1 score as a loss function is useful for solving problems such as corrosion of metal parts of structures or deterioration such as exposed streaks in the entire image, as in this case. This is effective when detecting small areas.
学習部24における学習進行部242は、色空間変換部22に入力されている行列データと、教師ラベル入力部23に入力されている行列データを用いてニューラルネットワークモデルのディープラーニングを用いた学習を実施する。学習進行部242は、損失関数決定部241において決定された損失関数により示される指標が良くなるように学習を進めていく。例えば、決定された損失関数がAUC最大化である場合、学習の進行に応じてAUCの領域の面積が大きくなっていく。AUCの面積が大きいことは、検出器として性能が良いことに相当する。損失関数としてF1スコアを用いる場合も、学習の進行に応じて、F1スコアの値が向上する。学習進行部242において、一定以上学習が終わると、それ以上学習しても、損失関数はほとんど変化しなくなる。例えば、損失関数としてAUCを使用している場合、それ以上学習しても、AUCの面積はほとんど変化しなくなる。これは、AUCの面積が既に十分大きいことに相当する。損失関数としてF1スコアを用いた場合も、一定以上学習が終わるとF1スコアはほとんど変化しなくなる。そこで、学習進行部242は、損失関数がほとんど変化しなくなった場合、例えば、損失関数の変化率が予め定められた閾値未満になるまで学習を進める。このように、学習進行部242は、それ以上学習を進めても、損失関数決定部241により決定された損失関数の値が実質的に変わらなくなるまで十分学習して、学習済みモデルの判定器を構築する。ここでのディープラーニングのモデルは、ディープラーニングのU-net及びSegNet等のセグメンテーション手法が該当する。このセグメンテーション手法により、金物の腐食及び露筋等の劣化の領域を画像中から検出することが可能となる。一定以上の大きさの金物の腐食及び露筋等の劣化が発生している場合、補修又は補強を実施するため、腐食及び露筋等の劣化の有無の検出だけでなく、劣化の領域を検出することが重要である。さらに学習進行部242は、色空間変換部22が出力する行列データと教師ラベル入力部23が出力する行列データを用いて学習を行い、判定器の構築を行う。
The learning
さらに、この学習進行部242は、色空間変換部22が出力する行列データを構築した判定器によって処理した行列データ(劣化の予測値)と教師ラベル入力部23が出力する行列データからROC曲線を生成する。損失関数としてF1スコアにより学習させた場合においても、学習結果に基づきROC曲線が生成される。学習進行部242は、図8に示すようにユークリッド距離が最小となるような閾値hを定める。図8は、ROC曲線に基づき閾値hを定める処理を説明する図である。図8に示すように、学習進行部242は、座標(0,1)とROC曲線とのユークリッド距離が最小となる閾値hを決定する。
Further, the
判定部30の画像入力部31は、撮影画像の入力を行う。画像入力部31は、教師画像入力部21と同様に撮影画像をビットマップ画像の行列データとして格納する。ここで、入力する画像は、教師画像入力部21に入力した画像とは異なる画像である。
The
判定部30の色空間変換部32は、判定器構築部20における色空間変換部22と同様の処理で判定部30の画像入力部31で入力されたビットマップ画像の色空間を変換する機能を持つ。ここで、重要なのは、判定器構築部20の色空間変換部22で指定した同様の色空間に変換を行うことである。判定器構築部20の学習部24で判定器を作成する際に用いた色空間と同様の色空間配列にすることよって、判定精度が向上する。
The color
判定部30における判定器格納部33は、判定器構築部20にて生成された判定器を格納する。判定器格納部33は、色空間変換部32から入力する行列データに対して、判定器を用いて演算処理を行う。演算処理の結果により出力されるデータは、画像入力部31に入力された撮影画像の各画素が劣化の領域か否かを推定した結果を示す、1層の行列データである。判定器格納部33が出力する劣化の領域か否かを推定した結果は、各画素について0以上1以下の値を示すものとなる。
The
図9は、図2の劣化検出装置10が備えるフィルタリング部40の構成例を示す図である。フィルタリング部40は、二値化処理部41、連結性認識部42、及び除去部43を備える。
FIG. 9 is a diagram showing a configuration example of the
二値化処理部41は、判定部30における判定器格納部33から出力される行列データの二値化処理を行う機能を持つ。二値化処理を行う際の閾値は学習部24における学習進行部242で出力される閾値hを用いる。すなわち、二値化処理部41は、行列データにより示される推定結果を示す値が閾値h以上の画素の値を1とし、閾値h未満の画素の値を0とする。
The
フィルタリング部40における連結性認識部42は、二値化処理後の行列データに対し、「1」が入力されている要素の連結要素数をカウントする。「連結要素数」は、同じ値を有する要素が連結して形成される領域に含まれる要素数と定義される。同じ値を有する要素が連結して形成される領域を「連結要素」という。「連結」とは、図10Aに示すように注目要素71の周辺を囲む8要素が注目要素と同じ数値を有しているかどうかによって定義される。注目要素に対して上下左右の要素に着眼し、上下左右の画素のいずれかが注目画素と同様の場合は「4近傍連結」、注目要素に対して周辺を囲む8要素に着眼する場合は「8近傍連結」として定義する。ここでは、二値化処理後に「1」が入力されている要素を注目要素とする。注目要素を起点として、どの程度の要素が連結しているかのカウントを行う。4近傍か8近傍かの設定は、ユーザの設定等に応じて任意に行うことができる。カウントが完了すると、連結性認識部42は、「1」が入力されている要素の連結要素数に関する数値データを持つこととなる。
The
図10Bに8近傍連結の場合の例を示す。注目要素71に対しては、右上の要素のみが連結している。注目要素の右上の要素に対しては、右の要素が連結している(左下の要素71はすでにカウント済み)。その右の要素に対しては、左の要素(これもすでにカウント済み)以外に連結している要素はない。従って、図10Bの例における連結要素数は3となる。
FIG. 10B shows an example of 8-neighbor connection. For the element of
除去部43は、予め定められた1以上の整数である予め定められた閾値kを設定して、連結要素数が閾値k未満の要素に対して、その要素の値を「0」に置き換える処理を行う。つまり、除去部43は、連結性認識部42がカウントした連結要素数が閾値k未満の画素領域はノイズであると判断し、その領域が劣化を示す領域として劣化検出装置10の出力結果に含まれないよう、当該領域の画素を「0」に置き換える処理を行う。
The
図11A及び図11Bは、k=200として処理を行ったデータを示す。図11Aは、二値化処理後のデータの一例を示す図である。図11Bは、フィルタリング処理後のデータの一例を示す図である。図11Bでは、図11Aにおいて値「1」(白)として表示されている画素の一部が、値「0」(黒)に置き換わっている。ここで、金物の腐食及び露筋等の劣化においては、8近傍連結が有効となる。なぜならば、腐食及び露筋は画像において不特定方向に広がるため、注目画素の周辺をすべて連結として考慮した方が実態をよく反映するためである。4近傍連結は、8近傍連結と比べて連結する確率が下がる。そのため、実際にはつながっていると評価すべき腐食及び露筋領域等の劣化が分断されてしまうケースが発生してしまい、値「0」(黒)に置き換えるべきではない腐食又は露筋等の劣化領域が「0」(黒)に置き変わってしまうケースが発生する。4近傍連結は、幾何学的な図形のように連結方向が予想できる問題に対して有効性が高い。除去部43において、一定以上の大きな画素領域を有する金物の腐食及び露筋といった構造物に対して影響の大きい劣化領域のみを出力することによって、出力結果を人間が確認する作業の手間を軽減することができる。
FIGS. 11A and 11B show data processed with k=200. FIG. 11A is a diagram showing an example of data after binarization processing. FIG. 11B is a diagram illustrating an example of data after filtering processing. In FIG. 11B, some of the pixels displayed as the value "1" (white) in FIG. 11A are replaced with the value "0" (black). Here, 8-neighbor connection is effective for corrosion of hardware and deterioration of exposed streaks. This is because corrosion and exposed streaks spread in an unspecified direction in an image, so it is better to consider the entire vicinity of the pixel of interest as a connection to better reflect the actual situation. 4-neighbor connection has a lower probability of connection than 8-neighbor connection. As a result, there are cases where deterioration such as corrosion and exposed streak areas that should be evaluated as being connected are separated, and corrosion or exposed streak areas that should not be replaced with a value of "0" (black) occur. A case may occur in which the degraded area is replaced with "0" (black). Four-neighbor connection is highly effective for problems where the direction of connection can be predicted, such as with geometric figures. The
結果出力部50は、フィルタリング部40によって処理された結果をデジタルカメラ画像等と対比して出力する。例えば、結果出力部50は、モニタ又はディスプレイによってフィルタリング部40によって処理された結果を表示することができる。図12Aは、フィルタリング処理後のデータの一例を示す図である。図12Bは、劣化部分が示された画像の一例を示す図である。図12Bにおいては、劣化と判定された部分が強調表示73により区別して示されている。図12Bの例では、強調表示73は、ハッチングにより劣化部分を区別しているが、強調表示73はこれに限られない。例えば、強調表示73は、着色、縁取り、又はこれらの組み合わせ等としてもよい。これにより、ユーザは、強調表示73を手掛かりにして、撮像画像において劣化と判定された部分を容易に認識することが可能となる。
The
上記のように、劣化検出装置10の制御部11は、撮影により得られた画像である教師画像と、教師画像において劣化部分を示す画素を特定する教師ラベルとを教師データとして機械学習された判定器を取得する。制御部11は、構造物を撮影して得られた撮影画像を取得し、撮影画像を予め定められた色空間に変換した上で、判定器を用いて、変換された撮影画像において構造物の劣化部分が占める領域を予測する。さらに、制御部11は、予測された領域のうち、予め定められた画素数以上の画素を含む領域を撮影画像の劣化領域として判定する。したがって、劣化検出装置10によれば、構造物に影響を及ぼしうる劣化を精度よく検出することができる。
As described above, the
<実施の形態2>
図13は、本開示の実施の形態2に係る劣化検出装置10の機能構成を示す図である。実施の形態1では、フィルタリング部40は、連結要素数が予め定められた閾値k未満の値が「1」の要素の値を「0」に置き換える処理を行った。本実施形態では、フィルタリング部40において値が「1」の要素の値を「0」に置き換える際の基準となる連結要素数の閾値を機械学習により決定する構成について説明する。<Embodiment 2>
FIG. 13 is a diagram showing the functional configuration of the
本実施形態に係る劣化検出装置10は、実施の形態1に係る劣化検出装置10において、フィルタリング構築部60が追加された構造を有する。実施の形態1に係る劣化検出装置10が有する機能構成と同一のものについては詳細な説明を省略し、本実施形態に係る劣化検出装置10に特有の構成を中心に説明する。フィルタリング構築部60は、テスト画像入力部61、色空間変換部62、テストラベル入力部63、判定器格納部64、二値化処理部65、連結性認識部66、及び連結数決定部67を備える。
The
フィルタリング構築部60におけるテスト画像入力部61は、教師画像入力部21と同様に撮影画像をビットマップ画像の行列データとして格納する。ここで、入力する画像は、教師画像入力部21に入力した画像とは異なる。ただし、テスト画像入力部61に入力される画像は、判定部30における画像入力部31と異なっていても、又は、同様の画像を含んでいてもよい。
Similar to the teacher
フィルタリング構築部60におけるテストラベル入力部63は、教師ラベル入力部23と同様に撮影画像において、画像の金物の腐食又は露筋等に該当する劣化の画素に「1」、それ以外の画素に「0」を対応させた行列データを入力する。ここで、テスト画像入力部61とテストラベル入力部63に入力するデータの数は任意である。ただし、これらのデータはペアになっている必要がある。
Similarly to the teacher
フィルタリング構築部60における色空間変換部62は、判定器構築部20における色空間変換部22と同様に、教師画像入力部21で入力されたビットマップ画像の色空間を変換する機能を持つ。ここで、重要なのは、フィルタリング構築部60における判定器格納部64に格納する判定器を作成する際に、判定器構築部20の色空間変換部22で指定した色空間と同様の色空間に変換を行うことである。判定器と同様の色空間配列を用いることによって、判定精度が向上する。
The color
フィルタリング構築部60における判定器格納部64は、判定器構築部20の学習部24において作成した判定器を格納する機能を持つ。さらに、判定器格納部64は、フィルタリング構築部60における色空間変換部62にある行列データに対して判定器を用いて演算処理を行う機能を有する。演算処理の結果により出力されるデータは、1層の行列データであり、各行列の要素には0以上1以下の数値が入力されている。ここで、0から1の数値は「確信度」と呼ばれる。判定器構築部20の学習部24において判定器を構築する際に、画像の金物の腐食又は露筋に該当する劣化の画素に「1」、それ以外の画素に「0」として学習させた場合は、行列データの各要素が1に近いほど劣化、0に近いほど非劣化と判定器は判定することとなる。さらに、判定器格納部64は、判定結果とテストラベル入力部63で入力したデータを用いて、テスト画像入力部61で入力した撮影画像に対するROC曲線を作成する。
The
フィルタリング構築部60における二値化処理部65は、閾値tを設定してフィルタリング構築部60における判定器格納部64によって判定された行列データの各要素を「0」もしくは「1」に二値化する。二値化する際の閾値tは、0から1の間で複数個設定する。閾値tは、0以上1以下の任意の正数である。閾値t=0.7の場合の例を図14に示す。図14は、判定器格納部64によって判定された行列データと二値化処理後の行列データの一例を示す図である。
The
フィルタリング構築部60における連結性認識部66は、フィルタリング構築部60における二値化処理部65によって二値化処理後の行列データに対し、「1」が入力されている要素の連結要素数をカウントする。閾値kを設定して、連結要素数が閾値k未満のものに対して要素を「0」に置き換える処理を行う。連結性認識部66は、閾値kの値を0から増やしていき複数の閾値kによって処理したデータを出力する。ただし、kは整数値である。kの最大値は、行列データの要素数となる。さらに、連結性認識部66は、フィルタリング構築部60における判定器格納部64により複数のtによって二値化された行列データのそれぞれにおいて、kを変更した際の結果を求める。データ数の合計は、設定した閾値tの数がi個、設定した閾値kの数がj個だったとすると、「i×j×(テスト画像入力部61に入力された撮影画像枚数)」となる。
The
フィルタリング構築部60における連結数決定部67は、連結性認識部66において、算術された合計のデータ数「i×j×(テスト画像入力部に入力された撮影画像枚数)」個の行列データを判定結果(Predicted)とし、テストラベル入力部63に入力された行列データを真値(Actual)として、ROC曲線を作成する。図15は、金物の腐食の撮影画像によって作成されたROC曲線の一例を示す図である。図15のROC曲線は、閾値tを変更させながら、k=0,10,20,50に設定した際のROC曲線である。k=0のROC曲線よりもkを変更した方が、TPRが増え、FPRが減っている箇所がある。この連結性認識部66では、kを様々に変更した際のROC曲線を作成する機能を持つ。
The connection
その後、図16に示すように、連結数決定部67は、k=a(aは正の整数)の際にユークリッド距離が最小となるような閾値の値tと値kの組み合わせを求める。連結数決定部67の機能により、TPRの向上とFPRの低下が実現できる。図16は、ROC曲線に基づき閾値t及び閾値kを求める処理を説明する図である。図16のように、連結数決定部67は、座標(0,1)とROC曲線とのユークリッド距離が最小となる閾値tと閾値kの組み合わせを決定する。金物の腐食及び露筋については、錆汁及び汚れ等により劣化領域以外が劣化として判定されるケースが発生しうるが、検出された領域の大きさから非劣化領域と判断することによって、判定器の性能をさらに向上させることができる。
Thereafter, as shown in FIG. 16, the number of
連結数決定部67で決定された閾値kは、フィルタリング部40における除去部43に入力することができる。また、連結数決定部67で決定された閾値tは、判定部30の判定器格納部33に格納された判定器の閾値として入力し、判定器の閾値を更新する。除去部43では、閾値kに基づき、フィルタリング部40における連結性認識部42により処理された行列データに対して、連結要素数が閾値k未満のものに対して要素を「0」に置き換える処理を行う。このフィルタリング部40の機能により、判定器を用いて劣化領域のセグメンテーション手法による検出が行える。連結数決定部67で決定された閾値kを用いることによって、判定部30の画像入力部31に入力された撮影画像における劣化部の検出精度を向上させることができる。
The threshold value k determined by the number of
<動作例>
上記実施形態に係る劣化検出装置10の動作について、図17を参照して説明する。図17は、本開示の一実施形態に係る劣化検出装置10の動作の一例を示すフローチャートである。図17を参照して説明する劣化検出装置10の動作は本実施形態に係る劣化検出方法に相当する。図17の各ステップの動作は制御部11の制御に基づき実行される。本実施形態に係る劣化検出方法をコンピュータに実行させるためのプログラムは、図17に示す各ステップを含む。<Operation example>
The operation of the
ステップS1において、制御部11は、撮影により得られた画像である教師画像と、教師画像において劣化部分を示す画素を特定する教師ラベルとを教師データとして機械学習を行い、判定器を生成する。このステップの詳細な動作内容は、判定器構築部20の動作と同一である。
In step S1, the
ステップS2において、制御部11は、劣化部分と判定すべき領域が有すべき連結要素数を決定する。すなわち、制御部11は、教師画像と異なるテスト画像と、テスト画像において劣化部分を示す画素を特定するテストラベルとを用いて、ROC曲線を取得する。制御部11は、ROC曲線に基づき、判定器を用いて、劣化部分が占めるとして予測された領域のうち、劣化領域として判定すべき領域が少なくとも有する画素数の閾値を決定する。このステップの詳細な動作内容は、フィルタリング構築部60の動作と同一である。このステップにより、劣化部分と判定すべき領域が有すべき連結要素数を予め定められた固定値とした場合よりも、より適切に劣化部分を判定することができる。なお、このステップはオプションであり、省略してもよい。
In step S2, the
ステップS3において、制御部11は、構造物を撮影して得られた撮影画像を取得する。このステップの詳細な動作内容は、画像入力部31の動作と同一である。
In step S3, the
ステップS4において、制御部11は、ステップS3で取得した撮影画像を予め定められた色空間に変換する。具体的には、制御部11は、撮影画像を、予め定められた色空間として、例えば、HSV色空間又はL*a*b*色空間等の、RGB色空間よりも人間の視覚がより反映された色空間に変換する。このステップにより、人間の視覚がより反映された精度のよい劣化検出を行うことができる。このステップの詳細な動作内容は、色空間変換部32の動作と同一である。In step S4, the
ステップS5において、制御部11は、ステップS1で取得した判定器を用いて、ステップS4で変換された撮影画像において構造物の劣化部分が占める領域を予測する。このステップの詳細な動作内容は、判定器格納部33の動作と同一である。
In step S5, the
ステップS6において、制御部11は、ステップS5で劣化部分が占めると予測された領域のうち、予め定められた画素数以上の画素を含む領域を撮影画像の劣化領域として判定する。ステップS2の処理が行われた場合は、予測された領域のうち、予め定められた画素数として、ステップS2で決定した閾値以上の画素を含む領域を撮影画像の劣化領域として判定する。このステップにより、構造物にとって影響のない微小な劣化を削除して、劣化部分を適切に判定することができる。このステップの詳細な動作内容は、フィルタリング部40の動作と同一である。
In step S6, the
ステップS7において、制御部11は、撮影画像を、劣化領域に含まれる領域と、劣化領域に含まれない領域とを区別してモニタ又はディスプレイ等の表示手段(結果出力部50)に表示させる。このステップにより、ユーザは、撮像画像において劣化と判定された部分を容易に認識することができる。そして、制御部11は、処理を終了する。
In step S7, the
本開示は上述の実施形態に限定されるものではない。例えば、ブロック図に記載の複数のブロックは統合されてもよいし、又は1つのブロックは分割されてもよい。フローチャートに記載の複数のステップは、記述に従って時系列に実行する代わりに、各ステップを実行する装置の処理能力に応じて、又は必要に応じて、並列的に又は異なる順序で実行されてもよい。その他、本開示の趣旨を逸脱しない範囲での変更が可能である。 The present disclosure is not limited to the embodiments described above. For example, multiple blocks depicted in the block diagram may be combined, or one block may be divided. Instead of being performed chronologically according to the description, the steps described in the flowchart may be performed in parallel or in a different order depending on the processing power of the device performing each step or as necessary. . Other changes are possible without departing from the spirit of the present disclosure.
10 劣化検出装置
11 制御部
12 記憶部
13 通信部
14 入力部
15 出力部
20 判定器構築部
21 教師画像入力部
22 色空間変換部
23 教師ラベル入力部
24 学習部
241 損失関数決定部
242 学習進行部
30 判定部
31 画像入力部
32 色空間変換部
33 判定器格納部
40 フィルタリング部
41 二値化処理部
42 連結性認識部
43 除去部
50 結果出力部
60 フィルタリング構築部
61 テスト画像入力部
62 色空間変換部
63 テストラベル入力部
64 判定器格納部
65 二値化処理部
66 連結性認識部
67 連結数決定部
10
Claims (6)
構造物を撮影して得られた撮影画像を取得し、
前記撮影画像を予め定められた色空間に変換し、
前記判定器を用いて、前記変換された前記撮影画像において前記構造物の劣化部分が占める領域を予測し、
予測された前記領域のうち、予め定められた画素数以上の画素を含む領域を、前記撮影画像において前記構造物に影響を及ぼしうる劣化部分が占める領域である劣化領域として判定する
制御部を備え、
前記制御部は、
前記教師画像と異なるテスト画像と、当該テスト画像において撮影対象の劣化部分を示す画素を特定するテストラベルとを用いて、ROC曲線を取得し、
前記ROC曲線に基づき、予測された前記領域のうち、前記劣化領域として判定すべき領域が少なくとも有する画素数の閾値を決定し、
予測された前記領域のうち、前記予め定められた画素数として、前記閾値以上の画素を含む領域を前記劣化領域として判定する、
劣化検出装置。 Obtaining a machine learning determiner using a teacher image, which is an image obtained by photography, and a teacher label that specifies a pixel in the teacher image that indicates a deteriorated portion of the photographed object as training data,
Obtain images obtained by photographing structures,
converting the photographed image into a predetermined color space;
predicting an area occupied by a deteriorated portion of the structure in the converted captured image using the determiner;
A control unit that determines, of the predicted area , an area including a predetermined number of pixels or more as a degraded area that is an area occupied by a degraded portion that may affect the structure in the photographed image. ,
The control unit includes:
Obtaining an ROC curve using a test image different from the teacher image and a test label that specifies a pixel in the test image that indicates a degraded portion of the photographic target,
Based on the ROC curve, determine a threshold value for the number of pixels that an area to be determined as the deteriorated area has at least among the predicted areas;
Determining, as the degraded region, a region that includes pixels of the predetermined number of pixels equal to or greater than the threshold value among the predicted regions ;
Deterioration detection device.
撮影により得られた画像である教師画像と、当該教師画像において撮影対象の劣化部分を示す画素を特定する教師ラベルとを教師データとして機械学習された判定器を取得し、
構造物を撮影して得られた撮影画像を取得し、
前記撮影画像を予め定められた色空間に変換し、
前記判定器を用いて、前記変換された前記撮影画像において前記構造物の劣化部分が占める領域を予測し、
予測された前記領域のうち、予め定められた画素数以上の画素を含む領域を、前記撮影画像において前記構造物に影響を及ぼしうる劣化部分が占める領域である劣化領域として判定する
劣化検出方法において、
前記制御部は、
前記教師画像と異なるテスト画像と、当該テスト画像において撮影対象の劣化部分を示す画素を特定するテストラベルとを用いて、ROC曲線を取得し、
前記ROC曲線に基づき、予測された前記領域のうち、前記劣化領域として判定すべき領域が少なくとも有する画素数の閾値を決定し、
予測された前記領域のうち、前記予め定められた画素数として、前記閾値以上の画素を含む領域を前記劣化領域として判定する、
劣化検出方法。 The control section of the deterioration detection device
Obtaining a machine learning determiner using a teacher image, which is an image obtained by photography, and a teacher label that specifies a pixel in the teacher image that indicates a degraded portion of the photographed object as teacher data,
Obtain images obtained by photographing structures,
converting the photographed image into a predetermined color space;
predicting an area occupied by a deteriorated portion of the structure in the converted captured image using the determiner;
In the deterioration detection method , an area including a predetermined number of pixels or more among the predicted areas is determined as a deteriorated area that is an area occupied by a deteriorated part that may affect the structure in the photographed image. ,
The control unit includes:
Obtaining an ROC curve using a test image different from the teacher image and a test label that specifies a pixel in the test image that indicates a degraded portion of the photographic target,
Based on the ROC curve, determine a threshold value of the number of pixels that an area to be determined as the deteriorated area has at least among the predicted areas;
Determining, as the degraded region, a region that includes pixels of the predetermined number of pixels equal to or more than the threshold value among the predicted regions;
Deterioration detection method .
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/037908 WO2022074746A1 (en) | 2020-10-06 | 2020-10-06 | Deterioration detection apparatus, deterioration detection method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022074746A1 JPWO2022074746A1 (en) | 2022-04-14 |
JP7410442B2 true JP7410442B2 (en) | 2024-01-10 |
Family
ID=81125722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022555012A Active JP7410442B2 (en) | 2020-10-06 | 2020-10-06 | Deterioration detection device, deterioration detection method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7410442B2 (en) |
WO (1) | WO2022074746A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7498524B1 (en) | 2023-05-02 | 2024-06-12 | 株式会社カナヤ食品 | Method for generating teacher data, foreign body inspection device, foreign body inspection method, and foreign body detection program |
JP7531200B1 (en) | 2023-12-18 | 2024-08-09 | 株式会社日立パワーソリューションズ | Wind turbine blade repair support device and wind turbine blade repair support method |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010032511A (en) | 2008-06-30 | 2010-02-12 | Denro Corp | Method and device for diagnosing coating degradation |
JP2012013675A (en) | 2010-05-31 | 2012-01-19 | Tohoku Electric Power Co Inc | Device and method for analyzing corrosion inside steel pipe |
JP2013167596A (en) | 2012-02-17 | 2013-08-29 | Honda Motor Co Ltd | Defect inspection device, defect inspection method, and program |
JP2019194562A (en) | 2018-04-26 | 2019-11-07 | キヤノン株式会社 | Information processing device, information processing method and program |
JP2020085546A (en) | 2018-11-19 | 2020-06-04 | 国立研究開発法人産業技術総合研究所 | System for supporting inspection and repair of structure |
JP2020125980A (en) | 2019-02-05 | 2020-08-20 | 西日本旅客鉄道株式会社 | Deterioration level determination device, deterioration level determination method, and program |
JP2020136368A (en) | 2019-02-15 | 2020-08-31 | 東京エレクトロン株式会社 | Image generation apparatus, inspection apparatus, and image generation method |
JP2020186938A (en) | 2019-05-10 | 2020-11-19 | 富士フイルム株式会社 | Inspection method, inspection device, program, and printing device |
-
2020
- 2020-10-06 JP JP2022555012A patent/JP7410442B2/en active Active
- 2020-10-06 WO PCT/JP2020/037908 patent/WO2022074746A1/en active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010032511A (en) | 2008-06-30 | 2010-02-12 | Denro Corp | Method and device for diagnosing coating degradation |
JP2012013675A (en) | 2010-05-31 | 2012-01-19 | Tohoku Electric Power Co Inc | Device and method for analyzing corrosion inside steel pipe |
JP2013167596A (en) | 2012-02-17 | 2013-08-29 | Honda Motor Co Ltd | Defect inspection device, defect inspection method, and program |
JP2019194562A (en) | 2018-04-26 | 2019-11-07 | キヤノン株式会社 | Information processing device, information processing method and program |
JP2020085546A (en) | 2018-11-19 | 2020-06-04 | 国立研究開発法人産業技術総合研究所 | System for supporting inspection and repair of structure |
JP2020125980A (en) | 2019-02-05 | 2020-08-20 | 西日本旅客鉄道株式会社 | Deterioration level determination device, deterioration level determination method, and program |
JP2020136368A (en) | 2019-02-15 | 2020-08-31 | 東京エレクトロン株式会社 | Image generation apparatus, inspection apparatus, and image generation method |
JP2020186938A (en) | 2019-05-10 | 2020-11-19 | 富士フイルム株式会社 | Inspection method, inspection device, program, and printing device |
Also Published As
Publication number | Publication date |
---|---|
WO2022074746A1 (en) | 2022-04-14 |
JPWO2022074746A1 (en) | 2022-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hoang et al. | Metaheuristic optimized edge detection for recognition of concrete wall cracks: a comparative study on the performances of roberts, prewitt, canny, and sobel algorithms | |
JP7569479B2 (en) | DEFECT DETECTION METHOD, APPARATUS AND SYSTEM | |
JP4369922B2 (en) | Biological image collation device and collation method thereof | |
JP7410442B2 (en) | Deterioration detection device, deterioration detection method, and program | |
TWI254891B (en) | Face image detection method, face image detection system, and face image detection program | |
JP2020181532A (en) | Image determination device and image determination method | |
US20040131236A1 (en) | Method and apparatus for processing an image | |
CN113076993B (en) | Information processing method and model training method for chest X-ray film recognition | |
CN114528913A (en) | Model migration method, device, equipment and medium based on trust and consistency | |
JP6980208B2 (en) | Structure maintenance work support system | |
KR102260556B1 (en) | Deep learning-based parking slot detection method and apparatus integrating global and local information | |
CN112802034A (en) | Image segmentation and recognition method, model construction method and device and electronic equipment | |
Rosenberger et al. | Unsupervised and supervised image segmentation evaluation | |
WO2022230413A1 (en) | Detection device, control method for detection device, method for generating model by model generation device that generates trained model, information processing program, and recording medium | |
JP7321452B2 (en) | Program, information processing device, information processing method, and method for generating learned model | |
CN115690431A (en) | Bar code image binarization method and device, storage medium and computer equipment | |
CN115512203A (en) | Information detection method, device, equipment and storage medium | |
CN115311630A (en) | Method and device for generating distinguishing threshold, training target recognition model and recognizing target | |
CN115374439A (en) | Malicious code detection method and device and computer equipment | |
JP5251489B2 (en) | Image processing apparatus and image processing program | |
CN116993653B (en) | Camera lens defect detection method, device, equipment, storage medium and product | |
CN117474915B (en) | Abnormality detection method, electronic equipment and storage medium | |
WO2023119663A1 (en) | Tire inspection support device and method, and computer-readable medium | |
JP4381445B2 (en) | Image characteristic determination processing apparatus, image characteristic determination processing method, program for executing the method, and computer-readable storage medium storing the program | |
CN117169286B (en) | Industrial harness quality detection method under visual assistance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230124 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7410442 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |