JP7410442B2 - Deterioration detection device, deterioration detection method, and program - Google Patents

Deterioration detection device, deterioration detection method, and program Download PDF

Info

Publication number
JP7410442B2
JP7410442B2 JP2022555012A JP2022555012A JP7410442B2 JP 7410442 B2 JP7410442 B2 JP 7410442B2 JP 2022555012 A JP2022555012 A JP 2022555012A JP 2022555012 A JP2022555012 A JP 2022555012A JP 7410442 B2 JP7410442 B2 JP 7410442B2
Authority
JP
Japan
Prior art keywords
image
area
unit
teacher
degraded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022555012A
Other languages
Japanese (ja)
Other versions
JPWO2022074746A1 (en
Inventor
大輔 内堀
一旭 渡邉
勇臣 濱野
雅史 中川
淳 荒武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2022074746A1 publication Critical patent/JPWO2022074746A1/ja
Application granted granted Critical
Publication of JP7410442B2 publication Critical patent/JP7410442B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

本開示は、劣化検出装置、劣化検出方法、及びプログラムに関する。 The present disclosure relates to a deterioration detection device, a deterioration detection method, and a program.

画像処理を用いて特定の画像領域を検出する手法は数多く存在する。これらの手法の中でも、昨今は検出精度の高さ及び構築の手軽さから、ディープラーニングにおけるセグメンテーション手法が有効とされている(非特許文献1)。このセグメンテーション手法を用いて、通信用マンホールの撮影画像から、コンクリート壁面に発生した露筋及び躯体部に設置された金物の腐食といった、構造物の劣化を検出する画像処理システムを構築することが考えられる。 There are many methods for detecting specific image regions using image processing. Among these methods, segmentation methods based on deep learning have recently been considered effective due to their high detection accuracy and ease of construction (Non-Patent Document 1). The idea is to use this segmentation method to build an image processing system that detects structural deterioration, such as exposed reinforcement on concrete walls and corrosion of metal fittings installed in the frame, from images taken of communication manholes. It will be done.

O. Ronneberger,P. Fischer,T. Brox,“U-net: Convolutional networks for biomedical image segmentation”,Lecture Notes in Computer Science,Vol. 9351,pp. 234-241,2015.O. Ronneberger, P. Fischer, T. Brox, “U-net: Convolutional networks for biomedical image segmentation”, Lecture Notes in Computer Science, Vol. 9351, pp. 234-241, 2015.

しかしながら、通信用マンホールは地中に設置されているため、撮影画像中には多く泥等の汚れが映り込み、また、これらの汚れは露筋及び金物の腐食等の劣化部分と画像中の色が似ている。そのため、従来の技術をそのまま適用しただけでは、これらの汚れ等が誤って構造物の劣化として検出されてしまう。また、従来の技術は、撮影画像から漏れなく劣化と思われる領域を検出して、構造物の耐久性という意味では全く影響のない微小な劣化までをも検出してしまう。そのため、従来の技術をそのまま適用しただけでは、検出後において、検出された劣化の領域が構造物の耐久性に影響を及ぼしうるものかを人間が再確認する工程が発生してしまう。 However, since communication manholes are installed underground, many dirts such as mud are reflected in the captured images, and these dirts are mixed with deteriorated parts such as exposed streaks and corrosion of metal parts and the colors in the images. are similar. Therefore, if conventional techniques are simply applied, these stains and the like will be mistakenly detected as deterioration of the structure. Further, the conventional technology detects all areas that are considered to be deteriorated from the photographed images, and even detects minute deterioration that has no effect on the durability of the structure. Therefore, if the conventional technology is simply applied as is, there will be a step after detection in which a person reconfirms whether the detected degraded area is likely to affect the durability of the structure.

本開示の目的は、構造物に影響を及ぼしうる劣化を精度よく検出する劣化検出装置、劣化検出方法、及びプログラムを提供することである。 An object of the present disclosure is to provide a deterioration detection device, a deterioration detection method, and a program that accurately detect deterioration that may affect a structure.

一実施形態に係る劣化検出装置は、撮影により得られた画像である教師画像と、当該教師画像において撮影対象の劣化部分を示す画素を特定する教師ラベルとを教師データとして機械学習された判定器を取得し、構造物を撮影して得られた撮影画像を取得し、前記撮影画像を予め定められた色空間に変換し、前記判定器を用いて、前記変換された前記撮影画像において前記構造物の劣化部分が占める領域を予測し、予測された前記領域のうち、予め定められた画素数以上の画素を含む領域を前記撮影画像において前記構造物に影響を及ぼしうる劣化部分が占める領域である劣化領域として判定する制御部を備え、前記制御部は、前記教師画像と異なるテスト画像と、当該テスト画像において撮影対象の劣化部分を示す画素を特定するテストラベルとを用いて、ROC曲線を取得し、前記ROC曲線に基づき、予測された前記領域のうち、前記劣化領域として判定すべき領域が少なくとも有する画素数の閾値を決定し、予測された前記領域のうち、前記予め定められた画素数として、前記閾値以上の画素を含む領域を前記劣化領域として判定する。 The deterioration detection device according to one embodiment is a judgment device that is machine-learned using a teacher image, which is an image obtained by photographing, and a teacher label that specifies a pixel in the teacher image that indicates a deteriorated portion of the photographed object as training data. , obtain a photographed image obtained by photographing a structure, convert the photographed image into a predetermined color space, and use the judger to determine the structure in the converted photographed image. A region occupied by a deteriorated part of the object is predicted, and a region including a predetermined number of pixels or more among the predicted regions is an area occupied by the deteriorated part that can affect the structure in the photographed image. The controller includes a control unit that determines a degraded area as a degraded area, and the control unit generates an ROC curve using a test image different from the teacher image and a test label that specifies pixels in the test image that indicate a degraded area of the photographing target. is obtained, based on the ROC curve, determines a threshold value of at least the number of pixels of a region to be determined as the degraded region among the predicted regions, and A region including pixels whose number of pixels is equal to or greater than the threshold value is determined as the degraded region .

一実施形態に係る劣化検出方法は、劣化検出装置の制御部が、撮影により得られた画像である教師画像と、当該教師画像において撮影対象の劣化部分を示す画素を特定する教師ラベルとを教師データとして機械学習された判定器を取得し、構造物を撮影して得られた撮影画像を取得し、前記撮影画像を予め定められた色空間に変換し、前記判定器を用いて、前記変換された前記撮影画像において前記構造物の劣化部分が占める領域を予測し、予測された前記領域のうち、予め定められた画素数以上の画素を含む領域を前記撮影画像において前記構造物に影響を及ぼしうる劣化部分が占める領域である劣化領域として判定する劣化検出方法において、前記制御部は、前記教師画像と異なるテスト画像と、当該テスト画像において撮影対象の劣化部分を示す画素を特定するテストラベルとを用いて、ROC曲線を取得し、前記ROC曲線に基づき、予測された前記領域のうち、前記劣化領域として判定すべき領域が少なくとも有する画素数の閾値を決定し、予測された前記領域のうち、前記予め定められた画素数として、前記閾値以上の画素を含む領域を前記劣化領域として判定するIn a deterioration detection method according to an embodiment, a control unit of a deterioration detection device selects a teacher image, which is an image obtained by photographing, and a teacher label that specifies a pixel indicating a degraded portion of a photographing target in the teacher image. A machine-learning judge is acquired as data, a photographed image obtained by photographing a structure is acquired, the photographed image is converted into a predetermined color space, and the judgment unit is used to perform the conversion. The area occupied by the deteriorated portion of the structure in the photographed image is predicted, and the area containing pixels of a predetermined number or more is selected from among the predicted areas as areas that will affect the structure in the photographed image. In the deterioration detection method of determining a degraded area that is an area occupied by a degraded portion that may cause A label is used to obtain an ROC curve, and based on the ROC curve, a threshold value of the number of pixels of at least a region to be determined as the degraded region among the predicted regions is determined, and the predicted region is Among them, an area including pixels whose number is equal to or greater than the threshold value as the predetermined number of pixels is determined as the degraded area .

一実施形態に係るプログラムは、コンピュータを上記劣化検出装置として機能させる。 A program according to an embodiment causes a computer to function as the deterioration detection device.

本開示の一実施形態によれば、構造物に影響を及ぼしうる劣化を精度よく検出する劣化検出装置、劣化検出方法、及びプログラムを提供することができる。 According to an embodiment of the present disclosure, it is possible to provide a deterioration detection device, a deterioration detection method, and a program that accurately detect deterioration that may affect a structure.

本開示の一実施形態に係る劣化検出装置のハードウェア構成を示す図である。FIG. 1 is a diagram showing a hardware configuration of a deterioration detection device according to an embodiment of the present disclosure. 本開示の一実施形態に係る劣化検出装置の機能構成を示す図である。FIG. 1 is a diagram showing a functional configuration of a deterioration detection device according to an embodiment of the present disclosure. 教師画像の一例を示す図である。FIG. 3 is a diagram showing an example of a teacher image. 教師ラベルの一例を示す図である。It is a figure which shows an example of a teacher label. 色空間の種類に応じた検出率の変化の一例を示す図である。FIG. 6 is a diagram illustrating an example of a change in detection rate depending on the type of color space. 色空間の種類に応じた検出率の変化の一例を示す図である。FIG. 6 is a diagram illustrating an example of a change in detection rate depending on the type of color space. 図2の劣化検出装置が備える学習部の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a learning section included in the deterioration detection device of FIG. 2. FIG. 真値と判定器による判定結果との関係を示す混同行列の一例を示す図である。FIG. 3 is a diagram illustrating an example of a confusion matrix showing the relationship between true values and determination results by a determiner. ROC曲線とAUCとの関係を示す図である。It is a figure showing the relationship between ROC curve and AUC. ROC曲線に基づき閾値hを求める処理を説明する図である。FIG. 6 is a diagram illustrating a process for determining a threshold value h based on an ROC curve. 図2の劣化検出装置が備えるフィルタリング部の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a filtering section included in the deterioration detection device of FIG. 2. FIG. 4近傍連結を説明する図である。FIG. 4 is a diagram illustrating four-neighbor connection. 8近傍連結を説明する図である。FIG. 3 is a diagram illustrating 8-neighbor connection. 二値化処理後のデータの一例を示す図である。FIG. 3 is a diagram showing an example of data after binarization processing. フィルタリング処理後のデータの一例を示す図である。FIG. 3 is a diagram showing an example of data after filtering processing. フィルタリング処理後のデータの一例を示す図である。FIG. 3 is a diagram showing an example of data after filtering processing. 劣化部分が示された画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image showing a deteriorated portion. 本開示の一実施形態に係る劣化検出装置の機能構成を示す図である。FIG. 1 is a diagram showing a functional configuration of a deterioration detection device according to an embodiment of the present disclosure. 判定器格納部によって判定された行列データと二値化処理後の行列データの一例を示す図である。It is a figure which shows an example of the matrix data determined by the determiner storage part, and the matrix data after a binarization process. 金物の腐食の撮影画像によって作成されたROC曲線の一例を示す図である。It is a figure which shows an example of the ROC curve created from the photographed image of the corrosion of a metal object. ROC曲線に基づき閾値t及び閾値kを求める処理を説明する図である。It is a figure explaining the process of calculating|requiring the threshold value t and the threshold value k based on an ROC curve. 本開示の一実施形態に係る劣化検出装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation of a deterioration detection device concerning one embodiment of this indication.

以下、本開示の一実施形態について、図面を参照して説明する。各図面中、同一又は相当する部分には、同一符号を付している。本実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。 Hereinafter, one embodiment of the present disclosure will be described with reference to the drawings. In each drawing, the same or corresponding parts are given the same reference numerals. In the description of this embodiment, the description of the same or corresponding parts will be omitted or simplified as appropriate.

<実施の形態1>
画像から劣化を検出する劣化検出装置10について説明する。劣化検出装置10は、撮影画像から通信用マンホールの劣化を検出する装置およびシステムに関する。検出の対象となる劣化は、撮影画像における通信用マンホールの躯体部に発生した露筋及び通信用マンホールの内部に設置した金物の腐食等である。劣化検出装置10は、セグメンテーション手法を用いて劣化を検出する際に、検出結果から汚れ等を削除することで検出精度を向上しかつ、構造物にとって影響のない微小な劣化を削除する。これにより、劣化検出装置10は、撮影画像から劣化に該当する画素領域を精度よく検出する。図1は、本開示の一実施形態に係る劣化検出装置10のハードウェア構成を示す図である。
<Embodiment 1>
A deterioration detection device 10 that detects deterioration from images will be described. The deterioration detection device 10 relates to a device and system for detecting deterioration of communication manholes from photographed images. The deterioration to be detected includes exposed streaks occurring in the frame of the communication manhole in the photographed image and corrosion of metal fittings installed inside the communication manhole. When detecting deterioration using a segmentation method, the deterioration detection device 10 improves detection accuracy by removing dirt and the like from the detection results, and also removes minute deterioration that does not affect the structure. Thereby, the deterioration detection device 10 accurately detects a pixel region corresponding to deterioration from the photographed image. FIG. 1 is a diagram showing a hardware configuration of a deterioration detection device 10 according to an embodiment of the present disclosure.

劣化検出装置10は、1つ又は互いに通信可能な複数のサーバ装置である。劣化検出装置10は、これらに限定されず、汎用コンピュータ、専用コンピュータ、ワークステーション、PC(Personal Computer)、電子ノートパッド等の任意の電子機器であってもよい。図1に示すように、劣化検出装置10は、制御部11、記憶部12、通信部13、入力部14、出力部15、及びバス16を備える。 The deterioration detection device 10 is one or a plurality of server devices that can communicate with each other. The deterioration detection device 10 is not limited to these, and may be any electronic device such as a general-purpose computer, a dedicated computer, a workstation, a PC (Personal Computer), or an electronic notepad. As shown in FIG. 1, the deterioration detection device 10 includes a control section 11, a storage section 12, a communication section 13, an input section 14, an output section 15, and a bus 16.

制御部11は、1つ以上のプロセッサを含む。一実施形態において「プロセッサ」は、汎用のプロセッサ、又は特定の処理に特化した専用のプロセッサであるが、これらに限定されない。プロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)などであってもよい。制御部11は、劣化検出装置10を構成する各構成部とバス16を介して通信可能に接続され、劣化検出装置10全体の動作を制御する。 Control unit 11 includes one or more processors. In one embodiment, a "processor" is a general purpose processor or a dedicated processor specialized for a particular process, but is not limited thereto. The processor may be, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), or an ASIC (Application Specific Integrated Circuit). The control unit 11 is communicably connected to each component forming the deterioration detection device 10 via the bus 16, and controls the operation of the deterioration detection device 10 as a whole.

記憶部12は、HDD、SSD、EEPROM、ROM、及びRAMを含む任意の記憶モジュールを含む。記憶部12は、例えば、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部12は、劣化検出装置10の動作に用いられる任意の情報を記憶する。例えば、記憶部12は、システムプログラム、アプリケーションプログラム、及び通信部13によって受信された各種情報等を記憶してもよい。記憶部12は、劣化検出装置10に内蔵されているものに限定されず、USB等のデジタル入出力ポート等によって接続されている外付けのデータベース又は外付け型の記憶モジュールであってもよい。HDDはHard Disk Driveの略称である。SSDはSolid State Driveの略称である。EEPROMはElectrically Erasable Programmable Read-Only Memoryの略称である。ROMはRead-Only Memoryの略称である。RAMはRandom Access Memoryの略称である。USBはUniversal Serial Busの略称である。 The storage unit 12 includes any storage module including an HDD, SSD, EEPROM, ROM, and RAM. The storage unit 12 may function as, for example, a main storage device, an auxiliary storage device, or a cache memory. The storage unit 12 stores arbitrary information used for the operation of the deterioration detection device 10. For example, the storage unit 12 may store system programs, application programs, various information received by the communication unit 13, and the like. The storage unit 12 is not limited to that built in the deterioration detection device 10, but may be an external database or an external storage module connected via a digital input/output port such as a USB. HDD is an abbreviation for Hard Disk Drive. SSD is an abbreviation for Solid State Drive. EEPROM is an abbreviation for Electrically Erasable Programmable Read-Only Memory. ROM is an abbreviation for Read-Only Memory. RAM is an abbreviation for Random Access Memory. USB is an abbreviation for Universal Serial Bus.

通信部13は、任意の通信技術によって他の装置と通信接続可能な、任意の通信モジュールを含む。通信部13は、さらに、他の装置との通信を制御するための通信制御モジュール、及び他の装置との通信に必要となる識別情報等の通信用データを記憶する記憶モジュールを含んでもよい。 The communication unit 13 includes any communication module that can be communicatively connected to other devices using any communication technology. The communication unit 13 may further include a communication control module for controlling communication with other devices, and a storage module that stores communication data such as identification information required for communication with other devices.

入力部14は、ユーザの入力操作を受け付けて、ユーザの操作に基づく入力情報を取得する1つ以上の入力インタフェースを含む。例えば、入力部14は、物理キー、静電容量キー、ポインティングディバイス、出力部15のディスプレイと一体的に設けられたタッチスクリーン、又は音声入力を受け付けるマイク等であるが、これらに限定されない。 The input unit 14 includes one or more input interfaces that accept a user's input operation and obtain input information based on the user's operation. For example, the input unit 14 may be, but is not limited to, a physical key, a capacitive key, a pointing device, a touch screen provided integrally with the display of the output unit 15, or a microphone that accepts audio input.

出力部15は、ユーザに対して情報を出力し、ユーザに通知する1つ以上の出力インタフェースを含む。例えば、出力部15は、情報を画像で出力するディスプレイ、又は情報を音声で出力するスピーカ等であるが、これらに限定されない。なお、上述の入力部14及び出力部15の少なくとも一方は、劣化検出装置10と一体に構成されてもよいし、別体として設けられてもよい。 The output unit 15 includes one or more output interfaces that output information to and notify the user. For example, the output unit 15 may be a display that outputs information as an image, a speaker that outputs information as audio, or the like, but is not limited to these. Note that at least one of the input section 14 and the output section 15 described above may be configured integrally with the deterioration detection device 10, or may be provided separately.

劣化検出装置10の機能は、本実施形態に係るプログラムを、制御部11に含まれるプロセッサで実行することにより実現される。すなわち、劣化検出装置10の機能は、ソフトウェアにより実現される。プログラムは、劣化検出装置10の動作に含まれるステップの処理をコンピュータに実行させることで、当該ステップの処理に対応する機能をコンピュータに実現させる。すなわち、プログラムは、コンピュータを本実施形態に係る劣化検出装置10として機能させるためのプログラムである。プログラム命令は、必要なタスクを実行するためのプログラムコード、コードセグメントなどであってもよい。 The functions of the deterioration detection device 10 are realized by executing the program according to this embodiment with a processor included in the control unit 11. That is, the functions of the deterioration detection device 10 are realized by software. The program causes the computer to execute the processing of the steps included in the operation of the deterioration detection device 10, thereby causing the computer to realize the functions corresponding to the processing of the steps. That is, the program is a program for causing a computer to function as the deterioration detection device 10 according to the present embodiment. Program instructions may be program code, code segments, etc. to perform necessary tasks.

プログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。このような記録媒体を用いれば、プログラムをコンピュータにインストールすることが可能である。ここで、プログラムが記録された記録媒体は、非一過性の(非一時的な)記録媒体であってもよい。非一過性の記録媒体は、CD(Compact Disk)-ROM(Read-Only Memory)、DVD(Digital Versatile Disc)-ROM、BD(Blu-ray(登録商標) Disc)-ROMなどであってもよい。また、プログラムをサーバのストレージに格納しておき、ネットワークを介して、サーバから他のコンピュータにプログラムを転送することにより、プログラムは流通されてもよい。プログラムはプログラムプロダクトとして提供されてもよい。 The program may be recorded on a computer readable recording medium. Using such a recording medium, it is possible to install a program on a computer. Here, the recording medium on which the program is recorded may be a non-transitory recording medium. Non-transitory recording media may be CD (Compact Disk)-ROM (Read-Only Memory), DVD (Digital Versatile Disc)-ROM, BD (Blu-ray (registered trademark) Disc)-ROM, etc. good. Alternatively, the program may be distributed by storing the program in the storage of a server and transferring the program from the server to another computer via a network. The program may be provided as a program product.

コンピュータは、例えば、可搬型記録媒体に記録されたプログラム又はサーバから転送されたプログラムを、一旦、主記憶装置に格納する。そして、コンピュータは、主記憶装置に格納されたプログラムをプロセッサで読み取り、読み取ったプログラムに従った処理をプロセッサで実行する。コンピュータは、可搬型記録媒体から直接プログラムを読み取り、プログラムに従った処理を実行してもよい。コンピュータは、コンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行してもよい。このような処理は、サーバからコンピュータへのプログラムの転送を行わず、実行指示及び結果取得のみによって機能を実現する、いわゆるASP型のサービスによって実行されてもよい。「ASP」は、Application Service Providerの略称である。プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるものが含まれる。例えば、コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータは、「プログラムに準ずるもの」に該当する。 For example, a computer temporarily stores a program recorded on a portable recording medium or a program transferred from a server in a main storage device. Then, the computer uses a processor to read a program stored in the main memory, and causes the processor to execute processing according to the read program. A computer may directly read a program from a portable recording medium and execute processing according to the program. The computer may sequentially execute processing according to the received program each time the program is transferred to the computer from the server. Such processing may be executed by a so-called ASP type service that does not transfer the program from the server to the computer, but realizes the function only by issuing execution instructions and obtaining results. "ASP" is an abbreviation for Application Service Provider. The program includes information similar to a program that is used for processing by an electronic computer. For example, data that is not a direct command to a computer but has the property of regulating computer processing falls under "something similar to a program."

劣化検出装置10の一部又は全ての機能が、制御部11に含まれる専用回路により実現されてもよい。すなわち、劣化検出装置10の一部又は全ての機能が、ハードウェアにより実現されてもよい。また、劣化検出装置10は単一の情報処理装置により実現されてもよいし、複数の情報処理装置の協働により実現されてもよい。 A part or all of the functions of the deterioration detection device 10 may be realized by a dedicated circuit included in the control unit 11. That is, some or all of the functions of the deterioration detection device 10 may be realized by hardware. Further, the deterioration detection device 10 may be realized by a single information processing device, or may be realized by cooperation of a plurality of information processing devices.

図2は、本開示の実施の形態1に係る劣化検出装置10の機能構成を示す図である。劣化検出装置10は、判定器構築部20、判定部30、及びフィルタリング部40を備える。判定器構築部20は、教師画像入力部21、色空間変換部22、教師ラベル入力部23、及び学習部24を備える。判定部30は、画像入力部31、色空間変換部32、及び判定器格納部33を備える。 FIG. 2 is a diagram showing a functional configuration of the deterioration detection device 10 according to Embodiment 1 of the present disclosure. The deterioration detection device 10 includes a determiner construction section 20, a determination section 30, and a filtering section 40. The determiner construction unit 20 includes a teacher image input unit 21, a color space conversion unit 22, a teacher label input unit 23, and a learning unit 24. The determination unit 30 includes an image input unit 31 , a color space conversion unit 32 , and a determiner storage unit 33 .

判定器構築部20における教師画像入力部21は、判定器を構築するための学習用画像(教師画像)となる撮影画像の入力を行う。撮影画像とは、デジタルカメラ等により撮影された静止画像のデジタルデータのことを指す。教師画像入力部21では、撮影画像はビットマップ画像として入力され、多次元配列のデータが格納される。例えば、静止画像がグレー画像であれば1層の行列データとして格納され、カラー画像であれば複数層の行列データとして格納される。ビットマップ画像の解像度は任意である。 A teacher image input unit 21 in the determiner construction unit 20 inputs a photographed image that becomes a learning image (teacher image) for constructing a determiner. A photographed image refers to digital data of a still image photographed by a digital camera or the like. In the teacher image input unit 21, the photographed image is input as a bitmap image, and data in a multidimensional array is stored. For example, if the still image is a gray image, it is stored as one layer of matrix data, and if the still image is a color image, it is stored as multiple layers of matrix data. The resolution of the bitmap image is arbitrary.

判定器構築部20における教師ラベル入力部23は、教師ラベルの行列データを入力する機能を持つ。図3Aは、教師画像の一例を示す図である。図3Bは、教師ラベルの一例を示す図である。図3A及び図3Bの例では、教師画像となる撮影画像において、劣化に該当する金物の腐食の画素に「1」(白)、それ以外の画素に「0」(黒)を対応させた教師ラベルの行列データを作成している。教師ラベル入力部23では、このラベルの行列データを入力する。図3A及び図3Bは、劣化を金物の腐食とした事例を示しているが、劣化の種類は金物の腐食に限られない。他の種類の劣化として、例えば、コンクリート内部の鉄筋の腐食膨張により表面コンクリートが押し出された上に剥離してしまい、腐食鉄筋が露わになった状態(露筋という)をも劣化として定義して入力することができる。教師画像入力部21と教師ラベル入力部23に入力するデータ数は任意であるが、両データは必ずペアになっている必要がある。教師画像として用いる撮影画像には、既知の劣化が含まれている。教師ラベルは、ペアとなる撮影画像中の劣化に該当する画素を「1」に、それ以外を「0」に対応させたものである。 The teacher label input unit 23 in the determiner construction unit 20 has a function of inputting matrix data of teacher labels. FIG. 3A is a diagram showing an example of a teacher image. FIG. 3B is a diagram showing an example of a teacher label. In the examples shown in FIGS. 3A and 3B, in the photographed image that serves as the teacher image, the teacher assigns "1" (white) to the pixel of corrosion of metal objects that corresponds to deterioration, and "0" (black) to the other pixels. Creating label matrix data. The teacher label input unit 23 inputs the matrix data of this label. Although FIGS. 3A and 3B show an example in which the deterioration is corrosion of metal objects, the type of deterioration is not limited to corrosion of metal objects. Another type of deterioration is defined as deterioration, for example, when the surface concrete is pushed out and peeled off due to corroded expansion of the reinforcing bars inside the concrete, exposing the corroded reinforcing bars (referred to as exposed reinforcement). can be entered. The number of data input to the teacher image input section 21 and the teacher label input section 23 is arbitrary, but both data must necessarily form a pair. The photographed image used as the teacher image contains known deterioration. The teacher label corresponds to "1" for pixels corresponding to deterioration in the photographed images that form a pair, and "0" for the other pixels.

判定器構築部20における色空間変換部22は、教師画像入力部21に入力されたビットマップ画像の色空間を変換する機能を持つ。色空間として、一般的なデジタルカメラ画像で撮影されたカラー画像は、RGB(Red, Green, Blue)色空間の数値配列にて画像入力部31に行列データとして格納されている。色空間変換部22は、このようなRGB色空間の数値配列の行列データを、例えば、HSV(Hue, Saturation, Value)又はL等の他の色空間の行列データに変換することができる。色空間を変換することによって、判定器の判定精度を向上することができる。RGB色空間は、人間の知覚より出力機器の都合が優先されているが、L色空間は人間の感覚に合わせて考案された色空間である。劣化において金物の腐食は、進行途中の微小な錆、錆っぽい汚れ、又は、錆汁等を撮影画像内に多数含むため、腐食している画素領域を明確に特定しにくい。そのため、教師ラベルを作成する際には、人間の視覚に大きく依存することが重要である。露筋においても、腐食鉄筋の領域は、周辺のコンクリートへの錆汁又は錆による凹凸を含むため、明確に画素領域を特定できずに、人間の視覚に依存した教師ラベルの作成になる。よって、金物の腐食と露筋の色空間には人間の視覚がより表現されるL色空間の方が有効になる。The color space conversion unit 22 in the determiner construction unit 20 has a function of converting the color space of the bitmap image input to the teacher image input unit 21. As a color space, a color image taken with a general digital camera image is stored in the image input unit 31 as matrix data in a numerical array of an RGB (Red, Green, Blue) color space. The color space conversion unit 22 converts the matrix data of the numerical array in the RGB color space to matrix data in other color spaces such as HSV (Hue, Saturation, Value) or L * a * b * , for example. be able to. By converting the color space, the determination accuracy of the determiner can be improved. While the RGB color space prioritizes the convenience of output equipment over human perception, the L * a * b * color space is a color space designed to suit human sensibilities. Corrosion of hardware during deterioration includes many minute rusts, rust-like stains, rust juices, etc. in the captured image, making it difficult to clearly identify the corroded pixel area. Therefore, when creating teacher labels, it is important to rely heavily on human vision. Even in the case of exposed reinforcing bars, the area of corroded reinforcing bars includes rust stains on the surrounding concrete or unevenness due to rust, so the pixel area cannot be clearly identified, and the creation of teacher labels relies on human vision. Therefore, the L * a * b * color space, which better expresses human vision, is more effective for the color space of corrosion and exposed streaks on metal objects.

図4A及び図4Bは、色空間の種類に応じた検出率の変化の一例を示す図である。図4A及び図4Bは、RGB色空間、HSV色空間、及び、L色空間の3種類の色空間で判定器を作成して、劣化の検出率を検証した結果を示している。図4Aは露筋の画像320枚で検出率を検証した結果を示し、図4Bは金物の腐食画像400枚で検出率を検証した結果を示す。図4A及び図4Bは、露筋と金物の腐食とのそれぞれにおいて、セグメンテーション手法による判定器を作成し、作成した判定器を用いて検出率の評価を行った結果を示す。図4A及び図4Bに示すように、金物の腐食領域と露筋領域の検出において、L色空間に撮影画像の行列データを変換した場合が最も検出率が高かった。ここで、検出率とは判定器により判定された劣化領域と人間が真値として与えた劣化領域の画素領域との一致率である。本ケースの劣化では、L色空間を用いたが、判定器の学習および構築を行う際に、判定精度が最も向上する色空間を任意に設定することができる。FIGS. 4A and 4B are diagrams illustrating an example of a change in detection rate depending on the type of color space. Figures 4A and 4B show the results of verifying the deterioration detection rate by creating determiners in three types of color spaces: RGB color space, HSV color space, and L * a * b * color space. There is. FIG. 4A shows the results of verifying the detection rate using 320 images of exposed streaks, and FIG. 4B shows the results of verifying the detection rate using 400 images of corrosion of metal objects. FIGS. 4A and 4B show the results of creating a determination device using a segmentation method for exposed streaks and corrosion of metal objects, respectively, and evaluating the detection rate using the created determination device. As shown in FIGS. 4A and 4B, in detecting corroded areas and exposed streak areas of hardware, the highest detection rate was achieved when the matrix data of the photographed image was converted into the L * a * b * color space. Here, the detection rate is the coincidence rate between the degraded area determined by the determiner and the pixel area of the degraded area given as the true value by a human. Although the L * a * b * color space was used for the degradation in this case, when learning and constructing a determiner, a color space that improves the determination accuracy the most can be arbitrarily set.

色空間変換を行うにあたり、判定器構築部20における色空間変換部22は、格納されている行列データを正規化する処理を行う。ここでの正規化とは、行列データの各要素の値が0以上1以下に収まっていない場合、行列の各層において0以上1以下に各要素が収まるように数値を変換することである。例えば、RGB色空間の場合、3層の行列データとして格納されているが、各層における要素の数値は0以上255以下である。そこで、色空間変換部22は、各要素の数値を255で除算する処理により正規化する。色空間変換部22は、各層の要素の数値が0以上1以下となるように、各層に入力されている要素の数値範囲で処理を定める。 In performing color space conversion, the color space conversion unit 22 in the determiner construction unit 20 performs processing to normalize stored matrix data. Normalization here means, when the value of each element of the matrix data is not within the range of 0 or more and 1 or less, converting the numerical value so that each element falls within the range of 0 or more and 1 or less in each layer of the matrix. For example, in the case of RGB color space, it is stored as three-layer matrix data, and the numerical values of elements in each layer are 0 to 255. Therefore, the color space conversion unit 22 normalizes the numerical value of each element by dividing it by 255. The color space conversion unit 22 determines processing based on the numerical value range of the elements input to each layer so that the numerical value of the element in each layer is 0 or more and 1 or less.

判定器構築部20における学習部24は、教師画像と教師ラベルから劣化を検出するための判定器を作成するものである。学習部24は、色空間変換部22と教師ラベル入力部23のそれぞれが出力する行列データを入力して判定器を構築する。学習部24は、構築した判定器を判定部30に出力するとともに、後述する劣化と非劣化を区別するための閾値hをフィルタリング部40に出力する。 The learning unit 24 in the determiner construction unit 20 creates a determiner for detecting deterioration from a teacher image and a teacher label. The learning unit 24 inputs the matrix data output from the color space conversion unit 22 and the teacher label input unit 23 to construct a determiner. The learning unit 24 outputs the constructed determiner to the determining unit 30, and also outputs a threshold h for distinguishing between deterioration and non-deterioration, which will be described later, to the filtering unit 40.

図5は、図2の劣化検出装置10が備える学習部24の構成例を示す図である。学習部24は、損失関数決定部241及び学習進行部242を備える。 FIG. 5 is a diagram showing a configuration example of the learning section 24 included in the deterioration detection device 10 of FIG. 2. The learning unit 24 includes a loss function determining unit 241 and a learning progressing unit 242.

損失関数決定部241は、学習進行部242におけるニューラルネットワークの予測精度の評価に用いる損失関数を指定する。指定できる損失関数は交差エントロピー誤差、二乗誤差等を任意に設定できるが、金物の腐食及び露筋を含む劣化の検出にはAUC(Area Under the Curve)最大化及びF1スコアが有効となる。 The loss function determining unit 241 specifies a loss function used for evaluating the prediction accuracy of the neural network in the learning progress unit 242. The loss functions that can be specified include cross-entropy error, squared error, etc., but AUC (Area Under the Curve) maximization and F1 score are effective for detecting deterioration including corrosion and exposed streaks in hardware.

図6は、真値と判定器による判定結果との関係を示す混同行列の一例を示す図である。混同行列(Confusion Matrix)とは、二値分類問題で出力されたクラス分類の結果をまとめた行列をいう。二値分類問題とは、ある命題(例えば、その画素は劣化に当たるか)について真(Positive)又は偽(False)を判定する問題である。二値分類に関する判定器が出した結果(予測)と実際の結果には、TP(True Positive)、TN(True Negative)、FP(False Positive)、及びFN(False Negative)の4つのパターンがある。TPは、判定器による予測がPositive(例えば、その画素は劣化に当たる)である場合において、予測が実際を正しく示している(True)、すなわち、実際もPositiveである場合をいう。TNは、判定器による予測がNegative(例えば、その画素は劣化に当たらない)である場合において、予測が実際を正しく示している(True)、すなわち、実際もNegativeである場合をいう。FPは、判定器による予測がPositive(例えば、その画素は劣化に当たる)である場合において、予測が実際を正しく示していない(False)、すなわち、実際はNegative(例えば、その画素は劣化に当たらない)である場合をいう。FNは、判定器による予測がNegative(例えば、その画素は劣化に当たらない)である場合において、予測が実際を正しく示していない(False)、すなわち、実際はPositive(例えば、その画素は劣化に当たる)である場合をいう。 FIG. 6 is a diagram illustrating an example of a confusion matrix showing the relationship between the true value and the determination result by the determiner. A confusion matrix is a matrix that summarizes the class classification results output from a binary classification problem. A binary classification problem is a problem in which a certain proposition (for example, whether the pixel is degraded) is determined to be true (Positive) or false (False). There are four patterns between the results (prediction) and actual results produced by the judge for binary classification: TP (True Positive), TN (True Negative), FP (False Positive), and FN (False Negative). . TP refers to a case where the prediction by the determiner is positive (for example, the pixel is degraded) and the prediction correctly indicates the actual situation (True), that is, the actual situation is also positive. TN refers to a case where the prediction by the determiner is Negative (for example, the pixel is not degraded) and the prediction correctly indicates the reality (True), that is, the reality is also Negative. In FP, when the prediction by the determiner is Positive (e.g., the pixel is degraded), the prediction does not correctly indicate the reality (False), that is, it is actually Negative (e.g., the pixel is not degraded). This refers to the case where FN indicates that when the prediction by the determiner is Negative (e.g., the pixel is not degraded), the prediction does not correctly indicate the reality (False), that is, it is actually Positive (e.g., the pixel is degraded). This refers to the case where

制御部11は、撮影画像に対して、実際を反映した教師ラベルとして、金物の腐食及び露筋等の劣化の画素を「1」、それ以外の非劣化の画素を「0」とラベリング処理を施した画像に対して、劣化の画素をPositive、非劣化の画素をNegativeとする。この場合、図6に示すような混合行列で真値(実際:Actual)と判定器による判定結果(予測:Predicted)の関係性を示すことができる。判定器による判定結果として、判定器により出力された行列データの各画素には0以上1以下の数値が入力される。0以上1以下の値を閾値とする閾値処理によって「0」もしくは「1」に二値化することよって、判定器による判定結果は、「1」となった画素を劣化と判定するPositive、及び、「0」となった画素を非劣化の画素と判定するNegativeに分類することができる。 The control unit 11 performs a labeling process on the photographed image as a teacher label that reflects the actual situation, labeling pixels with deterioration such as corrosion of metal objects and exposed streaks as "1", and labeling other pixels with no deterioration as "0". For the processed image, degraded pixels are defined as Positive, and non-degraded pixels are defined as Negative. In this case, the relationship between the true value (Actual) and the determination result (Predicted) by the determiner can be shown using a mixing matrix as shown in FIG. As a result of the determination by the determiner, a numerical value between 0 and 1 is input to each pixel of the matrix data output by the determiner. By binarizing into "0" or "1" by threshold processing using a value between 0 and 1 as a threshold, the judgment result by the judger is Positive, in which a pixel that becomes "1" is judged to be degraded; , pixels that are "0" can be classified as negative pixels, which are determined to be non-degraded pixels.

図7は、ROC曲線とAUCとの関係を示す図である。混合行列を用いて判定器による判定結果の性能を示した曲線は、ROC曲線(Receiver Operating Characteristic curve、受信者動作特性曲線)と呼ばれる。ROC曲線は、劣化又は非劣化を判定するための閾値を変化させた場合における、FP率とTP率との関係を示す曲線である。FP率(False Positive Rate)は、実際にはNegativeと判定すべきデータのうち、誤ってPositiveと判定したデータの割合であり、この値が小さいほど判定器の性能が高い。FP率は、FPのサンプル数/(FPのサンプル数+TNのサンプル数)と表される。TP率(True Positive Rate)は、実際にはPositiveと判定すべきデータのうち、正しくPositiveと判定できたデータの割合であり、この値が大きいほど判定器の性能が高い。TP率は、TPのサンプル数/(TPのサンプル数+FNのサンプル数)と表される。 FIG. 7 is a diagram showing the relationship between the ROC curve and AUC. A curve showing the performance of a judgment result by a judgment device using a mixing matrix is called an ROC curve (Receiver Operating Characteristic curve). The ROC curve is a curve that shows the relationship between the FP rate and the TP rate when the threshold value for determining deterioration or non-deterioration is changed. The FP rate (False Positive Rate) is the ratio of data that is erroneously determined to be Positive among data that should actually be determined to be Negative, and the smaller this value is, the higher the performance of the determiner is. The FP rate is expressed as the number of FP samples/(the number of FP samples+the number of TN samples). The TP rate (True Positive Rate) is the ratio of data that is correctly determined to be positive among data that should actually be determined to be positive, and the larger this value is, the higher the performance of the determiner is. The TP rate is expressed as the number of TP samples/(the number of TP samples+the number of FN samples).

横軸にFP率、縦軸にTP率としてROC曲線を描いた場合において、ROC曲線をFP率軸に対して0から1まで積分した値は、AUCと呼ばれる。前述のように、FP率が小さいほど、また、TP率が大きいほど、判定器の性能が高いため、AUCの大きさは判定器の性能を示す指標の一つとなる。このAUCの面積が最大化するように損失関数を設定することをAUC最大化という。金物の腐食及び露筋等のような劣化現象は、各撮影画像中の画素領域としては比較的少ない領域になる。劣化している領域をPositive、非劣化の領域をNegativeとするとPositiveとNegativeのデータ量がアンバランスになる現象をデータの不均衡問題という。このデータの不均衡問題に対しては、Negativeの画素と比べて割合の少ないPositiveとなる画素が検出されるようにTP率を向上させつつ、FP率を抑制するようなAUC最大化を損失関数に設定することが有効となる。 When an ROC curve is drawn with the horizontal axis as the FP rate and the vertical axis as the TP rate, the value obtained by integrating the ROC curve from 0 to 1 with respect to the FP rate axis is called AUC. As described above, the smaller the FP rate and the larger the TP rate, the higher the performance of the determiner, so the magnitude of AUC is one of the indicators of the performance of the determiner. Setting the loss function so that the area of AUC is maximized is called AUC maximization. Deterioration phenomena such as metal corrosion and exposed streaks occur in a relatively small area of pixel areas in each photographed image. When a degraded area is defined as positive and a non-degraded area is defined as negative, the phenomenon in which the amount of data for positive and negative becomes unbalanced is called a data imbalance problem. To deal with this data imbalance problem, we use a loss function to maximize AUC to suppress the FP rate while improving the TP rate so that a smaller proportion of positive pixels are detected compared to negative pixels. It is valid to set it to .

F1スコアとは、式(1)に示す数式である。
F1=(2Recall×Precision)/(Recall+Precision) (1)
ただし、Recall(再現率)及びPrecision(適合率)は式(2)(3)により示される。
Recall=TP/(TP+FN) (2)
Precision=TP/(TP+FP) (3)
F1スコアも同様にデータの不均衡問題に対して有効であり、このF1スコアを損失関数に設定することが今回のように構造物の金物の腐食又は露筋等の劣化といった、画像全体中において少ない領域の検出では有効となる。
The F1 score is a mathematical formula shown in equation (1).
F1=(2Recall×Precision)/(Recall+Precision) (1)
However, Recall (recall rate) and Precision (precision rate) are shown by equations (2) and (3).
Recall=TP/(TP+FN) (2)
Precision=TP/(TP+FP) (3)
The F1 score is also effective for data imbalance problems, and setting this F1 score as a loss function is useful for solving problems such as corrosion of metal parts of structures or deterioration such as exposed streaks in the entire image, as in this case. This is effective when detecting small areas.

学習部24における学習進行部242は、色空間変換部22に入力されている行列データと、教師ラベル入力部23に入力されている行列データを用いてニューラルネットワークモデルのディープラーニングを用いた学習を実施する。学習進行部242は、損失関数決定部241において決定された損失関数により示される指標が良くなるように学習を進めていく。例えば、決定された損失関数がAUC最大化である場合、学習の進行に応じてAUCの領域の面積が大きくなっていく。AUCの面積が大きいことは、検出器として性能が良いことに相当する。損失関数としてF1スコアを用いる場合も、学習の進行に応じて、F1スコアの値が向上する。学習進行部242において、一定以上学習が終わると、それ以上学習しても、損失関数はほとんど変化しなくなる。例えば、損失関数としてAUCを使用している場合、それ以上学習しても、AUCの面積はほとんど変化しなくなる。これは、AUCの面積が既に十分大きいことに相当する。損失関数としてF1スコアを用いた場合も、一定以上学習が終わるとF1スコアはほとんど変化しなくなる。そこで、学習進行部242は、損失関数がほとんど変化しなくなった場合、例えば、損失関数の変化率が予め定められた閾値未満になるまで学習を進める。このように、学習進行部242は、それ以上学習を進めても、損失関数決定部241により決定された損失関数の値が実質的に変わらなくなるまで十分学習して、学習済みモデルの判定器を構築する。ここでのディープラーニングのモデルは、ディープラーニングのU-net及びSegNet等のセグメンテーション手法が該当する。このセグメンテーション手法により、金物の腐食及び露筋等の劣化の領域を画像中から検出することが可能となる。一定以上の大きさの金物の腐食及び露筋等の劣化が発生している場合、補修又は補強を実施するため、腐食及び露筋等の劣化の有無の検出だけでなく、劣化の領域を検出することが重要である。さらに学習進行部242は、色空間変換部22が出力する行列データと教師ラベル入力部23が出力する行列データを用いて学習を行い、判定器の構築を行う。 The learning progress unit 242 in the learning unit 24 performs learning using deep learning of the neural network model using the matrix data input to the color space conversion unit 22 and the matrix data input to the teacher label input unit 23. implement. The learning progressing unit 242 advances learning so that the index indicated by the loss function determined by the loss function determining unit 241 improves. For example, if the determined loss function is AUC maximization, the area of the AUC region increases as learning progresses. A large area of AUC corresponds to good performance as a detector. When using the F1 score as a loss function, the value of the F1 score also improves as learning progresses. In the learning progression unit 242, once learning has been completed beyond a certain level, the loss function hardly changes even if learning is performed further. For example, when AUC is used as a loss function, the area of AUC hardly changes even if it learns further. This corresponds to the fact that the area of AUC is already sufficiently large. Even when the F1 score is used as a loss function, the F1 score hardly changes after a certain level of learning is completed. Therefore, when the loss function hardly changes, the learning progressing unit 242 advances the learning until, for example, the rate of change of the loss function becomes less than a predetermined threshold. In this way, the learning progressing unit 242 performs sufficient learning until the value of the loss function determined by the loss function determining unit 241 does not substantially change even if the learning is further advanced, and then uses the determiner of the trained model. To construct. The deep learning model here corresponds to deep learning segmentation methods such as U-net and SegNet. This segmentation method makes it possible to detect areas of deterioration such as corrosion and exposed streaks on metal objects from the image. If corrosion or deterioration such as exposed streaks occurs on hardware of a certain size or more, in order to carry out repair or reinforcement, it not only detects the presence or absence of corrosion and deterioration such as exposed streaks, but also detects areas of deterioration. It is important to. Furthermore, the learning progression unit 242 performs learning using the matrix data output by the color space conversion unit 22 and the matrix data output by the teacher label input unit 23, and constructs a determiner.

さらに、この学習進行部242は、色空間変換部22が出力する行列データを構築した判定器によって処理した行列データ(劣化の予測値)と教師ラベル入力部23が出力する行列データからROC曲線を生成する。損失関数としてF1スコアにより学習させた場合においても、学習結果に基づきROC曲線が生成される。学習進行部242は、図8に示すようにユークリッド距離が最小となるような閾値hを定める。図8は、ROC曲線に基づき閾値hを定める処理を説明する図である。図8に示すように、学習進行部242は、座標(0,1)とROC曲線とのユークリッド距離が最小となる閾値hを決定する。 Further, the learning progressing unit 242 calculates an ROC curve from the matrix data (predicted value of deterioration) processed by the determiner that constructed the matrix data output by the color space conversion unit 22 and the matrix data output by the teacher label input unit 23. generate. Even when learning is performed using the F1 score as a loss function, an ROC curve is generated based on the learning results. The learning progressing unit 242 determines a threshold value h that minimizes the Euclidean distance, as shown in FIG. FIG. 8 is a diagram illustrating the process of determining the threshold h based on the ROC curve. As shown in FIG. 8, the learning progressing unit 242 determines a threshold value h that minimizes the Euclidean distance between the coordinates (0, 1) and the ROC curve.

判定部30の画像入力部31は、撮影画像の入力を行う。画像入力部31は、教師画像入力部21と同様に撮影画像をビットマップ画像の行列データとして格納する。ここで、入力する画像は、教師画像入力部21に入力した画像とは異なる画像である。 The image input unit 31 of the determination unit 30 inputs captured images. The image input unit 31 stores captured images as bitmap image matrix data, similar to the teacher image input unit 21. Here, the input image is a different image from the image input to the teacher image input section 21.

判定部30の色空間変換部32は、判定器構築部20における色空間変換部22と同様の処理で判定部30の画像入力部31で入力されたビットマップ画像の色空間を変換する機能を持つ。ここで、重要なのは、判定器構築部20の色空間変換部22で指定した同様の色空間に変換を行うことである。判定器構築部20の学習部24で判定器を作成する際に用いた色空間と同様の色空間配列にすることよって、判定精度が向上する。 The color space conversion unit 32 of the determination unit 30 has a function of converting the color space of the bitmap image input by the image input unit 31 of the determination unit 30 using the same process as the color space conversion unit 22 of the determination unit construction unit 20. have What is important here is that the color space conversion unit 22 of the determiner construction unit 20 performs conversion to a similar color space specified. By using the same color space arrangement as the color space used when creating the determiner in the learning unit 24 of the determiner construction unit 20, the determination accuracy is improved.

判定部30における判定器格納部33は、判定器構築部20にて生成された判定器を格納する。判定器格納部33は、色空間変換部32から入力する行列データに対して、判定器を用いて演算処理を行う。演算処理の結果により出力されるデータは、画像入力部31に入力された撮影画像の各画素が劣化の領域か否かを推定した結果を示す、1層の行列データである。判定器格納部33が出力する劣化の領域か否かを推定した結果は、各画素について0以上1以下の値を示すものとなる。 The determiner storage unit 33 in the determiner 30 stores the determiner generated by the determiner construction unit 20. The determiner storage unit 33 performs arithmetic processing on the matrix data input from the color space converter 32 using a determiner. The data output as a result of the arithmetic processing is one-layer matrix data indicating the result of estimating whether each pixel of the captured image input to the image input unit 31 is in a degraded area. The result of estimating whether or not the pixel is in a degraded area outputted by the determiner storage unit 33 indicates a value of 0 or more and 1 or less for each pixel.

図9は、図2の劣化検出装置10が備えるフィルタリング部40の構成例を示す図である。フィルタリング部40は、二値化処理部41、連結性認識部42、及び除去部43を備える。 FIG. 9 is a diagram showing a configuration example of the filtering section 40 included in the deterioration detection device 10 of FIG. 2. As shown in FIG. The filtering section 40 includes a binarization processing section 41, a connectivity recognition section 42, and a removal section 43.

二値化処理部41は、判定部30における判定器格納部33から出力される行列データの二値化処理を行う機能を持つ。二値化処理を行う際の閾値は学習部24における学習進行部242で出力される閾値hを用いる。すなわち、二値化処理部41は、行列データにより示される推定結果を示す値が閾値h以上の画素の値を1とし、閾値h未満の画素の値を0とする。 The binarization processing unit 41 has a function of performing binarization processing of matrix data output from the judge storage unit 33 in the judgment unit 30. The threshold value h output by the learning progressing section 242 in the learning section 24 is used as the threshold value when performing the binarization process. That is, the binarization processing unit 41 sets the value of a pixel whose value indicating the estimation result indicated by the matrix data is equal to or greater than the threshold h to a value of 1, and sets the value of a pixel whose value is less than the threshold h to a value of 0.

フィルタリング部40における連結性認識部42は、二値化処理後の行列データに対し、「1」が入力されている要素の連結要素数をカウントする。「連結要素数」は、同じ値を有する要素が連結して形成される領域に含まれる要素数と定義される。同じ値を有する要素が連結して形成される領域を「連結要素」という。「連結」とは、図10Aに示すように注目要素71の周辺を囲む8要素が注目要素と同じ数値を有しているかどうかによって定義される。注目要素に対して上下左右の要素に着眼し、上下左右の画素のいずれかが注目画素と同様の場合は「4近傍連結」、注目要素に対して周辺を囲む8要素に着眼する場合は「8近傍連結」として定義する。ここでは、二値化処理後に「1」が入力されている要素を注目要素とする。注目要素を起点として、どの程度の要素が連結しているかのカウントを行う。4近傍か8近傍かの設定は、ユーザの設定等に応じて任意に行うことができる。カウントが完了すると、連結性認識部42は、「1」が入力されている要素の連結要素数に関する数値データを持つこととなる。 The connectivity recognition unit 42 in the filtering unit 40 counts the number of connected elements of elements in which “1” is input in the matrix data after the binarization process. The "number of connected elements" is defined as the number of elements included in a region formed by connecting elements having the same value. A region formed by connecting elements having the same value is called a "connected element." "Connection" is defined by whether the eight elements surrounding the attention element 71 have the same numerical value as the attention element, as shown in FIG. 10A. Focusing on the elements on the top, bottom, left and right of the target element, if any of the pixels on the top, bottom, left and right sides are the same as the target pixel, "4-neighbor connection" is used, and when focusing on the 8 elements surrounding the target element, " 8-neighbor connection. Here, the element for which "1" has been input after the binarization process is the element of interest. Starting from the element of interest, count how many elements are connected. The setting of 4-neighborhood or 8-neighborhood can be made arbitrarily depending on the user's settings and the like. When the counting is completed, the connectivity recognition unit 42 will have numerical data regarding the number of connected elements for the elements for which "1" has been input.

図10Bに8近傍連結の場合の例を示す。注目要素71に対しては、右上の要素のみが連結している。注目要素の右上の要素に対しては、右の要素が連結している(左下の要素71はすでにカウント済み)。その右の要素に対しては、左の要素(これもすでにカウント済み)以外に連結している要素はない。従って、図10Bの例における連結要素数は3となる。 FIG. 10B shows an example of 8-neighbor connection. For the element of interest 71, only the upper right element is connected. The element on the right is connected to the element on the upper right of the element of interest (element 71 on the lower left has already been counted). There are no elements connected to the element on the right other than the element on the left (which has already been counted). Therefore, the number of connected elements in the example of FIG. 10B is three.

除去部43は、予め定められた1以上の整数である予め定められた閾値kを設定して、連結要素数が閾値k未満の要素に対して、その要素の値を「0」に置き換える処理を行う。つまり、除去部43は、連結性認識部42がカウントした連結要素数が閾値k未満の画素領域はノイズであると判断し、その領域が劣化を示す領域として劣化検出装置10の出力結果に含まれないよう、当該領域の画素を「0」に置き換える処理を行う。 The removal unit 43 sets a predetermined threshold k that is a predetermined integer of 1 or more, and replaces the value of the element with "0" for an element whose number of connected elements is less than the threshold k. I do. In other words, the removal unit 43 determines that a pixel area in which the number of connected elements counted by the connectivity recognition unit 42 is less than the threshold k is noise, and includes that area in the output result of the deterioration detection device 10 as an area indicating deterioration. To avoid this, the pixels in the area are replaced with "0".

図11A及び図11Bは、k=200として処理を行ったデータを示す。図11Aは、二値化処理後のデータの一例を示す図である。図11Bは、フィルタリング処理後のデータの一例を示す図である。図11Bでは、図11Aにおいて値「1」(白)として表示されている画素の一部が、値「0」(黒)に置き換わっている。ここで、金物の腐食及び露筋等の劣化においては、8近傍連結が有効となる。なぜならば、腐食及び露筋は画像において不特定方向に広がるため、注目画素の周辺をすべて連結として考慮した方が実態をよく反映するためである。4近傍連結は、8近傍連結と比べて連結する確率が下がる。そのため、実際にはつながっていると評価すべき腐食及び露筋領域等の劣化が分断されてしまうケースが発生してしまい、値「0」(黒)に置き換えるべきではない腐食又は露筋等の劣化領域が「0」(黒)に置き変わってしまうケースが発生する。4近傍連結は、幾何学的な図形のように連結方向が予想できる問題に対して有効性が高い。除去部43において、一定以上の大きな画素領域を有する金物の腐食及び露筋といった構造物に対して影響の大きい劣化領域のみを出力することによって、出力結果を人間が確認する作業の手間を軽減することができる。 FIGS. 11A and 11B show data processed with k=200. FIG. 11A is a diagram showing an example of data after binarization processing. FIG. 11B is a diagram illustrating an example of data after filtering processing. In FIG. 11B, some of the pixels displayed as the value "1" (white) in FIG. 11A are replaced with the value "0" (black). Here, 8-neighbor connection is effective for corrosion of hardware and deterioration of exposed streaks. This is because corrosion and exposed streaks spread in an unspecified direction in an image, so it is better to consider the entire vicinity of the pixel of interest as a connection to better reflect the actual situation. 4-neighbor connection has a lower probability of connection than 8-neighbor connection. As a result, there are cases where deterioration such as corrosion and exposed streak areas that should be evaluated as being connected are separated, and corrosion or exposed streak areas that should not be replaced with a value of "0" (black) occur. A case may occur in which the degraded area is replaced with "0" (black). Four-neighbor connection is highly effective for problems where the direction of connection can be predicted, such as with geometric figures. The removal unit 43 outputs only degraded areas that have a large effect on structures, such as corrosion and exposed streaks on metal objects, which have a pixel area larger than a certain size, thereby reducing the effort required for humans to check the output results. be able to.

結果出力部50は、フィルタリング部40によって処理された結果をデジタルカメラ画像等と対比して出力する。例えば、結果出力部50は、モニタ又はディスプレイによってフィルタリング部40によって処理された結果を表示することができる。図12Aは、フィルタリング処理後のデータの一例を示す図である。図12Bは、劣化部分が示された画像の一例を示す図である。図12Bにおいては、劣化と判定された部分が強調表示73により区別して示されている。図12Bの例では、強調表示73は、ハッチングにより劣化部分を区別しているが、強調表示73はこれに限られない。例えば、強調表示73は、着色、縁取り、又はこれらの組み合わせ等としてもよい。これにより、ユーザは、強調表示73を手掛かりにして、撮像画像において劣化と判定された部分を容易に認識することが可能となる。 The result output unit 50 compares the results processed by the filtering unit 40 with a digital camera image and outputs the results. For example, the result output unit 50 can display the results processed by the filtering unit 40 on a monitor or display. FIG. 12A is a diagram illustrating an example of data after filtering processing. FIG. 12B is a diagram illustrating an example of an image showing degraded portions. In FIG. 12B, the portions determined to be deteriorated are distinguished by highlighting 73. In the example of FIG. 12B, the highlighted display 73 distinguishes degraded portions by hatching, but the highlighted display 73 is not limited to this. For example, the highlighted display 73 may be colored, bordered, or a combination thereof. Thereby, the user can easily recognize the portion determined to be degraded in the captured image using the highlighted display 73 as a clue.

上記のように、劣化検出装置10の制御部11は、撮影により得られた画像である教師画像と、教師画像において劣化部分を示す画素を特定する教師ラベルとを教師データとして機械学習された判定器を取得する。制御部11は、構造物を撮影して得られた撮影画像を取得し、撮影画像を予め定められた色空間に変換した上で、判定器を用いて、変換された撮影画像において構造物の劣化部分が占める領域を予測する。さらに、制御部11は、予測された領域のうち、予め定められた画素数以上の画素を含む領域を撮影画像の劣化領域として判定する。したがって、劣化検出装置10によれば、構造物に影響を及ぼしうる劣化を精度よく検出することができる。 As described above, the control unit 11 of the deterioration detection device 10 performs machine learning judgment using the teacher image, which is an image obtained by photographing, and the teacher label that specifies the pixel indicating the deteriorated part in the teacher image as the teacher data. Get the equipment. The control unit 11 acquires a photographed image obtained by photographing a structure, converts the photographed image into a predetermined color space, and uses a determiner to determine whether the structure is visible in the converted photographed image. Predict the area occupied by the degraded part. Further, the control unit 11 determines, among the predicted regions, a region including a predetermined number of pixels or more as a degraded region of the photographed image. Therefore, the deterioration detection device 10 can accurately detect deterioration that may affect the structure.

<実施の形態2>
図13は、本開示の実施の形態2に係る劣化検出装置10の機能構成を示す図である。実施の形態1では、フィルタリング部40は、連結要素数が予め定められた閾値k未満の値が「1」の要素の値を「0」に置き換える処理を行った。本実施形態では、フィルタリング部40において値が「1」の要素の値を「0」に置き換える際の基準となる連結要素数の閾値を機械学習により決定する構成について説明する。
<Embodiment 2>
FIG. 13 is a diagram showing the functional configuration of the deterioration detection device 10 according to Embodiment 2 of the present disclosure. In the first embodiment, the filtering unit 40 performs a process of replacing the value of an element whose number of connected elements is "1" and whose value is less than a predetermined threshold value k with "0". In this embodiment, a configuration will be described in which a threshold value for the number of connected elements, which is a reference when replacing the value of an element with a value of "1" with "0" in the filtering unit 40, is determined by machine learning.

本実施形態に係る劣化検出装置10は、実施の形態1に係る劣化検出装置10において、フィルタリング構築部60が追加された構造を有する。実施の形態1に係る劣化検出装置10が有する機能構成と同一のものについては詳細な説明を省略し、本実施形態に係る劣化検出装置10に特有の構成を中心に説明する。フィルタリング構築部60は、テスト画像入力部61、色空間変換部62、テストラベル入力部63、判定器格納部64、二値化処理部65、連結性認識部66、及び連結数決定部67を備える。 The deterioration detection device 10 according to the present embodiment has a structure in which a filtering construction section 60 is added to the deterioration detection device 10 according to the first embodiment. Detailed description of the same functional configuration as that of the deterioration detection device 10 according to the first embodiment will be omitted, and the description will focus on the configuration unique to the deterioration detection device 10 according to the present embodiment. The filtering construction section 60 includes a test image input section 61 , a color space conversion section 62 , a test label input section 63 , a judge storage section 64 , a binarization processing section 65 , a connectivity recognition section 66 , and a connection number determination section 67 . Be prepared.

フィルタリング構築部60におけるテスト画像入力部61は、教師画像入力部21と同様に撮影画像をビットマップ画像の行列データとして格納する。ここで、入力する画像は、教師画像入力部21に入力した画像とは異なる。ただし、テスト画像入力部61に入力される画像は、判定部30における画像入力部31と異なっていても、又は、同様の画像を含んでいてもよい。 Similar to the teacher image input unit 21, the test image input unit 61 in the filtering construction unit 60 stores captured images as bitmap image matrix data. Here, the image to be input is different from the image input to the teacher image input section 21. However, the image input to the test image input section 61 may be different from the image input section 31 in the determination section 30, or may include a similar image.

フィルタリング構築部60におけるテストラベル入力部63は、教師ラベル入力部23と同様に撮影画像において、画像の金物の腐食又は露筋等に該当する劣化の画素に「1」、それ以外の画素に「0」を対応させた行列データを入力する。ここで、テスト画像入力部61とテストラベル入力部63に入力するデータの数は任意である。ただし、これらのデータはペアになっている必要がある。 Similarly to the teacher label input unit 23, the test label input unit 63 in the filtering construction unit 60 assigns “1” to pixels in the photographed image that have deteriorated corresponding to corrosion or exposed streaks of metal in the image, and “1” to other pixels. 0" is input. Here, the number of data input to the test image input section 61 and the test label input section 63 is arbitrary. However, these data must be paired.

フィルタリング構築部60における色空間変換部62は、判定器構築部20における色空間変換部22と同様に、教師画像入力部21で入力されたビットマップ画像の色空間を変換する機能を持つ。ここで、重要なのは、フィルタリング構築部60における判定器格納部64に格納する判定器を作成する際に、判定器構築部20の色空間変換部22で指定した色空間と同様の色空間に変換を行うことである。判定器と同様の色空間配列を用いることによって、判定精度が向上する。 The color space conversion unit 62 in the filtering construction unit 60 has a function of converting the color space of the bitmap image input by the teacher image input unit 21, similarly to the color space conversion unit 22 in the determiner construction unit 20. What is important here is that when creating a determiner to be stored in the determiner storage unit 64 in the filtering construction unit 60, the color space is converted into a color space similar to the color space specified by the color space conversion unit 22 of the determination unit construction unit 20. It is to do. By using the same color space arrangement as the determiner, the determination accuracy is improved.

フィルタリング構築部60における判定器格納部64は、判定器構築部20の学習部24において作成した判定器を格納する機能を持つ。さらに、判定器格納部64は、フィルタリング構築部60における色空間変換部62にある行列データに対して判定器を用いて演算処理を行う機能を有する。演算処理の結果により出力されるデータは、1層の行列データであり、各行列の要素には0以上1以下の数値が入力されている。ここで、0から1の数値は「確信度」と呼ばれる。判定器構築部20の学習部24において判定器を構築する際に、画像の金物の腐食又は露筋に該当する劣化の画素に「1」、それ以外の画素に「0」として学習させた場合は、行列データの各要素が1に近いほど劣化、0に近いほど非劣化と判定器は判定することとなる。さらに、判定器格納部64は、判定結果とテストラベル入力部63で入力したデータを用いて、テスト画像入力部61で入力した撮影画像に対するROC曲線を作成する。 The determiner storage unit 64 in the filtering constructor 60 has a function of storing the determiner created in the learning unit 24 of the determiner constructor 20. Further, the determiner storage unit 64 has a function of performing arithmetic processing on the matrix data in the color space conversion unit 62 in the filtering construction unit 60 using a determiner. The data output as a result of the arithmetic processing is one-layer matrix data, and a numerical value between 0 and 1 is input into each matrix element. Here, the numerical value between 0 and 1 is called "confidence". When constructing a determiner in the learning unit 24 of the determiner constructing unit 20, if pixels with deterioration corresponding to corrosion or exposed streaks of metal in the image are trained as "1" and other pixels are trained as "0". The determiner determines that the closer each element of the matrix data is to 1, the more degraded, and the closer each element is to 0, the less degraded. Further, the determiner storage section 64 uses the determination result and the data inputted at the test label input section 63 to create an ROC curve for the captured image inputted at the test image input section 61.

フィルタリング構築部60における二値化処理部65は、閾値tを設定してフィルタリング構築部60における判定器格納部64によって判定された行列データの各要素を「0」もしくは「1」に二値化する。二値化する際の閾値tは、0から1の間で複数個設定する。閾値tは、0以上1以下の任意の正数である。閾値t=0.7の場合の例を図14に示す。図14は、判定器格納部64によって判定された行列データと二値化処理後の行列データの一例を示す図である。 The binarization processing unit 65 in the filtering construction unit 60 sets a threshold t and binarizes each element of the matrix data determined by the determiner storage unit 64 in the filtering construction unit 60 to “0” or “1”. do. A plurality of threshold values t for binarization are set between 0 and 1. The threshold value t is any positive number between 0 and 1. FIG. 14 shows an example where the threshold value t=0.7. FIG. 14 is a diagram showing an example of matrix data determined by the determiner storage unit 64 and matrix data after binarization processing.

フィルタリング構築部60における連結性認識部66は、フィルタリング構築部60における二値化処理部65によって二値化処理後の行列データに対し、「1」が入力されている要素の連結要素数をカウントする。閾値kを設定して、連結要素数が閾値k未満のものに対して要素を「0」に置き換える処理を行う。連結性認識部66は、閾値kの値を0から増やしていき複数の閾値kによって処理したデータを出力する。ただし、kは整数値である。kの最大値は、行列データの要素数となる。さらに、連結性認識部66は、フィルタリング構築部60における判定器格納部64により複数のtによって二値化された行列データのそれぞれにおいて、kを変更した際の結果を求める。データ数の合計は、設定した閾値tの数がi個、設定した閾値kの数がj個だったとすると、「i×j×(テスト画像入力部61に入力された撮影画像枚数)」となる。 The connectivity recognition unit 66 in the filtering construction unit 60 counts the number of connected elements of elements for which “1” is input with respect to the matrix data that has been binarized by the binarization processing unit 65 in the filtering construction unit 60. do. A threshold value k is set, and processing is performed to replace elements with "0" for those whose number of connected elements is less than the threshold value k. The connectivity recognition unit 66 increases the value of the threshold value k from 0 and outputs data processed using a plurality of threshold values k. However, k is an integer value. The maximum value of k becomes the number of elements of matrix data. Furthermore, the connectivity recognition unit 66 obtains the result when k is changed in each of the matrix data binarized by a plurality of t's by the determiner storage unit 64 in the filtering construction unit 60. If the number of set thresholds t is i and the number of set thresholds k is j, the total number of data is "i x j x (number of captured images input to the test image input section 61)". Become.

フィルタリング構築部60における連結数決定部67は、連結性認識部66において、算術された合計のデータ数「i×j×(テスト画像入力部に入力された撮影画像枚数)」個の行列データを判定結果(Predicted)とし、テストラベル入力部63に入力された行列データを真値(Actual)として、ROC曲線を作成する。図15は、金物の腐食の撮影画像によって作成されたROC曲線の一例を示す図である。図15のROC曲線は、閾値tを変更させながら、k=0,10,20,50に設定した際のROC曲線である。k=0のROC曲線よりもkを変更した方が、TPRが増え、FPRが減っている箇所がある。この連結性認識部66では、kを様々に変更した際のROC曲線を作成する機能を持つ。 The connection number determining unit 67 in the filtering construction unit 60 calculates the matrix data of the arithmetic total number of data “i×j×(number of captured images input to the test image input unit)” in the connectivity recognition unit 66. An ROC curve is created using the determination result (Predicted) and the matrix data input to the test label input section 63 as the true value (Actual). FIG. 15 is a diagram showing an example of an ROC curve created from photographed images of corrosion of metal objects. The ROC curve in FIG. 15 is an ROC curve when the threshold value t is changed and set to k=0, 10, 20, and 50. There are places where TPR increases and FPR decreases when k is changed compared to the ROC curve with k=0. This connectivity recognition unit 66 has a function of creating ROC curves when k is changed variously.

その後、図16に示すように、連結数決定部67は、k=a(aは正の整数)の際にユークリッド距離が最小となるような閾値の値tと値kの組み合わせを求める。連結数決定部67の機能により、TPRの向上とFPRの低下が実現できる。図16は、ROC曲線に基づき閾値t及び閾値kを求める処理を説明する図である。図16のように、連結数決定部67は、座標(0,1)とROC曲線とのユークリッド距離が最小となる閾値tと閾値kの組み合わせを決定する。金物の腐食及び露筋については、錆汁及び汚れ等により劣化領域以外が劣化として判定されるケースが発生しうるが、検出された領域の大きさから非劣化領域と判断することによって、判定器の性能をさらに向上させることができる。 Thereafter, as shown in FIG. 16, the number of connections determination unit 67 finds a combination of the threshold value t and the value k that minimizes the Euclidean distance when k=a (a is a positive integer). The function of the number of connections determining section 67 can improve TPR and reduce FPR. FIG. 16 is a diagram illustrating a process for determining the threshold value t and the threshold value k based on the ROC curve. As shown in FIG. 16, the number of connections determining unit 67 determines the combination of the threshold t and the threshold k that minimizes the Euclidean distance between the coordinates (0, 1) and the ROC curve. Regarding corrosion and exposed streaks on hardware, there may be cases where areas other than deteriorated areas are determined to be deteriorated due to rust juices, dirt, etc. performance can be further improved.

連結数決定部67で決定された閾値kは、フィルタリング部40における除去部43に入力することができる。また、連結数決定部67で決定された閾値tは、判定部30の判定器格納部33に格納された判定器の閾値として入力し、判定器の閾値を更新する。除去部43では、閾値kに基づき、フィルタリング部40における連結性認識部42により処理された行列データに対して、連結要素数が閾値k未満のものに対して要素を「0」に置き換える処理を行う。このフィルタリング部40の機能により、判定器を用いて劣化領域のセグメンテーション手法による検出が行える。連結数決定部67で決定された閾値kを用いることによって、判定部30の画像入力部31に入力された撮影画像における劣化部の検出精度を向上させることができる。 The threshold value k determined by the number of connections determining section 67 can be input to the removing section 43 in the filtering section 40 . Further, the threshold value t determined by the number of connections determining unit 67 is input as the threshold value of the determiner stored in the determiner storage unit 33 of the determining unit 30, and the threshold value of the determiner is updated. Based on the threshold value k, the removal unit 43 performs a process of replacing the elements of the matrix data processed by the connectivity recognition unit 42 in the filtering unit 40 with “0” for those whose number of connected elements is less than the threshold value k. conduct. This function of the filtering unit 40 allows detection of degraded regions by a segmentation method using a determiner. By using the threshold value k determined by the number of connections determining section 67, it is possible to improve the detection accuracy of degraded portions in the captured image input to the image input section 31 of the determining section 30.

<動作例>
上記実施形態に係る劣化検出装置10の動作について、図17を参照して説明する。図17は、本開示の一実施形態に係る劣化検出装置10の動作の一例を示すフローチャートである。図17を参照して説明する劣化検出装置10の動作は本実施形態に係る劣化検出方法に相当する。図17の各ステップの動作は制御部11の制御に基づき実行される。本実施形態に係る劣化検出方法をコンピュータに実行させるためのプログラムは、図17に示す各ステップを含む。
<Operation example>
The operation of the deterioration detection device 10 according to the above embodiment will be explained with reference to FIG. 17. FIG. 17 is a flowchart illustrating an example of the operation of the deterioration detection device 10 according to an embodiment of the present disclosure. The operation of the deterioration detection device 10 described with reference to FIG. 17 corresponds to the deterioration detection method according to this embodiment. The operations of each step in FIG. 17 are executed under the control of the control section 11. A program for causing a computer to execute the deterioration detection method according to this embodiment includes each step shown in FIG. 17.

ステップS1において、制御部11は、撮影により得られた画像である教師画像と、教師画像において劣化部分を示す画素を特定する教師ラベルとを教師データとして機械学習を行い、判定器を生成する。このステップの詳細な動作内容は、判定器構築部20の動作と同一である。 In step S1, the control unit 11 performs machine learning using a teacher image, which is an image obtained by photographing, and a teacher label specifying a pixel indicating a degraded portion in the teacher image as teacher data, and generates a determiner. The detailed operation of this step is the same as the operation of the determiner construction unit 20.

ステップS2において、制御部11は、劣化部分と判定すべき領域が有すべき連結要素数を決定する。すなわち、制御部11は、教師画像と異なるテスト画像と、テスト画像において劣化部分を示す画素を特定するテストラベルとを用いて、ROC曲線を取得する。制御部11は、ROC曲線に基づき、判定器を用いて、劣化部分が占めるとして予測された領域のうち、劣化領域として判定すべき領域が少なくとも有する画素数の閾値を決定する。このステップの詳細な動作内容は、フィルタリング構築部60の動作と同一である。このステップにより、劣化部分と判定すべき領域が有すべき連結要素数を予め定められた固定値とした場合よりも、より適切に劣化部分を判定することができる。なお、このステップはオプションであり、省略してもよい。 In step S2, the control unit 11 determines the number of connected elements that a region to be determined as a deteriorated portion should have. That is, the control unit 11 obtains the ROC curve using a test image different from the teacher image and a test label that specifies pixels indicating degraded portions in the test image. Based on the ROC curve, the control unit 11 uses a determiner to determine a threshold value for at least the number of pixels that an area to be determined as a deteriorated area has, among the areas predicted to be occupied by the deteriorated part. The detailed operation of this step is the same as the operation of the filtering construction unit 60. By this step, it is possible to determine a degraded portion more appropriately than when the number of connected elements that a region to be determined as a degraded portion should have is set to a predetermined fixed value. Note that this step is optional and may be omitted.

ステップS3において、制御部11は、構造物を撮影して得られた撮影画像を取得する。このステップの詳細な動作内容は、画像入力部31の動作と同一である。 In step S3, the control unit 11 obtains a photographed image obtained by photographing the structure. The detailed operation of this step is the same as the operation of the image input section 31.

ステップS4において、制御部11は、ステップS3で取得した撮影画像を予め定められた色空間に変換する。具体的には、制御部11は、撮影画像を、予め定められた色空間として、例えば、HSV色空間又はL色空間等の、RGB色空間よりも人間の視覚がより反映された色空間に変換する。このステップにより、人間の視覚がより反映された精度のよい劣化検出を行うことができる。このステップの詳細な動作内容は、色空間変換部32の動作と同一である。In step S4, the control unit 11 converts the captured image acquired in step S3 into a predetermined color space. Specifically, the control unit 11 converts the photographed image into a predetermined color space, such as an HSV color space or an L * a * b * color space, which better reflects human vision than an RGB color space. color space. This step enables highly accurate deterioration detection that more closely reflects human vision. The detailed operation of this step is the same as the operation of the color space converter 32.

ステップS5において、制御部11は、ステップS1で取得した判定器を用いて、ステップS4で変換された撮影画像において構造物の劣化部分が占める領域を予測する。このステップの詳細な動作内容は、判定器格納部33の動作と同一である。 In step S5, the control unit 11 uses the determiner acquired in step S1 to predict the area occupied by the degraded portion of the structure in the captured image converted in step S4. The detailed operation of this step is the same as the operation of the determiner storage section 33.

ステップS6において、制御部11は、ステップS5で劣化部分が占めると予測された領域のうち、予め定められた画素数以上の画素を含む領域を撮影画像の劣化領域として判定する。ステップS2の処理が行われた場合は、予測された領域のうち、予め定められた画素数として、ステップS2で決定した閾値以上の画素を含む領域を撮影画像の劣化領域として判定する。このステップにより、構造物にとって影響のない微小な劣化を削除して、劣化部分を適切に判定することができる。このステップの詳細な動作内容は、フィルタリング部40の動作と同一である。 In step S6, the control unit 11 determines, as a degraded region of the photographed image, an area that includes a predetermined number of pixels or more among the regions predicted to be occupied by the degraded portion in step S5. When the process of step S2 is performed, a region including a predetermined number of pixels equal to or more than the threshold determined in step S2 among the predicted regions is determined as a degraded region of the photographed image. Through this step, it is possible to remove minute deterioration that has no effect on the structure and appropriately determine the deteriorated portion. The detailed operation of this step is the same as the operation of the filtering section 40.

ステップS7において、制御部11は、撮影画像を、劣化領域に含まれる領域と、劣化領域に含まれない領域とを区別してモニタ又はディスプレイ等の表示手段(結果出力部50)に表示させる。このステップにより、ユーザは、撮像画像において劣化と判定された部分を容易に認識することができる。そして、制御部11は、処理を終了する。 In step S7, the control unit 11 displays the captured image on a display means (result output unit 50) such as a monitor or a display, distinguishing between areas included in the degraded area and areas not included in the degraded area. This step allows the user to easily recognize the portion of the captured image that is determined to be degraded. Then, the control unit 11 ends the process.

本開示は上述の実施形態に限定されるものではない。例えば、ブロック図に記載の複数のブロックは統合されてもよいし、又は1つのブロックは分割されてもよい。フローチャートに記載の複数のステップは、記述に従って時系列に実行する代わりに、各ステップを実行する装置の処理能力に応じて、又は必要に応じて、並列的に又は異なる順序で実行されてもよい。その他、本開示の趣旨を逸脱しない範囲での変更が可能である。 The present disclosure is not limited to the embodiments described above. For example, multiple blocks depicted in the block diagram may be combined, or one block may be divided. Instead of being performed chronologically according to the description, the steps described in the flowchart may be performed in parallel or in a different order depending on the processing power of the device performing each step or as necessary. . Other changes are possible without departing from the spirit of the present disclosure.

10 劣化検出装置
11 制御部
12 記憶部
13 通信部
14 入力部
15 出力部
20 判定器構築部
21 教師画像入力部
22 色空間変換部
23 教師ラベル入力部
24 学習部
241 損失関数決定部
242 学習進行部
30 判定部
31 画像入力部
32 色空間変換部
33 判定器格納部
40 フィルタリング部
41 二値化処理部
42 連結性認識部
43 除去部
50 結果出力部
60 フィルタリング構築部
61 テスト画像入力部
62 色空間変換部
63 テストラベル入力部
64 判定器格納部
65 二値化処理部
66 連結性認識部
67 連結数決定部
10 Deterioration detection device 11 Control unit 12 Storage unit 13 Communication unit 14 Input unit 15 Output unit 20 Determiner construction unit 21 Teacher image input unit 22 Color space conversion unit 23 Teacher label input unit 24 Learning unit 241 Loss function determination unit 242 Learning progress Section 30 Judgment section 31 Image input section 32 Color space conversion section 33 Judgment storage section 40 Filtering section 41 Binarization processing section 42 Connectivity recognition section 43 Removal section 50 Result output section 60 Filtering construction section 61 Test image input section 62 Color Space conversion section 63 Test label input section 64 Judgment device storage section 65 Binarization processing section 66 Connectivity recognition section 67 Connection number determination section

Claims (6)

撮影により得られた画像である教師画像と、当該教師画像において撮影対象の劣化部分を示す画素を特定する教師ラベルとを教師データとして機械学習された判定器を取得し、
構造物を撮影して得られた撮影画像を取得し、
前記撮影画像を予め定められた色空間に変換し、
前記判定器を用いて、前記変換された前記撮影画像において前記構造物の劣化部分が占める領域を予測し、
予測された前記領域のうち、予め定められた画素数以上の画素を含む領域を前記撮影画像において前記構造物に影響を及ぼしうる劣化部分が占める領域である劣化領域として判定する
制御部を備え
前記制御部は、
前記教師画像と異なるテスト画像と、当該テスト画像において撮影対象の劣化部分を示す画素を特定するテストラベルとを用いて、ROC曲線を取得し、
前記ROC曲線に基づき、予測された前記領域のうち、前記劣化領域として判定すべき領域が少なくとも有する画素数の閾値を決定し、
予測された前記領域のうち、前記予め定められた画素数として、前記閾値以上の画素を含む領域を前記劣化領域として判定す
化検出装置。
Obtaining a machine learning determiner using a teacher image, which is an image obtained by photography, and a teacher label that specifies a pixel in the teacher image that indicates a deteriorated portion of the photographed object as training data,
Obtain images obtained by photographing structures,
converting the photographed image into a predetermined color space;
predicting an area occupied by a deteriorated portion of the structure in the converted captured image using the determiner;
A control unit that determines, of the predicted area , an area including a predetermined number of pixels or more as a degraded area that is an area occupied by a degraded portion that may affect the structure in the photographed image. ,
The control unit includes:
Obtaining an ROC curve using a test image different from the teacher image and a test label that specifies a pixel in the test image that indicates a degraded portion of the photographic target,
Based on the ROC curve, determine a threshold value for the number of pixels that an area to be determined as the deteriorated area has at least among the predicted areas;
Determining, as the degraded region, a region that includes pixels of the predetermined number of pixels equal to or greater than the threshold value among the predicted regions ;
Deterioration detection device.
前記制御部は、前記教師画像と当該教師画像についての前記教師ラベルとを教師データとして機械学習を行い、前記判定器を生成する、請求項1に記載の劣化検出装置。 The deterioration detection device according to claim 1, wherein the control unit generates the determiner by performing machine learning using the teacher image and the teacher label for the teacher image as teacher data. 前記制御部は、前記撮影画像を、前記予め定められた色空間として、HSV色空間又はL*a*b*色空間に変換する、請求項1又は2に記載の劣化検出装置。 The deterioration detection device according to claim 1 or 2 , wherein the control unit converts the photographed image into an HSV color space or an L*a*b* color space as the predetermined color space. 前記制御部は、前記撮影画像を、前記劣化領域に含まれる領域と、前記劣化領域に含まれない領域とを区別して表示手段に表示させる、請求項1からのいずれか1項に記載の劣化検出装置。 4. The control unit displays the photographed image on a display means by distinguishing between an area included in the degraded area and an area not included in the degraded area. Deterioration detection device. 劣化検出装置の制御部が、
撮影により得られた画像である教師画像と、当該教師画像において撮影対象の劣化部分を示す画素を特定する教師ラベルとを教師データとして機械学習された判定器を取得し、
構造物を撮影して得られた撮影画像を取得し、
前記撮影画像を予め定められた色空間に変換し、
前記判定器を用いて、前記変換された前記撮影画像において前記構造物の劣化部分が占める領域を予測し、
予測された前記領域のうち、予め定められた画素数以上の画素を含む領域を前記撮影画像において前記構造物に影響を及ぼしうる劣化部分が占める領域である劣化領域として判定する
劣化検出方法において、
前記制御部は、
前記教師画像と異なるテスト画像と、当該テスト画像において撮影対象の劣化部分を示す画素を特定するテストラベルとを用いて、ROC曲線を取得し、
前記ROC曲線に基づき、予測された前記領域のうち、前記劣化領域として判定すべき領域が少なくとも有する画素数の閾値を決定し、
予測された前記領域のうち、前記予め定められた画素数として、前記閾値以上の画素を含む領域を前記劣化領域として判定する、
劣化検出方法
The control section of the deterioration detection device
Obtaining a machine learning determiner using a teacher image, which is an image obtained by photography, and a teacher label that specifies a pixel in the teacher image that indicates a degraded portion of the photographed object as teacher data,
Obtain images obtained by photographing structures,
converting the photographed image into a predetermined color space;
predicting an area occupied by a deteriorated portion of the structure in the converted captured image using the determiner;
In the deterioration detection method , an area including a predetermined number of pixels or more among the predicted areas is determined as a deteriorated area that is an area occupied by a deteriorated part that may affect the structure in the photographed image. ,
The control unit includes:
Obtaining an ROC curve using a test image different from the teacher image and a test label that specifies a pixel in the test image that indicates a degraded portion of the photographic target,
Based on the ROC curve, determine a threshold value of the number of pixels that an area to be determined as the deteriorated area has at least among the predicted areas;
Determining, as the degraded region, a region that includes pixels of the predetermined number of pixels equal to or more than the threshold value among the predicted regions;
Deterioration detection method .
コンピュータを請求項1からのいずれか1項に記載の劣化検出装置として機能させるプログラム。 A program that causes a computer to function as the deterioration detection device according to any one of claims 1 to 4 .
JP2022555012A 2020-10-06 2020-10-06 Deterioration detection device, deterioration detection method, and program Active JP7410442B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/037908 WO2022074746A1 (en) 2020-10-06 2020-10-06 Deterioration detection apparatus, deterioration detection method, and program

Publications (2)

Publication Number Publication Date
JPWO2022074746A1 JPWO2022074746A1 (en) 2022-04-14
JP7410442B2 true JP7410442B2 (en) 2024-01-10

Family

ID=81125722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022555012A Active JP7410442B2 (en) 2020-10-06 2020-10-06 Deterioration detection device, deterioration detection method, and program

Country Status (2)

Country Link
JP (1) JP7410442B2 (en)
WO (1) WO2022074746A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7498524B1 (en) 2023-05-02 2024-06-12 株式会社カナヤ食品 Method for generating teacher data, foreign body inspection device, foreign body inspection method, and foreign body detection program
JP7531200B1 (en) 2023-12-18 2024-08-09 株式会社日立パワーソリューションズ Wind turbine blade repair support device and wind turbine blade repair support method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010032511A (en) 2008-06-30 2010-02-12 Denro Corp Method and device for diagnosing coating degradation
JP2012013675A (en) 2010-05-31 2012-01-19 Tohoku Electric Power Co Inc Device and method for analyzing corrosion inside steel pipe
JP2013167596A (en) 2012-02-17 2013-08-29 Honda Motor Co Ltd Defect inspection device, defect inspection method, and program
JP2019194562A (en) 2018-04-26 2019-11-07 キヤノン株式会社 Information processing device, information processing method and program
JP2020085546A (en) 2018-11-19 2020-06-04 国立研究開発法人産業技術総合研究所 System for supporting inspection and repair of structure
JP2020125980A (en) 2019-02-05 2020-08-20 西日本旅客鉄道株式会社 Deterioration level determination device, deterioration level determination method, and program
JP2020136368A (en) 2019-02-15 2020-08-31 東京エレクトロン株式会社 Image generation apparatus, inspection apparatus, and image generation method
JP2020186938A (en) 2019-05-10 2020-11-19 富士フイルム株式会社 Inspection method, inspection device, program, and printing device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010032511A (en) 2008-06-30 2010-02-12 Denro Corp Method and device for diagnosing coating degradation
JP2012013675A (en) 2010-05-31 2012-01-19 Tohoku Electric Power Co Inc Device and method for analyzing corrosion inside steel pipe
JP2013167596A (en) 2012-02-17 2013-08-29 Honda Motor Co Ltd Defect inspection device, defect inspection method, and program
JP2019194562A (en) 2018-04-26 2019-11-07 キヤノン株式会社 Information processing device, information processing method and program
JP2020085546A (en) 2018-11-19 2020-06-04 国立研究開発法人産業技術総合研究所 System for supporting inspection and repair of structure
JP2020125980A (en) 2019-02-05 2020-08-20 西日本旅客鉄道株式会社 Deterioration level determination device, deterioration level determination method, and program
JP2020136368A (en) 2019-02-15 2020-08-31 東京エレクトロン株式会社 Image generation apparatus, inspection apparatus, and image generation method
JP2020186938A (en) 2019-05-10 2020-11-19 富士フイルム株式会社 Inspection method, inspection device, program, and printing device

Also Published As

Publication number Publication date
WO2022074746A1 (en) 2022-04-14
JPWO2022074746A1 (en) 2022-04-14

Similar Documents

Publication Publication Date Title
Hoang et al. Metaheuristic optimized edge detection for recognition of concrete wall cracks: a comparative study on the performances of roberts, prewitt, canny, and sobel algorithms
JP7569479B2 (en) DEFECT DETECTION METHOD, APPARATUS AND SYSTEM
JP4369922B2 (en) Biological image collation device and collation method thereof
JP7410442B2 (en) Deterioration detection device, deterioration detection method, and program
TWI254891B (en) Face image detection method, face image detection system, and face image detection program
JP2020181532A (en) Image determination device and image determination method
US20040131236A1 (en) Method and apparatus for processing an image
CN113076993B (en) Information processing method and model training method for chest X-ray film recognition
CN114528913A (en) Model migration method, device, equipment and medium based on trust and consistency
JP6980208B2 (en) Structure maintenance work support system
KR102260556B1 (en) Deep learning-based parking slot detection method and apparatus integrating global and local information
CN112802034A (en) Image segmentation and recognition method, model construction method and device and electronic equipment
Rosenberger et al. Unsupervised and supervised image segmentation evaluation
WO2022230413A1 (en) Detection device, control method for detection device, method for generating model by model generation device that generates trained model, information processing program, and recording medium
JP7321452B2 (en) Program, information processing device, information processing method, and method for generating learned model
CN115690431A (en) Bar code image binarization method and device, storage medium and computer equipment
CN115512203A (en) Information detection method, device, equipment and storage medium
CN115311630A (en) Method and device for generating distinguishing threshold, training target recognition model and recognizing target
CN115374439A (en) Malicious code detection method and device and computer equipment
JP5251489B2 (en) Image processing apparatus and image processing program
CN116993653B (en) Camera lens defect detection method, device, equipment, storage medium and product
CN117474915B (en) Abnormality detection method, electronic equipment and storage medium
WO2023119663A1 (en) Tire inspection support device and method, and computer-readable medium
JP4381445B2 (en) Image characteristic determination processing apparatus, image characteristic determination processing method, program for executing the method, and computer-readable storage medium storing the program
CN117169286B (en) Industrial harness quality detection method under visual assistance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230124

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R150 Certificate of patent or registration of utility model

Ref document number: 7410442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150