JP6664557B2 - 変状検出装置 - Google Patents
変状検出装置 Download PDFInfo
- Publication number
- JP6664557B2 JP6664557B2 JP2019541566A JP2019541566A JP6664557B2 JP 6664557 B2 JP6664557 B2 JP 6664557B2 JP 2019541566 A JP2019541566 A JP 2019541566A JP 2019541566 A JP2019541566 A JP 2019541566A JP 6664557 B2 JP6664557 B2 JP 6664557B2
- Authority
- JP
- Japan
- Prior art keywords
- deformation
- learning model
- image
- unit
- sample image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 77
- 238000013527 convolutional neural network Methods 0.000 claims description 69
- 238000010276 construction Methods 0.000 claims description 57
- 238000000034 method Methods 0.000 claims description 33
- 230000009466 transformation Effects 0.000 claims description 30
- 238000012937 correction Methods 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 5
- 238000011426 transformation method Methods 0.000 claims 1
- 238000013500 data storage Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 21
- 238000011176 pooling Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 16
- 239000002244 precipitate Substances 0.000 description 13
- 238000002845 discoloration Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013434 data augmentation Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 1
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30132—Masonry; Concrete
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Pathology (AREA)
- Immunology (AREA)
- Biochemistry (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Description
例えば、変状の点検作業に画像の認識技術を用いる変状検出装置は、変状が生じているトンネルの壁面のサンプル画像を示す画像データを大量に収集し、大量の画像データを学習データとして使用して、事前に深層学習モデルを構築する。
変状検出装置は、変状検出対象物であるトンネルの壁面の画像を示す画像データが与えられると、当該画像データと構築した深層学習モデルとを用いて、変状検出対象物に生じている変状の分類結果を取得する(例えば、特許文献1を参照)。
例えば、変状がコンクリート面のひびである場合、コンクリート面のひびと特徴が近似しているコンクリート面の接線部分、あるいは、コンクリート面における線状の落書きを、誤って変状と検出してしまうことがある。
図1は、この発明の実施の形態1による変状検出装置を示す構成図である。
図2は、この発明の実施の形態1による変状検出装置を示すハードウェア構成図である。
図1及び図2において、サンプル画像変形部1は、例えば、図2に示すサンプル画像変形回路21で実現される。
サンプル画像変形部1は、データ保存部4から、変状の分類結果を出力する畳み込みニューラルネットワーク(CNN:Convolution Neural Network)の学習データとして、変状が含まれているサンプル画像を示す画像データを入力する。
サンプル画像変形部1は、サンプル画像を変形することで、サンプル画像を示す画像データを増やす処理として、例えば、「Data Augmentation」と呼ばれる処理を実施し、入力したサンプル画像を示す画像データ及び変形後のサンプル画像を示す画像データのそれぞれをデータ保存部4に出力する。
「Data Augmentation」と呼ばれる処理は、画像データに含まれている変状の特徴を失わない範囲で、当該画像データを例えばアファイン変換、回転変換、照度調整又はコントラスト調整することで、多くのサンプル画像を示す画像データを得る処理である。
学習モデル構築部2は、CNNの学習データとして、サンプル画像変形部1から出力されてデータ保存部4に保存されている複数の画像データを使用して、CNNの学習モデルを構築する処理を実施する。
また、学習モデル構築部2は、サンプル画像に含まれている変状の形状に対応する形状のカーネルを使用して、CNNからサンプル画像に含まれている変状の特徴を抽出し、抽出した特徴を学習することで、CNNの学習モデルを調整する処理を実施する。
学習モデル構築部2は、構築したCNNの学習モデルをデータ保存部4に出力する。
変状検出部3は、変状検出対象物の画像を示す画像データを、学習モデル構築部2から出力されてデータ保存部4に保存されているCNNに与えることで、CNNから出力される変状の分類結果を取得する処理を実施する。
変状検出部3は、取得した変状の分類結果をデータ保存部4に出力する。
データ保存部4は、サンプル画像を示す画像データ、サンプル画像に含まれている変状の種類を示すラベル情報、学習モデル構築部2により構築されたCNNの学習モデル、変状検出部3により取得された変状の分類結果、サンプル画像変形部1から出力されたサンプル画像を示す画像データなどを保存する。
表示部5は、例えば、図2に示す表示回路25で実現される。
表示部5は、データ保存部4により保存されている変状の分類結果及び変状検出対象物の画像などを表示する処理を実施する。
また、サンプル画像変形回路21、学習モデル構築回路22、変状検出回路23及び表示回路25は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
ソフトウェア又はファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいは、DSP(Digital Signal Processor)が該当する。
変状検出装置がソフトウェア又はファームウェアなどで実現される場合、データ保存部4をコンピュータのメモリ31上に構成するとともに、サンプル画像変形部1、学習モデル構築部2、変状検出部3及び表示部5の処理手順をコンピュータに実行させるためのプログラムをメモリ31に格納し、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行するようにすればよい。
図4は、変状検出装置がソフトウェア又はファームウェアなどで実現される場合の学習時の処理手順を示すフローチャートである。
図5は、変状検出装置がソフトウェア又はファームウェアなどで実現される場合の変状検出時の処理手順を示すフローチャートである。
この実施の形態1では、変状検出装置により検出される変状が、トンネルの壁面であるコンクリート面に生じる変状である例を説明する。
コンクリート面には、自然環境下での経年劣化によって、不規則な亀裂として、ひびが生じることがある。また、コンクリート面には、漏水の影響で、色が変化した箇所である変色箇所が生じることがある。
コンクリートの内部物質が析出物として、コンクリート面に現れることがある。
したがって、コンクリート面に生じる変状として、コンクリート面のひび、コンクリート面の変色及び析出物などが考えられる。
この実施の形態1では、トンネルの壁面に生じる変状を検出する例を説明するが、これに限るものではなく、例えば、ビルなどの一般的な建設物、あるいは、道路の路面に生じる変状を検出するものであってもよい。
トンネルの壁面であるコンクリート面は、例えば、デジタルカメラにより撮影され、デジタルカメラの撮像データが、コンクリート面の画像を示す画像データとして、データ保存部4に保存される。
この実施の形態1では、コンクリート面の画像を示す画像データが、RGBデータであるものを想定するが、これに限るものではなく、例えば、奥行き情報を含むRGB−Dデータ又はLiDAR(Light Detection And Ranging)点群データであってもよい。
この実施の形態1では、少なくとも、ひびが生じているコンクリート面のサンプル画像を示す画像データ、変色が生じているコンクリート面のサンプル画像を示す画像データ及び析出物が現れているコンクリート面のサンプル画像を示す画像データのそれぞれが、データ保存部4に保存される。
また、コンクリート面に生じている変状の種類を示すラベル情報が、サンプル画像を示す画像データと一緒にデータ保存部4に保存される。ラベル情報は、コンクリート面に生じている変状を識別したユーザによって事前に設定される情報である。
また、この実施の形態1では、説明の便宜上、画像サイズが400×400である正方形のサンプル画像の画像データがデータ保存部4に保存されるものとする。画像サイズとして示している400×400は、横方向及び縦方向の画素数を表している。以下、「〇〇×△△」という表記は、〇〇が横方向の画素数を表し、△△が縦方向の画素数を表しているものとする。
具体的には、サンプル画像を示す画像データがRGBデータである場合、画像サイズが400×400のRデータと、画像サイズが400×400のGデータと、画像サイズが400×400のBデータとがデータ保存部4に保存される。
サンプル画像変形部1は、学習モデル構築部2における学習モデルの構築処理の高速化を図るため、取得したサンプル画像を示す画像データを分割する。例えば、画像サイズが400×400である正方形のサンプル画像の画像データを64分割して、画像サイズが50×50のサンプル分割画像の画像データを得る。
サンプル画像変形部1がサンプル分割画像の画像データを得ることで、学習モデル構築部2では、画像サイズが小さいサンプル分割画像の画像データを扱うことができる。また、学習モデル構築部2では、64個のサンプル分割画像の画像データを同時に並列処理することが可能になる。このため、学習モデル構築部2において、画像サイズが大きいサンプル画像を示す画像データを扱う場合よりも、学習モデルの構築処理の高速化を図ることができる。
サンプル画像変形部1は、取得した各々のサンプル分割画像を示す画像データ及び変形を加えた各々のサンプル分割画像を示す画像データのそれぞれをデータ保存部4に出力する。
サンプル画像を変形して、画像データを増やすことは、学習モデルの構築精度を高める上で有用であることは知られている。
学習モデル構築部2は、取得した複数のサンプル画像を示す画像データを使用して、CNNの学習モデルを構築する(図4のステップST2)。
CNNの学習モデルを構築する処理自体は、公知の技術であるため、詳細な説明を省略する。
CNNは、変状の部分の特徴だけでなく、変状の周囲の特徴を抽出することができるようにするため、サンプル分割画像よりも小さいサイズのフィルタであるカーネルを利用して、サンプル分割画像に含まれている変状の特徴を抽出する層を含んでいるニューラルネットワークである。
図6は、CNNの一例を示す説明図である。
CNNは、図6に示すように、入力層、Conv層、Pooling層、全結合層及び出力層などを備えている。
Conv層は、カーネルの位置をサンプル分割画像の水平方向又は垂直方向に移動させながら、カーネルを利用して、サンプル分割画像から特徴をそれぞれ抽出し、それぞれ抽出した特徴の畳み込みを行う層である。
Pooling層は、Conv層により畳み込みが行われた特徴の情報を圧縮する層である。
全結合層は、Pooling層を通過してきた特徴を出力層における各々のノードに結合させる層である。
出力層は、サンプル分割画像に含まれている変状が、例えば、ひびである確率を示すノード、変色である確率を示すノード、析出物である確率を示すノード、変状ではない確率を示すノードを備える層である。
図7において、ブロック名は、CNNが備える層を示し、出力サイズは、各々の層から出力されるデータのサイズを示し、ブロックタイプは、フィルタであるカーネルのサイズなどを示している。
図7に示すCNNの前半部分は、ダウンサンプリング系のCNNであり、コンクリート面のひびを変状として検出するために、線形変状に対応する長方形のカーネルとして、サイズが3×9のカーネルと、サイズが9×3のカーネルとを使用する例を示している。
線形変状に対応する長方形のカーネルは、線形変状の領域を含む線形変状の周囲の領域に受容野を得るための細長いフィルタであり、カーネルのサイズは、入力される画像データのサイズ及びCNNの階層に基づいて計算される。カーネルのサイズを計算する処理自体は、公知の技術であるため詳細な説明を省略する。
CNNの処理が進行して、CNNの階層が変わるに従って受容野の範囲が広がる。
ConvLayer1_1は、入力層の後段に配置されている1番目のConv層であり、出力サイズが400×400×16である。
ConvLayer1_2は、ConvLayer1_1の後段に配置されている2番目のConv層であり、出力サイズが400×400×16である。
ConvLayer1_1及びConvLayer1_2は、サイズが3×9のカーネルとサイズが9×3のカーネルとを使用する。
(4)に示すPoolingは、ConvLayer1_2の後段に配置されている1番目のPooling層であり、2×2のカーネルを使用する。Pooling層では、Conv層により畳み込みが行われた特徴の情報を圧縮しているため、出力サイズが200×200×16に低減されている。
ConvLayer2_2は、ConvLayer2_1の後段に配置されている4番目のConv層であり、出力サイズが200×200×32である。
ConvLayer2_1及びConvLayer2_2は、サイズが3×9のカーネルとサイズが9×3のカーネルとを使用する。
(7)に示すPoolingは、ConvLayer2_2の後段に配置されている2番目のPooling層であり、2×2のカーネルを使用する。Pooling層では、Conv層により畳み込みが行われた特徴の情報を圧縮しているため、出力サイズが100×100×32に低減されている。
ConvLayer3_2は、ConvLayer3_1の後段に配置されている6番目のConv層であり、出力サイズが100×100×64である。
ConvLayer3_1及びConvLayer3_2は、サイズが3×9のカーネルとサイズが9×3のカーネルとを使用する。
(10)に示すPoolingは、ConvLayer3_2の後段に配置されている3番目のPooling層であり、2×2のカーネルを使用する。Pooling層では、Conv層により畳み込みが行われた特徴の情報を圧縮しているため、出力サイズが50×50×64に低減されている。
ConvLayer4_2は、ConvLayer4_1の後段に配置されている8番目のConv層であり、出力サイズが50×50×128である。
ConvLayer4_1及びConvLayer4_2は、サイズが3×9のカーネルとサイズが9×3のカーネルとを使用する。
(13)に示すPoolingは、ConvLayer4_2の後段に配置されている4番目のPooling層であり、1×1のカーネルを使用する。Pooling層では、Conv層により畳み込みが行われた特徴の情報を圧縮しているため、出力サイズが25×25×128に低減されている。
(13)に示すPoolingの出力が、図8に示すCNNの後半部分のInputに入力される。
図8に示すCNNの後半部分は、アップサンプリング系のCNNであり、図7に示すCNNの前半部分で抽出された特徴を統合するものである。図8では、CNNの階層が変わるに従って各層の出力サイズが大きくなっている。
図中の矢印は、処理順序を表しており、Inputは、図7における(13)に示すPoolingの出力を入力する入力層である。
(22)に示すUpSamplinngは、入力層の出力を引き伸ばすために、入力層の後段に配置されている層であり、出力サイズが50×50×128に増加されている。
DeconvLayer1_1は、(22)に示すUpSamplinngの後段に配置されている層であり、DeconvLayer1_2は、DeconvLayer1_1の後段に配置されている層である。
DeconvLayer1_1及びDeconvLayer1_2は、サイズが3×3のカーネルを使用して、逆畳み込みを行う層である。
DeconvLayer2_1は、(25)に示すUpSamplinngの後段に配置されている層であり、DeconvLayer2_2は、DeconvLayer2_1の後段に配置されている層である。
DeconvLayer2_1及びDeconvLayer2_2は、サイズが3×3のカーネルを使用して、逆畳み込みを行う層である。
(28)に示すUpSamplinngは、DeconvLayer2_2の出力を引き伸ばすために、DeconvLayer2_2の後段に配置されている層であり、出力サイズが200×200×32に増加されている。
DeconvLayer3_1は、(28)に示すUpSamplinngの後段に配置されている層であり、DeconvLayer3_2は、DeconvLayer3_1の後段に配置されている層である。
DeconvLayer3_1及びDeconvLayer3_2は、サイズが3×3のカーネルを使用して、逆畳み込みを行う層である。
DeconvLayer4_1は、(31)に示すUpSamplinngの後段に配置されている層である。
DeconvLayer4_1は、サイズが3×3のカーネルを使用して、逆畳み込みを行う層である。
ConvLayerは、DeconvLayer4_1の後段に配置されている層である。
ConvLayerは、サイズが3×3のカーネルを使用して、畳み込みを行う層である。
Softmaxは、ConvLayerの後段に配置されている出力層であり、コンクリート面のひびである確率と、コンクリート面のひびでない確率とを出力する。
具体的には、学習モデル構築部2は、図8に示すCNNから出力されるコンクリート面のひびである確率と、事前に設定されている閾値とを比較する(図4のステップST3)。
学習モデル構築部2は、図8に示すCNNから出力されるコンクリート面のひびである確率が閾値未満であれば(図4のステップST3:NOの場合)、図8に示すCNNから出力されるコンクリート面のひびである確率が1.0(=100%)に近づくように、学習モデルを調整する(図4のステップST4)。
学習モデル構築部2は、例えば、図7に示すようなCNNにおけるConvLayer1−1,1−2、ConvLayer2−1,2−2、ConvLayer3−1,3−2及びConvLayer4−1,4−2が使用するカーネルのサイズを変更することで、学習モデルを調整する。
学習モデル構築部2は、データ保存部4により保存されているラベル情報を参照して、コンクリート面に生じている変状がコンクリート面のひびであることを認識する。
そして、学習モデル構築部2は、コンクリート面のひびである確率が100%であることを示す1.0と、図8に示すCNNから出力されるひびである確率との誤差を算出し、算出した誤差から、カーネルを変更する方向を示す勾配情報を算出する。
なお、誤差から勾配情報を算出する処理自体は、公知の技術であるため、詳細な説明を省略する。
学習モデル構築部2は、算出した勾配情報が示す方向にカーネルのサイズを変更する。カーネルのサイズの変更量は、固定の比率でもよいし、誤差から算出するようにしてもよい。
学習モデル構築部2は、再構築後のCNNから出力されるコンクリート面のひびである確率と、事前に設定されている閾値とを比較する(図4のステップST3)。
学習モデル構築部2は、再構築後のCNNから出力されるコンクリート面のひびである確率が閾値未満であれば(図4のステップST3:NOの場合)、再構築後のCNNから出力されるコンクリート面のひびである確率が1.0(=100%)に近づくように、学習モデルを調整する(図4のステップST4)。
以下、コンクリート面のひびである確率が、閾値以上になるまで、ステップST2〜ST4の処理が繰り返し実施される。
データ保存部4は、学習モデル構築部2から出力された学習モデルを保存する(図4のステップST5)。
しかし、これに限るものではなく、例えば、学習モデル構築部2が、学習モデルの調整回数と事前に設定された回数を比較し、学習モデルの調整回数が設定回数未満であれば、誤差を算出し、算出した誤差から勾配情報を算出して、カーネルのサイズを変更するようにしてもよい。学習モデル構築部2は、学習モデルの調整回数が設定回数になれば、学習モデルの調整を終了する。
コンクリート面の析出物又は変色などの面状の変状を検出する場合、学習モデル構築部2は、4×4のサイズ又は8×8のサイズなどの正方形のカーネルを使用して、変状の特徴を抽出するようにする。
変状検出部3は、例えば、デジタルカメラが、トンネルの壁面であるコンクリート面を変状検出対象物として撮影すると、デジタルカメラの撮像データを、変状検出対象物の画像を示す画像データとして取得する(図5のステップST11)。
変状検出部3は、取得した画像データが示す変状検出対象物の画像を分割する。
例えば、変状検出対象物の画像における分割画像は、サンプル画像変形部1により分割されたサンプル分割画像のサイズと同じになるように分割される。
変状検出部3は、各々の分割画像を示す画像データを、取得したCNNの学習モデルに与えることで、CNNから出力される変状の分類結果を取得し(図5のステップST13)、変状の分類結果をデータ保存部4に出力する。
データ保存部4は、変状検出部3から出力された各々の分割画像のコンクリート面に生じている変状の分類結果を保存する(図5のステップST14)。
CNNから出力される変状の分類結果は、例えば、分割画像のコンクリート面に生じている変状が、ひびである確率、変色である確率、析出物である確率、または、変状ではない確率を示している。
また、表示部5は、データ保存部4から変状の分類結果を取得し、図9に示すように、変状検出対象物の画像における分割画像毎に、当該分割画像のコンクリート面に生じている変状の分類結果を表示する(図5のステップST15)。
図9は、表示部5による変状の分類結果の表示例を示す説明図である。
図9では、変状として、コンクリート面のひびと、コンクリート面の析出物とを例示している。
上記実施の形態1では、表示部5が、各々の分割画像のコンクリート面に生じている変状の分類結果を表示する例を示している。
この実施の形態2では、表示部5により表示されている変状の分類結果の修正を受け付ける分類結果修正部6を備えている例を説明する。
図11は、この発明の実施の形態2による変状検出装置を示すハードウェア構成図である。
図10及び図11において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
分類結果修正部6は、例えば、図11に示す分類結果修正回路26で実現される。
分類結果修正部6は、表示部5により表示されている変状の分類結果の修正を受け付ける処理を実施する。
変状検出装置の構成要素は、専用のハードウェアで実現されるものに限るものではなく、変状検出装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
また、図11では、変状検出装置の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、変状検出装置がソフトウェアやファームウェアなどで実現される例を示しているが、変状検出装置における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
この実施の形態2では、上記実施の形態1と相違している部分のみを説明する。
表示部5は、図12に示すように、各々の分割画像のコンクリート面に生じている変状の分類結果を表示する。
図12は、表示部5による変状の分類結果及び分類結果修正部6が備えるユーザインタフェース6aの表示例を示す説明図である。
図12における右上の枠は、分類結果修正部6が備えるユーザインタフェース6aであり、変状であるひび、漏水及び析出物の調整を受け付けるスライドバーである。
図12に示すユーザインタフェース6aは、グラフィカルユーザインタフェースであるが、分類結果修正部6は、マウス又はキーボードなどのユーザインタフェースも備えている。
図12では、変状の凡例として、ひび、変色及び析出物を表しているが、図12の例では、変色の箇所が存在していないため、変状が変色であることを示す分類結果が存在しない。
図12の例では、ユーザが、左から6番目及び上から2番目の分割画像(以下、(6,2)の分割画像と称する)についての変状の分類結果が間違っている判断し、分類結果修正部6が備えるマウスなどのユーザインタフェースを使用して、(6,2)の分割画像を指定している。
(6,2)の分割画像での分類結果は、コンクリート面に生じている変状が、ひびであることを示している。
しかし、実際には、(6,2)の分割画像のコンクリート面に生じている変状が、ひびではなく、析出物であれば、ユーザが、ひびに係るスライドバーと、析出物に係るスライドバーとを用いて、(6,2)の分割画像での分類結果を調整する。
図13は、分類結果修正部6により調整が受け付けられた分類結果を示す説明図である。
図13の例では、ユーザが、ひびに係るスライドバーにおける△の記号を左方向にスライドさせて、ひびである確率を下げ、析出物に係るスライドバーにおける△の記号を右方向にスライドさせて、析出物である確率を上げている。
データ保存部4は、分類結果修正部6から出力された修正後の分類結果を保存する。
学習モデル構築部2は、データ保存部4により保存されている修正後の分類結果を用いて、再度学習することで、CNNの学習モデルの精度を高めることができる。
修正後の分類結果を用いて、再度学習する処理自体は、公知の技術であるため、詳細な説明を省略する。
Claims (4)
- 変状の分類結果を出力する畳み込みニューラルネットワークの学習データとして、変状が含まれているサンプル画像を示す画像データを使用して、前記畳み込みニューラルネットワークの学習モデルを構築する学習モデル構築部と、
変状検出対象物の画像を示す画像データを、前記学習モデル構築部により学習モデルが構築された畳み込みニューラルネットワークに与えることで、前記畳み込みニューラルネットワークから出力される変状の分類結果を取得する変状検出部とを備え、
前記学習モデル構築部は、前記サンプル画像に含まれている変状が線形の変状であれば、長方形のカーネルを使用して、前記畳み込みニューラルネットワークから前記サンプル画像に含まれている変状の特徴を抽出し、前記サンプル画像に含まれている変状が面状の変状であれば、正方形のカーネルを使用して、前記畳み込みニューラルネットワークから前記サンプル画像に含まれている変状の特徴を抽出し、前記抽出した特徴を学習することで、前記畳み込みニューラルネットワークの学習モデルを調整することを特徴とする変状検出装置。 - 前記サンプル画像を変形するサンプル画像変形部を備え、
前記学習モデル構築部は、前記サンプル画像を示す画像データ及び前記サンプル画像変形部により変形されたサンプル画像を示す画像データのそれぞれを前記学習データとして使用することを特徴とする請求項1記載の変状検出装置。 - 前記変状検出部により取得された変状の分類結果と、前記変状検出対象物の画像とを表示する表示部を備えたことを特徴とする請求項1記載の変状検出装置。
- 前記表示部により表示されている変状の分類結果の修正を受け付ける分類結果修正部を備えたことを特徴とする請求項3記載の変状検出装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/033277 WO2019053842A1 (ja) | 2017-09-14 | 2017-09-14 | 変状検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019053842A1 JPWO2019053842A1 (ja) | 2020-02-06 |
JP6664557B2 true JP6664557B2 (ja) | 2020-03-13 |
Family
ID=65722564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019541566A Active JP6664557B2 (ja) | 2017-09-14 | 2017-09-14 | 変状検出装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200134384A1 (ja) |
JP (1) | JP6664557B2 (ja) |
CN (1) | CN111052177A (ja) |
WO (1) | WO2019053842A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3596449A4 (en) * | 2017-03-14 | 2021-01-06 | University of Manitoba | DETECTION OF STRUCTURAL DEFECTS USING AUTOMATIC LEARNING ALGORITHMS |
EP3605435A4 (en) * | 2017-03-29 | 2020-02-05 | Nec Corporation | SITE MANAGEMENT DEVICE, SITE MANAGEMENT METHOD, AND COMPUTER-READABLE RECORDING MEDIUM |
EP3942480A1 (en) * | 2019-05-23 | 2022-01-26 | Google LLC | Fully attentional computer vision |
EP4038374A4 (en) | 2019-09-30 | 2023-10-25 | Musashi AI North America Inc. | SYSTEM AND METHOD FOR AI VISUAL INSPECTION |
JP7446771B2 (ja) * | 2019-10-30 | 2024-03-11 | 株式会社東芝 | 可視化データ生成装置、可視化データ生成システム、及び可視化データ生成方法 |
JP6793896B1 (ja) * | 2020-03-04 | 2020-12-02 | 三菱電機株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
US20230175982A1 (en) * | 2020-06-05 | 2023-06-08 | Hitachi High-Tech Corporation | Defect inspection apparatus |
JP2022040531A (ja) * | 2020-08-31 | 2022-03-11 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | 異常判定モデル生成方法及び異常判定モデル生成装置並びに検査装置 |
JP2022135080A (ja) * | 2021-03-04 | 2022-09-15 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP7023425B1 (ja) * | 2021-03-29 | 2022-02-21 | 三菱電機株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
CN113065606B (zh) * | 2021-04-19 | 2023-11-17 | 北京石油化工学院 | 一种基于轻量级深度学习的异常点位检测方法及系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005114588A (ja) * | 2003-10-08 | 2005-04-28 | Mitsubishi Heavy Ind Ltd | 追尾装置 |
US20140056536A1 (en) * | 2012-08-27 | 2014-02-27 | Toshiba Medical Systems Corporation | Method and system for substantially removing dot noise |
JP6160196B2 (ja) * | 2013-04-15 | 2017-07-12 | オムロン株式会社 | 識別器更新装置、識別器更新プログラム、情報処理装置、および識別器更新方法 |
EP3296722B1 (en) * | 2015-05-26 | 2021-12-22 | Mitsubishi Electric Corporation | Detection device and detection method |
GB2542118B (en) * | 2015-09-04 | 2021-05-19 | Toshiba Europe Ltd | A method, apparatus, system, and computer readable medium for detecting change to a structure |
CN106780466A (zh) * | 2016-12-21 | 2017-05-31 | 广西师范大学 | 一种基于卷积神经网络的宫颈细胞图像识别方法 |
KR101772916B1 (ko) * | 2016-12-30 | 2017-08-31 | 한양대학교 에리카산학협력단 | 촬영영상과 인공지능 알고리즘 기반의 균열검출 자동화 프로그램을 이용한 터널 라이닝 표면의 균열 검출 방법 및 시스템 |
-
2017
- 2017-09-14 JP JP2019541566A patent/JP6664557B2/ja active Active
- 2017-09-14 US US16/626,428 patent/US20200134384A1/en not_active Abandoned
- 2017-09-14 WO PCT/JP2017/033277 patent/WO2019053842A1/ja active Application Filing
- 2017-09-14 CN CN201780094668.9A patent/CN111052177A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20200134384A1 (en) | 2020-04-30 |
WO2019053842A1 (ja) | 2019-03-21 |
CN111052177A (zh) | 2020-04-21 |
JPWO2019053842A1 (ja) | 2020-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6664557B2 (ja) | 変状検出装置 | |
US20240296669A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP6088792B2 (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
CN111091567B (zh) | 医学图像配准方法、医疗设备及存储介质 | |
JP2016513320A (ja) | 少なくとも1つの追加イメージを用いたイメージ改善及びエッジ検証のための方法及び装置 | |
CN110827202A (zh) | 目标检测方法、装置、计算机设备和存储介质 | |
CN109919971B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN114550021B (zh) | 基于特征融合的表面缺陷检测方法及设备 | |
US20210272272A1 (en) | Inspection support apparatus, inspection support method, and inspection support program for concrete structure | |
JP2018180945A (ja) | 物体検出装置及びプログラム | |
JP2018029250A5 (ja) | ||
JPWO2018179338A1 (ja) | 機械学習装置及び画像認識装置 | |
TW202200993A (zh) | 檢查裝置、檢查方法及檢查程式 | |
CN113744142A (zh) | 图像修复方法、电子设备及存储介质 | |
CN108399617B (zh) | 一种动物健康状况的检测方法和装置 | |
US20220414827A1 (en) | Training apparatus, training method, and medium | |
JP6347610B2 (ja) | 画像処理装置および3次元空間情報取得方法 | |
JP2017130067A (ja) | 衛星映像の位置正確度改善のための自動映像処理システム及びその方法 | |
US8472756B2 (en) | Method for producing high resolution image | |
JP2011133954A (ja) | エッジ抽出方法及びエッジ抽出装置 | |
EP4187483A1 (en) | Apparatus and method with image processing | |
JP6855938B2 (ja) | 距離測定装置、距離測定方法および距離測定プログラム | |
JP5955003B2 (ja) | 画像処理装置および画像処理方法、プログラム | |
JP6147003B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP4680026B2 (ja) | 画像間変化抽出支援システム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191028 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191028 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191028 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6664557 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |