JP6664557B2 - 変状検出装置 - Google Patents

変状検出装置 Download PDF

Info

Publication number
JP6664557B2
JP6664557B2 JP2019541566A JP2019541566A JP6664557B2 JP 6664557 B2 JP6664557 B2 JP 6664557B2 JP 2019541566 A JP2019541566 A JP 2019541566A JP 2019541566 A JP2019541566 A JP 2019541566A JP 6664557 B2 JP6664557 B2 JP 6664557B2
Authority
JP
Japan
Prior art keywords
deformation
learning model
image
unit
sample image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019541566A
Other languages
English (en)
Other versions
JPWO2019053842A1 (ja
Inventor
百代 日野
百代 日野
夢雄 王
夢雄 王
杉本 和夫
和夫 杉本
三嶋 英俊
英俊 三嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019053842A1 publication Critical patent/JPWO2019053842A1/ja
Application granted granted Critical
Publication of JP6664557B2 publication Critical patent/JP6664557B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30132Masonry; Concrete
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

この発明は、変状検出対象物に生じている変状の分類結果を取得する変状検出装置に関するものである。
近年、深層学習による画像の認識技術が進歩しており、トンネル又は路面などの変状検出対象物に生じている変状の点検作業に画像の認識技術が用いられることがある。
例えば、変状の点検作業に画像の認識技術を用いる変状検出装置は、変状が生じているトンネルの壁面のサンプル画像を示す画像データを大量に収集し、大量の画像データを学習データとして使用して、事前に深層学習モデルを構築する。
変状検出装置は、変状検出対象物であるトンネルの壁面の画像を示す画像データが与えられると、当該画像データと構築した深層学習モデルとを用いて、変状検出対象物に生じている変状の分類結果を取得する(例えば、特許文献1を参照)。
国際公開第2016/189764号
従来の変状検出装置は、トンネルの壁面に生じている変状の特徴を抽出し、特徴を学習することで、深層学習モデルを構築している。しかし、抽出している特徴は、変状の部分の特徴に限られており、変状の周囲の特徴は抽出されない。このため、変状の周囲の特徴は学習されず、変状の部分の特徴だけが学習される。したがって、変状の部分と特徴が近似している部分が画像内に存在している場合、特徴が近似している部分を誤って変状と検出してしまうことがあるという課題があった。
例えば、変状がコンクリート面のひびである場合、コンクリート面のひびと特徴が近似しているコンクリート面の接線部分、あるいは、コンクリート面における線状の落書きを、誤って変状と検出してしまうことがある。
この発明は上記のような課題を解決するためになされたもので、変状の部分と特徴が近似している部分が変状検出対象物の画像内に存在している場合でも、特徴が近似している部分を誤って変状と検出してしまう状況を回避することができる変状検出装置を得ることを目的とする。
この発明に係る変状検出装置は、変状の分類結果を出力する畳み込みニューラルネットワークの学習データとして、変状が含まれているサンプル画像を示す画像データを使用して、畳み込みニューラルネットワークの学習モデルを構築する学習モデル構築部と、変状検出対象物の画像を示す画像データを、学習モデル構築部により学習モデルが構築された畳み込みニューラルネットワークに与えることで、畳み込みニューラルネットワークから出力される変状の分類結果を取得する変状検出部とを備え、学習モデル構築部が、サンプル画像に含まれている変状が線形の変状であれば、長方形のカーネルを使用して、畳み込みニューラルネットワークからサンプル画像に含まれている変状の特徴を抽出し、サンプル画像に含まれている変状が面状の変状であれば、正方形のカーネルを使用して、畳み込みニューラルネットワークからサンプル画像に含まれている変状の特徴を抽出し、抽出した特徴を学習することで、畳み込みニューラルネットワークの学習モデルを調整するようにしたものである。
この発明によれば、学習モデル構築部が、サンプル画像に含まれている変状の形状に対応する形状のカーネルを使用して、畳み込みニューラルネットワークからサンプル画像に含まれている変状の特徴を抽出し、抽出した特徴を学習することで、畳み込みニューラルネットワークの学習モデルを調整するように構成したので、変状の部分と特徴が近似している部分が変状検出対象物の画像内に存在している場合でも、特徴が近似している部分を誤って変状と検出してしまう状況を回避することができる効果がある。
この発明の実施の形態1による変状検出装置を示す構成図である。 この発明の実施の形態1による変状検出装置を示すハードウェア構成図である。 変状検出装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。 変状検出装置がソフトウェア又はファームウェアなどで実現される場合の学習時の処理手順を示すフローチャートである。 変状検出装置がソフトウェア又はファームウェアなどで実現される場合の変状検出時の処理手順を示すフローチャートである。 CNNの一例を示す説明図である。 学習モデル構築部2により学習モデルが構築されるCNNの前半部分の一例を示す説明図である。 学習モデル構築部2により学習モデルが構築されるCNNの後半部分の一例を示す説明図である。 表示部5による変状の分類結果の表示例を示す説明図である。 この発明の実施の形態2による変状検出装置を示す構成図である。 この発明の実施の形態2による変状検出装置を示すハードウェア構成図である。 表示部5による変状の分類結果及び分類結果修正部6が備えるユーザインタフェース6aの表示例を示す説明図である。 分類結果修正部6により調整が受け付けられた分類結果を示す説明図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1による変状検出装置を示す構成図である。
図2は、この発明の実施の形態1による変状検出装置を示すハードウェア構成図である。
図1及び図2において、サンプル画像変形部1は、例えば、図2に示すサンプル画像変形回路21で実現される。
サンプル画像変形部1は、データ保存部4から、変状の分類結果を出力する畳み込みニューラルネットワーク(CNN:Convolution Neural Network)の学習データとして、変状が含まれているサンプル画像を示す画像データを入力する。
サンプル画像変形部1は、サンプル画像を変形することで、サンプル画像を示す画像データを増やす処理として、例えば、「Data Augmentation」と呼ばれる処理を実施し、入力したサンプル画像を示す画像データ及び変形後のサンプル画像を示す画像データのそれぞれをデータ保存部4に出力する。
「Data Augmentation」と呼ばれる処理は、画像データに含まれている変状の特徴を失わない範囲で、当該画像データを例えばアファイン変換、回転変換、照度調整又はコントラスト調整することで、多くのサンプル画像を示す画像データを得る処理である。
学習モデル構築部2は、例えば、図2に示す学習モデル構築回路22で実現される。
学習モデル構築部2は、CNNの学習データとして、サンプル画像変形部1から出力されてデータ保存部4に保存されている複数の画像データを使用して、CNNの学習モデルを構築する処理を実施する。
また、学習モデル構築部2は、サンプル画像に含まれている変状の形状に対応する形状のカーネルを使用して、CNNからサンプル画像に含まれている変状の特徴を抽出し、抽出した特徴を学習することで、CNNの学習モデルを調整する処理を実施する。
学習モデル構築部2は、構築したCNNの学習モデルをデータ保存部4に出力する。
変状検出部3は、例えば、図2に示す変状検出回路23で実現される。
変状検出部3は、変状検出対象物の画像を示す画像データを、学習モデル構築部2から出力されてデータ保存部4に保存されているCNNに与えることで、CNNから出力される変状の分類結果を取得する処理を実施する。
変状検出部3は、取得した変状の分類結果をデータ保存部4に出力する。
データ保存部4は、例えば、図2に示すデータ保存回路24で実現される。
データ保存部4は、サンプル画像を示す画像データ、サンプル画像に含まれている変状の種類を示すラベル情報、学習モデル構築部2により構築されたCNNの学習モデル、変状検出部3により取得された変状の分類結果、サンプル画像変形部1から出力されたサンプル画像を示す画像データなどを保存する。
表示部5は、例えば、図2に示す表示回路25で実現される。
表示部5は、データ保存部4により保存されている変状の分類結果及び変状検出対象物の画像などを表示する処理を実施する。
図1では、変状検出装置の構成要素であるサンプル画像変形部1、学習モデル構築部2、変状検出部3、データ保存部4及び表示部5のそれぞれが、図2に示すような専用のハードウェアで実現されるものを想定している。即ち、サンプル画像変形回路21、学習モデル構築回路22、変状検出回路23、データ保存回路24及び表示回路25で実現されるものを想定している。
ここで、データ保存回路24は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、あるいは、DVD(Digital Versatile Disc)が該当する。
また、サンプル画像変形回路21、学習モデル構築回路22、変状検出回路23及び表示回路25は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
変状検出装置の構成要素は、専用のハードウェアで実現されるものに限るものではなく、変状検出装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
ソフトウェア又はファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいは、DSP(Digital Signal Processor)が該当する。
図3は、変状検出装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
変状検出装置がソフトウェア又はファームウェアなどで実現される場合、データ保存部4をコンピュータのメモリ31上に構成するとともに、サンプル画像変形部1、学習モデル構築部2、変状検出部3及び表示部5の処理手順をコンピュータに実行させるためのプログラムをメモリ31に格納し、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行するようにすればよい。
図4は、変状検出装置がソフトウェア又はファームウェアなどで実現される場合の学習時の処理手順を示すフローチャートである。
図5は、変状検出装置がソフトウェア又はファームウェアなどで実現される場合の変状検出時の処理手順を示すフローチャートである。
また、図2では、変状検出装置の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、変状検出装置がソフトウェアやファームウェアなどで実現される例を示しているが、変状検出装置における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
次に動作について説明する。
この実施の形態1では、変状検出装置により検出される変状が、トンネルの壁面であるコンクリート面に生じる変状である例を説明する。
コンクリート面には、自然環境下での経年劣化によって、不規則な亀裂として、ひびが生じることがある。また、コンクリート面には、漏水の影響で、色が変化した箇所である変色箇所が生じることがある。
コンクリートの内部物質が析出物として、コンクリート面に現れることがある。
したがって、コンクリート面に生じる変状として、コンクリート面のひび、コンクリート面の変色及び析出物などが考えられる。
この実施の形態1では、トンネルの壁面に生じる変状を検出する例を説明するが、これに限るものではなく、例えば、ビルなどの一般的な建設物、あるいは、道路の路面に生じる変状を検出するものであってもよい。
最初に、CNNの学習モデルを構築する際の処理内容を説明する。
トンネルの壁面であるコンクリート面は、例えば、デジタルカメラにより撮影され、デジタルカメラの撮像データが、コンクリート面の画像を示す画像データとして、データ保存部4に保存される。
この実施の形態1では、コンクリート面の画像を示す画像データが、RGBデータであるものを想定するが、これに限るものではなく、例えば、奥行き情報を含むRGB−Dデータ又はLiDAR(Light Detection And Ranging)点群データであってもよい。
データ保存部4により保存される画像データは、何らかの変状が生じているコンクリート面のサンプル画像を示すデータである。
この実施の形態1では、少なくとも、ひびが生じているコンクリート面のサンプル画像を示す画像データ、変色が生じているコンクリート面のサンプル画像を示す画像データ及び析出物が現れているコンクリート面のサンプル画像を示す画像データのそれぞれが、データ保存部4に保存される。
また、コンクリート面に生じている変状の種類を示すラベル情報が、サンプル画像を示す画像データと一緒にデータ保存部4に保存される。ラベル情報は、コンクリート面に生じている変状を識別したユーザによって事前に設定される情報である。
また、この実施の形態1では、説明の便宜上、画像サイズが400×400である正方形のサンプル画像の画像データがデータ保存部4に保存されるものとする。画像サイズとして示している400×400は、横方向及び縦方向の画素数を表している。以下、「〇〇×△△」という表記は、〇〇が横方向の画素数を表し、△△が縦方向の画素数を表しているものとする。
具体的には、サンプル画像を示す画像データがRGBデータである場合、画像サイズが400×400のRデータと、画像サイズが400×400のGデータと、画像サイズが400×400のBデータとがデータ保存部4に保存される。
サンプル画像変形部1は、データ保存部4により保存されているサンプル画像を示す画像データを取得する。
サンプル画像変形部1は、学習モデル構築部2における学習モデルの構築処理の高速化を図るため、取得したサンプル画像を示す画像データを分割する。例えば、画像サイズが400×400である正方形のサンプル画像の画像データを64分割して、画像サイズが50×50のサンプル分割画像の画像データを得る。
サンプル画像変形部1がサンプル分割画像の画像データを得ることで、学習モデル構築部2では、画像サイズが小さいサンプル分割画像の画像データを扱うことができる。また、学習モデル構築部2では、64個のサンプル分割画像の画像データを同時に並列処理することが可能になる。このため、学習モデル構築部2において、画像サイズが大きいサンプル画像を示す画像データを扱う場合よりも、学習モデルの構築処理の高速化を図ることができる。
サンプル画像変形部1は、各々のサンプル分割画像を変形することで、サンプル分割画像を示す画像データを増やす処理として、例えば、「Data Augmentation」と呼ばれる処理を実施する(図4のステップST1)。
サンプル画像変形部1は、取得した各々のサンプル分割画像を示す画像データ及び変形を加えた各々のサンプル分割画像を示す画像データのそれぞれをデータ保存部4に出力する。
サンプル画像を変形して、画像データを増やすことは、学習モデルの構築精度を高める上で有用であることは知られている。
学習モデル構築部2は、CNNの学習データとして、データ保存部4により保存されている複数のサンプル画像を示す画像データを取得する。
学習モデル構築部2は、取得した複数のサンプル画像を示す画像データを使用して、CNNの学習モデルを構築する(図4のステップST2)。
CNNの学習モデルを構築する処理自体は、公知の技術であるため、詳細な説明を省略する。
ここで、CNNについて簡単に説明する。
CNNは、変状の部分の特徴だけでなく、変状の周囲の特徴を抽出することができるようにするため、サンプル分割画像よりも小さいサイズのフィルタであるカーネルを利用して、サンプル分割画像に含まれている変状の特徴を抽出する層を含んでいるニューラルネットワークである。
図6は、CNNの一例を示す説明図である。
CNNは、図6に示すように、入力層、Conv層、Pooling層、全結合層及び出力層などを備えている。
入力層は、サンプル分割画像の画像データを入力する層である。
Conv層は、カーネルの位置をサンプル分割画像の水平方向又は垂直方向に移動させながら、カーネルを利用して、サンプル分割画像から特徴をそれぞれ抽出し、それぞれ抽出した特徴の畳み込みを行う層である。
Pooling層は、Conv層により畳み込みが行われた特徴の情報を圧縮する層である。
全結合層は、Pooling層を通過してきた特徴を出力層における各々のノードに結合させる層である。
出力層は、サンプル分割画像に含まれている変状が、例えば、ひびである確率を示すノード、変色である確率を示すノード、析出物である確率を示すノード、変状ではない確率を示すノードを備える層である。
図7は、学習モデル構築部2により学習モデルが構築されるCNNの前半部分の一例を示す説明図である。
図7において、ブロック名は、CNNが備える層を示し、出力サイズは、各々の層から出力されるデータのサイズを示し、ブロックタイプは、フィルタであるカーネルのサイズなどを示している。
図7に示すCNNの前半部分は、ダウンサンプリング系のCNNであり、コンクリート面のひびを変状として検出するために、線形変状に対応する長方形のカーネルとして、サイズが3×9のカーネルと、サイズが9×3のカーネルとを使用する例を示している。
線形変状に対応する長方形のカーネルは、線形変状の領域を含む線形変状の周囲の領域に受容野を得るための細長いフィルタであり、カーネルのサイズは、入力される画像データのサイズ及びCNNの階層に基づいて計算される。カーネルのサイズを計算する処理自体は、公知の技術であるため詳細な説明を省略する。
CNNの処理が進行して、CNNの階層が変わるに従って受容野の範囲が広がる。
図中の矢印は、処理順序を表しており、Inputは、画像データを入力する入力層である。
ConvLayer1_1は、入力層の後段に配置されている1番目のConv層であり、出力サイズが400×400×16である。
ConvLayer1_2は、ConvLayer1_1の後段に配置されている2番目のConv層であり、出力サイズが400×400×16である。
ConvLayer1_1及びConvLayer1_2は、サイズが3×9のカーネルとサイズが9×3のカーネルとを使用する。
(4)に示すPoolingは、ConvLayer1_2の後段に配置されている1番目のPooling層であり、2×2のカーネルを使用する。Pooling層では、Conv層により畳み込みが行われた特徴の情報を圧縮しているため、出力サイズが200×200×16に低減されている。
ConvLayer2_1は、1番目のPooling層の後段に配置されている3番目のConv層であり、出力サイズが200×200×32である。
ConvLayer2_2は、ConvLayer2_1の後段に配置されている4番目のConv層であり、出力サイズが200×200×32である。
ConvLayer2_1及びConvLayer2_2は、サイズが3×9のカーネルとサイズが9×3のカーネルとを使用する。
(7)に示すPoolingは、ConvLayer2_2の後段に配置されている2番目のPooling層であり、2×2のカーネルを使用する。Pooling層では、Conv層により畳み込みが行われた特徴の情報を圧縮しているため、出力サイズが100×100×32に低減されている。
ConvLayer3_1は、2番目のPooling層の後段に配置されている5番目のConv層であり、出力サイズが100×100×64である。
ConvLayer3_2は、ConvLayer3_1の後段に配置されている6番目のConv層であり、出力サイズが100×100×64である。
ConvLayer3_1及びConvLayer3_2は、サイズが3×9のカーネルとサイズが9×3のカーネルとを使用する。
(10)に示すPoolingは、ConvLayer3_2の後段に配置されている3番目のPooling層であり、2×2のカーネルを使用する。Pooling層では、Conv層により畳み込みが行われた特徴の情報を圧縮しているため、出力サイズが50×50×64に低減されている。
ConvLayer4_1は、3番目のPooling層の後段に配置されている7番目のConv層であり、出力サイズが50×50×128である。
ConvLayer4_2は、ConvLayer4_1の後段に配置されている8番目のConv層であり、出力サイズが50×50×128である。
ConvLayer4_1及びConvLayer4_2は、サイズが3×9のカーネルとサイズが9×3のカーネルとを使用する。
(13)に示すPoolingは、ConvLayer4_2の後段に配置されている4番目のPooling層であり、1×1のカーネルを使用する。Pooling層では、Conv層により畳み込みが行われた特徴の情報を圧縮しているため、出力サイズが25×25×128に低減されている。
(13)に示すPoolingの出力が、図8に示すCNNの後半部分のInputに入力される。
図8は、学習モデル構築部2により学習モデルが構築されるCNNの後半部分の一例を示す説明図である。
図8に示すCNNの後半部分は、アップサンプリング系のCNNであり、図7に示すCNNの前半部分で抽出された特徴を統合するものである。図8では、CNNの階層が変わるに従って各層の出力サイズが大きくなっている。
図中の矢印は、処理順序を表しており、Inputは、図7における(13)に示すPoolingの出力を入力する入力層である。
(22)に示すUpSamplinngは、入力層の出力を引き伸ばすために、入力層の後段に配置されている層であり、出力サイズが50×50×128に増加されている。
DeconvLayer1_1は、(22)に示すUpSamplinngの後段に配置されている層であり、DeconvLayer1_2は、DeconvLayer1_1の後段に配置されている層である。
DeconvLayer1_1及びDeconvLayer1_2は、サイズが3×3のカーネルを使用して、逆畳み込みを行う層である。
(25)に示すUpSamplinngは、DeconvLayer1_2の出力を引き伸ばすために、DeconvLayer1_2の後段に配置されている層であり、出力サイズが100×100×64に増加されている。
DeconvLayer2_1は、(25)に示すUpSamplinngの後段に配置されている層であり、DeconvLayer2_2は、DeconvLayer2_1の後段に配置されている層である。
DeconvLayer2_1及びDeconvLayer2_2は、サイズが3×3のカーネルを使用して、逆畳み込みを行う層である。
(28)に示すUpSamplinngは、DeconvLayer2_2の出力を引き伸ばすために、DeconvLayer2_2の後段に配置されている層であり、出力サイズが200×200×32に増加されている。
DeconvLayer3_1は、(28)に示すUpSamplinngの後段に配置されている層であり、DeconvLayer3_2は、DeconvLayer3_1の後段に配置されている層である。
DeconvLayer3_1及びDeconvLayer3_2は、サイズが3×3のカーネルを使用して、逆畳み込みを行う層である。
(31)に示すUpSamplinngは、DeconvLayer3_2の出力を引き伸ばすために、DeconvLayer3_2の後段に配置されている層であり、出力サイズが400×400×16に増加されている。
DeconvLayer4_1は、(31)に示すUpSamplinngの後段に配置されている層である。
DeconvLayer4_1は、サイズが3×3のカーネルを使用して、逆畳み込みを行う層である。
ConvLayerは、DeconvLayer4_1の後段に配置されている層である。
ConvLayerは、サイズが3×3のカーネルを使用して、畳み込みを行う層である。
Softmaxは、ConvLayerの後段に配置されている出力層であり、コンクリート面のひびである確率と、コンクリート面のひびでない確率とを出力する。
学習モデル構築部2は、例えば、コンクリート面のひびを変状として検出するために、図7及び図8に示すようなCNNの学習モデルを構築すると、図8に示すCNNから出力されるコンクリート面のひびである確率が1.0(=100%)に近づくように、学習モデルを調整する。
具体的には、学習モデル構築部2は、図8に示すCNNから出力されるコンクリート面のひびである確率と、事前に設定されている閾値とを比較する(図4のステップST3)。
学習モデル構築部2は、図8に示すCNNから出力されるコンクリート面のひびである確率が閾値未満であれば(図4のステップST3:NOの場合)、図8に示すCNNから出力されるコンクリート面のひびである確率が1.0(=100%)に近づくように、学習モデルを調整する(図4のステップST4)。
学習モデル構築部2は、例えば、図7に示すようなCNNにおけるConvLayer1−1,1−2、ConvLayer2−1,2−2、ConvLayer3−1,3−2及びConvLayer4−1,4−2が使用するカーネルのサイズを変更することで、学習モデルを調整する。
カーネルのサイズの変更方法としては、次のような方法が考えられる。
学習モデル構築部2は、データ保存部4により保存されているラベル情報を参照して、コンクリート面に生じている変状がコンクリート面のひびであることを認識する。
そして、学習モデル構築部2は、コンクリート面のひびである確率が100%であることを示す1.0と、図8に示すCNNから出力されるひびである確率との誤差を算出し、算出した誤差から、カーネルを変更する方向を示す勾配情報を算出する。
なお、誤差から勾配情報を算出する処理自体は、公知の技術であるため、詳細な説明を省略する。
学習モデル構築部2は、算出した勾配情報が示す方向にカーネルのサイズを変更する。カーネルのサイズの変更量は、固定の比率でもよいし、誤差から算出するようにしてもよい。
学習モデル構築部2は、学習モデルを調整すると、ステップST2の処理に戻り、調整後の学習モデル及び取得した複数のサンプル画像を示す画像データを使用して、CNNの学習モデルを再構築する。
学習モデル構築部2は、再構築後のCNNから出力されるコンクリート面のひびである確率と、事前に設定されている閾値とを比較する(図4のステップST3)。
学習モデル構築部2は、再構築後のCNNから出力されるコンクリート面のひびである確率が閾値未満であれば(図4のステップST3:NOの場合)、再構築後のCNNから出力されるコンクリート面のひびである確率が1.0(=100%)に近づくように、学習モデルを調整する(図4のステップST4)。
以下、コンクリート面のひびである確率が、閾値以上になるまで、ステップST2〜ST4の処理が繰り返し実施される。
学習モデル構築部2は、CNNから出力されるコンクリート面のひびである確率が、閾値以上であれば(図4のステップST3:YESの場合)、学習モデルの調整を終了し、調整終了の学習モデルをデータ保存部4に出力する。
データ保存部4は、学習モデル構築部2から出力された学習モデルを保存する(図4のステップST5)。
ここでは、学習モデル構築部2が、変状である確率と閾値を比較し、変状である確率が閾値未満であるとき、学習モデルを調整する例を示している。
しかし、これに限るものではなく、例えば、学習モデル構築部2が、学習モデルの調整回数と事前に設定された回数を比較し、学習モデルの調整回数が設定回数未満であれば、誤差を算出し、算出した誤差から勾配情報を算出して、カーネルのサイズを変更するようにしてもよい。学習モデル構築部2は、学習モデルの調整回数が設定回数になれば、学習モデルの調整を終了する。
また、ここでは、コンクリート面のひびなどの線形の変状を検出するために、学習モデル構築部2が、長方形のカーネルを使用して、変状の特徴を抽出する例を示しているが、これに限るものではない。
コンクリート面の析出物又は変色などの面状の変状を検出する場合、学習モデル構築部2は、4×4のサイズ又は8×8のサイズなどの正方形のカーネルを使用して、変状の特徴を抽出するようにする。
次に、変状検出時の処理内容を説明する。
変状検出部3は、例えば、デジタルカメラが、トンネルの壁面であるコンクリート面を変状検出対象物として撮影すると、デジタルカメラの撮像データを、変状検出対象物の画像を示す画像データとして取得する(図5のステップST11)。
変状検出部3は、取得した画像データが示す変状検出対象物の画像を分割する。
例えば、変状検出対象物の画像における分割画像は、サンプル画像変形部1により分割されたサンプル分割画像のサイズと同じになるように分割される。
変状検出部3は、データ保存部4により保存されているCNNの学習モデルを取得する(図5のステップST12)。
変状検出部3は、各々の分割画像を示す画像データを、取得したCNNの学習モデルに与えることで、CNNから出力される変状の分類結果を取得し(図5のステップST13)、変状の分類結果をデータ保存部4に出力する。
データ保存部4は、変状検出部3から出力された各々の分割画像のコンクリート面に生じている変状の分類結果を保存する(図5のステップST14)。
CNNから出力される変状の分類結果は、例えば、分割画像のコンクリート面に生じている変状が、ひびである確率、変色である確率、析出物である確率、または、変状ではない確率を示している。
表示部5は、変状検出対象物の画像をディスプレイに表示する。
また、表示部5は、データ保存部4から変状の分類結果を取得し、図9に示すように、変状検出対象物の画像における分割画像毎に、当該分割画像のコンクリート面に生じている変状の分類結果を表示する(図5のステップST15)。
図9は、表示部5による変状の分類結果の表示例を示す説明図である。
図9では、変状として、コンクリート面のひびと、コンクリート面の析出物とを例示している。
以上で明らかなように、この実施の形態1によれば、学習モデル構築部2が、サンプル画像に含まれている変状の形状に対応する形状のカーネルを使用して、畳み込みニューラルネットワークからサンプル画像に含まれている変状の特徴を抽出し、抽出した特徴を学習することで、畳み込みニューラルネットワークの学習モデルを構築するように構成したので、変状の部分と特徴が近似している部分が変状検出対象物の画像内に存在している場合でも、特徴が近似している部分を誤って変状と検出してしまう状況を回避することができる効果を奏する。
実施の形態2.
上記実施の形態1では、表示部5が、各々の分割画像のコンクリート面に生じている変状の分類結果を表示する例を示している。
この実施の形態2では、表示部5により表示されている変状の分類結果の修正を受け付ける分類結果修正部6を備えている例を説明する。
図10は、この発明の実施の形態2による変状検出装置を示す構成図である。
図11は、この発明の実施の形態2による変状検出装置を示すハードウェア構成図である。
図10及び図11において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
分類結果修正部6は、例えば、図11に示す分類結果修正回路26で実現される。
分類結果修正部6は、表示部5により表示されている変状の分類結果の修正を受け付ける処理を実施する。
図10では、変状検出装置の構成要素であるサンプル画像変形部1、学習モデル構築部2、変状検出部3、データ保存部4、表示部5及び分類結果修正部6のそれぞれが、図11に示すような専用のハードウェアで実現されるものを想定している。即ち、サンプル画像変形回路21、学習モデル構築回路22、変状検出回路23、データ保存回路24、表示回路25及び分類結果修正回路26で実現されるものを想定している。
ここで、サンプル画像変形回路21、学習モデル構築回路22、変状検出回路23、表示回路25及び分類結果修正回路26は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
変状検出装置の構成要素は、専用のハードウェアで実現されるものに限るものではなく、変状検出装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
変状検出装置がソフトウェア又はファームウェアなどで実現される場合、データ保存部4を図3に示すコンピュータのメモリ31上に構成するとともに、サンプル画像変形部1、学習モデル構築部2、変状検出部3、表示部5及び分類結果修正部6の処理手順をコンピュータに実行させるためのプログラムをメモリ31に格納し、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行するようにすればよい。
また、図11では、変状検出装置の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、変状検出装置がソフトウェアやファームウェアなどで実現される例を示しているが、変状検出装置における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
次に動作について説明する。
この実施の形態2では、上記実施の形態1と相違している部分のみを説明する。
表示部5は、図12に示すように、各々の分割画像のコンクリート面に生じている変状の分類結果を表示する。
図12は、表示部5による変状の分類結果及び分類結果修正部6が備えるユーザインタフェース6aの表示例を示す説明図である。
図12における右上の枠は、分類結果修正部6が備えるユーザインタフェース6aであり、変状であるひび、漏水及び析出物の調整を受け付けるスライドバーである。
図12に示すユーザインタフェース6aは、グラフィカルユーザインタフェースであるが、分類結果修正部6は、マウス又はキーボードなどのユーザインタフェースも備えている。
図12では、変状の凡例として、ひび、変色及び析出物を表しているが、図12の例では、変色の箇所が存在していないため、変状が変色であることを示す分類結果が存在しない。
図12の例では、64個(=8×8個)の分割画像を表示している。
図12の例では、ユーザが、左から6番目及び上から2番目の分割画像(以下、(6,2)の分割画像と称する)についての変状の分類結果が間違っている判断し、分類結果修正部6が備えるマウスなどのユーザインタフェースを使用して、(6,2)の分割画像を指定している。
(6,2)の分割画像での分類結果は、コンクリート面に生じている変状が、ひびであることを示している。
しかし、実際には、(6,2)の分割画像のコンクリート面に生じている変状が、ひびではなく、析出物であれば、ユーザが、ひびに係るスライドバーと、析出物に係るスライドバーとを用いて、(6,2)の分割画像での分類結果を調整する。
図13は、分類結果修正部6により調整が受け付けられた分類結果を示す説明図である。
図13の例では、ユーザが、ひびに係るスライドバーにおける△の記号を左方向にスライドさせて、ひびである確率を下げ、析出物に係るスライドバーにおける△の記号を右方向にスライドさせて、析出物である確率を上げている。
分類結果修正部6は、ユーザによる分類結果の調整を受け付けて、修正後の分類結果をデータ保存部4に出力する。
データ保存部4は、分類結果修正部6から出力された修正後の分類結果を保存する。
学習モデル構築部2は、データ保存部4により保存されている修正後の分類結果を用いて、再度学習することで、CNNの学習モデルの精度を高めることができる。
修正後の分類結果を用いて、再度学習する処理自体は、公知の技術であるため、詳細な説明を省略する。
以上で明らかなように、この実施の形態2によれば、表示部5により表示されている変状の分類結果の修正を受け付ける分類結果修正部6を備えるように構成したので、上記実施の形態1よりも、CNNの学習モデルの精度を高めることができる効果を奏する。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明は、変状検出対象物に生じている変状の分類結果を取得する変状検出装置に適している。
1 サンプル画像変形部、2 学習モデル構築部、3 変状検出部、4 データ保存部、5 表示部、6 分類結果修正部、6a ユーザインタフェース、21 サンプル画像変形回路、22 学習モデル構築回路、23 変状検出回路、24 データ保存回路、25 表示回路、26 分類結果修正回路、31 メモリ、32 プロセッサ。

Claims (4)

  1. 変状の分類結果を出力する畳み込みニューラルネットワークの学習データとして、変状が含まれているサンプル画像を示す画像データを使用して、前記畳み込みニューラルネットワークの学習モデルを構築する学習モデル構築部と、
    変状検出対象物の画像を示す画像データを、前記学習モデル構築部により学習モデルが構築された畳み込みニューラルネットワークに与えることで、前記畳み込みニューラルネットワークから出力される変状の分類結果を取得する変状検出部とを備え、
    前記学習モデル構築部は、前記サンプル画像に含まれている変状が線形の変状であれば、長方形のカーネルを使用して、前記畳み込みニューラルネットワークから前記サンプル画像に含まれている変状の特徴を抽出し、前記サンプル画像に含まれている変状が面状の変状であれば、正方形のカーネルを使用して、前記畳み込みニューラルネットワークから前記サンプル画像に含まれている変状の特徴を抽出し、前記抽出した特徴を学習することで、前記畳み込みニューラルネットワークの学習モデルを調整することを特徴とする変状検出装置。
  2. 前記サンプル画像を変形するサンプル画像変形部を備え、
    前記学習モデル構築部は、前記サンプル画像を示す画像データ及び前記サンプル画像変形部により変形されたサンプル画像を示す画像データのそれぞれを前記学習データとして使用することを特徴とする請求項1記載の変状検出装置。
  3. 前記変状検出部により取得された変状の分類結果と、前記変状検出対象物の画像とを表示する表示部を備えたことを特徴とする請求項1記載の変状検出装置。
  4. 前記表示部により表示されている変状の分類結果の修正を受け付ける分類結果修正部を備えたことを特徴とする請求項3記載の変状検出装置。
JP2019541566A 2017-09-14 2017-09-14 変状検出装置 Active JP6664557B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/033277 WO2019053842A1 (ja) 2017-09-14 2017-09-14 変状検出装置

Publications (2)

Publication Number Publication Date
JPWO2019053842A1 JPWO2019053842A1 (ja) 2020-02-06
JP6664557B2 true JP6664557B2 (ja) 2020-03-13

Family

ID=65722564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019541566A Active JP6664557B2 (ja) 2017-09-14 2017-09-14 変状検出装置

Country Status (4)

Country Link
US (1) US20200134384A1 (ja)
JP (1) JP6664557B2 (ja)
CN (1) CN111052177A (ja)
WO (1) WO2019053842A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3596449A4 (en) * 2017-03-14 2021-01-06 University of Manitoba DETECTION OF STRUCTURAL DEFECTS USING AUTOMATIC LEARNING ALGORITHMS
EP3605435A4 (en) * 2017-03-29 2020-02-05 Nec Corporation SITE MANAGEMENT DEVICE, SITE MANAGEMENT METHOD, AND COMPUTER-READABLE RECORDING MEDIUM
EP3942480A1 (en) * 2019-05-23 2022-01-26 Google LLC Fully attentional computer vision
EP4038374A4 (en) 2019-09-30 2023-10-25 Musashi AI North America Inc. SYSTEM AND METHOD FOR AI VISUAL INSPECTION
JP7446771B2 (ja) * 2019-10-30 2024-03-11 株式会社東芝 可視化データ生成装置、可視化データ生成システム、及び可視化データ生成方法
JP6793896B1 (ja) * 2020-03-04 2020-12-02 三菱電機株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US20230175982A1 (en) * 2020-06-05 2023-06-08 Hitachi High-Tech Corporation Defect inspection apparatus
JP2022040531A (ja) * 2020-08-31 2022-03-11 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 異常判定モデル生成方法及び異常判定モデル生成装置並びに検査装置
JP2022135080A (ja) * 2021-03-04 2022-09-15 キヤノン株式会社 画像処理装置および画像処理方法
JP7023425B1 (ja) * 2021-03-29 2022-02-21 三菱電機株式会社 情報処理装置、情報処理方法、および情報処理プログラム
CN113065606B (zh) * 2021-04-19 2023-11-17 北京石油化工学院 一种基于轻量级深度学习的异常点位检测方法及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005114588A (ja) * 2003-10-08 2005-04-28 Mitsubishi Heavy Ind Ltd 追尾装置
US20140056536A1 (en) * 2012-08-27 2014-02-27 Toshiba Medical Systems Corporation Method and system for substantially removing dot noise
JP6160196B2 (ja) * 2013-04-15 2017-07-12 オムロン株式会社 識別器更新装置、識別器更新プログラム、情報処理装置、および識別器更新方法
EP3296722B1 (en) * 2015-05-26 2021-12-22 Mitsubishi Electric Corporation Detection device and detection method
GB2542118B (en) * 2015-09-04 2021-05-19 Toshiba Europe Ltd A method, apparatus, system, and computer readable medium for detecting change to a structure
CN106780466A (zh) * 2016-12-21 2017-05-31 广西师范大学 一种基于卷积神经网络的宫颈细胞图像识别方法
KR101772916B1 (ko) * 2016-12-30 2017-08-31 한양대학교 에리카산학협력단 촬영영상과 인공지능 알고리즘 기반의 균열검출 자동화 프로그램을 이용한 터널 라이닝 표면의 균열 검출 방법 및 시스템

Also Published As

Publication number Publication date
US20200134384A1 (en) 2020-04-30
WO2019053842A1 (ja) 2019-03-21
CN111052177A (zh) 2020-04-21
JPWO2019053842A1 (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
JP6664557B2 (ja) 変状検出装置
US20240296669A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
CN111091567B (zh) 医学图像配准方法、医疗设备及存储介质
JP2016513320A (ja) 少なくとも1つの追加イメージを用いたイメージ改善及びエッジ検証のための方法及び装置
CN110827202A (zh) 目标检测方法、装置、计算机设备和存储介质
CN109919971B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN114550021B (zh) 基于特征融合的表面缺陷检测方法及设备
US20210272272A1 (en) Inspection support apparatus, inspection support method, and inspection support program for concrete structure
JP2018180945A (ja) 物体検出装置及びプログラム
JP2018029250A5 (ja)
JPWO2018179338A1 (ja) 機械学習装置及び画像認識装置
TW202200993A (zh) 檢查裝置、檢查方法及檢查程式
CN113744142A (zh) 图像修复方法、电子设备及存储介质
CN108399617B (zh) 一种动物健康状况的检测方法和装置
US20220414827A1 (en) Training apparatus, training method, and medium
JP6347610B2 (ja) 画像処理装置および3次元空間情報取得方法
JP2017130067A (ja) 衛星映像の位置正確度改善のための自動映像処理システム及びその方法
US8472756B2 (en) Method for producing high resolution image
JP2011133954A (ja) エッジ抽出方法及びエッジ抽出装置
EP4187483A1 (en) Apparatus and method with image processing
JP6855938B2 (ja) 距離測定装置、距離測定方法および距離測定プログラム
JP5955003B2 (ja) 画像処理装置および画像処理方法、プログラム
JP6147003B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP4680026B2 (ja) 画像間変化抽出支援システム及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191028

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191028

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191028

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200218

R150 Certificate of patent or registration of utility model

Ref document number: 6664557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250