JP7210315B2 - 検査システムおよび検査方法 - Google Patents

検査システムおよび検査方法 Download PDF

Info

Publication number
JP7210315B2
JP7210315B2 JP2019025600A JP2019025600A JP7210315B2 JP 7210315 B2 JP7210315 B2 JP 7210315B2 JP 2019025600 A JP2019025600 A JP 2019025600A JP 2019025600 A JP2019025600 A JP 2019025600A JP 7210315 B2 JP7210315 B2 JP 7210315B2
Authority
JP
Japan
Prior art keywords
image
learning
inspection
unit
development
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019025600A
Other languages
English (en)
Other versions
JP2020135203A (ja
Inventor
あずさ 菅原
摂 山本
淳介 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019025600A priority Critical patent/JP7210315B2/ja
Publication of JP2020135203A publication Critical patent/JP2020135203A/ja
Application granted granted Critical
Publication of JP7210315B2 publication Critical patent/JP7210315B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明の実施形態は、検査システムおよび検査方法に関する。
従来、カメラまたは超音波装置などの検査装置を用いて得られた画像に基づいて、検査の対象物の健全性を機械学習で評価する技術がある。評価精度を上げるには、画像に含まれることが想定される欠陥または物体などの像を網羅した多数のサンプル画像が必要になる。しかしながら、原子力プラントのように、データを取得する機会が限られている対象物がある。そのような対象物については、充分なサンプル画像が得られない。そこで、サンプル画像が少ない場合でも評価精度を向上させる技術として、画像を複数に分割し、分割された画像をその品質毎に分類する技術が知られている。
特開2017-211259号公報
超音波を用いた溶接部の検査では、検査の対象物の形状、内部の欠陥、溶接部の組織、または内在物などの多様な発生由来に基づく像が画像に出現する。超音波の当たり方次第では、強度または形状がそれぞれ類似した様相になったり、それぞれが重畳したりする。このような画像を用いて機械学習を行うと、それぞれの画像の特徴の差が得られず、学習の精度が低下してしまうという課題がある。
本発明の実施形態は、このような事情を考慮してなされたもので、画像解析の学習の効率化により検査精度を向上させることができる検査技術を提供することを目的とする。
本発明の実施形態に係る検査システムは、検査の対象となる対象物が有する状態に応じて出現する出現像が含まれる学習画像を取得する学習画像取得部と、前記学習画像に含まれる前記出現像を特定する出現像特定部と、少なくとも1つの前記出現像が含まれるように前記学習画像を分割して分割画像を生成する分割画像生成部と、前記分割画像に含まれる前記出現像に対応する指標を設定する指標設定部と、少なくとも2つの前記指標を1つの前記分割画像に対応付けた学習用データを生成する学習用データ生成部と、前記学習用データに基づいて画像解析の学習を行う学習部と、前記学習により学習モデルを出力する学習モデル出力部と、を備える。
本発明の実施形態により、画像解析の学習の効率化により検査精度を向上させることができる検査技術が提供される。
本実施形態の検査システムの構成を示すブロック図。 学習画像または検査画像を示す画像図。 学習画像または検査画像の分割態様を示す画像図。 学習画像または検査画像の分割態様を示す画像図。 学習画像または検査画像の分割態様を示す画像図。 分割画像に対応付けられる指標を示す説明図。 分割画像に対応付けられる指標を示す説明図。 分割画像に対応付けられる指標を示す説明図。 検査方法の学習工程を示すフローチャート。 検査方法の解析工程を示すフローチャート。 検査画像解析方法を示すフローチャート。 変形例の学習画像を示す画像図。
以下、図面を参照しながら、検査システムおよび検査方法の実施形態について詳細に説明する。
図1の符号1は、本実施形態の検査システムである。この検査システム1は、検査の対象となる対象物の欠陥の有無を評価するものである。特に、超音波検査、X線検査、可視光検査、顕微鏡検査、赤外線検査、紫外線検査、または渦電流検査などの検査方法で取得した画像を、人工知能(AI:Artificial Intelligence)を備えるコンピュータを用いて自動的に解析し、対象物の欠陥の有無を評価する。
本実施形態のコンピュータを用いた画像の解析には、人工知能の学習に基づく解析技術が用いられる。例えば、ニューラルネットワークによる機械学習により生成された学習モデル、その他の機械学習により生成された学習モデル、深層学習アルゴリズム、回帰分析などの数学的アルゴリズムを用いることができる。また、機械学習の形態には、クラスタリング、深層学習などの形態が含まれる。
なお、対象物としては金属材料で構成された部材を例示する。このような対象物の表面または溶接部に生じる欠陥を検査システムにより評価する。また、欠陥には、対象物の表面に生じた疵または対象物の内部に生じた空洞が含まれる。
例えば、一般的な超音波検査の場合には、製品の出荷前検査において、製品の欠陥の有無に基づいて、良品であるか不良品であるかの評価を行う。また、発電プラントの定検などの使用中に検査を行う場合には、対象物に含まれる欠陥のサイズまたは位置などの特徴の評価も行う。
評価手順としては、まず、検査方法で取得した検査データ(検査信号または検査画像)の不備を確認する。ここでいう不備とは、例えば、検査データの取得に用いた検査用機器の不備によって、検査データに抜けがあること、または、検査用機器と対象物との位置関係が変化してしまって、解析に適さない検査データがあることを示す。
検査データに不備が無い場合には、検査データを基に対象物の欠陥の有無を評価する。例えば、超音波検査の場合は、画像上で欠陥と疑われるエコー(出現像)がある場合に、そのエコー位置、強度、または欠陥サイズなどの情報を記録する。なお、このような欠陥と疑われるエコーは「指示」とも称される。
また、検査対象によっては、この評価作業を複数回行う場合がある。例えば、所定の評価者が行った一次評価結果を別の評価者が二次評価する際には、一次評価にて欠陥と評価されたエコーを確認し、そのエコーが欠陥であるかそうでないか、エコー位置、強度、または欠陥サイズなどの情報の記録値が適切か否かを確認する。
このように複数回に亘って異なる複数の評価者が評価することで、評価精度が向上する。本実施形態では、画像解析用に作成した学習モデルを利用して評価を行い、人手による評価の負荷を低減する。例えば、複数回の評価を行う場合には、人手による評価の前後に、学習モデルを利用した評価を行う。また、人手による評価を代替しても良い。
本実施形態の検査システム1は、機械学習を行う人工知能を備えるコンピュータを含む。例えば、ニューラルネットワークを備える1台のコンピュータで検査システム1を構成しても良いし、ニューラルネットワークを備える複数台のコンピュータで検査システム1を構成しても良い。
ここで、ニューラルネットワークとは、脳機能の特性をコンピュータによるシミュレーションによって表現した数学モデルである。例えば、シナプスの結合によりネットワークを形成した人工ニューロン(ノード)が、学習によってシナプスの結合強度を変化させ、問題解決能力を持つようになるモデルを示す。さらに、ニューラルネットワークは、深層学習(Deep Learning)により問題解決能力を取得する。
例えば、ニューラルネットワークには、6層のレイヤーを有する中間層が設けられる。この中間層の各レイヤーは、300個のユニットで構成されている。また、多層のニューラルネットワークに学習用データを用いて予め学ばせておくことで、回路またはシステムの状態の変化のパターンの中にある特徴量を自動で抽出することができる。なお、多層のニューラルネットワークは、ユーザインターフェース上で、任意の中間層数、ユニット数、学習率、学習回数、活性化関数を設定することができる。
なお、学習の対象となる各種情報に報酬関数を設定し、この報酬関数に基づいて価値が最も高くなるものを抽出する深層強化学習を用いても良い。
本実施形態では、画像認識で実績のあるCNN(Convolution Neural Network)を用いる。このCNNでは、中間層が畳み込み層とプーリング層で構成される。畳み込み層は、前の層で近くにあるノードにフィルタ処理を施すことで特徴マップを取得する。プーリング層は、畳込み層から出力された特徴マップを、さらに縮小して新たな特徴マップとする。この際に着目する領域のいずれの値を用いるかによって、画像の多少のずれも吸収することができる。
畳み込み層は、画像の局所的な特徴を抽出し、プーリング層は、局所的な特徴をまとめる処理を行う。これらの処理では、入力画像の特徴を維持しながら画像を縮小処理する。つまり、CNNでは、画像の持つ情報量を大幅に圧縮(抽象化)することができる。そして、ニューラルネットワークに記憶された抽象化された画像イメージを用いて、入力される画像を認識し、画像の分類を行うことができる。
なお、深層学習には、オートエンコーダ、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、GAN(Generative Adversarial Network)などの各種手法がある。これらの手法を本実施形態の深層学習に適用しても良い。
次に、本実施形態の機械学習について説明する。図2には、超音波検査などの検査方法で取得した画像G1を例示する。この画像G1は、ニューラルネットワークの機械学習に用いる学習画像である。また、実際の検査で用いられる検査画像も、この画像G1と同様のものとなっている。なお、学習に用いる画像G1は、超音波検査により取得した画像のみならず、X線検査により取得した画像、カメラで撮影した画像、またはコンピュータグラフィックス(CG)で合成した画像であっても良い。
超音波検査にて得られる画像G1には、発生由来ごとに異なる出現像が含まれる。例えば、対象物の表面で超音波が反射し、この表面形状に基づく第1種の出現像T(top image)が含まれる。また、対象物の底面で超音波が反射し、この底面形状に基づく第2種の出現像B(bottom image)が含まれる。また、対象物の内部の欠陥で超音波が反射し、この欠陥に基づく第3種の出現像D(defect image)が含まれる。また、対象物の内部の散乱源または溶接部の組織で超音波が反射し、ノイズとなる第4種の出現像N(noise image)が含まれる。
なお、出現像T,B,D,Nとは、学習画像G1の背景以外の部分である。つまり、出現像とは、画像G1に含まれる特定の情報が含まれる部分である。また、出現像の種類は発生由来に対応しても良いし、発生由来以外のものに対応しても良い。
本実施形態では、それぞれの出現像に対し、その発生由来に応じて分類の基準となる指標「T」、「B」、「D」、「N」を対応付ける(図6参照)。なお、本実施形態では、発生由来ごとに分類された第1~4種の出現像T,B,D,Nを例示するが、その他の種類の出現像が含まれても良い。
これらの出現像は、その発生由来ごとに分類することができる。また、それぞれの出現像の特徴に応じて分類することができる。例えば、分類の基準として、欠陥、対象物形状、表面の粗さ、および内在物などの発生由来の違いに基づいて分類することができる。さらに、出現像の形状、大きさ、個数、強度に基づいて分類することができる。
なお、機械学習では、多量の学習画像G1をニューラルネットワークに学習させる必要がある。しかしながら、サンプルとなる学習用の画像G1を取得する機会が限られる場合がある。特に、原子力プラントでは、サンプルとなるデータの取得が定期点検などの機会に限られる。そこで、本実施形態では、1つの画像G1を複数に分割して多量の分割画像G2~G6を生成する(図3参照)。
本実施形態の機械学習の方法は、大きく2つの処理に分けられる。まず、学習用データを生成する第1処理を行う。この第1処理では、学習画像G1を取得し、その学習画像G1に含まれる出現像を特徴ごとに分類する。そして、1つの学習画像G1を、種類の異なる出現像が1つ以上含まれるように分割し、複数の分割画像G2~G6を生成する。そして、それぞれの分割画像G2~G6に含まれる出現像に対応する指標を分割画像G2~G6に対応付ける。次に、学習モデルを作成する第2処理を行う。この第2処理では、指標が対応付けられた分割画像G2~G6を学習用データとしてニューラルネットワークに学習させて、画像学習モデルを作成する。
まず、第1処理について説明する。第1処理では、学習画像G1を取得する。学習画像G1としては、カメラによる撮影またはX線検査のように、2次元データとして取得される静止画または動画を用いても良い。また、超音波検査または渦電流検査で得られた1次元データ(信号)を用いて作成した2次元データ(静止画または動画)を用いても良い。さらに、学習画像G1の生成には、学習用に新たにデータを取得して用いても良いし、予め取得されたデータを用いても良いし、他の用途に用いたデータを用いても良い。
図3は、1つの学習画像G1を分割して複数の分割画像G2~G6を生成する態様を示している。それぞれの分割画像G2~G6は、発生由来ごとに異なる種類の出現像が含まれるようになっている。
例えば、分割画像G2には、第1種の出現像Tが含まれる。分割画像G3には、第2種の出現像Bが含まれる。分割画像G4には、第3種の出現像Dが含まれる。分割画像G5およびG6には、第4種の出現像Nが含まれる。また、分割画像G2,G3,G6のように、出現像T,B,Nが、分割画像G2,G3,G6の枠外に、はみ出しても良い。また、分割画像G6のように、1つの分割画像G6に、特徴が同じ種類の複数の出現像Nが含まれても良い。さらに、分割画像G4およびG6のように、部分的に重畳しても良い。
図6に示すように、それぞれの分割画像G2~G6に指標を対応付ける。本実施形態では、第1~6の複数種類の指標を設定する。
第1指標には、発生由来に応じた指標「T」、「B」、「D」、「N」が設定される。例えば、第1種の出現像Tを含む分割画像G2に指標「T」を対応付ける。また、第2種の出現像Bを含む分割画像G3に指標「B」を対応付ける。また、第3種の出現像Dを含む分割画像G4に指標「D」を対応付ける。また、第4種の出現像Nを含む分割画像G5,G6に指標「N」を対応付ける。
第2指標には、第3種の出現像Dを含む分割画像G4と、第3種の出現像Dを含まない分割画像G2,G3,G5,G6とを区別可能な指標「D」、「N」が設定される。例えば、第3種の出現像Dを含む分割画像G4に指標「D」を対応付ける。そして、第3種の出現像Dを含まない分割画像G2,G3,G5,G6に指標「N」を対応付ける。つまり、第3種の出現像D以外の出現像T,B,Nを全てノイズとして扱う。
第3指標には、出現像の形状およびサイズに応じた指標「線」、「円(大きい)」、「円(小さい)」が設定される。例えば、線状の出現像T,Bを含む分割画像G2,G3に指標「線」を対応付ける。また、大きい円形状の出現像Dを含む分割画像G4に指標「円(大きい)」を対応付ける。また、小さい円形状の出現像Nを含む分割画像G5,G6に指標「円(小さい)」を対応付ける。
第4指標には、円形状の出現像D,Nの個数に応じた数値が設定される。例えば、円形状の出現像Dを1つ含む分割画像G4に指標「1」を対応付ける。また、円形状の出現像Nを1つ含む分割画像G5に指標「1」を対応付ける。また、円形状の出現像Nを2つ含む分割画像G6に指標「2」を対応付ける。なお、円形状の出現像D,Nを含まない分割画像G2,G3に指標「0」を対応付ける。
第5指標には、発生由来に応じてナンバリングされた指標「1」、「2」、「3」、「4」が設定される。例えば、第1種の出現像Tを含む分割画像G2に指標「1」を対応付ける。また、第2種の出現像Bを含む分割画像G3に指標「2」を対応付ける。また、第3種の出現像Dを含む分割画像G4に指標「3」を対応付ける。また、第4種の出現像Nを含む分割画像G5,G6に指標「4」を対応付ける。
第6指標には、出現像の強度に応じた指標「高強度」、「低強度」が設定される。例えば、高い強度の出現像Dを含む分割画像G4に指標「高強度」を対応付ける。そして、低い強度の出現像T,B,Nを含む分割画像G2,G3,G5,G6に指標「低強度」を対応付ける。
なお、指標は、出現像の特徴量を表す言葉または数値以外のものでも良い。さらに、1つの分割画像に対して、1つの指標が対応付けられても良いし、複数の指標が対応付けられても良い。
図4は、発生由来の異なる出現像を2つ以上含むように分割画像G7~G10を生成する態様を示している。
例えば、分割画像G7には、第1種の出現像Tと第3種の出現像Dとが含まれる。分割画像G8には、第1種の出現像Tと第4種の出現像Nとが含まれる。分割画像G9には、第2種の出現像Bと第4種の出現像Nとが含まれる。分割画像G10には、第3種の出現像Dと第4種の出現像Nとが含まれる。
図7に示すように、それぞれの分割画像G7~G10に指標を対応付ける。例えば、第1種の出現像Tと第3種の出現像Dとが含まれる分割画像G7には、第1指標「T+D」を対応付け、第2指標「D+N」を対応付け、第3指標「線+円(大きい)」を対応付け、第4指標「1」を対応付ける。
また、第1種の出現像Tと第4種の出現像Nとが含まれる分割画像G8には、第1指標「T+N」を対応付け、第2指標「N」を対応付け、第3指標「線+円(小さい)」を対応付け、第4指標「1」を対応付ける。
また、第2種の出現像Bと第4種の出現像Nとが含まれる分割画像G9には、第1指標「B+N」を対応付け、第2指標「N」を対応付け、第3指標「線+円(小さい)」を対応付け、第4指標「1」を対応付ける。
また、第3種の出現像Dと第4種の出現像Nとが含まれる分割画像G10には、第1指標「D+N」を対応付け、第2指標「D+N」を対応付け、第3指標「円(大きい)+円(小さい)」を対応付け、第4指標「2」を対応付ける。
図5は、発生由来の異なる出現像を3つ以上含むように分割画像G11,G12を生成する態様を示している。
例えば、分割画像G11には、第1種の出現像Tと第3種の出現像Dと第4種の出現像Nとが含まれる。分割画像G12には、第2種の出現像Bと第3種の出現像Dと第4種の出現像Nとが含まれる。
図8に示すように、それぞれの分割画像G11,G12に指標を対応付ける。例えば、第1種の出現像Tと第3種の出現像Dと第4種の出現像Nとが含まれる分割画像G11には、第1指標「T+D+N」を対応付け、第2指標「D+N」を対応付け、第3指標「線+円(大きい)+円(小さい)」を対応付け、第4指標「2」を対応付ける。
また、第2種の出現像Bと第3種の出現像Dと第4種の出現像Nとが含まれる分割画像G12には、第1指標「B+D+N」を対応付け、第2指標「D+N」を対応付け、第3指標「線+円(大きい)+円(小さい)」を対応付け、第4指標「3」を対応付ける。
なお、第1処理で実行される学習画像G1に基づく分割画像G2~G12の生成は、人手で行っても良いし、人工知能を備えるコンピュータを用いて自動的に行っても良い。コンピュータを用いる場合は学習画像G1を、予め設定した条件に基づいて分割する。この処理には、クラスタリング、機械学習、深層学習などを用いることができる。
このように発生由来ごとに異なる特徴に応じて出現像を1つ以上含むように学習画像G1を分割して分割画像G2~G12を生成することで、1つの学習画像G1からパターンの異なる複数の分割画像G2~G12を生成することができる。そのため、学習用データを増やすことができる。さらに、それぞれの分割画像G2~G12に含まれる出現像の特徴を表す指標を対応付けることで、出現像の特徴を効率的に学習できる。
次に、第2処理について説明する。第2処理では、第1処理にて生成した指標付きの分割画像G2~G12を用いて、ニューラルネットワークに出現像の学習をさせる。そして、学習モデルを生成する。なお、学習の際には、1つの分割画像に対して1つの指標を対応付けても良いし、複数の指標を対応付けても良い。
また、1つずつの画像を用いて学習しても良いし、複数の画像を2次元配列または1次元配列の並びとして学習しても良い。このような学習により画像解析に用いる学習モデルが生成される。
次に、検査システム1のシステム構成を図1に示すブロック図を参照して説明する。検査システム1は、学習装置2と検査装置3と解析装置4を備える。
学習装置2は、画像解析に用いる学習モデルを生成する。この学習装置2は、画像解析の機械学習を行う畳み込みニューラルネットワーク(深層学習部)を備えるコンピュータである。
検査装置3は、対象物の検査を行う検査装置である。本実施形態では、超音波を用いて検査装置を例示する。例えば、超音波を用いて対象物の表面の状態と対象物の溶接部の状態との少なくとも一方の情報を取得する。このようにすれば、対象物の表面の状態または対象物の溶接部の状態を含む検査画像を取得することができる。
なお、検査装置3は、超音波を用いたものに限らず、X線を用いたもの、または渦電流を用いたものなどであっても良い。
解析装置4は、検査装置3で取得した情報に基づいて対象物を解析する。この解析装置4は、学習装置2で生成した学習モデルに基づいて画像解析を行う畳み込みニューラルネットワーク(深層学習部)を備えるコンピュータである。
学習装置2は、学習画像取得部5と出現像特定部6と出現像分類部7と分割画像生成部8と指標設定部9と学習用データ生成部10と学習部11と学習モデル出力部12と学習制御部13とを備える。これらは、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで実現される。
学習画像取得部5は、サンプル信号取得部14とサンプル信号処理部15と学習画像生成部16とを備える。この学習画像取得部5は、検査の対象となる対象物が有する状態に応じて出現する出現像T,B,D,N(図2参照)が含まれる学習画像G1を生成(取得)する。この学習画像取得部5には、学習画像G1の生成に必要なデータが入力される。
サンプル信号取得部14は、学習画像G1の生成の元となるサンプル信号を含むサンプルデータを取得する。このサンプルデータは、検査装置3から取得されても良いし、その他の装置から取得されても良い。
サンプル信号処理部15は、サンプル信号取得部14が取得したサンプル信号の処理を行う。超音波を用いた検査装置3から取得されたサンプル信号の場合は、波形または強度の情報を得る。
学習画像生成部16は、サンプル信号に基づいて学習画像G1(図2参照)の生成を行う。超音波を用いた検査装置3の場合には、対象物の表面を1次元方向(例えば、Y方向)に走査することで、1次元データを得る。この1次元データを2次元方向(例えば、X方向)に並べて2次元データとしての学習画像G1を得る。
なお、学習画像取得部5に対して外部から生成済みの2次元データとしての学習画像G1を入力しても良い。つまり、学習画像取得部5には、超音波検査により取得した画像、X線検査により取得した画像、カメラで撮影した画像、渦電流検査により取得した画像を入力しても良い。
出現像特定部6は、学習画像G1に含まれる出現像T,B,D,N(図2参照)を特定する。なお、学習画像G1に含まれる出現像の特定は、人工知能を備えるコンピュータを用いて自動的に行っても良いし、学習装置2の使用者による人手で行っても良い。つまり、出現像特定部6は、使用者の入力操作に基づく処理を行うことができる。
出現像分類部7は、出現像T,B,D,N(図2参照)を発生由来ごとに分類する。なお、この分類に応じて第1指標と第5指標とが設定される(図6参照)。
分割画像生成部8は、学習画像G1に基づいて分割画像G2~G12の生成を行う。例えば、分類の異なる出現像T,B,D,N(図2参照)を1つ以上含むように、学習画像G1を分割して分割画像G2~G12を生成する。
指標設定部9は、分割画像G2~G12に含まれる出現像T,B,D,N(図2参照)に対応する指標を設定する。例えば、指標設定部9は、出現像の発生由来に基づく分類に対応する指標を設定する(図6参照)。このようにすれば、発生由来ごとに出現像を識別するための学習を行うことができる。
また、指標設定部9は、出現像の形状に対応する指標を設定する(図6参照)。このようにすれば、形状ごとに出現像を識別するための学習を行うことができる。また、指標設定部9は、出現像のサイズに対応する指標を設定する。このようにすれば、サイズごとに出現像を識別するための学習を行うことができる(図6参照)。
また、指標設定部9は、1つの分割画像G2~G12に含まれる出現像の個数に対応する指標を設定する(図6参照)。このようにすれば、分割画像G2~G12に含まれる個数ごとに出現像を識別するための学習を行うことができる。また、指標設定部9は、出現像の強度に対応する指標を設定する(図6参照)。このようにすれば、強度ごとに出現像を識別するための学習を行うことができる。
学習用データ生成部10は、指標を分割画像G2~G12に対応付けた学習用データを生成する。例えば、学習用データ生成部10は、1つの分割画像G7~G12に対して少なくとも2つの指標を対応付ける(図7および図8参照)。このようにすれば、分割画像G7~G12に含まれる出現像を識別するための学習の効率を向上させることができる。
学習部11は、指標付き分割画像G2~G12を含む学習用データに基づいて画像解析の学習を行う。つまり、検査装置3を用いて取得される検査画像を解析するための学習を行う。この学習部11は、機械学習を行う畳み込みニューラルネットワーク(深層学習部)を備える。なお、学習用データには、学習画像G1を含めても良い。
学習モデル出力部12は、学習部11の学習により生成された学習モデルを出力する。なお、出力された学習モデルは、ネットワークを介して他のコンピュータに伝送されても良いし、コンピュータで読み取り可能な非一過性の記憶媒体に記憶されても良い。
学習制御部13は、学習装置2を統括的に制御する。
解析装置4は、検査画像取得部17と解析部18と解析結果出力部19と解析制御部20とを備える。これらは、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで実現される。この解析装置4は、学習装置2が生成した学習モデルを用いて画像を評価または分類する機能を有する。
検査画像取得部17は、検査信号取得部21と検査信号処理部22と検査画像生成部23とを備える。この検査画像取得部17には、評価する対象となる検査画像の生成に必要な検査データが入力される。つまり、検査画像取得部17は、検査装置3により得られる対象物の検査画像(検査データ)を取得する。
検査信号取得部21は、検査画像の生成の元となる検査信号を含む検査データを取得する。この検査データは、検査装置3から取得される。また、その他の装置から取得されても良い。
検査信号処理部22は、検査信号取得部21が取得した検査信号の処理を行う。超音波を用いた検査装置3から取得された検査信号の場合は、波形または強度の情報を得る。
検査画像生成部23は、検査信号に基づいて検査画像の生成を行う。超音波を用いた検査装置3の場合には、対象物の表面を1次元方向(例えば、Y方向)に走査することで、1次元データを得る。この1次元データを2次元方向(例えば、X方向)に並べて2次元データとしての検査画像を得る。
解析部18は、判定部24と分類特定部25と欠陥画像抽出部26とを備える。この解析部18は、学習装置2で生成された学習モデルに基づいて画像の解析を行うニューラルネットワーク(深層学習部)を備える。
判定部24は、対象物が有する欠陥を示す指標に対応する出現像D(図2参照)が検査画像に含まれているか否かを学習モデルに基づいて判定する。このようにすれば、対象物に欠陥があるか否かを解析する検査画像の解析効率を向上させることができる。
分類特定部25は、検査画像に含まれる出現像T,B,D,N(図2参照)の分類を学習モデルに基づいて特定する。この分類特定部25は、学習装置2で生成した学習モデルに応じて、検査画像に含まれる出現像の分類を行う。例えば、学習装置2で学習させた指標付きの画像との類似度または差分などの特徴量を用いて評価を行う。この評価した特徴量に応じて、検査画像に含まれる出現像を分類する。
欠陥画像抽出部26は、検査画像から出現像Dを含む欠陥画像を抽出する。この欠陥画像は、検査画像から出現像Dを含む部分を分割した画像である。例えば、出現像Dを含む分割画像G4(図3参照)と同様の態様の画像である。
解析結果出力部19は、判定出力部27と分類出力部28と欠陥画像出力部29とを備える。
判定出力部27は、判定部24による判定結果を出力する。このようにすれば、解析装置4の使用者が、対象物が欠陥を有しているか否かを把握することができる。
分類出力部28は、分類特定部25による検査画像の分類結果を出力する。このようにすれば、解析装置4の使用者が、検査画像に含まれる出現像の発生由来を解析することができる。
欠陥画像出力部29は、欠陥画像抽出部26が抽出した欠陥画像を出力する。このようにすれば、解析装置4の使用者が、対象物が有する欠陥の状態を欠陥画像により把握することができる。
解析制御部20は、解析装置4を統括的に制御する。
なお、解析結果出力部19は、画面表示またはアラーム音の出力などの所定の態様で評価結果を出力しても良い。つまり、解析結果出力部19は、表示部または音声出力部を備える。
本実施形態のシステムは、CPU、ROM、RAM、HDDなどのハードウェア資源を有し、CPUが各種プログラムを実行することで、ソフトウェアによる情報処理がハードウェア資源を用いて実現されるコンピュータで構成される。さらに、本実施形態の検査方法は、プログラムをコンピュータに実行させることで実現される。
次に、検査システム1の学習装置2が実行する学習処理について図9のフローチャートを用いて説明する。なお、図1に示すブロック図を適宜参照する。
図9に示すように、まず、ステップS11において、学習装置2の学習画像取得部5のサンプル信号取得部14は、学習画像G1の生成の元となるサンプル信号を含むサンプルデータを取得する。
次のステップS12において、学習画像取得部5のサンプル信号処理部15は、サンプル信号取得部14が取得したサンプル信号の処理を行う。
次のステップS13において、学習画像取得部5の学習画像生成部16は、サンプル信号に基づいて学習画像G1(図2参照)の生成を行う。
次のステップS14において、出現像特定部6は、学習画像G1に含まれる出現像T,B,D,N(図2参照)を特定する。
次のステップS15において、出現像分類部7は、出現像T,B,D,N(図2参照)を発生由来ごとに分類する。
次のステップS16において、分割画像生成部8は、学習画像G1に基づいて分割画像G2~G12の生成を行う。
次のステップS17において、指標設定部9は、分割画像G2~G12に含まれる出現像T,B,D,N(図2参照)に対応する指標を設定する。
次のステップS18において、学習用データ生成部10は、指標を分割画像G2~G12に対応付けた学習用データを生成する。
次のステップS19において、学習用データ生成部10で生成された学習用データを学習部11に入力する。例えば、学習用データを畳み込みニューラルネットワークにセットする。
次のステップS20において、学習部11は、指標付き分割画像G2~G12を含む学習用データに基づいて画像解析の学習を行う。
次のステップS21において、学習モデル出力部12は、学習部11の学習により生成された学習モデルを出力する。そして、処理を終了する。
なお、ステップS11からステップS18までが第1処理であり、ステップS19からステップS21までが第2処理である。
次に、検査システム1の解析装置4が実行する学習処理について図10のフローチャートを用いて説明する。なお、図1に示すブロック図を適宜参照する。
図10に示すように、まず、ステップS31において、学習装置2で生成された学習モデルが解析装置4の解析部18にセットされる。例えば、学習モデルをニューラルネットワークにセットする。
次のステップS32において、検査画像取得部17の検査信号取得部21は、検査画像の生成の元となる検査信号を含む検査データを検査装置3から取得する。
次のステップS33において、検査画像取得部17の検査信号処理部22は、検査信号取得部21が取得した検査信号の処理を行う。
次のステップS34において、検査画像取得部17の検査画像生成部23は、検査信号に基づいて検査画像の生成を行う。
次のステップS35において、解析部18は、学習装置2で生成された学習モデルに基づいて画像の解析を行う。
次のステップS36において、解析部18の判定部24は、対象物が有する欠陥を示す指標に対応する出現像D(図2参照)が検査画像に含まれているか否かを学習モデルに基づいて判定する。ここで、出現像Dが検査画像に含まれていない場合(ステップS36がNO)は、処理を終了する。一方、出現像Dが検査画像に含まれている場合(ステップS36がYES)は、ステップS37に進む。
ステップS37において、解析部18の分類特定部25は、検査画像に含まれる出現像T,B,D,N(図2参照)の分類を学習モデルに基づいて特定する。
次のステップS38において、解析部18の欠陥画像抽出部26は、検査画像から出現像Dを含む欠陥画像を抽出する。
次のステップS39において、解析結果出力部19の判定出力部27は、判定部24による判定結果を出力する。
次のステップS40において、解析結果出力部19の分類出力部28は、分類特定部25による検査画像の分類結果を出力する。
次のステップS41において、解析結果出力部19の欠陥画像出力部29は、欠陥画像抽出部26が抽出した欠陥画像を出力する。そして、処理を終了する。
次に、検査画像解析方法について図11のフローチャートを用いて説明する。なお、図1に示すブロック図を適宜参照する。
図11に示すように、まず、ステップS51において、検査装置3の使用者は、検査装置3を用いて対象物の検査データを取得する。
次のステップS52において、検査データを取得する使用者は、所定の装置を用いて検査画像を生成する。そして、検査装置3により得られる対象物の検査画像を人手により解析する。
次のステップS53において、使用者は、検査システム1により検査画像の解析を行う。つまり、使用者は、検査システム1の学習装置2で生成された学習モデルを、解析装置4にセットする。この解析装置4を用いて検査画像の解析を行う。
次のステップS54において、使用者は、人手により解析結果、および検査システム1による解析結果に基づいて、対象物の欠陥の有無を評価した報告書を作成する。そして、処理を終了する。
なお、本実施形態では、人手により検査画像の解析(ステップS52)を行った後に、検査システム1により検査画像の解析(ステップS53)を行っているが、その他の態様であっても良い。例えば、検査システム1により検査画像の解析(ステップS53)を行った後に、人手により検査画像の解析(ステップS52)を行っても良い。
次に、変形例としての学習画像G20について説明する。前述の実施形態では、超音波検査で得られた1次元データ(信号)を用いて作成した2次元データ(静止画)を学習画像G1として用いたが、変形例では、1次元データ(信号)を学習画像G20として用いる。
変形例の学習画像G20は、超音波検査で得られた1次元データの波形から成る。この超音波検査にて得られる波形データの画像G20には、発生由来ごとに異なる出現像が含まれる。例えば、対象物の表面で超音波が反射し、この表面形状に基づく第1種の出現像Tの波形が含まれる。また、対象物の底面で超音波が反射し、この底面形状に基づく第2種の出現像Bの波形が含まれる。また、対象物の内部の欠陥で超音波が反射し、この欠陥に基づく第3種の出現像Dの波形が含まれる。また、対象物の内部の散乱源または溶接部の組織で超音波が反射し、ノイズとなる第4種の出現像Nの波形が含まれる。
そして、学習画像G20に含まれる出現像を特徴ごとに分類する。そして、1つの学習画像G20を、種類の異なる出現像が1つ以上含まれるように分割し、複数の分割画像G21~G24を生成する。
例えば、分割画像G21には、第1種の出現像Tが含まれる。分割画像G22には、第3種の出現像Dが含まれる。分割画像G23には、第4種の出現像Nが含まれる。分割画像G24には、第2種の出現像Bが含まれる。このように、1つの画像G20を複数に分割して多量の分割画像G21~G24を生成することができる。
なお、本実施形態のフローチャートにおいて、各ステップが直列に実行される形態を例示しているが、必ずしも各ステップの前後関係が固定されるものでなく、一部のステップの前後関係が入れ替わっても良い。また、一部のステップが他のステップと並列に実行されても良い。
本実施形態のシステムは、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、またはCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)またはRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスまたはキーボードなどの入力装置と、通信インターフェースとを備える。このシステムは、通常のコンピュータを利用したハードウェア構成で実現できる。
なお、本実施形態のシステムで実行されるプログラムは、ROMなどに予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD、フレキシブルディスク(FD)などのコンピュータで読み取り可能な非一過性の記憶媒体に記憶されて提供するようにしても良い。
また、このシステムで実行されるプログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしても良い。また、このシステムは、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワークまたは専用線で相互に接続し、組み合わせて構成することもできる。
なお、本実施形態では、金属材料で構成された部材を対象物として検査システム1で検査を行うようにしているが、その他の態様であっても良い。例えば、人体を検査の対象物とする医療検査機器に本実施形態の検査システム1を適用しても良い。
以上説明した実施形態によれば、少なくとも1つの出現像が含まれるように学習画像を分割して分割画像を生成する分割画像生成部を備えることにより、画像解析の学習の効率化により検査精度を向上させることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…検査システム、2…学習装置、3…検査装置、4…解析装置、5…学習画像取得部、6…出現像特定部、7…出現像分類部、8…分割画像生成部、9…指標設定部、10…学習用データ生成部、11…学習部、12…学習モデル出力部、13…学習制御部、14…サンプル信号取得部、15…サンプル信号処理部、16…学習画像生成部、17…検査画像取得部、18…解析部、19…解析結果出力部、20…解析制御部、21…検査信号取得部、22…検査信号処理部、23…検査画像生成部、24…判定部、25…分類特定部、26…欠陥画像抽出部、27…判定出力部、28…分類出力部、29…欠陥画像出力部、B…底面の出現像、D…欠陥の出現像、G1…学習画像(検査画像)、G2~G24…分割画像、N…ノイズに基づく出現像、T…表面の出現像。

Claims (11)

  1. 検査の対象となる対象物が有する状態に応じて出現する出現像が含まれる学習画像を取得する学習画像取得部と、
    前記学習画像に含まれる前記出現像を特定する出現像特定部と、
    少なくとも1つの前記出現像が含まれるように前記学習画像を分割して分割画像を生成する分割画像生成部と、
    前記分割画像に含まれる前記出現像に対応する指標を設定する指標設定部と、
    少なくとも2つの前記指標を1つの前記分割画像に対応付けた学習用データを生成する学習用データ生成部と、
    前記学習用データに基づいて画像解析の学習を行う学習部と、
    前記学習により学習モデルを出力する学習モデル出力部と、
    を備える、
    検査システム。
  2. 前記指標設定部は、前記出現像の発生由来に基づく分類に対応する前記指標を設定する、
    請求項1に記載の検査システム。
  3. 検査装置により得られる前記対象物の検査画像を取得する検査画像取得部と、
    前記検査画像に含まれる前記出現像の前記分類を前記学習モデルに基づいて特定する分類特定部と、
    前記分類特定部による分類結果を出力する分類出力部と、
    を備える、
    請求項2に記載の検査システム。
  4. 検査装置により得られる前記対象物の検査画像を取得する検査画像取得部と、
    前記対象物が有する欠陥を示す前記指標に対応する前記出現像が前記検査画像に含まれているか否かを前記学習モデルに基づいて判定する判定部と、
    前記判定部による判定結果を出力する判定出力部と、
    を備える、
    請求項1から請求項3のいずれか1項に記載の検査システム。
  5. 前記検査画像から前記出現像を含む欠陥画像を抽出する欠陥画像抽出部を備える、
    請求項3または請求項4に記載の検査システム。
  6. 前記検査装置は、超音波を用いて前記対象物の表面の状態と前記対象物の溶接部の状態との少なくとも一方の情報を取得する、
    請求項3から請求項5のいずれか1項に記載の検査システム。
  7. 前記指標設定部は、前記出現像の形状に対応する前記指標を設定する、
    請求項1から請求項6のいずれか1項に記載の検査システム。
  8. 前記指標設定部は、前記出現像のサイズに対応する前記指標を設定する、
    請求項1から請求項7のいずれか1項に記載の検査システム。
  9. 前記指標設定部は、1つの前記分割画像に含まれる前記出現像の個数に対応する前記指標を設定する、
    請求項1から請求項8のいずれか1項に記載の検査システム。
  10. 前記指標設定部は、前記出現像の強度に対応する前記指標を設定する、
    請求項1から請求項9のいずれか1項に記載の検査システム。
  11. 検査の対象となる対象物が有する状態に応じて出現する出現像が含まれる学習画像を取得するステップと、
    前記学習画像に含まれる前記出現像を特定するステップと、
    少なくとも1つの前記出現像が含まれるように前記学習画像を分割して分割画像を生成するステップと、
    前記分割画像に含まれる前記出現像に対応する指標を設定するステップと、
    少なくとも2つの前記指標を1つの前記分割画像に対応付けた学習用データを生成するステップと、
    前記学習用データに基づいて画像解析の学習を行うステップと、
    前記学習により学習モデルを出力するステップと、
    を含む、
    検査方法。
JP2019025600A 2019-02-15 2019-02-15 検査システムおよび検査方法 Active JP7210315B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019025600A JP7210315B2 (ja) 2019-02-15 2019-02-15 検査システムおよび検査方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019025600A JP7210315B2 (ja) 2019-02-15 2019-02-15 検査システムおよび検査方法

Publications (2)

Publication Number Publication Date
JP2020135203A JP2020135203A (ja) 2020-08-31
JP7210315B2 true JP7210315B2 (ja) 2023-01-23

Family

ID=72278689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019025600A Active JP7210315B2 (ja) 2019-02-15 2019-02-15 検査システムおよび検査方法

Country Status (1)

Country Link
JP (1) JP7210315B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490533B2 (ja) 2020-10-30 2024-05-27 株式会社東芝 超音波画像処理装置および超音波画像処理方法
WO2024014428A1 (ja) * 2022-07-15 2024-01-18 株式会社Soken 物体検知装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000206098A (ja) 1999-01-13 2000-07-28 Mitsubishi Electric Corp 建築物の壁構造検査装置
JP2000269276A (ja) 1999-03-16 2000-09-29 Toshiba Corp 欠陥解析システムおよびその方法
JP2017211259A (ja) 2016-05-25 2017-11-30 株式会社シーイーシー 検査装置、検査方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000206098A (ja) 1999-01-13 2000-07-28 Mitsubishi Electric Corp 建築物の壁構造検査装置
JP2000269276A (ja) 1999-03-16 2000-09-29 Toshiba Corp 欠陥解析システムおよびその方法
JP2017211259A (ja) 2016-05-25 2017-11-30 株式会社シーイーシー 検査装置、検査方法、及びプログラム

Also Published As

Publication number Publication date
JP2020135203A (ja) 2020-08-31

Similar Documents

Publication Publication Date Title
Hou et al. Review on computer aided weld defect detection from radiography images
Geirhos et al. ImageNet-trained CNNs are biased towards texture; increasing shape bias improves accuracy and robustness
JP2020187735A (ja) 表面欠陥識別方法及び装置
Kumaresan et al. Transfer learning with CNN for classification of weld defect
JP2022108260A (ja) 異常検出及び分類のための装置、プログラム、及び方法
US20200051229A1 (en) Method for the non-destructive testing of the volume of a test object and testing device configured for carrying out such a method
US20220156583A1 (en) Method of generating classifier by using small number of labeled images
JP7380019B2 (ja) データ生成システム、学習装置、データ生成装置、データ生成方法及びデータ生成プログラム
JP7210315B2 (ja) 検査システムおよび検査方法
Sweidan et al. Water pollution detection system based on fish gills as a biomarker
Provencal et al. Identification of weld geometry from ultrasound scan data using deep learning
Nazarov et al. Classification of defects in welds using a convolution neural network
Fareed et al. ADD-Net: an effective deep learning model for early detection of Alzheimer disease in MRI scans
Medak et al. Deep learning-based defect detection from sequences of ultrasonic B-scans
Kumaresan et al. Deep learning-based weld defect classification using VGG16 transfer learning adaptive fine-tuning
JP6725067B2 (ja) 不要部分を除去するためのデジタル画像の処理
KR102172727B1 (ko) 설비 결함 검출 장치 및 방법
Legaspi et al. Tomato Ripeness and Size Classification Using Image Processing
Sutcliffe et al. Automatic defect recognition of single-v welds using full matrix capture data, computer vision and multi-layer perceptron artificial neural networks
Guo et al. Rail surface defect detection using a transformer-based network
Castillo et al. A supervised learning approach on rice variety classification using convolutional neural networks
TWI841402B (zh) 頭髮特徵分析方法與系統
Mamyrbayev et al. INCREASING THE RELIABILITY OF DIAGNOSIS OF DIABETIC RETINOPATHY BASED ON MACHINE LEARNING.
Balasubramaniam et al. Simulation Assisted Automatic Defect Recognition (SimADR) for NDE4. 0 Inspection Datasets
Cheah Mobile application for fruits freshness/ripeness detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R150 Certificate of patent or registration of utility model

Ref document number: 7210315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150