JP2022087930A - Method for performing inspection on image to be inspected, information processing apparatus, and computer program - Google Patents
Method for performing inspection on image to be inspected, information processing apparatus, and computer program Download PDFInfo
- Publication number
- JP2022087930A JP2022087930A JP2020200077A JP2020200077A JP2022087930A JP 2022087930 A JP2022087930 A JP 2022087930A JP 2020200077 A JP2020200077 A JP 2020200077A JP 2020200077 A JP2020200077 A JP 2020200077A JP 2022087930 A JP2022087930 A JP 2022087930A
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- machine learning
- learning model
- inspected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 83
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000010365 information processing Effects 0.000 title claims description 14
- 238000004590 computer program Methods 0.000 title claims description 12
- 238000012545 processing Methods 0.000 claims abstract description 96
- 238000010801 machine learning Methods 0.000 claims abstract description 75
- 238000005259 measurement Methods 0.000 claims abstract description 55
- 238000006243 chemical reaction Methods 0.000 claims abstract description 20
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 16
- 238000005457 optimization Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 description 17
- 230000007547 defect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 6
- 230000002950 deficient Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、被検査画像の検査を実行する方法、情報処理装置、及び、コンピュータープログラムに関する。 The present disclosure relates to a method of performing an inspection of an image to be inspected, an information processing apparatus, and a computer program.
画像の検査と判定を行う検査システムとしては、特許文献1に開示されているような機械学習モデルを用いた検査システムと、画像処理を用いたルールベースの検査システムとが存在する。機械学習モデルを用いた検査システムは、基本的に判定への介入が困難とされている。一方、画像処理を用いたルールベースの検査システムは、人が処理パラメーターと判定ルールを設計することにより実現するため、基本的に判定への介入が可能である。但し、判定精度の観点からは、画像処理を用いたルールベースの検査システムよりも、機械学習モデルを用いた検査システムの方が優れている場合が多い。 As an inspection system for inspecting and determining an image, there are an inspection system using a machine learning model as disclosed in Patent Document 1 and a rule-based inspection system using image processing. Inspection systems that use machine learning models are basically difficult to intervene in judgment. On the other hand, a rule-based inspection system using image processing is realized by a person designing processing parameters and judgment rules, so that it is basically possible to intervene in the judgment. However, from the viewpoint of determination accuracy, an inspection system using a machine learning model is often superior to a rule-based inspection system using image processing.
このように、従来技術では、高い判定精度と判定方法の柔軟性の両方の要望を満たすことが困難であるという問題があった。本開示の発明者は、機械学習モデルと画像処理とをうまく組み合わせることによって、高い判定精度と、判定方法の柔軟性、という2つの要望を満たすことができることを見いだした。 As described above, in the prior art, there is a problem that it is difficult to satisfy both the demands of high determination accuracy and flexibility of the determination method. The inventor of the present disclosure has found that by successfully combining a machine learning model and image processing, it is possible to satisfy two demands of high judgment accuracy and flexibility of judgment method.
本開示の第1の形態によれば、被検査画像の検査を実行する方法が提供される。この方法は、(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する工程と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する工程と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する工程と、を含む。 According to the first aspect of the present disclosure, there is provided a method of performing an inspection of an image to be inspected. This method is a step of creating a converted image by (a) performing image conversion for removing noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit. And (b) a step of generating a measurement result for one or more inspection items by performing image processing on the converted image, and (c) comparing the measurement result with a predetermined determination criterion. This includes a step of generating a determination result regarding the inspection item.
本開示の第2の形態によれば、被検査画像の検査を実行する情報処理装置が提供される。この情報処理装置は、エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを記憶するメモリーと、前記機械学習モデルを用いた演算を実行するプロセッサーと、を備える。前記プロセッサーは、(a)前記機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、を実行するように構成されている。 According to the second aspect of the present disclosure, an information processing apparatus for performing an inspection of an image to be inspected is provided. This information processing device includes a memory for storing a machine learning model including a convolutional neural network having an encoder unit and a decoder unit, and a processor for executing an operation using the machine learning model. The processor creates a converted image by (a) performing image conversion for removing noise of the image to be inspected using the machine learning model, and (b) an image for the converted image. By executing the process, a process of generating a measurement result for one or more inspection items, and (c) by comparing the measurement result with a predetermined determination criterion, a determination result for the inspection item is generated. It is configured to perform processing and.
本開示の第3の形態によれば、被検査画像の検査をプロセッサーに実行させるコンピュータープログラムが提供される。前記コンピュータープログラムは、(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、を前記プロセッサーに実行させる。 According to the third aspect of the present disclosure, a computer program for causing a processor to inspect an image to be inspected is provided. The computer program creates a converted image by (a) performing an image conversion that removes noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit. Processing, (b) processing to generate measurement results for one or more inspection items by executing image processing on the converted image, and (c) comparison of the measurement results with predetermined determination criteria. By doing so, the processor is made to execute the process of generating the determination result regarding the inspection item.
図1は、画像の検査システムとして機能する情報処理装置100のブロック図である。情報処理装置100は、プロセッサー110と、メモリー120と、インターフェイス回路130と、インターフェイス回路130に接続された入力デバイス140及び表示部150と、を有している。プロセッサー110は、被検査画像の検査を実行する画像検査部112、及び、機械学習モデルの学習と画像処理の最適化とを実行する学習実行部114として機能する。画像検査部112と学習実行部114は、メモリー120に格納されたコンピュータープログラムをプロセッサー110が実行することによってそれぞれ実現される。但し、画像検査部112と学習実行部114の少なくとも一方をハードウェア回路で実現してもよい。また、画像検査や学習を実行するプロセッサーは、ネットワークを介して情報処理装置100に接続されたリモートコンピューターに含まれるプロセッサーであってもよい。メモリー120には、機械学習モデル200と、画像処理プログラム300と、被検査画像Diとが格納される。機械学習モデル200と画像処理プログラム300は、画像検査部112による処理に使用される。
FIG. 1 is a block diagram of an
図2は、機械学習モデル200の一例を示す説明図である。この機械学習モデル200は、被検査画像Diを変換画像Dicに変換する機能を有しており、オートエンコーダーとして構成されている。オートエンコーダーは、ほぼ左右対称のエンコーダー/デコーダー構造を有する。具体的には、機械学習モデル200は、入力層201と接続層202の間にわたるエンコーダー部210と、接続層202と出力層203の間にわたるデコーダー部220とを有する畳み込みニューラルネットワークとして構成されている。エンコーダー部210は、被検査画像Diの特徴を抽出する機能を有する。デコーダー部220は、抽出された特徴から画像を復元して変換画像Dicを生成する機能を有する。
FIG. 2 is an explanatory diagram showing an example of the
機械学習モデル200としては、オートエンコーダーに限らず、他の種類の畳み込みニューラルネットワークを使用可能である。具体的には、U-Net、又は、CycleGANとして構成することも可能である。オートエンコーダーと、U-Netと、CycleGANは、いずれもエンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークである。U-Netは、オートエンコーダーとほぼ同様のエンコーダー/デコーダー構造を有している。但し、U-Netは、エンコーダー部の各層で出力される特徴マップをデコーダー部の対応する層にスキップして連結するパスを有している点が、オートエンコーダーと異なる。オートエンコーダーとU-Netの学習は、入力画像の画像復元をベースとした教師なし学習として行うことが可能であり、また、望ましい変換画像を利用した教師あり学習として行うことも可能である。オートエンコーダーやU-Netの学習では、損失関数としてcross entropy error,MSE(Mean Square Error),PSNR(Peak Signal-to-Noise Ratio),SSIM(Structural SIMilarity)などが使用される。CycleGANは、生成器(Generator)と識別器(Discriminator)とを有し、生成器は、エンコーダー部と、変換部(transformer)と、デコーダー部とを有する。学習済みのCycleGANに画像が入力されると、生成器によって画像変換された画像が出力される。通常のCycleGANの生成器にはU-Netの構造が採用されているが、ニューラルネットワーク構造をオートエンコーダーに変更しても成立する。但し、CycleGANは、学習方法や損失関数がオートエンコーダーやU-Netと異なる。CycleGANは、いわゆるドメイン変換をベースとして学習が行われ、損失関数としてはCycle-Consistency Lossなどが使用される。このように、オートエンコーダーと、U-Netと、CycleGANは、いずれもエンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークに相当する。なお、エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークとしては、pix2pixのような他の種類のGAN(Generative Adversarial Network)を使用することも可能である。
The
上述したいずれの種類のモデルを使用する場合にも、機械学習モデル200は、被検査画像Diのノイズを除去する画像変換を実行して、変換画像Dicを生成する機能を有していることが好ましい。本開示において、「被検査画像Diのノイズ」とは、被検査画像Diの良否判定に無関係な陰影や明るさ、濃淡等の画素値分布を意味する。図2に示した機械学習モデル200では、被検査画像Diのノイズはエンコーダー部210によって特徴として認識されないので、デコーダー部220によってノイズが低減された変換画像Dicを生成できる。
When using any of the above-mentioned types of models, the
図3は、検査工程の処理手順を示すフローチャートであり、図4は、検査処理の流れを示す説明図である。 FIG. 3 is a flowchart showing a processing procedure of the inspection process, and FIG. 4 is an explanatory diagram showing a flow of the inspection process.
ステップS110では、画像検査部112が、学習済みの機械学習モデル200を用いて、被検査画像Diのノイズを除去する画像変換を行うことによって、変換画像Dicを生成する。図4に示す例において、変換画像Dicは、被検査画像Diに含まれていた異物FMとキズDFとクラックCRを含んでおり、他のノイズは除去されている。本実施形態において、異物FMとキズDFとクラックCRは、被検査画像Diに関する検査項目として予め設定されている欠陥である。本実施形態では3つの検査項目が設定されているが、検査項目は1つ以上設定されていれば良い。本開示において、「欠陥」という語句は、サイズが小さくて被検査画像Diが良好であることを妨げない欠陥と、サイズが大きくて被検査画像Diが不良であるものと判定される欠陥と、の両方を含む。
In step S110, the
ステップS120では、画像検査部112が、画像処理プログラム300を用いて、変換画像Dicを画像処理することによって、各検査項目に関する計測結果を生成する。図4の例では、画像処理による計測結果として、異物FMの大きさが0.5mm2、キズDFの大きさが4mm、クラックCRの大きさ2mmという結果が得られている。
In step S120, the
画像処理プログラム300は、例えば、以下のような種々の処理を必要に応じて組み合わせることによって、各検査項目に関する計測結果を生成することが可能である。
・エッジ検出処理
・円の検出処理
・直線の検出処理
・周波数分離処理
・色空間分離処理
・2値化処理
・パターンマッチング処理
・特徴点抽出処理
The
・ Edge detection processing ・ Circle detection processing ・ Straight line detection processing ・ Frequency separation processing ・ Color space separation processing ・ Binarization processing ・ Pattern matching processing ・ Feature point extraction processing
上述した個々の処理を「個別画像処理」と呼ぶ。画像処理プログラム300は、複数の個別画像処理を順に実行するように設定されている。画像処理プログラム300に設定される画像処理のパラメーターは、複数の個別画像処理の処理順序と、各個別画像処理の処理パラメーターと、を含んでいる。個別画像処理の処理パラメーターは、例えば、その個別画像処理でフィルターを用いる場合には、フィルターサイズと、フィルター内の個々の重みである。
The above-mentioned individual processing is called "individual image processing". The
ステップS130では、画像検査部112が、ステップS120で得られた計測結果を用いて、予め定められた判定基準に従って判定を実行する。図4の例では、異物FMは1mm2未満で良、キズDFは3mm未満で良、クラックCRは5mm未満で良という判定基準が定められている。この結果、異物FMとクラックCRに関しては良好であるが、キズDFに関しては不良という判定結果が得られている。判定基準は、検査システムのユーザーが任意に設定可能である。例えば、下記のような項目についての判定基準を設けてもよい。
(1)判定項目の検出箇所:例えば、異物等が配線上にあるか否かに応じて、異物等のサイズの閾値が変わる場合がある。
(2)色:焼け、焦げ、シミなどによる色の変化を、不良判定の判定基準として使用できる。
(3)ズレ:デバイスの配置ずれや印字ずれなどを判定基準として使用できる。
(4)形状不良:面積や基準とのずれ量、重心位置などの形状不良の指標を用いて判定を行うことができる。
In step S130, the
(1) Detection point of determination item: For example, the threshold value of the size of foreign matter or the like may change depending on whether or not foreign matter or the like is on the wiring.
(2) Color: A change in color due to burning, charring, stains, etc. can be used as a criterion for determining defects.
(3) Misalignment: Device misalignment, printing misalignment, etc. can be used as judgment criteria.
(4) Shape defect: Judgment can be made by using an index of shape defect such as an area, a deviation amount from a reference, and a position of the center of gravity.
このように、本実施形態では、機械学習モデル200を用いた画像変換の後に、画像処理プログラム300用いた画像処理を実行することによって、1つ以上の検査項目に関する計測結果を取得するので、外乱やばらつき等のノイズが多い被検査画像Diに対しても、精度良く検査を実行することができる。また、画像処理で得られた計測結果を使用して検査項目に対する良否判定を行うので、機械学習モデル200で良否判定を実行する場合に比べて、良否の判定方法を柔軟に変更することが可能である。
As described above, in the present embodiment, after the image conversion using the
図5は、機械学習モデル200の学習を行う第1学習工程S200と、画像処理プログラム300の最適化を行う第2学習工程S300の処理手順を示すフローチャートであり、図6は、これらの学習工程を示す説明図である。学習工程は、上述した検査工程の前に実行される。
FIG. 5 is a flowchart showing a processing procedure of a first learning step S200 for learning the
機械学習モデル200の学習時に使用する学習用のデータは、機械学習モデル200の構成によって異なり、例えば、以下の通りである。
The learning data used at the time of learning the
<再構成誤差を用いて学習を行う場合>
オートエンコーダーやU-Netでは、画像復元による再構成誤差をベースとして教師なし学習を行うことが可能である。損失関数としてはMSE(Mean Square Error),PSNR(Peak Signal-to-Noise Ratio),SSIM(Structural SIMilarity)などが使用される。学習用データは、例えば、以下の2つを含むものとして構成される。
(a)検査項目の欠陥とノイズとを含む学習用画像
(b)学習用画像における真の計測結果
なお、ノイズはエンコーダー部210によって特徴として認識されないので、ノイズを含む学習用画像を用いた教師なし学習を実行すると、入力画像のノイズを除去するように機械学習モデル200を学習させることができる。
<When learning using reconstruction error>
With an autoencoder or U-Net, unsupervised learning can be performed based on the reconstruction error due to image restoration. As a loss function, MSE (Mean Square Error), PSNR (Peak Signal-to-Noise Ratio), SSIM (Structural SIMilarity), etc. are used. The learning data is configured to include, for example, the following two.
(A) Learning image including defects and noise of inspection items (b) True measurement result in learning image Since noise is not recognized as a feature by the
<セグメンテーション情報を用いて学習を行う場合>
オートエンコーダーやU-Netでは、セグメンテーション(領域分離)された画像を用いて教師あり学習を行うことが可能である。損失関数としてはcross entropy errorなどが使用される。学習用データは、例えば、以下の3つを含むものとして構成される。
(a)検査項目の欠陥とノイズとを含む学習用画像
(b)学習用画像と同じ欠陥を含み、ノイズを含まない正解画像
(c)学習用画像における真の計測結果
「正解画像」としては、学習用画像をセグメンテーション(領域分離)したセグメンテーション画像を用いることができる。セグメンテーションされた正解画像を作成する際には、学習用画像に含まれていたノイズを画像処理又は手作業で除去することが好ましい。或いは、まず、CAD画像のようなシミュレーション画像として、セマンティックマップと出力画像の2つの画像を用意し、そのうちのセマンティックマップを正解画像として使用し、出力画像にノイズを付加することによって学習用画像を作成してもよい。オートエンコーダー又はU-Netで構成された機械学習モデル200に対して教師あり学習を行えば、教師なし学習に比べて、実際の被検査画像におけるノイズが除去された画像を得られるように機械学習モデル200の学習を実行できる。なお、機械学習モデル200の学習を実行するための第1の学習用データと、画像処理のパラメーターの最適化を実行するための第2の学習用データとを別個に準備してもよい。この場合には、第1の学習用データには真の計測結果は不要であり、第2の学習用データには正解画像は不要である。
<When learning using segmentation information>
With an autoencoder or U-Net, supervised learning can be performed using segmented images. A cross entropy error is used as the loss function. The learning data is configured to include, for example, the following three.
(A) Learning image containing defects and noise of inspection items (b) Correct image containing the same defects as the learning image and not containing noise (c) True measurement result in the learning image As a "correct image" , A segmentation image obtained by segmenting a learning image can be used. When creating a segmented correct image, it is preferable to remove the noise contained in the learning image by image processing or manually. Alternatively, first, two images, a semantic map and an output image, are prepared as simulation images such as CAD images, the semantic map is used as the correct image, and the learning image is created by adding noise to the output image. You may create it. If supervised learning is performed on a
<別ドメインの画像を用いて学習を行う場合>
CycleGANは、いわゆるドメイン変換をベースとして学習が行われ、損失関数としてはCycle-Consistency Lossなどが使用される。学習用データは、例えば、以下の3つを含むものとして構成される。
(a)検査項目の欠陥とノイズとを含む第1画像群
(b)検査項目の欠陥を含み、ノイズを含まない第2画像群
(c)第1画像群の画像における真の計測結果
第1画像群は第1ドメインの画像群であり、例えば、被検査対象物の実画像の集合である。第2画像群は第2ドメインの画像群であり、例えば、CAD画像に代表されるようなシミュレーション画像の集合である。なお、第2画像群は、第1画像群と一対一に対応付けられている必要はない。なお、CycleGANを用いる場合にも、機械学習モデル200の学習を実行するための第1の学習用データと、画像処理のパラメーターの最適化を実行するための第2の学習用データとを別個に準備してもよい。この場合には、第1の学習用データには真の計測結果は不要であり、第2の学習用データには第2画像群は不要である。
<When learning using images from another domain>
CycleGAN is learned based on so-called domain conversion, and Cycle-Consistency Loss or the like is used as a loss function. The learning data is configured to include, for example, the following three.
(A) First image group including defects and noise of inspection items (b) Second image group including defects of inspection items and not containing noise (c) True measurement results in images of the first image group First The image group is an image group of the first domain, and is, for example, a set of actual images of an object to be inspected. The second image group is an image group of the second domain, and is, for example, a set of simulation images represented by a CAD image. The second image group does not need to be associated with the first image group on a one-to-one basis. Even when CycleGAN is used, the first learning data for executing the learning of the
図5及び図6に示す学習工程では、機械学習モデル200をオートエンコーダー又はU-Netで構成し、教師あり学習を行う場合について説明する。図6に示すように、学習用データとしては、学習用画像Dtと、それに対応する正解画像Dtoとが予め準備されている。正解画像Dtoは、異物FMとキズDFとクラックCRとを含み、ノイズを含まない画像である。本実施形態において、学習用画像Dtは、正解画像Dtoにノイズを付加した画像である。
In the learning process shown in FIGS. 5 and 6, a case where the
第1学習工程S200の最初のステップS210では、学習実行部114が、機械学習モデル200を用いて、複数の学習用画像Dtを画像変換することによって、複数の推論画像Dtcを生成する。ステップS220では、学習実行部114が、推論画像Dtcの損失Laを算出する。本実施形態において、損失Laは、推論画像Dtcと正解画像Dtoとの差異に応じて算出される損失関数の値である。損失関数としては、畳み込みニューラルネットワークの学習に用いる各種の損失関数を使用可能である。なお、教師なし学習を行う場合には、損失Laは、推論画像Dtcと学習用画像Dtとの差異に応じて算出される。ステップS230では、学習実行部114が、ステップS220で算出された損失Laを用いて、機械学習モデル200の学習を実行する。ステップS240では、学習実行部114が、機械学習モデル200の学習が完了したか否かを判断し、完了していなければステップS210に戻ってステップS210~S230を繰り返す。機械学習モデル200の学習が完了したか否かは、例えば、損失Laが予め定められた閾値以下になったか否か、または、検証用データの損失値(loss)の更新が収束したか、などで判断される。これらのステップS210~S240による機械学習モデル200の学習方法は、通常の学習方法と同じである。
In the first step S210 of the first learning step S200, the learning
第2学習工程S300の最初のステップS310では、学習実行部114が、学習済みの機械学習モデル200を用いて複数の学習用画像Dtを画像変換することによって複数の推論画像Dtcを生成する。
In the first step S310 of the second learning step S300, the learning
ステップS320では、学習実行部114が、画像処理プログラム300を用いて複数の推論画像Dtcの画像処理を行うことによって計測結果を生成する。図6の例において、推論画像Dtcについての計測結果は、異物FMが0.9mm2、キズDFが5mm、クラックCRが2mmである。なお、これらの計測結果を判定基準と比較した判定結果は、異物FMが良好、キズDFが不良、クラックCRが良好となる。図6には、同じ推論画像Dtcについての真値は、異物FMが1mm2、キズDFが3mm、クラックCRが0.8mmであり、真の判定結果は、異物FMが不良、キズDFが不良、クラックCRが良好であることが示されている。
In step S320, the learning
ステップS330では、学習実行部114が、計測結果と真値の差異Ebを算出する。図6のように複数の検査項目がある場合には、差異Ebは、複数の検査項目における計測結果と真値の差分のすべてに関する平均2乗誤差や平均絶対誤差として算出できる。この際、計測結果と真値の差分を真値で除算することによって正規化した差分を用いて、平均2乗誤差や平均絶対誤差を算出することが好ましい。
In step S330, the learning
ステップS340では、学習実行部114が、差異Ebを用いて画像処理プログラム300のパラメーターの最適化を実行する。画像処理プログラム300のパラメーターは、「画像処理のパラメーター」と同義である。前述したように、画像処理のパラメーターは、複数の個別画像処理の処理順序と、各個別画像処理の処理パラメーターと、を含んでいる。画像処理のパラメーターの最適化は、計測結果と真値の差異Ebができるだけ小さくなるように画像処理のパラメーターを調整する処理を意味する。例えば、画像処理に使用される複数の個別画像処理の処理順序として、複数の処理順序を予め用意しておき、計測結果と真値の差異Ebが最も小さくなるものを最適な処理順序として選択することができる。また、複数の個別画像処理の処理パラメーターとして、複数の処理パラメーター群を予め用意しておき、計測結果と真値の差異Ebが最も小さくなるものを最適な処理パラメーター群として選択することができる。処理順序の最適化と処理パラメーターの最適化は、いずれを先に実行してもよい。また、複数の処理順序と複数の処理パラメーター群との組み合わせを複数セット用意しておき、これらの中から計測結果と真値の差異Ebが最も小さくなるものを、画像処理の最適なパラメーターとして選択するようにしてもよい。
In step S340, the learning
ステップS350では、学習実行部114が、画像処理の最適化が完了したか否かを判断し、完了していなければステップS310に戻ってステップS310~S340を繰り返す。ステップS310に戻る場合には、複数の学習用画像Dtとして新たな画像を使用することが好ましい。画像処理の最適化が完了したか否かは、例えば、計測結果と真値の差異Ebが予め定められた閾値以下になったか否か、又は、指定したイテレーション数の探索を実施したかなどで判断される。
In step S350, the learning
このように、図5及び図6に示した学習工程では、機械学習モデル200の学習を実行した後に画像処理のパラメーターの最適化を実行するので、機械学習モデル200と画像処理の最適化をうまく実行することが可能である。
As described above, in the learning process shown in FIGS. 5 and 6, the optimization of the image processing parameters is executed after the learning of the
なお、既に学習が完了して一度確立した検査システムにおいて、測定や製造に起因する新たな外乱が発生して検査精度が低下した場合には、2つの対応方法が考えられる。第1の対応方法は、機械学習モデル200をそのまま維持し、画像処理のパラメーターの最適化を行う第2学習工程S300を実行する方法である。第2の対応方法は、画像処理のパラメーターをそのまま維持し、機械学習モデル200の学習を行う第1学習工程S200を実行する方法である。後者の場合において、正解画像Dtoにノイズを付加することによって学習用画像Dtを作成する場合には、新たな外乱に対応したノイズを正解画像Dtoに付加することが好ましい。或いは、学習用画像Dtからノイズを除去して正解画像Dtoを作成する場合には、学習用画像Dtに含まれている新たな外乱によるノイズを、画像処理や手作業で除去することが好ましい。
In an inspection system that has already been learned and once established, if a new disturbance caused by measurement or manufacturing occurs and the inspection accuracy deteriorates, two countermeasures can be considered. The first corresponding method is a method of executing the second learning step S300 in which the
図7は、学習工程の第2実施形態の処理手順を示すフローチャートである。この学習工程のうち、第1学習工程S200は図5と同じであり、第2学習工程S301が図5と異なっている。すなわち、図7の第2学習工程S301では、ステップS310とステップS320の間に、ステップS312,S314が追加されており、他のステップは図5と同じである。 FIG. 7 is a flowchart showing the processing procedure of the second embodiment of the learning process. Of these learning steps, the first learning step S200 is the same as in FIG. 5, and the second learning step S301 is different from FIG. That is, in the second learning step S301 of FIG. 7, steps S312 and S314 are added between steps S310 and S320, and the other steps are the same as those of FIG.
ステップS312では、学習実行部114が、ステップS310で得られた推論画像Dtcの損失Laを算出する。ステップS314では、学習実行部114が、ステップS312で算出された損失Laを用いて、機械学習モデル200の追加的な学習を実行する。これらのステップS312,S314は、第1学習工程S200のステップS220,S230と実質的に同じものである。このように、第2学習工程において機械学習モデル200の追加的な学習を実行すれば、機械学習モデル200の精度を向上できる。なお、ステップS312,S314は、ステップS310の後で実行すればよく、図7に示したタイミングとは異なるタイミングでも実行することができる。
In step S312, the learning
・他の実施形態:
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
-Other embodiments:
The present disclosure is not limited to the above-described embodiment, and can be realized in various forms without departing from the spirit thereof. For example, the present disclosure can also be realized by the following aspect. The technical features in each of the embodiments described below correspond to the technical features in the above embodiments in order to solve some or all of the problems of the present disclosure, or some or all of the effects of the present disclosure. It is possible to replace or combine as appropriate to achieve the above. Further, if the technical feature is not described as essential in the present specification, it can be appropriately deleted.
(1)本開示の第1の形態によれば、被検査画像の検査を実行する方法が提供される。この方法は、(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する工程と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する工程と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する工程と、を含む。
この方法によれば、機械学習モデルを用いた画像変換の後に、画像処理を実行することによって検査項目に関する計測結果を取得するので、外乱やばらつき等のノイズが多い被検査画像に対しても、精度良く検査を実行することができる。また、画像処理で得られた計測結果を使用して検査項目に対する判定を行うので、機械学習モデルで判定を実行する場合に比べて、判定方法を柔軟に変更することが可能である。
(1) According to the first aspect of the present disclosure, a method for performing an inspection of an image to be inspected is provided. This method is a step of creating a converted image by (a) performing image conversion for removing noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit. And (b) a step of generating a measurement result for one or more inspection items by performing image processing on the converted image, and (c) comparing the measurement result with a predetermined determination criterion. This includes a step of generating a determination result regarding the inspection item.
According to this method, after image conversion using a machine learning model, measurement results related to inspection items are acquired by executing image processing, so even for images to be inspected that have a lot of noise such as disturbance and variation. The inspection can be performed with high accuracy. Further, since the judgment is made for the inspection item using the measurement result obtained by the image processing, it is possible to flexibly change the judgment method as compared with the case where the judgment is executed by the machine learning model.
(2)上記方法において、前記機械学習モデルは、オートエンコーダー、U-Net、又は、CycleGANとして構成されているものとしてもよい。
この方法によれば、被検査画像のノイズを除去する画像変換を実行する機械学習モデルを容易に構成できる。
(2) In the above method, the machine learning model may be configured as an autoencoder, U-Net, or CycleGAN.
According to this method, it is possible to easily construct a machine learning model that performs image conversion that removes noise from the image to be inspected.
(3)上記方法は、更に、前記工程(a)の前に、前記機械学習モデルの学習を実行する学習工程と、前記第1学習工程の後に、前記画像処理のパラメーターを最適化する第2学習工程と、を有するようにしてもよい。前記第2学習工程は、(i)学習用画像を学習済みの前記機械学習モデルに入力して、推論画像を生成する工程と、(ii)前記推論画像に対して前記画像処理を実行することによって、前記検査項目に関する学習時計測結果を生成する工程と、(iii)前記学習用画像における前記検査項目に対する真値と前記学習時計測結果との差異を用いて、前記画像処理のパラメーターの最適化を実行する工程と、を含むものとしてもよい。
この方法によれば、機械学習モデルの学習を実行した後に画像処理のパラメーターの最適化を実行するので、機械学習モデルと画像処理の最適化をうまく実行できる。
(3) The method further optimizes the parameters of the image processing after the learning step of executing the learning of the machine learning model before the step (a) and the first learning step. It may have a learning process. The second learning step includes (i) inputting a learning image into the trained machine learning model to generate an inferred image, and (ii) executing the image processing on the inferred image. (Iii) Optimizing the parameters of the image processing by using the difference between the true value for the inspection item and the learning measurement result in the learning image and the step of generating the learning measurement result for the inspection item. It may include a step of executing the conversion.
According to this method, the optimization of the image processing parameters is executed after the training of the machine learning model is executed, so that the optimization of the machine learning model and the image processing can be executed well.
(4)上記方法は、前記第2学習工程は、前記工程(i)の後に、前記推論画像を用いて前記機械学習モデルの追加的な学習を実行する工程、を含むものとしてもよい。
この方法によれば、画像処理のパラメーターの最適化を実行する第2学習工程において機械学習モデルの追加的な学習を実行するので、機械学習モデルの精度を向上できる。
(4) In the above method, the second learning step may include a step of executing additional learning of the machine learning model using the inference image after the step (i).
According to this method, the accuracy of the machine learning model can be improved because the additional learning of the machine learning model is executed in the second learning step of executing the optimization of the image processing parameters.
(5)本開示の第2の形態によれば、被検査画像の検査を実行する情報処理装置が提供される。この情報処理装置は、エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを記憶するメモリーと、前記機械学習モデルを用いた演算を実行するプロセッサーと、を備える。前記プロセッサーは、(a)前記機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、を実行するように構成されている。
この情報処理装置によれば、機械学習モデルを用いた画像変換の後に、画像処理を実行することによって検査項目に関する計測結果を取得するので、外乱やばらつき等のノイズが多い被検査画像に対しても、正確な検査を実行することができる。また、画像処理で得られた計測結果を使用して検査項目に対する判定を行うので、機械学習モデルで判定を実行する場合に比べて、判定方法を柔軟に変更することが可能である。
(5) According to the second aspect of the present disclosure, an information processing apparatus for executing an inspection of an image to be inspected is provided. This information processing device includes a memory for storing a machine learning model including a convolutional neural network having an encoder unit and a decoder unit, and a processor for executing an operation using the machine learning model. The processor creates a converted image by (a) performing image conversion for removing noise of the image to be inspected using the machine learning model, and (b) an image for the converted image. By executing the process, a process of generating a measurement result for one or more inspection items, and (c) by comparing the measurement result with a predetermined determination criterion, a determination result for the inspection item is generated. It is configured to perform processing and.
According to this information processing device, after image conversion using a machine learning model, measurement results related to inspection items are acquired by executing image processing, so that the image to be inspected has a lot of noise such as disturbance and variation. Can also perform accurate inspections. Further, since the judgment is made for the inspection item using the measurement result obtained by the image processing, it is possible to flexibly change the judgment method as compared with the case where the judgment is executed by the machine learning model.
(6)本開示の第3の形態によれば、被検査画像の検査をプロセッサーに実行させるコンピュータープログラムが提供される。前記コンピュータープログラムは、(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、を前記プロセッサーに実行させる。
このコンピュータープログラムによれば、機械学習モデルを用いた画像変換の後に、画像処理を実行することによって検査項目に関する計測結果を取得するので、外乱やばらつき等のノイズが多い被検査画像に対しても、正確な検査を実行することができる。また、画像処理で得られた計測結果を使用して検査項目に対する判定を行うので、機械学習モデルで判定を実行する場合に比べて、判定方法を柔軟に変更することが可能である。
(6) According to the third aspect of the present disclosure, a computer program for causing a processor to inspect an image to be inspected is provided. The computer program creates a converted image by (a) performing an image conversion that removes noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit. Processing, (b) processing to generate measurement results for one or more inspection items by executing image processing on the converted image, and (c) comparison of the measurement results with predetermined determination criteria. By doing so, the processor is made to execute the process of generating the determination result regarding the inspection item.
According to this computer program, after image conversion using a machine learning model, measurement results related to inspection items are acquired by executing image processing, so even for images to be inspected that have a lot of noise such as disturbance and variation. , Can perform accurate inspection. Further, since the judgment is made for the inspection item using the measurement result obtained by the image processing, it is possible to flexibly change the judgment method as compared with the case where the judgment is executed by the machine learning model.
本開示は、上記以外の種々の形態で実現することも可能である。例えば、画像検査の機能を実現するためのコンピュータープログラムを記録した一時的でない記録媒体(non-transitory storage medium)等の形態で実現することができる。 The present disclosure can also be realized in various forms other than the above. For example, it can be realized in the form of a non-transitory storage medium or the like in which a computer program for realizing the image inspection function is recorded.
100…情報処理装置、110…プロセッサー、112…画像検査部、114…学習実行部、120…メモリー、130…インターフェイス回路、150…表示部、200…機械学習モデル、201…入力層、202…接続層、203…出力層、210…エンコーダー部、220…デコーダー部、300…画像処理プログラム 100 ... Information processing device, 110 ... Processor, 112 ... Image inspection unit, 114 ... Learning execution unit, 120 ... Memory, 130 ... Interface circuit, 150 ... Display unit, 200 ... Machine learning model, 201 ... Input layer, 202 ... Connection Layer, 203 ... Output layer, 210 ... Encoder section, 220 ... Decoder section, 300 ... Image processing program
Claims (6)
(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する工程と、
(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する工程と、
(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する工程と、
を含む、方法。 It is a method of performing an inspection of the image to be inspected.
(A) A step of creating a converted image by performing image conversion for removing noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit.
(B) A step of generating measurement results for one or more inspection items by executing image processing on the converted image, and
(C) A step of generating a judgment result regarding the inspection item by comparing the measurement result with a predetermined judgment standard, and a step of generating the judgment result.
Including, how.
前記機械学習モデルは、オートエンコーダー、U-Net、又は、CycleGANとして構成されている、方法。 The method according to claim 1.
The method, wherein the machine learning model is configured as an autoencoder, U-Net, or CycleGAN.
前記工程(a)の前に、
前記機械学習モデルの学習を実行する第1学習工程と、
前記第1学習工程の後に、前記画像処理のパラメーターを最適化する第2学習工程と、
を有し、
前記第2学習工程は、
(i)学習用画像を学習済みの前記機械学習モデルに入力して、推論画像を生成する工程と、
(ii)前記推論画像に対して前記画像処理を実行することによって、前記検査項目に関する学習時計測結果を生成する工程と、
(iii)前記学習用画像における前記検査項目に対する真値と前記学習時計測結果との差異を用いて、前記画像処理のパラメーターの最適化を実行する工程と、
を含む、方法。 The method according to claim 1 or 2, further
Before the step (a),
The first learning process for executing the learning of the machine learning model and
After the first learning step, a second learning step of optimizing the parameters of the image processing and
Have,
The second learning step is
(I) A step of inputting a learning image into the trained machine learning model to generate an inference image, and
(Ii) A step of generating a learning measurement result regarding the inspection item by executing the image processing on the inferred image, and
(Iii) A step of performing optimization of the parameters of the image processing by using the difference between the true value for the inspection item and the measurement result at the time of learning in the learning image.
Including, how.
前記第2学習工程は、前記工程(i)の後に、
前記推論画像を用いて前記機械学習モデルの追加的な学習を実行する工程、
を含む、方法。 The method according to claim 3.
The second learning step is performed after the step (i).
A step of performing additional learning of the machine learning model using the inference image,
Including, how.
エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを記憶するメモリーと、
前記機械学習モデルを用いた演算を実行するプロセッサーと、
を備え、
前記プロセッサーは、
(a)前記機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、
(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、
(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、
を実行するように構成されている、情報処理装置。 An information processing device that inspects the image to be inspected.
A memory that stores a machine learning model including a convolutional neural network having an encoder part and a decoder part,
A processor that executes operations using the machine learning model, and
Equipped with
The processor
(A) A process of creating a converted image by executing an image conversion for removing noise of the image to be inspected using the machine learning model.
(B) A process of generating measurement results for one or more inspection items by executing image processing on the converted image, and a process of generating measurement results.
(C) A process of generating a judgment result regarding the inspection item by comparing the measurement result with a predetermined judgment standard.
An information processing device that is configured to run.
前記コンピュータープログラムは、
(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、
(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、
(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、
を前記プロセッサーに実行させる、コンピュータープログラム。 A computer program that causes the processor to inspect the image to be inspected.
The computer program is
(A) A process of creating a converted image by performing image conversion for removing noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit.
(B) A process of generating measurement results for one or more inspection items by executing image processing on the converted image, and a process of generating measurement results.
(C) A process of generating a judgment result regarding the inspection item by comparing the measurement result with a predetermined judgment standard.
A computer program that causes the processor to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020200077A JP2022087930A (en) | 2020-12-02 | 2020-12-02 | Method for performing inspection on image to be inspected, information processing apparatus, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020200077A JP2022087930A (en) | 2020-12-02 | 2020-12-02 | Method for performing inspection on image to be inspected, information processing apparatus, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022087930A true JP2022087930A (en) | 2022-06-14 |
Family
ID=81982246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020200077A Pending JP2022087930A (en) | 2020-12-02 | 2020-12-02 | Method for performing inspection on image to be inspected, information processing apparatus, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022087930A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117893538A (en) * | 2024-03-15 | 2024-04-16 | 成都方昇科技有限公司 | Semiconductor device quality detection method, device and system based on machine vision |
-
2020
- 2020-12-02 JP JP2020200077A patent/JP2022087930A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117893538A (en) * | 2024-03-15 | 2024-04-16 | 成都方昇科技有限公司 | Semiconductor device quality detection method, device and system based on machine vision |
CN117893538B (en) * | 2024-03-15 | 2024-05-31 | 成都方昇科技有限公司 | Semiconductor device quality detection method, device and system based on machine vision |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109781733A (en) | Flaw detection apparatus, defect detecting method and computer readable storage medium | |
CN109685097B (en) | Image detection method and device based on GAN | |
CN111382785B (en) | GAN network model and method for realizing automatic cleaning and auxiliary marking of samples | |
CN110458791B (en) | Quality defect detection method and detection equipment | |
US10726535B2 (en) | Automatically generating image datasets for use in image recognition and detection | |
CN114445746A (en) | Model training method, railway contact net abnormity detection method and related device | |
US20230402249A1 (en) | Defect inspection apparatus | |
JP2020085583A (en) | Inspection device and inspection method | |
JP2022087930A (en) | Method for performing inspection on image to be inspected, information processing apparatus, and computer program | |
JP2010071826A (en) | Teacher data preparation method, and image sorting method and image sorter | |
WO2019176988A1 (en) | Inspection system, identification system, and device for evaluating identification apparatus | |
CN111080540A (en) | Training method of image restoration model and computer equipment | |
CN112613494A (en) | Power line monitoring abnormity identification method and system based on deep countermeasure network | |
CN112668754A (en) | Power equipment defect diagnosis method based on multi-source characteristic information fusion | |
CN115330688A (en) | Image anomaly detection method considering tag uncertainty | |
JP7119949B2 (en) | Judgment device and judgment method | |
CN113537367A (en) | Fault detection model training method and device, fault detection method, electronic equipment and readable storage medium | |
JP2022169974A (en) | Inspection method, information processing apparatus, and program | |
WO2020137229A1 (en) | Image determination device, image determination method, and image determination program | |
WO2023166776A1 (en) | Appearance analysis system, appearance analysis method, and program | |
JP2019144870A (en) | System and method for object inspection | |
TWI812363B (en) | Image defect detecting system, generating method thereof and computer readable medium of the method | |
Buchanan et al. | Reliability benchmarks for image segmentation | |
KR20240102068A (en) | Apparatus and method for verifying PCB inspection by using artificial intelligence and record media recorded program for realizing the same | |
CN113552130A (en) | Flaw detection method and flaw detection device |