JP2022087930A - Method for performing inspection on image to be inspected, information processing apparatus, and computer program - Google Patents

Method for performing inspection on image to be inspected, information processing apparatus, and computer program Download PDF

Info

Publication number
JP2022087930A
JP2022087930A JP2020200077A JP2020200077A JP2022087930A JP 2022087930 A JP2022087930 A JP 2022087930A JP 2020200077 A JP2020200077 A JP 2020200077A JP 2020200077 A JP2020200077 A JP 2020200077A JP 2022087930 A JP2022087930 A JP 2022087930A
Authority
JP
Japan
Prior art keywords
image
learning
machine learning
learning model
inspected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020200077A
Other languages
Japanese (ja)
Inventor
博之 増田
Hiroyuki Masuda
昌樹 木村
Masaki Kimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2020200077A priority Critical patent/JP2022087930A/en
Publication of JP2022087930A publication Critical patent/JP2022087930A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To provide technique capable of satisfying both high determination accuracy and flexibility of determination method.SOLUTION: A method for performing an inspection on an image to be inspected comprises: (a) a process of creating a converted image by performing image conversion for removing noise of the image to be inspected using a machine learning model including a convolutional neural network that has an encoder unit and a decoder unit; (b) a process of generating measurement results for one or more inspection items by performing image processing on the converted image; and (c) a process of generating determination results regarding the inspection item by comparing the measurement results with a predetermined determination standard.SELECTED DRAWING: Figure 4

Description

本開示は、被検査画像の検査を実行する方法、情報処理装置、及び、コンピュータープログラムに関する。 The present disclosure relates to a method of performing an inspection of an image to be inspected, an information processing apparatus, and a computer program.

画像の検査と判定を行う検査システムとしては、特許文献1に開示されているような機械学習モデルを用いた検査システムと、画像処理を用いたルールベースの検査システムとが存在する。機械学習モデルを用いた検査システムは、基本的に判定への介入が困難とされている。一方、画像処理を用いたルールベースの検査システムは、人が処理パラメーターと判定ルールを設計することにより実現するため、基本的に判定への介入が可能である。但し、判定精度の観点からは、画像処理を用いたルールベースの検査システムよりも、機械学習モデルを用いた検査システムの方が優れている場合が多い。 As an inspection system for inspecting and determining an image, there are an inspection system using a machine learning model as disclosed in Patent Document 1 and a rule-based inspection system using image processing. Inspection systems that use machine learning models are basically difficult to intervene in judgment. On the other hand, a rule-based inspection system using image processing is realized by a person designing processing parameters and judgment rules, so that it is basically possible to intervene in the judgment. However, from the viewpoint of determination accuracy, an inspection system using a machine learning model is often superior to a rule-based inspection system using image processing.

特開2020-119159号公報Japanese Unexamined Patent Publication No. 2020-119159

このように、従来技術では、高い判定精度と判定方法の柔軟性の両方の要望を満たすことが困難であるという問題があった。本開示の発明者は、機械学習モデルと画像処理とをうまく組み合わせることによって、高い判定精度と、判定方法の柔軟性、という2つの要望を満たすことができることを見いだした。 As described above, in the prior art, there is a problem that it is difficult to satisfy both the demands of high determination accuracy and flexibility of the determination method. The inventor of the present disclosure has found that by successfully combining a machine learning model and image processing, it is possible to satisfy two demands of high judgment accuracy and flexibility of judgment method.

本開示の第1の形態によれば、被検査画像の検査を実行する方法が提供される。この方法は、(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する工程と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する工程と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する工程と、を含む。 According to the first aspect of the present disclosure, there is provided a method of performing an inspection of an image to be inspected. This method is a step of creating a converted image by (a) performing image conversion for removing noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit. And (b) a step of generating a measurement result for one or more inspection items by performing image processing on the converted image, and (c) comparing the measurement result with a predetermined determination criterion. This includes a step of generating a determination result regarding the inspection item.

本開示の第2の形態によれば、被検査画像の検査を実行する情報処理装置が提供される。この情報処理装置は、エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを記憶するメモリーと、前記機械学習モデルを用いた演算を実行するプロセッサーと、を備える。前記プロセッサーは、(a)前記機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、を実行するように構成されている。 According to the second aspect of the present disclosure, an information processing apparatus for performing an inspection of an image to be inspected is provided. This information processing device includes a memory for storing a machine learning model including a convolutional neural network having an encoder unit and a decoder unit, and a processor for executing an operation using the machine learning model. The processor creates a converted image by (a) performing image conversion for removing noise of the image to be inspected using the machine learning model, and (b) an image for the converted image. By executing the process, a process of generating a measurement result for one or more inspection items, and (c) by comparing the measurement result with a predetermined determination criterion, a determination result for the inspection item is generated. It is configured to perform processing and.

本開示の第3の形態によれば、被検査画像の検査をプロセッサーに実行させるコンピュータープログラムが提供される。前記コンピュータープログラムは、(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、を前記プロセッサーに実行させる。 According to the third aspect of the present disclosure, a computer program for causing a processor to inspect an image to be inspected is provided. The computer program creates a converted image by (a) performing an image conversion that removes noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit. Processing, (b) processing to generate measurement results for one or more inspection items by executing image processing on the converted image, and (c) comparison of the measurement results with predetermined determination criteria. By doing so, the processor is made to execute the process of generating the determination result regarding the inspection item.

画像の検査システムとして機能する情報処理装置のブロック図。A block diagram of an information processing device that functions as an image inspection system. 機械学習モデルの一例を示す説明図。An explanatory diagram showing an example of a machine learning model. 検査工程の処理手順を示すフローチャート。A flowchart showing the processing procedure of the inspection process. 検査処理の流れを示す説明図。Explanatory drawing which shows the flow of inspection process. 学習工程の処理手順を示すフローチャート。A flowchart showing the processing procedure of the learning process. 学習工程を示す説明図。Explanatory diagram showing a learning process. 学習工程の第2実施形態の処理手順を示すフローチャート。The flowchart which shows the processing procedure of 2nd Embodiment of a learning process.

図1は、画像の検査システムとして機能する情報処理装置100のブロック図である。情報処理装置100は、プロセッサー110と、メモリー120と、インターフェイス回路130と、インターフェイス回路130に接続された入力デバイス140及び表示部150と、を有している。プロセッサー110は、被検査画像の検査を実行する画像検査部112、及び、機械学習モデルの学習と画像処理の最適化とを実行する学習実行部114として機能する。画像検査部112と学習実行部114は、メモリー120に格納されたコンピュータープログラムをプロセッサー110が実行することによってそれぞれ実現される。但し、画像検査部112と学習実行部114の少なくとも一方をハードウェア回路で実現してもよい。また、画像検査や学習を実行するプロセッサーは、ネットワークを介して情報処理装置100に接続されたリモートコンピューターに含まれるプロセッサーであってもよい。メモリー120には、機械学習モデル200と、画像処理プログラム300と、被検査画像Diとが格納される。機械学習モデル200と画像処理プログラム300は、画像検査部112による処理に使用される。 FIG. 1 is a block diagram of an information processing apparatus 100 that functions as an image inspection system. The information processing device 100 includes a processor 110, a memory 120, an interface circuit 130, an input device 140 connected to the interface circuit 130, and a display unit 150. The processor 110 functions as an image inspection unit 112 that executes an inspection of the image to be inspected, and a learning execution unit 114 that executes learning of a machine learning model and optimization of image processing. The image inspection unit 112 and the learning execution unit 114 are each realized by the processor 110 executing a computer program stored in the memory 120. However, at least one of the image inspection unit 112 and the learning execution unit 114 may be realized by a hardware circuit. Further, the processor that executes image inspection and learning may be a processor included in a remote computer connected to the information processing unit 100 via a network. The machine learning model 200, the image processing program 300, and the image to be inspected Di are stored in the memory 120. The machine learning model 200 and the image processing program 300 are used for processing by the image inspection unit 112.

図2は、機械学習モデル200の一例を示す説明図である。この機械学習モデル200は、被検査画像Diを変換画像Dicに変換する機能を有しており、オートエンコーダーとして構成されている。オートエンコーダーは、ほぼ左右対称のエンコーダー/デコーダー構造を有する。具体的には、機械学習モデル200は、入力層201と接続層202の間にわたるエンコーダー部210と、接続層202と出力層203の間にわたるデコーダー部220とを有する畳み込みニューラルネットワークとして構成されている。エンコーダー部210は、被検査画像Diの特徴を抽出する機能を有する。デコーダー部220は、抽出された特徴から画像を復元して変換画像Dicを生成する機能を有する。 FIG. 2 is an explanatory diagram showing an example of the machine learning model 200. The machine learning model 200 has a function of converting the image to be inspected Di into a converted image Dic, and is configured as an autoencoder. The autoencoder has a substantially symmetrical encoder / decoder structure. Specifically, the machine learning model 200 is configured as a convolutional neural network having an encoder unit 210 between the input layer 201 and the connection layer 202 and a decoder unit 220 between the connection layer 202 and the output layer 203. .. The encoder unit 210 has a function of extracting the features of the image to be inspected Di. The decoder unit 220 has a function of restoring an image from the extracted features to generate a converted image Dic.

機械学習モデル200としては、オートエンコーダーに限らず、他の種類の畳み込みニューラルネットワークを使用可能である。具体的には、U-Net、又は、CycleGANとして構成することも可能である。オートエンコーダーと、U-Netと、CycleGANは、いずれもエンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークである。U-Netは、オートエンコーダーとほぼ同様のエンコーダー/デコーダー構造を有している。但し、U-Netは、エンコーダー部の各層で出力される特徴マップをデコーダー部の対応する層にスキップして連結するパスを有している点が、オートエンコーダーと異なる。オートエンコーダーとU-Netの学習は、入力画像の画像復元をベースとした教師なし学習として行うことが可能であり、また、望ましい変換画像を利用した教師あり学習として行うことも可能である。オートエンコーダーやU-Netの学習では、損失関数としてcross entropy error,MSE(Mean Square Error),PSNR(Peak Signal-to-Noise Ratio),SSIM(Structural SIMilarity)などが使用される。CycleGANは、生成器(Generator)と識別器(Discriminator)とを有し、生成器は、エンコーダー部と、変換部(transformer)と、デコーダー部とを有する。学習済みのCycleGANに画像が入力されると、生成器によって画像変換された画像が出力される。通常のCycleGANの生成器にはU-Netの構造が採用されているが、ニューラルネットワーク構造をオートエンコーダーに変更しても成立する。但し、CycleGANは、学習方法や損失関数がオートエンコーダーやU-Netと異なる。CycleGANは、いわゆるドメイン変換をベースとして学習が行われ、損失関数としてはCycle-Consistency Lossなどが使用される。このように、オートエンコーダーと、U-Netと、CycleGANは、いずれもエンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークに相当する。なお、エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークとしては、pix2pixのような他の種類のGAN(Generative Adversarial Network)を使用することも可能である。 The machine learning model 200 is not limited to the autoencoder, and other types of convolutional neural networks can be used. Specifically, it can be configured as U-Net or CycleGAN. The autoencoder, U-Net, and CycleGAN are all convolutional neural networks having an encoder unit and a decoder unit. The U-Net has an encoder / decoder structure similar to that of an autoencoder. However, U-Net differs from the autoencoder in that it has a path for skipping and connecting the feature map output in each layer of the encoder unit to the corresponding layer of the decoder unit. The learning of the autoencoder and U-Net can be performed as unsupervised learning based on image restoration of the input image, or can be performed as supervised learning using a desirable converted image. In autoencoder and U-Net learning, cross entropy error, MSE (Mean Square Error), PSNR (Peak Signal-to-Noise Ratio), SSIM (Structural SIMilarity), etc. are used as loss functions. The CycleGAN has a generator and a discriminator, and the generator has an encoder unit, a transformer unit, and a decoder unit. When an image is input to the trained CycleGAN, the image converted by the generator is output. A U-Net structure is adopted for a normal CycleGAN generator, but it is also established even if the neural network structure is changed to an autoencoder. However, the learning method and loss function of CycleGAN are different from those of the autoencoder and U-Net. CycleGAN is learned based on so-called domain conversion, and Cycle-Consistency Loss or the like is used as a loss function. As described above, the autoencoder, U-Net, and CycleGAN all correspond to a convolutional neural network having an encoder unit and a decoder unit. As the convolutional neural network having an encoder unit and a decoder unit, it is also possible to use another type of GAN (Generative Adversarial Network) such as pix2pix.

上述したいずれの種類のモデルを使用する場合にも、機械学習モデル200は、被検査画像Diのノイズを除去する画像変換を実行して、変換画像Dicを生成する機能を有していることが好ましい。本開示において、「被検査画像Diのノイズ」とは、被検査画像Diの良否判定に無関係な陰影や明るさ、濃淡等の画素値分布を意味する。図2に示した機械学習モデル200では、被検査画像Diのノイズはエンコーダー部210によって特徴として認識されないので、デコーダー部220によってノイズが低減された変換画像Dicを生成できる。 When using any of the above-mentioned types of models, the machine learning model 200 has a function of performing image conversion for removing noise of the image to be inspected Di to generate a converted image Dic. preferable. In the present disclosure, the "noise of the image to be inspected Di" means a pixel value distribution such as shading, brightness, and shading that is irrelevant to the quality determination of the image to be inspected Di. In the machine learning model 200 shown in FIG. 2, since the noise of the image to be inspected Di is not recognized as a feature by the encoder unit 210, the decoder unit 220 can generate the converted image Dic in which the noise is reduced.

図3は、検査工程の処理手順を示すフローチャートであり、図4は、検査処理の流れを示す説明図である。 FIG. 3 is a flowchart showing a processing procedure of the inspection process, and FIG. 4 is an explanatory diagram showing a flow of the inspection process.

ステップS110では、画像検査部112が、学習済みの機械学習モデル200を用いて、被検査画像Diのノイズを除去する画像変換を行うことによって、変換画像Dicを生成する。図4に示す例において、変換画像Dicは、被検査画像Diに含まれていた異物FMとキズDFとクラックCRを含んでおり、他のノイズは除去されている。本実施形態において、異物FMとキズDFとクラックCRは、被検査画像Diに関する検査項目として予め設定されている欠陥である。本実施形態では3つの検査項目が設定されているが、検査項目は1つ以上設定されていれば良い。本開示において、「欠陥」という語句は、サイズが小さくて被検査画像Diが良好であることを妨げない欠陥と、サイズが大きくて被検査画像Diが不良であるものと判定される欠陥と、の両方を含む。 In step S110, the image inspection unit 112 generates the converted image Dic by performing image conversion for removing noise of the image to be inspected Di by using the trained machine learning model 200. In the example shown in FIG. 4, the converted image Dic contains the foreign matter FM, the scratch DF, and the crack CR contained in the image Di to be inspected, and other noises are removed. In the present embodiment, the foreign matter FM, the scratch DF, and the crack CR are defects set in advance as inspection items related to the image to be inspected Di. In this embodiment, three inspection items are set, but one or more inspection items may be set. In the present disclosure, the phrase "defect" includes a defect that is small in size and does not prevent the image Di to be inspected from being good, and a defect that is large in size and is determined to be defective in the image Di to be inspected. Including both.

ステップS120では、画像検査部112が、画像処理プログラム300を用いて、変換画像Dicを画像処理することによって、各検査項目に関する計測結果を生成する。図4の例では、画像処理による計測結果として、異物FMの大きさが0.5mm2、キズDFの大きさが4mm、クラックCRの大きさ2mmという結果が得られている。 In step S120, the image inspection unit 112 uses the image processing program 300 to perform image processing on the converted image Dic to generate measurement results for each inspection item. In the example of FIG. 4, as the measurement results by image processing, the size of the foreign matter FM is 0.5 mm 2 , the size of the scratch DF is 4 mm, and the size of the crack CR is 2 mm.

画像処理プログラム300は、例えば、以下のような種々の処理を必要に応じて組み合わせることによって、各検査項目に関する計測結果を生成することが可能である。
・エッジ検出処理
・円の検出処理
・直線の検出処理
・周波数分離処理
・色空間分離処理
・2値化処理
・パターンマッチング処理
・特徴点抽出処理
The image processing program 300 can generate measurement results for each inspection item by, for example, combining various processes such as the following as necessary.
・ Edge detection processing ・ Circle detection processing ・ Straight line detection processing ・ Frequency separation processing ・ Color space separation processing ・ Binarization processing ・ Pattern matching processing ・ Feature point extraction processing

上述した個々の処理を「個別画像処理」と呼ぶ。画像処理プログラム300は、複数の個別画像処理を順に実行するように設定されている。画像処理プログラム300に設定される画像処理のパラメーターは、複数の個別画像処理の処理順序と、各個別画像処理の処理パラメーターと、を含んでいる。個別画像処理の処理パラメーターは、例えば、その個別画像処理でフィルターを用いる場合には、フィルターサイズと、フィルター内の個々の重みである。 The above-mentioned individual processing is called "individual image processing". The image processing program 300 is set to execute a plurality of individual image processes in order. The image processing parameters set in the image processing program 300 include a plurality of individual image processing processing sequences and processing parameters for each individual image processing. The processing parameters of the individual image processing are, for example, the filter size and the individual weights in the filter when the filter is used in the individual image processing.

ステップS130では、画像検査部112が、ステップS120で得られた計測結果を用いて、予め定められた判定基準に従って判定を実行する。図4の例では、異物FMは1mm2未満で良、キズDFは3mm未満で良、クラックCRは5mm未満で良という判定基準が定められている。この結果、異物FMとクラックCRに関しては良好であるが、キズDFに関しては不良という判定結果が得られている。判定基準は、検査システムのユーザーが任意に設定可能である。例えば、下記のような項目についての判定基準を設けてもよい。
(1)判定項目の検出箇所:例えば、異物等が配線上にあるか否かに応じて、異物等のサイズの閾値が変わる場合がある。
(2)色:焼け、焦げ、シミなどによる色の変化を、不良判定の判定基準として使用できる。
(3)ズレ:デバイスの配置ずれや印字ずれなどを判定基準として使用できる。
(4)形状不良:面積や基準とのずれ量、重心位置などの形状不良の指標を用いて判定を行うことができる。
In step S130, the image inspection unit 112 uses the measurement result obtained in step S120 to execute the determination according to a predetermined determination criterion. In the example of FIG. 4, the criteria are defined that the foreign matter FM is good when it is less than 1 mm 2 , the scratch DF is good when it is less than 3 mm, and the crack CR is good when it is less than 5 mm. As a result, it is determined that the foreign matter FM and the crack CR are good, but the scratch DF is bad. The judgment criteria can be arbitrarily set by the user of the inspection system. For example, a determination criterion for the following items may be provided.
(1) Detection point of determination item: For example, the threshold value of the size of foreign matter or the like may change depending on whether or not foreign matter or the like is on the wiring.
(2) Color: A change in color due to burning, charring, stains, etc. can be used as a criterion for determining defects.
(3) Misalignment: Device misalignment, printing misalignment, etc. can be used as judgment criteria.
(4) Shape defect: Judgment can be made by using an index of shape defect such as an area, a deviation amount from a reference, and a position of the center of gravity.

このように、本実施形態では、機械学習モデル200を用いた画像変換の後に、画像処理プログラム300用いた画像処理を実行することによって、1つ以上の検査項目に関する計測結果を取得するので、外乱やばらつき等のノイズが多い被検査画像Diに対しても、精度良く検査を実行することができる。また、画像処理で得られた計測結果を使用して検査項目に対する良否判定を行うので、機械学習モデル200で良否判定を実行する場合に比べて、良否の判定方法を柔軟に変更することが可能である。 As described above, in the present embodiment, after the image conversion using the machine learning model 200, the image processing using the image processing program 300 is executed to acquire the measurement results for one or more inspection items, so that the disturbance Even for the image Di to be inspected, which has a lot of noise such as variations and variations, the inspection can be performed with high accuracy. In addition, since the pass / fail judgment for the inspection item is performed using the measurement result obtained by the image processing, it is possible to flexibly change the pass / fail judgment method as compared with the case where the pass / fail judgment is executed by the machine learning model 200. Is.

図5は、機械学習モデル200の学習を行う第1学習工程S200と、画像処理プログラム300の最適化を行う第2学習工程S300の処理手順を示すフローチャートであり、図6は、これらの学習工程を示す説明図である。学習工程は、上述した検査工程の前に実行される。 FIG. 5 is a flowchart showing a processing procedure of a first learning step S200 for learning the machine learning model 200 and a second learning step S300 for optimizing the image processing program 300, and FIG. 6 is a flowchart showing these learning steps. It is explanatory drawing which shows. The learning step is performed before the inspection step described above.

機械学習モデル200の学習時に使用する学習用のデータは、機械学習モデル200の構成によって異なり、例えば、以下の通りである。 The learning data used at the time of learning the machine learning model 200 differs depending on the configuration of the machine learning model 200, and is, for example, as follows.

<再構成誤差を用いて学習を行う場合>
オートエンコーダーやU-Netでは、画像復元による再構成誤差をベースとして教師なし学習を行うことが可能である。損失関数としてはMSE(Mean Square Error),PSNR(Peak Signal-to-Noise Ratio),SSIM(Structural SIMilarity)などが使用される。学習用データは、例えば、以下の2つを含むものとして構成される。
(a)検査項目の欠陥とノイズとを含む学習用画像
(b)学習用画像における真の計測結果
なお、ノイズはエンコーダー部210によって特徴として認識されないので、ノイズを含む学習用画像を用いた教師なし学習を実行すると、入力画像のノイズを除去するように機械学習モデル200を学習させることができる。
<When learning using reconstruction error>
With an autoencoder or U-Net, unsupervised learning can be performed based on the reconstruction error due to image restoration. As a loss function, MSE (Mean Square Error), PSNR (Peak Signal-to-Noise Ratio), SSIM (Structural SIMilarity), etc. are used. The learning data is configured to include, for example, the following two.
(A) Learning image including defects and noise of inspection items (b) True measurement result in learning image Since noise is not recognized as a feature by the encoder unit 210, a teacher using a learning image containing noise When none learning is performed, the machine learning model 200 can be trained so as to remove noise in the input image.

<セグメンテーション情報を用いて学習を行う場合>
オートエンコーダーやU-Netでは、セグメンテーション(領域分離)された画像を用いて教師あり学習を行うことが可能である。損失関数としてはcross entropy errorなどが使用される。学習用データは、例えば、以下の3つを含むものとして構成される。
(a)検査項目の欠陥とノイズとを含む学習用画像
(b)学習用画像と同じ欠陥を含み、ノイズを含まない正解画像
(c)学習用画像における真の計測結果
「正解画像」としては、学習用画像をセグメンテーション(領域分離)したセグメンテーション画像を用いることができる。セグメンテーションされた正解画像を作成する際には、学習用画像に含まれていたノイズを画像処理又は手作業で除去することが好ましい。或いは、まず、CAD画像のようなシミュレーション画像として、セマンティックマップと出力画像の2つの画像を用意し、そのうちのセマンティックマップを正解画像として使用し、出力画像にノイズを付加することによって学習用画像を作成してもよい。オートエンコーダー又はU-Netで構成された機械学習モデル200に対して教師あり学習を行えば、教師なし学習に比べて、実際の被検査画像におけるノイズが除去された画像を得られるように機械学習モデル200の学習を実行できる。なお、機械学習モデル200の学習を実行するための第1の学習用データと、画像処理のパラメーターの最適化を実行するための第2の学習用データとを別個に準備してもよい。この場合には、第1の学習用データには真の計測結果は不要であり、第2の学習用データには正解画像は不要である。
<When learning using segmentation information>
With an autoencoder or U-Net, supervised learning can be performed using segmented images. A cross entropy error is used as the loss function. The learning data is configured to include, for example, the following three.
(A) Learning image containing defects and noise of inspection items (b) Correct image containing the same defects as the learning image and not containing noise (c) True measurement result in the learning image As a "correct image" , A segmentation image obtained by segmenting a learning image can be used. When creating a segmented correct image, it is preferable to remove the noise contained in the learning image by image processing or manually. Alternatively, first, two images, a semantic map and an output image, are prepared as simulation images such as CAD images, the semantic map is used as the correct image, and the learning image is created by adding noise to the output image. You may create it. If supervised learning is performed on a machine learning model 200 composed of an autoencoder or U-Net, machine learning is performed so that an image in which noise is removed in an actual test image can be obtained as compared with unsupervised learning. The learning of the model 200 can be performed. The first learning data for executing the learning of the machine learning model 200 and the second learning data for executing the optimization of the image processing parameters may be separately prepared. In this case, the first learning data does not need a true measurement result, and the second learning data does not need a correct image.

<別ドメインの画像を用いて学習を行う場合>
CycleGANは、いわゆるドメイン変換をベースとして学習が行われ、損失関数としてはCycle-Consistency Lossなどが使用される。学習用データは、例えば、以下の3つを含むものとして構成される。
(a)検査項目の欠陥とノイズとを含む第1画像群
(b)検査項目の欠陥を含み、ノイズを含まない第2画像群
(c)第1画像群の画像における真の計測結果
第1画像群は第1ドメインの画像群であり、例えば、被検査対象物の実画像の集合である。第2画像群は第2ドメインの画像群であり、例えば、CAD画像に代表されるようなシミュレーション画像の集合である。なお、第2画像群は、第1画像群と一対一に対応付けられている必要はない。なお、CycleGANを用いる場合にも、機械学習モデル200の学習を実行するための第1の学習用データと、画像処理のパラメーターの最適化を実行するための第2の学習用データとを別個に準備してもよい。この場合には、第1の学習用データには真の計測結果は不要であり、第2の学習用データには第2画像群は不要である。
<When learning using images from another domain>
CycleGAN is learned based on so-called domain conversion, and Cycle-Consistency Loss or the like is used as a loss function. The learning data is configured to include, for example, the following three.
(A) First image group including defects and noise of inspection items (b) Second image group including defects of inspection items and not containing noise (c) True measurement results in images of the first image group First The image group is an image group of the first domain, and is, for example, a set of actual images of an object to be inspected. The second image group is an image group of the second domain, and is, for example, a set of simulation images represented by a CAD image. The second image group does not need to be associated with the first image group on a one-to-one basis. Even when CycleGAN is used, the first learning data for executing the learning of the machine learning model 200 and the second learning data for executing the optimization of the image processing parameters are separately separated. You may prepare. In this case, the first learning data does not need a true measurement result, and the second learning data does not need a second image group.

図5及び図6に示す学習工程では、機械学習モデル200をオートエンコーダー又はU-Netで構成し、教師あり学習を行う場合について説明する。図6に示すように、学習用データとしては、学習用画像Dtと、それに対応する正解画像Dtoとが予め準備されている。正解画像Dtoは、異物FMとキズDFとクラックCRとを含み、ノイズを含まない画像である。本実施形態において、学習用画像Dtは、正解画像Dtoにノイズを付加した画像である。 In the learning process shown in FIGS. 5 and 6, a case where the machine learning model 200 is configured by an autoencoder or U-Net and supervised learning is performed will be described. As shown in FIG. 6, as the learning data, a learning image Dt and a corresponding correct answer image Dto are prepared in advance. The correct image Dto is an image containing foreign matter FM, scratch DF, and crack CR, and does not contain noise. In the present embodiment, the learning image Dt is an image in which noise is added to the correct answer image Dto.

第1学習工程S200の最初のステップS210では、学習実行部114が、機械学習モデル200を用いて、複数の学習用画像Dtを画像変換することによって、複数の推論画像Dtcを生成する。ステップS220では、学習実行部114が、推論画像Dtcの損失Laを算出する。本実施形態において、損失Laは、推論画像Dtcと正解画像Dtoとの差異に応じて算出される損失関数の値である。損失関数としては、畳み込みニューラルネットワークの学習に用いる各種の損失関数を使用可能である。なお、教師なし学習を行う場合には、損失Laは、推論画像Dtcと学習用画像Dtとの差異に応じて算出される。ステップS230では、学習実行部114が、ステップS220で算出された損失Laを用いて、機械学習モデル200の学習を実行する。ステップS240では、学習実行部114が、機械学習モデル200の学習が完了したか否かを判断し、完了していなければステップS210に戻ってステップS210~S230を繰り返す。機械学習モデル200の学習が完了したか否かは、例えば、損失Laが予め定められた閾値以下になったか否か、または、検証用データの損失値(loss)の更新が収束したか、などで判断される。これらのステップS210~S240による機械学習モデル200の学習方法は、通常の学習方法と同じである。 In the first step S210 of the first learning step S200, the learning execution unit 114 generates a plurality of inferred images Dtc by image-converting a plurality of learning image Dt using the machine learning model 200. In step S220, the learning execution unit 114 calculates the loss La of the inferred image Dtc. In the present embodiment, the loss La is the value of the loss function calculated according to the difference between the inferred image Dtc and the correct image Dto. As the loss function, various loss functions used for learning the convolutional neural network can be used. In the case of unsupervised learning, the loss La is calculated according to the difference between the inferred image Dtc and the learning image Dt. In step S230, the learning execution unit 114 executes learning of the machine learning model 200 using the loss La calculated in step S220. In step S240, the learning execution unit 114 determines whether or not the learning of the machine learning model 200 is completed, and if not, returns to step S210 and repeats steps S210 to S230. Whether or not the training of the machine learning model 200 is completed is, for example, whether or not the loss La is equal to or less than a predetermined threshold value, or whether or not the update of the loss value (loss) of the verification data has converged. Judged by. The learning method of the machine learning model 200 according to these steps S210 to S240 is the same as the normal learning method.

第2学習工程S300の最初のステップS310では、学習実行部114が、学習済みの機械学習モデル200を用いて複数の学習用画像Dtを画像変換することによって複数の推論画像Dtcを生成する。 In the first step S310 of the second learning step S300, the learning execution unit 114 generates a plurality of inferred images Dtc by image-converting a plurality of learning image Dt using the trained machine learning model 200.

ステップS320では、学習実行部114が、画像処理プログラム300を用いて複数の推論画像Dtcの画像処理を行うことによって計測結果を生成する。図6の例において、推論画像Dtcについての計測結果は、異物FMが0.9mm2、キズDFが5mm、クラックCRが2mmである。なお、これらの計測結果を判定基準と比較した判定結果は、異物FMが良好、キズDFが不良、クラックCRが良好となる。図6には、同じ推論画像Dtcについての真値は、異物FMが1mm2、キズDFが3mm、クラックCRが0.8mmであり、真の判定結果は、異物FMが不良、キズDFが不良、クラックCRが良好であることが示されている。 In step S320, the learning execution unit 114 generates a measurement result by performing image processing of a plurality of inferred images Dtc using the image processing program 300. In the example of FIG. 6, the measurement results for the inferred image Dtc are 0.9 mm 2 for the foreign matter FM, 5 mm for the scratch DF, and 2 mm for the crack CR. The judgment result of comparing these measurement results with the judgment criteria is that the foreign matter FM is good, the scratch DF is bad, and the crack CR is good. In FIG. 6, the true values for the same inferred image Dtc are 1 mm 2 for foreign matter FM, 3 mm for scratch DF, and 0.8 mm for crack CR, and the true judgment result is that foreign matter FM is defective and scratch DF is defective. , Crack CR has been shown to be good.

ステップS330では、学習実行部114が、計測結果と真値の差異Ebを算出する。図6のように複数の検査項目がある場合には、差異Ebは、複数の検査項目における計測結果と真値の差分のすべてに関する平均2乗誤差や平均絶対誤差として算出できる。この際、計測結果と真値の差分を真値で除算することによって正規化した差分を用いて、平均2乗誤差や平均絶対誤差を算出することが好ましい。 In step S330, the learning execution unit 114 calculates the difference Eb between the measurement result and the true value. When there are a plurality of inspection items as shown in FIG. 6, the difference Eb can be calculated as a mean square error or a mean absolute error regarding all the differences between the measurement results and the true values in the plurality of inspection items. At this time, it is preferable to calculate the mean square error and the mean absolute error by using the difference normalized by dividing the difference between the measurement result and the true value by the true value.

ステップS340では、学習実行部114が、差異Ebを用いて画像処理プログラム300のパラメーターの最適化を実行する。画像処理プログラム300のパラメーターは、「画像処理のパラメーター」と同義である。前述したように、画像処理のパラメーターは、複数の個別画像処理の処理順序と、各個別画像処理の処理パラメーターと、を含んでいる。画像処理のパラメーターの最適化は、計測結果と真値の差異Ebができるだけ小さくなるように画像処理のパラメーターを調整する処理を意味する。例えば、画像処理に使用される複数の個別画像処理の処理順序として、複数の処理順序を予め用意しておき、計測結果と真値の差異Ebが最も小さくなるものを最適な処理順序として選択することができる。また、複数の個別画像処理の処理パラメーターとして、複数の処理パラメーター群を予め用意しておき、計測結果と真値の差異Ebが最も小さくなるものを最適な処理パラメーター群として選択することができる。処理順序の最適化と処理パラメーターの最適化は、いずれを先に実行してもよい。また、複数の処理順序と複数の処理パラメーター群との組み合わせを複数セット用意しておき、これらの中から計測結果と真値の差異Ebが最も小さくなるものを、画像処理の最適なパラメーターとして選択するようにしてもよい。 In step S340, the learning execution unit 114 executes the optimization of the parameters of the image processing program 300 using the difference Eb. The parameters of the image processing program 300 are synonymous with "parameters of image processing". As described above, the image processing parameters include a plurality of individual image processing processing sequences and processing parameters for each individual image processing. Optimizing the image processing parameters means a process of adjusting the image processing parameters so that the difference Eb between the measurement result and the true value becomes as small as possible. For example, as the processing order of a plurality of individual image processes used for image processing, a plurality of processing orders are prepared in advance, and the one having the smallest difference Eb between the measurement result and the true value is selected as the optimum processing order. be able to. Further, as a plurality of processing parameters for individual image processing, a plurality of processing parameter groups can be prepared in advance, and the one having the smallest difference Eb between the measurement result and the true value can be selected as the optimum processing parameter group. Either the processing order optimization or the processing parameter optimization may be executed first. In addition, multiple sets of combinations of multiple processing sequences and multiple processing parameter groups are prepared, and the one with the smallest difference Eb between the measurement result and the true value is selected as the optimum parameter for image processing. You may try to do it.

ステップS350では、学習実行部114が、画像処理の最適化が完了したか否かを判断し、完了していなければステップS310に戻ってステップS310~S340を繰り返す。ステップS310に戻る場合には、複数の学習用画像Dtとして新たな画像を使用することが好ましい。画像処理の最適化が完了したか否かは、例えば、計測結果と真値の差異Ebが予め定められた閾値以下になったか否か、又は、指定したイテレーション数の探索を実施したかなどで判断される。 In step S350, the learning execution unit 114 determines whether or not the optimization of image processing is completed, and if not, returns to step S310 and repeats steps S310 to S340. When returning to step S310, it is preferable to use a new image as a plurality of learning images Dt. Whether or not the optimization of image processing is completed depends on, for example, whether or not the difference Eb between the measurement result and the true value is equal to or less than a predetermined threshold value, or whether or not the specified number of iterations is searched. Judged.

このように、図5及び図6に示した学習工程では、機械学習モデル200の学習を実行した後に画像処理のパラメーターの最適化を実行するので、機械学習モデル200と画像処理の最適化をうまく実行することが可能である。 As described above, in the learning process shown in FIGS. 5 and 6, the optimization of the image processing parameters is executed after the learning of the machine learning model 200 is executed, so that the optimization of the machine learning model 200 and the image processing is successful. It is possible to do it.

なお、既に学習が完了して一度確立した検査システムにおいて、測定や製造に起因する新たな外乱が発生して検査精度が低下した場合には、2つの対応方法が考えられる。第1の対応方法は、機械学習モデル200をそのまま維持し、画像処理のパラメーターの最適化を行う第2学習工程S300を実行する方法である。第2の対応方法は、画像処理のパラメーターをそのまま維持し、機械学習モデル200の学習を行う第1学習工程S200を実行する方法である。後者の場合において、正解画像Dtoにノイズを付加することによって学習用画像Dtを作成する場合には、新たな外乱に対応したノイズを正解画像Dtoに付加することが好ましい。或いは、学習用画像Dtからノイズを除去して正解画像Dtoを作成する場合には、学習用画像Dtに含まれている新たな外乱によるノイズを、画像処理や手作業で除去することが好ましい。 In an inspection system that has already been learned and once established, if a new disturbance caused by measurement or manufacturing occurs and the inspection accuracy deteriorates, two countermeasures can be considered. The first corresponding method is a method of executing the second learning step S300 in which the machine learning model 200 is maintained as it is and the parameters of the image processing are optimized. The second corresponding method is a method of executing the first learning step S200 for learning the machine learning model 200 while maintaining the parameters of the image processing as they are. In the latter case, when the learning image Dt is created by adding noise to the correct image Dto, it is preferable to add noise corresponding to the new disturbance to the correct image Dto. Alternatively, when the correct image Dto is created by removing the noise from the learning image Dt, it is preferable to manually remove the noise due to the new disturbance contained in the learning image Dt by image processing or manual operation.

図7は、学習工程の第2実施形態の処理手順を示すフローチャートである。この学習工程のうち、第1学習工程S200は図5と同じであり、第2学習工程S301が図5と異なっている。すなわち、図7の第2学習工程S301では、ステップS310とステップS320の間に、ステップS312,S314が追加されており、他のステップは図5と同じである。 FIG. 7 is a flowchart showing the processing procedure of the second embodiment of the learning process. Of these learning steps, the first learning step S200 is the same as in FIG. 5, and the second learning step S301 is different from FIG. That is, in the second learning step S301 of FIG. 7, steps S312 and S314 are added between steps S310 and S320, and the other steps are the same as those of FIG.

ステップS312では、学習実行部114が、ステップS310で得られた推論画像Dtcの損失Laを算出する。ステップS314では、学習実行部114が、ステップS312で算出された損失Laを用いて、機械学習モデル200の追加的な学習を実行する。これらのステップS312,S314は、第1学習工程S200のステップS220,S230と実質的に同じものである。このように、第2学習工程において機械学習モデル200の追加的な学習を実行すれば、機械学習モデル200の精度を向上できる。なお、ステップS312,S314は、ステップS310の後で実行すればよく、図7に示したタイミングとは異なるタイミングでも実行することができる。 In step S312, the learning execution unit 114 calculates the loss La of the inferred image Dtc obtained in step S310. In step S314, the learning execution unit 114 executes additional learning of the machine learning model 200 using the loss La calculated in step S312. These steps S312 and S314 are substantially the same as steps S220 and S230 of the first learning step S200. In this way, if additional learning of the machine learning model 200 is executed in the second learning step, the accuracy of the machine learning model 200 can be improved. It should be noted that steps S312 and S314 may be executed after step S310, and may be executed at a timing different from the timing shown in FIG.

・他の実施形態:
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
-Other embodiments:
The present disclosure is not limited to the above-described embodiment, and can be realized in various forms without departing from the spirit thereof. For example, the present disclosure can also be realized by the following aspect. The technical features in each of the embodiments described below correspond to the technical features in the above embodiments in order to solve some or all of the problems of the present disclosure, or some or all of the effects of the present disclosure. It is possible to replace or combine as appropriate to achieve the above. Further, if the technical feature is not described as essential in the present specification, it can be appropriately deleted.

(1)本開示の第1の形態によれば、被検査画像の検査を実行する方法が提供される。この方法は、(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する工程と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する工程と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する工程と、を含む。
この方法によれば、機械学習モデルを用いた画像変換の後に、画像処理を実行することによって検査項目に関する計測結果を取得するので、外乱やばらつき等のノイズが多い被検査画像に対しても、精度良く検査を実行することができる。また、画像処理で得られた計測結果を使用して検査項目に対する判定を行うので、機械学習モデルで判定を実行する場合に比べて、判定方法を柔軟に変更することが可能である。
(1) According to the first aspect of the present disclosure, a method for performing an inspection of an image to be inspected is provided. This method is a step of creating a converted image by (a) performing image conversion for removing noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit. And (b) a step of generating a measurement result for one or more inspection items by performing image processing on the converted image, and (c) comparing the measurement result with a predetermined determination criterion. This includes a step of generating a determination result regarding the inspection item.
According to this method, after image conversion using a machine learning model, measurement results related to inspection items are acquired by executing image processing, so even for images to be inspected that have a lot of noise such as disturbance and variation. The inspection can be performed with high accuracy. Further, since the judgment is made for the inspection item using the measurement result obtained by the image processing, it is possible to flexibly change the judgment method as compared with the case where the judgment is executed by the machine learning model.

(2)上記方法において、前記機械学習モデルは、オートエンコーダー、U-Net、又は、CycleGANとして構成されているものとしてもよい。
この方法によれば、被検査画像のノイズを除去する画像変換を実行する機械学習モデルを容易に構成できる。
(2) In the above method, the machine learning model may be configured as an autoencoder, U-Net, or CycleGAN.
According to this method, it is possible to easily construct a machine learning model that performs image conversion that removes noise from the image to be inspected.

(3)上記方法は、更に、前記工程(a)の前に、前記機械学習モデルの学習を実行する学習工程と、前記第1学習工程の後に、前記画像処理のパラメーターを最適化する第2学習工程と、を有するようにしてもよい。前記第2学習工程は、(i)学習用画像を学習済みの前記機械学習モデルに入力して、推論画像を生成する工程と、(ii)前記推論画像に対して前記画像処理を実行することによって、前記検査項目に関する学習時計測結果を生成する工程と、(iii)前記学習用画像における前記検査項目に対する真値と前記学習時計測結果との差異を用いて、前記画像処理のパラメーターの最適化を実行する工程と、を含むものとしてもよい。
この方法によれば、機械学習モデルの学習を実行した後に画像処理のパラメーターの最適化を実行するので、機械学習モデルと画像処理の最適化をうまく実行できる。
(3) The method further optimizes the parameters of the image processing after the learning step of executing the learning of the machine learning model before the step (a) and the first learning step. It may have a learning process. The second learning step includes (i) inputting a learning image into the trained machine learning model to generate an inferred image, and (ii) executing the image processing on the inferred image. (Iii) Optimizing the parameters of the image processing by using the difference between the true value for the inspection item and the learning measurement result in the learning image and the step of generating the learning measurement result for the inspection item. It may include a step of executing the conversion.
According to this method, the optimization of the image processing parameters is executed after the training of the machine learning model is executed, so that the optimization of the machine learning model and the image processing can be executed well.

(4)上記方法は、前記第2学習工程は、前記工程(i)の後に、前記推論画像を用いて前記機械学習モデルの追加的な学習を実行する工程、を含むものとしてもよい。
この方法によれば、画像処理のパラメーターの最適化を実行する第2学習工程において機械学習モデルの追加的な学習を実行するので、機械学習モデルの精度を向上できる。
(4) In the above method, the second learning step may include a step of executing additional learning of the machine learning model using the inference image after the step (i).
According to this method, the accuracy of the machine learning model can be improved because the additional learning of the machine learning model is executed in the second learning step of executing the optimization of the image processing parameters.

(5)本開示の第2の形態によれば、被検査画像の検査を実行する情報処理装置が提供される。この情報処理装置は、エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを記憶するメモリーと、前記機械学習モデルを用いた演算を実行するプロセッサーと、を備える。前記プロセッサーは、(a)前記機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、を実行するように構成されている。
この情報処理装置によれば、機械学習モデルを用いた画像変換の後に、画像処理を実行することによって検査項目に関する計測結果を取得するので、外乱やばらつき等のノイズが多い被検査画像に対しても、正確な検査を実行することができる。また、画像処理で得られた計測結果を使用して検査項目に対する判定を行うので、機械学習モデルで判定を実行する場合に比べて、判定方法を柔軟に変更することが可能である。
(5) According to the second aspect of the present disclosure, an information processing apparatus for executing an inspection of an image to be inspected is provided. This information processing device includes a memory for storing a machine learning model including a convolutional neural network having an encoder unit and a decoder unit, and a processor for executing an operation using the machine learning model. The processor creates a converted image by (a) performing image conversion for removing noise of the image to be inspected using the machine learning model, and (b) an image for the converted image. By executing the process, a process of generating a measurement result for one or more inspection items, and (c) by comparing the measurement result with a predetermined determination criterion, a determination result for the inspection item is generated. It is configured to perform processing and.
According to this information processing device, after image conversion using a machine learning model, measurement results related to inspection items are acquired by executing image processing, so that the image to be inspected has a lot of noise such as disturbance and variation. Can also perform accurate inspections. Further, since the judgment is made for the inspection item using the measurement result obtained by the image processing, it is possible to flexibly change the judgment method as compared with the case where the judgment is executed by the machine learning model.

(6)本開示の第3の形態によれば、被検査画像の検査をプロセッサーに実行させるコンピュータープログラムが提供される。前記コンピュータープログラムは、(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、を前記プロセッサーに実行させる。
このコンピュータープログラムによれば、機械学習モデルを用いた画像変換の後に、画像処理を実行することによって検査項目に関する計測結果を取得するので、外乱やばらつき等のノイズが多い被検査画像に対しても、正確な検査を実行することができる。また、画像処理で得られた計測結果を使用して検査項目に対する判定を行うので、機械学習モデルで判定を実行する場合に比べて、判定方法を柔軟に変更することが可能である。
(6) According to the third aspect of the present disclosure, a computer program for causing a processor to inspect an image to be inspected is provided. The computer program creates a converted image by (a) performing an image conversion that removes noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit. Processing, (b) processing to generate measurement results for one or more inspection items by executing image processing on the converted image, and (c) comparison of the measurement results with predetermined determination criteria. By doing so, the processor is made to execute the process of generating the determination result regarding the inspection item.
According to this computer program, after image conversion using a machine learning model, measurement results related to inspection items are acquired by executing image processing, so even for images to be inspected that have a lot of noise such as disturbance and variation. , Can perform accurate inspection. Further, since the judgment is made for the inspection item using the measurement result obtained by the image processing, it is possible to flexibly change the judgment method as compared with the case where the judgment is executed by the machine learning model.

本開示は、上記以外の種々の形態で実現することも可能である。例えば、画像検査の機能を実現するためのコンピュータープログラムを記録した一時的でない記録媒体(non-transitory storage medium)等の形態で実現することができる。 The present disclosure can also be realized in various forms other than the above. For example, it can be realized in the form of a non-transitory storage medium or the like in which a computer program for realizing the image inspection function is recorded.

100…情報処理装置、110…プロセッサー、112…画像検査部、114…学習実行部、120…メモリー、130…インターフェイス回路、150…表示部、200…機械学習モデル、201…入力層、202…接続層、203…出力層、210…エンコーダー部、220…デコーダー部、300…画像処理プログラム 100 ... Information processing device, 110 ... Processor, 112 ... Image inspection unit, 114 ... Learning execution unit, 120 ... Memory, 130 ... Interface circuit, 150 ... Display unit, 200 ... Machine learning model, 201 ... Input layer, 202 ... Connection Layer, 203 ... Output layer, 210 ... Encoder section, 220 ... Decoder section, 300 ... Image processing program

Claims (6)

被検査画像の検査を実行する方法であって、
(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する工程と、
(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する工程と、
(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する工程と、
を含む、方法。
It is a method of performing an inspection of the image to be inspected.
(A) A step of creating a converted image by performing image conversion for removing noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit.
(B) A step of generating measurement results for one or more inspection items by executing image processing on the converted image, and
(C) A step of generating a judgment result regarding the inspection item by comparing the measurement result with a predetermined judgment standard, and a step of generating the judgment result.
Including, how.
請求項1に記載の方法であって、
前記機械学習モデルは、オートエンコーダー、U-Net、又は、CycleGANとして構成されている、方法。
The method according to claim 1.
The method, wherein the machine learning model is configured as an autoencoder, U-Net, or CycleGAN.
請求項1又は2に記載の方法であって、更に、
前記工程(a)の前に、
前記機械学習モデルの学習を実行する第1学習工程と、
前記第1学習工程の後に、前記画像処理のパラメーターを最適化する第2学習工程と、
を有し、
前記第2学習工程は、
(i)学習用画像を学習済みの前記機械学習モデルに入力して、推論画像を生成する工程と、
(ii)前記推論画像に対して前記画像処理を実行することによって、前記検査項目に関する学習時計測結果を生成する工程と、
(iii)前記学習用画像における前記検査項目に対する真値と前記学習時計測結果との差異を用いて、前記画像処理のパラメーターの最適化を実行する工程と、
を含む、方法。
The method according to claim 1 or 2, further
Before the step (a),
The first learning process for executing the learning of the machine learning model and
After the first learning step, a second learning step of optimizing the parameters of the image processing and
Have,
The second learning step is
(I) A step of inputting a learning image into the trained machine learning model to generate an inference image, and
(Ii) A step of generating a learning measurement result regarding the inspection item by executing the image processing on the inferred image, and
(Iii) A step of performing optimization of the parameters of the image processing by using the difference between the true value for the inspection item and the measurement result at the time of learning in the learning image.
Including, how.
請求項3に記載の方法であって、
前記第2学習工程は、前記工程(i)の後に、
前記推論画像を用いて前記機械学習モデルの追加的な学習を実行する工程、
を含む、方法。
The method according to claim 3.
The second learning step is performed after the step (i).
A step of performing additional learning of the machine learning model using the inference image,
Including, how.
被検査画像の検査を実行する情報処理装置であって、
エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを記憶するメモリーと、
前記機械学習モデルを用いた演算を実行するプロセッサーと、
を備え、
前記プロセッサーは、
(a)前記機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、
(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、
(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、
を実行するように構成されている、情報処理装置。
An information processing device that inspects the image to be inspected.
A memory that stores a machine learning model including a convolutional neural network having an encoder part and a decoder part,
A processor that executes operations using the machine learning model, and
Equipped with
The processor
(A) A process of creating a converted image by executing an image conversion for removing noise of the image to be inspected using the machine learning model.
(B) A process of generating measurement results for one or more inspection items by executing image processing on the converted image, and a process of generating measurement results.
(C) A process of generating a judgment result regarding the inspection item by comparing the measurement result with a predetermined judgment standard.
An information processing device that is configured to run.
被検査画像の検査をプロセッサーに実行させるコンピュータープログラムであって、
前記コンピュータープログラムは、
(a)エンコーダー部とデコーダー部とを有する畳み込みニューラルネットワークを含む機械学習モデルを用いて、前記被検査画像のノイズを除去する画像変換を実行することによって、変換画像を作成する処理と、
(b)前記変換画像に対して画像処理を実行することによって、1つ以上の検査項目に関する計測結果を生成する処理と、
(c)前記計測結果を予め定められた判定基準と比較することによって、前記検査項目に関する判定結果を生成する処理と、
を前記プロセッサーに実行させる、コンピュータープログラム。
A computer program that causes the processor to inspect the image to be inspected.
The computer program is
(A) A process of creating a converted image by performing image conversion for removing noise of the image to be inspected using a machine learning model including a convolutional neural network having an encoder unit and a decoder unit.
(B) A process of generating measurement results for one or more inspection items by executing image processing on the converted image, and a process of generating measurement results.
(C) A process of generating a judgment result regarding the inspection item by comparing the measurement result with a predetermined judgment standard.
A computer program that causes the processor to execute.
JP2020200077A 2020-12-02 2020-12-02 Method for performing inspection on image to be inspected, information processing apparatus, and computer program Pending JP2022087930A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020200077A JP2022087930A (en) 2020-12-02 2020-12-02 Method for performing inspection on image to be inspected, information processing apparatus, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020200077A JP2022087930A (en) 2020-12-02 2020-12-02 Method for performing inspection on image to be inspected, information processing apparatus, and computer program

Publications (1)

Publication Number Publication Date
JP2022087930A true JP2022087930A (en) 2022-06-14

Family

ID=81982246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020200077A Pending JP2022087930A (en) 2020-12-02 2020-12-02 Method for performing inspection on image to be inspected, information processing apparatus, and computer program

Country Status (1)

Country Link
JP (1) JP2022087930A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117893538A (en) * 2024-03-15 2024-04-16 成都方昇科技有限公司 Semiconductor device quality detection method, device and system based on machine vision

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117893538A (en) * 2024-03-15 2024-04-16 成都方昇科技有限公司 Semiconductor device quality detection method, device and system based on machine vision
CN117893538B (en) * 2024-03-15 2024-05-31 成都方昇科技有限公司 Semiconductor device quality detection method, device and system based on machine vision

Similar Documents

Publication Publication Date Title
CN109781733A (en) Flaw detection apparatus, defect detecting method and computer readable storage medium
CN109685097B (en) Image detection method and device based on GAN
CN111382785B (en) GAN network model and method for realizing automatic cleaning and auxiliary marking of samples
CN110458791B (en) Quality defect detection method and detection equipment
US10726535B2 (en) Automatically generating image datasets for use in image recognition and detection
CN114445746A (en) Model training method, railway contact net abnormity detection method and related device
US20230402249A1 (en) Defect inspection apparatus
JP2020085583A (en) Inspection device and inspection method
JP2022087930A (en) Method for performing inspection on image to be inspected, information processing apparatus, and computer program
JP2010071826A (en) Teacher data preparation method, and image sorting method and image sorter
WO2019176988A1 (en) Inspection system, identification system, and device for evaluating identification apparatus
CN111080540A (en) Training method of image restoration model and computer equipment
CN112613494A (en) Power line monitoring abnormity identification method and system based on deep countermeasure network
CN112668754A (en) Power equipment defect diagnosis method based on multi-source characteristic information fusion
CN115330688A (en) Image anomaly detection method considering tag uncertainty
JP7119949B2 (en) Judgment device and judgment method
CN113537367A (en) Fault detection model training method and device, fault detection method, electronic equipment and readable storage medium
JP2022169974A (en) Inspection method, information processing apparatus, and program
WO2020137229A1 (en) Image determination device, image determination method, and image determination program
WO2023166776A1 (en) Appearance analysis system, appearance analysis method, and program
JP2019144870A (en) System and method for object inspection
TWI812363B (en) Image defect detecting system, generating method thereof and computer readable medium of the method
Buchanan et al. Reliability benchmarks for image segmentation
KR20240102068A (en) Apparatus and method for verifying PCB inspection by using artificial intelligence and record media recorded program for realizing the same
CN113552130A (en) Flaw detection method and flaw detection device