JP2020135051A - Fault inspection device, fault inspection method, fault inspection program, learning device and learned model - Google Patents

Fault inspection device, fault inspection method, fault inspection program, learning device and learned model Download PDF

Info

Publication number
JP2020135051A
JP2020135051A JP2019023830A JP2019023830A JP2020135051A JP 2020135051 A JP2020135051 A JP 2020135051A JP 2019023830 A JP2019023830 A JP 2019023830A JP 2019023830 A JP2019023830 A JP 2019023830A JP 2020135051 A JP2020135051 A JP 2020135051A
Authority
JP
Japan
Prior art keywords
image
input
data
defects
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019023830A
Other languages
Japanese (ja)
Other versions
JP7298176B2 (en
Inventor
慎吾 水田
Shingo Mizuta
慎吾 水田
真治 岡谷
Shinji Okaya
真治 岡谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toray Industries Inc
Original Assignee
Toray Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toray Industries Inc filed Critical Toray Industries Inc
Priority to JP2019023830A priority Critical patent/JP7298176B2/en
Publication of JP2020135051A publication Critical patent/JP2020135051A/en
Application granted granted Critical
Publication of JP7298176B2 publication Critical patent/JP7298176B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a fault inspection device, fault inspection method, fault inspection program, learning device and learned model that can highly accurately detect a fault even if a fault size is quite small in an inspection image acquired from a product targeted for an inspection.SOLUTION: A fault inspection device comprises: an image processing unit that inputs data on an image data to a learned model created by machine learning using a first image group made of an image in which an inspection-purpose image includes a fault of a pixel and a second image group made of an image not including the fault, and for repairing only the fault included in the image, performs a computation based on the learned model, and thereby outputs data on an output image; a calculation unit that compares regions corresponding to the input image and output image to thereby calculate difference information quantifying a difference between both image; and a determination unit that determines whether the input image includes the fault or not on the basis of the difference information calculated by the calculation unit.SELECTED DRAWING: Figure 2

Description

本発明は、欠点検査装置、欠点検査方法、欠点検査プログラム、学習装置および学習済みモデルに関する。 The present invention relates to a defect inspection device, a defect inspection method, a defect inspection program, a learning device, and a trained model.

製品の外観等の検査を行う方法は、(1)目視による方法、(2)外観上の欠点部を強調し、大きさ、形等の特徴量から欠点部を抽出する画像処理アルゴリズムによる方法、(3)あらかじめ設定した正常サンプルとの比較による方法、および(4)機械学習を用いる方法に大別することができる。 The methods for inspecting the appearance of a product are (1) a visual method, (2) a method using an image processing algorithm that emphasizes defects in appearance and extracts defects from features such as size and shape. It can be roughly divided into (3) a method by comparison with a preset normal sample and (4) a method using machine learning.

このうち、上記(1)には、高感度であるものの、検査を行う人手がかかるという課題や、検査を行う人やその体調等によって、検査感度が異なるという課題がある。 Of these, the above (1) has a problem that although it has high sensitivity, it takes a lot of manpower to perform the inspection, and a problem that the inspection sensitivity differs depending on the person performing the inspection and his / her physical condition.

上記(2)には、検出対象の特徴を明確に定義できない場合にアルゴリズムを設計することが困難であるという課題がある。また、上記(2)には、欠点の特徴を明確に定義できたとしてもアルゴリズムの設計に熟練技術者のスキルが必要になり、開発に時間を要するという課題がある。さらに、上記(2)には、製品の形状や構造が複雑な場合、欠点部分のみを抽出することが困難であるという課題もある。 The above (2) has a problem that it is difficult to design an algorithm when the feature of the detection target cannot be clearly defined. Further, the above (2) has a problem that even if the characteristics of the defects can be clearly defined, the skill of a skilled engineer is required for the design of the algorithm, and the development takes time. Further, the above (2) also has a problem that it is difficult to extract only the defective portion when the shape or structure of the product is complicated.

上記(3)には、製品の形状や構造が複雑な場合にも対応可能であるものの、検査対象が複数ある場合には、対応する製品の正常画像全てに対して比較計算を実施する必要があるために計算コストが増加するという課題がある。また、上記(3)には、正常画像と異常画像との差異が色味の違いや寸法の差異等に起因しており、異常画像が必ずしも欠点画像を示すわけではないという課題がある。 Although the above (3) can be dealt with even when the shape and structure of the product are complicated, when there are multiple inspection targets, it is necessary to carry out comparative calculation for all the normal images of the corresponding products. Therefore, there is a problem that the calculation cost increases. Further, the above (3) has a problem that the difference between the normal image and the abnormal image is caused by the difference in color, the difference in dimensions, and the like, and the abnormal image does not necessarily show a defective image.

このような状況のもと、上記(4)の機械学習を用いた方法が注目されている。この方法によれば、検出対象の特徴を明確に定義できない場合であっても、学習によってその特徴を獲得することができる。このため、検査対象画像を準備さえすればよく、検査対象ごとに1からアルゴリズムを設計する必要がないという利点も有している。 Under such circumstances, the method using machine learning in (4) above is drawing attention. According to this method, even if the feature to be detected cannot be clearly defined, the feature can be acquired by learning. Therefore, there is an advantage that it is only necessary to prepare an image to be inspected and it is not necessary to design an algorithm from scratch for each inspection target.

機械学習を用いた異常検出方法として、画像上の照明変化、回転、拡大縮小に対してそれぞれ不変な局所特徴量を取得し、これらの局所特徴量に対して機械学習を用いることによって異常検出を行い、異常と判別された局所特徴量を持つ画像に対して欠点を検出する方法が提案されている(例えば、特許文献1を参照)。 As an abnormality detection method using machine learning, local features that are invariant with respect to lighting changes, rotation, and scaling on the image are acquired, and abnormality detection is performed by using machine learning for these local features. A method of detecting defects in an image having a local feature amount determined to be abnormal has been proposed (see, for example, Patent Document 1).

また、機械学習を用いた画像の検査方法として、特徴量として計算したZスコアおよび同時確率を用いることにより、機械学習で生成した良品の画像のモデルの負担率(そのモデルに分類される期待値)を計算し、この負担率を重みとする重み付け画素平均値と重み付け画素分散値を用いて欠点を検出する方法が提案されている(例えば、特許文献2を参照)。 In addition, as an image inspection method using machine learning, by using the Z score calculated as a feature quantity and the joint probability, the burden rate of the model of a good image generated by machine learning (expected value classified into the model). ), And a method of detecting defects by using the weighted pixel average value and the weighted pixel dispersion value with this burden rate as a weight has been proposed (see, for example, Patent Document 2).

特開2016−110290号公報JP-A-2016-110290 特開2017−167624号公報Japanese Unexamined Patent Publication No. 2017-167624

しかしながら、上述した特許文献1の技術では、欠点を検出する検査用の画像のうち、検査対象となる画像が複数の種類の微細なパターンで、かつ発生する欠点サイズが極めて小さい場合、もしくは製品の微細パターンの形状が検査対象である場合には、欠点の発生する領域において取得した微細パターンにおける局所特徴量の差異が小さく、欠点の検出精度が低下してしまうことがある。 However, in the technique of Patent Document 1 described above, among the images for inspection for detecting defects, when the image to be inspected has a plurality of types of fine patterns and the defect size generated is extremely small, or the product When the shape of the fine pattern is the inspection target, the difference in the amount of local features in the acquired fine pattern in the region where the defect occurs is small, and the detection accuracy of the defect may be lowered.

また、上述した特許文献2の技術では、良品の画像のモデルの負担率を重みとする重み付け画素平均値と重み付け画素分散値に対する微細な欠点の影響が小さいため、欠点の検出精度が十分に高いとはいい難かった。 Further, in the technique of Patent Document 2 described above, since the influence of minute defects on the weighted pixel average value and the weighted pixel dispersion value weighted by the burden rate of the model of a good product is small, the defect detection accuracy is sufficiently high. It was difficult to say.

本発明は、上記を鑑みてなされたものであって、検査対象の製品から取得した検査用の画像において欠点サイズが極めて小さい場合であっても高精度に欠点を検出することができる欠点検査装置、欠点検査方法、検査プログラム、学習装置、および学習済みモデルを提供することを目的とする。 The present invention has been made in view of the above, and is a defect inspection device capable of detecting defects with high accuracy even when the defect size is extremely small in the inspection image acquired from the product to be inspected. , Defect inspection methods, inspection programs, learning devices, and trained models.

上記目的を達成するために、本発明の欠点検査装置は、検査用の画像が画素の欠点を含むか否かを判定する欠点検査装置であって、前記欠点を含む画像からなる第1画像群と前記欠点を含まない画像からなる第2画像群とを用いた機械学習によって生成され、画像に含まれる前記欠点のみを修復するための学習済みモデルに対して入力画像のデータを入力して前記学習済みモデルに基づく演算を行うことによって出力画像のデータを出力する画像処理部と、前記入力画像と前記出力画像との対応する領域を比較することによって両画像の差異を定量化した差異情報を算出する算出部と、前記算出部が算出した差異情報に基づいて、前記入力画像が前記欠点を含むか否かを判定する判定部と、を備える。 In order to achieve the above object, the defect inspection device of the present invention is a defect inspection device for determining whether or not an image for inspection contains defects of pixels, and is a first image group composed of images including the defects. The data of the input image is input to the trained model for repairing only the defects included in the image, which is generated by machine learning using the second image group consisting of the image not including the defects. Difference information that quantifies the difference between the two images by comparing the image processing unit that outputs the data of the output image by performing the calculation based on the trained model and the corresponding area between the input image and the output image. A calculation unit for calculation and a determination unit for determining whether or not the input image includes the defect based on the difference information calculated by the calculation unit are provided.

また、本発明の欠点検査装置は、上記発明において、前記第1画像群に含まれる第1画像と、前記第2画像群に含まれる画像であって前記第1画像と対応する領域の画像である第2画像とを取得し、前記第1画像および前記第2画像に対する前記差異情報を算出し、算出結果に応じて学習済みモデルが有するパラメータ群を逐次最適化する処理を繰り返す学習部をさらに備える。 Further, in the above invention, the defect inspection apparatus of the present invention includes a first image included in the first image group and an image included in the second image group in a region corresponding to the first image. Further, a learning unit that acquires a second image, calculates the difference information for the first image and the second image, and sequentially optimizes the parameter group of the trained model according to the calculation result. Be prepared.

また、本発明の欠点検査装置は、上記発明において、前記画像処理部、前記算出部および前記判定部を動作させる検査モードと、前記学習部を動作させる学習モードとを切り替え可能である。 Further, in the above invention, the defect inspection apparatus of the present invention can switch between an inspection mode in which the image processing unit, the calculation unit and the determination unit are operated, and a learning mode in which the learning unit is operated.

また、本発明の欠点検査装置は、上記発明において、前記算出部は、前記差異情報を画素ごとに算出し、前記判定部は、前記算出部の算出結果に基づいて欠点の位置を判定する。 Further, in the defect inspection apparatus of the present invention, in the above invention, the calculation unit calculates the difference information for each pixel, and the determination unit determines the position of the defect based on the calculation result of the calculation unit.

また、本発明の欠点検査装置は、上記発明において、前記差異情報に基づいて前記入力画像が有する欠点の種類を分類する分類部をさらに備える。 In addition, the defect inspection device of the present invention further includes a classification unit that classifies the types of defects possessed by the input image based on the difference information in the above invention.

また、本発明の欠点検査装置は、上記発明において、前記学習済みモデルが出力する出力画像のデータが、前記欠点以外の部分が前記入力画像のデータと同一である。 Further, in the defect inspection apparatus of the present invention, in the above invention, the data of the output image output by the trained model is the same as the data of the input image except for the defects.

また、本発明の欠点検査装置は、上記発明において、前記差異情報に基づいて欠点のみを抽出した欠点抽出画像のデータを生成する欠点抽出画像生成部をさらに備える。 Further, the defect inspection apparatus of the present invention further includes a defect extraction image generation unit that generates data of a defect extraction image in which only defects are extracted based on the difference information in the above invention.

また、本発明の欠点検査装置は、上記発明において、前記判定部の判定結果、前記入力画像、前記出力画像および前記欠点抽出画像からなる群より選ばれる1つ以上を表示部に表示させる表示制御部をさらに備える。 Further, in the above invention, the defect inspection apparatus of the present invention displays on the display unit one or more selected from the group consisting of the determination result of the determination unit, the input image, the output image, and the defect extraction image. It also has a part.

また、本発明の欠点検査装置は、上記発明において、前記学習済みモデルは、前記入力画像のデータが入力される入力層と、前記入力層が出力する信号が入力され、多層構造を有する中間層と、前記中間層が出力する信号が入力され、前記出力画像のデータを出力する出力層と、を有し、各層が一または複数のノードを有するニューラルネットワークからなる。 Further, in the above-mentioned invention, the defect inspection apparatus of the present invention is an intermediate layer having a multi-layer structure in which an input layer into which data of the input image is input and a signal output by the input layer are input in the trained model. It is composed of a neural network having an output layer to which a signal output by the intermediate layer is input and outputting data of the output image, and each layer has one or a plurality of nodes.

また、本発明の欠点検査装置は、上記発明において、前記第1画像群および前記第2画像群がそれぞれ有する画像のデータは量子化されており、前記画像処理部は、前記入力画像のデータを量子化してから前記学習済みモデルに入力する。 Further, in the defect inspection apparatus of the present invention, in the above invention, the image data of the first image group and the second image group are quantized, and the image processing unit uses the input image data. After quantization, it is input to the trained model.

また、本発明の欠点検査装置は、上記発明において、前記量子化は2値化である。 Further, in the defect inspection apparatus of the present invention, in the above invention, the quantization is binarization.

また、本発明の欠点検査装置は、上記発明において、前記学習済みモデルは、前記第1画像群および前記第2画像群がそれぞれ有する画像のデータを量子化した第1量子化画像群および第2量子化画像群をさらに用いた機械学習によって生成されたものであり、前記入力層は、前記入力画像を量子化したデータをさらに入力し、前記出力層は、前記出力画像を量子化したデータをさらに出力する。 Further, in the defect inspection apparatus of the present invention, in the above invention, the trained model is a first quantized image group and a second quantized image group obtained by quantizing the image data of the first image group and the second image group, respectively. It is generated by machine learning using a quantized image group, the input layer further inputs data obtained by quantizing the input image, and the output layer receives data obtained by quantizing the output image. Further output.

また、本発明の欠点検査装置は、上記発明において、前記ニューラルネットワークが、前記中間層が全結合層およびプーリング層を有しないタイプの畳み込みニューラルネットワークである。 Further, the defect inspection device of the present invention is a convolutional neural network of the type in which the mesosphere does not have a fully connected layer and a pooling layer in the above invention.

また、本発明の欠点検査装置は、上記発明において、前記ニューラルネットワークが、バイパス経路を備える。 Further, in the defect inspection device of the present invention, in the above invention, the neural network includes a bypass path.

本発明の欠点検査方法は、検査用の画像が画素の欠点を含むか否かを判定する欠点検査装置が行う欠点検査方法であって、前記欠点を含む画像からなる第1画像群と前記欠点を含まない画像からなる第2画像群とを用いた機械学習によって生成され、画像に含まれる前記欠点のみを修復するための学習済みモデルに対して入力画像のデータを入力して前記学習済みモデルに基づく演算を行うことによって出力画像のデータを出力する画像処理ステップと、前記入力画像と前記出力画像との対応する領域を比較することによって両画像の差異を定量化した差異情報を算出する算出ステップと、前記算出ステップで算出した差異情報を記憶部から読み出して、前記入力画像が前記欠点を含むか否かを判定する判定ステップと、を含む。 The defect inspection method of the present invention is a defect inspection method performed by a defect inspection device for determining whether or not an image for inspection contains defects of pixels, and is a first image group composed of an image including the defects and the defects. The trained model is generated by machine learning using a second image group consisting of images that do not contain the above, and the data of the input image is input to the trained model for repairing only the defects contained in the image. Calculation that quantifies the difference between the two images by comparing the image processing step that outputs the data of the output image by performing the calculation based on the above and the corresponding area between the input image and the output image. It includes a step and a determination step of reading the difference information calculated in the calculation step from the storage unit and determining whether or not the input image includes the defect.

本発明の欠点検査プログラムは、検査用の画像が画素の欠点を含むか否かを判定する欠点検査装置に、前記欠点を含む画像からなる第1画像群と前記欠点を含まない画像からなる第2画像群とを用いた機械学習によって生成され、画像に含まれる前記欠点のみを修復するための学習済みモデルに対して入力画像のデータを入力して前記学習済みモデルに基づく演算を行うことによって出力画像のデータを出力する画像処理ステップと、前記入力画像と前記出力画像との対応する領域を比較することによって両画像の差異を定量化した差異情報を算出する算出ステップと、前記算出ステップで算出した差異情報に基づいて、前記入力画像が前記欠点を含むか否かを判定する判定ステップと、を実行させる。 The defect inspection program of the present invention comprises a defect inspection device for determining whether or not an image to be inspected contains pixel defects, and includes a first image group consisting of images including the defects and an image not including the defects. By inputting the data of the input image to the trained model for repairing only the defect contained in the image, which is generated by machine learning using the two image groups, and performing the calculation based on the trained model. In the image processing step of outputting the data of the output image, the calculation step of calculating the difference information quantifying the difference between the two images by comparing the corresponding areas of the input image and the output image, and the calculation step. Based on the calculated difference information, a determination step of determining whether or not the input image includes the defect is executed.

本発明の学習装置は、画像から画素の欠点のみを修復した画像のデータを出力するよう、コンピュータを機能させるための学習済みモデルを生成する学習装置であって、前記欠点を含む画像からなる第1画像群に含まれる第1画像と、前記欠点を含まない第2画像群に含まれる画像であって前記第1画像と対応する領域の画像である第2画像とを取得し、前記第1画像と前記第2画像との差異を定量化した差異情報を算出し、算出結果に応じて学習済みモデルが有するパラメータ群を逐次最適化する処理を繰り返す学習部を備える。 The learning device of the present invention is a learning device that generates a trained model for operating a computer so as to output image data obtained by repairing only pixel defects from an image, and comprises an image including the defects. The first image included in the first image group and the second image included in the second image group not including the defect and which is an image of the region corresponding to the first image are acquired, and the first image is obtained. It is provided with a learning unit that repeats a process of calculating difference information quantifying the difference between an image and the second image and sequentially optimizing a parameter group of the trained model according to the calculation result.

本発明の学習済みモデルは、入力画像のデータが入力される入力層と、前記入力層が出力する信号が入力され、多層構造を有する中間層と、前記中間層が出力する信号が入力され、前記入力画像の欠点のみを修復した出力画像のデータを出力する出力層と、を有し、各層が一または複数のノードからなるニューラルネットワークであって前記中間層が全結合層およびプーリング層を有しないタイプの畳み込みニューラルネットワークから構成され、前記入力画像のデータを前記入力層に入力し、前記ニューラルネットワークのネットワークパラメータであって学習済みのネットワークパラメータに基づく演算を行い、前記出力層から前記出力画像のデータを出力するよう、コンピュータを機能させる。 In the trained model of the present invention, an input layer into which input image data is input and a signal output by the input layer are input, and an intermediate layer having a multi-layer structure and a signal output by the intermediate layer are input. It has an output layer that outputs data of an output image in which only the defects of the input image are repaired, and each layer is a neural network composed of one or a plurality of nodes, and the intermediate layer has a fully connected layer and a pooling layer. It is composed of a convolutional neural network of a non-type, inputs the data of the input image to the input layer, performs an operation based on the learned network parameters which are network parameters of the neural network, and outputs the image from the output layer. Make the computer function to output the data of.

本発明の学習済みモデルは、上記発明において、前記入力層は、前記入力画像を量子化したデータがさらに入力され、前記出力層は、前記出力画像を量子化したデータをさらに出力する。 In the trained model of the present invention, in the above invention, the input layer further inputs the quantized data of the input image, and the output layer further outputs the quantized data of the output image.

なお、本発明における「修復」とは、正常な製品の画像、すなわち正常画像に付着や欠け等の欠点が存在する画像、すなわち欠点画像において、欠点部を除去し、正常画像を作成するのこと、を意味するものである。 The term "repair" in the present invention means to create a normal image by removing a defect portion in an image of a normal product, that is, an image in which defects such as adhesion or chipping exist in the normal image, that is, a defect image. , Means.

本発明によれば、検査対象の製品から取得した検査用の画像において欠点サイズが極めて小さい場合であっても高精度に欠点を検出することができる。 According to the present invention, defects can be detected with high accuracy even when the defect size is extremely small in the inspection image obtained from the product to be inspected.

図1は、実施の形態1に係る欠点検査システムの全体構成を示す図である。FIG. 1 is a diagram showing an overall configuration of a defect inspection system according to the first embodiment. 図2は、実施の形態1に係る欠点検査システムの機能構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of the defect inspection system according to the first embodiment. 図3は、実施の形態1に係る欠点検査装置が用いる畳み込みニューラルネットワークの概要を示す図である。FIG. 3 is a diagram showing an outline of a convolutional neural network used by the defect inspection apparatus according to the first embodiment. 図4は、実施の形態1に係る欠点検査装置が行う処理の概要を示すフローチャートである。FIG. 4 is a flowchart showing an outline of the processing performed by the defect inspection apparatus according to the first embodiment. 図5は、実施の形態1に係る欠点検査装置の具体的な処理フローを模式的に示す図である。FIG. 5 is a diagram schematically showing a specific processing flow of the defect inspection apparatus according to the first embodiment. 図6は、実施の形態2に係る欠点検査装置の具体的な処理フローを模式的に示す図である。FIG. 6 is a diagram schematically showing a specific processing flow of the defect inspection apparatus according to the second embodiment. 図7は、実施の形態3に係る欠点検査装置が行う具体的な処理フローを模式的に示す図である。FIG. 7 is a diagram schematically showing a specific processing flow performed by the defect inspection apparatus according to the third embodiment. 図8は、実施の形態4に係る欠点検査システムの機能構成を示すブロック図である。FIG. 8 is a block diagram showing a functional configuration of the defect inspection system according to the fourth embodiment. 図9は、実施の形態4に係る欠点検査装置が行う処理の概要を示すフローチャートである。FIG. 9 is a flowchart showing an outline of the processing performed by the defect inspection apparatus according to the fourth embodiment. 図10は、実施の形態4の変形例に係る欠点検査装置が行う処理の概要を示すフローチャートである。FIG. 10 is a flowchart showing an outline of the processing performed by the defect inspection apparatus according to the modified example of the fourth embodiment.

以下に、本発明を実施するための形態(以下、「実施の形態」という)を図面に基づいて詳細に説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。 Hereinafter, embodiments for carrying out the present invention (hereinafter, referred to as “embodiments”) will be described in detail with reference to the drawings. The present invention is not limited to the embodiments described below.

(実施の形態1)
図1は、実施の形態1に係る欠点検査システムの全体構成を示す図である。図2は、実施の形態1に係る欠点検査システムの機能構成を示すブロック図である。これらの図に示す欠点検査システム1は、搬送路Lで搬送される製品Pの画像データを取得するデータ取得装置2と、データ取得装置2が取得した画像データをもとに欠点検査を行う欠点検査装置3と、欠点検査装置3の欠点検査結果を表示する表示装置4とを備える。なお、図1では、データ取得装置2が搬送路Lの鉛直上方から製品Pの画像データを取得する状況を模式的に示している。
(Embodiment 1)
FIG. 1 is a diagram showing an overall configuration of a defect inspection system according to the first embodiment. FIG. 2 is a block diagram showing a functional configuration of the defect inspection system according to the first embodiment. The defect inspection system 1 shown in these figures has a defect of performing defect inspection based on a data acquisition device 2 that acquires image data of a product P conveyed on a transport path L and image data acquired by the data acquisition device 2. It includes an inspection device 3 and a display device 4 for displaying the defect inspection result of the defect inspection device 3. Note that FIG. 1 schematically shows a situation in which the data acquisition device 2 acquires image data of the product P from vertically above the transport path L.

データ取得装置2は、撮像装置を有し、欠点検査装置3と電気的に接続されている。撮像装置は、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子を用いて構成される。 The data acquisition device 2 has an image pickup device and is electrically connected to the defect inspection device 3. The image pickup device is configured by using a solid-state image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

欠点検査装置3は、データ取得部31、画像処理部32、算出部33、判定部34、制御部35、および記憶部36を有する。欠点検査装置3は、データ取得装置2および表示装置4と電気的に接続されている。 The defect inspection device 3 includes a data acquisition unit 31, an image processing unit 32, a calculation unit 33, a determination unit 34, a control unit 35, and a storage unit 36. The defect inspection device 3 is electrically connected to the data acquisition device 2 and the display device 4.

データ取得部31は、データ取得装置2から送られてくる画像データ等のデータを取得し、記憶部36に出力して記憶させる。 The data acquisition unit 31 acquires data such as image data sent from the data acquisition device 2, outputs the data to the storage unit 36, and stores the data.

画像処理部32は、画像に含まれる欠点のみを修復するための学習済みモデルに入力画像のデータを入力し、学習済みモデルに基づく演算を行うことによって出力画像のデータを出力する。学習済みモデルは、欠点を含む画像からなる第1画像群と、欠点を含まない画像からなる第2画像群とを用いた機械学習によってあらかじめ生成されたものである。ここで用いる機械学習としては、例えば畳み込みニューラルネットワークを用いた深層学習を挙げることができる。学習済みモデルにおけるネットワークパラメータ等の情報は、記憶部36に格納されている。 The image processing unit 32 inputs the data of the input image into the trained model for repairing only the defects included in the image, and outputs the data of the output image by performing the calculation based on the trained model. The trained model is pre-generated by machine learning using a first image group consisting of images including defects and a second image group consisting of images not including defects. As the machine learning used here, for example, deep learning using a convolutional neural network can be mentioned. Information such as network parameters in the trained model is stored in the storage unit 36.

図3は、畳み込みニューラルネットワークの概要を示す図である。同図に示す畳み込みニューラルネットワーク(以下、CNNという)100は、入力層101、中間層102、および出力層103を有する。中間層102は、畳み込み層121、バッチ正規化層122、および活性化関数123からなる組を複数有しており、各畳み込み層121の出力側にバッチ正規化層122が設けられている。中間層102は、全結合層およびプーリング層を有していない。また、CNN100は、入力層101から中間層102を経由しないバイパス経路を有する。出力層103には、中間層102の出力とバイパス経路を経由した入力層101の出力の和が入力される。 FIG. 3 is a diagram showing an outline of a convolutional neural network. The convolutional neural network (hereinafter referred to as CNN) 100 shown in the figure has an input layer 101, an intermediate layer 102, and an output layer 103. The intermediate layer 102 has a plurality of sets including the convolution layer 121, the batch normalization layer 122, and the activation function 123, and the batch normalization layer 122 is provided on the output side of each convolution layer 121. The intermediate layer 102 does not have a fully bonded layer and a pooling layer. Further, the CNN 100 has a bypass route that does not pass from the input layer 101 to the intermediate layer 102. The sum of the output of the intermediate layer 102 and the output of the input layer 101 via the bypass path is input to the output layer 103.

CNN100において、入力層101と出力層103の次元は同一である必要がある。すなわち、CNN100に入力する入力画像のデータとCNN100が出力する出力画像のデータは、幅、高さ、チャネル数がそれぞれ同一である必要がある。ここで、チャネル数とは、画像の奥行き方向の次元数のことであり、例えばグレースケール画像の場合は1であり、RGBのカラー画像の場合は3である。入力層101と出力層103の次元が同一である必要がある理由は、算出部33が入力画像と出力画像の比較を実施する際に、画像データ間で対応する画素が存在せずに比較処理を実施できない状況を回避するためである。 In the CNN 100, the dimensions of the input layer 101 and the output layer 103 need to be the same. That is, the input image data input to the CNN 100 and the output image data output by the CNN 100 need to have the same width, height, and number of channels. Here, the number of channels is the number of dimensions in the depth direction of the image, for example, 1 in the case of a grayscale image and 3 in the case of an RGB color image. The reason why the dimensions of the input layer 101 and the output layer 103 need to be the same is that when the calculation unit 33 compares the input image and the output image, the comparison process is performed because there are no corresponding pixels between the image data. This is to avoid the situation where the above cannot be implemented.

CNN100は、畳み込み層121において外部のゼロ埋め等を実施することにより、中間層102における特徴量マップの次元を削減しなくてもよい。また、活性化関数123として、例えばReluを挙げることができる。 The CNN 100 does not have to reduce the dimension of the feature amount map in the intermediate layer 102 by performing external zero filling or the like in the folding layer 121. Further, as the activation function 123, for example, Relu can be mentioned.

画像処理部32がCNN100を用いた演算を行うことにより、次元の削減を抑えて微細な特徴を劣化させることなく、入力画像に対応する正常画像のデータを作成することができる。すなわち、画像処理部32がCNN100を用いた演算を行うことにより、入力画像に欠点が含まれている場合、その欠点のみを修復した出力画像を得ることができる。入力画像に欠点が全く含まれていない場合、画像処理部32がCNN100を用いた演算を行うと、入力画像がそのまま出力される。 By performing the calculation using the CNN 100, the image processing unit 32 can create the data of the normal image corresponding to the input image without suppressing the reduction of the dimension and deteriorating the fine features. That is, when the image processing unit 32 performs an operation using the CNN 100, when the input image contains defects, it is possible to obtain an output image in which only the defects are repaired. If the input image does not contain any defects, the image processing unit 32 performs an operation using the CNN 100, and the input image is output as it is.

算出部33は、入力画像と出力画像との対応する領域を比較することによって両画像の差異を定量化した差異情報を算出する。算出部33が実施する比較演算として、例えば2つの画像データ間の差異を比較する一般的な方法であるSSD(Sum of Squared Difference)またはSAD(Sum of Absolute Difference)等を用いることが可能である。算出部33は、入力画像と出力画像の画素ごとの輝度値の差分により差分画像のデータを作成する。これにより、検査画像に局所的に発生する微細な欠点を検出することができる。 The calculation unit 33 calculates the difference information that quantifies the difference between the two images by comparing the corresponding regions of the input image and the output image. As the comparison operation performed by the calculation unit 33, for example, SSD (Sum of Squared Difference) or SAD (Sum of Absolute Difference), which is a general method for comparing the difference between two image data, can be used. .. The calculation unit 33 creates the data of the difference image by the difference of the brightness value for each pixel of the input image and the output image. As a result, it is possible to detect minute defects that occur locally in the inspection image.

算出部33は、検出対象の欠点の種類に応じて差異情報を算出する。例えば、検出対象が明欠点(周囲に比べて輝度値が高い欠点)である場合、算出部33は、出力画像の輝度値から入力画像の輝度値を減算することによって差分画像のデータを生成し、そのデータにおいて輝度値が所定の閾値以上である画素数を計測する。この場合、算出部33は、輝度値が閾値以上である画素のうち隣接する画素数の総和、すなわち、欠点部の大きさに相当する情報を差異情報として用いる。 The calculation unit 33 calculates the difference information according to the type of the defect to be detected. For example, when the detection target is a bright defect (a defect whose brightness value is higher than that of the surroundings), the calculation unit 33 generates the difference image data by subtracting the brightness value of the input image from the brightness value of the output image. , The number of pixels whose luminance value is equal to or higher than a predetermined threshold in the data is measured. In this case, the calculation unit 33 uses the sum of the number of adjacent pixels among the pixels whose luminance value is equal to or greater than the threshold value, that is, the information corresponding to the size of the defect portion as the difference information.

また、検出対象が暗欠点(周囲に比べて輝度値が低い欠点)である場合、算出部33は、画素ごとに入力画像の輝度値から出力画像の輝度値を減算して差分画像のデータを生成し、そのデータにおいて輝度値が正でかつその輝度値が所定の閾値(上記閾値とは異なる)を超えている画素を抽出する。これにより、暗欠点のみを高精度に抽出することが可能となる。 Further, when the detection target is a dark defect (a defect that the brightness value is lower than that of the surroundings), the calculation unit 33 subtracts the brightness value of the output image from the brightness value of the input image for each pixel to obtain the data of the difference image. The pixels that are generated and whose luminance value is positive and whose luminance value exceeds a predetermined threshold value (different from the above threshold value) in the data are extracted. This makes it possible to extract only dark defects with high accuracy.

判定部34は、算出部33が算出した評価値を、あらかじめ定めた基準値と比較することにより、入力画像に欠点が含まれるか否かを判定する。基準値の設定方法は、例えば人為的に設定する方法や、自動的に設定する方法が考えられる。 The determination unit 34 determines whether or not the input image contains defects by comparing the evaluation value calculated by the calculation unit 33 with a predetermined reference value. As a method of setting the reference value, for example, a method of artificially setting or a method of automatically setting can be considered.

基準値を人為的に設定する方法は、欠点の検出規格が明確な場合において、例えば欠点の画総数の閾値を1と設定することで、1画素以上の微細な欠点検出が可能となる。また、例えば画像上での連結成分の面積の基準値を10とすることで、ノイズの影響に頑健な欠点検出が可能となる。 In the method of artificially setting the reference value, when the defect detection standard is clear, for example, by setting the threshold value of the total number of defects to 1, it is possible to detect minute defects of one pixel or more. Further, for example, by setting the reference value of the area of the connected components on the image to 10, it is possible to detect defects robustly to the influence of noise.

一方、基準値を自動的に設定する方法では、あらかじめ複数の入力画像群から取得した出力画像群との比較による評価値群の統計量を用いる。統計量として、例えば標準偏差や最大値等を用いることができる。 On the other hand, in the method of automatically setting the reference value, the statistic of the evaluation value group by comparison with the output image group acquired in advance from a plurality of input image groups is used. As the statistic, for example, the standard deviation or the maximum value can be used.

制御部35は、欠点検査システム1の動作を統括して制御する。制御部35は、算出部33が生成した差分画像や判定部34の判定結果を表示装置4に表示させる表示制御部37を有する。表示制御部37は、欠点種別ごとに複数の差分画像を表示装置4に表示させたり、欠点の位置情報を元画像に重畳して表示装置4に表示させたり、欠点の周辺画素のみを拡大した画像を表示装置4に表示させたりすることも可能である。 The control unit 35 controls the operation of the defect inspection system 1 in an integrated manner. The control unit 35 has a display control unit 37 that displays the difference image generated by the calculation unit 33 and the determination result of the determination unit 34 on the display device 4. The display control unit 37 displays a plurality of difference images for each defect type on the display device 4, superimposes the position information of the defect on the original image and displays it on the display device 4, or enlarges only the peripheral pixels of the defect. It is also possible to display an image on the display device 4.

記憶部36は、欠点検査装置3を動作させるための各種プログラム、および欠点検査装置3の動作に必要な各種パラメータ等を含むデータを記憶する。各種プログラムには、画像処理部32が演算を実行する学習済みモデルも含まれる。記憶部36は、各種プログラム等があらかじめインストールされたROM(Read Only Memory)、および各処理の演算パラメータやデータ等を記憶するRAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等を用いて構成される。 The storage unit 36 stores data including various programs for operating the defect inspection device 3 and various parameters necessary for the operation of the defect inspection device 3. The various programs also include a trained model in which the image processing unit 32 executes an operation. The storage unit 36 includes a ROM (Read Only Memory) in which various programs and the like are pre-installed, a RAM (Random Access Memory) for storing calculation parameters and data of each process, an HDD (Hard Disk Drive), and an SSD (Solid State). Drive) etc. are used.

各種プログラムは、HDD、フラッシュメモリ、CD−ROM、DVD−ROM、Blu−ray(登録商標)等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。また、データ取得部31が、通信ネットワークを介して各種プログラム取得することも可能である。ここでいう通信ネットワークは、例えば既存の公衆回線網、LAN(Local Area Network)、WAN(Wide Area Network)等によって実現されるものであり、有線、無線を問わない。 Various programs can be recorded on a computer-readable recording medium such as an HDD, a flash memory, a CD-ROM, a DVD-ROM, or a Blu-ray (registered trademark) and widely distributed. In addition, the data acquisition unit 31 can acquire various programs via the communication network. The communication network referred to here is realized by, for example, an existing public line network, LAN (Local Area Network), WAN (Wide Area Network), etc., and may be wired or wireless.

以上の機能構成を有する欠点検査装置3は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の1または複数のハードウェアを用いて構成される。 The defect inspection device 3 having the above functional configuration includes one or more hardware such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field Programmable Gate Array). Constructed using.

表示装置4は、液晶または有機EL(Electro Luminescence)からなるディスプレイであり、欠点検査装置3と電気的に接続されている。表示装置4は、表示制御部37の制御のもとで欠点検査装置3から出力される表示用データを取得して表示する。 The display device 4 is a display made of a liquid crystal or an organic EL (Electro Luminescence), and is electrically connected to the defect inspection device 3. The display device 4 acquires and displays the display data output from the defect inspection device 3 under the control of the display control unit 37.

図4は、欠点検査装置3が行う処理の概要を示すフローチャートである。まず、データ取得部31がデータ取得装置2から画像のデータを取得する(ステップS1)。 FIG. 4 is a flowchart showing an outline of the processing performed by the defect inspection device 3. First, the data acquisition unit 31 acquires image data from the data acquisition device 2 (step S1).

続いて、画像処理部32が、学習済みモデルを用いて演算を行うことによって画像処理を実施する(ステップS2)。具体的には、画像処理部32は、CNN100に入力画像のデータを入力して演算を行うことにより、出力画像のデータを出力する。 Subsequently, the image processing unit 32 performs image processing by performing an operation using the trained model (step S2). Specifically, the image processing unit 32 outputs the data of the output image by inputting the data of the input image into the CNN 100 and performing the calculation.

この後、算出部33は、入力画像と出力画像との対応する領域を比較することによって両画像の差異を定量化した差異情報を算出する(ステップS3)。 After that, the calculation unit 33 calculates the difference information that quantifies the difference between the input image and the output image by comparing the corresponding regions (step S3).

続いて、判定部34は、差異情報に基づいて、入力画像が欠点を含むか否かを判定する(ステップS4)。 Subsequently, the determination unit 34 determines whether or not the input image contains defects based on the difference information (step S4).

この後、表示制御部37は、表示装置4に判定結果を表示させる(ステップS5)。表示制御部37は、表示装置4に、算出部33の演算結果である差分画像や、判定部34の判定結果を表示させる。 After that, the display control unit 37 causes the display device 4 to display the determination result (step S5). The display control unit 37 causes the display device 4 to display the difference image which is the calculation result of the calculation unit 33 and the determination result of the determination unit 34.

図5は、欠点検査装置3の具体的な処理フローを模式的に示す図であり、暗欠点を検出する場合の検出フローを模式的に示す図である。入力画像201の右下部の楕円状のパターンには暗欠点による欠点部が含まれている。画像処理部32は、入力画像201のデータをCNN100に入力して演算を行い、欠点部を修復した出力画像202のデータを作成する。出力画像202は、欠点部のみを修復した正常画像である。 FIG. 5 is a diagram schematically showing a specific processing flow of the defect inspection device 3, and is a diagram schematically showing a detection flow when detecting a dark defect. The elliptical pattern at the lower right of the input image 201 includes defects due to dark defects. The image processing unit 32 inputs the data of the input image 201 into the CNN 100 and performs an operation to create the data of the output image 202 with the defective part repaired. The output image 202 is a normal image in which only the defective portion is repaired.

続いて、算出部33は、出力画像から入力画像を画素ごとに減算することによって差分画像203のデータを作成し、差分画像203の評価値を差異情報として算出する。差分画像203は、入力画像201の欠点部のみが強調された画像となる。このときの評価値は、例えば画素の輝度値である。 Subsequently, the calculation unit 33 creates the data of the difference image 203 by subtracting the input image from the output image for each pixel, and calculates the evaluation value of the difference image 203 as the difference information. The difference image 203 is an image in which only the defective portion of the input image 201 is emphasized. The evaluation value at this time is, for example, the brightness value of the pixel.

判定部34は、算出部33が算出した差分画像203の輝度値が所定の閾値以上である画素がある場合、入力画像201の製品が欠点を含むと判定する。 The determination unit 34 determines that the product of the input image 201 includes defects when there are pixels in which the brightness value of the difference image 203 calculated by the calculation unit 33 is equal to or greater than a predetermined threshold value.

以上説明した実施の形態1によれば、欠点を含む画像からなる第1画像群と欠点を含まない画像からなる第2画像群とを用いた機械学習によって生成され、画像に含まれる欠点のみを修復するための学習済みモデルに対して入力画像のデータを入力して学習済みモデルに基づく演算を行うことによって出力画像のデータを出力し、入力画像と出力画像との対応する領域を比較することによって両画像の差異を定量化した差異情報を算出し、算出部が算出した差異情報に基づいて、入力画像が欠点を含むか否かを判定するため、検査対象の製品から取得した検査用の画像において欠点サイズが極めて小さい場合であっても高精度に欠点を検出することができる。 According to the first embodiment described above, only the defects included in the image are generated by machine learning using the first image group consisting of the images including the defects and the second image group consisting of the images not including the defects. To output the data of the output image by inputting the data of the input image to the trained model to be repaired and performing the calculation based on the trained model, and to compare the corresponding areas of the input image and the output image. To calculate the difference information that quantifies the difference between the two images, and to determine whether the input image contains defects based on the difference information calculated by the calculation unit, for inspection obtained from the product to be inspected. Defects can be detected with high accuracy even when the defect size is extremely small in the image.

また、実施の形態1によれば、製品の製造工程で取得される検査画像(入力画像)に欠点が含まれる場合に、機械学習によって生成された学習済みモデルを用いて欠点を修復した正常画像(出力画像)を作成し、検査画像と正常画像との比較を実施して差異情報を算出するため、製品の形状が複雑であるとともに欠点が微細な場合であっても、その欠点を高精度に検出することができる。 Further, according to the first embodiment, when the inspection image (input image) acquired in the manufacturing process of the product contains defects, the normal image in which the defects are repaired using the trained model generated by machine learning. (Output image) is created, the inspection image and the normal image are compared, and the difference information is calculated. Therefore, even if the shape of the product is complicated and the defects are minute, the defects are highly accurate. Can be detected.

(実施の形態2)
実施の形態2に係る欠点検査装置は、製品の成型ミスに由来する欠点を検出する。実施の形態2に係る欠点検査システムの構成は、実施の形態1と同様であるため、実施の形態1と同様の構成要素に対しては、実施の形態1と同じ符号を用いて説明する。ただし、CNN100の各層の具体的な構成は、一般に実施の形態1と異なる。
(Embodiment 2)
The defect inspection device according to the second embodiment detects defects caused by a molding error of the product. Since the configuration of the defect inspection system according to the second embodiment is the same as that of the first embodiment, the same components as those of the first embodiment will be described using the same reference numerals as those of the first embodiment. However, the specific configuration of each layer of the CNN 100 is generally different from that of the first embodiment.

実施の形態2において、画像処理部32は、入力画像のデータに対して前処理を行う。画像処理部32が行う前処理は、画素値を離散的な値に変換する量子化処理である。以下、量子化処理の一例として、画素値を2つの値で離散化する2値化処理の場合を説明するが、実施の形態2の前処理は2値化処理に限定されるわけではない。 In the second embodiment, the image processing unit 32 performs preprocessing on the data of the input image. The preprocessing performed by the image processing unit 32 is a quantization process for converting pixel values into discrete values. Hereinafter, as an example of the quantization process, the case of the binarization process in which the pixel values are discretized by two values will be described, but the preprocessing of the second embodiment is not limited to the binarization process.

算出部33は、出力画像から入力画像を画素ごとに輝度値を減算することによって差分画像のデータを作成し、その差分画像において輝度値が一定値以上の画素数を計測する。製品の成型ミスが発生している場合、算出部33が算出した差異情報の値、すなわち差分画像の評価値は所定の閾値以上である。 The calculation unit 33 creates data for a difference image by subtracting a brightness value from the output image for each pixel of the input image, and measures the number of pixels whose brightness value is equal to or greater than a certain value in the difference image. When a molding error occurs in the product, the value of the difference information calculated by the calculation unit 33, that is, the evaluation value of the difference image is equal to or higher than a predetermined threshold value.

図6は、実施の形態2に係る欠点検査装置3の具体的な処理フローを模式的に示す図である。まず、画像処理部32は、入力画像301(元画像)のデータに対して2値化処理を行う。 FIG. 6 is a diagram schematically showing a specific processing flow of the defect inspection device 3 according to the second embodiment. First, the image processing unit 32 performs binarization processing on the data of the input image 301 (original image).

その後、画像処理部32は、2値化した入力画像302のデータをCNN100に入力して演算を行うことにより、欠点部を修復した出力画像303のデータを出力する。 After that, the image processing unit 32 inputs the binarized input image 302 data to the CNN 100 and performs an operation to output the data of the output image 303 with the defective portion repaired.

続いて、算出部33は、画素ごとに出力画像303から2値化した入力画像302の輝度値を減算することによって差分画像304のデータを作成し、差分画像304の差異情報すなわち評価値を算出する。 Subsequently, the calculation unit 33 creates the data of the difference image 304 by subtracting the luminance value of the binarized input image 302 from the output image 303 for each pixel, and calculates the difference information of the difference image 304, that is, the evaluation value. To do.

判定部34は、算出部33が算出した評価値に基づいて、入力画像301に欠点が含まれているか否かを判定する。評価値が閾値以上である場合、判定部34は入力画像301に欠点が含まれていると判定する。 The determination unit 34 determines whether or not the input image 301 includes defects based on the evaluation value calculated by the calculation unit 33. When the evaluation value is equal to or greater than the threshold value, the determination unit 34 determines that the input image 301 contains defects.

以上説明した実施の形態2によれば、実施の形態1と同様、検査対象の製品から取得した検査用の画像において欠点サイズが極めて小さい場合であっても高精度に欠点を検出することができる。 According to the second embodiment described above, as in the first embodiment, defects can be detected with high accuracy even when the defect size is extremely small in the inspection image acquired from the product to be inspected. ..

また、実施の形態2によれば、入力画像のデータに対して2値化処理等の量子化処理を実施することにより、製品の輝度情報を失わせ、形状情報のみに着目した差異を検出することが可能となる。したがって、製品の成型ミスに由来した欠点を高精度に検出することができる。 Further, according to the second embodiment, the luminance information of the product is lost by performing the quantization process such as the binarization process on the data of the input image, and the difference focusing only on the shape information is detected. It becomes possible. Therefore, defects caused by molding errors of the product can be detected with high accuracy.

(実施の形態3)
実施の形態3に係る欠点検査装置は、明欠点および製品の成型ミスに由来する欠点を検出する。実施の形態3に係る欠点検査システムの構成は、実施の形態1と同様であるため、実施の形態1と同様の構成要素に対しては、実施の形態1と同じ符号を用いて説明する。
(Embodiment 3)
The defect inspection device according to the third embodiment detects bright defects and defects caused by molding errors of the product. Since the configuration of the defect inspection system according to the third embodiment is the same as that of the first embodiment, the same components as those of the first embodiment will be described using the same reference numerals as those of the first embodiment.

実施の形態3において、画像処理部32は、入力画像のデータに2値化処理等の量子化処理を前処理として行い、2値化処理した入力画像のデータと元の入力画像のデータを別のチャネルでCNN100に入力し、各入力画像に対応する2つの出力画像のデータを出力する。 In the third embodiment, the image processing unit 32 performs quantization processing such as binarization processing on the input image data as preprocessing, and separates the binarized input image data and the original input image data. Input to CNN100 through the channel of, and output the data of two output images corresponding to each input image.

算出部33は、元の入力画像と出力画像の組から差分画像のデータを作成するとともに、量子化処理を施した入力画像と出力画像の組から差分画像のデータを作成し、各差分画像のデータをもとに評価値をそれぞれ算出する。 The calculation unit 33 creates the data of the difference image from the set of the original input image and the output image, and also creates the data of the difference image from the set of the input image and the output image subjected to the quantization process, and creates the data of the difference image from the set of the input image and the output image. Each evaluation value is calculated based on the data.

判定部34は、元の入力画像と出力画像の組から作成した差分画像のデータに基づく評価値から明欠点の有無を判定する一方、量子化処理を施した入力画像と出力画像の組から作成した差分画像のデータに基づく評価値から製品の成型ミスに由来する欠点の有無を判定する。 The determination unit 34 determines the presence or absence of bright defects from the evaluation value based on the data of the difference image created from the set of the original input image and the output image, while creating from the set of the input image and the output image subjected to the quantization process. From the evaluation value based on the data of the difference image, the presence or absence of defects due to the molding error of the product is determined.

図7は、実施の形態3に係る欠点検査装置が行う具体的な処理フローを模式的に示す図である。まず、画像処理部32は、入力画像401に2値化処理を施した入力画像402のデータを生成する。続いて、画像処理部32は、2つの入力画像401、402のデータをCNN100に入力し、元の入力画像401を修復した出力画像403と、2値化処理後の入力画像402を修復した出力画像404のデータを出力する。図7では、画像の左上部の矩形状のパターンに明欠点が発生し、右下部の楕円状のパターンに製品の成型ミスに由来する欠点が発生している場合を例示している。 FIG. 7 is a diagram schematically showing a specific processing flow performed by the defect inspection apparatus according to the third embodiment. First, the image processing unit 32 generates the data of the input image 402 obtained by binarizing the input image 401. Subsequently, the image processing unit 32 inputs the data of the two input images 401 and 402 to the CNN 100, and outputs the output image 403 in which the original input image 401 is restored and the output in which the input image 402 after the binarization process is restored. The data of the image 404 is output. FIG. 7 illustrates a case where a bright defect occurs in the rectangular pattern in the upper left part of the image and a defect due to a molding error of the product occurs in the elliptical pattern in the lower right part.

続いて、算出部33は、入力画像401と出力画像403、および入力画像402と出力画像404をそれぞれ用いて2つの差分画像405、406のデータを生成する。図7に示す場合、差分画像405では明欠点による欠点部451のみが抽出され、差分画像406では成型ミスに由来する欠点部461のみが抽出される。差分画像405、406の生成方法は、実施の形態1、2で説明した差分画像の生成方法とそれぞれ同様である。 Subsequently, the calculation unit 33 generates data of two difference images 405 and 406 using the input image 401 and the output image 403, and the input image 402 and the output image 404, respectively. In the case shown in FIG. 7, in the difference image 405, only the defect portion 451 due to the bright defect is extracted, and in the difference image 406, only the defect portion 461 due to the molding error is extracted. The methods for generating the difference images 405 and 406 are the same as the methods for generating the difference images described in the first and second embodiments, respectively.

その後、算出部33は、差分画像405、406に対してそれぞれ評価値を算出する。差分画像405に対する評価値の算出は、実施の形態1で説明したのと同様であり、差分画像406に対する評価値の算出は、実施の形態2で説明したのと同様である。 After that, the calculation unit 33 calculates the evaluation values for the difference images 405 and 406, respectively. The calculation of the evaluation value for the difference image 405 is the same as that described in the first embodiment, and the calculation of the evaluation value for the difference image 406 is the same as that described in the second embodiment.

判定部34は、2つの評価値に基づいて欠点の有無を判定する。図7に示す場合、判定部34は、差分画像405に現れる欠点(欠点部451)と、差分画像406に現れる欠点(欠点部461)の2種類の欠点が入力画像401に含まれていると判定する。 The determination unit 34 determines the presence or absence of defects based on the two evaluation values. In the case shown in FIG. 7, the determination unit 34 includes two types of defects, that is, a defect (defect portion 451) appearing in the difference image 405 and a defect (defect portion 461) appearing in the difference image 406, in the input image 401. judge.

この後、表示制御部37が表示装置4に判定結果を表示させる際には、判定部34が判定した欠点の種類についての情報をさらに表示させてもよい。 After that, when the display control unit 37 causes the display device 4 to display the determination result, the information about the type of the defect determined by the determination unit 34 may be further displayed.

以上説明した実施の形態3によれば、実施の形態1と同様、検査対象の製品から取得した検査用の画像において欠点サイズが極めて小さい場合であっても高精度に欠点を検出することができる。 According to the third embodiment described above, as in the first embodiment, defects can be detected with high accuracy even when the defect size is extremely small in the inspection image acquired from the product to be inspected. ..

また、実施の形態3によれば、元の入力画像と量子化処理を施した入力画像とを用いて判定を行うため、異なる2種類の欠点を同時に検査することができる。その結果、計算リソースの消費と計算時間を抑えつつ、2種類の欠点検査を同時に実施することができる。なお、ここでは2種類の場合を説明したが、さらに暗欠点を検出するなど、3種類以上の複数種類の欠点を同時に検査する構成とすることも可能である。 Further, according to the third embodiment, since the determination is performed using the original input image and the input image subjected to the quantization process, two different types of defects can be inspected at the same time. As a result, two types of defect inspections can be performed at the same time while reducing the consumption of calculation resources and the calculation time. Although two types of defects have been described here, it is also possible to simultaneously inspect a plurality of three or more types of defects, such as detecting dark defects.

(実施の形態4)
図8は、実施の形態4に係る欠点検査システムの機能構成を示すブロック図である。同図に示す欠点検査システム1Aは、データ取得装置2と、欠点検査装置3Aと、表示装置4とを備える。
(Embodiment 4)
FIG. 8 is a block diagram showing a functional configuration of the defect inspection system according to the fourth embodiment. The defect inspection system 1A shown in the figure includes a data acquisition device 2, a defect inspection device 3A, and a display device 4.

欠点検査装置3Aは、欠点検査装置3が有する機能構成に加えて、CNN100のネットワークパラメータを最適化する学習を行う学習部38を有する。学習部38は、欠点を含む画像からなる第1画像群に含まれる第1画像のデータと、欠点を含まない第2画像群に含まれる画像であって第1画像と対応する領域の画像である第2画像のデータとを取得し、第1画像と第2画像との差異を定量化した差異情報を算出し、算出結果に応じて学習済みモデルが有するパラメータ群(ネットワークパラメータ)を逐次最適化する処理を繰り返す。この意味で、欠点検査装置3Aは、実施の形態4に係る学習装置の機能を有する。 The defect inspection device 3A has a learning unit 38 that performs learning to optimize the network parameters of the CNN 100 in addition to the functional configuration of the defect inspection device 3. The learning unit 38 includes data of the first image included in the first image group consisting of images including defects, and images included in the second image group not including defects and in a region corresponding to the first image. The data of a certain second image is acquired, the difference information that quantifies the difference between the first image and the second image is calculated, and the parameter group (network parameter) of the trained model is sequentially optimized according to the calculation result. The process of converting is repeated. In this sense, the defect inspection device 3A has the function of the learning device according to the fourth embodiment.

学習部38は、入力画像に対応する教師画像のセットを十分な数だけ準備して学習用画像対とし、例えば誤算逆伝播法および確率的勾配降下法等を用いた深層学習を行うことにより、CNN100のネットワークパラメータを最適化する。入力画像が欠点画像である場合、教師画像は入力画像に対応する正常画像であり、入力画像が正常画像である場合、教師画像は入力画像と同一である。このように、学習部38が学習用画像対をもとに深層学習を行うことにより、欠点画像の欠点部のみを修復して正常画像を作成する方法を学習させることができる。 The learning unit 38 prepares a sufficient number of sets of teacher images corresponding to the input images to make a learning image pair, and performs deep learning using, for example, a miscalculation back propagation method and a stochastic gradient descent method. Optimize the network parameters of CNN100. When the input image is a defect image, the teacher image is a normal image corresponding to the input image, and when the input image is a normal image, the teacher image is the same as the input image. In this way, by performing deep learning based on the learning image pair, the learning unit 38 can learn a method of repairing only the defective portion of the defective image and creating a normal image.

図9は、欠点検査装置3Aが行う処理の概要を示すフローチャートである。ステップS1〜S5は、実施の形態1で説明した欠点検査装置3の処理と同じである。なお、ステップS1〜S5の具体的な処理内容は、実施の形態1〜3のいずれかの処理内容と同様である。 FIG. 9 is a flowchart showing an outline of the processing performed by the defect inspection device 3A. Steps S1 to S5 are the same as the processing of the defect inspection device 3 described in the first embodiment. The specific processing content of steps S1 to S5 is the same as the processing content of any of the first to third embodiments.

ステップS6において、学習部38は、入力画像のデータと、対応する教師画像のデータとを用いてCNN100のネットワークパラメータを最適化することにより、学習済みモデルの更新を行う。 In step S6, the learning unit 38 updates the trained model by optimizing the network parameters of the CNN 100 using the data of the input image and the data of the corresponding teacher image.

以上説明した実施の形態4によれば、実施の形態1と同様、検査対象の製品から取得した検査用の画像において欠点サイズが極めて小さい場合であっても高精度に欠点を検出することができる。 According to the fourth embodiment described above, as in the first embodiment, defects can be detected with high accuracy even when the defect size is extremely small in the inspection image acquired from the product to be inspected. ..

また、実施の形態4によれば、任意の製品の製造工程で取得される検査画像が、複雑な背景を持ち、かつ微細な欠点であっても高精度に検出することが可能な画像処理アルゴリズムを学習によって取得することが可能となる。 Further, according to the fourth embodiment, an image processing algorithm capable of detecting an inspection image acquired in a manufacturing process of an arbitrary product with high accuracy even if it has a complicated background and has minute defects. Can be obtained by learning.

(実施の形態4の変形例)
図10は、実施の形態4の変形例に係る欠点検査装置3Aが行う処理の概要を示すフローチャートである。本変形例において、欠点検査装置3Aは、検査終了時に一括して学習処理を行う。
(Modified Example of Embodiment 4)
FIG. 10 is a flowchart showing an outline of the processing performed by the defect inspection device 3A according to the modified example of the fourth embodiment. In this modification, the defect inspection device 3A collectively performs the learning process at the end of the inspection.

欠点検査装置3Aが検査を開始する(ステップS10)と、データ取得部31がデータ取得装置2からデータを取得する(ステップS11)。この後に続くステップS12〜S15は、図9のステップS2〜S5とそれぞれ同じである。 When the defect inspection device 3A starts the inspection (step S10), the data acquisition unit 31 acquires data from the data acquisition device 2 (step S11). Subsequent steps S12 to S15 are the same as steps S2 to S5 in FIG. 9, respectively.

ステップS15の後、検査が終了した場合(ステップS16:Yes)、ステップS17へ移行して学習部38が学習処理を行う(ステップS17)。その後、欠点検査装置3Aは一連の処理を終了する。 When the inspection is completed after step S15 (step S16: Yes), the process proceeds to step S17 and the learning unit 38 performs the learning process (step S17). After that, the defect inspection device 3A ends a series of processes.

ステップS16において、検査が終了しない場合(ステップS16:No)、欠点検査装置3AはステップS11に戻る。 If the inspection is not completed in step S16 (step S16: No), the defect inspection device 3A returns to step S11.

なお、学習部38の学習処理を逐次行うか、または検査終了時に行うかをユーザが設定できる構成としてもよいし、検査内容や検査量等の検査条件に応じて制御部35が自動的処理フローを決定する構成としてもよい。 The user may be able to set whether to perform the learning process of the learning unit 38 sequentially or at the end of the inspection, or the control unit 35 automatically processes according to the inspection conditions such as the inspection content and the inspection amount. It may be configured to determine.

(その他の実施の形態)
ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態1〜4によって限定されるべきものではない。例えば、データ取得装置2は必須ではなく、データ取得部31は通信ネットワークを介して検査対象のデータを取得してもよいし、記憶部36が保存しているデータを取得してもよい。
(Other embodiments)
Although the embodiments for carrying out the present invention have been described so far, the present invention should not be limited to the above-described embodiments 1 to 4. For example, the data acquisition device 2 is not essential, and the data acquisition unit 31 may acquire the data to be inspected via the communication network, or may acquire the data stored in the storage unit 36.

また、機械学習は上述した深層学習に限られるわけではなく、例えばサポートベクターマシン、決定木、ランダムフォレスト、またはアダブーストなどを用いてもよい。 Further, machine learning is not limited to the deep learning described above, and for example, a support vector machine, a decision tree, a random forest, or AdaBoost may be used.

本発明は、製造工程における製品の欠点検査に利用することができる。 The present invention can be used for defect inspection of products in a manufacturing process.

1、1A 欠点検査システム
2 データ取得装置
3、3A 欠点検査装置
4 表示装置
31 データ取得部
32 画像処理部
33 算出部
34 判定部
35 制御部
36 記憶部
37 表示制御部
38 学習部
100 畳み込みニューラルネットワーク(CNN)
101 入力層
102 中間層
103 出力層
201、301、302、401、402 入力画像
202、303、403、404 出力画像
204、304、405、406 差分画像
231、341、451、461 欠点部
1, 1A Defect inspection system 2 Data acquisition device 3, 3A Defect inspection device 4 Display device 31 Data acquisition unit 32 Image processing unit 33 Calculation unit 34 Judgment unit 35 Control unit 36 Storage unit 37 Display control unit 38 Learning unit 100 Convolutional neural network (CNN)
101 Input layer 102 Intermediate layer 103 Output layer 201, 301, 302, 401, 402 Input image 202, 303, 403, 404 Output image 204, 304, 405, 406 Difference image 231, 341, 451, 461 Defects

Claims (19)

検査用の画像が画素の欠点を含むか否かを判定する欠点検査装置であって、
前記欠点を含む画像からなる第1画像群と前記欠点を含まない画像からなる第2画像群とを用いた機械学習によって生成され、画像に含まれる前記欠点のみを修復するための学習済みモデルに対して入力画像のデータを入力して前記学習済みモデルに基づく演算を行うことによって出力画像のデータを出力する画像処理部と、
前記入力画像と前記出力画像との対応する領域を比較することによって両画像の差異を定量化した差異情報を算出する算出部と、
前記算出部が算出した差異情報に基づいて、前記入力画像が前記欠点を含むか否かを判定する判定部と、
を備える欠点検査装置。
A defect inspection device that determines whether an image for inspection contains pixel defects.
A trained model generated by machine learning using a first image group consisting of images including the defects and a second image group consisting of images not including the defects, and for repairing only the defects contained in the image. On the other hand, an image processing unit that outputs the data of the output image by inputting the data of the input image and performing the calculation based on the trained model.
A calculation unit that calculates difference information that quantifies the difference between the two images by comparing the corresponding areas of the input image and the output image.
A determination unit that determines whether or not the input image includes the defect based on the difference information calculated by the calculation unit.
Defect inspection device equipped with.
前記第1画像群に含まれる第1画像と、前記第2画像群に含まれる画像であって前記第1画像と対応する領域の画像である第2画像とを取得し、前記第1画像および前記第2画像に対する前記差異情報を算出し、算出結果に応じて学習済みモデルが有するパラメータ群を逐次最適化する処理を繰り返す学習部をさらに備える請求項1に記載の欠点検査装置。 The first image included in the first image group and the second image included in the second image group and which is an image of a region corresponding to the first image are acquired, and the first image and the first image and the second image are acquired. The defect inspection apparatus according to claim 1, further comprising a learning unit that calculates the difference information with respect to the second image and repeats a process of sequentially optimizing the parameter group of the trained model according to the calculation result. 前記画像処理部、前記算出部および前記判定部を動作させる検査モードと、前記学習部を動作させる学習モードとを切り替え可能である請求項2に記載の欠点検査装置。 The defect inspection device according to claim 2, wherein the inspection mode for operating the image processing unit, the calculation unit, and the determination unit can be switched between the learning mode for operating the learning unit. 前記算出部は、前記差異情報を画素ごとに算出し、
前記判定部は、前記算出部の算出結果に基づいて欠点の位置を判定する請求項1〜3のいずれか一項に記載の欠点検査装置。
The calculation unit calculates the difference information for each pixel.
The defect inspection device according to any one of claims 1 to 3, wherein the determination unit determines the position of a defect based on the calculation result of the calculation unit.
前記差異情報に基づいて前記入力画像が有する欠点の種類を分類する分類部をさらに備える請求項1〜4のいずれか一項に記載の欠点検査装置。 The defect inspection apparatus according to any one of claims 1 to 4, further comprising a classification unit for classifying the types of defects possessed by the input image based on the difference information. 前記学習済みモデルが出力する出力画像のデータは、前記欠点以外の部分が前記入力画像のデータと同一である請求項1〜5のいずれか一項に記載の欠点検査装置。 The defect inspection device according to any one of claims 1 to 5, wherein the data of the output image output by the trained model is the same as the data of the input image except for the defects. 前記差異情報に基づいて欠点のみを抽出した欠点抽出画像のデータを生成する欠点抽出画像生成部をさらに備える請求項1〜6のいずれか一項に記載の欠点検査装置。 The defect inspection apparatus according to any one of claims 1 to 6, further comprising a defect extraction image generation unit that generates data of a defect extraction image in which only defects are extracted based on the difference information. 前記判定部の判定結果、前記入力画像、前記出力画像および前記欠点抽出画像からなる群より選ばれる1つ以上を表示部に表示させる表示制御部をさらに備える請求項7に記載の欠点検査装置。 The defect inspection device according to claim 7, further comprising a display control unit that displays on the display unit one or more selected from the group consisting of the determination result of the determination unit, the input image, the output image, and the defect extraction image. 前記学習済みモデルは、
前記入力画像のデータが入力される入力層と、
前記入力層が出力する信号が入力され、多層構造を有する中間層と、
前記中間層が出力する信号が入力され、前記出力画像のデータを出力する出力層と、を有し、
各層が一または複数のノードを有するニューラルネットワークからなる請求項1〜8のいずれか一項に記載の欠点検査装置。
The trained model is
An input layer into which the data of the input image is input and
A signal output from the input layer is input, and an intermediate layer having a multi-layer structure and an intermediate layer
It has an output layer to which a signal output by the intermediate layer is input and outputs data of the output image.
The defect inspection apparatus according to any one of claims 1 to 8, wherein each layer comprises a neural network having one or more nodes.
前記第1画像群および前記第2画像群がそれぞれ有する画像のデータは量子化されており、
前記画像処理部は、
前記入力画像のデータを量子化してから前記学習済みモデルに入力する請求項1〜9のいずれか一項に記載の欠点検査装置。
The image data of the first image group and the second image group are quantized.
The image processing unit
The defect inspection apparatus according to any one of claims 1 to 9, wherein the data of the input image is quantized and then input to the trained model.
前記量子化は2値化である請求項10に記載の欠点検査装置。 The defect inspection apparatus according to claim 10, wherein the quantization is binarization. 前記学習済みモデルは、前記第1画像群および前記第2画像群がそれぞれ有する画像のデータを量子化した第1量子化画像群および第2量子化画像群をさらに用いた機械学習によって生成されたものであり、
前記入力層は、前記入力画像を量子化したデータをさらに入力し、
前記出力層は、前記出力画像を量子化したデータをさらに出力する請求項9に記載の欠点検査装置。
The trained model was generated by machine learning using the first quantized image group and the second quantized image group obtained by quantizing the image data of the first image group and the second image group, respectively. It is a thing
The input layer further inputs data obtained by quantizing the input image.
The defect inspection device according to claim 9, wherein the output layer further outputs data obtained by quantizing the output image.
前記ニューラルネットワークは、
前記中間層が全結合層およびプーリング層を有しないタイプの畳み込みニューラルネットワークである請求項9または12に記載の欠点検査装置。
The neural network
The defect inspection apparatus according to claim 9 or 12, wherein the intermediate layer is a type of convolutional neural network having no fully connected layer and a pooling layer.
前記ニューラルネットワークは、バイパス経路を備える請求項13に記載の欠点検査装置。 The defect inspection device according to claim 13, wherein the neural network includes a bypass path. 検査用の画像が画素の欠点を含むか否かを判定する欠点検査装置が行う欠点検査方法であって、
前記欠点を含む画像からなる第1画像群と前記欠点を含まない画像からなる第2画像群とを用いた機械学習によって生成され、画像に含まれる前記欠点のみを修復するための学習済みモデルに対して入力画像のデータを入力して前記学習済みモデルに基づく演算を行うことによって出力画像のデータを出力する画像処理ステップと、
前記入力画像と前記出力画像との対応する領域を比較することによって両画像の差異を定量化した差異情報を算出する算出ステップと、
前記算出ステップで算出した差異情報を記憶部から読み出して、前記入力画像が前記欠点を含むか否かを判定する判定ステップと、
を含む欠点検査方法。
This is a defect inspection method performed by a defect inspection device that determines whether or not an image for inspection contains pixel defects.
A trained model generated by machine learning using a first image group consisting of images including the defects and a second image group consisting of images not including the defects, and for repairing only the defects contained in the image. On the other hand, an image processing step of inputting the data of the input image and outputting the data of the output image by performing the calculation based on the trained model, and
A calculation step of calculating difference information that quantifies the difference between the two images by comparing the corresponding regions of the input image and the output image, and
A determination step of reading the difference information calculated in the calculation step from the storage unit and determining whether or not the input image includes the defect.
Defect inspection method including.
検査用の画像が画素の欠点を含むか否かを判定する欠点検査装置に、
前記欠点を含む画像からなる第1画像群と前記欠点を含まない画像からなる第2画像群とを用いた機械学習によって生成され、画像に含まれる前記欠点のみを修復するための学習済みモデルに対して入力画像のデータを入力して前記学習済みモデルに基づく演算を行うことによって出力画像のデータを出力する画像処理ステップと、
前記入力画像と前記出力画像との対応する領域を比較することによって両画像の差異を定量化した差異情報を算出する算出ステップと、
前記算出ステップで算出した差異情報に基づいて、前記入力画像が前記欠点を含むか否かを判定する判定ステップと、
を実行させる欠点検査プログラム。
For defect inspection equipment that determines whether an image for inspection contains pixel defects
A trained model generated by machine learning using a first image group consisting of images including the defects and a second image group consisting of images not including the defects, and for repairing only the defects contained in the image. On the other hand, an image processing step of inputting the data of the input image and outputting the data of the output image by performing the calculation based on the trained model, and
A calculation step of calculating difference information that quantifies the difference between the two images by comparing the corresponding regions of the input image and the output image, and
A determination step for determining whether or not the input image includes the defect based on the difference information calculated in the calculation step, and
Defect inspection program to execute.
画像から画素の欠点のみを修復した画像のデータを出力するよう、コンピュータを機能させるための学習済みモデルを生成する学習装置であって、
前記欠点を含む画像からなる第1画像群に含まれる第1画像と、前記欠点を含まない第2画像群に含まれる画像であって前記第1画像と対応する領域の画像である第2画像とを取得し、前記第1画像と前記第2画像との差異を定量化した差異情報を算出し、算出結果に応じて学習済みモデルが有するパラメータ群を逐次最適化する処理を繰り返す学習部
を備える学習装置。
It is a learning device that generates a trained model for operating a computer so as to output image data obtained by repairing only pixel defects from an image.
A first image included in the first image group consisting of images including the defects, and a second image which is an image included in the second image group not including the defects and is an image of a region corresponding to the first image. A learning unit that repeats the process of acquiring the above, calculating the difference information quantifying the difference between the first image and the second image, and sequentially optimizing the parameter group of the trained model according to the calculation result. A learning device to be equipped.
入力画像のデータが入力される入力層と、
前記入力層が出力する信号が入力され、多層構造を有する中間層と、
前記中間層が出力する信号が入力され、前記入力画像の欠点のみを修復した出力画像のデータを出力する出力層と、
を有し、
各層が一または複数のノードからなるニューラルネットワークであって前記中間層が全結合層およびプーリング層を有しないタイプの畳み込みニューラルネットワークから構成され、
前記入力画像のデータを前記入力層に入力し、前記ニューラルネットワークのネットワークパラメータであって学習済みのネットワークパラメータに基づく演算を行い、前記出力層から前記出力画像のデータを出力するよう、コンピュータを機能させるための学習済みモデル。
The input layer where the input image data is input and
A signal output from the input layer is input, and an intermediate layer having a multi-layer structure and an intermediate layer
An output layer in which a signal output by the intermediate layer is input and output image data in which only defects of the input image are repaired is output.
Have,
Each layer is a neural network consisting of one or more nodes, and the intermediate layer is composed of a type of convolutional neural network having no fully connected layer and a pooling layer.
The computer functions so as to input the data of the input image into the input layer, perform an operation based on the network parameters of the neural network and learned network parameters, and output the data of the output image from the output layer. Trained model to let.
前記入力層は、前記入力画像を量子化したデータがさらに入力され、
前記出力層は、前記出力画像を量子化したデータをさらに出力する請求項18に記載の学習済みモデル。
Data obtained by quantizing the input image is further input to the input layer.
The trained model according to claim 18, wherein the output layer further outputs data obtained by quantizing the output image.
JP2019023830A 2019-02-13 2019-02-13 Defect inspection device and trained model Active JP7298176B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019023830A JP7298176B2 (en) 2019-02-13 2019-02-13 Defect inspection device and trained model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019023830A JP7298176B2 (en) 2019-02-13 2019-02-13 Defect inspection device and trained model

Publications (2)

Publication Number Publication Date
JP2020135051A true JP2020135051A (en) 2020-08-31
JP7298176B2 JP7298176B2 (en) 2023-06-27

Family

ID=72278592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019023830A Active JP7298176B2 (en) 2019-02-13 2019-02-13 Defect inspection device and trained model

Country Status (1)

Country Link
JP (1) JP7298176B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763320A (en) * 2021-07-29 2021-12-07 国网江苏省电力有限公司电力科学研究院 Cable accessory lead sealing construction defect detection method and system
JP2022103040A (en) * 2020-12-25 2022-07-07 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Image defect detection method, device, electronic apparatus, storage medium, and product
WO2022196156A1 (en) * 2021-03-18 2022-09-22 ソニーグループ株式会社 Detection device, detection method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05228511A (en) * 1992-02-19 1993-09-07 Sumitomo Metal Ind Ltd Device for deciding position to cut crop of steel plate
JP2018005773A (en) * 2016-07-07 2018-01-11 株式会社リコー Abnormality determination device and abnormality determination method
JP2018181389A (en) * 2017-04-04 2018-11-15 株式会社半導体エネルギー研究所 Semiconductor device, and electronic apparatus
JP2018205163A (en) * 2017-06-06 2018-12-27 株式会社デンソー Visual inspection device, conversion data generator, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05228511A (en) * 1992-02-19 1993-09-07 Sumitomo Metal Ind Ltd Device for deciding position to cut crop of steel plate
JP2018005773A (en) * 2016-07-07 2018-01-11 株式会社リコー Abnormality determination device and abnormality determination method
JP2018181389A (en) * 2017-04-04 2018-11-15 株式会社半導体エネルギー研究所 Semiconductor device, and electronic apparatus
JP2018205163A (en) * 2017-06-06 2018-12-27 株式会社デンソー Visual inspection device, conversion data generator, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
TOBY P. BRECKON ET AL.: "Skip-GANomaly: Skip Connected and Adversarially Trained Encoder-Decoder Anomaly Detection", 2019 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN), JPN6023002163, 19 July 2019 (2019-07-19), US, ISSN: 0004970199 *
三浦 勝司 外2名: "違和感を察知するDeep Learning技術"Sense Learning"", SEIテクニカルビュー 第193号, JPN6023002164, 31 July 2018 (2018-07-31), JP, ISSN: 0004970198 *
進藤 智則: "教師なしディープラーニングで製造不良品を自動検出 武蔵精密工業が自動車ギア検査にautoencoder", 日経ROBOTICS 2018年5月号(第34号), JPN6023002165, 10 April 2018 (2018-04-10), JP, ISSN: 0004970197 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022103040A (en) * 2020-12-25 2022-07-07 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Image defect detection method, device, electronic apparatus, storage medium, and product
JP7138753B2 (en) 2020-12-25 2022-09-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Image defect detection method, device, electronic device, storage medium and product
WO2022196156A1 (en) * 2021-03-18 2022-09-22 ソニーグループ株式会社 Detection device, detection method, and program
CN113763320A (en) * 2021-07-29 2021-12-07 国网江苏省电力有限公司电力科学研究院 Cable accessory lead sealing construction defect detection method and system

Also Published As

Publication number Publication date
JP7298176B2 (en) 2023-06-27

Similar Documents

Publication Publication Date Title
US10885618B2 (en) Inspection apparatus, data generation apparatus, data generation method, and data generation program
US10878283B2 (en) Data generation apparatus, data generation method, and data generation program
JP7004145B2 (en) Defect inspection equipment, defect inspection methods, and their programs
KR102166458B1 (en) Defect inspection method and apparatus using image segmentation based on artificial neural network
JP6869490B2 (en) Defect inspection equipment, defect inspection methods, and their programs
US11176650B2 (en) Data generation apparatus, data generation method, and data generation program
TWI557650B (en) System and method for identifying defects in a material
JP2018005640A (en) Classifying unit generation device, image inspection device, and program
JP2018005639A (en) Image classification device, image inspection device, and program
JP7131617B2 (en) Method, device, system, program and storage medium for setting lighting conditions
JP7298176B2 (en) Defect inspection device and trained model
JP7145970B2 (en) Inspection support device for concrete structure, inspection support method, and inspection support program
US20230222645A1 (en) Inspection apparatus, unit selection apparatus, inspection method, and computer-readable storage medium storing an inspection program
KR102141302B1 (en) Object detection method based 0n deep learning regression model and image processing apparatus
US11268910B2 (en) Apparatus for optimizing inspection of exterior of target object and method thereof
US20220076404A1 (en) Defect management apparatus, method and non-transitory computer readable medium
CN111598889A (en) Grading ring inclination fault identification method and device and computer equipment
US20220405586A1 (en) Model generation apparatus, estimation apparatus, model generation method, and computer-readable storage medium storing a model generation program
JPWO2020071234A1 (en) Image processing equipment, image processing methods, visual inspection systems and computer programs
JP2020112483A (en) Exterior appearance inspection system, calculation model construction method and calculation model construction program
CN113016023B (en) Information processing method and computer-readable non-transitory recording medium
TW201512649A (en) Method of chip detects inspecting, system therefor, and computer program product thereof
CN112017154A (en) Ray defect detection method based on Mask R-CNN model
KR20230036650A (en) Defect detection method and system based on image patch
JP2022125593A (en) Abnormality detecting method and abnormality detecting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230529

R151 Written notification of patent or utility model registration

Ref document number: 7298176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151