JP2022123217A - Image inspection device, image inspection method, and learned model creation device - Google Patents
Image inspection device, image inspection method, and learned model creation device Download PDFInfo
- Publication number
- JP2022123217A JP2022123217A JP2021020383A JP2021020383A JP2022123217A JP 2022123217 A JP2022123217 A JP 2022123217A JP 2021020383 A JP2021020383 A JP 2021020383A JP 2021020383 A JP2021020383 A JP 2021020383A JP 2022123217 A JP2022123217 A JP 2022123217A
- Authority
- JP
- Japan
- Prior art keywords
- image
- inspection
- feature
- defective
- divided
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 318
- 238000000034 method Methods 0.000 title claims description 30
- 230000002950 deficient Effects 0.000 claims abstract description 224
- 239000013598 vector Substances 0.000 claims abstract description 221
- 230000007547 defect Effects 0.000 claims abstract description 114
- 238000013434 data augmentation Methods 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 8
- 238000013519 translation Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 abstract description 17
- 239000000284 extract Substances 0.000 abstract description 11
- 238000004891 communication Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 30
- 238000012360 testing method Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Abstract
Description
本発明は、画像検査装置、画像検査方法、及び学習済みモデル生成装置に関する。 The present invention relates to an image inspection apparatus, an image inspection method, and a trained model generation apparatus.
従来、対象物を撮影した画像に基づいて、当該対象物の検査を行う画像検査装置が知られている。 2. Description of the Related Art Conventionally, there has been known an image inspection apparatus that inspects an object based on a photographed image of the object.
例えば、特許文献1には、入力される判定対象画像データに基づいて異常を判定する異常判定を行う異常判定装置において、正常画像データ群から抽出される特徴量から正常画像データを再構成するための再構成用パラメータを用いて、判定対象画像データの特徴量から再構成画像データを生成し、生成した再構成画像データと該判定対象画像データとの差異情報に基づいて異常判定を行うための異常判定処理を実行する処理実行手段を有するものが記載されている。特許文献1の異常判定装置は、判定対象画像データが複数チャネルの画像データを含む場合、再構成用パラメータを用いて各チャネルの画像データの特徴量から再構成画像データをチャネルごとに生成し、生成した各再構成画像データと該判定対象画像データの各チャネルの画像データとの差異情報に基づいて異常判定を行っている。
For example, Japanese Patent Laid-Open No. 2002-200000 discloses an anomaly determination apparatus that performs an anomaly determination based on input image data to be determined. for generating reconstructed image data from the feature amount of the determination target image data using the reconstruction parameters of and performing abnormality determination based on difference information between the generated reconstructed image data and the determination target image data It has a process executing means for executing an abnormality determination process. When image data to be determined includes image data of a plurality of channels, the abnormality determination device of
ここで、従来、良品の対象物の良品画像を小さいサイズに分割して入力し、当該良品画像の特徴量を出力するように学習させた学習済みモデルを用い、特徴空間において、検査画像から抽出した特徴ベクトルと良品画像の特徴ベクトルとに基づいて、検査画像の欠陥を検出する方法があった。 Here, conventionally, a non-defective product image of a non-defective object is divided into small sizes and input, and a trained model trained to output the feature amount of the non-defective product image is extracted from the inspection image in the feature space. There has been a method for detecting defects in an inspection image based on the feature vector obtained by the inspection and the feature vector of the non-defective product image.
しかしながら、良品画像に局所的に特殊パターンが存在する場合、この特殊パターンを含む良品画像の特徴ベクトルは、特徴空間において、他の良品画像の特徴ベクトルから離れた位置にプロットされてしまい、特殊パターンを含む対象物を不良品として検出してしまうことがあった。 However, when a non-defective product image has a local special pattern, the feature vector of the non-defective product image including this special pattern is plotted at a position distant from the feature vectors of other non-defective product images in the feature space. In some cases, objects containing
また、別の良品画像が、ある位置では良品である一方、別の位置では不良品であるパターンを含む場合、このようなパターンを当該別の位置に含む検査画像の特徴ベクトルは、特徴空間において、良品画像の特徴ベクトルの近くにプロットされることになり、不良品を見逃してしまうことがあった。 Also, if another good image contains a pattern that is good at one location and bad at another location, the feature vector of the inspection image that includes such a pattern at the other location is , is plotted near the feature vector of the non-defective product image, and the defective product may be overlooked.
本発明は、このような事情に鑑みてなされたものであり、良品画像の特徴ベクトルに対し、特殊パターンを含む検査画像の特徴ベクトルを近くにプロットするとともに、不良品の検査画像の特徴ベクトルを遠くにプロットすることのできる画像検査装置、画像検査方法、及び学習済みモデル生成装置を提供することを目的の1つとする。 The present invention has been made in view of such circumstances, and plots the feature vector of an inspection image containing a special pattern close to the feature vector of a non-defective product image, and plots the feature vector of an inspection image of a defective product. One of the objects is to provide an image inspection device, an image inspection method, and a trained model generation device that are capable of plotting at a distance.
本開示の一態様に係る画像検査装置は、良品の検査対象物の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルに、検査対象物の分割画像である検査分割画像をそれぞれ入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出する抽出部と、抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部と、複数の欠陥度合いに基づいて、検査対象物を検査する検査部と、を備える。 An image inspection apparatus according to an aspect of the present disclosure includes a plurality of trained models that are trained to output feature amounts by inputting one or more of non-defective divided images that are divided images of a non-defective inspection object. , an extraction unit for inputting an inspection divided image which is a divided image of an object to be inspected, and extracting a feature vector having a feature amount for the inspection divided image as a component; Indicates the degree of defect of the inspection divided image corresponding to the feature vector based on the point indicated by the feature vector and the set formed by the plurality of feature vectors for the plurality of non-defective divided images in the feature space represented by An acquisition unit that acquires the degree of defect, and an inspection unit that inspects the inspection object based on a plurality of degrees of defect.
この態様によれば、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルに、検査分割画像をそれぞれ入力し、当該検査分割画像に対する特徴ベクトルを抽出する。これにより、各学習済みモデルは、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像の特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、各学習済みモデルは、良品の検査対象物の良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像の特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、各欠陥度合いを取得し、これら複数の欠陥度合いに基づいて、検査対象物を検査することにより、検査対象物の検査精度を高めることができる。 According to this aspect, the test divided image is input to each of a plurality of trained models that have been trained to receive one or more non-defective product divided images and to output the feature amount, respectively, and the feature vector for the test divided image is input. to extract As a result, each trained model can learn a pattern specific to each non-defective divided image. is plotted near the set formed by Therefore, in the feature space, the point indicated by the feature vector of the inspection divided image containing the special pattern can be plotted near the set formed by the feature vectors of the plurality of non-defective product divided images corresponding to the inspection divided image. It is possible to acquire the degree of defect with a small degree of , and determine that the product is non-defective. In addition, each trained model can learn different judgment criteria depending on the position and part of the non-defective product image of the inspection object. In the feature space, the point indicated by the feature vector for each inspection divided image is Different ranges and regions are collected for each position of the inspection divided image. Therefore, in the feature space, a point indicated by a feature vector of an inspection division image at another position, which includes a pattern that is a non-defective product at a certain position but is defective at another position, is defined as a plurality of non-defective product divisions at the other position. It is possible to plot far relative to the set formed by the feature vectors of the image, obtain the degree of defect with a large degree of defect, and suppress overlooking of defective products. Therefore, each defect degree is acquired based on the point indicated by the feature vector of the inspection divided image and the set formed by the plurality of feature vectors for the plurality of non-defective divided images in the feature space, and based on these plurality of defect degrees By inspecting the object to be inspected using the above method, the inspection accuracy of the object to be inspected can be improved.
前述した態様において、取得部は、抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と集合との間の距離に基づいて、該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得してもよい。 In the above-described aspect, for each of the extracted feature vectors, the obtaining unit obtains the feature vector based on the distance between the point indicated by the feature vector and the set in the feature space represented by the feature vector. The defect degree of the corresponding inspection divided image may be obtained.
この態様によれば、特徴ベクトルに対応する検査分割画像の欠陥度合いは、特徴空間における、特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルによって形成される集合との間の距離に基づいて取得される。これにより、検査分割画像の欠陥の程度を容易に示すことができる。 According to this aspect, the defect degree of the inspection divided image corresponding to the feature vector is the distance between the point indicated by the feature vector and the set formed by the plurality of feature vectors of the plurality of non-defective divided images in the feature space. obtained based on This makes it possible to easily indicate the degree of defects in the inspection divided image.
前述した態様において、取得部は、抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて、該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得してもよい。 In the above-described aspect, for each of the extracted feature vectors, the acquisition unit obtains the point indicated by the feature vector in the feature space represented by the feature vector and one of the plurality of feature vectors of the plurality of non-defective divided images. The defect degree of the inspection divided image corresponding to the feature vector may be acquired based on the distance between the points indicated by the two.
この態様によれば、特徴ベクトルに対応する検査分割画像の欠陥度合いは、特徴空間における、特徴ベクトルが示す点P2と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて取得される。これにより、検査分割画像の欠陥の程度を容易に示すことができる。 According to this aspect, the defect degree of the inspection divided image corresponding to the feature vector is between the point P2 indicated by the feature vector and the point indicated by one of the plurality of feature vectors of the plurality of non-defective product divided images in the feature space. is obtained based on the distance of This makes it possible to easily indicate the degree of defects in the inspection divided image.
前述した態様において、欠陥度合いは、検査分割画像の欠陥の程度を示す値であってもよい。 In the aspect described above, the defect degree may be a value indicating the degree of defect in the inspection divided image.
この態様によれば、検査分割画像の欠陥の程度を定量的に示すことができる。 According to this aspect, it is possible to quantitatively indicate the degree of defects in the inspection divided image.
前述した態様において、検査部は、複数の欠陥度合いに基づいて欠陥度合い画像を生成し、該欠陥度合い画像に基づいて検査対象物を検査してもよい。 In the aspect described above, the inspection unit may generate a defect degree image based on a plurality of defect degrees, and inspect the inspection object based on the defect degree image.
この態様によれば、検査対象物が良品であるか不良品であるかを容易に判定することができ、検査精度の高い検査を容易に実現することができる。 According to this aspect, it is possible to easily determine whether an object to be inspected is a non-defective product or a defective product, and it is possible to easily realize inspection with high inspection accuracy.
前述した態様において、1つ又は複数の良品分割画像ごとに学習モデルを学習させ、複数の学習済みモデルを生成する学習部をさらに備えてもよい。 The above aspect may further include a learning unit that learns a learning model for each of one or more non-defective divided images and generates a plurality of trained models.
この態様によれば、1つ又は複数の良品分割画像ごとに学習モデルを学習させ、複数の学習済みモデルを生成する学習部をさらに備える。これにより、学習済みモデル生成装置がなくても、複数の学習済みモデルを得ることができる。 According to this aspect, it further includes a learning unit that learns a learning model for each of one or more non-defective divided images and generates a plurality of trained models. As a result, a plurality of trained models can be obtained without a trained model generation device.
前述した態様において、学習部は、1つ又は複数の良品分割画像にデータオーギュメンテーションを施したものを入力として学習モデルを学習させ、複数の学習済みモデルを生成してもよい。 In the above-described aspect, the learning unit may learn a learning model using one or a plurality of non-defective divided images subjected to data augmentation as an input, and generate a plurality of trained models.
この態様によれば、1つ又は複数の良品分割画像にデータオーギュメンテーションを施したものを入力として学習モデルを学習させ、複数の学習済みモデルが生成される。これにより、限られた数の良品分割画像を増やすことができ、各学習済みモデルは、良品分割画像のばらつきに対するロバスト性を高めたロバスト設計にすることができる。 According to this aspect, one or a plurality of non-defective divided images subjected to data augmentation are used as inputs to learn a learning model, and a plurality of trained models are generated. As a result, the limited number of non-defective split images can be increased, and each trained model can be designed to be robust against variations in non-defective split images.
前述した態様において、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、平行移動、回転、拡大、縮小、左右反転、上下反転、及びフィルタ処理のうちの少なくとも1つを適用することを含んでもよい。 In the aforementioned aspects, the data augmentation applies at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to the one or more good split images. may include
この態様によれば、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、平行移動、回転、拡大、縮小、左右反転、上下反転、及びフィルタ処理のうちの少なくとも1つを適用することを含む。これにより、良品分割画像のバリエーションを容易に得ることができる。 According to this aspect, the data augmentation applies at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to the one or more good split images. including doing This makes it possible to easily obtain variations of non-defective divided images.
前述した態様において、検査対象物の検査画像を複数の検査分割画像に分割する分割部をさらに備えてもよい。 The above aspect may further include a dividing unit that divides the inspection image of the inspection object into a plurality of divided inspection images.
この態様によれば、検査対象物の検査画像を複数の検査分割画像に分割する分割部をさらに備える。これにより、検査分割画像を容易に得ることができる。 According to this aspect, it further includes a dividing unit that divides the inspection image of the inspection object into a plurality of divided inspection images. This makes it possible to easily obtain inspection divided images.
前述した態様において、検査対象物の検査画像を取得するための撮像部をさらに備えてもよい。 The aspect described above may further include an imaging unit for acquiring an inspection image of the inspection object.
この態様によれば、検査対象物の検査画像を取得するための撮像部をさらに備える。これにより、検査画像を容易に得ることができる。 According to this aspect, it further includes an imaging unit for acquiring an inspection image of the inspection object. This makes it possible to easily obtain an inspection image.
前述した態様において、複数の学習済みモデルを記憶する記憶部をさらに備えてもよい。 The above aspect may further include a storage unit that stores a plurality of trained models.
この態様によれば、複数の学習済みモデルを記憶する記憶部をさらに備える。これにより、各学習済みモデルを容易に読み出すことができる。 According to this aspect, it further includes a storage unit that stores a plurality of trained models. This makes it possible to easily read out each learned model.
本開示の他の態様に係る画像検査方法は、良品の検査対象物の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルに、検査対象物の分割画像である検査分割画像をそれぞれ入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出するステップと、抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、複数の欠陥度合いに基づいて、検査対象物を検査するステップと、を含む。 An image inspection method according to another aspect of the present disclosure includes a plurality of trained models each learned to output a feature amount by inputting one or more of non-defective divided images, which are divided images of a non-defective inspection object. inputting inspection divided images, which are divided images of an object to be inspected, into the step of respectively extracting feature vectors whose components are feature amounts for the inspection divided images; Indicates the degree of defect of the inspection divided image corresponding to the feature vector based on the point indicated by the feature vector and the set formed by the plurality of feature vectors for the plurality of non-defective divided images in the feature space represented by The method includes the step of acquiring defect degrees, and the step of inspecting an inspection object based on a plurality of defect degrees.
この態様によれば、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルに、検査分割画像をそれぞれ入力し、当該検査分割画像に対する特徴ベクトルを抽出する。これにより、各学習済みモデルは、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像の特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、各学習済みモデルは、良品の検査対象物の良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像の特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、各欠陥度合いを取得し、これら複数の欠陥度合いに基づいて、検査対象物を検査することにより、検査対象物の検査精度を高めることができる。 According to this aspect, the test divided image is input to each of a plurality of trained models that have been trained to receive one or more non-defective product divided images and to output the feature amount, respectively, and the feature vector for the test divided image is input. to extract As a result, each trained model can learn a pattern specific to each non-defective divided image. is plotted near the set formed by Therefore, in the feature space, the point indicated by the feature vector of the inspection divided image containing the special pattern can be plotted near the set formed by the feature vectors of the plurality of non-defective product divided images corresponding to the inspection divided image. It is possible to acquire the degree of defect with a small degree of , and determine that the product is non-defective. In addition, each trained model can learn different judgment criteria depending on the position and part of the non-defective product image of the inspection object. In the feature space, the point indicated by the feature vector for each inspection divided image is Different ranges and regions are collected for each position of the inspection divided image. Therefore, in the feature space, a point indicated by a feature vector of an inspection division image at another position, which includes a pattern that is a non-defective product at a certain position but is defective at another position, is defined as a plurality of non-defective product divisions at the other position. It is possible to plot far relative to the set formed by the feature vectors of the image, obtain the degree of defect with a large degree of defect, and suppress overlooking of defective products. Therefore, each defect degree is acquired based on the point indicated by the feature vector of the inspection divided image and the set formed by the plurality of feature vectors for the plurality of non-defective divided images in the feature space, and based on these plurality of defect degrees By inspecting the object to be inspected using the above method, the inspection accuracy of the object to be inspected can be improved.
本開示の他の態様に係る学習済みモデル生成装置は、良品の検査対象物の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルを生成するモデル生成部を備える。 A trained model generation device according to another aspect of the present disclosure provides a plurality of learned model generation devices each trained to output a feature amount by inputting one or more of non-defective product divided images, which are divided images of a non-defective product inspection object. A model generating unit for generating a finished model is provided.
この態様によれば、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルを生成する。これにより、各学習済みモデルは、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像の特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができる。また、各学習済みモデルは、良品の検査対象物の良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。 According to this aspect, a plurality of trained models are generated that are trained to receive one or more non-defective divided images as input and output feature amounts. As a result, each trained model can learn a pattern specific to each non-defective divided image. is plotted near the set formed by Therefore, in the feature space, the point indicated by the feature vector of the inspection divided image containing the special pattern can be plotted near the set formed by the feature vectors of the plurality of non-defective product divided images corresponding to the inspection divided image. In addition, each trained model can learn different judgment criteria depending on the position and part of the non-defective product image of the inspection object. In the feature space, the point indicated by the feature vector for each inspection divided image is Different ranges and regions are collected for each position of the inspection divided image. Therefore, in the feature space, a point indicated by a feature vector of an inspection division image at another position, which includes a pattern that is a non-defective product at a certain position but is defective at another position, is defined as a plurality of non-defective product divisions at the other position. It can be plotted against the set formed by the feature vectors of the image.
本発明によれば、良品画像の特徴ベクトルに対し、特殊パターンを含む検査画像の特徴ベクトルを近くにプロットするとともに、不良品の検査画像の特徴ベクトルを遠くにプロットすることができる。 According to the present invention, the feature vector of the inspection image including the special pattern can be plotted near the feature vector of the non-defective product image, and the feature vector of the inspection image of the defective product can be plotted far away.
以下に本発明の実施形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号で表している。但し、図面は模式的なものである。従って、具体的な寸法等は以下の説明を照らし合わせて判断するべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。さらに、本発明の技術的範囲は、当該実施形態に限定して解するべきではない。 Embodiments of the present invention are described below. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. However, the drawings are schematic. Therefore, specific dimensions and the like should be determined by referring to the following description. In addition, it goes without saying that there are portions with different dimensional relationships and ratios between the drawings. Furthermore, the technical scope of the present invention should not be construed as being limited to this embodiment.
まず、図1を参照しつつ、一実施形態に従う画像検査システムの構成について説明する。図1は、一実施形態における画像検査システム1の概略構成を例示する構成図である。
First, the configuration of an image inspection system according to one embodiment will be described with reference to FIG. FIG. 1 is a configuration diagram illustrating a schematic configuration of an
図1に示すように、画像検査システム1は、画像検査装置20及び照明ILを含む。画像検査装置20は、通信ネットワークNWを介して、学習済みモデル生成装置10に接続されている。照明ILは、検査対象物TAに光Lを照射する。画像検査装置20は、反射光Rを撮影し、検査対象物TAの画像(以下、「検査画像」ともいう)に基づいて、検査対象物TAの検査を行う。学習済みモデル生成装置10は、画像検査装置20が検査を行うために用いる学習済みモデルを生成する。
As shown in FIG. 1, the
次に、図2を参照しつつ、一実施形態に従う学習済みモデル生成装置及び画像検査装置の物理的構成について説明する。図2は、一実施形態における学習済みモデル生成装置10及び画像検査装置20の物理的構成を示す構成図である。
Next, physical configurations of the trained model generation device and the image inspection device according to one embodiment will be described with reference to FIG. FIG. 2 is a configuration diagram showing the physical configuration of the trained
図2に示すように、学習済みモデル生成装置10及び画像検査装置20は、それぞれ、プロセッサ31と、メモリ32と、記憶装置33と、通信装置34と、入力装置35と、出力装置36と、を備える。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。
As shown in FIG. 2, the trained
なお、図2に示す例では、学習済みモデル生成装置10及び画像検査装置20が、それぞれ、一台のコンピュータで構成される場合について説明するが、これに限定されるものではない。学習済みモデル生成装置10及び画像検査装置20は、それぞれ、複数のコンピュータが組み合わされて実現されてもよい。また、図2で示す構成は一例であり、学習済みモデル生成装置10及び画像検査装置20は、それぞれ、これら以外の構成を備えてもよいし、これらの構成のうち一部を備えなくてもよい。
In the example shown in FIG. 2, the trained
プロセッサ31は、学習済みモデル生成装置10及び画像検査装置20の各部の動作を制御するように構成されている。プロセッサ31は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array))、SoC(Sysmtem-on-a-Chip)等の集積回路を含んで構成される。
The
メモリ32及び記憶装置33は、それぞれ、プログラムやデータ等を記憶するように構成されている。メモリ32は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)及び/又はRAM(Random Access Memory)等から構成される。記憶装置33は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)及び/又はeMMC(embedded Multi Media Card)等のストレージから構成される。
The
通信装置34は、有線及び無線の少なくとも一方のネットワークを介して通信を行うように構成されている。通信装置34は、例えば、ネットワークカード、通信モジュール、他の機器に接続するインターフェース等を含んで構成される。
The
入力装置35は、ユーザの操作により情報を入力できるように構成されている。入力装置35は、例えば、キーボード、タッチパネル、マウス、ポインティングデバイス、及び/又はマイク等を含んで構成される。
The
出力装置36は、情報を出力するように構成されている。出力装置36は、例えば液晶ディスプレイ、EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、LCD(Liquid Crystal Display)等の表示装置、及び/又はスピーカ等を含んで構成される。
次に、図3から図7を参照しつつ、一実施形態に従う学習済みモデル生成装置の機能ブロックについて説明する。図3は、一実施形態における学習済みモデル生成装置10の機能ブロックの構成を示す構成図である。図4は、図3に示す学習用画像生成部131による良品分割画像の生成を説明するための概念図である。図5は、図3に示すモデル生成部135が使用する学習モデル50を説明するための概念図である。図6は、図3に示すモデル生成部135による複数の学習済みモデル55の生成の一例を説明するための概念図である。図7は、図3に示すモデル生成部135による複数の学習済みモデル55の生成の他の例を説明するための概念図である。
Next, functional blocks of the trained model generation device according to one embodiment will be described with reference to FIGS. 3 to 7. FIG. FIG. 3 is a configuration diagram showing the configuration of functional blocks of the trained
図3に示すように、学習済みモデル生成装置10は、通信部110と、記憶部120と、学習部130と、を備える。
As shown in FIG. 3, the trained
通信部110は、各種の情報を送信及び受信可能に構成されている。通信部110は、例えば、通信ネットワークNWを介して、後述する学習済みモデル55を画像検査装置20に送信する。また、通信部110は、例えば、通信ネットワークNWを介して、他の装置から良品画像を受信する。すなわち、通信部110は、良品と判定された検査対象物TAの画像である良品画像を取得する。通信部110によって取得された複数の良品画像(以下、それぞれを区別しない場合にその1つを「良品画像40」ともいう)は、記憶部120に書き込まれて記憶される。
The
記憶部120は、各種の情報を記憶するように構成されている。記憶部120は、例えば、良品画像40と、複数の学習用画像(以下、それぞれを区別しない場合にその1つを「学習用画像124」ともいう)と、複数の学習済みモデル(以下、それぞれを区別しない場合にその1つを「学習済みモデル55」ともいう)と、複数の特徴ベクトル(以下、それぞれを区別しない場合にその1つを「特徴ベクトル129」ともいう)と、を記憶する。
The
学習部130は、学習モデルを学習させて学習済みモデルを生成するためのものである。学習部130は、例えば、学習用画像生成部131及びモデル生成部135を含む。
The
学習用画像生成部131は、学習用画像124を生成するように構成されている。学習用画像124は、学習済みモデル55を生成するために用いられる画像である。学習用画像124は、例えば、1つの良品画像を複数に分割した画像(以下「良品分割画像」という)である。
The learning
より詳細には、学習用画像生成部131は、記憶部120に記憶された複数の良品画像40のうちの1つを読み出し、当該良品画像40を複数の良品分割画像に分割して学習用画像124を生成する。生成された学習用画像124は、記憶部120に書き込まれて記憶される。
More specifically, the learning
図4に示すように、学習用画像生成部131は、良品画像40について、例えば、縦及び横にそれぞれ4分割することで、16個の良品分割画像を生成する。なお、良品画像40は、2個以上の良品分割画像に分割されれば足り、2から15個の良品分割画像に分割されてもよいし、17個以上の良品分割画像に分割されてもよい。
As shown in FIG. 4, the learning
また、学習用画像生成部131は、1つ又は複数の良品分割画像にデータオーギュメンテーションを施し、データオーギュメンテーションが施されたものを学習用画像124として生成してもよい。
Further, the learning
データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、平行移動、回転、拡大、縮小、左右反転、上下反転、及びフィルタ処理のうちの少なくとも1つを適用することを含む。フィルタ処理に用いるフィルタは、例えば、良品分割画像の明度を変換するフィルタであったり、ノイズを除去する平滑化フィルタであったり、エッジを抽出するフィルタであったりしてよく、任意のフィルタを用いることができる。 Data augmentation includes applying at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to one or more good split images. The filter used for filtering may be, for example, a filter that converts the brightness of the non-defective divided image, a smoothing filter that removes noise, or a filter that extracts edges, and any filter is used. be able to.
なお、データオーギュメンテーションは、前述した手法に限定されるものではない。例えば、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、射影変換を行ったり、ランダムノイズを付加したりしもてよい。 Note that data augmentation is not limited to the method described above. For example, data augmentation may perform a projective transformation or add random noise to one or more good split images.
モデル生成部135は、1つ又は複数の良品分割画像ごとに学習モデルを学習させ、複数の学習済みモデル55を生成するように構成されている。各学習済みモデル55は、例えば、1つ又は複数の良品分割画像を入力とし、特徴量を出力するモデルである。あるいは、各学習済みモデル55は、1つ又は複数の良品分割画像にデータオーギュメンテーションを施したものを入力とし、特徴量を出力するモデルであってもよい。以下において、特に明示する場合を除き、各学習済みモデル55は、1つ又は複数の良品分割画像を入力して生成されたものとして、説明する。
The
図5に示すように、モデル生成部135が学習済みモデル55を生成するために用いる学習モデル50は、特徴抽出部51と特徴判定部52とを含んで構成されている。特徴抽出部51には、例えば、ニューラルネットワークの1つであって、教師なし機械学習の手法の1つでもあるオートエンコーダが用いられ、オートエンコーダは、入力層511と、出力層515と、入力層511と出力層515との間に配置されている中間層513と、を含んでいる。一方、特徴判定部52は、例えばニューラルネットワークが用いられる。
As shown in FIG. 5 , the
なお、特徴抽出部51は、オートエンコーダを用いる場合に限定されるものではなく、例えば、PCA(Principal Component Analysis)を用いてもよい。また、中間層513は、1層である場合に限定されず、2層以上であってもよい。さらに、特徴判定部52は、ニューラルネットワークを用いる場合に限定されるものではなく、例えば、One Class SVM(Support Vector Machine)を用いてもよい。
Note that the
入力層511に入力画像が入力されると、中間層513において入力画像の次元が削減される。そして、出力層515において次元を戻して出力画像が出力される。特徴抽出部51のオートエンコーダは、入力画像と出力画像との間の差が最小となるように、重み(係数ともいう)を学習する。より詳細には、円形状で表される各ノードは、線で表される各エッジにおいて固有の重み付けを行い、重み付けされた値が次の層のノードに入力される。この重み付けにおける重みを学習することで、入力画像に含まれる各画素と、出力画像に含まる対応する各画素との差が最小になる。この学習によって、中間層513から特徴量、具体的には中間特徴量を抽出することが可能となる。
When an input image is input to the
オートエンコーダの中間層513から抽出された中間特徴量が特徴判定部52に入力されると、特徴量、具体的には出力特徴量が出力される。
When the intermediate feature amount extracted from the
ここで、特徴量は、求めたい事物の特徴を定量的に表した変数である。特徴判定部52から出力される出力特徴量は、例えば良品分割画像であることを特徴づけるものであり、具体的には良品分割画像が有する濃淡の配列、良品分割画像における輝度、赤単体、緑単体、青単体、又は赤・緑・青(RGB)のヒストグラム等が挙げられる。一般的に、良品分割画像は、1種類の特徴量だけで良品の分割画像であることを認識可能である場合は少なく、複数種類の特徴量を用いて良品の分割画像であることを認識できる場合が多い。
Here, the feature amount is a variable that quantitatively expresses the feature of the thing to be obtained. The output feature quantity output from the
この1つ又は複数の特徴量を成分としてベクトル形式で表現したものが特徴ベクトルである。特徴量の数(個数)は、当該特徴ベクトルの次元(次元数)を表す。特徴ベクトルで表現される空間、別の言い方をすれば、特徴ベクトルによって張られる空間は、特徴空間と呼ばれ、特徴ベクトルは特徴空間上の1点として表される。例えば特徴判定部52がd個(dは正の整数)の出力特徴量を出力するように学習された場合、学習済みモデル55によって、入力された画像からd次元ベクトルの特徴ベクトル129を抽出することができ、抽出された特徴ベクトル129は、d次元空間の特徴空間における1点で表すことができる。
A feature vector is a vector representation of one or more feature amounts as components. The number (number) of feature amounts represents the dimension (number of dimensions) of the feature vector. A space represented by feature vectors, in other words, a space spanned by feature vectors is called a feature space, and a feature vector is represented as one point in the feature space. For example, when the
特徴判定部52のニューラルネットワークは、特徴空間における各点の距離が近くなるように、重み(係数ともいう)を学習する。より詳細には、特徴抽出部51のオートエンコーダにおける重みを固定した上で、入力層511に入力画像を入力して中間層513から中間特徴量を得る。そして、出力特徴量を成分とする特徴ベクトルで表現される特徴空間において、それぞれの入力画像に対応する出力特徴量の特徴ベクトルが示す各点の間の距離が近くなるように、特徴判定部52のニューラルネットワークにおける重みを学習する。この学習によって、特徴判定部52は出力特徴量を出力することが可能となる。なお、出力特徴量の次元と中間特徴量の次元とは、同じであってもよいし、互いに異なっていてもよい。
The neural network of the
本実施形態では、学習モデル50の入力、つまり、入力画像は、例えば良品分割画像であり、学習モデル50の出力、つまり、出力特徴量は、その良品分割画像の特徴量である。図6に示すように、例えば、良品画像40において左上に位置する良品分割画像400のための学習済みモデル55を生成する場合、対応する学習モデル50Aには、複数の良品画像40におけるそれぞれの左上の良品分割画像400が入力される。そして、この学習モデル50Aは、それぞれの左上の良品分割画像400の特徴量を成分とする各特徴ベクトルの示す点が、特徴空間において近い距離にプロットされるように、各重みを学習する。これにより、左上の良品分割画像400の特徴量を出力する学習済みモデル55Aが生成される。このようにして、良品画像40における各良品分割画像400,402,404,・・・について、対応する学習モデル50A,50B,50C,・・・を学習させることで、モデル生成部135は、複数の学習済みモデル55A,55B,55C,・・・を生成する。生成された複数の学習済みモデル55A,55B,55C,・・・は、記憶部120に書き込まれて記憶される。また、モデル生成部135は、各学習済みモデル55A,55B,55C,・・・を生成する過程で、各良品分割画像400,402,404,・・・の特徴ベクトル129を抽出する。抽出された複数の特徴ベクトル129についても、記憶部120に書き込まれて記憶される。例えば、j個の良品画像のそれぞれをk個に分割する場合、抽出され、記憶される特徴ベクトル129の数は、例えばj×k個である。なお、複数の特徴ベクトル129のそれぞれの次元dは、同じであってもよいし、互いに異なっていてもよい。
In this embodiment, the input of the
学習モデル50は、入力として良品画像40の1つの位置の良品分割画像を用いる場合に限定されるものではない。言い換えれば、良品画像40を分割する数、例えば分割数m(mは2以上の整数)と、学習に用いる学習モデル50の数及び生成される学習済みモデル55の数、例えば生成数n(nは2以上の整数)とは、同じ数である場合に限定されるものではない。学習モデル50は、複数の良品分割画像、例えば、良品分割画像400及び良品分割画像402を入力画像として学習されてもよい。この場合、良品分割画像400及び良品分割画像402の2つのエリアの良品分割画像の特徴量を出力する学習済みモデル55が生成される。
The
また、図7に示すように、良品画像40を分割した複数の良品分割画像400’、402’、404’,・・・のうち、例えば、良品分割画像402’と良品分割画像404’とが類似する場合、それぞれに用いる学習モデル50を統合してもよい。すなわち、互いに類似する良品分割画像402’及び良品分割画像404’は、同じ学習モデル50Bに入力され、学習の結果、1つの学習済みモデル55B’が生成される。この場合、学習済みモデル55の生成数nは、良品画像40の分割数mより小さくなる(生成数n<分割数m)。なお、2つの良品分割画像が類似するか否かの判定は、例えば、一致度が所定のしきい値以上であるか否かに基づいて行ってもよい。
Further, as shown in FIG. 7, among a plurality of non-defective product divided
このように、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル55を生成することにより、詳細は後述するように、各学習済みモデル55は、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像の特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができる。また、各学習済みモデル55は、良品の検査対象物TAの良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。
In this way, by generating a plurality of trained
なお、学習用画像生成部131及びモデル生成部135の少なくとも一方は、プロセッサ31が、記憶装置33に記憶されたプログラムを実行することにより実現されてもよい。プログラムを実行する場合、当該プログラムは、記憶媒体に格納されていてもよい。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-Transitory computer readable medium)であってもよい。非一時的な記憶媒体は、特に限定されないが、例えば、USBメモリ、又はCD-ROM(Compact Disc ROM)等の記憶媒体であってもよい。
Note that at least one of the
次に、図8から図15を参照しつつ、一実施形態に従う画像検査装置の機能ブロックについて説明する。図8は、一実施形態における画像検査装置20の機能ブロックの構成を示す構成図である。図9は、欠陥度合いを取得する方法の一例を説明するための概念図である。図10は、欠陥度合いを取得する方法の他の例を説明するための概念図である。図11は、図8に示す、分割部250、抽出部260、及び取得部270による処理の一例を説明するための概念図である。図12は、図8に示す、分割部250、抽出部260、及び取得部270による処理の他の例を説明するための概念図である。図13は、良品画像60の一例を示す図である。図14は、図8に示す検査部280による処理を説明するための概念図である。図15は、欠陥度合い画像70の一例を示す図である。
Next, functional blocks of the image inspection apparatus according to one embodiment will be described with reference to FIGS. 8 to 15. FIG. FIG. 8 is a configuration diagram showing the configuration of functional blocks of the
図8に示すように、画像検査装置20は、通信部210と、記憶部220と、学習部230と、撮像部240と、分割部250と、抽出部260と、取得部270と、検査部280と、を備える。
As shown in FIG. 8, the
通信部210は、各種の情報を送信及び受信可能に構成されている。通信部210は、例えば、通信ネットワークNWを介して、学習済みモデル生成装置10から複数の学習済みモデル55及び複数の特徴ベクトル129を受信する。また、通信部210は、例えば、通信ネットワークNWを介して、学習済みモデル生成装置10又は他の装置から複数の学習用画像124を受信する。受信した複数の学習用画像124、複数の学習済みモデル55、及び複数の特徴ベクトル129は、記憶部220に書き込まれて記憶される。なお、通信部210は、複数の学習用画像124と複数の学習済みモデル55及び複数の特徴ベクトル129とのいずれか一方のみを受信してもよい。通信部210が複数の学習用画像124のみを受信する場合、後述する学習部230は、複数の学習用画像124を用い、複数の学習済みモデル55を生成し、複数の学習済みモデル55を生成する過程で複数の特徴ベクトル129を抽出する。
The
記憶部220は、各種の情報を記憶するように構成されている。記憶部220は、例えば、複数の学習用画像124と、複数の学習済みモデル55と、複数の特徴ベクトル129とを記憶する。このように、複数の学習済みモデル55を記憶する記憶部220を備えることにより、各学習済みモデルを容易に読み出すことができる。
The
学習部230は、1つ又は複数の良品分割画像ごとに学習モデルを学習させ、複数の学習済みモデル55を生成するように構成されている。各学習済みモデル55は、1つ又は複数の良品分割画像を入力とし、特徴量を出力するモデルである。生成した複数の学習済みモデル55は、記憶部220に書き込まれて記憶される。なお、学習モデルを学習させる方法は、学習済みモデル生成装置10におけるモデル生成部135についての説明と同様であるため、その説明を省略する。
The
このように、1つ又は複数の良品分割画像ごとに学習モデルを学習させ、複数の学習済みモデル55を生成する学習部230を備えることにより、学習済みモデル生成装置10がなくても、複数の学習済みモデルを得ることができる。
Thus, by providing the
また、学習部230は、記憶部220に記憶された複数の学習用画像124のそれぞれが良品分割画像である場合、1つ又は複数の良品分割画像にデータオーギュメンテーションを施し、データオーギュメンテーションが施されたものを入力として学習モデルを学習させ、複数の学習済みモデル55を生成してもよい。これにより、限られた数の良品分割画像を増やすことができ、各学習済みモデル55は、良品分割画像のばらつきに対するロバスト性を高めたロバスト設計にすることができる。
Further, when each of the plurality of learning
前述したように、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、平行移動、回転、拡大、縮小、左右反転、上下反転、及びフィルタ処理のうちの少なくとも1つを適用することを含む。フィルタ処理に用いるフィルタは、例えば、良品分割画像の明度を変換するフィルタであったり、ノイズを除去する平滑化フィルタであったり、エッジを抽出するフィルタであったりしてよく、任意のフィルタを用いることができる。このように、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、平行移動、回転、拡大、縮小、左右反転、上下反転、及びフィルタ処理のうちの少なくとも1つを適用することを含むことにより、良品分割画像のバリエーションを容易に得ることができる。 As described above, data augmentation applies at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to one or more good split images. Including. The filter used for filtering may be, for example, a filter that converts the brightness of the non-defective divided image, a smoothing filter that removes noise, or a filter that extracts edges, and any filter is used. be able to. Thus, the data augmentation includes applying at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to one or more good split images. By including , it is possible to easily obtain variations of non-defective divided images.
なお、データオーギュメンテーションは、前述した手法に限定されるものではない。例えば、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、射影変換を行ったり、ランダムノイズを付加したりしもてよい。 Note that data augmentation is not limited to the method described above. For example, data augmentation may perform a projective transformation or add random noise to one or more good split images.
撮像部240は、検査対象物TAの検査画像を取得するためのものである。撮像部240は、例えばカメラ等の撮像装置を含んで構成される。本実施形態の撮像部240は、検査対象物TAからの反射光Rを受光し、検査画像を取得する。そして、撮像部240は、取得した検査画像を分割部250に出力する。このように、検査対象物TAの検査画像を取得することにより、検査画像を容易に得ることができる。
The
分割部250は、検査対象物TAの検査画像を複数の検査分割画像に分割するように構成されている。より詳細には、分割部250は、学習済みモデル生成装置10における良品画像の分割と同様の方法によって、検査画像を分割する。具体的には、分割部250は、検査対象物TAの検査画像を、縦及び横にそれぞれ4分割して、16個の検査分割画像を生成する。そして、分割部250は、生成した検査分割画像を抽出部260に出力する。このように、検査対象物TAの検査画像を複数の検査分割画像に分割することにより、検査分割画像を容易に得ることができる。
The dividing
抽出部260は、複数の学習済みモデル55に、検査分割画像をそれぞれ入力し、当該検査分割画像に対する特徴量を成分とする特徴ベクトルを抽出するように構成されている。具体的には、抽出部260は、記憶部220に記憶された複数の学習済みモデル55を読み出し、複数の学習済みモデル55のそれぞれに、対応する検査分割画像を入力する。前述したように、学習済みモデル55は入力された画像の特徴量を出力するように学習されているので、抽出部260は、学習済みモデル55から入力の検査分割画像に対する1つ又は複数の特徴量を得ることができる。これにより、1つ又は複数の特徴量を成分とする特徴ベクトルが抽出される。そして、抽出部260は、抽出した特徴ベクトルを取得部270に出力する。なお、抽出部260が抽出する検査分割画像の特徴ベクトルは、良品分割画像の特徴ベクトル129と同じd次元ベクトルである。
The extracting
取得部270は、抽出された特徴ベクトルのそれぞれについて、当該特徴ベクトルで表現される特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するように構成されている。欠陥度合いは、例えば、レベル、ステップ、クラス、級(等級)、層(階層)等のように離散的に程度を表すものを用いてもよいし、例えば数等のように連続的に程度を表すものを用いてもよい。
For each of the extracted feature vectors, the
具体的には、取得部270は、記憶部220に記憶された複数の特徴ベクトル129を読み出し、d次元空間である特徴空間に、各特徴ベクトル129が示す点をプロットする。これにより、図9に示すように、例えば2次元の特徴空間において、各特徴ベクトル129が示す黒丸の点によって、破線で示す集合S1が形成される。この集合は、例えば良品画像40の位置ごとに形成される。なお、取得部270は、複数の特徴ベクトル129に基づいて特徴空間における集合S1をあらかじめ形成しておき、当該集合S1に関する情報を記憶部220に書き込んで記憶していてもよい。
Specifically, the
次に、取得部270は、抽出部260から入力された複数の特徴ベクトルのうち、集合S1に対応する位置の検査分割画像の特徴ベクトルが示す点を、特徴空間にプロットする。図9では、対応する位置の検査分割画像の特徴ベクトルは、白丸の点P1で示されている。そして、取得部270は、この検査分割画像の特徴ベクトルが示す点P1と集合S1とに基づいて、当該検査分割画像の欠陥度合いを取得する。
Next, the
より詳細には、取得部270は、抽出された特徴ベクトルのそれぞれについて、特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルによって形成される集合との間の距離に基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得するように構成されている。
More specifically, for each of the extracted feature vectors, the
図9に示す例では、第1特徴量及び第2特徴量を成分とする特徴ベクトルで表現される特徴空間において、取得部270は、ある検査分割画像の特徴ベクトルが示す点P1と、当該検査分割画像に対応する複数の良品分割画像の複数の特徴ベクトルの集合S1との間の距離に基づいて、当該検査分割画像の欠陥度合いを取得する。この欠陥度合いは、例えば距離に応じた値である。このように、特徴ベクトルに対応する検査分割画像の欠陥度合いが、特徴空間における、特徴ベクトルが示す点P1と複数の良品分割画像の複数の特徴ベクトルによって形成される集合S1との間の距離に基づいて取得されることにより、検査分割画像の欠陥の程度を容易に示すことができる。
In the example shown in FIG. 9, in a feature space represented by a feature vector having components of a first feature amount and a second feature amount, the
あるいは、取得部270は、抽出された特徴ベクトルのそれぞれについて、特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得するように構成されていてもよい。
Alternatively, for each of the extracted feature vectors,
例えば、図10に示すように、第1特徴量及び第2特徴量を成分とする特徴ベクトルで表現される特徴空間において、取得部270は、ある検査分割画像の特徴ベクトルが示す点P2と、当該検査分割画像に対応する複数の良品分割画像の複数の特徴ベクトルの集合S2に含まれる点との間の距離に基づいて、当該検査分割画像の欠陥度合いを取得する。この欠陥度合いは、例えば距離に応じた値である。また、集合S2に含まれる点は、集合S2に含まれる複数の点のうち、例えば点P2に最も近い点である。取得部270は、集合S2に含まれる複数の点のそれぞれについて点P2との間の距離を算出し、点P2に最も近い点を決定することができる。このように、特徴ベクトルに対応する検査分割画像の欠陥度合いが、特徴空間における、特徴ベクトルが示す点P2と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて取得されることにより、検査分割画像の欠陥の程度を容易に示すことができる。
For example, as shown in FIG. 10, in a feature space represented by a feature vector having a first feature amount and a second feature amount as components, the
取得部270は、抽出部260により抽出された各特徴ベクトルについて、以上の手順を繰り返し行い、複数の検査分割画像のそれぞれの欠陥度合いを取得する。そして、取得部270は、当該複数の欠陥度合いを検査部280に出力する。
The acquiring
図11に示すように、撮像部240が取得した検査対象物TAの検査画像は、分割部250によって複数の検査分割画像420,422,424,・・・に分割される。抽出部260は、各検査分割画像420,422,424,・・・を、複数の学習済みモデル55のうちの対応する学習済みモデル55A、55B,55C,・・・に入力する。各学習済みモデル55A、55B,55C,・・・が、各検査分割画像420,422,424,・・・の特徴量を出力し、抽出部260は、各検査分割画像420,422,424,・・・に対して当該特徴量を成分とする特徴ベクトル440,442、444,・・・を抽出する。
As shown in FIG. 11, the inspection image of the inspection object TA acquired by the
また、取得部270は、抽出された各特徴ベクトル440,442、444,・・・について、特徴空間における、当該特徴ベクトル440,442、444,・・・が示す点と複数の良品分割画像の複数の特徴ベクトルの集合とに基づいて、各検査分割画像420,422,424,・・・の欠陥度合い460,462、464,・・・を取得する。
In addition, for each of the extracted
前述したように、互いに類似する複数の良品分割画像を1つの学習モデル50に統合して学習済みモデル55を生成した場合、図12に示すように、抽出部260は、検査画像42において、互いに類似する複数の良品分割画像に対応する位置の検査分割画像、例えば、検査分割画像422及び検査分割画像424を、それぞれ、対応する学習済みモデル55B’に入力する。抽出部260は、学習済みモデル55B’の出力に基づいて、検査分割画像422に対応する特徴ベクトル442と、検査分割画像424に対応する特徴ベクトル444とを抽出する。各学習済みモデル55A、55B’,・・・が、各検査分割画像420,422,424,・・・の特徴量を出力することで、抽出部260は、複数の特徴ベクトル440,442,444,・・・を抽出する。なお、特徴ベクトル442は検査分割画像422の特徴量を成分とするベクトルであり、特徴ベクトル444は検査分割画像424の特徴量を成分とするベクトルである。すなわち、検査分割画像422の特徴量と検査分割画像424の特徴量とが同一であれば、特徴ベクトル442及び特徴ベクトル444は同一ベクトルになるが、検査分割画像422の特徴量と検査分割画像424の特徴量との間に差異があれば、特徴ベクトル442と特徴ベクトル444とは異なるベクトルになり得る。
As described above, when the learned
ここで、図13に示すように、良品であることがあらかじめ分かっている検査対象物TAの検査画像60は、例えば、6個の検査分割画像600,602,604,606,608,及び610に分割される。これら6個の検査分割画像のうち、検査分割画像602,606,及び608は互いに類似するパターンを含んでいる。また、検査分割画像604は、他の検査分割画像と異なる特殊パターンを含んでいる。
Here, as shown in FIG. 13, the
本実施形態の複数の学習済みモデル55A、55B,55C,・・・とは異なり、仮にこれら6個の検査分割画像600,602,604,606,608,及び610を用いて、1つの学習済みモデルを生成する場合、当該学習済みモデルは、検査分割画像602,604又は608のパターンの特徴量を抽出して出力し得るものの、学習済みモデルの表現能力次第では、検査分割画像604に含まれる特殊パターンの特徴量が十分に抽出されない可能性がある。この場合、特徴空間において、特殊パターンを含む検査分割画像604の特徴ベクトルが示す点は、他の検査分割画像600,602,606,608,及び610の特徴ベクトルが形成する集合から離れた位置にプロットされることがある。その結果、当該検査分割画像604の欠陥度合いは大きくなり、良品である検査対象物TAが不良品と判定されてしまうことがあった。
Unlike the plurality of trained
これに対し、本実施形態の画像検査装置20は、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル55に、検査分割画像600,602,604,606,608,及び610をそれぞれ入力し、当該検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルを抽出する。これにより、各学習済みモデル55は、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像604の特徴ベクトルが示す点を、当該検査分割画像604に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。
On the other hand, the
また、良品であることがあらかじめ分かっている別の検査対象物TAの検査画像において、ある位置で良品であるが別の位置では不良品であるパターンを含む検査分割画像を用いて1つの学習済みモデルを生成する場合、特徴空間において、当該別の位置にこのようなパターンを含む検査分割画像の特徴ベクトルが示す点は、他の検査分割画像の特徴ベクトルが形成する集合の近くにプロットされることがある。そのため、当該別の位置にこのようなパターンを含む検査分割画像の欠陥度合いは小さくなり、本来は不良品である検査分割画像を含む検査画像の検査対象物TAは良品として判定され、不良品を見逃してしまうことがあった。 In addition, in the inspection image of another inspection object TA that is known to be a non-defective product in advance, one learned image is obtained by using an inspection divided image including a pattern that is a non-defective product at one position but is defective at another position. When generating the model, the points indicated by the feature vectors of the test split images containing such patterns at the other locations in the feature space are plotted near the set formed by the feature vectors of the other test split images. Sometimes. Therefore, the defect degree of the inspection divided image including such a pattern at the other position becomes small, and the inspection object TA of the inspection image including the inspection divided image which is originally defective is determined as a non-defective product, and the defective product is determined. Sometimes I missed it.
このような場合にも、本実施形態の画像検査装置20では、各学習済みモデル55は、良品の検査対象物TAの良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。
Even in such a case, in the
図8の説明に戻り、検査部280は、取得部270によって取得された複数の欠陥度合いに基づいて、検査対象物TAの検査するように構成されている。このように、特徴空間における、検査分割画像の特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、各検査分割画像の欠陥度合いを取得し、これら複数の欠陥度合いに基づいて、検査対象物TAを検査することにより、検査対象物TAの検査精度を高めることができる。
Returning to the description of FIG. 8 , the
また、前述した欠陥度合いは、検査分割画像の欠陥の程度を示す値であることが好ましい。これにより、検査分割画像の欠陥の程度を定量的に示すことができる。 Further, the degree of defect described above is preferably a value indicating the degree of defect in the inspection divided image. This makes it possible to quantitatively indicate the degree of defects in the inspection divided image.
この場合、検査部280は、複数の欠陥度合いに基づいて欠陥度合い画像を生成し、当該欠陥度合い画像に基づいて検査対象物TAを検査するように構成されている。これにより、検査対象物が良品であるか不良品であるかを容易に判定することができ、検査精度の高い検査を容易に実現することができる。
In this case, the
具体的には、図14に示すように、検査部280は、取得部270によって取得された各欠陥度合い460,462、464,・・・を、それぞれの値に基づいて画像化することで、部分画像480,482,484,・・・を生成する。部分画像480,482,484,・・・は、例えば、欠陥度合いの値を、白黒の階調に変換したグレースケール画像や、RGBの階調に変換したカラー画像等である。検査部280は、生成された部分画像480,482,484,・・・を統合することで、欠陥度合い画像48を生成する。なお、欠陥度合い画像48の縦及び横のサイズ(画素数)は、検査画像42と同じであってもよいし、異なっていてもよい。そして、検査部280は、当該欠陥度合い画像48に基づいて検査対象物TAが良品であるか否かを判定する。
Specifically, as shown in FIG. 14, the
図15に示すように、欠陥度合い画像70は、例えば2つの欠陥部分画像700,702を含んでいる。欠陥部分画像700は欠陥度合いが相対的に低い部分画像であり、欠陥部分画像702は欠陥度合いが相対的に高い部分画像である。
As shown in FIG. 15, the
検査部280は、例えば、欠陥度合い画像70における欠陥部分画像700,702の占める割合が、所定の閾値以下である場合に検査対象物TAが良品であると判定し、所定の閾値を超える場合に検査対象物TAが良品ではない、つまり、不良品であると判定する。
For example, the
あるいは、検査部280は、欠陥度合い画像70に含まれる欠陥部分画像700,702の有無に基づいて、検査対象物TAの欠陥を検出してもよい。
Alternatively, the
なお、学習部230、分割部250、抽出部260、取得部270、及び検査部280のうちの少なくとも1つは、プロセッサ31が、記憶装置33に記憶されたプログラムを実行することにより実現されてもよい。プログラムを実行する場合、当該プログラムは、記憶媒体に格納されていてもよい。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体であってもよい。非一時的な記憶媒体は、特に限定されないが、例えば、USBメモリ、又はCD-ROM等の記憶媒体であってもよい。
Note that at least one of the
次に、図16を参照しつつ、一実施形態に従う学習済みモデル生成装置が行う処理手順について説明する。図16は、一実施形態における学習済みモデル生成装置10が行う学習済みモデル生成処理S100の一例を説明するためのフローチャートである。
Next, a processing procedure performed by the trained model generation device according to one embodiment will be described with reference to FIG. 16 . FIG. 16 is a flowchart for explaining an example of the trained model generation processing S100 performed by the trained
図16に示すように、まず、通信部110は、通信ネットワークNWを介して、複数の良品画像40を取得する(ステップS101)。取得された複数の良品画像40は、記憶部120に記憶される。
As shown in FIG. 16, first, the
次に、学習用画像生成部131は、記憶部120から複数の良品画像40を読み出し、当該複数の良品画像40に基づいて、複数の学習用画像124を生成する(ステップS102)。学習用画像124は、前述したように、良品分割画像であってもよいし、1つ又は複数の良品分割画像にデータオーギュメンテーションを施したものであってもよい。
Next, the learning
次に、モデル生成部135は、ステップS102において生成された複数の学習用画像124を入力とし、特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル55を生成する。(ステップS103)。生成された複数の学習済みモデル55は、記憶部120に記憶される。
Next, the
次に、通信部110は、ステップS103において生成された複数の学習済みモデル55と、生成する過程で抽出される複数の特徴ベクトル129とを、通信ネットワークNWを介して、画像検査装置20に送信する(ステップS104)。これにより、画像検査装置20は、学習済みモデル生成装置10によって生成された複数の学習済みモデルを使用可能になる。
Next, the
ステップS104の後、学習済みモデル生成装置10は、学習済みモデル生成処理S100を終了する。
After step S104, the learned
次に、図17を参照しつつ、一実施形態に従う画像検査装置が行う処理手順について説明する。図17は、一実施形態における画像検査装置20が行う画像検査処理S200の一例を説明するためのフローチャートである。
Next, a processing procedure performed by the image inspection apparatus according to one embodiment will be described with reference to FIG. 17 . FIG. 17 is a flowchart for explaining an example of image inspection processing S200 performed by the
なお、以下の例では、通信部210が学習済みモデル生成装置10から複数の学習済みモデル55及び複数の特徴ベクトル129を受信し、記憶部220に当該複数の学習済みモデル55及び複数の特徴ベクトル129が記憶されているものとして、説明する。
In the following example, the
図17に示すように、まず、撮像部240が、検査対象物TAの検査画像を取得する(ステップS201)。取得された検査画像は、分割部250に出力される。
As shown in FIG. 17, first, the
次に、分割部250は、ステップS201において取得された検査画像を分割し、複数の検査分割画像を生成する(ステップS202)。生成された複数の検査分割画像は、抽出部260に出力される。
Next, the dividing
次に、抽出部260は、記憶部220にあらかじめ記憶された複数の学習済みモデル55を読み出し、ステップS207において生成された複数の検査分割画像を、複数の学習済みモデル55にそれぞれ入力し、複数の特徴ベクトルを抽出する(ステップS203)。生成された複数の特徴ベクトルは、取得部270に出力される。
Next, the
次に、取得部270は、記憶部220にあらかじめ記憶された複数の複数の特徴ベクトル129を読み出し、ステップS207において抽出された複数の特徴ベクトルのそれぞれについて、特徴空間において、特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトル129によって形成される集合とに基づいて、複数の検査分割画像の欠陥度合いを取得する(ステップS204)。得られた複数の欠陥度合いは、検査部280に出力される。
Next, the obtaining
次に、検査部280は、ステップS204において得られた複数の欠陥度合いのそれぞれの値をから複数の部分画像を生成し、生成された各部分画像を統合して欠陥度合い画像を生成する(ステップS205)。
Next, the
次に、検査部280は、ステップS205において生成された欠陥度合い画像に基づいて、検査対象物TAを検査する(ステップS206)。
Next, the
ステップS206の後、画像検査装置20は、画像検査処理S200を終了する。
After step S206, the
なお、本実施形態で説明したシーケンス及びフローチャートは、処理に矛盾が生じない限り、順序を入れ替えてもよい。 It should be noted that the sequence and flowcharts described in this embodiment may be rearranged as long as there is no contradiction in processing.
以上、本発明の例示的な実施形態について説明した。本実施形態における画像検査装置20及び画像検査方法によれば、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル55に、検査分割画像600,602,604,606,608,及び610をそれぞれ入力し、当該検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルを抽出する。これにより、各学習済みモデル55は、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像604の特徴ベクトルが示す点を、当該検査分割画像604に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、各学習済みモデルは、良品の検査対象物TAの良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像の特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、各欠陥度合いを取得し、これら複数の欠陥度合いに基づいて、検査対象物TAを検査することにより、検査対象物TAの検査精度を高めることができる。
Exemplary embodiments of the invention have been described above. According to the
また、本実施形態における学習済みモデル生成装置10によれば、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル55を生成する。これにより、各学習済みモデル55は、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像604の特徴ベクトルが示す点を、当該検査分割画像604に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができる。また、各学習済みモデル55は、良品の検査対象物TAの良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。
Further, according to the trained
なお、以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るとともに、本発明にはその等価物も含まれる。すなわち、実施形態に当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。例えば、実施形態が備える各要素及びその配置、材料、条件、形状、サイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、実施形態は例示であり、異なる実施形態で示した構成の部分的な置換又は組み合わせが可能であることは言うまでもなく、これらも本発明の特徴を含む限り本発明の範囲に包含される。 In addition, the embodiment described above is intended to facilitate understanding of the present invention, and is not intended to limit and interpret the present invention. The present invention may be modified/improved without departing from its spirit, and the present invention also includes equivalents thereof. In other words, any design modifications made by those skilled in the art to the embodiments are also included in the scope of the present invention as long as they have the features of the present invention. For example, each element provided in the embodiment and its arrangement, material, condition, shape, size, etc. are not limited to those illustrated and can be changed as appropriate. In addition, the embodiments are examples, and it goes without saying that partial substitutions or combinations of configurations shown in different embodiments are possible, and these are also included in the scope of the present invention as long as they include the features of the present invention.
[付記1]
良品の検査対象物(TA)の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル(55)に、検査対象物(TA)の分割画像である検査分割画像をそれぞれ入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出する抽出部(260)と、
抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトル(129)によって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部(270)と、
複数の欠陥度合いに基づいて、検査対象物(TA)を検査する検査部(280)と、を備える、
画像検査装置(20)。
[付記12]
良品の検査対象物(TA)の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル(55)に、検査対象物(TA)の分割画像である検査分割画像をそれぞれ入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出するステップと、
抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、
複数の欠陥度合いに基づいて、検査対象物(TA)を検査するステップと、を含む、
画像検査方法。
[付記13]
良品の検査対象物(TA)の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル(55)を生成するモデル生成部(135)を備える、
学習済みモデル生成装置(10)。
[Appendix 1]
The object to be inspected (TA an extraction unit (260) for inputting each inspection divided image, which is a divided image of ), and extracting feature vectors each having a feature amount for the inspection divided image as a component;
For each of the extracted feature vectors, based on the point indicated by the feature vector in the feature space represented by the feature vector and a set formed by a plurality of feature vectors (129) for a plurality of non-defective divided images, an acquisition unit (270) for acquiring a degree of defect indicating the degree of defect of the inspection divided image corresponding to the feature vector;
An inspection unit (280) that inspects the inspection object (TA) based on a plurality of degrees of defects,
An image inspection device (20).
[Appendix 12]
The object to be inspected (TA a step of inputting inspection divided images that are divided images of ) and extracting feature vectors each having a feature amount for the inspection divided images as components;
For each of the extracted feature vectors, based on the point indicated by the feature vector in the feature space represented by the feature vector and the set formed by the plurality of feature vectors for the plurality of non-defective divided images, the feature vector obtaining a degree of defect indicating the degree of defect in the inspection divided image corresponding to;
inspecting the test object (TA) based on the plurality of defect degrees;
Image inspection method.
[Appendix 13]
A model generation unit ( 135),
A trained model generation device (10).
1…画像検査システム、10…モデル生成装置、20…画像検査装置、31…プロセッサ、32…メモリ、33…記憶装置、34…通信装置、35…入力装置、36…出力装置、40…良品画像、42…検査画像、48…欠陥度合い画像、50…学習モデル、50A…学習モデル、50B…学習モデル、50C…学習モデル、51…特徴抽出部、52…特徴判定部、55…学習済みモデル、55A…学習済みモデル、55B…学習済みモデル、55B’ …学習済みモデル、55C…学習済みモデル、60…良品画像、70…欠陥度合い画像、110…通信部、120…記憶部、124…学習用画像、129…特徴ベクトル、130…学習部、131…学習用画像生成部、135…モデル生成部、210…通信部、220…記憶部、230…学習部、240…撮像部、250…分割部、260…抽出部、270…取得部、280…検査部、400…良品分割画像、400’ …良品分割画像、402…良品分割画像、402’ …良品分割画像、404…良品分割画像、404’ …良品分割画像、420…検査分割画像、422…検査分割画像、424…検査分割画像、440…特徴ベクトル、442…特徴ベクトル、444…特徴ベクトル、480…部分画像、482…部分画像、484…部分画像、511…入力層、513…中間層、515…出力層、600…良品分割画像、602…良品分割画像、604…良品分割画像、606…良品分割画像、608…良品分割画像、700…欠陥部分画像、702…欠陥部分画像、IL…照明、L…光、NW…通信ネットワーク、P1…点、P2…点、R…反射光、S1…集合、S2…集合、S100…モデル生成処理、S200…画像検査処理、TA…検査対象物。
REFERENCE SIGNS
Claims (13)
前記抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の前記良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する前記検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部と、
複数の前記欠陥度合いに基づいて、前記検査対象物を検査する検査部と、を備える、
画像検査装置。 A plurality of trained models, each of which is trained to output a feature amount by inputting one or more of non-defective product divided images, which are divided images of a non-defective inspection object, are fed with inspection divided images, which are divided images of the inspection object. and extracting feature vectors each having the feature amount for the inspection divided image as a component;
for each of the extracted feature vectors, based on a point indicated by the feature vector in the feature space represented by the feature vector and a set formed by the plurality of feature vectors for the plurality of non-defective divided images; an acquisition unit that acquires a degree of defect indicating a degree of defect in the inspection divided image corresponding to the feature vector;
an inspection unit that inspects the inspection object based on a plurality of the defect degrees;
Image inspection equipment.
請求項1に記載の画像検査装置。 For each of the extracted feature vectors, the acquisition unit obtains the above-mentioned obtaining the defect degree of the inspection divided image;
The image inspection apparatus according to claim 1.
請求項1に記載の画像検査装置。 For each of the extracted feature vectors, the obtaining unit obtains a point indicated by the feature vector and one of the plurality of feature vectors of the plurality of non-defective divided images in a feature space represented by the feature vector. acquiring the defect degree of the inspection divided image corresponding to the feature vector based on the distance between the points;
The image inspection apparatus according to claim 1.
請求項1から3のいずれか一項に記載の画像検査装置。 The degree of defect is a value indicating the degree of defect in the inspection divided image.
The image inspection apparatus according to any one of claims 1 to 3.
請求項4に記載の画像検査装置。 The inspection unit generates a defect degree image based on a plurality of the defect degrees, and inspects the inspection object based on the defect degree image.
The image inspection apparatus according to claim 4.
請求項1から5のいずれか一項に記載の画像検査装置。 further comprising a learning unit that learns a learning model for each of the one or more non-defective divided images and generates the plurality of learned models;
The image inspection apparatus according to any one of claims 1 to 5.
請求項6に記載の画像検査装置。 The learning unit learns the learning model using one or more of the non-defective divided images subjected to data augmentation as an input, and generates the plurality of trained models.
The image inspection apparatus according to claim 6.
請求項7に記載の画像検査装置。 The data augmentation includes applying at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to the non-defective split image.
The image inspection apparatus according to claim 7.
請求項1から8のいずれか一項に記載の画像検査装置。 further comprising a dividing unit that divides the inspection image of the inspection object into a plurality of the inspection divided images;
The image inspection apparatus according to any one of claims 1 to 8.
請求項1から9のいずれか一項に記載の画像検査装置。 Further comprising an imaging unit for acquiring an inspection image of the inspection object,
The image inspection apparatus according to any one of claims 1 to 9.
請求項1から10のいずれか一項に記載の画像検査装置。 further comprising a storage unit that stores the plurality of trained models;
The image inspection apparatus according to any one of claims 1 to 10.
前記抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の前記良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する前記検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、
複数の前記欠陥度合いに基づいて、前記検査対象物を検査するステップと、を含む、
画像検査方法。 A plurality of trained models, each of which is trained to output a feature amount by inputting one or more of non-defective product divided images, which are divided images of a non-defective inspection object, are fed with inspection divided images, which are divided images of the inspection object. respectively, and extracting feature vectors whose components are the feature amounts for the inspection divided image;
for each of the extracted feature vectors, based on a point indicated by the feature vector in the feature space represented by the feature vector and a set formed by the plurality of feature vectors for the plurality of non-defective divided images; obtaining a defect degree indicating the degree of defect of the inspection divided image corresponding to the feature vector;
inspecting the inspection object based on a plurality of the defect degrees;
Image inspection method.
学習済みモデル生成装置。 A model generation unit that generates a plurality of trained models that are trained to output a feature amount by inputting one or more of non-defective product divided images that are divided images of a non-defective inspection object,
Trained model generator.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021020383A JP2022123217A (en) | 2021-02-12 | 2021-02-12 | Image inspection device, image inspection method, and learned model creation device |
PCT/JP2021/009510 WO2022172469A1 (en) | 2021-02-12 | 2021-03-10 | Image inspection device, image inspection method, and trained model generation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021020383A JP2022123217A (en) | 2021-02-12 | 2021-02-12 | Image inspection device, image inspection method, and learned model creation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022123217A true JP2022123217A (en) | 2022-08-24 |
Family
ID=82837622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021020383A Pending JP2022123217A (en) | 2021-02-12 | 2021-02-12 | Image inspection device, image inspection method, and learned model creation device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022123217A (en) |
WO (1) | WO2022172469A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6973207B1 (en) * | 1999-11-30 | 2005-12-06 | Cognex Technology And Investment Corporation | Method and apparatus for inspecting distorted patterns |
JP6573226B2 (en) * | 2017-12-15 | 2019-09-11 | オムロン株式会社 | DATA GENERATION DEVICE, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM |
JP2020052520A (en) * | 2018-09-25 | 2020-04-02 | エヌ・ティ・ティ・コムウェア株式会社 | Determination device, determination method, and program |
JP2020181532A (en) * | 2019-04-26 | 2020-11-05 | 富士通株式会社 | Image determination device and image determination method |
-
2021
- 2021-02-12 JP JP2021020383A patent/JP2022123217A/en active Pending
- 2021-03-10 WO PCT/JP2021/009510 patent/WO2022172469A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022172469A1 (en) | 2022-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6792842B2 (en) | Visual inspection equipment, conversion data generation equipment, and programs | |
WO2023077404A1 (en) | Defect detection method, apparatus and system | |
CN109871895B (en) | Method and device for detecting defects of circuit board | |
WO2019117065A1 (en) | Data generation device, data generation method and data generation program | |
US20230386013A1 (en) | Method and system for scanning wafer | |
US20190012781A1 (en) | Iterative defect filtering process | |
JP2017049974A (en) | Discriminator generator, quality determine method, and program | |
JP2017211259A (en) | Inspection device, inspection method and program | |
JP2016115331A (en) | Identifier generator, identifier generation method, quality determination apparatus, quality determination method and program | |
JP2019163993A (en) | Defect inspection device, and defect inspection method | |
TW201512649A (en) | Method of chip detects inspecting, system therefor, and computer program product thereof | |
JP2020112483A (en) | Exterior appearance inspection system, calculation model construction method and calculation model construction program | |
US8606017B1 (en) | Method for inspecting localized image and system thereof | |
CN115908988B (en) | Defect detection model generation method, device, equipment and storage medium | |
WO2022172469A1 (en) | Image inspection device, image inspection method, and trained model generation device | |
CN112184717A (en) | Automatic segmentation method for quality inspection | |
WO2022172475A1 (en) | Image inspection device, image inspection method, and trained model generation device | |
US8300918B2 (en) | Defect inspection apparatus, defect inspection program, recording medium storing defect inspection program, figure drawing apparatus and figure drawing system | |
JP7465446B2 (en) | Image inspection device, image inspection method, and trained model generation device | |
CN115222649A (en) | System, apparatus and method for detecting and classifying patterns of heatmaps | |
KR20230036650A (en) | Defect detection method and system based on image patch | |
WO2022172470A1 (en) | Image inspection device, image inspection method, and trained model generation device | |
WO2022172468A1 (en) | Image inspection device, image inspection method, and trained model generation device | |
WO2021229901A1 (en) | Image inspection device, image inspection method, and prelearned model generation device | |
WO2023089846A1 (en) | Inspection device and inspection method, and program for use in same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231212 |