JP2022123217A - Image inspection device, image inspection method, and learned model creation device - Google Patents

Image inspection device, image inspection method, and learned model creation device Download PDF

Info

Publication number
JP2022123217A
JP2022123217A JP2021020383A JP2021020383A JP2022123217A JP 2022123217 A JP2022123217 A JP 2022123217A JP 2021020383 A JP2021020383 A JP 2021020383A JP 2021020383 A JP2021020383 A JP 2021020383A JP 2022123217 A JP2022123217 A JP 2022123217A
Authority
JP
Japan
Prior art keywords
image
inspection
feature
defective
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021020383A
Other languages
Japanese (ja)
Inventor
泰之 池田
Yasuyuki Ikeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2021020383A priority Critical patent/JP2022123217A/en
Priority to PCT/JP2021/009510 priority patent/WO2022172469A1/en
Publication of JP2022123217A publication Critical patent/JP2022123217A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

To plot a feature vector of an inspection image including a special pattern close to a feature vector of a non-defective article image, and plot a feature vector of an inspection image of a defective article away from the feature vector of the non-defective article image.SOLUTION: An image inspection device (20) comprises: an extraction unit (260) that inputs inspection division images being division images of an inspection object (TA) to a plurality of learned models (55) having learned to output feature quantities with one or more of non-defective article division images as input, and thereby extracts feature vectors of the inspection division images; an acquisition unit (270) that, for each of the extracted feature vectors, acquires the degree of defects of the inspection division image corresponding to the feature vector based on a set formed by a point of the feature vector and the plurality of feature vectors (129) of the plurality of non-defective article division images in a feature space; and an inspection unit (280) that inspects the inspection object (TA) based on the plurality of degrees of defects.SELECTED DRAWING: Figure 8

Description

本発明は、画像検査装置、画像検査方法、及び学習済みモデル生成装置に関する。 The present invention relates to an image inspection apparatus, an image inspection method, and a trained model generation apparatus.

従来、対象物を撮影した画像に基づいて、当該対象物の検査を行う画像検査装置が知られている。 2. Description of the Related Art Conventionally, there has been known an image inspection apparatus that inspects an object based on a photographed image of the object.

例えば、特許文献1には、入力される判定対象画像データに基づいて異常を判定する異常判定を行う異常判定装置において、正常画像データ群から抽出される特徴量から正常画像データを再構成するための再構成用パラメータを用いて、判定対象画像データの特徴量から再構成画像データを生成し、生成した再構成画像データと該判定対象画像データとの差異情報に基づいて異常判定を行うための異常判定処理を実行する処理実行手段を有するものが記載されている。特許文献1の異常判定装置は、判定対象画像データが複数チャネルの画像データを含む場合、再構成用パラメータを用いて各チャネルの画像データの特徴量から再構成画像データをチャネルごとに生成し、生成した各再構成画像データと該判定対象画像データの各チャネルの画像データとの差異情報に基づいて異常判定を行っている。 For example, Japanese Patent Laid-Open No. 2002-200000 discloses an anomaly determination apparatus that performs an anomaly determination based on input image data to be determined. for generating reconstructed image data from the feature amount of the determination target image data using the reconstruction parameters of and performing abnormality determination based on difference information between the generated reconstructed image data and the determination target image data It has a process executing means for executing an abnormality determination process. When image data to be determined includes image data of a plurality of channels, the abnormality determination device of Patent Document 1 generates reconstructed image data for each channel from the feature amount of the image data of each channel using reconstruction parameters, Abnormality determination is performed based on difference information between each generated reconstructed image data and image data of each channel of the determination target image data.

特開2018-5773号公報JP 2018-5773 A

ここで、従来、良品の対象物の良品画像を小さいサイズに分割して入力し、当該良品画像の特徴量を出力するように学習させた学習済みモデルを用い、特徴空間において、検査画像から抽出した特徴ベクトルと良品画像の特徴ベクトルとに基づいて、検査画像の欠陥を検出する方法があった。 Here, conventionally, a non-defective product image of a non-defective object is divided into small sizes and input, and a trained model trained to output the feature amount of the non-defective product image is extracted from the inspection image in the feature space. There has been a method for detecting defects in an inspection image based on the feature vector obtained by the inspection and the feature vector of the non-defective product image.

しかしながら、良品画像に局所的に特殊パターンが存在する場合、この特殊パターンを含む良品画像の特徴ベクトルは、特徴空間において、他の良品画像の特徴ベクトルから離れた位置にプロットされてしまい、特殊パターンを含む対象物を不良品として検出してしまうことがあった。 However, when a non-defective product image has a local special pattern, the feature vector of the non-defective product image including this special pattern is plotted at a position distant from the feature vectors of other non-defective product images in the feature space. In some cases, objects containing

また、別の良品画像が、ある位置では良品である一方、別の位置では不良品であるパターンを含む場合、このようなパターンを当該別の位置に含む検査画像の特徴ベクトルは、特徴空間において、良品画像の特徴ベクトルの近くにプロットされることになり、不良品を見逃してしまうことがあった。 Also, if another good image contains a pattern that is good at one location and bad at another location, the feature vector of the inspection image that includes such a pattern at the other location is , is plotted near the feature vector of the non-defective product image, and the defective product may be overlooked.

本発明は、このような事情に鑑みてなされたものであり、良品画像の特徴ベクトルに対し、特殊パターンを含む検査画像の特徴ベクトルを近くにプロットするとともに、不良品の検査画像の特徴ベクトルを遠くにプロットすることのできる画像検査装置、画像検査方法、及び学習済みモデル生成装置を提供することを目的の1つとする。 The present invention has been made in view of such circumstances, and plots the feature vector of an inspection image containing a special pattern close to the feature vector of a non-defective product image, and plots the feature vector of an inspection image of a defective product. One of the objects is to provide an image inspection device, an image inspection method, and a trained model generation device that are capable of plotting at a distance.

本開示の一態様に係る画像検査装置は、良品の検査対象物の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルに、検査対象物の分割画像である検査分割画像をそれぞれ入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出する抽出部と、抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部と、複数の欠陥度合いに基づいて、検査対象物を検査する検査部と、を備える。 An image inspection apparatus according to an aspect of the present disclosure includes a plurality of trained models that are trained to output feature amounts by inputting one or more of non-defective divided images that are divided images of a non-defective inspection object. , an extraction unit for inputting an inspection divided image which is a divided image of an object to be inspected, and extracting a feature vector having a feature amount for the inspection divided image as a component; Indicates the degree of defect of the inspection divided image corresponding to the feature vector based on the point indicated by the feature vector and the set formed by the plurality of feature vectors for the plurality of non-defective divided images in the feature space represented by An acquisition unit that acquires the degree of defect, and an inspection unit that inspects the inspection object based on a plurality of degrees of defect.

この態様によれば、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルに、検査分割画像をそれぞれ入力し、当該検査分割画像に対する特徴ベクトルを抽出する。これにより、各学習済みモデルは、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像の特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、各学習済みモデルは、良品の検査対象物の良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像の特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、各欠陥度合いを取得し、これら複数の欠陥度合いに基づいて、検査対象物を検査することにより、検査対象物の検査精度を高めることができる。 According to this aspect, the test divided image is input to each of a plurality of trained models that have been trained to receive one or more non-defective product divided images and to output the feature amount, respectively, and the feature vector for the test divided image is input. to extract As a result, each trained model can learn a pattern specific to each non-defective divided image. is plotted near the set formed by Therefore, in the feature space, the point indicated by the feature vector of the inspection divided image containing the special pattern can be plotted near the set formed by the feature vectors of the plurality of non-defective product divided images corresponding to the inspection divided image. It is possible to acquire the degree of defect with a small degree of , and determine that the product is non-defective. In addition, each trained model can learn different judgment criteria depending on the position and part of the non-defective product image of the inspection object. In the feature space, the point indicated by the feature vector for each inspection divided image is Different ranges and regions are collected for each position of the inspection divided image. Therefore, in the feature space, a point indicated by a feature vector of an inspection division image at another position, which includes a pattern that is a non-defective product at a certain position but is defective at another position, is defined as a plurality of non-defective product divisions at the other position. It is possible to plot far relative to the set formed by the feature vectors of the image, obtain the degree of defect with a large degree of defect, and suppress overlooking of defective products. Therefore, each defect degree is acquired based on the point indicated by the feature vector of the inspection divided image and the set formed by the plurality of feature vectors for the plurality of non-defective divided images in the feature space, and based on these plurality of defect degrees By inspecting the object to be inspected using the above method, the inspection accuracy of the object to be inspected can be improved.

前述した態様において、取得部は、抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と集合との間の距離に基づいて、該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得してもよい。 In the above-described aspect, for each of the extracted feature vectors, the obtaining unit obtains the feature vector based on the distance between the point indicated by the feature vector and the set in the feature space represented by the feature vector. The defect degree of the corresponding inspection divided image may be obtained.

この態様によれば、特徴ベクトルに対応する検査分割画像の欠陥度合いは、特徴空間における、特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルによって形成される集合との間の距離に基づいて取得される。これにより、検査分割画像の欠陥の程度を容易に示すことができる。 According to this aspect, the defect degree of the inspection divided image corresponding to the feature vector is the distance between the point indicated by the feature vector and the set formed by the plurality of feature vectors of the plurality of non-defective divided images in the feature space. obtained based on This makes it possible to easily indicate the degree of defects in the inspection divided image.

前述した態様において、取得部は、抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて、該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得してもよい。 In the above-described aspect, for each of the extracted feature vectors, the acquisition unit obtains the point indicated by the feature vector in the feature space represented by the feature vector and one of the plurality of feature vectors of the plurality of non-defective divided images. The defect degree of the inspection divided image corresponding to the feature vector may be acquired based on the distance between the points indicated by the two.

この態様によれば、特徴ベクトルに対応する検査分割画像の欠陥度合いは、特徴空間における、特徴ベクトルが示す点P2と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて取得される。これにより、検査分割画像の欠陥の程度を容易に示すことができる。 According to this aspect, the defect degree of the inspection divided image corresponding to the feature vector is between the point P2 indicated by the feature vector and the point indicated by one of the plurality of feature vectors of the plurality of non-defective product divided images in the feature space. is obtained based on the distance of This makes it possible to easily indicate the degree of defects in the inspection divided image.

前述した態様において、欠陥度合いは、検査分割画像の欠陥の程度を示す値であってもよい。 In the aspect described above, the defect degree may be a value indicating the degree of defect in the inspection divided image.

この態様によれば、検査分割画像の欠陥の程度を定量的に示すことができる。 According to this aspect, it is possible to quantitatively indicate the degree of defects in the inspection divided image.

前述した態様において、検査部は、複数の欠陥度合いに基づいて欠陥度合い画像を生成し、該欠陥度合い画像に基づいて検査対象物を検査してもよい。 In the aspect described above, the inspection unit may generate a defect degree image based on a plurality of defect degrees, and inspect the inspection object based on the defect degree image.

この態様によれば、検査対象物が良品であるか不良品であるかを容易に判定することができ、検査精度の高い検査を容易に実現することができる。 According to this aspect, it is possible to easily determine whether an object to be inspected is a non-defective product or a defective product, and it is possible to easily realize inspection with high inspection accuracy.

前述した態様において、1つ又は複数の良品分割画像ごとに学習モデルを学習させ、複数の学習済みモデルを生成する学習部をさらに備えてもよい。 The above aspect may further include a learning unit that learns a learning model for each of one or more non-defective divided images and generates a plurality of trained models.

この態様によれば、1つ又は複数の良品分割画像ごとに学習モデルを学習させ、複数の学習済みモデルを生成する学習部をさらに備える。これにより、学習済みモデル生成装置がなくても、複数の学習済みモデルを得ることができる。 According to this aspect, it further includes a learning unit that learns a learning model for each of one or more non-defective divided images and generates a plurality of trained models. As a result, a plurality of trained models can be obtained without a trained model generation device.

前述した態様において、学習部は、1つ又は複数の良品分割画像にデータオーギュメンテーションを施したものを入力として学習モデルを学習させ、複数の学習済みモデルを生成してもよい。 In the above-described aspect, the learning unit may learn a learning model using one or a plurality of non-defective divided images subjected to data augmentation as an input, and generate a plurality of trained models.

この態様によれば、1つ又は複数の良品分割画像にデータオーギュメンテーションを施したものを入力として学習モデルを学習させ、複数の学習済みモデルが生成される。これにより、限られた数の良品分割画像を増やすことができ、各学習済みモデルは、良品分割画像のばらつきに対するロバスト性を高めたロバスト設計にすることができる。 According to this aspect, one or a plurality of non-defective divided images subjected to data augmentation are used as inputs to learn a learning model, and a plurality of trained models are generated. As a result, the limited number of non-defective split images can be increased, and each trained model can be designed to be robust against variations in non-defective split images.

前述した態様において、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、平行移動、回転、拡大、縮小、左右反転、上下反転、及びフィルタ処理のうちの少なくとも1つを適用することを含んでもよい。 In the aforementioned aspects, the data augmentation applies at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to the one or more good split images. may include

この態様によれば、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、平行移動、回転、拡大、縮小、左右反転、上下反転、及びフィルタ処理のうちの少なくとも1つを適用することを含む。これにより、良品分割画像のバリエーションを容易に得ることができる。 According to this aspect, the data augmentation applies at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to the one or more good split images. including doing This makes it possible to easily obtain variations of non-defective divided images.

前述した態様において、検査対象物の検査画像を複数の検査分割画像に分割する分割部をさらに備えてもよい。 The above aspect may further include a dividing unit that divides the inspection image of the inspection object into a plurality of divided inspection images.

この態様によれば、検査対象物の検査画像を複数の検査分割画像に分割する分割部をさらに備える。これにより、検査分割画像を容易に得ることができる。 According to this aspect, it further includes a dividing unit that divides the inspection image of the inspection object into a plurality of divided inspection images. This makes it possible to easily obtain inspection divided images.

前述した態様において、検査対象物の検査画像を取得するための撮像部をさらに備えてもよい。 The aspect described above may further include an imaging unit for acquiring an inspection image of the inspection object.

この態様によれば、検査対象物の検査画像を取得するための撮像部をさらに備える。これにより、検査画像を容易に得ることができる。 According to this aspect, it further includes an imaging unit for acquiring an inspection image of the inspection object. This makes it possible to easily obtain an inspection image.

前述した態様において、複数の学習済みモデルを記憶する記憶部をさらに備えてもよい。 The above aspect may further include a storage unit that stores a plurality of trained models.

この態様によれば、複数の学習済みモデルを記憶する記憶部をさらに備える。これにより、各学習済みモデルを容易に読み出すことができる。 According to this aspect, it further includes a storage unit that stores a plurality of trained models. This makes it possible to easily read out each learned model.

本開示の他の態様に係る画像検査方法は、良品の検査対象物の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルに、検査対象物の分割画像である検査分割画像をそれぞれ入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出するステップと、抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、複数の欠陥度合いに基づいて、検査対象物を検査するステップと、を含む。 An image inspection method according to another aspect of the present disclosure includes a plurality of trained models each learned to output a feature amount by inputting one or more of non-defective divided images, which are divided images of a non-defective inspection object. inputting inspection divided images, which are divided images of an object to be inspected, into the step of respectively extracting feature vectors whose components are feature amounts for the inspection divided images; Indicates the degree of defect of the inspection divided image corresponding to the feature vector based on the point indicated by the feature vector and the set formed by the plurality of feature vectors for the plurality of non-defective divided images in the feature space represented by The method includes the step of acquiring defect degrees, and the step of inspecting an inspection object based on a plurality of defect degrees.

この態様によれば、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルに、検査分割画像をそれぞれ入力し、当該検査分割画像に対する特徴ベクトルを抽出する。これにより、各学習済みモデルは、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像の特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、各学習済みモデルは、良品の検査対象物の良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像の特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、各欠陥度合いを取得し、これら複数の欠陥度合いに基づいて、検査対象物を検査することにより、検査対象物の検査精度を高めることができる。 According to this aspect, the test divided image is input to each of a plurality of trained models that have been trained to receive one or more non-defective product divided images and to output the feature amount, respectively, and the feature vector for the test divided image is input. to extract As a result, each trained model can learn a pattern specific to each non-defective divided image. is plotted near the set formed by Therefore, in the feature space, the point indicated by the feature vector of the inspection divided image containing the special pattern can be plotted near the set formed by the feature vectors of the plurality of non-defective product divided images corresponding to the inspection divided image. It is possible to acquire the degree of defect with a small degree of , and determine that the product is non-defective. In addition, each trained model can learn different judgment criteria depending on the position and part of the non-defective product image of the inspection object. In the feature space, the point indicated by the feature vector for each inspection divided image is Different ranges and regions are collected for each position of the inspection divided image. Therefore, in the feature space, a point indicated by a feature vector of an inspection division image at another position, which includes a pattern that is a non-defective product at a certain position but is defective at another position, is defined as a plurality of non-defective product divisions at the other position. It is possible to plot far relative to the set formed by the feature vectors of the image, obtain the degree of defect with a large degree of defect, and suppress overlooking of defective products. Therefore, each defect degree is acquired based on the point indicated by the feature vector of the inspection divided image and the set formed by the plurality of feature vectors for the plurality of non-defective divided images in the feature space, and based on these plurality of defect degrees By inspecting the object to be inspected using the above method, the inspection accuracy of the object to be inspected can be improved.

本開示の他の態様に係る学習済みモデル生成装置は、良品の検査対象物の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルを生成するモデル生成部を備える。 A trained model generation device according to another aspect of the present disclosure provides a plurality of learned model generation devices each trained to output a feature amount by inputting one or more of non-defective product divided images, which are divided images of a non-defective product inspection object. A model generating unit for generating a finished model is provided.

この態様によれば、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルを生成する。これにより、各学習済みモデルは、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像の特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができる。また、各学習済みモデルは、良品の検査対象物の良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。 According to this aspect, a plurality of trained models are generated that are trained to receive one or more non-defective divided images as input and output feature amounts. As a result, each trained model can learn a pattern specific to each non-defective divided image. is plotted near the set formed by Therefore, in the feature space, the point indicated by the feature vector of the inspection divided image containing the special pattern can be plotted near the set formed by the feature vectors of the plurality of non-defective product divided images corresponding to the inspection divided image. In addition, each trained model can learn different judgment criteria depending on the position and part of the non-defective product image of the inspection object. In the feature space, the point indicated by the feature vector for each inspection divided image is Different ranges and regions are collected for each position of the inspection divided image. Therefore, in the feature space, a point indicated by a feature vector of an inspection division image at another position, which includes a pattern that is a non-defective product at a certain position but is defective at another position, is defined as a plurality of non-defective product divisions at the other position. It can be plotted against the set formed by the feature vectors of the image.

本発明によれば、良品画像の特徴ベクトルに対し、特殊パターンを含む検査画像の特徴ベクトルを近くにプロットするとともに、不良品の検査画像の特徴ベクトルを遠くにプロットすることができる。 According to the present invention, the feature vector of the inspection image including the special pattern can be plotted near the feature vector of the non-defective product image, and the feature vector of the inspection image of the defective product can be plotted far away.

図1は、一実施形態における画像検査システムの概略構成を例示する構成図である。FIG. 1 is a configuration diagram illustrating a schematic configuration of an image inspection system according to one embodiment. 図2は、一実施形態における学習済みモデル生成装置及び画像検査装置の物理的構成を示す構成図である。FIG. 2 is a configuration diagram showing the physical configuration of a trained model generation device and an image inspection device in one embodiment. 図3は、一実施形態における学習済みモデル生成装置の機能ブロックの構成を示す構成図である。FIG. 3 is a configuration diagram showing the configuration of functional blocks of a trained model generation device according to one embodiment. 図4は、図3に示す学習用画像生成部による良品分割画像の生成を説明するための概念図である。FIG. 4 is a conceptual diagram for explaining generation of non-defective divided images by the learning image generation unit shown in FIG. 図5は、図3に示すモデル生成部が使用する学習モデルを説明するための概念図である。FIG. 5 is a conceptual diagram for explaining a learning model used by the model generating unit shown in FIG. 3; 図6は、図3に示すモデル生成部による複数の学習済みモデルの生成の一例を説明するための概念図である。FIG. 6 is a conceptual diagram for explaining an example of generation of a plurality of trained models by the model generating unit shown in FIG. 3; 図7は、図3に示すモデル生成部による複数の学習済みモデルの生成の他の例を説明するための概念図である。7 is a conceptual diagram for explaining another example of generation of a plurality of trained models by the model generation unit shown in FIG. 3. FIG. 図8は、一実施形態における画像検査装置の機能ブロックの構成を示す構成図である。FIG. 8 is a configuration diagram showing the configuration of functional blocks of the image inspection apparatus according to one embodiment. 図9は、欠陥度合いを取得する方法の一例を説明するための概念図である。FIG. 9 is a conceptual diagram for explaining an example of a method of acquiring the degree of defect. 図10は、欠陥度合いを取得する方法の他の例を説明するための概念図である。FIG. 10 is a conceptual diagram for explaining another example of the method of acquiring the degree of defect. 図11は、図8に示す、分割部、抽出部、及び取得部による処理の一例を説明するための概念図である。11 is a conceptual diagram for explaining an example of processing by the dividing unit, the extracting unit, and the obtaining unit shown in FIG. 8. FIG. 図12は、図8に示す、分割部、抽出部、及び取得部による処理の他の例を説明するための概念図である。12 is a conceptual diagram for explaining another example of processing by the dividing unit, the extracting unit, and the acquiring unit shown in FIG. 8. FIG. 図13は、検査画像の一例を示す図である。FIG. 13 is a diagram showing an example of an inspection image. 図14は、図8に示す検査部による処理を説明するための概念図である。14 is a conceptual diagram for explaining the processing by the inspection unit shown in FIG. 8. FIG. 図15は、欠陥度合い画像の一例を示す図である。FIG. 15 is a diagram showing an example of a defect degree image. 図16は、一実施形態における学習済みモデル生成装置が行う学習済みモデル生成処理の一例を説明するためのフローチャートである。FIG. 16 is a flowchart for explaining an example of a trained model generation process performed by the trained model generation device according to one embodiment. 図17は、一実施形態における画像検査装置が行う画像検査処理の一例を説明するためのフローチャートである。FIG. 17 is a flowchart for explaining an example of image inspection processing performed by the image inspection apparatus according to one embodiment.

以下に本発明の実施形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号で表している。但し、図面は模式的なものである。従って、具体的な寸法等は以下の説明を照らし合わせて判断するべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。さらに、本発明の技術的範囲は、当該実施形態に限定して解するべきではない。 Embodiments of the present invention are described below. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. However, the drawings are schematic. Therefore, specific dimensions and the like should be determined by referring to the following description. In addition, it goes without saying that there are portions with different dimensional relationships and ratios between the drawings. Furthermore, the technical scope of the present invention should not be construed as being limited to this embodiment.

まず、図1を参照しつつ、一実施形態に従う画像検査システムの構成について説明する。図1は、一実施形態における画像検査システム1の概略構成を例示する構成図である。 First, the configuration of an image inspection system according to one embodiment will be described with reference to FIG. FIG. 1 is a configuration diagram illustrating a schematic configuration of an image inspection system 1 according to one embodiment.

図1に示すように、画像検査システム1は、画像検査装置20及び照明ILを含む。画像検査装置20は、通信ネットワークNWを介して、学習済みモデル生成装置10に接続されている。照明ILは、検査対象物TAに光Lを照射する。画像検査装置20は、反射光Rを撮影し、検査対象物TAの画像(以下、「検査画像」ともいう)に基づいて、検査対象物TAの検査を行う。学習済みモデル生成装置10は、画像検査装置20が検査を行うために用いる学習済みモデルを生成する。 As shown in FIG. 1, the image inspection system 1 includes an image inspection device 20 and illumination IL. The image inspection device 20 is connected to the trained model generation device 10 via the communication network NW. The illumination IL irradiates the light L onto the inspection object TA. The image inspection device 20 captures the reflected light R and inspects the inspection object TA based on the image of the inspection object TA (hereinafter also referred to as the “inspection image”). The trained model generating device 10 generates a trained model used by the image inspection device 20 for inspection.

次に、図2を参照しつつ、一実施形態に従う学習済みモデル生成装置及び画像検査装置の物理的構成について説明する。図2は、一実施形態における学習済みモデル生成装置10及び画像検査装置20の物理的構成を示す構成図である。 Next, physical configurations of the trained model generation device and the image inspection device according to one embodiment will be described with reference to FIG. FIG. 2 is a configuration diagram showing the physical configuration of the trained model generation device 10 and the image inspection device 20 in one embodiment.

図2に示すように、学習済みモデル生成装置10及び画像検査装置20は、それぞれ、プロセッサ31と、メモリ32と、記憶装置33と、通信装置34と、入力装置35と、出力装置36と、を備える。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。 As shown in FIG. 2, the trained model generation device 10 and the image inspection device 20 each include a processor 31, a memory 32, a storage device 33, a communication device 34, an input device 35, an output device 36, Prepare. These components are connected to each other via a bus so that data can be sent and received.

なお、図2に示す例では、学習済みモデル生成装置10及び画像検査装置20が、それぞれ、一台のコンピュータで構成される場合について説明するが、これに限定されるものではない。学習済みモデル生成装置10及び画像検査装置20は、それぞれ、複数のコンピュータが組み合わされて実現されてもよい。また、図2で示す構成は一例であり、学習済みモデル生成装置10及び画像検査装置20は、それぞれ、これら以外の構成を備えてもよいし、これらの構成のうち一部を備えなくてもよい。 In the example shown in FIG. 2, the trained model generation device 10 and the image inspection device 20 are each composed of one computer, but the invention is not limited to this. The trained model generation device 10 and the image inspection device 20 may each be realized by combining a plurality of computers. Moreover, the configuration shown in FIG. 2 is an example, and the trained model generation device 10 and the image inspection device 20 may each have a configuration other than these, or may not have some of these configurations. good.

プロセッサ31は、学習済みモデル生成装置10及び画像検査装置20の各部の動作を制御するように構成されている。プロセッサ31は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array))、SoC(Sysmtem-on-a-Chip)等の集積回路を含んで構成される。 The processor 31 is configured to control operations of each part of the trained model generation device 10 and the image inspection device 20 .プロセッサ31は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array))、SoC(Sysmtem-on- a-Chip) and other integrated circuits.

メモリ32及び記憶装置33は、それぞれ、プログラムやデータ等を記憶するように構成されている。メモリ32は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)及び/又はRAM(Random Access Memory)等から構成される。記憶装置33は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)及び/又はeMMC(embedded Multi Media Card)等のストレージから構成される。 The memory 32 and the storage device 33 are configured to store programs, data, and the like, respectively. The memory 32 includes, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), and/or RAM (Random Access Memory). The storage device 33 is composed of a storage such as a HDD (Hard Disk Drive), an SSD (Solid State Drive), and/or an eMMC (embedded Multi Media Card).

通信装置34は、有線及び無線の少なくとも一方のネットワークを介して通信を行うように構成されている。通信装置34は、例えば、ネットワークカード、通信モジュール、他の機器に接続するインターフェース等を含んで構成される。 The communication device 34 is configured to communicate via at least one of wired and wireless networks. The communication device 34 includes, for example, a network card, a communication module, an interface for connecting to other devices, and the like.

入力装置35は、ユーザの操作により情報を入力できるように構成されている。入力装置35は、例えば、キーボード、タッチパネル、マウス、ポインティングデバイス、及び/又はマイク等を含んで構成される。 The input device 35 is configured so that information can be input by a user's operation. The input device 35 includes, for example, a keyboard, touch panel, mouse, pointing device, and/or microphone.

出力装置36は、情報を出力するように構成されている。出力装置36は、例えば液晶ディスプレイ、EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、LCD(Liquid Crystal Display)等の表示装置、及び/又はスピーカ等を含んで構成される。 Output device 36 is configured to output information. The output device 36 includes, for example, a display device such as a liquid crystal display, an EL (Electro Luminescence) display, a plasma display, an LCD (Liquid Crystal Display), and/or a speaker.

次に、図3から図7を参照しつつ、一実施形態に従う学習済みモデル生成装置の機能ブロックについて説明する。図3は、一実施形態における学習済みモデル生成装置10の機能ブロックの構成を示す構成図である。図4は、図3に示す学習用画像生成部131による良品分割画像の生成を説明するための概念図である。図5は、図3に示すモデル生成部135が使用する学習モデル50を説明するための概念図である。図6は、図3に示すモデル生成部135による複数の学習済みモデル55の生成の一例を説明するための概念図である。図7は、図3に示すモデル生成部135による複数の学習済みモデル55の生成の他の例を説明するための概念図である。 Next, functional blocks of the trained model generation device according to one embodiment will be described with reference to FIGS. 3 to 7. FIG. FIG. 3 is a configuration diagram showing the configuration of functional blocks of the trained model generation device 10 according to one embodiment. FIG. 4 is a conceptual diagram for explaining generation of non-defective divided images by the learning image generation unit 131 shown in FIG. FIG. 5 is a conceptual diagram for explaining the learning model 50 used by the model generator 135 shown in FIG. FIG. 6 is a conceptual diagram for explaining an example of generation of a plurality of trained models 55 by the model generation unit 135 shown in FIG. FIG. 7 is a conceptual diagram for explaining another example of generation of the plurality of trained models 55 by the model generation unit 135 shown in FIG.

図3に示すように、学習済みモデル生成装置10は、通信部110と、記憶部120と、学習部130と、を備える。 As shown in FIG. 3, the trained model generation device 10 includes a communication unit 110, a storage unit 120, and a learning unit .

通信部110は、各種の情報を送信及び受信可能に構成されている。通信部110は、例えば、通信ネットワークNWを介して、後述する学習済みモデル55を画像検査装置20に送信する。また、通信部110は、例えば、通信ネットワークNWを介して、他の装置から良品画像を受信する。すなわち、通信部110は、良品と判定された検査対象物TAの画像である良品画像を取得する。通信部110によって取得された複数の良品画像(以下、それぞれを区別しない場合にその1つを「良品画像40」ともいう)は、記憶部120に書き込まれて記憶される。 The communication unit 110 is configured to be able to transmit and receive various types of information. The communication unit 110 transmits a learned model 55, which will be described later, to the image inspection apparatus 20, for example, via the communication network NW. Also, the communication unit 110 receives non-defective product images from other devices, for example, via the communication network NW. That is, the communication unit 110 acquires a non-defective product image, which is an image of the inspection object TA determined to be a non-defective product. A plurality of non-defective product images acquired by the communication unit 110 (hereinafter, one of the non-defective product images 40 is also referred to as a “non-defective product image 40” when not distinguished from each other) is written and stored in the storage unit 120 .

記憶部120は、各種の情報を記憶するように構成されている。記憶部120は、例えば、良品画像40と、複数の学習用画像(以下、それぞれを区別しない場合にその1つを「学習用画像124」ともいう)と、複数の学習済みモデル(以下、それぞれを区別しない場合にその1つを「学習済みモデル55」ともいう)と、複数の特徴ベクトル(以下、それぞれを区別しない場合にその1つを「特徴ベクトル129」ともいう)と、を記憶する。 The storage unit 120 is configured to store various types of information. The storage unit 120 stores, for example, a non-defective product image 40, a plurality of learning images (hereinafter, one of them is also referred to as a “learning image 124” if they are not distinguished), and a plurality of trained models (hereinafter each , one of which is also referred to as a "learned model 55") and a plurality of feature vectors (hereinafter, one of which is also referred to as a "feature vector 129" when not distinguished). .

学習部130は、学習モデルを学習させて学習済みモデルを生成するためのものである。学習部130は、例えば、学習用画像生成部131及びモデル生成部135を含む。 The learning unit 130 is for learning a learning model and generating a trained model. The learning unit 130 includes, for example, a learning image generation unit 131 and a model generation unit 135 .

学習用画像生成部131は、学習用画像124を生成するように構成されている。学習用画像124は、学習済みモデル55を生成するために用いられる画像である。学習用画像124は、例えば、1つの良品画像を複数に分割した画像(以下「良品分割画像」という)である。 The learning image generation unit 131 is configured to generate the learning image 124 . The learning image 124 is an image used to generate the trained model 55 . The learning image 124 is, for example, an image obtained by dividing one non-defective product image into a plurality of images (hereinafter referred to as “non-defective product divided images”).

より詳細には、学習用画像生成部131は、記憶部120に記憶された複数の良品画像40のうちの1つを読み出し、当該良品画像40を複数の良品分割画像に分割して学習用画像124を生成する。生成された学習用画像124は、記憶部120に書き込まれて記憶される。 More specifically, the learning image generation unit 131 reads one of the plurality of non-defective product images 40 stored in the storage unit 120, divides the non-defective product image 40 into a plurality of non-defective product divided images, and generates learning images. 124 is generated. The generated learning image 124 is written and stored in the storage unit 120 .

図4に示すように、学習用画像生成部131は、良品画像40について、例えば、縦及び横にそれぞれ4分割することで、16個の良品分割画像を生成する。なお、良品画像40は、2個以上の良品分割画像に分割されれば足り、2から15個の良品分割画像に分割されてもよいし、17個以上の良品分割画像に分割されてもよい。 As shown in FIG. 4, the learning image generation unit 131 generates 16 non-defective divided images by vertically and horizontally dividing the non-defective product image 40 into four, for example. The non-defective product image 40 may be divided into two or more non-defective divided images, and may be divided into 2 to 15 non-defective divided images, or may be divided into 17 or more non-defective divided images. .

また、学習用画像生成部131は、1つ又は複数の良品分割画像にデータオーギュメンテーションを施し、データオーギュメンテーションが施されたものを学習用画像124として生成してもよい。 Further, the learning image generation unit 131 may perform data augmentation on one or a plurality of non-defective divided images and generate the data augmented image as the learning image 124 .

データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、平行移動、回転、拡大、縮小、左右反転、上下反転、及びフィルタ処理のうちの少なくとも1つを適用することを含む。フィルタ処理に用いるフィルタは、例えば、良品分割画像の明度を変換するフィルタであったり、ノイズを除去する平滑化フィルタであったり、エッジを抽出するフィルタであったりしてよく、任意のフィルタを用いることができる。 Data augmentation includes applying at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to one or more good split images. The filter used for filtering may be, for example, a filter that converts the brightness of the non-defective divided image, a smoothing filter that removes noise, or a filter that extracts edges, and any filter is used. be able to.

なお、データオーギュメンテーションは、前述した手法に限定されるものではない。例えば、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、射影変換を行ったり、ランダムノイズを付加したりしもてよい。 Note that data augmentation is not limited to the method described above. For example, data augmentation may perform a projective transformation or add random noise to one or more good split images.

モデル生成部135は、1つ又は複数の良品分割画像ごとに学習モデルを学習させ、複数の学習済みモデル55を生成するように構成されている。各学習済みモデル55は、例えば、1つ又は複数の良品分割画像を入力とし、特徴量を出力するモデルである。あるいは、各学習済みモデル55は、1つ又は複数の良品分割画像にデータオーギュメンテーションを施したものを入力とし、特徴量を出力するモデルであってもよい。以下において、特に明示する場合を除き、各学習済みモデル55は、1つ又は複数の良品分割画像を入力して生成されたものとして、説明する。 The model generating unit 135 is configured to learn a learning model for each of one or more non-defective divided images and generate a plurality of trained models 55 . Each trained model 55 is, for example, a model that receives one or more non-defective divided images as input and outputs a feature amount. Alternatively, each trained model 55 may be a model that receives as input one or a plurality of non-defective divided images subjected to data augmentation and outputs a feature amount. In the following description, each trained model 55 is assumed to be generated by inputting one or more non-defective divided images, unless otherwise specified.

図5に示すように、モデル生成部135が学習済みモデル55を生成するために用いる学習モデル50は、特徴抽出部51と特徴判定部52とを含んで構成されている。特徴抽出部51には、例えば、ニューラルネットワークの1つであって、教師なし機械学習の手法の1つでもあるオートエンコーダが用いられ、オートエンコーダは、入力層511と、出力層515と、入力層511と出力層515との間に配置されている中間層513と、を含んでいる。一方、特徴判定部52は、例えばニューラルネットワークが用いられる。 As shown in FIG. 5 , the learning model 50 used by the model generation unit 135 to generate the trained model 55 includes a feature extraction unit 51 and a feature determination unit 52 . For the feature extraction unit 51, for example, an autoencoder, which is one of neural networks and one of unsupervised machine learning techniques, is used. and an intermediate layer 513 positioned between layer 511 and output layer 515 . On the other hand, the feature determination unit 52 uses, for example, a neural network.

なお、特徴抽出部51は、オートエンコーダを用いる場合に限定されるものではなく、例えば、PCA(Principal Component Analysis)を用いてもよい。また、中間層513は、1層である場合に限定されず、2層以上であってもよい。さらに、特徴判定部52は、ニューラルネットワークを用いる場合に限定されるものではなく、例えば、One Class SVM(Support Vector Machine)を用いてもよい。 Note that the feature extraction unit 51 is not limited to the case of using an autoencoder, and may use, for example, PCA (Principal Component Analysis). Further, the intermediate layer 513 is not limited to one layer, and may be two or more layers. Furthermore, the feature determination unit 52 is not limited to the case of using a neural network, and for example, a One Class SVM (Support Vector Machine) may be used.

入力層511に入力画像が入力されると、中間層513において入力画像の次元が削減される。そして、出力層515において次元を戻して出力画像が出力される。特徴抽出部51のオートエンコーダは、入力画像と出力画像との間の差が最小となるように、重み(係数ともいう)を学習する。より詳細には、円形状で表される各ノードは、線で表される各エッジにおいて固有の重み付けを行い、重み付けされた値が次の層のノードに入力される。この重み付けにおける重みを学習することで、入力画像に含まれる各画素と、出力画像に含まる対応する各画素との差が最小になる。この学習によって、中間層513から特徴量、具体的には中間特徴量を抽出することが可能となる。 When an input image is input to the input layer 511 , the dimension of the input image is reduced in the intermediate layer 513 . Then, the dimensions are restored in the output layer 515 to output an output image. The autoencoder of the feature extraction unit 51 learns weights (also called coefficients) so that the difference between the input image and the output image is minimized. More specifically, each node, represented by a circle, has a unique weighting at each edge, represented by a line, and the weighted values are input to the nodes of the next layer. By learning the weight in this weighting, the difference between each pixel included in the input image and each corresponding pixel included in the output image is minimized. Through this learning, it becomes possible to extract the feature quantity, specifically the intermediate feature quantity, from the intermediate layer 513 .

オートエンコーダの中間層513から抽出された中間特徴量が特徴判定部52に入力されると、特徴量、具体的には出力特徴量が出力される。 When the intermediate feature amount extracted from the intermediate layer 513 of the autoencoder is input to the feature determination unit 52, the feature amount, specifically, the output feature amount is output.

ここで、特徴量は、求めたい事物の特徴を定量的に表した変数である。特徴判定部52から出力される出力特徴量は、例えば良品分割画像であることを特徴づけるものであり、具体的には良品分割画像が有する濃淡の配列、良品分割画像における輝度、赤単体、緑単体、青単体、又は赤・緑・青(RGB)のヒストグラム等が挙げられる。一般的に、良品分割画像は、1種類の特徴量だけで良品の分割画像であることを認識可能である場合は少なく、複数種類の特徴量を用いて良品の分割画像であることを認識できる場合が多い。 Here, the feature amount is a variable that quantitatively expresses the feature of the thing to be obtained. The output feature quantity output from the feature determination unit 52 is, for example, a feature that characterizes a non-defective product divided image. Single, blue single, or red/green/blue (RGB) histograms can be used. In general, there are few cases where it is possible to recognize that a non-defective divided image is a non-defective divided image using only one type of feature amount, and it is possible to recognize that a non-defective divided image is a non-defective divided image using a plurality of types of feature amounts. often.

この1つ又は複数の特徴量を成分としてベクトル形式で表現したものが特徴ベクトルである。特徴量の数(個数)は、当該特徴ベクトルの次元(次元数)を表す。特徴ベクトルで表現される空間、別の言い方をすれば、特徴ベクトルによって張られる空間は、特徴空間と呼ばれ、特徴ベクトルは特徴空間上の1点として表される。例えば特徴判定部52がd個(dは正の整数)の出力特徴量を出力するように学習された場合、学習済みモデル55によって、入力された画像からd次元ベクトルの特徴ベクトル129を抽出することができ、抽出された特徴ベクトル129は、d次元空間の特徴空間における1点で表すことができる。 A feature vector is a vector representation of one or more feature amounts as components. The number (number) of feature amounts represents the dimension (number of dimensions) of the feature vector. A space represented by feature vectors, in other words, a space spanned by feature vectors is called a feature space, and a feature vector is represented as one point in the feature space. For example, when the feature determination unit 52 is trained to output d (d is a positive integer) output feature amounts, the trained model 55 extracts a d-dimensional vector feature vector 129 from the input image. , and the extracted feature vector 129 can be represented by a point in the feature space of the d-dimensional space.

特徴判定部52のニューラルネットワークは、特徴空間における各点の距離が近くなるように、重み(係数ともいう)を学習する。より詳細には、特徴抽出部51のオートエンコーダにおける重みを固定した上で、入力層511に入力画像を入力して中間層513から中間特徴量を得る。そして、出力特徴量を成分とする特徴ベクトルで表現される特徴空間において、それぞれの入力画像に対応する出力特徴量の特徴ベクトルが示す各点の間の距離が近くなるように、特徴判定部52のニューラルネットワークにおける重みを学習する。この学習によって、特徴判定部52は出力特徴量を出力することが可能となる。なお、出力特徴量の次元と中間特徴量の次元とは、同じであってもよいし、互いに異なっていてもよい。 The neural network of the feature determination unit 52 learns weights (also referred to as coefficients) so that the distances between points in the feature space are reduced. More specifically, after fixing the weights in the autoencoder of the feature extraction unit 51 , an input image is input to the input layer 511 and an intermediate feature amount is obtained from the intermediate layer 513 . Then, in a feature space represented by a feature vector having the output feature amount as a component, the feature determination unit 52 adjusts the distance between each point indicated by the feature vector of the output feature amount corresponding to each input image to be short. learn the weights in the neural network of This learning enables the feature determination unit 52 to output the output feature amount. Note that the dimension of the output feature quantity and the dimension of the intermediate feature quantity may be the same or may be different from each other.

本実施形態では、学習モデル50の入力、つまり、入力画像は、例えば良品分割画像であり、学習モデル50の出力、つまり、出力特徴量は、その良品分割画像の特徴量である。図6に示すように、例えば、良品画像40において左上に位置する良品分割画像400のための学習済みモデル55を生成する場合、対応する学習モデル50Aには、複数の良品画像40におけるそれぞれの左上の良品分割画像400が入力される。そして、この学習モデル50Aは、それぞれの左上の良品分割画像400の特徴量を成分とする各特徴ベクトルの示す点が、特徴空間において近い距離にプロットされるように、各重みを学習する。これにより、左上の良品分割画像400の特徴量を出力する学習済みモデル55Aが生成される。このようにして、良品画像40における各良品分割画像400,402,404,・・・について、対応する学習モデル50A,50B,50C,・・・を学習させることで、モデル生成部135は、複数の学習済みモデル55A,55B,55C,・・・を生成する。生成された複数の学習済みモデル55A,55B,55C,・・・は、記憶部120に書き込まれて記憶される。また、モデル生成部135は、各学習済みモデル55A,55B,55C,・・・を生成する過程で、各良品分割画像400,402,404,・・・の特徴ベクトル129を抽出する。抽出された複数の特徴ベクトル129についても、記憶部120に書き込まれて記憶される。例えば、j個の良品画像のそれぞれをk個に分割する場合、抽出され、記憶される特徴ベクトル129の数は、例えばj×k個である。なお、複数の特徴ベクトル129のそれぞれの次元dは、同じであってもよいし、互いに異なっていてもよい。 In this embodiment, the input of the learning model 50, that is, the input image is, for example, a non-defective divided image, and the output of the learning model 50, that is, the output feature amount is the feature amount of the non-defective divided image. As shown in FIG. 6, for example, when generating a trained model 55 for a non-defective product segmented image 400 positioned at the upper left of a non-defective product image 40, the corresponding learning model 50A includes the upper left corners of the non-defective product images 40, respectively. is input. Then, this learning model 50A learns each weight so that points indicated by each feature vector whose component is the feature quantity of each upper left non-defective divided image 400 are plotted at close distances in the feature space. As a result, a trained model 55A that outputs the feature amount of the non-defective product divided image 400 on the upper left is generated. In this way, the model generating unit 135 learns the corresponding learning models 50A, 50B, 50C, . , trained models 55A, 55B, 55C, . . . The generated learned models 55A, 55B, 55C, . . . are written and stored in the storage unit 120. FIG. In addition, the model generation unit 135 extracts the feature vector 129 of each non-defective divided image 400, 402, 404, . A plurality of extracted feature vectors 129 are also written and stored in the storage unit 120 . For example, when each of the j non-defective images is divided into k pieces, the number of extracted and stored feature vectors 129 is j×k, for example. Note that the dimension d of each of the plurality of feature vectors 129 may be the same or different.

学習モデル50は、入力として良品画像40の1つの位置の良品分割画像を用いる場合に限定されるものではない。言い換えれば、良品画像40を分割する数、例えば分割数m(mは2以上の整数)と、学習に用いる学習モデル50の数及び生成される学習済みモデル55の数、例えば生成数n(nは2以上の整数)とは、同じ数である場合に限定されるものではない。学習モデル50は、複数の良品分割画像、例えば、良品分割画像400及び良品分割画像402を入力画像として学習されてもよい。この場合、良品分割画像400及び良品分割画像402の2つのエリアの良品分割画像の特徴量を出力する学習済みモデル55が生成される。 The learning model 50 is not limited to the case of using a non-defective product divided image at one position of the non-defective product image 40 as an input. In other words, the number of divisions of the non-defective product image 40, such as the division number m (m is an integer of 2 or more), the number of learning models 50 used for learning, and the number of generated trained models 55, such as the number of generation n (n is an integer of 2 or more) is not limited to being the same number. The learning model 50 may be trained using a plurality of non-defective product divided images, for example, the non-defective product divided image 400 and the non-defective product divided image 402 as input images. In this case, a trained model 55 is generated that outputs the feature amounts of the non-defective product divided images of the two areas of the non-defective product divided image 400 and the non-defective product divided image 402 .

また、図7に示すように、良品画像40を分割した複数の良品分割画像400’、402’、404’,・・・のうち、例えば、良品分割画像402’と良品分割画像404’とが類似する場合、それぞれに用いる学習モデル50を統合してもよい。すなわち、互いに類似する良品分割画像402’及び良品分割画像404’は、同じ学習モデル50Bに入力され、学習の結果、1つの学習済みモデル55B’が生成される。この場合、学習済みモデル55の生成数nは、良品画像40の分割数mより小さくなる(生成数n<分割数m)。なお、2つの良品分割画像が類似するか否かの判定は、例えば、一致度が所定のしきい値以上であるか否かに基づいて行ってもよい。 Further, as shown in FIG. 7, among a plurality of non-defective product divided images 400′, 402′, 404′, . If they are similar, the learning models 50 used for each may be integrated. That is, the non-defective product split image 402' and the non-defective product split image 404' that are similar to each other are input to the same learning model 50B, and as a result of learning, one trained model 55B' is generated. In this case, the generated number n of the learned models 55 is smaller than the division number m of the non-defective product image 40 (generated number n<divided number m). It should be noted that the determination as to whether or not two non-defective divided images are similar may be made, for example, based on whether or not the degree of matching is equal to or greater than a predetermined threshold value.

このように、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル55を生成することにより、詳細は後述するように、各学習済みモデル55は、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像の特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができる。また、各学習済みモデル55は、良品の検査対象物TAの良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。 In this way, by generating a plurality of trained models 55 trained to receive one or a plurality of non-defective divided images as input and to output feature quantities, each trained model 55 can learn a pattern unique to each good split image, and in the feature space, the points indicated by the feature vectors for each test split image are near the set formed by the feature vectors of their corresponding good split images. plotted to Therefore, in the feature space, the point indicated by the feature vector of the inspection divided image containing the special pattern can be plotted near the set formed by the feature vectors of the plurality of non-defective product divided images corresponding to the inspection divided image. In addition, each learned model 55 can learn different judgment criteria depending on the position and part of the non-defective inspection object TA in the non-defective product image. Different ranges and regions are collected for each position of the inspection divided image in the image. Therefore, in the feature space, a point indicated by a feature vector of an inspection division image at another position, which includes a pattern that is a non-defective product at a certain position but is defective at another position, is defined as a plurality of non-defective product divisions at the other position. It can be plotted against the set formed by the feature vectors of the image.

なお、学習用画像生成部131及びモデル生成部135の少なくとも一方は、プロセッサ31が、記憶装置33に記憶されたプログラムを実行することにより実現されてもよい。プログラムを実行する場合、当該プログラムは、記憶媒体に格納されていてもよい。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-Transitory computer readable medium)であってもよい。非一時的な記憶媒体は、特に限定されないが、例えば、USBメモリ、又はCD-ROM(Compact Disc ROM)等の記憶媒体であってもよい。 Note that at least one of the learning image generator 131 and the model generator 135 may be implemented by the processor 31 executing a program stored in the storage device 33 . When executing a program, the program may be stored in a storage medium. The storage medium storing the program may be a non-transitory computer readable medium. The non-temporary storage medium is not particularly limited, but may be, for example, a storage medium such as a USB memory or a CD-ROM (Compact Disc ROM).

次に、図8から図15を参照しつつ、一実施形態に従う画像検査装置の機能ブロックについて説明する。図8は、一実施形態における画像検査装置20の機能ブロックの構成を示す構成図である。図9は、欠陥度合いを取得する方法の一例を説明するための概念図である。図10は、欠陥度合いを取得する方法の他の例を説明するための概念図である。図11は、図8に示す、分割部250、抽出部260、及び取得部270による処理の一例を説明するための概念図である。図12は、図8に示す、分割部250、抽出部260、及び取得部270による処理の他の例を説明するための概念図である。図13は、良品画像60の一例を示す図である。図14は、図8に示す検査部280による処理を説明するための概念図である。図15は、欠陥度合い画像70の一例を示す図である。 Next, functional blocks of the image inspection apparatus according to one embodiment will be described with reference to FIGS. 8 to 15. FIG. FIG. 8 is a configuration diagram showing the configuration of functional blocks of the image inspection apparatus 20 in one embodiment. FIG. 9 is a conceptual diagram for explaining an example of a method of acquiring the degree of defect. FIG. 10 is a conceptual diagram for explaining another example of the method of acquiring the degree of defect. FIG. 11 is a conceptual diagram for explaining an example of processing by the dividing unit 250, the extracting unit 260, and the obtaining unit 270 shown in FIG. FIG. 12 is a conceptual diagram for explaining another example of processing by the dividing unit 250, the extracting unit 260, and the acquiring unit 270 shown in FIG. FIG. 13 is a diagram showing an example of a non-defective product image 60. As shown in FIG. FIG. 14 is a conceptual diagram for explaining processing by the inspection unit 280 shown in FIG. FIG. 15 is a diagram showing an example of the defect degree image 70. As shown in FIG.

図8に示すように、画像検査装置20は、通信部210と、記憶部220と、学習部230と、撮像部240と、分割部250と、抽出部260と、取得部270と、検査部280と、を備える。 As shown in FIG. 8, the image inspection apparatus 20 includes a communication unit 210, a storage unit 220, a learning unit 230, an imaging unit 240, a division unit 250, an extraction unit 260, an acquisition unit 270, and an inspection unit. 280 and.

通信部210は、各種の情報を送信及び受信可能に構成されている。通信部210は、例えば、通信ネットワークNWを介して、学習済みモデル生成装置10から複数の学習済みモデル55及び複数の特徴ベクトル129を受信する。また、通信部210は、例えば、通信ネットワークNWを介して、学習済みモデル生成装置10又は他の装置から複数の学習用画像124を受信する。受信した複数の学習用画像124、複数の学習済みモデル55、及び複数の特徴ベクトル129は、記憶部220に書き込まれて記憶される。なお、通信部210は、複数の学習用画像124と複数の学習済みモデル55及び複数の特徴ベクトル129とのいずれか一方のみを受信してもよい。通信部210が複数の学習用画像124のみを受信する場合、後述する学習部230は、複数の学習用画像124を用い、複数の学習済みモデル55を生成し、複数の学習済みモデル55を生成する過程で複数の特徴ベクトル129を抽出する。 The communication unit 210 is configured to be able to transmit and receive various types of information. The communication unit 210 receives, for example, the plurality of trained models 55 and the plurality of feature vectors 129 from the trained model generation device 10 via the communication network NW. Also, the communication unit 210 receives a plurality of learning images 124 from the trained model generation device 10 or another device, for example, via the communication network NW. The plurality of learning images 124, the plurality of trained models 55, and the plurality of feature vectors 129 received are written and stored in the storage unit 220. FIG. Note that the communication unit 210 may receive only one of the plurality of learning images 124 , the plurality of trained models 55 , and the plurality of feature vectors 129 . When the communication unit 210 receives only a plurality of training images 124, the learning unit 230, which will be described later, uses the plurality of training images 124 to generate a plurality of trained models 55, and generates a plurality of trained models 55. A plurality of feature vectors 129 are extracted in the process.

記憶部220は、各種の情報を記憶するように構成されている。記憶部220は、例えば、複数の学習用画像124と、複数の学習済みモデル55と、複数の特徴ベクトル129とを記憶する。このように、複数の学習済みモデル55を記憶する記憶部220を備えることにより、各学習済みモデルを容易に読み出すことができる。 The storage unit 220 is configured to store various types of information. The storage unit 220 stores, for example, multiple learning images 124 , multiple trained models 55 , and multiple feature vectors 129 . By providing the storage unit 220 that stores a plurality of trained models 55 in this manner, each trained model can be easily read.

学習部230は、1つ又は複数の良品分割画像ごとに学習モデルを学習させ、複数の学習済みモデル55を生成するように構成されている。各学習済みモデル55は、1つ又は複数の良品分割画像を入力とし、特徴量を出力するモデルである。生成した複数の学習済みモデル55は、記憶部220に書き込まれて記憶される。なお、学習モデルを学習させる方法は、学習済みモデル生成装置10におけるモデル生成部135についての説明と同様であるため、その説明を省略する。 The learning unit 230 is configured to learn a learning model for each of one or more non-defective divided images and generate a plurality of trained models 55 . Each trained model 55 is a model that receives one or more non-defective divided images as input and outputs a feature amount. The generated learned models 55 are written and stored in the storage unit 220 . Note that the method of learning the learning model is the same as the description of the model generation unit 135 in the trained model generation device 10, so the description thereof will be omitted.

このように、1つ又は複数の良品分割画像ごとに学習モデルを学習させ、複数の学習済みモデル55を生成する学習部230を備えることにより、学習済みモデル生成装置10がなくても、複数の学習済みモデルを得ることができる。 Thus, by providing the learning unit 230 that learns a learning model for each of one or more non-defective divided images and generates a plurality of trained models 55, even without the trained model generation device 10, a plurality of You can get a trained model.

また、学習部230は、記憶部220に記憶された複数の学習用画像124のそれぞれが良品分割画像である場合、1つ又は複数の良品分割画像にデータオーギュメンテーションを施し、データオーギュメンテーションが施されたものを入力として学習モデルを学習させ、複数の学習済みモデル55を生成してもよい。これにより、限られた数の良品分割画像を増やすことができ、各学習済みモデル55は、良品分割画像のばらつきに対するロバスト性を高めたロバスト設計にすることができる。 Further, when each of the plurality of learning images 124 stored in the storage unit 220 is a non-defective divided image, the learning unit 230 performs data augmentation on one or a plurality of non-defective divided images. A plurality of trained models 55 may be generated by learning a learning model by using a model subjected to . As a result, the limited number of non-defective split images can be increased, and each trained model 55 can be designed to be robust against variations in the non-defective split images.

前述したように、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、平行移動、回転、拡大、縮小、左右反転、上下反転、及びフィルタ処理のうちの少なくとも1つを適用することを含む。フィルタ処理に用いるフィルタは、例えば、良品分割画像の明度を変換するフィルタであったり、ノイズを除去する平滑化フィルタであったり、エッジを抽出するフィルタであったりしてよく、任意のフィルタを用いることができる。このように、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、平行移動、回転、拡大、縮小、左右反転、上下反転、及びフィルタ処理のうちの少なくとも1つを適用することを含むことにより、良品分割画像のバリエーションを容易に得ることができる。 As described above, data augmentation applies at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to one or more good split images. Including. The filter used for filtering may be, for example, a filter that converts the brightness of the non-defective divided image, a smoothing filter that removes noise, or a filter that extracts edges, and any filter is used. be able to. Thus, the data augmentation includes applying at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to one or more good split images. By including , it is possible to easily obtain variations of non-defective divided images.

なお、データオーギュメンテーションは、前述した手法に限定されるものではない。例えば、データオーギュメンテーションは、1つ又は複数の良品分割画像に対して、射影変換を行ったり、ランダムノイズを付加したりしもてよい。 Note that data augmentation is not limited to the method described above. For example, data augmentation may perform a projective transformation or add random noise to one or more good split images.

撮像部240は、検査対象物TAの検査画像を取得するためのものである。撮像部240は、例えばカメラ等の撮像装置を含んで構成される。本実施形態の撮像部240は、検査対象物TAからの反射光Rを受光し、検査画像を取得する。そして、撮像部240は、取得した検査画像を分割部250に出力する。このように、検査対象物TAの検査画像を取得することにより、検査画像を容易に得ることができる。 The imaging unit 240 is for acquiring an inspection image of the inspection object TA. The imaging unit 240 includes, for example, an imaging device such as a camera. The imaging unit 240 of this embodiment receives the reflected light R from the inspection object TA and acquires an inspection image. The imaging unit 240 then outputs the acquired inspection image to the dividing unit 250 . By acquiring the inspection image of the inspection object TA in this way, the inspection image can be easily obtained.

分割部250は、検査対象物TAの検査画像を複数の検査分割画像に分割するように構成されている。より詳細には、分割部250は、学習済みモデル生成装置10における良品画像の分割と同様の方法によって、検査画像を分割する。具体的には、分割部250は、検査対象物TAの検査画像を、縦及び横にそれぞれ4分割して、16個の検査分割画像を生成する。そして、分割部250は、生成した検査分割画像を抽出部260に出力する。このように、検査対象物TAの検査画像を複数の検査分割画像に分割することにより、検査分割画像を容易に得ることができる。 The dividing unit 250 is configured to divide the inspection image of the inspection object TA into a plurality of divided inspection images. More specifically, the division unit 250 divides the inspection image by a method similar to the division of the non-defective product image in the trained model generation device 10 . Specifically, the dividing unit 250 vertically and horizontally divides the inspection image of the inspection object TA into four parts to generate 16 divided inspection images. The dividing unit 250 then outputs the generated inspection divided image to the extracting unit 260 . By dividing the inspection image of the inspection object TA into a plurality of inspection divided images in this way, the inspection divided images can be easily obtained.

抽出部260は、複数の学習済みモデル55に、検査分割画像をそれぞれ入力し、当該検査分割画像に対する特徴量を成分とする特徴ベクトルを抽出するように構成されている。具体的には、抽出部260は、記憶部220に記憶された複数の学習済みモデル55を読み出し、複数の学習済みモデル55のそれぞれに、対応する検査分割画像を入力する。前述したように、学習済みモデル55は入力された画像の特徴量を出力するように学習されているので、抽出部260は、学習済みモデル55から入力の検査分割画像に対する1つ又は複数の特徴量を得ることができる。これにより、1つ又は複数の特徴量を成分とする特徴ベクトルが抽出される。そして、抽出部260は、抽出した特徴ベクトルを取得部270に出力する。なお、抽出部260が抽出する検査分割画像の特徴ベクトルは、良品分割画像の特徴ベクトル129と同じd次元ベクトルである。 The extracting unit 260 is configured to input test divided images to each of the plurality of trained models 55 and extract feature vectors whose components are feature amounts for the test divided images. Specifically, the extracting unit 260 reads out the plurality of trained models 55 stored in the storage unit 220 and inputs corresponding inspection divided images to each of the plurality of trained models 55 . As described above, since the trained model 55 is trained to output the feature amount of the input image, the extracting unit 260 extracts one or more features for the input inspection divided image from the trained model 55. quantity can be obtained. As a result, a feature vector whose components are one or more feature amounts is extracted. Extraction section 260 then outputs the extracted feature vector to acquisition section 270 . Note that the feature vector of the inspection divided image extracted by the extraction unit 260 is the same d-dimensional vector as the feature vector 129 of the non-defective product divided image.

取得部270は、抽出された特徴ベクトルのそれぞれについて、当該特徴ベクトルで表現される特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するように構成されている。欠陥度合いは、例えば、レベル、ステップ、クラス、級(等級)、層(階層)等のように離散的に程度を表すものを用いてもよいし、例えば数等のように連続的に程度を表すものを用いてもよい。 For each of the extracted feature vectors, the acquisition unit 270 acquires the points indicated by the feature vectors in the feature space represented by the feature vectors and a set formed by the plurality of feature vectors for the plurality of non-defective divided images. and acquires the degree of defect indicating the degree of defect in the inspection divided image corresponding to the feature vector. The degree of defect may be expressed in a discrete manner such as level, step, class, class (grade), layer (hierarchy), etc., or may be expressed in a continuous manner such as a number. Any representation may be used.

具体的には、取得部270は、記憶部220に記憶された複数の特徴ベクトル129を読み出し、d次元空間である特徴空間に、各特徴ベクトル129が示す点をプロットする。これにより、図9に示すように、例えば2次元の特徴空間において、各特徴ベクトル129が示す黒丸の点によって、破線で示す集合S1が形成される。この集合は、例えば良品画像40の位置ごとに形成される。なお、取得部270は、複数の特徴ベクトル129に基づいて特徴空間における集合S1をあらかじめ形成しておき、当該集合S1に関する情報を記憶部220に書き込んで記憶していてもよい。 Specifically, the acquisition unit 270 reads out the plurality of feature vectors 129 stored in the storage unit 220, and plots points indicated by each feature vector 129 in a feature space that is a d-dimensional space. As a result, as shown in FIG. 9, for example, in a two-dimensional feature space, a set S1 indicated by a dashed line is formed by black circle points indicated by each feature vector 129. FIG. This set is formed for each position of the non-defective product image 40, for example. Note that the acquisition unit 270 may form a set S1 in the feature space in advance based on the plurality of feature vectors 129, and write and store information about the set S1 in the storage unit 220. FIG.

次に、取得部270は、抽出部260から入力された複数の特徴ベクトルのうち、集合S1に対応する位置の検査分割画像の特徴ベクトルが示す点を、特徴空間にプロットする。図9では、対応する位置の検査分割画像の特徴ベクトルは、白丸の点P1で示されている。そして、取得部270は、この検査分割画像の特徴ベクトルが示す点P1と集合S1とに基づいて、当該検査分割画像の欠陥度合いを取得する。 Next, the acquisition unit 270 plots points indicated by the feature vectors of the inspection divided images at positions corresponding to the set S1 among the plurality of feature vectors input from the extraction unit 260 in the feature space. In FIG. 9, the feature vector of the inspection split image at the corresponding position is indicated by the white circle point P1. Then, the acquiring unit 270 acquires the defect degree of the inspection divided image based on the point P1 indicated by the feature vector of the inspection divided image and the set S1.

より詳細には、取得部270は、抽出された特徴ベクトルのそれぞれについて、特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルによって形成される集合との間の距離に基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得するように構成されている。 More specifically, for each of the extracted feature vectors, the acquisition unit 270 calculates the distance between the point indicated by the feature vector and the set formed by the feature vectors of the non-defective divided images in the feature space. , the degree of defect of the inspection divided image corresponding to the feature vector is acquired.

図9に示す例では、第1特徴量及び第2特徴量を成分とする特徴ベクトルで表現される特徴空間において、取得部270は、ある検査分割画像の特徴ベクトルが示す点P1と、当該検査分割画像に対応する複数の良品分割画像の複数の特徴ベクトルの集合S1との間の距離に基づいて、当該検査分割画像の欠陥度合いを取得する。この欠陥度合いは、例えば距離に応じた値である。このように、特徴ベクトルに対応する検査分割画像の欠陥度合いが、特徴空間における、特徴ベクトルが示す点P1と複数の良品分割画像の複数の特徴ベクトルによって形成される集合S1との間の距離に基づいて取得されることにより、検査分割画像の欠陥の程度を容易に示すことができる。 In the example shown in FIG. 9, in a feature space represented by a feature vector having components of a first feature amount and a second feature amount, the acquisition unit 270 obtains a point P1 indicated by a feature vector of a certain inspection divided image, The degree of defect of the inspection divided image is acquired based on the distance between the set S1 of the plurality of feature vectors of the plurality of non-defective divided images corresponding to the divided image. This defect degree is, for example, a value corresponding to the distance. In this way, the defect degree of the inspection divided image corresponding to the feature vector is the distance between the point P1 indicated by the feature vector and the set S1 formed by the plurality of feature vectors of the plurality of non-defective divided images in the feature space. The degree of defects in the inspection divided image can be easily indicated by being acquired based on the above.

あるいは、取得部270は、抽出された特徴ベクトルのそれぞれについて、特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得するように構成されていてもよい。 Alternatively, for each of the extracted feature vectors, acquisition section 270 calculates the distance between the point indicated by the feature vector and the point indicated by one of the plurality of feature vectors of the plurality of non-defective divided images in the feature space. Based on this, the defect degree of the inspection divided image corresponding to the feature vector may be obtained.

例えば、図10に示すように、第1特徴量及び第2特徴量を成分とする特徴ベクトルで表現される特徴空間において、取得部270は、ある検査分割画像の特徴ベクトルが示す点P2と、当該検査分割画像に対応する複数の良品分割画像の複数の特徴ベクトルの集合S2に含まれる点との間の距離に基づいて、当該検査分割画像の欠陥度合いを取得する。この欠陥度合いは、例えば距離に応じた値である。また、集合S2に含まれる点は、集合S2に含まれる複数の点のうち、例えば点P2に最も近い点である。取得部270は、集合S2に含まれる複数の点のそれぞれについて点P2との間の距離を算出し、点P2に最も近い点を決定することができる。このように、特徴ベクトルに対応する検査分割画像の欠陥度合いが、特徴空間における、特徴ベクトルが示す点P2と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて取得されることにより、検査分割画像の欠陥の程度を容易に示すことができる。 For example, as shown in FIG. 10, in a feature space represented by a feature vector having a first feature amount and a second feature amount as components, the acquisition unit 270 acquires a point P2 indicated by a feature vector of a test divided image, The degree of defect of the inspection divided image is acquired based on the distance between the points included in the set S2 of the plurality of feature vectors of the plurality of non-defective product divided images corresponding to the inspection divided image. This defect degree is, for example, a value corresponding to the distance. A point included in the set S2 is, for example, the closest point to the point P2 among the plurality of points included in the set S2. The obtaining unit 270 can calculate the distance between each of the plurality of points included in the set S2 and the point P2, and determine the closest point to the point P2. In this way, the defect degree of the inspection divided image corresponding to the feature vector is the distance between the point P2 indicated by the feature vector and the point indicated by one of the plurality of feature vectors of the plurality of non-defective divided images in the feature space. can easily indicate the degree of defects in the inspection divided image.

取得部270は、抽出部260により抽出された各特徴ベクトルについて、以上の手順を繰り返し行い、複数の検査分割画像のそれぞれの欠陥度合いを取得する。そして、取得部270は、当該複数の欠陥度合いを検査部280に出力する。 The acquiring unit 270 repeats the above procedure for each feature vector extracted by the extracting unit 260, and acquires the defect degree of each of the plurality of divided inspection images. Then, the acquisition unit 270 outputs the plurality of defect degrees to the inspection unit 280 .

図11に示すように、撮像部240が取得した検査対象物TAの検査画像は、分割部250によって複数の検査分割画像420,422,424,・・・に分割される。抽出部260は、各検査分割画像420,422,424,・・・を、複数の学習済みモデル55のうちの対応する学習済みモデル55A、55B,55C,・・・に入力する。各学習済みモデル55A、55B,55C,・・・が、各検査分割画像420,422,424,・・・の特徴量を出力し、抽出部260は、各検査分割画像420,422,424,・・・に対して当該特徴量を成分とする特徴ベクトル440,442、444,・・・を抽出する。 As shown in FIG. 11, the inspection image of the inspection object TA acquired by the imaging unit 240 is divided into a plurality of divided inspection images 420, 422, 424, . The extraction unit 260 inputs each inspection divided image 420, 422, 424, . . . into the corresponding learned models 55A, 55B, 55C, . Each trained model 55A, 55B, 55C, . . . are extracted as feature vectors 440, 442, 444, .

また、取得部270は、抽出された各特徴ベクトル440,442、444,・・・について、特徴空間における、当該特徴ベクトル440,442、444,・・・が示す点と複数の良品分割画像の複数の特徴ベクトルの集合とに基づいて、各検査分割画像420,422,424,・・・の欠陥度合い460,462、464,・・・を取得する。 In addition, for each of the extracted feature vectors 440, 442, 444, . Defect degrees 460, 462, 464, . . . of each inspection divided image 420, 422, 424, .

前述したように、互いに類似する複数の良品分割画像を1つの学習モデル50に統合して学習済みモデル55を生成した場合、図12に示すように、抽出部260は、検査画像42において、互いに類似する複数の良品分割画像に対応する位置の検査分割画像、例えば、検査分割画像422及び検査分割画像424を、それぞれ、対応する学習済みモデル55B’に入力する。抽出部260は、学習済みモデル55B’の出力に基づいて、検査分割画像422に対応する特徴ベクトル442と、検査分割画像424に対応する特徴ベクトル444とを抽出する。各学習済みモデル55A、55B’,・・・が、各検査分割画像420,422,424,・・・の特徴量を出力することで、抽出部260は、複数の特徴ベクトル440,442,444,・・・を抽出する。なお、特徴ベクトル442は検査分割画像422の特徴量を成分とするベクトルであり、特徴ベクトル444は検査分割画像424の特徴量を成分とするベクトルである。すなわち、検査分割画像422の特徴量と検査分割画像424の特徴量とが同一であれば、特徴ベクトル442及び特徴ベクトル444は同一ベクトルになるが、検査分割画像422の特徴量と検査分割画像424の特徴量との間に差異があれば、特徴ベクトル442と特徴ベクトル444とは異なるベクトルになり得る。 As described above, when the learned model 55 is generated by integrating a plurality of non-defective divided images that are similar to each other into one learning model 50, the extracting unit 260, as shown in FIG. Inspection split images at positions corresponding to a plurality of similar non-defective product split images, for example, inspection split image 422 and inspection split image 424, are input to the corresponding learned model 55B'. The extraction unit 260 extracts a feature vector 442 corresponding to the test divided image 422 and a feature vector 444 corresponding to the test divided image 424 based on the output of the trained model 55B'. The extracted unit 260 extracts a plurality of feature vectors 440, 442, 444 by outputting the feature amounts of the inspection divided images 420, 422, 424, . , . . . are extracted. The feature vector 442 is a vector whose component is the feature amount of the inspection divided image 422, and the feature vector 444 is a vector whose component is the feature amount of the inspection divided image 424. FIG. That is, if the feature amount of the inspection divided image 422 and the feature amount of the inspection divided image 424 are the same, the feature vector 442 and the feature vector 444 are the same vector. If there is a difference between the feature amount of , the feature vector 442 and the feature vector 444 can be different vectors.

ここで、図13に示すように、良品であることがあらかじめ分かっている検査対象物TAの検査画像60は、例えば、6個の検査分割画像600,602,604,606,608,及び610に分割される。これら6個の検査分割画像のうち、検査分割画像602,606,及び608は互いに類似するパターンを含んでいる。また、検査分割画像604は、他の検査分割画像と異なる特殊パターンを含んでいる。 Here, as shown in FIG. 13, the inspection image 60 of the inspection object TA, which is known to be non-defective in advance, consists of, for example, six inspection divided images 600, 602, 604, 606, 608, and 610. split. Of these six inspection split images, inspection split images 602, 606, and 608 contain mutually similar patterns. Also, the inspection divided image 604 includes a special pattern different from other inspection divided images.

本実施形態の複数の学習済みモデル55A、55B,55C,・・・とは異なり、仮にこれら6個の検査分割画像600,602,604,606,608,及び610を用いて、1つの学習済みモデルを生成する場合、当該学習済みモデルは、検査分割画像602,604又は608のパターンの特徴量を抽出して出力し得るものの、学習済みモデルの表現能力次第では、検査分割画像604に含まれる特殊パターンの特徴量が十分に抽出されない可能性がある。この場合、特徴空間において、特殊パターンを含む検査分割画像604の特徴ベクトルが示す点は、他の検査分割画像600,602,606,608,及び610の特徴ベクトルが形成する集合から離れた位置にプロットされることがある。その結果、当該検査分割画像604の欠陥度合いは大きくなり、良品である検査対象物TAが不良品と判定されてしまうことがあった。 Unlike the plurality of trained models 55A, 55B, 55C, . When generating a model, the learned model can extract and output the pattern feature amounts of the inspection divided images 602, 604, or 608. There is a possibility that the feature amount of the special pattern is not sufficiently extracted. In this case, in the feature space, the point indicated by the feature vector of the inspection divided image 604 containing the special pattern is located away from the set formed by the feature vectors of the other inspection divided images 600, 602, 606, 608, and 610. may be plotted. As a result, the defect degree of the inspection divided image 604 becomes large, and the inspection object TA, which is a non-defective product, may be determined as a defective product.

これに対し、本実施形態の画像検査装置20は、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル55に、検査分割画像600,602,604,606,608,及び610をそれぞれ入力し、当該検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルを抽出する。これにより、各学習済みモデル55は、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像604の特徴ベクトルが示す点を、当該検査分割画像604に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。 On the other hand, the image inspection apparatus 20 of the present embodiment provides a plurality of trained models 55 which are trained to receive one or a plurality of non-defective product divided images as input and output feature amounts, respectively, to inspect divided images 600 and 602 . , 604, 606, 608, and 610 are input, and feature vectors for the inspection divided images 600, 602, 604, 606, 608, and 610 are extracted. This allows each trained model 55 to learn a pattern specific to each non-defective split image, and in the feature space, the feature vectors for each test split image 600, 602, 604, 606, 608, and 610 show Points are plotted near the set formed by the feature vectors of the respective corresponding good split images. Therefore, in the feature space, the point indicated by the feature vector of the inspection divided image 604 including the special pattern can be plotted near the set formed by the feature vectors of the plurality of non-defective product divided images corresponding to the inspection divided image 604. , it is possible to obtain the defect degree of a small degree of defect and determine that the product is non-defective.

また、良品であることがあらかじめ分かっている別の検査対象物TAの検査画像において、ある位置で良品であるが別の位置では不良品であるパターンを含む検査分割画像を用いて1つの学習済みモデルを生成する場合、特徴空間において、当該別の位置にこのようなパターンを含む検査分割画像の特徴ベクトルが示す点は、他の検査分割画像の特徴ベクトルが形成する集合の近くにプロットされることがある。そのため、当該別の位置にこのようなパターンを含む検査分割画像の欠陥度合いは小さくなり、本来は不良品である検査分割画像を含む検査画像の検査対象物TAは良品として判定され、不良品を見逃してしまうことがあった。 In addition, in the inspection image of another inspection object TA that is known to be a non-defective product in advance, one learned image is obtained by using an inspection divided image including a pattern that is a non-defective product at one position but is defective at another position. When generating the model, the points indicated by the feature vectors of the test split images containing such patterns at the other locations in the feature space are plotted near the set formed by the feature vectors of the other test split images. Sometimes. Therefore, the defect degree of the inspection divided image including such a pattern at the other position becomes small, and the inspection object TA of the inspection image including the inspection divided image which is originally defective is determined as a non-defective product, and the defective product is determined. Sometimes I missed it.

このような場合にも、本実施形態の画像検査装置20では、各学習済みモデル55は、良品の検査対象物TAの良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。 Even in such a case, in the image inspection apparatus 20 of the present embodiment, each learned model 55 can learn different judgment criteria depending on the position and part of the non-defective product image of the non-defective inspection object TA. , the points indicated by the feature vectors for each inspection divided image are collected in different ranges or areas for each position of the inspection divided image in the inspection image. Therefore, in the feature space, a point indicated by a feature vector of an inspection division image at another position, which includes a pattern that is a non-defective product at a certain position but is defective at another position, is defined as a plurality of non-defective product divisions at the other position. It is possible to plot far relative to the set formed by the feature vectors of the image, obtain the degree of defect with a large degree of defect, and suppress overlooking of defective products.

図8の説明に戻り、検査部280は、取得部270によって取得された複数の欠陥度合いに基づいて、検査対象物TAの検査するように構成されている。このように、特徴空間における、検査分割画像の特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、各検査分割画像の欠陥度合いを取得し、これら複数の欠陥度合いに基づいて、検査対象物TAを検査することにより、検査対象物TAの検査精度を高めることができる。 Returning to the description of FIG. 8 , the inspection unit 280 is configured to inspect the inspection object TA based on the plurality of degrees of defects acquired by the acquisition unit 270 . In this way, based on the point indicated by the feature vector of the inspection divided image in the feature space and the set formed by the plurality of feature vectors for the plurality of non-defective divided images, the degree of defect of each inspection divided image is acquired, and these By inspecting the inspection object TA based on a plurality of defect degrees, the inspection accuracy of the inspection object TA can be improved.

また、前述した欠陥度合いは、検査分割画像の欠陥の程度を示す値であることが好ましい。これにより、検査分割画像の欠陥の程度を定量的に示すことができる。 Further, the degree of defect described above is preferably a value indicating the degree of defect in the inspection divided image. This makes it possible to quantitatively indicate the degree of defects in the inspection divided image.

この場合、検査部280は、複数の欠陥度合いに基づいて欠陥度合い画像を生成し、当該欠陥度合い画像に基づいて検査対象物TAを検査するように構成されている。これにより、検査対象物が良品であるか不良品であるかを容易に判定することができ、検査精度の高い検査を容易に実現することができる。 In this case, the inspection unit 280 is configured to generate a defect degree image based on a plurality of defect degrees and inspect the inspection object TA based on the defect degree image. As a result, it is possible to easily determine whether an object to be inspected is a non-defective product or a defective product, and it is possible to easily realize an inspection with high inspection accuracy.

具体的には、図14に示すように、検査部280は、取得部270によって取得された各欠陥度合い460,462、464,・・・を、それぞれの値に基づいて画像化することで、部分画像480,482,484,・・・を生成する。部分画像480,482,484,・・・は、例えば、欠陥度合いの値を、白黒の階調に変換したグレースケール画像や、RGBの階調に変換したカラー画像等である。検査部280は、生成された部分画像480,482,484,・・・を統合することで、欠陥度合い画像48を生成する。なお、欠陥度合い画像48の縦及び横のサイズ(画素数)は、検査画像42と同じであってもよいし、異なっていてもよい。そして、検査部280は、当該欠陥度合い画像48に基づいて検査対象物TAが良品であるか否かを判定する。 Specifically, as shown in FIG. 14, the inspection unit 280 visualizes the degrees of defects 460, 462, 464, . Partial images 480, 482, 484, . . . are generated. The partial images 480, 482, 484, . The inspection unit 280 generates the defect degree image 48 by integrating the generated partial images 480, 482, 484, . The vertical and horizontal sizes (number of pixels) of the defect degree image 48 may be the same as or different from those of the inspection image 42 . Then, the inspection unit 280 determines whether or not the inspection object TA is non-defective based on the defect degree image 48 .

図15に示すように、欠陥度合い画像70は、例えば2つの欠陥部分画像700,702を含んでいる。欠陥部分画像700は欠陥度合いが相対的に低い部分画像であり、欠陥部分画像702は欠陥度合いが相対的に高い部分画像である。 As shown in FIG. 15, the defect degree image 70 includes two defect partial images 700 and 702, for example. A defective partial image 700 is a partial image with a relatively low defect degree, and a defective partial image 702 is a partial image with a relatively high defect degree.

検査部280は、例えば、欠陥度合い画像70における欠陥部分画像700,702の占める割合が、所定の閾値以下である場合に検査対象物TAが良品であると判定し、所定の閾値を超える場合に検査対象物TAが良品ではない、つまり、不良品であると判定する。 For example, the inspection unit 280 determines that the inspection object TA is non-defective when the ratio of the defect partial images 700 and 702 in the defect degree image 70 is equal to or less than a predetermined threshold, and when the ratio exceeds the predetermined threshold It is determined that the inspection object TA is not a non-defective product, that is, is a defective product.

あるいは、検査部280は、欠陥度合い画像70に含まれる欠陥部分画像700,702の有無に基づいて、検査対象物TAの欠陥を検出してもよい。 Alternatively, the inspection unit 280 may detect defects in the inspection object TA based on the presence or absence of the defect partial images 700 and 702 included in the defect degree image 70 .

なお、学習部230、分割部250、抽出部260、取得部270、及び検査部280のうちの少なくとも1つは、プロセッサ31が、記憶装置33に記憶されたプログラムを実行することにより実現されてもよい。プログラムを実行する場合、当該プログラムは、記憶媒体に格納されていてもよい。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体であってもよい。非一時的な記憶媒体は、特に限定されないが、例えば、USBメモリ、又はCD-ROM等の記憶媒体であってもよい。 Note that at least one of the learning unit 230, the dividing unit 250, the extracting unit 260, the acquiring unit 270, and the checking unit 280 is implemented by the processor 31 executing a program stored in the storage device 33. good too. When executing a program, the program may be stored in a storage medium. The storage medium storing the program may be a computer-readable non-temporary storage medium. The non-temporary storage medium is not particularly limited, but may be, for example, a storage medium such as a USB memory or a CD-ROM.

次に、図16を参照しつつ、一実施形態に従う学習済みモデル生成装置が行う処理手順について説明する。図16は、一実施形態における学習済みモデル生成装置10が行う学習済みモデル生成処理S100の一例を説明するためのフローチャートである。 Next, a processing procedure performed by the trained model generation device according to one embodiment will be described with reference to FIG. 16 . FIG. 16 is a flowchart for explaining an example of the trained model generation processing S100 performed by the trained model generation device 10 in one embodiment.

図16に示すように、まず、通信部110は、通信ネットワークNWを介して、複数の良品画像40を取得する(ステップS101)。取得された複数の良品画像40は、記憶部120に記憶される。 As shown in FIG. 16, first, the communication unit 110 acquires a plurality of non-defective product images 40 via the communication network NW (step S101). The acquired non-defective product images 40 are stored in the storage unit 120 .

次に、学習用画像生成部131は、記憶部120から複数の良品画像40を読み出し、当該複数の良品画像40に基づいて、複数の学習用画像124を生成する(ステップS102)。学習用画像124は、前述したように、良品分割画像であってもよいし、1つ又は複数の良品分割画像にデータオーギュメンテーションを施したものであってもよい。 Next, the learning image generating unit 131 reads out a plurality of non-defective product images 40 from the storage unit 120, and generates a plurality of learning images 124 based on the plurality of non-defective product images 40 (step S102). As described above, the learning image 124 may be a non-defective divided image, or one or more non-defective divided images subjected to data augmentation.

次に、モデル生成部135は、ステップS102において生成された複数の学習用画像124を入力とし、特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル55を生成する。(ステップS103)。生成された複数の学習済みモデル55は、記憶部120に記憶される。 Next, the model generation unit 135 receives the plurality of learning images 124 generated in step S102 as input, and generates a plurality of trained models 55 that are trained to output feature amounts. (Step S103). A plurality of generated trained models 55 are stored in the storage unit 120 .

次に、通信部110は、ステップS103において生成された複数の学習済みモデル55と、生成する過程で抽出される複数の特徴ベクトル129とを、通信ネットワークNWを介して、画像検査装置20に送信する(ステップS104)。これにより、画像検査装置20は、学習済みモデル生成装置10によって生成された複数の学習済みモデルを使用可能になる。 Next, the communication unit 110 transmits the multiple learned models 55 generated in step S103 and the multiple feature vectors 129 extracted in the process of generation to the image inspection apparatus 20 via the communication network NW. (step S104). As a result, the image inspection device 20 can use a plurality of trained models generated by the trained model generation device 10 .

ステップS104の後、学習済みモデル生成装置10は、学習済みモデル生成処理S100を終了する。 After step S104, the learned model generation device 10 ends the learned model generation processing S100.

次に、図17を参照しつつ、一実施形態に従う画像検査装置が行う処理手順について説明する。図17は、一実施形態における画像検査装置20が行う画像検査処理S200の一例を説明するためのフローチャートである。 Next, a processing procedure performed by the image inspection apparatus according to one embodiment will be described with reference to FIG. 17 . FIG. 17 is a flowchart for explaining an example of image inspection processing S200 performed by the image inspection apparatus 20 according to one embodiment.

なお、以下の例では、通信部210が学習済みモデル生成装置10から複数の学習済みモデル55及び複数の特徴ベクトル129を受信し、記憶部220に当該複数の学習済みモデル55及び複数の特徴ベクトル129が記憶されているものとして、説明する。 In the following example, the communication unit 210 receives the plurality of trained models 55 and the plurality of feature vectors 129 from the trained model generation device 10, and stores the plurality of trained models 55 and the plurality of feature vectors in the storage unit 220. 129 are stored.

図17に示すように、まず、撮像部240が、検査対象物TAの検査画像を取得する(ステップS201)。取得された検査画像は、分割部250に出力される。 As shown in FIG. 17, first, the imaging unit 240 acquires an inspection image of the inspection object TA (step S201). The obtained inspection image is output to the dividing section 250 .

次に、分割部250は、ステップS201において取得された検査画像を分割し、複数の検査分割画像を生成する(ステップS202)。生成された複数の検査分割画像は、抽出部260に出力される。 Next, the dividing unit 250 divides the inspection image acquired in step S201 to generate a plurality of divided inspection images (step S202). A plurality of generated inspection divided images are output to the extraction unit 260 .

次に、抽出部260は、記憶部220にあらかじめ記憶された複数の学習済みモデル55を読み出し、ステップS207において生成された複数の検査分割画像を、複数の学習済みモデル55にそれぞれ入力し、複数の特徴ベクトルを抽出する(ステップS203)。生成された複数の特徴ベクトルは、取得部270に出力される。 Next, the extraction unit 260 reads out the plurality of trained models 55 pre-stored in the storage unit 220, inputs the plurality of inspection divided images generated in step S207 to the plurality of trained models 55, and extracts the plurality of is extracted (step S203). A plurality of generated feature vectors are output to the acquisition unit 270 .

次に、取得部270は、記憶部220にあらかじめ記憶された複数の複数の特徴ベクトル129を読み出し、ステップS207において抽出された複数の特徴ベクトルのそれぞれについて、特徴空間において、特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトル129によって形成される集合とに基づいて、複数の検査分割画像の欠陥度合いを取得する(ステップS204)。得られた複数の欠陥度合いは、検査部280に出力される。 Next, the obtaining unit 270 reads out the plurality of feature vectors 129 pre-stored in the storage unit 220, and for each of the plurality of feature vectors extracted in step S207, the points indicated by the feature vectors and the points indicated by the feature vectors in the feature space. Based on the set formed by the feature vectors 129 of the non-defective divided images, the degree of defect of the plurality of inspection divided images is obtained (step S204). A plurality of obtained degrees of defects are output to the inspection section 280 .

次に、検査部280は、ステップS204において得られた複数の欠陥度合いのそれぞれの値をから複数の部分画像を生成し、生成された各部分画像を統合して欠陥度合い画像を生成する(ステップS205)。 Next, the inspection unit 280 generates a plurality of partial images from the respective values of the plurality of defect degrees obtained in step S204, and integrates the generated partial images to generate a defect degree image (step S205).

次に、検査部280は、ステップS205において生成された欠陥度合い画像に基づいて、検査対象物TAを検査する(ステップS206)。 Next, the inspection unit 280 inspects the inspection object TA based on the defect degree image generated in step S205 (step S206).

ステップS206の後、画像検査装置20は、画像検査処理S200を終了する。 After step S206, the image inspection apparatus 20 ends the image inspection process S200.

なお、本実施形態で説明したシーケンス及びフローチャートは、処理に矛盾が生じない限り、順序を入れ替えてもよい。 It should be noted that the sequence and flowcharts described in this embodiment may be rearranged as long as there is no contradiction in processing.

以上、本発明の例示的な実施形態について説明した。本実施形態における画像検査装置20及び画像検査方法によれば、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル55に、検査分割画像600,602,604,606,608,及び610をそれぞれ入力し、当該検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルを抽出する。これにより、各学習済みモデル55は、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像604の特徴ベクトルが示す点を、当該検査分割画像604に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、各学習済みモデルは、良品の検査対象物TAの良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像の特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、各欠陥度合いを取得し、これら複数の欠陥度合いに基づいて、検査対象物TAを検査することにより、検査対象物TAの検査精度を高めることができる。 Exemplary embodiments of the invention have been described above. According to the image inspection apparatus 20 and the image inspection method of the present embodiment, the inspection divided image 600 is applied to the plurality of trained models 55 each trained to output the feature amount with one or more non-defective divided images as input. , 602, 604, 606, 608, and 610 are input, and feature vectors for the inspection divided images 600, 602, 604, 606, 608, and 610 are extracted. This allows each trained model 55 to learn a pattern specific to each non-defective split image, and in the feature space, the feature vectors for each test split image 600, 602, 604, 606, 608, and 610 show Points are plotted near the set formed by the feature vectors of the respective corresponding good split images. Therefore, in the feature space, the point indicated by the feature vector of the inspection divided image 604 including the special pattern can be plotted near the set formed by the feature vectors of the plurality of non-defective product divided images corresponding to the inspection divided image 604. , it is possible to obtain the defect degree of a small degree of defect and determine that the product is non-defective. In addition, each learned model can learn different judgment criteria depending on the position and part of the non-defective inspection object TA in the non-defective product image. are collected in different ranges and regions for each position of the inspection divided image in . Therefore, in the feature space, a point indicated by a feature vector of an inspection division image at another position, which includes a pattern that is a non-defective product at a certain position but is defective at another position, is defined as a plurality of non-defective product divisions at the other position. It is possible to plot far relative to the set formed by the feature vectors of the image, obtain the degree of defect with a large degree of defect, and suppress overlooking of defective products. Therefore, each defect degree is acquired based on the point indicated by the feature vector of the inspection divided image and the set formed by the plurality of feature vectors for the plurality of non-defective divided images in the feature space, and based on these plurality of defect degrees By inspecting the inspection object TA in this manner, the inspection accuracy of the inspection object TA can be improved.

また、本実施形態における学習済みモデル生成装置10によれば、1つ又は複数の良品分割画像を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル55を生成する。これにより、各学習済みモデル55は、各良品分割画像に特有のパターンを学習することができ、特徴空間において、各検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像の特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像604の特徴ベクトルが示す点を、当該検査分割画像604に対応する複数の良品分割画像の特徴ベクトルが形成する集合の近くにプロットすることができる。また、各学習済みモデル55は、良品の検査対象物TAの良品画像における位置、部分によって異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置ごとに異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像の特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。 Further, according to the trained model generating apparatus 10 of the present embodiment, a plurality of trained models 55 are generated by learning one or more non-defective divided images as input and outputting feature amounts. This allows each trained model 55 to learn a pattern specific to each non-defective split image, and in the feature space, the feature vectors for each test split image 600, 602, 604, 606, 608, and 610 show Points are plotted near the set formed by the feature vectors of the respective corresponding good split images. Therefore, in the feature space, the point indicated by the feature vector of the inspection divided image 604 including the special pattern can be plotted near the set formed by the feature vectors of the plurality of non-defective product divided images corresponding to the inspection divided image 604. . In addition, each learned model 55 can learn different judgment criteria depending on the position and part of the non-defective inspection object TA in the non-defective product image. Different ranges and regions are collected for each position of the inspection divided image in the image. Therefore, in the feature space, a point indicated by a feature vector of an inspection division image at another position, which includes a pattern that is a non-defective product at a certain position but is defective at another position, is defined as a plurality of non-defective product divisions at the other position. It can be plotted against the set formed by the feature vectors of the image.

なお、以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るとともに、本発明にはその等価物も含まれる。すなわち、実施形態に当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。例えば、実施形態が備える各要素及びその配置、材料、条件、形状、サイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、実施形態は例示であり、異なる実施形態で示した構成の部分的な置換又は組み合わせが可能であることは言うまでもなく、これらも本発明の特徴を含む限り本発明の範囲に包含される。 In addition, the embodiment described above is intended to facilitate understanding of the present invention, and is not intended to limit and interpret the present invention. The present invention may be modified/improved without departing from its spirit, and the present invention also includes equivalents thereof. In other words, any design modifications made by those skilled in the art to the embodiments are also included in the scope of the present invention as long as they have the features of the present invention. For example, each element provided in the embodiment and its arrangement, material, condition, shape, size, etc. are not limited to those illustrated and can be changed as appropriate. In addition, the embodiments are examples, and it goes without saying that partial substitutions or combinations of configurations shown in different embodiments are possible, and these are also included in the scope of the present invention as long as they include the features of the present invention.

[付記1]
良品の検査対象物(TA)の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル(55)に、検査対象物(TA)の分割画像である検査分割画像をそれぞれ入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出する抽出部(260)と、
抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトル(129)によって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部(270)と、
複数の欠陥度合いに基づいて、検査対象物(TA)を検査する検査部(280)と、を備える、
画像検査装置(20)。
[付記12]
良品の検査対象物(TA)の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル(55)に、検査対象物(TA)の分割画像である検査分割画像をそれぞれ入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出するステップと、
抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、
複数の欠陥度合いに基づいて、検査対象物(TA)を検査するステップと、を含む、
画像検査方法。
[付記13]
良品の検査対象物(TA)の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデル(55)を生成するモデル生成部(135)を備える、
学習済みモデル生成装置(10)。
[Appendix 1]
The object to be inspected (TA an extraction unit (260) for inputting each inspection divided image, which is a divided image of ), and extracting feature vectors each having a feature amount for the inspection divided image as a component;
For each of the extracted feature vectors, based on the point indicated by the feature vector in the feature space represented by the feature vector and a set formed by a plurality of feature vectors (129) for a plurality of non-defective divided images, an acquisition unit (270) for acquiring a degree of defect indicating the degree of defect of the inspection divided image corresponding to the feature vector;
An inspection unit (280) that inspects the inspection object (TA) based on a plurality of degrees of defects,
An image inspection device (20).
[Appendix 12]
The object to be inspected (TA a step of inputting inspection divided images that are divided images of ) and extracting feature vectors each having a feature amount for the inspection divided images as components;
For each of the extracted feature vectors, based on the point indicated by the feature vector in the feature space represented by the feature vector and the set formed by the plurality of feature vectors for the plurality of non-defective divided images, the feature vector obtaining a degree of defect indicating the degree of defect in the inspection divided image corresponding to;
inspecting the test object (TA) based on the plurality of defect degrees;
Image inspection method.
[Appendix 13]
A model generation unit ( 135),
A trained model generation device (10).

1…画像検査システム、10…モデル生成装置、20…画像検査装置、31…プロセッサ、32…メモリ、33…記憶装置、34…通信装置、35…入力装置、36…出力装置、40…良品画像、42…検査画像、48…欠陥度合い画像、50…学習モデル、50A…学習モデル、50B…学習モデル、50C…学習モデル、51…特徴抽出部、52…特徴判定部、55…学習済みモデル、55A…学習済みモデル、55B…学習済みモデル、55B’ …学習済みモデル、55C…学習済みモデル、60…良品画像、70…欠陥度合い画像、110…通信部、120…記憶部、124…学習用画像、129…特徴ベクトル、130…学習部、131…学習用画像生成部、135…モデル生成部、210…通信部、220…記憶部、230…学習部、240…撮像部、250…分割部、260…抽出部、270…取得部、280…検査部、400…良品分割画像、400’ …良品分割画像、402…良品分割画像、402’ …良品分割画像、404…良品分割画像、404’ …良品分割画像、420…検査分割画像、422…検査分割画像、424…検査分割画像、440…特徴ベクトル、442…特徴ベクトル、444…特徴ベクトル、480…部分画像、482…部分画像、484…部分画像、511…入力層、513…中間層、515…出力層、600…良品分割画像、602…良品分割画像、604…良品分割画像、606…良品分割画像、608…良品分割画像、700…欠陥部分画像、702…欠陥部分画像、IL…照明、L…光、NW…通信ネットワーク、P1…点、P2…点、R…反射光、S1…集合、S2…集合、S100…モデル生成処理、S200…画像検査処理、TA…検査対象物。 REFERENCE SIGNS LIST 1 image inspection system 10 model generation device 20 image inspection device 31 processor 32 memory 33 storage device 34 communication device 35 input device 36 output device 40 non-defective product image , 42... inspection image, 48... defect degree image, 50... learning model, 50A... learning model, 50B... learning model, 50C... learning model, 51... feature extraction unit, 52... feature determination unit, 55... learned model, 55A... Learned model, 55B... Learned model, 55B'... Learned model, 55C... Learned model, 60... Good product image, 70... Defect degree image, 110... Communication unit, 120... Storage unit, 124... For learning Image 129 Feature vector 130 Learning unit 131 Learning image generation unit 135 Model generation unit 210 Communication unit 220 Storage unit 230 Learning unit 240 Imaging unit 250 Division unit , 260 extractor 270 acquirer 280 inspector 400 non-defective divided image 400' non-defective divided image 402 non-defective divided image 402' non-defective divided image 404 non-defective divided image 404' Good product divided image 420 Inspection divided image 422 Inspection divided image 424 Inspection divided image 440 Feature vector 442 Feature vector 444 Feature vector 480 Partial image 482 Partial image 484 Partial image 511 Input layer 513 Intermediate layer 515 Output layer 600 Non-defective divided image 602 Non-defective divided image 604 Non-defective divided image 606 Non-defective divided image 608 Non-defective divided image 700 Defective partial image 702 Defective partial image IL Illumination L Light NW Communication network P1 Point P2 Point R Reflected light S1 Set S2 Set S100 Model generation process S200... Image inspection processing, TA... Inspection object.

Claims (13)

良品の検査対象物の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルに、検査対象物の分割画像である検査分割画像をそれぞれ入力し、該検査分割画像に対する前記特徴量を成分とする特徴ベクトルをそれぞれ抽出する抽出部と、
前記抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の前記良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する前記検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部と、
複数の前記欠陥度合いに基づいて、前記検査対象物を検査する検査部と、を備える、
画像検査装置。
A plurality of trained models, each of which is trained to output a feature amount by inputting one or more of non-defective product divided images, which are divided images of a non-defective inspection object, are fed with inspection divided images, which are divided images of the inspection object. and extracting feature vectors each having the feature amount for the inspection divided image as a component;
for each of the extracted feature vectors, based on a point indicated by the feature vector in the feature space represented by the feature vector and a set formed by the plurality of feature vectors for the plurality of non-defective divided images; an acquisition unit that acquires a degree of defect indicating a degree of defect in the inspection divided image corresponding to the feature vector;
an inspection unit that inspects the inspection object based on a plurality of the defect degrees;
Image inspection equipment.
取得部は、前記抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と前記集合との間の距離に基づいて、該特徴ベクトルに対応する前記検査分割画像の前記欠陥度合いを取得する、
請求項1に記載の画像検査装置。
For each of the extracted feature vectors, the acquisition unit obtains the above-mentioned obtaining the defect degree of the inspection divided image;
The image inspection apparatus according to claim 1.
取得部は、前記抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と前記複数の良品分割画像の前記複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて、該特徴ベクトルに対応する前記検査分割画像の前記欠陥度合いを取得する、
請求項1に記載の画像検査装置。
For each of the extracted feature vectors, the obtaining unit obtains a point indicated by the feature vector and one of the plurality of feature vectors of the plurality of non-defective divided images in a feature space represented by the feature vector. acquiring the defect degree of the inspection divided image corresponding to the feature vector based on the distance between the points;
The image inspection apparatus according to claim 1.
前記欠陥度合いは、前記検査分割画像の欠陥の程度を示す値である、
請求項1から3のいずれか一項に記載の画像検査装置。
The degree of defect is a value indicating the degree of defect in the inspection divided image.
The image inspection apparatus according to any one of claims 1 to 3.
前記検査部は、複数の前記欠陥度合いに基づいて欠陥度合い画像を生成し、該欠陥度合い画像に基づいて前記検査対象物を検査する、
請求項4に記載の画像検査装置。
The inspection unit generates a defect degree image based on a plurality of the defect degrees, and inspects the inspection object based on the defect degree image.
The image inspection apparatus according to claim 4.
1つ又は複数の前記良品分割画像ごとに学習モデルを学習させ、前記複数の学習済みモデルを生成する学習部をさらに備える、
請求項1から5のいずれか一項に記載の画像検査装置。
further comprising a learning unit that learns a learning model for each of the one or more non-defective divided images and generates the plurality of learned models;
The image inspection apparatus according to any one of claims 1 to 5.
前記学習部は、1つ又は複数の前記良品分割画像にデータオーギュメンテーションを施したものを入力として前記学習モデルを学習させ、前記複数の学習済みモデルを生成する、
請求項6に記載の画像検査装置。
The learning unit learns the learning model using one or more of the non-defective divided images subjected to data augmentation as an input, and generates the plurality of trained models.
The image inspection apparatus according to claim 6.
前記データオーギュメンテーションは、前記良品分割画像に対して、平行移動、回転、拡大、縮小、左右反転、上下反転、及びフィルタ処理のうちの少なくとも1つを適用することを含む、
請求項7に記載の画像検査装置。
The data augmentation includes applying at least one of translation, rotation, enlargement, reduction, horizontal flip, vertical flip, and filtering to the non-defective split image.
The image inspection apparatus according to claim 7.
検査対象物の検査画像を複数の前記検査分割画像に分割する分割部をさらに備える、
請求項1から8のいずれか一項に記載の画像検査装置。
further comprising a dividing unit that divides the inspection image of the inspection object into a plurality of the inspection divided images;
The image inspection apparatus according to any one of claims 1 to 8.
検査対象物の検査画像を取得するための撮像部をさらに備える、
請求項1から9のいずれか一項に記載の画像検査装置。
Further comprising an imaging unit for acquiring an inspection image of the inspection object,
The image inspection apparatus according to any one of claims 1 to 9.
前記複数の学習済みモデルを記憶する記憶部をさらに備える、
請求項1から10のいずれか一項に記載の画像検査装置。
further comprising a storage unit that stores the plurality of trained models;
The image inspection apparatus according to any one of claims 1 to 10.
良品の検査対象物の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルに、検査対象物の分割画像である検査分割画像をそれぞれ入力し、該検査分割画像に対する前記特徴量を成分とする特徴ベクトルをそれぞれ抽出するステップと、
前記抽出された特徴ベクトルのそれぞれについて、該特徴ベクトルで表現される特徴空間における、該特徴ベクトルが示す点と複数の前記良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する前記検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、
複数の前記欠陥度合いに基づいて、前記検査対象物を検査するステップと、を含む、
画像検査方法。
A plurality of trained models, each of which is trained to output a feature amount by inputting one or more of non-defective product divided images, which are divided images of a non-defective inspection object, are fed with inspection divided images, which are divided images of the inspection object. respectively, and extracting feature vectors whose components are the feature amounts for the inspection divided image;
for each of the extracted feature vectors, based on a point indicated by the feature vector in the feature space represented by the feature vector and a set formed by the plurality of feature vectors for the plurality of non-defective divided images; obtaining a defect degree indicating the degree of defect of the inspection divided image corresponding to the feature vector;
inspecting the inspection object based on a plurality of the defect degrees;
Image inspection method.
良品の検査対象物の分割画像である良品分割画像の1つ又は複数を入力として特徴量を出力するようにそれぞれ学習させた複数の学習済みモデルを生成するモデル生成部を備える、
学習済みモデル生成装置。
A model generation unit that generates a plurality of trained models that are trained to output a feature amount by inputting one or more of non-defective product divided images that are divided images of a non-defective inspection object,
Trained model generator.
JP2021020383A 2021-02-12 2021-02-12 Image inspection device, image inspection method, and learned model creation device Pending JP2022123217A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021020383A JP2022123217A (en) 2021-02-12 2021-02-12 Image inspection device, image inspection method, and learned model creation device
PCT/JP2021/009510 WO2022172469A1 (en) 2021-02-12 2021-03-10 Image inspection device, image inspection method, and trained model generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021020383A JP2022123217A (en) 2021-02-12 2021-02-12 Image inspection device, image inspection method, and learned model creation device

Publications (1)

Publication Number Publication Date
JP2022123217A true JP2022123217A (en) 2022-08-24

Family

ID=82837622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021020383A Pending JP2022123217A (en) 2021-02-12 2021-02-12 Image inspection device, image inspection method, and learned model creation device

Country Status (2)

Country Link
JP (1) JP2022123217A (en)
WO (1) WO2022172469A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6973207B1 (en) * 1999-11-30 2005-12-06 Cognex Technology And Investment Corporation Method and apparatus for inspecting distorted patterns
JP6573226B2 (en) * 2017-12-15 2019-09-11 オムロン株式会社 DATA GENERATION DEVICE, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
JP2020052520A (en) * 2018-09-25 2020-04-02 エヌ・ティ・ティ・コムウェア株式会社 Determination device, determination method, and program
JP2020181532A (en) * 2019-04-26 2020-11-05 富士通株式会社 Image determination device and image determination method

Also Published As

Publication number Publication date
WO2022172469A1 (en) 2022-08-18

Similar Documents

Publication Publication Date Title
JP6792842B2 (en) Visual inspection equipment, conversion data generation equipment, and programs
WO2023077404A1 (en) Defect detection method, apparatus and system
CN109871895B (en) Method and device for detecting defects of circuit board
WO2019117065A1 (en) Data generation device, data generation method and data generation program
US20230386013A1 (en) Method and system for scanning wafer
US20190012781A1 (en) Iterative defect filtering process
JP2017049974A (en) Discriminator generator, quality determine method, and program
JP2017211259A (en) Inspection device, inspection method and program
JP2016115331A (en) Identifier generator, identifier generation method, quality determination apparatus, quality determination method and program
JP2019163993A (en) Defect inspection device, and defect inspection method
TW201512649A (en) Method of chip detects inspecting, system therefor, and computer program product thereof
JP2020112483A (en) Exterior appearance inspection system, calculation model construction method and calculation model construction program
US8606017B1 (en) Method for inspecting localized image and system thereof
CN115908988B (en) Defect detection model generation method, device, equipment and storage medium
WO2022172469A1 (en) Image inspection device, image inspection method, and trained model generation device
CN112184717A (en) Automatic segmentation method for quality inspection
WO2022172475A1 (en) Image inspection device, image inspection method, and trained model generation device
US8300918B2 (en) Defect inspection apparatus, defect inspection program, recording medium storing defect inspection program, figure drawing apparatus and figure drawing system
JP7465446B2 (en) Image inspection device, image inspection method, and trained model generation device
CN115222649A (en) System, apparatus and method for detecting and classifying patterns of heatmaps
KR20230036650A (en) Defect detection method and system based on image patch
WO2022172470A1 (en) Image inspection device, image inspection method, and trained model generation device
WO2022172468A1 (en) Image inspection device, image inspection method, and trained model generation device
WO2021229901A1 (en) Image inspection device, image inspection method, and prelearned model generation device
WO2023089846A1 (en) Inspection device and inspection method, and program for use in same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231212