WO2022264824A1 - 異常判定用計算機及び異常判定方法 - Google Patents

異常判定用計算機及び異常判定方法 Download PDF

Info

Publication number
WO2022264824A1
WO2022264824A1 PCT/JP2022/022483 JP2022022483W WO2022264824A1 WO 2022264824 A1 WO2022264824 A1 WO 2022264824A1 JP 2022022483 W JP2022022483 W JP 2022022483W WO 2022264824 A1 WO2022264824 A1 WO 2022264824A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
learning
abnormality determination
inspection
code layer
Prior art date
Application number
PCT/JP2022/022483
Other languages
English (en)
French (fr)
Inventor
敦 宮本
裕美 西浦
直明 近藤
晟 伊藤
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Publication of WO2022264824A1 publication Critical patent/WO2022264824A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an abnormality determination computer and an abnormality determination method.
  • the present invention preferably relates to an abnormality determination computer and an abnormality determination method based on machine learning.
  • An inspection image acquired by capturing an image of an inspection object is input to an autoencoder to estimate a good product image corresponding to the inspection image, and the inspection image is compared with the estimated good product image to determine whether the inspection object is a good product.
  • CNN Convolutional Neural Network
  • non-defective product learning a method of performing learning using only non-defective product images using a neural network called an autoencoder (referred to as non-defective product learning) and performing abnormality determination on an inspection object is disclosed (for example, Patent Document 1).
  • An autoencoder is a network that uses an encoder to reduce (dimensionally compress) an input image, and then uses a decoder to restore the image to its original size. By learning the autoencoder to input good product images and output the same good product image, when an abnormal image with defects such as defects is input, a good product image (estimated good product image) with no abnormalities is output. There is expected. An abnormal portion can be detected by taking the difference between the inspection image and the estimated non-defective product image.
  • the present invention has been made in view of the above problems, and is capable of performing highly accurate abnormality determination for unknown abnormal images in abnormality determination using an autoencoder, even if learning is performed using only non-defective images.
  • an abnormality determination computer for determining an abnormality in an inspection object, the abnormality determination computer having a processor, the processor being a non-defective product.
  • An estimation step and a determination step of performing abnormality determination by a comparison inspection engine from the inspection image f'' and the estimated non-defective product image h'' are executed. Maximize the dimensional compression ratio Rd of the code layer of the autoencoder so that the error determination accuracy rate Rc becomes the maximum or a predetermined threshold value th or more as an evaluation value, or the input signal amount to the code layer or the code layer characterized by reducing the amount of output signal from
  • an abnormality determination computer capable of performing highly accurate abnormality determination for an unknown abnormal image even by learning using only non-defective images, and An abnormality determination method can be realized.
  • FIG. 1 is a diagram showing an automatic abnormality determination system and an overall processing sequence according to Example 1;
  • FIG. FIG. 5 is a diagram showing an example of an autoencoder learning method in the automatic abnormality determination system according to the first embodiment;
  • FIG. 4 is a diagram showing an example of a learning method of an autoencoder;
  • FIG. 10 is a diagram showing non-defective product learning and abnormality determination in an autoencoder;
  • 4 is a diagram showing a learning method of an autoencoder and a comparison inspection engine in the automatic abnormality determination system according to the first embodiment;
  • FIG. 5 is a diagram showing an example of an autoencoder learning method in the automatic abnormality determination system according to the first embodiment;
  • FIG. 4 is
  • FIG. 5 is a diagram showing an example of an autoencoder learning method in the automatic abnormality determination system according to the first embodiment
  • 4 is a diagram showing inputs and outputs of nodes in the neural network in the automatic abnormality determination system according to the first embodiment
  • FIG. FIG. 10 is a diagram showing a learning method of an autoencoder using an abnormal image in the automatic abnormality determination system according to Example 2
  • FIG. 10 is a diagram showing variations of pseudo-generated abnormal images in the automatic abnormality determination system according to the second embodiment; It is a figure which shows the result of abnormality determination in a general method. It is a figure which shows the result of the abnormality determination in the automatic abnormality determination system which concerns on embodiment. It is a figure which shows the hardware constitutions of the automatic abnormality determination system which concerns on embodiment.
  • xxx data may be used as an example of information, but any data structure of information may be used. That is, “xxx data” can be referred to as “xxx tables” to indicate that the information is independent of the data structure. Furthermore, “xxx data” may be simply referred to as "xxx”. In the following description, the configuration of each information is an example, and the information may be divided and held or combined and held.
  • processing may be explained with the “program” as the subject, but the program is executed by a processor (for example, CPU (Central Processing Unit)) to appropriately perform the specified processing.
  • the subject of processing may be a program because it is performed using storage resources (eg, memory) and/or communication interface devices (eg, ports).
  • a process described using a program as a subject may be a process performed by a processor or a computer having the processor.
  • the abnormality determination computer and the abnormality determination method of this embodiment have the following configuration as an example.
  • a step of obtaining good product learning images ⁇ f_i ⁇ (i 1, ..., Nf, Nf: the number of images) by imaging a good product inspection object, and using the good product learning images ⁇ f_i ⁇ a learning step of learning the parameters of the autoencoder by using an autoencoder; an inspection image acquisition step of capturing an inspection image f'' by capturing an image of the inspection target; ' and a determination step of performing abnormality determination by a comparison inspection engine from the inspection image f'' and the estimated good product image h''.
  • the dimensional compression rate Rd of the encoded code layer is maximized, or the input signal amount to the code layer or the code layer characterized by reducing the amount of output signal from
  • the abnormality determination engine consists of a "good product image estimation engine” that obtains an estimated good product image by inputting an inspection image to an autoencoder, and a “comparison inspection engine” that compares the inspection image and the estimated good product image to make an abnormality decision.
  • the comparison inspection engine may be a rule-based judgment algorithm, or a machine learning-based judgment algorithm such as a neural network.
  • An example of failure to output an estimated non-defective image is the case where the abnormal image input by the autoencoder can be restored. That is, even if the input image is an abnormal image, if the output image is also an abnormal image similar to the input image, the difference between the input image and the output image is small, so the product is erroneously determined to be non-defective. Therefore, the autoencoder should be trained so that it can only recover good images and not other images.
  • this embodiment is characterized by optimizing the network structure so as to maximize the dimensional compression rate Rd of the code layer, thereby lowering the expressive power of the autoencoder.
  • a high dimensional compression ratio Rd means that the input image is represented by a small number of nodes (feature values) in the code layer. can be done.
  • the abnormality determination accuracy rate Rc is used as an evaluation value when determining the expressive power of the autoencoder. Rc may be determined to be equal to or greater than a predetermined threshold th.
  • the dimensional compression ratio of the code layer is maximized by reducing the number of nodes or channels included in each channel of the code layer.
  • a method of reducing the expressive power of an autoencoder is to maximize the dimensional compression ratio Rd of the code layer. Specifically, the number of nodes or the number of channels included in each channel of the code layer is reduced. Since the total number of nodes in the code layer can be regarded as the number of features after dimension compression by the encoder, reducing the total number of nodes increases the dimension compression rate Rd.
  • (i,j) ⁇ ( ⁇ : set of numbers (i, j) of weight w_ij that makes the value zero) is set to zero or a value close to zero, and the set ⁇ is a set of good training images ⁇ f_i ⁇ A set of numbers (i,j) ( ⁇ ⁇ (i,j) ⁇
  • Supplementary information about this feature As a method of reducing the expressive power of the autoencoder using the abnormality determination accuracy rate Rc as an evaluation value, a method of decreasing the values of some input signals to nodes included in the code layer may be used. In other words, in order to reduce the expressive power of the autoencoder, it is possible to directly reduce the number of nodes as described above. By decreasing the value of the signal, it is possible to decrease the influence of that node on the reconstruction and continuously decrease the expressiveness of the autoencoder.
  • the comparison inspection engine includes a difference image generation engine that obtains a difference image between an inspection image f'' and an estimated non-defective product image h'' that is output by inputting the inspection image f'' and the inspection image f'' to an autoencoder; It comprises a difference image evaluation engine that determines whether the inspection image f'' is non-defective or abnormal based on the image, and in the learning step, based on the abnormality determination accuracy rate, the processing parameters of the difference image generation engine or the difference image evaluation engine are set. Characterized by learning.
  • the local perturbation finite difference method (Yukio Matsuyama, Naofumi Iwata, Hitoshi Kubota, Yasuo Nakagawa, “Precise Visual Inspection of LSI Wafer Patterns by Local Perturbation Pattern Matching Method,” Transactions of the Institute of Electronics, Information and Communication Engineers D, J72-D2 (12) , pp.2041-2050 (1989).) to obtain the difference image.
  • the local perturbation difference method is a method in which one image is perturbed with respect to the other image for each local region in the XY plane and in the brightness direction, and the portion that cannot be matched is taken as the difference. Small discrepancies between images can be eliminated.
  • the perturbation width is one of the processing parameters of comparison inspection, and the magnitude of the amount of discrepancy to be eliminated varies depending on its value.
  • the differential image evaluation engine determines whether the inspection image f'' is non-defective or abnormal based on the differential image. For example, determination may be made based on the distribution of brightness values in pixel regions with differences, but the size of the distribution and the size of brightness values for determining abnormality are also one of the processing parameters for comparison inspection.
  • a so-called rule-based algorithm is used as an example of the differential image generation engine and the differential image evaluation engine, but a machine learning-based algorithm may also be used. Even machine learning based algorithms have processing parameters for learning.
  • This embodiment is characterized by optimizing these processing parameters with the error determination accuracy rate as an evaluation value.
  • processing is performed to reduce the expressive power of the autoencoder. There is a limit to reducing expressiveness. If the expressive power is reduced, even if the input image is a non-defective product, the estimated non-defective product image by the autoencoder is degraded, and a difference occurs between the input image and the estimated non-defective product image.
  • the expressive power of the autoencoder is further reduced, making it easier to generate a non-defective product image estimation engine that can restore only non-defective products. Simultaneous optimization of the hyperparameters that reduce the expressiveness of the autoencoder and the processing parameters of the comparison inspection engine complement each other's performance, enabling more accurate abnormality determination.
  • the dimensional compression rate Rd of the encoded code layer is maximized, or the input signal amount to the code layer or the code layer characterized by reducing the amount of output signal from
  • This embodiment is characterized by learning the autoencoder using the abnormality determination accuracy rate Rc as an evaluation value. It is possible to more accurately estimate the accuracy rate Rc.
  • the anomaly learning image ⁇ f'_i ⁇ is a pseudo-abnormal image generated by a pseudo-abnormal image generation engine, and the pseudo-abnormal image generation engine generates an image by performing image processing on the non-defective product learning image ⁇ f_i ⁇ . It is characterized by
  • FIG. 1 shows an automatic abnormality determination system and overall processing sequence in this embodiment.
  • the processing sequence in the automatic abnormality determination system of this embodiment is roughly divided into a learning phase (100) and an inspection phase (101).
  • the image is obtained by capturing the surface or inside of the object to be inspected as a digital image with an imaging device such as a CCD camera, an optical microscope, a charged particle microscope, an ultrasonic inspection device, an X-ray inspection device, or the like.
  • the non-defective product learning image ⁇ f_i ⁇ is used to learn a non-defective product image estimation engine that utilizes an autoencoder (104). That is, the network parameters of the autoencoder are determined by learning so that the input image is input and a non-defective image is output.
  • non-defective product learning images When learning using non-defective product learning images, basically, non-defective product learning images are input and network parameters are determined so that the same non-defective product learning images are output.
  • the network parameters include “hyperparameters” such as network structure, and “model parameters” such as weights (coupling coefficients) and biases between nodes of the network, which are determined (105, 106).
  • the hyperparameters include the number of layers of the network, the number of nodes in the layers, activation function, learning rate, termination condition of learning, and the like.
  • the input image and the output image of the non-defective product image estimation engine are compared to learn the parameters of the comparison inspection engine that determines whether the input image is non-defective or abnormal (107).
  • the actual inspection object (102) is imaged (103), the inspection image f'' is acquired, and abnormality determination is performed (111).
  • the inspection image f'' is input to an autoencoder based on the hyperparameters (108) and model parameters (109) determined in the learning phase (100) to estimate an estimated non-defective product image h'' (112 ).
  • the inspection image f'' and the estimated non-defective product image h'' are input to a comparison inspection engine based on the comparison inspection processing parameters (110) determined in the learning phase (100), and the inspection image f'' is determined whether the inspection image f'' is non-defective or abnormal. (113). If necessary, the inspector confirms the determination result (114).
  • Autoencoders (see Geoffrey E. Hinton and R. R. Salakhutdinov, “Reducing the Dimensionality of Data with Neural Networks,” Science, 313 (5786), pp.504-507 (2006).) are so-called dimensionally compressed In this network, an input image is input to an input layer (207), compressed once by an encoder (205), and converted into a code layer (209) composed of fewer nodes than the input layer.
  • This code layer is restored by the decoder (206) and returned to the output layer (211) having the dimensionality of the input image.
  • the input image f_i is used as the good product image (202) during learning, and the same good product image is restored as the output image h_i (212) from the good product image (202).
  • the autoencoder is expected to become a good image estimation engine that can only recover good products.
  • the processing sequence 201 in the inspection phase can perform abnormality determination for the actual inspection object.
  • the autoencoder outputs an image similar to the inspection image f''_i as an estimated non-defective product image: h''_i.
  • Estimated non-defective product image There is no difference in h''_i, and the inspection image f''_i is determined to be a non-defective product.
  • the input inspection image f''_i (203) contains an abnormality (204) such as adhesion of a foreign substance, the autoencoder cannot accurately restore the abnormal part, and the estimated non-defective image: h'' _i (213) is output. Therefore, a difference occurs between the inspection image f''_i and the estimated non-defective product image: h''_i in the abnormal portion, and the inspection image f''_i is determined to be abnormal.
  • the error determination accuracy rate Rc of the non-defective product learning image ⁇ f_i ⁇ is used as an evaluation value, and the Rc is encoded so that the Rc is a maximum or a predetermined threshold value th or more. It is characterized by maximizing the dimensional compression ratio Rd of the code layer, or reducing the amount of input signal to the code layer or the amount of output signal from the code layer.
  • the abnormality determination engine is composed of a “non-defective product image estimation engine (301)” that obtains an estimated non-defective product image by inputting the inspection image to the autoencoder, and an abnormality determination by comparing the inspection image (non-defective product learning image during learning) and the estimated non-defective product image. It consists of a “comparison inspection engine (311)” that performs
  • the comparison inspection engine may be a rule-based judgment algorithm, or a machine learning-based judgment algorithm such as a neural network.
  • An example of failure to output an estimated non-defective image is the case where the abnormal image input by the autoencoder can be restored. That is, even if the input image is an abnormal image, if the output image is also an abnormal image similar to the input image, the difference between the input image and the output image is small, so the product is erroneously determined to be non-defective. Therefore, the autoencoder should be trained so that it can only recover good images and not other images.
  • this embodiment is characterized by optimizing the network structure and lowering the expressive power of the autoencoder so as to maximize the dimensional compression rate Rd of the code layer (306).
  • a high dimensional compression ratio Rd means that the input image is represented by a small number of nodes (feature values) in the code layer (306). can be lowered.
  • autoencoders are trained to restore non-defective learning images with higher accuracy, but it is not always necessary to obtain highly accurate estimated non-defective images in abnormality determination. That is, even if the estimated non-defective product image (310) obtained by restoring the non-defective product image (300) is degraded, the comparison inspection engine (311) only needs to perform correct abnormality determination.
  • the expressiveness is determined so as to improve the abnormality determination accuracy rate Rc. may be determined so as to maximize the abnormality determination accuracy rate Rc, or may be determined so that the abnormality determination accuracy rate Rc is equal to or greater than a predetermined threshold value th (315).
  • the first is that the dimensional compression ratio of the code layer is maximized in the learning step by reducing the number of nodes or channels included in each channel of the code layer.
  • FIG. 4 A schematic diagram of a network structure in which each layer is expressed in one dimension is shown in FIG. 4, and a specific method for reducing the number of nodes in the code layer is explained.
  • Fig. 4(a) is an example of a network structure with a relatively large number of nodes in the code layer and high expressive power of the autoencoder.
  • the input layer (402) has 10 nodes. However, this is a schematic diagram, and when the inspection image is input as it is, the number of nodes in the input layer is equal to the number of pixels of the inspection image.
  • the number of nodes in the code layer (411) in the network structure of FIG. 4(b) is 4.
  • the code layer (418) has two nodes.
  • both the encoders (400, 407, 414) and the decoders (401, 408, 415) are two-layer networks (for example, in the encoder 400, the network continues from the input layer 402 to the intermediate layer 403 and the code layer 404).
  • a network with two or more layers is also possible.
  • the number of nodes in the code layers (404, 411, 418) is 6, 4, and 2, which are discrete values, but any value can be verified and selected in actual optimization. Furthermore, along with the optimization of the number of nodes in the code layer, the network structure (number of layers, number of nodes, number of channels, combination of nodes connected by edges, etc.) in the encoder and decoder can be changed.
  • Fig. 5 shows a schematic diagram of a network structure in which each layer is expressed in two dimensions, and a specific method for reducing the number of nodes in the code layer will be explained.
  • Figure 4 shows an image in which the pixel values of the inspection image are connected in a row and input as a one-dimensional array. It may be input as it is to the input layer (L1) consisting of a two-dimensional node array of xNy1.
  • the code layer (L3) is generated from the intermediate layer (L2), and the code layer (L3) has an image size of Nx3 ⁇ Ny3 and the number of channels is Nc3. This is the encoder.
  • the expressive power of the autoencoder is reduced by using the abnormality determination accuracy rate Rc as an evaluation value. There are ways to reduce it.
  • (i,j) ⁇ ⁇ ( ⁇ : a set of numbers (i, j) of weights w_ij that make the value zero) is set to zero or a value close to zero, and the set ⁇ is an autoencoder is a set of numbers (i,j) ( ⁇ ⁇ (i,j) ⁇
  • Supplementary information about this feature As a method of reducing the expressive power of the autoencoder using the abnormality determination accuracy rate Rc as an evaluation value, a method of decreasing the values of some input signals to nodes included in the code layer may be used. In other words, in order to reduce the expressive power of the autoencoder, it is possible to directly reduce the number of nodes as described above. By decreasing the value of the signal, it is possible to decrease the influence of that node on the reconstruction and continuously decrease the expressiveness of the autoencoder.
  • FIG. 6 is an example of an autoencoder that estimates a non-defective image in this embodiment. It consists of five layers L1 to L5, and L3 is the code layer (604).
  • u A(t) (Formula 1)
  • t w_11*x_11+w_12*x_12+w_13*x_13+b_1 (formula 2)
  • A() is an activation function, and although various nonlinear functions have been proposed, recently ReLU (ramp function) is widely used.
  • ⁇ w_1j ⁇ is the weight of the edge connecting the j-th node in the hidden layer (L2) and the 1st node in the code layer (L3)
  • b_1 is the bias amount, both of which are model parameters optimized by learning ( 109).
  • the expressive power of the autoencoder is reduced by intentionally setting some of the weights to zero or a value close to zero.
  • the magnitude of the signal amount can be used.
  • edges with small signal amounts do not greatly contribute to expressing the non-defective product image. For example, if the signal amount x_12 in FIG. 7 is small, the value of the weight w_12 of the edge 701 is corrected to be smaller than the value set by learning.
  • the weight from the intermediate layer (L2) to the code layer (L3) is used as an example to set a small value, but the weight between any layers can be similarly set to a small value. Setting the value to a smaller value, closer to zero, will invalidate the weighted edge more. As a result, the expressive power of the autoencoder is reduced, and an effect equivalent to increasing the dimension compression ratio Rd can be obtained without reducing the total number of nodes.
  • the comparison inspection engine inputs the inspection image f'' and the inspection image f'' to the autoencoder, and obtains the difference image between the output estimated non-defective product image h''.
  • a generation engine and a difference image evaluation engine that determines whether the inspection image f'' is non-defective or abnormal based on the difference image.
  • the difference image generation engine or the difference image It is characterized by learning the processing parameters of the evaluation engine.
  • the inspection image f''_i is input to a non-defective product image estimation engine (autoencoder) to output an estimated non-defective product image h''_i.
  • a comparison inspection engine (311) compares the inspection image f''_i and the estimated non-defective product image h''_i to determine whether the inspection image f''_i is non-defective or abnormal.
  • comparison inspection engine consisting of a difference image generation engine (312) and a difference image evaluation engine (313).
  • the difference image generation engine (312) several methods are conceivable for obtaining the difference image between the inspection image f'' and the estimated non-defective product image h''. Although the difference between the pixel values of the two images may be simply obtained, even a slight mismatch between the non-abnormal images becomes a difference, and there is a risk of causing an erroneous judgment in the abnormality judgment of the difference image evaluation engine.
  • the local perturbation finite difference method (Yukio Matsuyama, Naofumi Iwata, Hitoshi Kubota, Yasuo Nakagawa, “Precise Visual Inspection of LSI Wafer Patterns by Local Perturbation Pattern Matching Method,” Transactions of the Institute of Electronics, Information and Communication Engineers D, J72-D2 (12) , pp.2041-2050 (1989).) to obtain the difference image.
  • the local perturbation difference method is a method in which one image is perturbed in the XY plane and in the brightness direction for each local region to match the other image, and the parts that cannot be matched are taken as the difference. Small discrepancies between images can be eliminated.
  • the perturbation width is one of the processing parameters (314) of the comparison inspection, and its value changes the magnitude of the amount of discrepancy that is eliminated.
  • the difference image evaluation engine (313) determines whether the inspection image f'' is non-defective or abnormal based on the difference image. For example, it is conceivable to make a judgment based on the distribution of brightness values in pixel regions with differences. be.
  • This embodiment is characterized by optimizing these processing parameters using the error determination accuracy rate as an evaluation value.
  • processing is performed to reduce the expressive power of the autoencoder, but there is a limit to reducing the expressive power while maintaining the accuracy rate of abnormality determination. There is If the expressive power is reduced, even if the input image is a non-defective product, the estimated non-defective product image by the autoencoder is degraded, and a difference occurs between the input image and the estimated non-defective product image.
  • the autoencoder By adjusting the processing parameters of the comparison inspection engine so that this slight difference is not erroneously determined to be abnormal, the autoencoder further reduces the expressiveness and makes it easier to generate a non-defective image estimation engine that can restore only non-defective products.
  • the hyperparameters (309) that reduce the expressive power of the autoencoder and the processing parameters (314) of the comparison inspection engine in the processing 315 By simultaneously optimizing the hyperparameters (309) that reduce the expressive power of the autoencoder and the processing parameters (314) of the comparison inspection engine in the processing 315, the performance of the two complement each other, resulting in higher performance. Accurate abnormality determination becomes possible.
  • a technique such as the local perturbation difference method that does not detect a slight mismatch as a difference in the comparison between the inspection image f'' and the estimated non-defective product image h'' is used for the difference image generation engine. is one. This is because, as will be described later with reference to FIG. 11, in this embodiment, the expressive power of the autoencoder is lowered even if the restoration accuracy of the estimated non-defective product image is sacrificed to some extent, and the abnormal pattern is reliably detected. This is for improving the rate Rc. For this purpose, it is essential to use a technique that is less sensitive to slight differences that occur in non-defective products.
  • abnormality determination using an autoencoder even if learning is performed using only non-defective images, abnormality determination can be performed with high accuracy for unknown abnormal images.
  • a computer and an abnormality determination method can be realized.
  • a non-defective product learning image acquisition step for acquiring non-defective product learning images ⁇ f_i ⁇ (i 1, ..., Nf, Nf: number of images) by imaging a non-defective product inspection object.
  • the dimensional compression ratio Rd of the encoded code layer is maximized, or the code layer It is characterized by reducing the amount of input signal to the layer or the amount of output signal from the code layer.
  • the abnormality determination accuracy rate Rc tends to improve.
  • This embodiment is characterized by learning the autoencoder using the abnormality determination accuracy rate Rc as an evaluation value. By using it, it becomes possible to more accurately estimate the abnormality determination accuracy rate Rc.
  • Anomaly learning image ⁇ f'_i ⁇ is a pseudo-abnormal image generated by a pseudo-abnormal image generation engine, and the pseudo-abnormal image generation engine generates an image by applying image processing to non-defective product learning image ⁇ f_i ⁇ .
  • the image processing in the pseudo-abnormal image generation engine (801) simulates an abnormality that can occur in an actual inspection object.
  • Adhesion Fig. 9 (b)
  • defects such as chips
  • scratches Fig. 9 (d)
  • surface spots and stains Fig. 9 (e)
  • shape deformation Fig. 9 (f)
  • the hyperparameter (811) code layer number of nodes, etc.
  • comparison inspection processing parameters (817) for example, processing parameters of the difference image generation engine (815) or the difference image evaluation engine (816), etc.
  • learning processing parameters method of generating pseudo-abnormal images, the number of generated images, etc. of image processing in the pseudo-abnormal image generation engine (801) based on the abnormality determination accuracy rate Rc.
  • Joint optimization of hyperparameters (811), comparative inspection processing parameters (817), and processing parameters of the pseudo-abnormal image generation engine (801) can be performed in process 818.
  • an abnormality determination for an unknown abnormal image can be performed with high accuracy.
  • a computer and an abnormality determination method can be realized.
  • Fig. 10 shows the processing results of abnormality determination by a general autoencoder.
  • the non-defective product learning image f (FIG. 10(a1)) is input to the autoencoder and the estimated non-defective product image h (FIG. 10(a2)) is output.
  • the simple difference (FIG. 10(a3)) between the non-defective product learning image f and the estimated non-defective product image h almost disappears, and the non-defective product image is correctly determined as a non-defective product.
  • the autoencoder learned in this way is used to determine the abnormality of the inspection image f''.
  • correct abnormality determination may be possible as shown in the middle part of FIG. That is, in the estimated non-defective product image h'' (FIG. 10B2) output by inputting the inspection image f'' (FIG. 10B1) including the foreign matter (1000) as the abnormal part into the autoencoder, the abnormal part is This is the case when restoration is not possible.
  • the abnormal portion is extracted as the difference between the inspection image f'' and the estimated non-defective product image h'' ((b3) in FIG. 10), the inspection image f'' is correctly determined to be abnormal.
  • an inspection image f'' (FIG. 10(c1)) including a defect (1001) as an abnormal part is input to an autoencoder and an abnormal part is output in an estimated non-defective product image h'' (FIG. 10(c2)). This is a case where it can be restored.
  • the inspection image f'' is erroneously determined to be a non-defective product.
  • the learning of the autoencoder is trained to estimate the same non-defective image from the non-defective image. This is because the presumed non-defective product image from which is removed is not always output.
  • the present embodiment is characterized by reducing the expressive power of the autoencoder by using the abnormality determination accuracy rate Rc as an evaluation value so that images other than non-defective images cannot be restored.
  • FIG. 11 shows the processing result of abnormality determination by the autoencoder of this embodiment.
  • the non-defective product learning image f (FIG. 11(a1)) is input to the autoencoder, the estimated non-defective product image h (FIG. 11(a2)) is output, and the abnormality determination accuracy rate Rc is the evaluation value.
  • the hyperparameters are determined so that the expressive power of the autoencoder is reduced as much as possible.
  • the restoration accuracy of the estimated non-defective product image h (FIG. 11(a2)) is also degraded (for example, the shape is slightly distorted with respect to the non-defective product learning image).
  • a difference ((a3) in FIG. 11) may occur between the learning image f and the estimated non-defective product image h.
  • the restoration accuracy in non-defective product learning is not a direct evaluation value, but the abnormality determination accuracy rate Rc is an evaluation value, so there is no problem if the value of Rc is high.
  • FIG. 12 shows an abnormality determination system that implements the abnormality determination method described in the above embodiments.
  • the anomaly judgment system consists of the imaging device described above and a computer (computer for anomaly judgment). Examples of imaging devices have already been described.
  • the computer is a component that processes the abnormality determination method described in this embodiment, and has the following.
  • *Processor Examples of processors include CPU (Central Processing Unit), GPU (Graphics Processing Unit), and FPGA (Field-Programmable Gate Array). There may be.
  • Storage resources Examples of storage resources include RAM (Random Access Memory), ROM (Read Only Memory), HDD (Hard Disk Drive), and non-volatile memory (flash memory, etc.).
  • the storage resource may store a program (called an abnormality determination program) that causes a processor to execute the abnormality determination method described in the above embodiments.
  • *GUI device Examples of a GUI (Graphical User Interface) device include a display and a projector, but other devices may be used as long as they can display a GUI.
  • Input device Examples of input devices include keyboards, mice, and touch panels, but other devices may be used as long as they are configured to accept operations from the user. Also, the input device and the GUI device may be an integrated device.
  • Communication interface device Examples of communication interfaces include USB (Universal Serial Bus), Ethernet (registered trademark), and Wi-Fi (registered trademark). , or other interface device as long as the interface allows the user to transmit the image to the computer.
  • a portable nonvolatile storage medium storing the image for example, flash memory, DVD (Digital Versatile Disk), CD-ROM, Blu-ray disc, etc.
  • the image is stored in the computer. good too.
  • the above is the hardware configuration of the computer. It should be noted that a plurality of computers and a plurality of imaging devices may constitute the abnormality determination system.
  • the abnormality determination program described above may be stored in the computer through the following path: * By storing the abnormality determination program in a portable non-volatile storage medium and connecting the medium to a communication interface, the program is distributed to computers.
  • the program distribution server distributes the abnormality determination program to the computer.
  • the program distribution server has a storage resource that stores the abnormality determination program, a processor that performs distribution processing for distributing the abnormality determination program, and a communication interface device that can communicate with the communication interface device of the computer.
  • two-dimensional image data was handled as input information.
  • the present invention can also be applied to The present embodiment can also be applied to a case where there are a plurality of input images and a plurality of types of estimated evaluation values (multiple inputs/multiple outputs of the evaluation engine).
  • an abnormality determination is made with two choices of whether the inspection image is good or abnormal. may If the degree of abnormality is zero or a small value, it can be regarded as a non-defective product, but if the value is large, it is judged to be abnormal. Furthermore, as the degree of anomaly increases, it can be determined that a serious anomaly has occurred.
  • the degree of abnormality As an estimation method, it is conceivable to calculate the degree of abnormality according to the degree of difference between the inspection image and the estimated non-defective product image in the comparison inspection engine. Also, in the learning phase, the user also teaches the degree of abnormality of the learning image, and the hyperparameters (309, 811) and the comparison inspection processing parameters (314, 817) are learned so that the learning image has the taught degree of abnormality. can be considered.
  • part or all of the above configurations, functions, processing units, processing means, etc. may be realized by hardware, for example, by designing them with an integrated circuit.
  • the present invention can also be implemented by software program code that implements the functions of the embodiments.
  • a computer is provided with a storage medium recording the program code, and a processor included in the computer reads the program code stored in the storage medium.
  • the program code itself read from the storage medium implements the functions of the above-described embodiments, and the program code itself and the storage medium storing it constitute the present invention.
  • Examples of storage media for supplying such program code include flexible disks, CD-ROMs, DVD-ROMs, hard disks, SSDs (Solid State Drives), optical disks, magneto-optical disks, CD-Rs, magnetic tapes, A nonvolatile memory card, ROM, or the like is used.
  • program code that implements the functions described in this embodiment can be implemented in a wide range of programs or script languages, such as assembler, C/C++, perl, Shell, PHP, Java (registered trademark), and Python.
  • all or part of the program code of the software that implements the functions of each embodiment may be stored in advance in the storage resources of the computer, or may be stored in other devices connected to the network as necessary. It may be stored in the storage resource of the computer from a temporary storage device or from a non-temporary storage medium via an external I/F (not shown) provided in the computer.
  • the program code of the software that realizes the functions of the embodiment can be stored in storage means such as a hard disk or memory of a computer or in a storage medium such as a CD-RW or CD-R.
  • a processor provided in the computer may read and execute the program code stored in the storage means or the storage medium.
  • control lines and information lines indicate those that are considered necessary for explanation, and not all the control lines and information lines are necessarily indicated on the product. All configurations may be interconnected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

オートエンコーダを利用した異常判定において、良品画像のみを用いた学習であっても、未知の異常画像に対して精度の高い異常判定を行うことを可能とする。良品の検査対象物を撮像した良品学習画像{f_i}を用いてオートエンコーダのパラメータを学習する学習ステップにおいて、良品学習画像{f_i}の異常判定正解率Rcを評価値として異常判定正解率Rcが最大あるいは所定のしきい値th以上になるように、オートエンコーダのコード層の次元圧縮率Rdを最大化する、あるいは、コード層への入力信号量またはコード層からの出力信号量を減少させる。

Description

異常判定用計算機及び異常判定方法
 本発明は、異常判定用計算機及び異常判定方法に関する。
 本発明は、好ましくは、機械学習に基づく異常判定用計算機及び異常判定方法に関する。検査対象物を撮像して取得した検査画像をオートエンコーダ(Autoencoder)に入力して前記検査画像に対応する良品画像を推定し、検査画像と推定した良品画像との比較により検査対象物が良品か異常かを自動で判定する計算機と方法とを提供する。
 機械、金属、化学、食品、繊維等を含む多くの工業製品においては検査画像を基に、形状不良、組立不良、異物の付着、内部の欠損や致命度、表面の傷や斑、汚れ等、様々な出来栄えを評価する外観検査が広く行われている。一般的に、これらの外観検査の多くは検査員の目視判断により行われてきた。
 一方、大量生産や品質向上への要求増大に伴い、検査コストならびに検査員の負荷が増大している。また、人間の感覚に基づく官能検査では特に高い経験やスキルが求められる。検査員によって評価値が異なったり、検査の度に結果が異なるといった属人性や再現性も課題となる。このような検査のコスト、スキル、属人性等の課題に対し、検査の自動化が強く求められている。
 近年、Convolutional Neural Network(CNN)に代表される深層ネットワークモデルの提案により、機械学習の性能は飛躍的に向上し、機械学習に基づく外観検査方法も多く提案されている。
 機械学習に基づいて検査対象物が良品か異常かを判定する異常判定においては、事前に検査対象物の良品画像と異常画像とを大量に収集し、判定エンジンを学習することが理想である。
 しかしながら、工業製品の製造ラインにおいて、一般に異常は稀に発生するものであり、また異常パターンも多様である。そのため、事前に多くの異常画像を網羅的に収集し、学習に用いることは大変困難である。そのため、オートエンコーダと呼ばれるニューラルネットワークを用いて良品画像のみを用いて学習を行い(良品学習と呼ばれる)、検査対象物の異常判定を行う方法が開示されている(例えば、特許文献1)。
 オートエンコーダとは、入力画像をエンコーダで縮小(次元圧縮)した後、それをデコーダで元の大きさの画像に復元するネットワークである。良品画像を入力して同じ良品画像を出力するようにオートエンコーダを学習することで、欠陥等の異常を有する異常画像を入力した場合、異常の無い良品画像(推定良品画像)が出力されることが期待される。検査画像と推定良品画像との差分をとることにより、異常部を検出することができる。
特開2020-160616号公報
 上述した特許文献1に代表される、オートエンコーダを利用した異常判定において、適切な推定良品画像が推定できない場合がある。それは、オートエンコーダの学習は、良品画像から同じ良品画像を推定するように学習されており、学習に用いていない未知の異常画像を入力した際に良好な推定良品画像、すなわち入力した異常画像から異常部を除去した推定良品画像が出力されるとは限らないからである。実際の製造ライン等で発生する異常パターンのバリエーションは多様であり、事前に全てを学習することは現実問題として困難である。そのため、良品画像のみを用いた学習により、未知の異常画像に対しても精度の高い異常判定を行う仕組みが必要である。
 本発明は上記の課題に鑑みてなされたもので、オートエンコーダを利用した異常判定において、良品画像のみを用いた学習であっても、未知の異常画像に対して精度の高い異常判定を行うことが可能な異常判定用計算機及び異常判定方法を提供することにある。
 上記課題を解決すべく、本発明の一つの観点に従う異常判定用計算機は、検査対象物の異常を判別する異常判定用計算機であって、異常判定用計算機はプロセッサを有し、プロセッサは、良品の検査対象物を撮像した良品学習画像{f_i}(i=1,…,Nf, Nf:画像枚数)を取得する良品学習画像取得ステップと、良品学習画像{f_i}を用いてオートエンコーダのパラメータを学習する学習ステップと、検査対象物を撮像した検査画像f''を取得する検査画像取得ステップと、検査画像f''をオートエンコーダに入力して推定良品画像h''を推定する良品画像推定ステップと、検査画像f''と推定良品画像h''とから比較検査エンジンにより異常判定を行う判定ステップとを実行し、学習ステップでは、良品学習画像{f_i}の異常判定正解率Rcを評価値として異常判定正解率Rcが最大あるいは所定のしきい値th以上になるように、オートエンコーダのコード層の次元圧縮率Rdを最大化する、あるいは、コード層への入力信号量またはコード層からの出力信号量を減少させることを特徴とする。
 本発明によれば、オートエンコーダを利用した異常判定において、良品画像のみを用いた学習であっても、未知の異常画像に対して精度の高い異常判定を行うことが可能な異常判定用計算機及び異常判定方法を実現することができる。
実施例1に係る自動異常判定システムおよび全体の処理シーケンスを示す図である。 オートエンコーダにおける良品学習および異常判定を示す図である。 実施例1に係る自動異常判定システムにおけるオートエンコーダならびに比較検査エンジンの学習方法を示す図である。 実施例1に係る自動異常判定システムにおけるオートエンコーダの学習方法の一例を示す図である。 オートエンコーダの学習方法の一例を示す図である。 実施例1に係る自動異常判定システムにおけるオートエンコーダの学習方法の一例を示す図である。 実施例1に係る自動異常判定システムにおけるニューラルネットワークにおけるノードの入出力を示す図である。 実施例2に係る自動異常判定システムにおける異常画像を用いたオートエンコーダの学習方法を示す図である。 実施例2に係る自動異常判定システムにおける疑似的に生成した異常画像のバリエーションを示す図である。 一般的な手法における異常判定の結果を示す図である。 実施形態に係る自動異常判定システムにおける異常判定の結果を示す図である。 実施形態に係る自動異常判定システムのハードウェア構成を示す図である。
 以下、本発明の実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。
 なお、実施例を説明する図において、同一の機能を有する箇所には同一の符号を付し、その繰り返しの説明は省略する。
 また、以下の説明では、情報の一例として「xxxデータ」といった表現を用いる場合があるが、情報のデータ構造はどのようなものでもよい。すなわち、情報がデータ構造に依存しないことを示すために、「xxxデータ」を「xxxテーブル」と言うことができる。さらに、「xxxデータ」を単に「xxx」と言うこともある。そして、以下の説明において、各情報の構成は一例であり、情報を分割して保持したり、結合して保持したりしても良い。
 なお、以下の説明では、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU(Central Processing Unit))によって実行されることで、定められた処理を、適宜に記憶資源(例えばメモリ)及び/又は通信インターフェースデバイス(例えばポート)を用いながら行うため、処理の主語がプログラムとされても良い。プログラムを主語として説明された処理は、プロセッサ或いはそのプロセッサを有する計算機が行う処理としても良い。
 本実施形態の異常判定用計算機及び異常判定方法は、一例として以下のような構成を有する。
(1)良品の検査対象物を撮像して良品学習画像{f_i}(i=1,…,Nf, Nf:画像枚数)を取得する良品学習画像取得ステップと、良品学習画像{f_i}を用いてオートエンコーダのパラメータを学習する学習ステップと、検査対象物を撮像して検査画像f''を取得する検査画像取得ステップと、検査画像f''をオートエンコーダに入力して推定良品画像h''を推定する良品画像推定ステップと、検査画像f''と推定良品画像h''から比較検査エンジンにより異常判定を行う判定ステップを含み、前記学習ステップでは、良品学習画像{f_i}の異常判定正解率Rcを評価値として前記Rcが最大あるいは所定のしきい値th以上になるように、エンコードされたコード層の次元圧縮率Rdを最大化する、あるいはコード層への入力信号量またはコード層からの出力信号量を減少させることを特徴とする。
 本特徴について補足する。異常判定エンジンは、検査画像をオートエンコーダに入力して推定良品画像を得る「良品画像推定エンジン」と、検査画像と推定良品画像を比較して異常判定を行う「比較検査エンジン」からなる。
 比較検査エンジンはルールベースの判定アルゴリズムであってもよいし、ニューラルネットワーク等の機械学習ベースの判定アルゴリズムでもよい。
 良品画像から良品画像を推定するように学習されたオートエンコーダに、未学習の異常パターンを含む検査画像を入力した際にどのような推定良品画像が出力されるかは不明である。また、その検査画像と推定良品画像との比較検査を基に、検査画像の異常判定が正しく行えるかも不明である。
 推定良品画像の出力に失敗する例として、オートエンコーダが入力した異常画像を復元できてしまうケースが挙げられる。すなわち、入力画像が異常画像であったとしても、出力画像も入力画像と類似した異常画像であれば、入力画像と出力画像の差分が小さいため良品と誤判定されてしまう。そのため、オートエンコーダは良品画像のみを復元でき、それ以外の画像は復元できないように学習されるべきである。
 オートエンコーダが学習した良品学習画像以外の画像も復元できる要因の一つとして、オートエンコーダの表現力が高過ぎることが挙げられる。そこで、本実施形態では、コード層の次元圧縮率Rdをなるべく高くするようにネットワーク構造を最適化し、オートエンコーダの表現力を低下させることを特徴とする。
 次元圧縮率Rdが高いということは、コード層において入力画像を少ないノード(特徴量)で表現することになるため、オートエンコーダが学習した良品学習画像以外の画像を表現できる可能性を低下させることができる。
 その際、異常判定正解率Rcを評価値として次元圧縮率Rdを最大化することを特徴とする。通常、オートエンコーダは良品学習画像がより高精度に復元されるように学習されるが、異常判定においては必ずしも高精度な推定良品画像が得られる必要はない。すなわち、良品画像を復元した推定良品画像が劣化したとしても、比較検査エンジンにおいて正しい異常判定が行えればよいからである。また、オートエンコーダの表現力を決定する際の評価値として異常判定正解率Rcを用いるが、前述のとおり、異常判定正解率Rcを最大にするように決定してもよいし、異常判定正解率Rcが所定のしきい値th以上になるように決定してもよい。
(2)学習ステップにおいてコード層の次元圧縮率の最大化は、コード層の各チャネルに含まれるノード数あるいはチャネル数を削減することによって行うことを特徴とする。
 本特徴について補足する。前述の通り、本実施形態では、異常判定正解率Rcを評価値として、オートエンコーダの表現力を低下させることによって良品画像以外の画像を復元できないようにする。
 オートエンコーダの表現力を低下させる方法として、コード層の次元圧縮率Rdを最大化する方法が挙げられる。具体的には、コード層の各チャネルに含まれるノード数あるいはチャネル数を削減する。コード層におけるノードの総数はエンコーダによる次元圧縮後の特徴量数と捉えることができるので、ノード総数の削減は次元圧縮率Rdを高めることになる。
(3)学習ステップにおいて、コード層への入力信号量の減少は、コード層のi番目のノードへのj番目の入力信号{x_ij}(i=1,…,Nn、Nn:コード層のノード数、j=1,…,Nx_i、Nx_i:コード層のi番目のノードへの力信号数)の重みw_ijの内、少なくとも一つ以上のノードに対する重み{w_ij | (i,j)∈Φ}(Φ:値を零にする重みw_ijの番号(i,j)の集合)の値を零または零に近い値に設定にすることによって行い、集合Φは良品学習画像{f_i}をオートエンコーダに入力した際、入力信号{x_ij}が一定値x_min以下となる番号(i,j)の集合({Φ={(i,j)} | x_ij≦x_min})であることを特徴とする。
 本特徴について補足する。異常判定正解率Rcを評価値としてオートエンコーダの表現力を低下させる方法として、コード層に含まれるノードへのいくつかの入力信号の値を減少させるという方法でもよい。すなわち、オートエンコーダの表現力を低下させるには、前述のようにノード数を削減するという直接的な方法でもよいが、あるノードを残すか削除するかの二択ではなく、あるノードへの入力信号の値を減少させることにより、復元におけるそのノードの影響力を低下させ、オートエンコーダの表現力を連続的に減少させることが可能である。
(4)比較検査エンジンは、検査画像f''と前記検査画像f''をオートエンコーダに入力して出力された推定良品画像h''との差分画像を求める差分画像生成エンジンと、前記差分画像を基に前記検査画像f''が良品か異常かを判定する差分画像評価エンジンからなり、学習ステップにおいて異常判定正解率を基に前記差分画像生成エンジンあるいは前記差分画像評価エンジンの処理パラメータを学習することを特徴とする。
 本特徴について補足する。検査画像f''と推定良品画像h''との差分画像を求めるにはいくつか方法が考えられる。単純に両画像の各画素値の差分をとってもよいが、異常ではない画像間のわずかな不一致も差分となるため、差分画像評価エンジンの異常判定において誤判定の要因になる危険がある。
 そのため、例えば局所摂動差分法(松山幸雄, 岩田尚史, 窪田仁志, 中川泰夫,“局所摂動パターンマッチング法によるLSIウェーハパターンの精密外観検査,”電子情報通信学会論文誌D, J72-D2 (12), pp.2041-2050 (1989).などを参照)を用いて差分画像を求めることが考えられる。局所摂動差分法とは一方の画像を他方の画像に対して局所領域ごとにXY平面内および明度方向に摂動して合わせ込み、合わせきれない部分を差分とする方法である。画像間のわずかな不一致を消去することができる。摂動幅は比較検査の処理パラメータの一つであり、その値によって消去される不一致量の大きさが変化する。
 また、差分画像を基に検査画像f''が良品か異常かを判定する差分画像評価エンジンにもいくつかの方法が考えられる。例えば、差分のある画素領域の明度値の分布をもとに判定を行うことが考えられるが、異常と判定する分布の大きさや明度値の大きさも比較検査の処理パラメータの一つである。
 ここでは、差分画像生成エンジンや差分画像評価エンジンとして、いわゆるルールベースのアルゴリズムを例に挙げたが、機械学習ベースのアルゴリズムであってもよい。機械学習ベースのアルゴリズムであっても学習のための処理パラメータが存在する。
 本実施形態では、異常判定正解率を評価値として、これらの処理パラメータを最適化することを特徴とする。項目(1)~(3)で述べた通り、オートエンコーダが良品以外の画像をなるべく復元できないようにするためにオートエンコーダの表現力を低下させる処理を行うが、異常判定正解率を維持したまま表現力を低下させることには限界がある。表現力を低下させると、入力画像が良品であってもオートエンコーダによる推定良品画像は劣化し、入力画像と推定良品画像には差分が発生してしまう。この多少の差分を異常と誤判定されないように、比較検査エンジンの処理パラメータの調整することにより、オートエンコーダでは、更に表現力を下げて、良品しか復元できない良品画像推定エンジンを生成し易くなる。このようなオートエンコーダの表現力を低下させるハイパーパラメータと比較検査エンジンの処理パラメータとの同時最適化により、両者の性能を補完し合って、より高精度な異常判定が可能になる。
(5)良品の検査対象物を撮像して良品学習画像{f_i}(i=1,…,Nf, Nf:画像枚数)を取得する良品学習画像取得ステップと、異常学習画像{f'_i}(i=1,…,Nf, Nf:画像枚数)を取得する異常学習画像取得ステップと、良品学習画像{f_i}と異常学習画像{f'_i}を用いてオートエンコーダのパラメータを学習する学習ステップと、検査対象物を撮像して検査画像f''を取得する検査画像取得ステップと、検査画像f''をオートエンコーダに入力して推定良品画像h''を推定する良品画像推定ステップと、検査画像f''と推定良品画像h''から比較検査エンジンにより異常判定を行う判定ステップを含み、前記学習ステップでは、良品学習画像{f_i}と異常学習画像{f'_i}の異常判定正解率Rcを評価値として前記Rcが最大あるいは所定のしきい値th以上になるように、エンコードされたコード層の次元圧縮率Rdを最大化する、あるいはコード層への入力信号量またはコード層からの出力信号量を減少させることを特徴とする。
 本特徴について補足する。異常パターンは多様であり、事前に多くの異常画像を網羅的に収集することは一般に困難である。しかし、一部であっても、いくつかの異常画像が入手できれば、異常学習画像{f'_i}として学習することで、オートエンコーダのパラメータをより適切に学習することが可能である。
 本実施形態では、異常判定正解率Rcを評価値としてオートエンコーダを学習することを特徴とするが、良品学習画像{f_i}と異常学習画像{f'_i}の両方を用いることで、異常判定正解率Rcをより正確に推定することが可能となる。
(6)異常学習画像{f'_i}は疑似異常画像生成エンジンによって生成した疑似異常画像であり、前記疑似異常画像生成エンジンは良品学習画像{f_i}に画像処理を施すことによって画像を生成することを特徴とする。
 本特徴について補足する。前述の通り異常画像の収集は一般に困難であり、項目(5)において異常学習画像{f'_i}を事前に用意できない、あるいは何枚か用意できたとしても、多くの異常パターンを網羅的に収集できない場合がある。
 そこで、良品学習画像{f_i}に画像処理を施すことによって、様々な異常画像を疑似的に生成し、学習に用いることを特徴とする。疑似異常画像生成エンジンにおける画像処理は実際の検査対象において発生しうる異常を模擬したものであり、良品学習画像に対して、異物の付着、欠け等の欠損、傷、表面の斑や汚れ、形状変形、等を施すバリエーションが挙げられる。
1. 自動異常判定システムと全体の処理シーケンス
 本実施形態における自動異常判定システムおよび全体の処理シーケンスを図1に示す。
 本実施形態の自動異常判定システムにおける処理シーケンスは、大きく学習フェーズ(100)と検査フェーズ(101)に分かれる。
 学習フェーズ(100)では、学習用に良品の検査対象物(102)を撮像して良品学習画像{f_i}(i=1,…,Nf, Nf:画像枚数)を取得する(103)。画像は、CCDカメラ、光学顕微鏡、荷電粒子顕微鏡、超音波検査装置、X線検査装置、等の撮像装置で検査対象物の表面あるいは内部をデジタル映像として撮像することで取得する。
 なお、「取得」の他の例としては、ほかのシステムで撮像した画像を単に受信して、自動異常判定システムが有する記憶資源に格納するだけでもよい。
 次に、良品学習画像{f_i}を用いてオートエンコーダを活用した良品画像推定エンジンを学習する(104)。すなわち、入力画像を入力として良品画像が出力されるようにオートエンコーダのネットワークパラメータを学習により決定する。
 良品である良品学習画像を用いて学習する際には、基本的には良品学習画像を入力して、同じ良品学習画像が出力されるようにネットワークパラメータを決定する。
 ネットワークパラメータには、ネットワーク構造等の「ハイパーパラメータ」と、ネットワークのノード間の重み(結合係数)やバイアス等の「モデルパラメータ」が含まれ、それぞれを決定する(105、106)。ハイパーパラメータには、ネットワークの層数や層内のノード数、活性化関数、学習率や学習の終了条件等が含まれる。
 また、良品画像推定エンジンの入力画像と出力画像を比較して、入力画像が良品か異常かを判定する比較検査エンジンのパラメータを学習する(107)。
 検査フェーズ(101)では、実際の検査対象物(102)を撮像して(103)、検査画像f''を取得して、異常判定を行う(111)。
 具体的には、検査画像f''を学習フェーズ(100)において決定したハイパーパラメータ(108)およびモデルパラメータ(109)に基づくオートエンコーダに入力して、推定良品画像h''を推定する(112)。また、検査画像f''と推定良品画像h''とを、学習フェーズ(100)において決定した比較検査処理パラメータ(110)に基づく比較検査エンジンに入力して検査画像f''が良品か異常かを判定する(113)。必要に応じて、この判定結果を検査員が確認する(114)。
2. オートエンコーダによる良品画像推定
 オートエンコーダによる良品画像推定の詳細について図2を用いて説明する。
 オートエンコーダ(Geoffrey E. Hinton and R. R. Salakhutdinov,“Reducing the Dimensionality of Data with Neural Networks,”Science, 313 (5786), pp.504-507 (2006).などを参照)はいわゆる次元圧縮型のネットワークで、入力画像を入力層(207)に入力しエンコーダ(205)で一度圧縮して、入力層よりも少ないノードで構成されるコード層(209)に変換する。
 このコード層におけるノード{g_i}(i=1,…,Ng, Ng:コード層のノード数)の各値は入力画像を次元圧縮した特徴量と捉えることもできる。このコード層をデコーダ(206)で復元処理し、再度、入力画像の次元数をもつ出力層(211)に戻す。
 学習フェーズ(良品学習)の処理シーケンス200に示すように、学習時に入力画像f_iを良品画像(202)として、良品画像(202)から同じ良品画像が出力画像h_i(212)として復元されるように学習すると、オートエンコーダは良品だけが復元できる良品画像推定エンジンになると期待される。
 このように学習されたオートエンコーダを用いることによって、検査フェーズ(異常判定)における処理シーケンス201では実際の検査対象物に対して異常判定を行うことができる。
 すなわち、入力した検査画像f''_iが良品だった場合、オートエンコーダは検査画像f''_iと同様の画像を推定良品画像:h''_iとして出力するため、検査画像f''_iと推定良品画像:h''_iの差分はなく、検査画像f''_iは良品と判定される。一方、入力した検査画像f''_i(203)に例えば異物付着等の異常(204)が含まれる場合、オートエンコーダは異常部を正確に復元できず、異常のない推定良品画像:h''_i(213)が出力される。そのため、異常部において検査画像f''_iと推定良品画像:h''_iの差分が発生し、検査画像f''_iは異常と判定される。
 しかし、ここで説明した図2の検査フェーズ201における正しい異常判定結果が常に得られるとは限らない。なぜなら、学習フェーズにおいて異常画像を明示的に学習したわけではなく、未知の異常画像に対する復元結果がどうなるかは不明だからである。つまり、学習フェーズ200では良品画像から良品画像を復元するように学習したので、検査フェーズ201においても良品画像から良品画像が復元されることが期待されるが、異常画像が復元されるか否かは異常パターンの種類に依存する。実際の実験においても、オートエンコーダで異常画像が復元できてしまい、正しい異常判定が行えないケースが確認されている。本実施例はこの課題を解決する。
3. オートエンコーダの最適化
3.1 基本的な処理
 前述の課題を解決するため、本実施例は、良品の検査対象物を撮像して良品学習画像{f_i}(i=1,…,Nf, Nf:画像枚数)を取得する良品学習画像取得ステップと、良品学習画像{f_i}を用いてオートエンコーダのパラメータを学習する学習ステップと、検査対象物を撮像して検査画像f''を取得する検査画像取得ステップと、検査画像f''をオートエンコーダに入力して推定良品画像h''を推定する良品画像推定ステップと、検査画像f''と推定良品画像h''から比較検査エンジンにより異常判定を行う判定ステップを含み、前記学習ステップでは、良品学習画像{f_i}の異常判定正解率Rcを評価値として前記Rcが最大あるいは所定のしきい値th以上になるように、エンコードされたコード層の次元圧縮率Rdを最大化する、あるいはコード層への入力信号量またはコード層からの出力信号量を減少させることを特徴とする。
 本特徴について図3を用いて説明する。異常判定エンジンは、検査画像をオートエンコーダに入力して推定良品画像を得る「良品画像推定エンジン(301)」と、検査画像(学習時は良品学習画像)と推定良品画像を比較して異常判定を行う「比較検査エンジン(311)」からなる。
 比較検査エンジンはルールベースの判定アルゴリズムであってもよいし、ニューラルネットワーク等の機械学習ベースの判定アルゴリズムでもよい。
 前述のように、良品画像から良品画像を推定するように学習されたオートエンコーダに、未学習の異常パターンを含む検査画像を入力した際にどのような推定良品画像が出力されるかは不明である。また、その検査画像と推定良品画像との比較検査を基に、検査画像の異常判定が正しく行えるかも不明である。
 推定良品画像の出力に失敗する例として、オートエンコーダが入力した異常画像を復元できてしまうケースが挙げられる。すなわち、入力画像が異常画像であったとしても、出力画像も入力画像と類似した異常画像であれば、入力画像と出力画像の差分が小さいため良品と誤判定されてしまう。そのため、オートエンコーダは良品画像のみを復元でき、それ以外の画像は復元できないように学習されるべきである。
 オートエンコーダが学習した良品学習画像以外の画像も復元できる要因の一つとして、オートエンコーダの表現力が高過ぎることが挙げられる。そこで、本実施例では、コード層(306)の次元圧縮率Rdをなるべく高くするように、ネットワーク構造を最適化しオートエンコーダの表現力を低下させることを特徴とする。
 次元圧縮率Rdが高いということは、コード層(306)において入力画像を少ないノード(特徴量)で表現することになるため、オートエンコーダが学習した良品学習画像以外の画像を表現できる可能性を低下させることができる。
 その際、比較検査エンジン(311)の判定結果から得られる異常判定正解率Rc(処理315で算出)を評価値として次元圧縮率Rdを最大化することを特徴とする。すなわち、ハイパーパラメータ309の一つであるコード層のノード数を最小化する。
 通常、オートエンコーダは良品学習画像がより高精度に復元されるように学習されるが、異常判定においては必ずしも高精度な推定良品画像が得られる必要はない。すなわち、良品画像(300)を復元した推定良品画像(310)が劣化したとしても、比較検査エンジン(311)において正しい異常判定が行えればよいからである。
 また、オートエンコーダの表現力を決定する際の評価値として異常判定正解率Rcを用いるが、異常判定正解率Rcが改善するように表現力を決定することを特徴とし、その具体的な方法としては前述のとおり、異常判定正解率Rcを最大にするように決定してもよいし、異常判定正解率Rcが所定のしきい値th以上になるように決定してもよい(315)。
3.2 コード層の最適化の具体例
 コード層の最適化について大きく2種類の方法について説明する。
 一つ目は、学習ステップにおいてコード層の次元圧縮率の最大化は、コード層の各チャネルに含まれるノード数あるいはチャネル数を削減することによって行うことを特徴とする。
 本特徴について補足する。前述の通り、本発明では異常判定正解率Rcを評価値としてオートエンコーダの表現力を低下させることによって、良品画像以外の画像を復元できないようにする。オートエンコーダの表現力を低下させる方法として、コード層の次元圧縮率Rdを最大化する方法が挙げられる。具体的には、コード層の各チャネルに含まれるノード数あるいはチャネル数を削減する。コード層におけるノードの総数はエンコーダによる次元圧縮後の特徴量数と捉えることができるので、ノード総数の削減は次元圧縮率Rdを高めることになる。
 図4に各層が1次元で表現されたネットワーク構造の模式図を例示し、具体的なコード層のノード数の削減方法について説明する。
 図4(a)は比較的コード層におけるノード数が多く、オートエンコーダの表現力が高いネットワーク構造の例である。入力層(402)のノード数は10としている。ただし、これは模式的な図であり、検査画像をそのまま入力する場合、入力層のノード数は検査画像の画素数と等しくなる。
 この入力層(402)のノード数をエンコーダ(400)によりコード層(404)のノード数6に次元圧縮している。すなわち、次元圧縮率Rdは(10-6)/10×100=40%である。
 これに対し、図4(b)のネットワーク構造におけるコード層(411)のノード数は4となっている。次元圧縮率Rdは(10-4)/10×100=60%であり、圧縮率が高くなっている。そのため、図4(a)より図4(b)の方が異常判定正解率Rcが改善する場合、あるいは図4(b)においても異常判定正解率Rcが所定のしきい値th以上である場合、図4(b)のネットワーク構造を採用して、より良品学習画像以外の画像が表現できる可能性を低下させ、未知の異常画像に対する異常判定正解率を向上させるべきである。
 図4(c)ではコード層(418)のノード数は2となっている。次元圧縮率Rdは(10-2)/10×100=80%であり、圧縮率は更に高くなっている。もし図4(b)より図4(c)の方が更に異常判定正解率Rcが改善する場合、あるいは図4(b)においても異常判定正解率Rcが所定のしきい値th以上である場合、図4(c)のネットワーク構造を採用するべきであるし、更に圧縮率の高いネットワーク構造も評価するべきである。しかし、もしそのような性能が確認できなかった場合は、ネットワークの表現力を下げ過ぎたために、良品画像が正確に復元できなくなってしまった可能性があるため、図4(c)は採用できない。
 なお、図4においてはエンコーダ(400、407、414)もデコーダ(401、408、415)も2層のネットワーク(例えばエンコーダ400では入力層402から中間層403、コード層404へと続くネットワーク)としたが、2層以上のネットワークとすることも可能ある。
 また、コード層(404、411、418)のノード数も6、4、2と離散的な値を例示したが、実際の最適化においては任意の値を検証し、選択することができる。更にコード層のノード数の最適化に伴って、エンコーダやデコーダにおけるネットワーク構造(層数、ノード数、チャネル数、エッジが接続するノードの組み合せ、等)を変更することができる。
 図5に各層が2次元で表現されたネットワーク構造の模式図を例示し、具体的なコード層のノード数の削減方法について説明する。
 図4では検査画像の画素値を一列に繋ぎ合わせて1次元配列として入力するイメージを示したが、図5に示すように横のピクセル数がNx1、縦のピクセル数がNy1の検査画像をNx1×Ny1の2次元ノード配列から成る入力層(L1)にそのまま入力してもよい。
 入力層(L1)に対して畳み込みとプーリングを行うことによって中間層(L2)を得るのが一般的である。プーリングにより中間層の画像サイズNx2×Ny2はNx1×Ny1より小さくなる。
 この際、畳み込みのフィルタを複数設けることにより複数枚の画像を生成する。この画像枚数のことをチャネル数と呼び、中間層(L2)ではチャネル数はNc2である。
 同様に中間層(L2)からコード層(L3)を生成し、コード層(L3)は画像サイズNx3×Ny3、チャネル数Nc3となっている。ここまでがエンコーダである。コード層(L3)から中間層(L4)を経て元の画像サイズ(Nx1=Nx5、Ny1=Ny5)である出力層(L5)を得るネットワークがデコーダである。
 本実施例では異常判定正解率Rcを評価値としてオートエンコーダの表現力を低下させるが、その方法としては、コード層の各チャネルに含まれるノード数(Nx3×Ny3)あるいはチャネル数(Nc3)を削減する手法がある。
 二つ目は、学習ステップにおいてコード層への入力信号量の減少は、コード層のi番目のノードへのj番目の入力信号{x_ij}(i=1,…,Nn、Nn:コード層のノード数、j=1,…,Nx_i、Nx_i:コード層のi番目のノードへの力信号数)の重みw_ijの内、少なくとも一つ以上のノードに対する重み{w_ij | (i,j)∈Φ}(Φ:値を零にする重みw_ijの番号(i,j)の集合)の値を零または零に近い値に設定にすることによって行い、集合Φは良品学習画像{f_i}をオートエンコーダに入力した際、入力信号{x_ij}が一定値x_min以下となる番号(i,j)の集合({Φ={(i,j)} | x_ij≦x_min})であることを特徴とする。
 本特徴について補足する。異常判定正解率Rcを評価値としてオートエンコーダの表現力を低下させる方法として、コード層に含まれるノードへのいくつかの入力信号の値を減少させるという方法でもよい。すなわち、オートエンコーダの表現力を低下させるには、前述のようにノード数を削減するという直接的な方法でもよいが、あるノードを残すか削除するかの二択ではなく、あるノードへの入力信号の値を減少させることにより、復元におけるそのノードの影響力を低下させ、オートエンコーダの表現力を連続的に減少させることが可能である。
 図6、図7を用いて具体的に説明する。
 図6は、本実施例において良品画像の推定を行うオートエンコーダの一例である。L1~L5の5層からなり、L3はコード層(604)である。
 コード層における1番目(i=1)のノード(610)および、コード層における1番目のノード(610)とエッジにより繋がっている中間層(L2)における3つのノード(607、608、609)をピックアップして図7に示す。
 ノード(610)から出力される信号量uは、3つのノード(607、608、609)から出力される信号量{x_1j}(j=1,2,3)から、次式により計算される。
 u = A(t)    ・・・(式1)
 t = w_11*x_11+w_12*x_12+w_13*x_13+b_1 ・・・(式2)
ここで、A()は活性化関数であり、様々な非線形関数が提案されているが、最近ではReLU(ランプ関数)が広く用いられている。また、{w_1j}は中間層(L2)におけるj番目のノードとコード層(L3)における1番目のノードを繋ぐエッジの重み、b_1はバイアス量であり、共に学習により最適化されるモデルパラメータ(109)である。
 本実施例では、重みの一部を意図的に零または零に近い値に設定にすることでオートエンコーダの表現力を低下させる。重みを小さく設定する基準の一つとして、信号量の大きさを用いることができる。良品画像を入力層(602)に入力した際、信号量の小さいエッジは、良品画像を表現することに大きく寄与していないと考えることができる。例えば、図7において信号量x_12が小さければ、エッジ701の重みw_12の値を学習により設定された値に対して小さく補正する。
 ここでは、中間層(L2)からコード層(L3)への重みを例に、値を小さく設定することを説明したが、任意の層間の重みについて同様に値を小さく設定することができる。値を小さく設定し、零に近い値になる程、その重みのかかったエッジはより無効化される。その結果、オートエンコーダの表現力は低下し、ノード総数を削減しなくても次元圧縮率Rdを高めることと同等の効果が得られる。
4. 比較検査エンジンの処理パラメータ調整
 比較検査エンジンは、検査画像f''と前記検査画像f''をオートエンコーダに入力して出力された推定良品画像h''との差分画像を求める差分画像生成エンジンと、前記差分画像を基に前記検査画像f''が良品か異常かを判定する差分画像評価エンジンからなり、学習ステップにおいて異常判定正解率を基に前記差分画像生成エンジンあるいは前記差分画像評価エンジンの処理パラメータを学習することを特徴とする。
 本特徴について図3を用いて説明する。本実施例では、検査画像f''_iを良品画像推定エンジン(オートエンコーダ)に入力して推定良品画像h''_iを出力する。検査画像f''_iと推定良品画像h''_iを比較検査エンジン(311)で比較することにより検査画像f''_iが良品か異常かを判定する。
 比較には様々なアルゴリズムを用いることができるが、その一例として、差分画像生成エンジン(312)と差分画像評価エンジン(313)から成る比較検査エンジンを考える。
 差分画像生成エンジン(312)において、検査画像f''と推定良品画像h''との差分画像を求めるにはいくつか方法が考えられる。単純に両画像の各画素値の差分をとってもよいが、異常ではない画像間のわずかな不一致も差分となるため、差分画像評価エンジンの異常判定において誤判定の要因になる危険がある。そのため、例えば局所摂動差分法(松山幸雄, 岩田尚史, 窪田仁志, 中川泰夫,“局所摂動パターンマッチング法によるLSIウェーハパターンの精密外観検査,”電子情報通信学会論文誌D, J72-D2 (12), pp.2041-2050 (1989).などを参照)を用いて差分画像を求めることが考えられる。
 局所摂動差分法とは、一方の画像を他方の画像に対して局所領域ごとにXY平面内および明度方向に摂動して合わせ込み、合わせきれない部分を差分とする方法である。画像間のわずかな不一致を消去することができる。摂動幅は比較検査の処理パラメータ(314)の一つであり、その値によって消去される不一致量の大きさが変化する。
 また、差分画像を基に検査画像f''が良品か異常かを判定する差分画像評価エンジン(313)にもいくつかの方法が考えられる。例えば、差分のある画素領域の明度値の分布をもとに判定を行うことが考えられるが、異常と判定する分布の大きさや明度値の大きさも比較検査の処理パラメータ(314)の一つである。
 ここでは、差分画像生成エンジン(312)や差分画像評価エンジン(313)として、いわゆるルールベースのアルゴリズムを例に挙げたが、機械学習ベースのアルゴリズムであってもよい。機械学習ベースのアルゴリズムであっても学習のための処理パラメータ(314)が存在する。
 本実施例では、異常判定正解率を評価値として、これらの処理パラメータを最適化することを特徴とする。前述の通り、オートエンコーダが良品以外の画像をなるべく復元できないようにするためにオートエンコーダの表現力を低下させる処理を行うが、異常判定正解率を維持したまま表現力を低下させることには限界がある。表現力を低下させると、入力画像が良品であってもオートエンコーダによる推定良品画像は劣化し、入力画像と推定良品画像には差分が発生してしまう。
 この多少の差分を異常と誤判定されないように、比較検査エンジンの処理パラメータを調整することにより、オートエンコーダでは、更に表現力を下げて、良品しか復元できない良品画像推定エンジンを生成し易くなる。このようなオートエンコーダの表現力を低下させるハイパーパラメータ(309)と比較検査エンジンの処理パラメータ(314)との同時最適化を処理315において行うことにより、両者の性能を補完し合って、より高精度な異常判定が可能になる。
 局所摂動差分法のように、検査画像f''と推定良品画像h''との比較において、わずかな不一致を差分として検出しない手法を差分画像生成エンジンに用いることは、本実施例における特徴の一つである。なぜなら、図11を用いて後述するように、本実施例では推定良品画像の復元精度を多少犠牲にしてもオートエンコーダの表現力を低下させて、異常パターンを確実に検出することで異常判定正解率Rcを向上させるためである。そのためには、良品において発生する多少の差分に対しては感度が低い手法を用いることが必須である。
 よって、本実施例によれば、オートエンコーダを利用した異常判定において、良品画像のみを用いた学習であっても、未知の異常画像に対して精度の高い異常判定を行うことが可能な異常判定用計算機及び異常判定方法を実現することができる。
5.疑似異常画像を用いた異常判定方法の最適化
 良品の検査対象物を撮像して良品学習画像{f_i}(i=1,…,Nf, Nf:画像枚数)を取得する良品学習画像取得ステップと、異常学習画像{f'_i}(i=1,…,Nf, Nf:画像枚数)を取得する異常学習画像取得ステップと、良品学習画像{f_i}と異常学習画像{f'_i}を用いてオートエンコーダのパラメータを学習する学習ステップと、検査対象物を撮像して検査画像f''を取得する検査画像取得ステップと、検査画像f''をオートエンコーダに入力して推定良品画像h''を推定する良品画像推定ステップと、検査画像f''と推定良品画像h''から比較検査エンジンにより異常判定を行う判定ステップを含み、前記学習ステップでは、良品学習画像{f_i}と異常学習画像{f'_i}の異常判定正解率Rcを評価値として前記Rcが最大あるいは所定のしきい値th以上になるように、エンコードされたコード層の次元圧縮率Rdを最大化する、あるいはコード層への入力信号量またはコード層からの出力信号量を減少させることを特徴とする。
 本特徴について図8を用いて説明する。異常パターンは多様であり、事前に多くの異常画像を網羅的に収集することは一般に困難である。しかし、一部であっても、いくつかの異常画像が入手できれば、異常学習画像{f'_i}として学習することで、オートエンコーダのパラメータをより適切に学習することが可能である。
 すなわち、良品学習画像f_i(800)と推定良品画像h_i(812)がなるべく類似し、また、異常学習画像f'_i(802)と推定良品画像h'_i(813)が異常部分においてなるべく乖離すると、異常判定正解率Rcは改善する傾向にある。
 本実施例では、異常判定正解率Rcを評価値としてオートエンコーダを学習することを特徴とするが、良品学習画像{f_i}(800)と異常学習画像{f'_i}(802)の両方を用いることで、異常判定正解率Rcをより正確に推定することが可能となる。
 異常学習画像{f'_i}は疑似異常画像生成エンジンによって生成した疑似異常画像であり、前記疑似異常画像生成エンジンは良品学習画像{f_i}に画像処理を施すことによって画像を生成することを特徴とする。
 本特徴について図8を用いて説明する。前述の通り異常画像の収集は一般に困難であり、異常学習画像{f'_i}(802)を事前に用意できない、あるいは何枚か用意できたとしても、多くの異常パターンを網羅的に収集できない場合がある。そこで、良品学習画像{f_i}(800)に画像処理を施すことによって、様々な異常画像を疑似的に生成し、学習に用いることを特徴とする。
 その場合、異常学習画像f'_iを疑似的に生成する際に元になった良品学習画像(800)が存在するため、学習においては、推定良品画像h'_i(813)と対応する良品学習画像(800)がなるべく類似すると、異常判定正解率Rcは改善する傾向にある。
 疑似異常画像生成エンジン(801)における画像処理は実際の検査対象において発生しうる異常を模擬したものであり、図9に示す通り、良品学習画像(図9(a))に対して、異物の付着(図9(b))、欠け等の欠損(図9(c))、傷(図9(d))、表面の斑や汚れ(図9(e))、形状変形(図9(f))、等を施すバリエーションが挙げられる。
 また、図8に示した疑似異常画像を用いた異常判定においても、疑似異常画像を用いなかった図3と同様に、学習ステップにおいて異常判定正解率Rcを基にハイパーパラメータ(811)(コード層のノード数、等)および、比較検査処理パラメータ(817)(例えば、差分画像生成エンジン(815)あるいは前記差分画像評価エンジン(816)の処理パラメータ、等)を学習することを特徴とする。加えて、異常判定正解率Rcを基に疑似異常画像生成エンジン(801)における画像処理の処理パラメータ(疑似異常画像の生成方法や生成枚数、等)を学習することを特徴とする。
 ハイパーパラメータ(811)と比較検査処理パラメータ(817)と疑似異常画像生成エンジン(801)の処理パラメータの同時最適化を処理818において行うことができる。
 現実問題として異常パターンのバリエーションを網羅的に収集することが困難であるため、良品教示によって異常判定の性能を出すことが求められる。一方、未知の異常パターンに対して性能を出すことは本質的に困難な課題である。よって、良品画像の情報だけで努力できることは、良品のみを復元するオートエンコーダを生成することである。そのためには、比較検査エンジンの処理パラメータや疑似異常画像生成エンジンの処理パラメータ等、全ての処理パラメータの調整を駆使して、異常判定正解率Rcを維持したまま、コード層の表現力を下げられるところまで下げることが重要となる。
 よって、本実施例によっても、オートエンコーダを利用した異常判定において、良品画像のみを用いた学習であっても、未知の異常画像に対して精度の高い異常判定を行うことが可能な異常判定用計算機及び異常判定方法を実現することができる。
6.処理結果例
 処理結果例を用いて本実施形態の効果を示す。
 図10は一般的なオートエンコーダによる異常判定の処理結果である。
 図10上段に示す学習フェーズでは、良品学習画像f(図10(a1))をオートエンコーダに入力して推定良品画像h(図10(a2))を出力し、良品学習画像fと推定良品画像hが類似するようにオートエンコーダのモデルパラメータを学習する。その結果、良品学習画像fと推定良品画像hとの単純差分(図10(a3))はほぼ無くなり、良品画像は良品と正しく判定されることになる。
 検査フェーズでは、このように学習されたオートエンコーダを用いて検査画像f''の異常判定を行う。異常パターンの種類によっては図10中段に示すように正しい異常判定が行える場合もある。すなわち、異常部として異物(1000)を含む検査画像f''(図10(b1))をオートエンコーダに入力して出力される推定良品画像h''(図10(b2))において異常部が復元できない場合である。このとき、異常部が検査画像f''と推定良品画像h''との差分(図10(b3))として抽出されるため、検査画像f''は異常と正しく判定されることになる。
 一方、図10下段に示すように、正しい異常判定が行えない場合がある。すなわち、異常部として欠損(1001)を含む検査画像f''(図10(c1))をオートエンコーダに入力して出力される推定良品画像h''(図10(c2))において異常部が復元できてしまう場合である。このとき、異常部が検査画像f''と推定良品画像h''との差分(図10(c3))として抽出されないため、検査画像f''は良品と誤って判定されることになる。
 オートエンコーダの学習は、良品画像から同じ良品画像を推定するように学習されており、学習に用いていない未知の異常画像を入力した際に良好な推定良品画像、すなわち入力した異常画像から異常部を除去した推定良品画像が出力されるとは限らないためである。
 これに対し、本実施形態では、異常判定正解率Rcを評価値としてオートエンコーダの表現力を低下させることによって、良品画像以外の画像を復元できないようにすることを特徴とする。
 図11は本実施形態のオートエンコーダによる異常判定の処理結果である。
 図11上段に示す学習フェーズでは、良品学習画像f(図11(a1))をオートエンコーダに入力して推定良品画像h(図11(a2))を出力し、異常判定正解率Rcを評価値として、なるべくオートエンコーダの表現力が低下するようにハイパーパラメータを決定する。
 表現力を低下させた結果、推定良品画像h(図11(a2))の復元精度も低下し(例えば良品学習画像に対して多少形状が歪む等)、入力画像が良品であったとしても良品学習画像fと推定良品画像hとの差分(図11(a3))が発生する可能性がある。しかし、本実施形態では良品学習における復元精度が直接的な評価値ではなく、異常判定正解率Rcが評価値であるため、Rcの値が高ければ問題はない。すなわち、入力画像が良品か異常かは単に良品学習画像fと推定良品画像hの単純な差分の有無で決まるのではなく、比較検査エンジンによって決まるため、多少の差分が発生しても正しい異常判定が行えるように比較検査エンジンの処理パラメータを調整できればよい。
 異常判定正解率Rcを維持した上で復元精度を多少犠牲にしてもオートエンコーダの表現力を低下させることにより、未知の異常画像を復元できなくなる可能性が増す。その結果、図11中段に示すように、推定良品画像h''(図11(b2))において従来も復元できなかった異物(1100)を含む検査画像f''(図11(b1))を異常と正しく判定できることは勿論、図11下段に示すように、従来は復元できてしまった欠損(1101)が推定良品画像h''(図11(c2))において復元できなくなり、検査画像f''(図11(c1))を異常と正しく判定できるようになる。
7.自動異常判定システムのハードウェア構成
 以上の実施形態にて説明した異常判定方法を実現する異常判定システムを図12に示す。
 異常判定システムは、前述の撮像装置と、計算機(異常判定用計算機)により構成される。撮像装置の例はすでに説明した通りである。
 計算機は、本実施形態で説明した異常判定方法を処理する構成物であり、以下を有する。
*プロセッサ:プロセッサの例としてはCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)が考えられるが、異常判定方法を処理できるのであれば、ほかの構成物であってもよい。
*記憶資源:記憶資源の例としてはRAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、不揮発メモリ(フラッシュメモリ等)が考えられる。当該記憶資源は、以上の実施形態にて説明した異常判定方法をプロセッサに実行させるプログラム(異常判定プログラムと呼ぶ)を格納してもよい。
*GUI装置:GUI(Graphical User Interface)装置の例としては、ディスプレイやプロジェクタ等が考えられるが、GUIを表示ができるのであれば、ほかの装置でもよい。
*入力装置:入力装置の例としては、キーボード、マウス、タッチパネルが考えられるが、ユーザからの操作を受け付けられる構成物であれば他の装置でもよい。また、入力装置とGUI装置とは一体の装置であってもよい。
*通信インターフェース装置: 通信インターフェースの例としては、USB(Universal Serial Bus)、イーサネット(Ethernet:登録商標)、Wi-Fi(登録商標)といった例が考えられるが、撮像装置から画像を直接受信できたり、又はユーザが当該画像を計算機に送信できるインターフェースであれば、ほかのインターフェース装置であってもよい。また、当該通信インターフェースに、当該画像を格納した可搬不揮発記憶媒体(たとえばフラッシュメモリ、DVD(Digital Versatile Disk)、CD-ROM、ブルーレイディスク等の)を接続し、計算機に当該画像を格納してもよい。
以上が計算機のハードウェア構成である。なお、異常判定システムを構成する計算機は複数であってもよく、撮像装置が複数であってもよい。
 なお、前述の異常判定プログラムは、以下の経路で計算機に格納されてもよい:
*異常判定プログラムを可搬不揮発記憶媒体に格納し、当該媒体を通信インターフェースに接続することで、当該プログラムを計算機に配布する。
*プログラム配信サーバにより異常判定プログラムを計算機に配信する。なお、プログラム配信サーバは、異常判定プログラムを格納した記憶資源と、異常判定プログラムを配信する配信処理を行うプロセッサと、計算機の通信インターフェース装置と通信可能である通信インターフェース装置、とを有する。
8.その他
 以上で実施形態の説明を終える。前述の通り、これまで説明した実施形態は特許請求の範囲に係る発明を限定するものではなく、また、実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。
 一例として、本実施形態では入力情報として二次元の画像データを扱ったが、超音波の受信波等の一次元信号や、レーザレンジファインダ等で取得した三次元のボリュームデータを入力情報とした場合も本発明を適用することが可能である。また、入力画像が複数枚、推定評価値が複数種類の場合も本実施形態を適用することが可能である(評価エンジンが多入力・多出力)。
 また、実施形態では検査画像が良品か異常かの2択の異常判定を扱ったが、例えば異常の大きさや致命度に応じた異常の度合いを定量化した「異常度」を連続量として推定してもよい。異常度が零あるいは小さな値であれば良品とみなせるが、大きな値は異常と判断される。更に異常度が大きくなるにつれ、深刻な異常が発生していると判断することができる。
 推定方法として、比較検査エンジンにおいて検査画像と推定良品画像の差分の度合いに応じて異常度を算出することが考えられる。また、学習フェーズにおいてユーザが学習画像の異常度も教示し、前記学習画像が教示された異常度になるようにハイパーパラメータ(309、811)および比較検査処理パラメータ(314、817)を学習することが考えられる。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
 また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)、Python等の広範囲のプログラムまたはスクリプト言語で実装できる。
 さらに、各実施例の機能を実現するソフトウェアのプログラムコードのすべてまたは一部は、予め計算機の記憶資源に格納されていてもよいし、必要に応じて、ネットワークに接続された他の装置の非一時的記憶装置から、または計算機が備える図略の外部I/Fを介して、非一時的な記憶媒体から、計算機の記憶資源に格納されてもよい。
 さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段またはCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
 上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
 102…検査対象物 300、800…良品学習画像 301、803…良品画像推定エンジン 306、404、411、418、604…コード層 310、812、813…推定良品画像 311…比較検査エンジン 312、815…差分画像生成エンジン 313、813…差分画像評価エンジン 801…疑似異常画像生成エンジン 802…異常学習画像
     

Claims (15)

  1.  検査対象物の異常を判別する異常判定用計算機であって、
     前記異常判定用計算機はプロセッサを有し、前記プロセッサは、
     良品の前記検査対象物を撮像した良品学習画像{f_i}(i=1,…,Nf, Nf:画像枚数)を取得する良品学習画像取得ステップと、
     前記良品学習画像{f_i}を用いてオートエンコーダのパラメータを学習する学習ステップと、
     前記検査対象物を撮像した検査画像f''を取得する検査画像取得ステップと、
     前記検査画像f''を前記オートエンコーダに入力して推定良品画像h''を推定する良品画像推定ステップと、
     前記検査画像f''と前記推定良品画像h''とから比較検査エンジンにより異常判定を行う判定ステップと
    を実行し、
     前記学習ステップでは、前記良品学習画像{f_i}の異常判定正解率Rcを評価値として前記異常判定正解率Rcが最大あるいは所定のしきい値th以上になるように、前記オートエンコーダのコード層の次元圧縮率Rdを最大化する、あるいは、前記コード層への入力信号量または前記コード層からの出力信号量を減少させる
    ことを特徴とする異常判定用計算機。
  2.  請求項1に記載の異常判定用計算機において、
     前記学習ステップにおける前記コード層の前記次元圧縮率Rdの最大化は、前記コード層の各チャネルに含まれるノード数あるいはチャネル数を削減することによって行う
    ことを特徴とする異常判定用計算機。
  3.  請求項1に記載の異常判定用計算機において、
     前記学習ステップにおける前記コード層への前記入力信号量の減少は、前記コード層のi番目のノードへのj番目の入力信号{x_ij}(i=1,…,Nn、Nn:コード層のノード数、j=1,…,Nx_i、Nx_i:コード層のi番目のノードへの力信号数)の重みw_ijの内、少なくとも一つ以上の前記ノードに対する重み{w_ij | (i,j)∈Φ}(Φ:値を零にする重みw_ijの番号(i,j)の集合)の値を零または零に近い値に設定にすることによって行い、
     前記集合Φは、前記良品学習画像{f_i}を前記オートエンコーダに入力した際、前記入力信号{x_ij}が一定値x_min以下となる番号(i,j)の集合({Φ={(i,j)} | x_ij≦x_min})である
    ことを特徴とする異常判定用計算機。
  4.  請求項1に記載の異常判定用計算機において、
     前記比較検査エンジンは、
     前記検査画像f''と前記推定良品画像h''との差分画像を求める差分画像生成エンジンと、
     前記差分画像を基に前記検査画像f''が良品か異常かを判定する差分画像評価エンジンと
    を有し、
     前記学習ステップでは、前記異常判定正解率Rcを基に前記差分画像生成エンジンあるいは前記差分画像評価エンジンの処理パラメータを学習する
    ことを特徴とする異常判定用計算機。
  5.  請求項4に記載の異常判定用計算機において、
     前記差分画像生成エンジンは局所摂動差分法を用いて前記差分画像を求め、
     前記差分画像生成エンジンの処理パラメータは少なくとも摂動幅を含む
    ことを特徴とする異常判定用計算機。
  6.  請求項1に記載の異常判定用計算機において、
     異常学習画像{f'_i}(i=1,…,Nf, Nf:画像枚数)を取得する異常学習画像取得ステップを有し、
     前記学習ステップでは、前記良品学習画像{f_i}と前記異常学習画像{f'_i}を用いて前記オートエンコーダのパラメータを学習し、
     さらに、前記学習ステップでは、前記良品学習画像{f_i}と前記異常学習画像{f'_i}の前記異常判定正解率Rcを評価値として、前記異常判定正解率Rcが最大あるいは所定のしきい値th以上になるように、エンコードされた前記コード層の前記次元圧縮率Rdを最大化する、あるいは前記コード層への前記入力信号量または前記コード層からの前記出力信号量を減少させる
    ことを特徴とする異常判定用計算機。
  7.  請求項6に記載の異常判定用計算機において、
     前記異常学習画像取得ステップは疑似異常画像生成エンジンを有し、
     前記疑似異常画像生成エンジンは、前記良品学習画像{f_i}に画像処理を施すことによって疑似異常画像である前記異常学習画像{f'_i}を生成する
    ことを特徴とする異常判定用計算機。
  8.  請求項7に記載の異常判定用計算機において、
     前記学習ステップでは、前記異常判定正解率Rcを基に前記疑似異常画像生成エンジンの処理パラメータを学習する
    ことを特徴とする異常判定用計算機。
  9.  請求項6に記載の異常判定用計算機において、
     前記比較検査エンジンは、
     前記検査画像f''と前記推定良品画像h''との差分画像を求める差分画像生成エンジンと、
     前記差分画像を基に前記検査画像f''が良品か異常かを判定する差分画像評価エンジンと
    を有し、
     前記学習ステップでは、前記異常判定正解率を基に前記差分画像生成エンジンあるいは前記差分画像評価エンジンの処理パラメータを学習する
    ことを特徴とする異常判定用計算機。
  10.  検査対象物の異常を判別する異常判定用計算機により実行される異常判定方法であって、
     良品の前記検査対象物を撮像した良品学習画像{f_i}(i=1,…,Nf, Nf:画像枚数)を取得する良品学習画像取得ステップと、
     前記良品学習画像{f_i}を用いてオートエンコーダのパラメータを学習する学習ステップと、
     前記検査対象物を撮像した検査画像f''を取得する検査画像取得ステップと、
     前記検査画像f''を前記オートエンコーダに入力して推定良品画像h''を推定する良品画像推定ステップと、
     前記検査画像f''と前記推定良品画像h''とから比較検査エンジンにより異常判定を行う判定ステップと
    を実行し、
     前記学習ステップでは、前記良品学習画像{f_i}の異常判定正解率Rcを評価値として前記異常判定正解率Rcが最大あるいは所定のしきい値th以上になるように、前記オートエンコーダのコード層の次元圧縮率Rdを最大化する、あるいは、前記コード層への入力信号量または前記コード層からの出力信号量を減少させる
    ことを特徴とする異常判定方法。
  11.  請求項10に記載の異常判定方法において、
     前記学習ステップにおける前記コード層の前記次元圧縮率Rdの最大化は、前記コード層の各チャネルに含まれるノード数あるいはチャネル数を削減することによって行う
    ことを特徴とする異常判定方法。
  12.  請求項10に記載の異常判定方法において、
     前記学習ステップにおける前記コード層への前記入力信号量の減少は、前記コード層のi番目のノードへのj番目の入力信号{x_ij}(i=1,…,Nn、Nn:コード層のノード数、j=1,…,Nx_i、Nx_i:コード層のi番目のノードへの力信号数)の重みw_ijの内、少なくとも一つ以上の前記ノードに対する重み{w_ij | (i,j)∈Φ}(Φ:値を零にする重みw_ijの番号(i,j)の集合)の値を零または零に近い値に設定にすることによって行い、
     前記集合Φは、前記良品学習画像{f_i}を前記オートエンコーダに入力した際、前記入力信号{x_ij}が一定値x_min以下となる番号(i,j)の集合({Φ={(i,j)} | x_ij≦x_min})である
    ことを特徴とする異常判定方法。
  13.  請求項1に記載の異常判定方法において、
     前記比較検査エンジンは、
     前記検査画像f''と前記推定良品画像h''との差分画像を求める差分画像生成エンジンと、
     前記差分画像を基に前記検査画像f''が良品か異常かを判定する差分画像評価エンジンと
    を有し、
     前記学習ステップでは、前記異常判定正解率Rcを基に前記差分画像生成エンジンあるいは前記差分画像評価エンジンの処理パラメータを学習する
    ことを特徴とする異常判定方法。
  14.  請求項13に記載の異常判定方法において、
     前記差分画像生成エンジンは局所摂動差分法を用いて前記差分画像を求め、
     前記差分画像生成エンジンの処理パラメータは少なくとも摂動幅を含む
    ことを特徴とする異常判定方法。
  15.  請求項10に記載の異常判定方法において、
     異常学習画像{f'_i}(i=1,…,Nf, Nf:画像枚数)を取得する異常学習画像取得ステップを有し、
     前記学習ステップでは、前記良品学習画像{f_i}と前記異常学習画像{f'_i}を用いて前記オートエンコーダのパラメータを学習し、
     さらに、前記学習ステップでは、前記良品学習画像{f_i}と前記異常学習画像{f'_i}の前記異常判定正解率Rcを評価値として、前記異常判定正解率Rcが最大あるいは所定のしきい値th以上になるように、エンコードされた前記コード層の前記次元圧縮率Rdを最大化する、あるいは前記コード層への前記入力信号量または前記コード層からの前記出力信号量を減少させる
    ことを特徴とする異常判定方法。
PCT/JP2022/022483 2021-06-16 2022-06-02 異常判定用計算機及び異常判定方法 WO2022264824A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-100513 2021-06-16
JP2021100513A JP2022191966A (ja) 2021-06-16 2021-06-16 異常判定用計算機及び異常判定方法

Publications (1)

Publication Number Publication Date
WO2022264824A1 true WO2022264824A1 (ja) 2022-12-22

Family

ID=84526409

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/022483 WO2022264824A1 (ja) 2021-06-16 2022-06-02 異常判定用計算機及び異常判定方法

Country Status (2)

Country Link
JP (1) JP2022191966A (ja)
WO (1) WO2022264824A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018105028A1 (ja) * 2016-12-06 2018-06-14 三菱電機株式会社 検査装置及び検査方法
CN110992354A (zh) * 2019-12-13 2020-04-10 华中科技大学 基于引入自动记忆机制对抗自编码器的异常区域检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018105028A1 (ja) * 2016-12-06 2018-06-14 三菱電機株式会社 検査装置及び検査方法
CN110992354A (zh) * 2019-12-13 2020-04-10 华中科技大学 基于引入自动记忆机制对抗自编码器的异常区域检测方法

Also Published As

Publication number Publication date
JP2022191966A (ja) 2022-12-28

Similar Documents

Publication Publication Date Title
TWI822939B (zh) 在半導體設備工具中以類神經網路進行腔室匹配
US20230153574A1 (en) Deep auto-encoder for equipment health monitoring and fault detection in semiconductor and display process equipment tools
JP6547275B2 (ja) 情報処理システム、情報処理装置、情報処理方法、及びプログラム
CN111885368A (zh) 用于错误检测和校正的系统和方法
JP2021057042A (ja) 製品の分類システムおよび製品の分類方法
CN112036513B (zh) 基于内存增强潜在空间自回归的图像异常检测方法
US11803953B2 (en) Manufacturing quality improvement through statistical root cause analysis using convolution neural networks
KR101992970B1 (ko) 딥러닝과 노이즈 제거 기술을 이용한 표면 결함 검출 장치 및 방법
JP2019159820A (ja) 検査装置、画像識別装置、識別装置、検査方法、及び検査プログラム
KR20220016245A (ko) 불량 이미지 생성 장치 및 방법
JP7408516B2 (ja) 欠陥管理装置、方法およびプログラム
JP7453813B2 (ja) 検査装置、検査方法、プログラム、学習装置、学習方法、および学習済みデータセット
JP7059889B2 (ja) 学習装置、画像生成装置、学習方法、及び学習プログラム
JP7459697B2 (ja) 異常検知システム、学習装置、異常検知プログラム、学習プログラム、異常検知方法、および学習方法
WO2022264824A1 (ja) 異常判定用計算機及び異常判定方法
CN115578325A (zh) 一种基于通道注意配准网络的图像异常检测方法
JP2022029262A (ja) 画像処理装置、画像処理方法、画像処理プログラム、および学習装置
KR102302540B1 (ko) 데이터 페어 생성 기술을 이용한 딥러닝 기반 제품 결함 검사 시스템 및 방법
JP7070308B2 (ja) 推定器生成装置、検査装置、推定器生成方法、及び推定器生成プログラム
CN112949344B (zh) 一种用于异常检测的特征自回归方法
US11361424B2 (en) Neural network-type image processing device, appearance inspection apparatus and appearance inspection method
US20230274409A1 (en) Method for automatic quality inspection of an aeronautical part
JP2021174194A (ja) 学習用データ処理装置、学習装置、学習用データ処理方法、およびプログラム
JP7459696B2 (ja) 異常検知システム、学習装置、異常検知プログラム、学習プログラム、異常検知方法、および学習方法演算装置の学習方法
US20230005120A1 (en) Computer and Visual Inspection Method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22824816

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18566781

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22824816

Country of ref document: EP

Kind code of ref document: A1