WO2021106566A1 - 画像検査装置 - Google Patents

画像検査装置 Download PDF

Info

Publication number
WO2021106566A1
WO2021106566A1 PCT/JP2020/042062 JP2020042062W WO2021106566A1 WO 2021106566 A1 WO2021106566 A1 WO 2021106566A1 JP 2020042062 W JP2020042062 W JP 2020042062W WO 2021106566 A1 WO2021106566 A1 WO 2021106566A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
learning
partial
inspection
Prior art date
Application number
PCT/JP2020/042062
Other languages
English (en)
French (fr)
Inventor
和志 吉岡
加藤 豊
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2021106566A1 publication Critical patent/WO2021106566A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an image inspection device.
  • an image inspection device that takes an image of an object and inspects the object based on the image has been used.
  • the reconstructed image data is obtained from the feature amount of the image data to be determined by using the reconstruction parameter for reconstructing the normal image data from the feature amount extracted from the normal image data group.
  • An abnormality determination device that generates and performs abnormality determination based on the difference information between the generated reconstructed image data and the determination target image data is described.
  • Patent Document 1 a reconstructed image is generated from the image to be determined by the autoencoder.
  • the captured image is not always uniform and may include misalignment and variation in brightness.
  • the present invention provides an image inspection apparatus that reduces the processing load in the inspection of an object.
  • the image inspection apparatus uses a photographing unit that captures an image of an object, an extraction unit that extracts a partial image of the target area from the image, and a trained model based on the target area. It is provided with a generation unit for generating a reconstructed image of the above, and an inspection unit for inspecting an object using at least the reconstructed image.
  • the inspection unit may determine the quality of the object based on the difference between the reconstructed image and the partial image.
  • the inspection unit may measure the dimensions of the object based on the reconstructed image.
  • noise can be removed from the image of the object with a relatively small processing load, and the dimensions of the object can be measured more accurately.
  • the calculation unit further includes a calculation unit for obtaining a mapping parameter for converting to a reference state by applying at least one of translation, rotation, enlargement, reduction, shear transformation, projection transformation, and filtering to the image.
  • the extraction unit may extract a partial image from the image converted to the reference state using the mapping parameter, or may extract the partial image from the image using the mapping parameter.
  • the partial image is extracted by converting the image to the reference state using the mapping parameter and then extracting the partial image, or by extracting the partial image from the image using the mapping parameter.
  • the processing load can be reduced.
  • the calculation unit may determine the reference state based on at least one reference image.
  • the processing load for converting the image to the reference state can be reduced.
  • a storage unit that stores the reference image and the information for identifying the mapping to the reference state in association with each other may be further provided.
  • the extraction unit may determine the target area based on the area designated for the reference image.
  • the processing load for extracting the partial image can be reduced by defining the target area based on the designated area.
  • the extraction unit may search the image for a region satisfying a predetermined condition and extract a partial image using the region as a target region.
  • the process of converting the image to the reference state can be omitted.
  • the extraction unit may accept the designation of the shape of the target area.
  • the shape of the target area can be arbitrarily specified, and a partial image suitable for the inspection content can be extracted.
  • a learning unit that trains the learning model so as to generate a reconstructed image of the target region based on the partial image related to the learning image may be further provided.
  • an image inspection device that reduces the processing load in inspecting an object.
  • FIG. 1 is a diagram showing an outline of an image inspection system 100 according to an embodiment of the present invention.
  • the image inspection system 100 includes an image inspection device 10 and a lighting 20.
  • the illumination 20 irradiates the object 1 with light L.
  • the image inspection device 10 photographs the reflected light R and inspects the object 1 based on the image of the object 1.
  • FIG. 2 is a diagram showing a functional block of the image inspection device 10 according to the present embodiment.
  • the image inspection device 10 includes a photographing unit 11, a storage unit 12, a calculation unit 13, an extraction unit 14, a generation unit 15, an inspection unit 16, and a learning unit 17.
  • the photographing unit 11 photographs an image of the object 1.
  • the photographing unit 11 may receive the reflected light R and take an image of the object 1 with a general-purpose image sensor.
  • the storage unit 12 stores the trained model 12a, the learning image 12b, the state identification information 12c, the reference state information 12d, and the target area information 12e.
  • the trained model 12a is a model that extracts features from an image and reconstructs an image from the features. For example, Christoph Baur1, Benedikt Wiestler, Shadi Albarqouni, and Nassir Navab, "Deep Autoencoding Models for Unsupervised Anomaly Segmentation” MR Images, "arXiv: 1804.04488 model using autoencoder, Thomas Schlegl, Philipp Seebock, Sebastian M.
  • Waldstein, Ursula Schmidt-Erfurth, and Georg Langs," Unsupervised Anomaly Detection with It may be a model using GAN (Generative Adversarial Network) disclosed in to Guide Marker Discovery, "arXiv: 1703.05921, or a model using PCA (Principal Component Analysis).
  • GAN Geneative Adversarial Network
  • PCA Principal Component Analysis
  • the learning image 12b is an image used by the learning unit 17 to generate the trained model 12a, and is, for example, an image of a normal object.
  • the state identification information 12c is information for obtaining the features of the image, and may be information for obtaining feature points for image alignment or information regarding a filter for brightness matching.
  • the state identification information 12c is used to convert an image into a reference state.
  • the reference state information 12d is information indicating the characteristics of the reference image, and is obtained from the reference image using the state identification information 12c.
  • the target area information 12e is information representing a target area related to an image in a reference state.
  • the storage unit 12 may store the reference image and the information for identifying the mapping to the reference state (state identification information 12c, reference state information 12d) in association with each other.
  • the reference image may be an image included in the learning image 12b, an arbitrary image relating to the object 1, or an image generated by an arbitrary image generation model.
  • Information for identifying the mapping to the reference state (state identification information) by associating and storing the reference image and the information for identifying the mapping to the reference state (state identification information 12c, reference state information 12d). Based on 12c, reference state information 12d), it is possible to specify the process of converting the image into the reference state.
  • the calculation unit 13 obtains a mapping parameter for converting to a reference state by applying at least one of translation, rotation, enlargement, reduction, shear conversion, projective transformation, and filtering to the image.
  • the filter may be a filter that converts the brightness of the image, a smoothing filter that removes noise, or a filter that extracts edges, and any filter can be used.
  • the calculation unit 13 may determine the reference state based on at least one reference image.
  • the reference image may be an image specified by the user. By defining the reference state based on the designated reference image, the reference state can be easily set.
  • the extraction unit 14 extracts a partial image of the target area from the image.
  • the extraction unit 14 may extract a partial image from the image converted to the reference state using the mapping parameter. Further, the extraction unit 14 may extract a partial image from the image by using the mapping parameter.
  • the process of searching the target area becomes unnecessary, and the partial image becomes unnecessary. The processing load for extracting the image can be reduced.
  • the extraction unit 14 may determine the target area based on the area designated for the reference image. By defining the target area based on the designated area in this way, the process of searching for the target area becomes unnecessary, and the processing load for extracting the partial image can be reduced.
  • the extraction unit 14 may accept the designation of the shape of the target area. As a result, the shape of the target area can be arbitrarily specified, and a partial image suitable for the inspection content can be extracted.
  • the generation unit 15 generates a reconstructed image of the target area based on the partial image by the trained model 12a.
  • the generation unit 15 inputs a partial image of the object 1 instead of the entire image into the trained model 12a, and generates a reconstructed image thereof. Therefore, the processing load can be reduced as compared with the case of generating a reconstructed image of the entire image. Further, by generating a reconstructed image for the partial image of the target region, it is possible to reduce the variation of the image input to the trained model 12a and reduce the processing load.
  • the inspection unit 16 inspects the object 1 using at least the reconstructed image.
  • the inspection unit 16 may determine the quality of the object 1 based on the difference between the reconstructed image and the partial image. As a result, it is possible to inspect whether or not the object 1 is normal with a relatively small processing load. Further, the inspection unit 16 may measure the dimensions of the object 1 based on the reconstructed image. If the partial image contains noise, the reconstructed image will be an image with reduced noise. In this way, noise can be removed from the image of the object 1 with a relatively small processing load, and the dimensions of the object 1 can be measured more accurately.
  • the variation of the image is reduced by extracting the partial image of the target area, generating the reconstructed image for the partial image, and inspecting the object 1. Since the inspection can be performed in the state and the number of parameters of the trained model 12a can be relatively reduced, the processing load in the inspection of the object 1 can be reduced.
  • the inspection unit 16 may generate a difference image between the reconstructed image and the partial image, and determine the quality of the object 1 based on the magnitude of the brightness of the difference image. Further, the inspection unit 16 may generate a difference image between the reconstructed image and the partial image, and determine the quality of the object 1 based on the size of the area area of the difference image. Further, the inspection unit 16 may generate a difference image between the reconstructed image and the partial image, and determine the quality of the object 1 based on the shape of the region of the difference image.
  • the inspection unit 16 may generate a difference image between the reconstructed image and the partial image, set a brightness standard for the difference image, and generate a binarized image. Then, the inspection unit 16 may determine the quality of the object 1 based on the magnitude of the brightness only in the region of the generated binarized image. Further, the inspection unit 16 may determine the quality of the object 1 based on the area size of the region of the generated binarized image. Further, the inspection unit 16 may determine the quality of the object 1 based on the shape of the region of the generated binarized image.
  • the learning unit 17 trains the learning model so as to generate a reconstructed image of the target area based on the partial image related to the learning image 12b.
  • the training image 12b is an image of a normal object
  • the learning model is trained to generate a reconstructed image of the target area related to the normal object when a partial image of the object 1 is input. ..
  • FIG. 3 is a diagram showing a physical configuration of the image inspection device 10 according to the present embodiment.
  • the image inspection device 10 includes a CPU (Central Processing Unit) 10a corresponding to a calculation unit, a RAM (Random Access Memory) 10b corresponding to a storage unit, a ROM (Read only Memory) 10c corresponding to a storage unit, and a communication unit. It has 10d, an input unit 10e, and a display unit 10f. Each of these configurations is connected to each other via a bus so that data can be transmitted and received.
  • the image inspection device 10 is composed of one computer will be described, but the image inspection device 10 may be realized by combining a plurality of computers.
  • the configuration shown in FIG. 3 is an example, and the image inspection apparatus 10 may have configurations other than these, or may not have a part of these configurations.
  • the CPU 10a is a calculation unit that controls execution of a program stored in the RAM 10b or ROM 10c, calculates data, and processes data.
  • the CPU 10a is a calculation unit that executes a program (image inspection program) for inspecting an object by using a reconstructed image reconstructed from an image of the object.
  • the CPU 10a receives various data from the input unit 10e and the communication unit 10d, displays the calculation result of the data on the display unit 10f, and stores the data in the RAM 10b.
  • the RAM 10b is a storage unit in which data can be rewritten, and may be composed of, for example, a semiconductor storage element.
  • the RAM 10b may store data such as a program executed by the CPU 10a, a learning image, and a learned model. It should be noted that these are examples, and data other than these may be stored in the RAM 10b, or a part of these may not be stored.
  • the ROM 10c is a storage unit capable of reading data, and may be composed of, for example, a semiconductor storage element.
  • the ROM 10c may store, for example, an image inspection program or data that is not rewritten.
  • the communication unit 10d is an interface for connecting the image inspection device 10 to another device.
  • the communication unit 10d may be connected to a communication network such as the Internet.
  • the input unit 10e receives data input from the user, and may include, for example, a keyboard and a touch panel.
  • the display unit 10f visually displays the calculation result by the CPU 10a, and may be configured by, for example, an LCD (Liquid Crystal Display).
  • the display unit 10f may display, for example, the result of the image inspection.
  • the image inspection program may be stored in a storage medium readable by a computer such as RAM 10b or ROM 10c and provided, or may be provided via a communication network connected by the communication unit 10d.
  • the CPU 10a executes the image inspection program to realize various operations described with reference to FIG. It should be noted that these physical configurations are examples and do not necessarily have to be independent configurations.
  • the image inspection device 10 may include an LSI (Large-Scale Integration) in which the CPU 10a and the RAM 10b or ROM 10c are integrated.
  • FIG. 4 is a diagram showing an example of a conversion process executed by the image inspection device 10 according to the present embodiment.
  • the first learning image IMG1, the second learning image IMG2a, and the third learning image IMG3a are illustrated, and the first learning image IMG1 is used as a reference image, and the second learning image IMG2a and the third An example of converting the learning image IMG3a into a reference state is shown.
  • the image inspection device 10 accepts the designation of at least one reference image from the learning image or the image of the other object 1.
  • selection Sa is performed for the first learning image IMG1 and it is set as a reference image.
  • the image inspection device 10 specifies the state identification information and the reference state information for the first learning image IMG1 for which the selection Sa has been performed.
  • the state identification information is, for example, information for obtaining feature points for image alignment, and may be a threshold value for extracting edges, patterns, characters, or the like included in the image. Further, the state identification information may include information for obtaining the brightness and color of the image.
  • the image inspection device 10 obtains reference state information for the first learning image IMG1 based on the state identification information.
  • the reference state information may be, for example, position information of a feature point for aligning an image, information on the position or direction of an edge, a pattern, or a character included in the image, and the hue or color of the image. It may be information about the degree.
  • the image inspection device 10 also specifies the state information of the second learning image IMG2a and the third learning image IMG3a.
  • the state information is, for example, position information of feature points for image alignment, and may be information on the position and direction of edges, patterns, characters, etc. included in the image, or information on colors.
  • the image inspection device 10 applies at least one of translation, rotation, enlargement, reduction, shear conversion, projective transformation, and filtering to the second learning image IMG2a and the third learning image IMG3a to obtain a reference state. Is converted into the second learning image IMG2b and the third learning image IMG3b in the reference state. In this example, translation is applied to the second learning image IMG2a and the third learning image IMG3a to convert the second learning image IMG2b in the reference state and the third learning image IMG3b in the reference state. Is shown.
  • the image inspection device 10 When the feature points of the image are used as the state information, the image inspection device 10 includes one or a plurality of feature points included in the reference state information of the first learning image IMG1 and the state information of the second learning image IMG2a. A mapping between the one or a plurality of feature points is obtained, and the second learning image IMG2a is converted into the second learning image IMG2b in the reference state based on the mapping.
  • the difference amount ( ⁇ x, ⁇ y) between the feature point coordinates of the second learning image IMG2a and the feature point coordinates of the first learning image IMG1 is calculated, and the first 2
  • the learning image IMG2a is translated by the difference amount ( ⁇ x, ⁇ y) and converted into the second learning image IMG2b in the reference state.
  • the difference amount ( ⁇ ) between the feature point coordinates of the second learning image IMG2a and the feature point coordinates of the first learning image IMG1 is calculated, and the center of rotation (X 0 , Y 0 ) is specified, and the second learning image IMG2a is rotated by the difference amount ( ⁇ ) with respect to the rotation center (X 0 , Y 0 ) to be converted into the second learning image IMG2b in the reference state.
  • the image inspection device 10 may display the learning image before and after the conversion or the image to be inspected on the display unit 10f. If the conversion process of the training image is not performed properly, an inappropriate learning model may be generated after that, and the accuracy of the inspection using the trained model may decrease. Further, if the image conversion process is not performed correctly for the image to be inspected, the accuracy of the inspection may be lowered. On the contrary, if the inspection accuracy is relatively low, there may be a problem in the conversion process as the cause. As shown in FIG. 4, the validity of the conversion is confirmed to the user by displaying the extracted feature points and the images before and after the conversion on the display unit 10f with respect to the learning image and the image to be inspected. It can be used to improve accuracy. Further, in order to improve the accuracy of the inspection, the state identification information 12c may be modified as needed.
  • the storage unit 12 may store a reference image.
  • the image inspection device 10 displays the image to be inspected or the image for learning converted into the reference state and the reference image side by side, or switches and displays the two so that they can be compared. It may be possible to confirm the validity. Further, when the reference image is stored in the storage unit 12, the reference state information can be calculated from the reference image, so that the reference state information does not necessarily have to be stored in the storage unit 12. However, by storing the reference state information, it is not necessary to calculate the reference state information each time, and the calculation load is reduced.
  • FIG. 5 is a diagram showing an example of an extraction process executed by the image inspection apparatus 10 according to the present embodiment.
  • the extraction process is performed after the conversion process shown in FIG.
  • the first learning image IMG1, the second learning image IMG2b in the reference state, and the third learning image IMG3b in the reference state are illustrated.
  • An example of extracting a partial image from the second learning image IMG2b of the state and the third learning image IMG3b of the reference state is shown.
  • the image inspection device 10 determines the target area based on the area designated for the reference image.
  • the area designation Sb is performed for the first learning image IMG1 and the area is set as the target area.
  • the image inspection device 10 extracts the first partial image IMG1c of the target area from the first learning image IMG1 in which the area designation Sb is performed. Similarly, the image inspection device 10 extracts the second partial image IMG2c from the second learning image IMG2b in the reference state, and extracts the third partial image IMG3c from the third learning image IMG3b in the reference state.
  • the processing load for extracting the partial image can be reduced. Further, since a homogeneous partial image can be extracted, the number of parameters of the model when the reconstructed image is generated by the trained model 12a can be relatively reduced, and the processing load can be reduced.
  • the image inspection device 10 trains the learning model so as to generate a reconstructed image of the target region based on the first partial image IMG1c, the second partial image IMG2c, and the third partial image IMG3c extracted from the learning image. , Generate a trained model 12a.
  • FIG. 6 is a diagram showing an example of an inspection process executed by the image inspection apparatus 10 according to the present embodiment.
  • the inspection process is executed after the trained model 12a is generated.
  • the image IMG5a of the object 1, the image IMG5b in the reference state, the partial image IMG5c, and the reconstructed image IMG5d are shown.
  • the image inspection device 10 captures the image IMG5a of the object 1.
  • the image IMG5a of this example includes a scratch formed on the object 1.
  • the image inspection device 10 applies at least one of translation, rotation, enlargement, reduction, shear conversion, projective transformation, and filtering to the image IMG5a to convert it to the reference state.
  • An image IMG5b in a reference state is obtained.
  • the partial image IMG5c of the target area is extracted from the image IMG5b in the reference state.
  • the image inspection device 10 generates a reconstructed image IMG5d of the target region based on the partial image IMG5c by the trained model 12a.
  • the trained model 12a is a model trained to extract the characteristics of a normal object, and the reconstructed image IMG5d does not include scratches.
  • the image inspection device 10 determines the quality of the object 1 based on the difference between the reconstructed image IMG5d and the partial image IMG5c, and measures the dimensions of the object 1 based on the reconstructed image IMG5d. In this example, the dimension "L" of the object 1 is shown. Further, a scratch generated on the object 1 is detected as a difference between the reconstructed image IMG5d and the partial image IMG5c, and it is determined that the object 1 is defective.
  • FIG. 7 is a flowchart of the learning process executed by the image inspection device 10 according to the present embodiment.
  • the image inspection device 10 accepts the designation of at least one reference image that determines the reference state among the plurality of learning images (S10).
  • the image inspection device 10 may accept an image other than the learning image as a reference image.
  • the designation of the state identification information includes, for example, the designation of a feature location (model area) used for aligning edges, patterns, characters, etc., and the designation of an allowable range regarding the amount of displacement of the position and posture. Good. Further, a plurality of model areas may be specified to specify rotation and enlargement.
  • the state identification information may include not only designation on the premise of pattern matching but also designation of a local feature amount such as SIFT (Scale-Invariant Feature Transform). In this case, the state identification information may include the specification of parameters such as the scale level and the edge threshold value.
  • the image inspection device 10 calculates the reference state information and the state information (S12).
  • the image inspection device 10 obtains, for example, the center point of the model area of the reference image and uses it as reference state information.
  • the inclination angle of the line segment connecting the center positions of each and the length of the line segment may be added to the reference state information.
  • the image inspection device 10 obtains, for example, the center point of the model area of the learning image other than the reference image and uses it as state information.
  • the image inspection device 10 converts a plurality of learning images into a reference state (S13).
  • the image inspection device 10 converts a plurality of learning images into a reference state by using the reference state information and the state information.
  • the image inspection device 10 performs transformation such as translation and rotation on the training image so that the center point of the model area of the training image matches the center point of the model area of the reference image, and learns. Convert the image to the reference state.
  • the image inspection device 10 accepts the designation of the target area for at least one reference image (S14).
  • the image inspection device 10 may accept the designation of the target area for an arbitrary image converted to the reference state instead of the reference image.
  • the image inspection device 10 may include a user interface that displays a reference image on the display unit 10f and accepts the designation of the target area.
  • the image inspection device 10 extracts a partial image of a target area from a plurality of learning images (S15). Then, the image inspection device 10 executes the learning process of the learning model so as to generate the reconstructed image of the target region based on the plurality of partial images (S16).
  • the image inspection device 10 stores the learning image, the information for identifying the mapping to the reference state (state identification information and the reference state information), the information of the target area, and the trained model (S17).
  • FIG. 8 is a flowchart of the inspection process executed by the image inspection device 10 according to the present embodiment.
  • the image inspection device 10 takes an image of the object (S20).
  • the image inspection device 10 converts the image into a reference state (S21) and extracts a partial image of the target area (S22). Further, the image inspection device 10 generates a reconstructed image of the target region based on the partial image by the trained model (S23).
  • the image inspection device 10 inspects the object using at least the reconstructed image (S24). When the inspection is continued (S25: NO), the image inspection apparatus 10 executes the processes S20 to S24 again. On the other hand, when the inspection is completed (S25: YES), the image inspection apparatus 10 ends the inspection process.
  • FIG. 9 is a flowchart of the inspection process executed by the image inspection device 10 according to the modified example of the present embodiment.
  • the extraction unit 14 of the image inspection device 10 according to the modification of the present embodiment searches for a region satisfying a predetermined condition from the image, and extracts a partial image using the region as a target region.
  • the predetermined condition is a condition that represents the characteristics of the target area, and may be, for example, that a predetermined edge is included, that a predetermined pattern is included, that a predetermined character is included, and the like. By searching for the area corresponding to the target area in this way, it is possible to omit the process of converting the image into the reference state.
  • a new image is generated by converting the pixel value, but in this modification, the same processing as in the present embodiment is realized by converting the pixel address (address on the memory). That is, in this modification, the calculation unit 13 applies translation, rotation, or the like to the address of the pixel of the image, and obtains a mapping parameter for converting to the reference state.
  • the image inspection device 10 specifies a target area for the reference image, obtains a feature point, and stores it as reference state information. Further, the image inspection device 10 also obtains feature points for other learning images and stores them as state information. Then, the image inspection device 10 obtains a mapping between the images based on the correspondence between the feature points of the learning image and the feature points of the reference image, and calculates the target area related to the learning image. Finally, the image inspection device 10 extracts a partial image from these target areas and generates a learning model.
  • the image inspection device 10 obtains feature points for the image of the object and obtains a mapping based on the correspondence with the feature points of the reference image. , Calculate the target area for the image of the object. Then, the image inspection device 10 extracts a partial region from the target region and inspects the target object.
  • the image inspection device 10 takes an image of the object (S30). After that, the image inspection device 10 searches the image for a region satisfying a predetermined condition (S31). Then, the image inspection device 10 extracts a partial image with a region satisfying a predetermined condition as a target region (S32).
  • the image inspection device 10 generates a reconstructed image of the target area based on the partial image by the trained model (S33).
  • the image inspection device 10 inspects the object using at least the reconstructed image (S34).
  • the image inspection apparatus 10 executes the processes S30 to S34 again.
  • the image inspection apparatus 10 ends the inspection process.
  • the shooting unit (11) that captures the image of the object (1)
  • An extraction unit (14) that extracts a partial image of the target area from the image
  • a generation unit (15) that generates a reconstructed image of the target region based on the partial image by the trained model (12a)
  • a generation unit (15) that generates a reconstructed image of the target region based on the partial image by the trained model (12a)
  • An inspection unit (16) that inspects the object (1) using at least the reconstructed image, and (10).
  • 10 ... Image inspection device 10a ... CPU, 10b ... RAM, 10c ... ROM, 10d ... Communication unit, 10e ... Input unit, 10f ... Display unit, 11 ... Imaging unit, 12 ... Storage unit, 12a ... Trained model, 12b ... Learning image, 12c ... Reference state information, 12d ... Target area information, 13 ... Calculation unit, 14 ... Extraction unit, 15 ... Generation unit, 16 ... Inspection unit, 17 ... Learning unit, 20 ... Lighting , 100 ... Image inspection system

Abstract

対象物の検査における処理負荷を低減した画像検査装置を提供する。画像検査装置10は、対象物1の画像を撮影する撮影部11と、画像から対象領域の部分画像を抽出する抽出部14と、学習済みモデル12aによって、部分画像に基づいて、対象領域の再構成画像を生成する生成部15と、少なくとも再構成画像を用いて、対象物の検査を行う検査部16と、を備える。

Description

画像検査装置
 本発明は、画像検査装置に関する。
 従来、対象物の画像を撮影し、画像に基づいて対象物の検査を行う画像検査装置が用いられている。例えば、下記特許文献1には、正常画像データ群から抽出される特徴量から正常画像データを再構成するための再構成用パラメータを用いて、判定対象画像データの特徴量から再構成画像データを生成し、生成した再構成画像データと該判定対象画像データとの差異情報に基づいて異常判定を行う異常判定装置が記載されている。
特開2018-5773号公報
 特許文献1では、オートエンコーダによって判定対象画像から再構成画像を生成している。ここで、撮影される画像は均一とは限らず、位置ずれや明るさのばらつきを含むことがある。このようなばらつきがあっても画像が適切に再構成されるようにするためには、ニューラルネットワークのパラメータをある程度多く用意する必要があり、処理負荷が大きくなることがある。
 そこで、本発明は、対象物の検査における処理負荷を低減した画像検査装置を提供する。
 本開示の一態様に係る画像検査装置は、対象物の画像を撮影する撮影部と、画像から対象領域の部分画像を抽出する抽出部と、学習済みモデルによって、部分画像に基づいて、対象領域の再構成画像を生成する生成部と、少なくとも再構成画像を用いて、対象物の検査を行う検査部と、を備える。
 この態様によれば、対象領域の部分画像を抽出し、その部分画像について再構成画像を生成して、対象物の検査を行うことで、画像のばらつきを低減した状態で検査することができ、対象物の検査における処理負荷を低減することができる。
 上記態様において、検査部は、再構成画像と部分画像との差に基づいて、対象物の良否判定を行ってもよい。
 この態様によれば、対象物が正常であるか否かを、比較的少ない処理負荷で検査することができる。
 上記態様において、検査部は、再構成画像に基づいて、対象物の寸法を測定してもよい。
 この態様によれば、比較的少ない処理負荷で対象物の画像からノイズを除去し、対象物の寸法をより正確に測定することができる。
 上記態様において、画像に対して平行移動、回転、拡大、縮小、剪断変換、射影変換及びフィルタ処理の少なくともいずれかを適用して基準状態に変換するための写像パラメータを求める算出部をさらに備え、抽出部は、写像パラメータを用いて基準状態に変換された画像から部分画像を抽出するか、又は、画像から写像パラメータを用いて部分画像を抽出してもよい。
 この態様によれば、写像パラメータを用いて画像を基準状態に変換してから部分画像を抽出したり、写像パラメータを用いて画像から部分画像を抽出したりすることで、部分画像を抽出するための処理負荷を低減することができる。
 上記態様において、算出部は、少なくとも1つの基準画像に基づいて基準状態を定めてもよい。
 この態様によれば、画像を基準状態に変換するための処理負荷を低減することができる。
 上記態様において、基準画像と、基準状態への写像を識別するための情報とを関連付けて記憶する記憶部をさらに備えてもよい。
 この態様によれば、基準状態への写像を識別するための情報に基づいて、画像を基準状態に変換する処理を特定することができる。
 上記態様において、抽出部は、基準画像について指定された領域に基づいて対象領域を定めてもよい。
 この態様によれば、指定された領域に基づいて対象領域を定めることで、部分画像を抽出するための処理負荷を低減することができる。
 上記態様において、抽出部は、画像から所定の条件を満たす領域を探索し、当該領域を対象領域として、部分画像を抽出してもよい。
 この態様によれば、画像を基準状態に変換する処理を省略することができる。
 上記態様において、抽出部は、対象領域の形状の指定を受け付けてもよい。
 この態様によれば、対象領域の形状を任意に指定することができ、検査内容に適した部分画像を抽出することができる。
 上記態様において、学習用画像に関する部分画像に基づいて、対象領域の再構成画像を生成するように学習モデルを学習させる学習部をさらに備えてもよい。
 この態様によれば、学習用画像に表された対象物の特徴を再現する再構成画像を生成するような学習済みモデルを得ることができる。
 本発明によれば、対象物の検査における処理負荷を低減した画像検査装置を提供することができる。
本発明の実施形態に係る画像検査システムの概要を示す図である。 本実施形態に係る画像検査装置の機能ブロックを示す図である。 本実施形態に係る画像検査装置の物理的構成を示す図である。 本実施形態に係る画像検査装置により実行される変換処理の一例を示す図である。 本実施形態に係る画像検査装置により実行される抽出処理の一例を示す図である。 本実施形態に係る画像検査装置により実行される検査処理の一例を示す図である。 本実施形態に係る画像検査装置により実行される学習処理のフローチャートである。 本実施形態に係る画像検査装置により実行される検査処理のフローチャートである。 本実施形態の変形例に係る画像検査装置により実行される検査処理のフローチャートである。
 添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
 図1は、本発明の実施形態に係る画像検査システム100の概要を示す図である。画像検査システム100は、画像検査装置10及び照明20を含む。照明20は、対象物1に光Lを照射する。画像検査装置10は、反射光Rを撮影し、対象物1の画像に基づいて、対象物1の検査を行う。
 図2は、本実施形態に係る画像検査装置10の機能ブロックを示す図である。画像検査装置10は、撮影部11、記憶部12、算出部13、抽出部14、生成部15、検査部16及び学習部17を備える。
 撮影部11は、対象物1の画像を撮影する。撮影部11は、反射光Rを受光して、汎用の撮像素子により対象物1の画像を撮影してよい。
 記憶部12は、学習済みモデル12a、学習用画像12b、状態識別情報12c、基準状態情報12d及び対象領域情報12eを記憶する。学習済みモデル12aは、画像から特徴量抽出し、特徴量から画像を再構成するモデルであり、例えば、Christoph Baur1, Benedikt Wiestler, Shadi Albarqouni, and Nassir Navab, "Deep Autoencoding Models for Unsupervised Anomaly Segmentation in Brain MR Images," arXiv:1804.04488に開示されているオートエンコーダを用いたモデルであったり、Thomas Schlegl, Philipp Seebock, Sebastian M. Waldstein, Ursula Schmidt-Erfurth, and Georg Langs, "Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery," arXiv:1703.05921に開示されているGAN(Generative Adversarial Network)を用いたモデルであったり、PCA(Principal Component Analysis)を用いたモデルであったりしてよい。
 学習用画像12bは、学習部17によって学習済みモデル12aを生成するために用いられる画像であり、例えば、正常な対象物の画像である。状態識別情報12cは、画像の特徴を求めるための情報であり、画像の位置合わせのための特徴点を求めるための情報であったり、明度合わせのためのフィルタに関する情報であったりする。状態識別情報12cは、画像を基準状態に変換するために用いられる。基準状態情報12dは、基準画像の特徴を示す情報であり、状態識別情報12cを用いて基準画像から求められる。対象領域情報12eは、基準状態である画像に関する対象領域を表す情報である。
 記憶部12は、基準画像と、基準状態への写像を識別するための情報(状態識別情報12c、基準状態情報12d)とを関連付けて記憶してよい。ここで基準画像は、学習用画像12bに含まれる画像であったり、対象物1に関する任意の画像であったり、任意の画像生成モデルによって生成された画像であったりしてよい。基準画像と、基準状態への写像を識別するための情報(状態識別情報12c、基準状態情報12d)とを関連付けて記憶することで、基準状態への写像を識別するための情報(状態識別情報12c、基準状態情報12d)に基づいて、画像を基準状態に変換する処理を特定することができる。
 算出部13は、画像に対して平行移動、回転、拡大、縮小、剪断変換、射影変換及びフィルタ処理の少なくともいずれかを適用して基準状態に変換するための写像パラメータを求める。ここで、フィルタは、画像の明度を変換するフィルタであったり、ノイズを除去する平滑化フィルタであったり、エッジを抽出するフィルタであったりしてよく、任意のフィルタを用いることができる。算出部13は、少なくとも1つの基準画像に基づいて基準状態を定めてよい。基準画像は、ユーザにより指定された画像であってよい。指定された基準画像により基準状態を定めることで、基準状態の設定を容易に行うことができる。
 抽出部14は、画像から対象領域の部分画像を抽出する。抽出部14は、写像パラメータを用いて基準状態に変換された画像から部分画像を抽出してよい。また、抽出部14は、画像から写像パラメータを用いて部分画像を抽出してもよい。写像パラメータを用いて画像を基準状態に変換してから部分画像を抽出したり、写像パラメータを用いて画像から部分画像を抽出したりすることで、対象領域を探索する処理が不要となり、部分画像を抽出するための処理負荷を低減することができる。
 抽出部14は、基準画像について指定された領域に基づいて対象領域を定めてよい。このように、指定された領域に基づいて対象領域を定めることで、対象領域を探索する処理が不要となり、部分画像を抽出するための処理負荷を低減することができる。
 抽出部14は、対象領域の形状の指定を受け付けてもよい。これにより、対象領域の形状を任意に指定することができ、検査内容に適した部分画像を抽出することができる。
 生成部15は、学習済みモデル12aによって、部分画像に基づいて、対象領域の再構成画像を生成する。生成部15は、対象物1の画像全体ではなく、部分画像を学習済みモデル12aに入力し、その再構成画像を生成する。そのため、画像全体の再構成画像を生成する場合よりも処理負荷を低減することができる。また、対象領域の部分画像について再構成画像を生成することで、学習済みモデル12aに入力する画像のばらつきを低減させ、処理負荷を低減することができる。
 検査部16は、少なくとも再構成画像を用いて、対象物1の検査を行う。検査部16は、再構成画像と部分画像との差に基づいて、対象物1の良否判定を行ってよい。これにより、対象物1が正常であるか否かを、比較的少ない処理負荷で検査することができる。また、検査部16は、再構成画像に基づいて、対象物1の寸法を測定してもよい。部分画像にノイズが含まれる場合、再構成画像は、ノイズが低減された画像となる。このように、比較的少ない処理負荷で対象物1の画像からノイズを除去し、対象物1の寸法をより正確に測定することができる。
 本実施形態に係る画像検査装置10によれば、対象領域の部分画像を抽出し、その部分画像について再構成画像を生成して、対象物1の検査を行うことで、画像のばらつきを低減した状態で検査することができ、学習済みモデル12aのパラメータの数を比較的少なくすることができるため、対象物1の検査における処理負荷を低減することができる。
 検査部16は、再構成画像と部分画像との差分画像を生成し、差分画像の明度の大きさに基づいて、対象物1の良否判定を行ってもよい。また、検査部16は、再構成画像と部分画像との差分画像を生成し、差分画像の領域面積の大きさに基づいて、対象物1の良否判定を行ってもよい。また、検査部16は、再構成画像と部分画像との差分画像を生成し、差分画像の領域の形状に基づいて、対象物1の良否判定を行ってもよい。
 検査部16は、再構成画像と部分画像との差分画像を生成し、差分画像に対して明度基準を設けて、2値化画像を生成してよい。そして、検査部16は、生成した2値化画像の領域に限定して、明度の大きさに基づいて対象物1の良否判定を行ってもよい。また、検査部16は、生成した2値化画像の領域の面積大きさに基づいて対象物1の良否判定を行ってもよい。また、検査部16は、生成した2値化画像の領域の形状に基づいて対象物1の良否判定を行ってもよい。
 学習部17は、学習用画像12bに関する部分画像に基づいて、対象領域の再構成画像を生成するように学習モデルを学習させる。学習用画像12bが正常な対象物の画像である場合、学習モデルは、対象物1の部分画像が入力された場合、正常な対象物に関する対象領域の再構成画像を生成するように学習される。このようにして、学習用画像12bに表された対象物1の特徴を再現する再構成画像を生成するような学習済みモデル12aを得ることができる。
 図3は、本実施形態に係る画像検査装置10の物理的構成を示す図である。画像検査装置10は、演算部に相当するCPU(Central Processing Unit)10aと、記憶部に相当するRAM(Random Access Memory)10bと、記憶部に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では画像検査装置10が一台のコンピュータで構成される場合について説明するが、画像検査装置10は、複数のコンピュータが組み合わされて実現されてもよい。また、図3で示す構成は一例であり、画像検査装置10はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。
 CPU10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う演算部である。CPU10aは、対象物の画像から再構成された再構成画像を用いて、対象物の検査を行うプログラム(画像検査プログラム)を実行する演算部である。CPU10aは、入力部10eや通信部10dから種々のデータを受け取り、データの演算結果を表示部10fに表示したり、RAM10bに格納したりする。
 RAM10bは、記憶部のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM10bは、CPU10aが実行するプログラム、学習用画像、学習済みモデルといったデータを記憶してよい。なお、これらは例示であって、RAM10bには、これら以外のデータが記憶されていてもよいし、これらの一部が記憶されていなくてもよい。
 ROM10cは、記憶部のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM10cは、例えば画像検査プログラムや、書き換えが行われないデータを記憶してよい。
 通信部10dは、画像検査装置10を他の機器に接続するインターフェースである。通信部10dは、インターネット等の通信ネットワークに接続されてよい。
 入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード及びタッチパネルを含んでよい。
 表示部10fは、CPU10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成されてよい。表示部10fは、例えば、画像検査の結果を表示してよい。
 画像検査プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークを介して提供されてもよい。画像検査装置10では、CPU10aが画像検査プログラムを実行することにより、図2を用いて説明した様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、画像検査装置10は、CPU10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。
 図4は、本実施形態に係る画像検査装置10により実行される変換処理の一例を示す図である。同図では、第1学習用画像IMG1、第2学習用画像IMG2a及び第3学習用画像IMG3aを図示しており、第1学習用画像IMG1を基準画像として、第2学習用画像IMG2a及び第3学習用画像IMG3aを基準状態に変換する例を示している。
 画像検査装置10は、学習用画像又は他の対象物1の画像から、少なくとも1つの基準画像の指定を受け付ける。本例の場合、第1学習用画像IMG1について選択Saが行われ、基準画像として設定されている。
 画像検査装置10は、選択Saが行われた第1学習用画像IMG1について、状態識別情報と基準状態情報を特定する。状態識別情報は、例えば画像の位置合わせのための特徴点を求めるための情報であり、画像に含まれるエッジ、模様又は文字等を抽出するための閾値等であってよい。また、状態識別情報は、画像の明るさや色を求めるための情報を含んでもよい。画像検査装置10は、第1学習用画像IMG1について、状態識別情報に基づいて基準状態情報を求める。基準状態情報は、例えば画像の位置合わせのための特徴点の位置情報であったり、画像に含まれるエッジ、模様又は文字の位置や方向に関する情報であったりしてよいし、画像の色相や彩度に関する情報であってよい。画像検査装置10は、第2学習用画像IMG2a及び第3学習用画像IMG3aについても、状態情報を特定する。状態情報は、例えば画像の位置合わせのための特徴点の位置情報であり、画像に含まれるエッジ、模様又は文字等の位置と方向に関する情報や、色に関する情報であってよい。
 画像検査装置10は、第2学習用画像IMG2a及び第3学習用画像IMG3aに対して平行移動、回転、拡大、縮小、剪断変換、射影変換及びフィルタ処理の少なくともいずれかを適用して、基準状態の第2学習用画像IMG2b及び基準状態の第3学習用画像IMG3bに変換する。本例では、第2学習用画像IMG2a及び第3学習用画像IMG3aに対して平行移動を適用して、基準状態の第2学習用画像IMG2b及び基準状態の第3学習用画像IMG3bに変換する例を示している。画像の特徴点を状態情報として用いてる場合、画像検査装置10は、第1学習用画像IMG1の基準状態情報に含まれる1又は複数の特徴点と、第2学習用画像IMG2aの状態情報に含まれる1又は複数の特徴点との間の写像を求め、当該写像に基づいて、第2学習用画像IMG2aを基準状態の第2学習用画像IMG2bに変換する。より具体的には、変換が平行移動である場合、第2学習用画像IMG2aの特徴点座標と、第1学習用画像IMG1の特徴点座標との差分量(ΔΔx,Δy)を算出し、第2学習用画像IMG2aを差分量(Δx,Δy)だけ平行移動させて、基準状態の第2学習用画像IMG2bに変換する。また、変換が回転である場合、第2学習用画像IMG2aの特徴点座標と、第1学習用画像IMG1の特徴点座標との角度の差分量(Δθ)を算出し、回転中心(X,Y)を特定して、第2学習用画像IMG2aを回転中心(X,Y)について差分量(Δθ)だけ回転させて、基準状態の第2学習用画像IMG2bに変換する。
 画像検査装置10は、図4に示したように、変換前後の学習用画像又は検査対象の画像を表示部10fに表示してよい。学習用画像の変換処理が適切に行われない場合、その後に不適切な学習モデルが生成されてしまい、学習済みモデルを用いた検査の精度が低下するおそれがある。また、検査対象の画像に対しても、画像の変換処理が正しく行われないと、検査の精度が低下するおそれがある。反対に、検査の精度が比較的低い場合、その原因として変換処理に問題がある可能性がある。図4に示したように、学習用画像や検査対象の画像に対して、抽出した特徴点、変換前や変換後の画像を表示部10fに表示することで、変換の妥当性をユーザに確認させ、精度向上に役立てることができる。また、検査の精度を改善するために、必要に応じて状態識別情報12cを修正できるようにしてもよい。
 記憶部12は、基準画像を記憶してもよい。画像検査装置10は、検査対象の画像や学習用画像を基準状態に変換した画像と、基準画像とを並べて表示したり、切り替えて表示したりして、両者を比較可能に表示し、変換の妥当性を確認できるようにしてもよい。また、基準画像を記憶部12に記憶する場合には、基準状態情報は基準画像から算出できるため、基準状態情報を必ずしも記憶部12に記憶しておかなくてもよい。もっとも、基準状態情報を記憶しておくことで、基準状態情報を都度算出する必要がなくなり、演算負荷が軽減される。
 図5は、本実施形態に係る画像検査装置10により実行される抽出処理の一例を示す図である。抽出処理は、図4に示した変換処理の後に行われる。同図では、第1学習用画像IMG1、基準状態の第2学習用画像IMG2b及び基準状態の第3学習用画像IMG3bを図示しており、第1学習用画像IMG1について領域の指定を受け付け、基準状態の第2学習用画像IMG2b及び基準状態の第3学習用画像IMG3bから部分画像を抽出する例を示している。
 画像検査装置10は、基準画像について指定された領域に基づいて対象領域を定める。本例の場合、第1学習用画像IMG1について領域の指定Sbが行われ、対象領域として設定されている。
 画像検査装置10は、領域の指定Sbが行われた第1学習用画像IMG1について、対象領域の第1部分画像IMG1cを抽出する。同様に、画像検査装置10は、基準状態の第2学習用画像IMG2bから第2部分画像IMG2cを抽出し、基準状態の第3学習用画像IMG3bから第3部分画像IMG3cを抽出する。このように、画像を基準状態に変換してから部分画像を抽出することで、部分画像を抽出するための処理負荷を低減することができる。また、均質な部分画像を抽出することができるため、学習済みモデル12aによって再構成画像を生成する場合におけるモデルのパラメータ数を比較的少なくすることができ、処理負荷を低減することができる。
 画像検査装置10は、学習用画像から抽出された第1部分画像IMG1c、第2部分画像IMG2c及び第3部分画像IMG3cに基づいて、対象領域の再構成画像を生成するように学習モデルを学習させ、学習済みモデル12aを生成する。
 図6は、本実施形態に係る画像検査装置10により実行される検査処理の一例を示す図である。検査処理は、学習済みモデル12aを生成した後に実行される。同図では、対象物1の画像IMG5a、基準状態の画像IMG5b、部分画像IMG5c及び再構成画像IMG5dが図示されている。
 画像検査装置10は、対象物1の画像IMG5aを撮影する。本例の画像IMG5aは、対象物1に生じた傷を含む。画像検査装置10は、基準状態情報12cに基づいて、画像IMG5aに対して平行移動、回転、拡大、縮小、剪断変換、射影変換及びフィルタ処理の少なくともいずれかを適用して基準状態に変換して基準状態の画像IMG5bを得る。その後、対象領域情報12dに基づいて、基準状態の画像IMG5bから、対象領域の部分画像IMG5cを抽出する。
 画像検査装置10は、学習済みモデル12aによって、部分画像IMG5cに基づいて、対象領域の再構成画像IMG5dを生成する。再構成画像IMG5dは、学習済みモデル12aは、正常な対象物の特徴を抽出するように学習されたモデルであり、再構成画像IMG5dは、傷を含まない。
 画像検査装置10は、再構成画像IMG5dと部分画像IMG5cとの差に基づいて、対象物1の良否判定を行ったり、再構成画像IMG5dに基づいて、対象物1の寸法を測定したりする。本例では、対象物1の寸法「L」が図示されている。また、再構成画像IMG5dと部分画像IMG5cとの差として対象物1に生じた傷が検出され、対象物1が不良であると判定される。
 図7は、本実施形態に係る画像検査装置10により実行される学習処理のフローチャートである。はじめに、画像検査装置10は、複数の学習用画像のうち、基準状態を定める少なくとも1つの基準画像の指定を受け付ける(S10)。なお、画像検査装置10は、学習用画像以外の画像を基準画像として受け付けてもよい。
 次に、画像検査装置10は、状態識別情報の指定を受け付ける(S11)。状態識別情報の指定は、例えば、エッジや模様、文字等の位置合わせに用いられる特徴箇所(モデル領域)の指定であったり、位置や姿勢のずれ量に関する許容範囲の指定であったりを含んでよい。また、モデル領域を複数指定して、回転や拡大を指定することとしてもよい。なお、状態識別情報は、パターンマッチングを前提として指定のみならず、SIFT(Scale-Invariant Feature Transform)等の局所特徴量の指定を含んでもよい。この場合、状態識別情報は、スケールレベルやエッジ閾値等のパラメータの指定を含んでよい。
 また、画像検査装置10は、基準状態情報及び状態情報を算出する(S12)。画像検査装置10は、例えば、基準画像のモデル領域の中心点を求めて、基準状態情報とする。なお、モデル領域が2つ指定される場合、それぞれの中心位置を結ぶ線分の傾き角や線分の長さを基準状態情報に加えてもよい。画像検査装置10は、例えば、基準画像以外の学習用画像のモデル領域の中心点を求めて、状態情報とする。
 その後、画像検査装置10は、複数の学習用画像を基準状態に変換する(S13)。画像検査装置10は、基準状態情報及び状態情報を用いて、複数の学習用画像を基準状態に変換する。画像検査装置10は、例えば、学習用画像のモデル領域の中心点が、基準画像のモデル領域の中心点に合致するように、学習用画像に対して平行移動や回転等の変換を行い、学習用画像を基準状態に変換する。そして、画像検査装置10は、少なくとも1つの基準画像について、対象領域の指定を受け付ける(S14)。なお、画像検査装置10は、基準画像ではなく、基準状態に変換された任意の画像について、対象領域の指定を受け付けてもよい。また、画像検査装置10は、表示部10fに基準画像を表示し、対象領域の指定を受け付けるユーザーインターフェースを備えていてよい。
 画像検査装置10は、複数の学習用画像について、対象領域の部分画像を抽出する(S15)。そして、画像検査装置10は、複数の部分画像に基づいて、対象領域の再構成画像を生成するように学習モデルの学習処理を実行する(S16)。
 最後に、画像検査装置10は、学習用画像、基準状態への写像を識別するための情報(状態識別情報及び基準状態情報)、対象領域の情報及び学習済みモデルを保存する(S17)。
 図8は、本実施形態に係る画像検査装置10により実行される検査処理のフローチャートである。はじめに、画像検査装置10は、対象物の画像を撮影する(S20)。
 その後、画像検査装置10は、画像を基準状態に変換し(S21)、対象領域の部分画像を抽出する(S22)。また、画像検査装置10は、学習済みモデルによって、部分画像に基づいて、対象領域の再構成画像を生成する(S23)。
 画像検査装置10は、少なくとも再構成画像を用いて、対象物の検査を実行する(S24)。検査を続行する場合(S25:NO)、画像検査装置10は、処理S20~S24を再び実行する。一方、検査を終了する場合(S25:YES)、画像検査装置10は、検査処理を終了する。
 図9は、本実施形態の変形例に係る画像検査装置10により実行される検査処理のフローチャートである。本実施形態の変形例に係る画像検査装置10の抽出部14は、画像から所定の条件を満たす領域を探索し、当該領域を対象領域として、部分画像を抽出する。ここで、所定の条件とは、対象領域の特徴を表す条件であり、例えば、所定のエッジが含まれること、所定の模様が含まれること、所定の文字が含まれること等であってよい。このように、対象領域に相当する領域を探索することで、画像を基準状態に変換する処理を省略することができる。本実施形態では、画素値を変換して新たな画像を生成したが、本変形例では、画素のアドレス(メモリ上の番地)を変換することで、本実施形態と同等の処理を実現する。すなわち、本変形例では、算出部13は、画像の画素のアドレスについて平行移動、回転等を適用し、基準状態に変換するための写像パラメータを求める。
 学習モデルの学習時に本変形例を適用する場合、画像検査装置10は、基準画像に対して対象領域を指定するとともに、特徴点を求めて基準状態情報として記憶する。さらに、画像検査装置10は、他の学習用画像に対しても特徴点を求め、状態情報として記憶する。そして、画像検査装置10は、学習用画像の特徴点と、基準画像の特徴点との対応関係に基づいて、画像間の写像を求め、学習用画像に関する対象領域を算出する。最後に、画像検査装置10は、これらの対象領域から部分画像を抽出し、学習モデルを生成する。
 学習済みモデルを用いた推論時に本変形例を適用する場合、画像検査装置10は、対象物の画像に対して特徴点を求め、基準画像の特徴点との対応関係に基づいて写像を求めて、対象物の画像に関する対象領域を算出する。そして、画像検査装置10は、対象領域から部分領域を抽出して、対象物の検査を行う。
 はじめに、画像検査装置10は、対象物の画像を撮影する(S30)。その後、画像検査装置10は、画像から所定の条件を満たす領域を探索する(S31)。そして、画像検査装置10は、所定の条件を満たす領域を対象領域として、部分画像を抽出する(S32)。
 画像検査装置10は、学習済みモデルによって、部分画像に基づいて、対象領域の再構成画像を生成する(S33)。画像検査装置10は、少なくとも再構成画像を用いて、対象物の検査を実行する(S34)。検査を続行する場合(S35:NO)、画像検査装置10は、処理S30~S34を再び実行する。一方、検査を終了する場合(S35:YES)、画像検査装置10は、検査処理を終了する。
 以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
 [付記]
 対象物(1)の画像を撮影する撮影部(11)と、
 前記画像から対象領域の部分画像を抽出する抽出部(14)と、
 学習済みモデル(12a)によって、前記部分画像に基づいて、前記対象領域の再構成画像を生成する生成部(15)と、
 少なくとも前記再構成画像を用いて、前記対象物(1)の検査を行う検査部(16)と、
 を備える画像検査装置(10)。
 1…対象物、10…画像検査装置、10a…CPU、10b…RAM、10c…ROM、10d…通信部、10e…入力部、10f…表示部、11…撮影部、12…記憶部、12a…学習済みモデル、12b…学習用画像、12c…基準状態情報、12d…対象領域情報、13…算出部、14…抽出部、15…生成部、16…検査部、17…学習部、20…照明、100…画像検査システム

Claims (10)

  1.  対象物の画像を撮影する撮影部と、
     前記画像から対象領域の部分画像を抽出する抽出部と、
     学習済みモデルによって、前記部分画像に基づいて、前記対象領域の再構成画像を生成する生成部と、
     少なくとも前記再構成画像を用いて、前記対象物の検査を行う検査部と、
     を備える画像検査装置。
  2.  前記検査部は、前記再構成画像と前記部分画像との差に基づいて、前記対象物の良否判定を行う、
     請求項1に記載の画像検査装置。
  3.  前記検査部は、前記再構成画像に基づいて、前記対象物の寸法を測定する、
     請求項1に記載の画像検査装置。
  4.  前記画像に対して平行移動、回転、拡大、縮小、剪断変換、射影変換及びフィルタ処理の少なくともいずれかを適用して基準状態に変換するための写像パラメータを求める算出部をさらに備え、
     前記抽出部は、前記写像パラメータを用いて前記基準状態に変換された前記画像から前記部分画像を抽出するか、又は、前記画像から前記写像パラメータを用いて前記部分画像を抽出する、
     請求項1から3のいずれか一項に記載の画像検査装置。
  5.  前記算出部は、少なくとも1つの基準画像に基づいて前記基準状態を定める、
     請求項4に記載の画像検査装置。
  6.  前記基準画像と、前記基準状態への写像を識別するための情報とを関連付けて記憶する記憶部をさらに備える、
     請求項5に記載の画像検査装置。
  7.  前記抽出部は、前記基準画像について指定された領域に基づいて前記対象領域を定める、
     請求項5又は6に記載の画像検査装置。
  8.  前記抽出部は、前記画像から所定の条件を満たす領域を探索し、当該領域を前記対象領域として、前記部分画像を抽出する、
     請求項1から3のいずれか一項に記載の画像検査装置。
  9.  前記抽出部は、前記対象領域の形状の指定を受け付ける、
     請求項1から8のいずれか一項に記載の画像検査装置。
  10.  学習用画像に関する前記部分画像に基づいて、前記対象領域の再構成画像を生成するように学習モデルを学習させる学習部をさらに備える、
     請求項1から9のいずれか一項に記載の画像検査装置。
PCT/JP2020/042062 2019-11-25 2020-11-11 画像検査装置 WO2021106566A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019212461A JP7354790B2 (ja) 2019-11-25 2019-11-25 画像検査装置
JP2019-212461 2019-11-25

Publications (1)

Publication Number Publication Date
WO2021106566A1 true WO2021106566A1 (ja) 2021-06-03

Family

ID=76087668

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/042062 WO2021106566A1 (ja) 2019-11-25 2020-11-11 画像検査装置

Country Status (2)

Country Link
JP (1) JP7354790B2 (ja)
WO (1) WO2021106566A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012032370A (ja) * 2010-07-29 2012-02-16 Sharp Corp 欠陥検出方法、欠陥検出装置、学習方法、プログラム、及び記録媒体
WO2014045508A1 (ja) * 2012-09-18 2014-03-27 日本電気株式会社 検査装置、検査方法、および検査プログラム
US20180374207A1 (en) * 2017-06-27 2018-12-27 Nec Laboratories America, Inc. Reconstructor and contrastor for anomaly detection
WO2019087803A1 (ja) * 2017-10-31 2019-05-09 日本電気株式会社 画像処理装置、画像処理方法及び記録媒体
CN109840889A (zh) * 2019-01-24 2019-06-04 华东交通大学 基于仿生算法的高精度视觉测量方法、装置和系统
WO2019188040A1 (ja) * 2018-03-29 2019-10-03 日本電気株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2020031984A1 (ja) * 2018-08-08 2020-02-13 Blue Tag株式会社 部品の検査方法及び検査システム
JP2020187735A (ja) * 2019-05-13 2020-11-19 富士通株式会社 表面欠陥識別方法及び装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012032370A (ja) * 2010-07-29 2012-02-16 Sharp Corp 欠陥検出方法、欠陥検出装置、学習方法、プログラム、及び記録媒体
WO2014045508A1 (ja) * 2012-09-18 2014-03-27 日本電気株式会社 検査装置、検査方法、および検査プログラム
US20180374207A1 (en) * 2017-06-27 2018-12-27 Nec Laboratories America, Inc. Reconstructor and contrastor for anomaly detection
WO2019087803A1 (ja) * 2017-10-31 2019-05-09 日本電気株式会社 画像処理装置、画像処理方法及び記録媒体
WO2019188040A1 (ja) * 2018-03-29 2019-10-03 日本電気株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2020031984A1 (ja) * 2018-08-08 2020-02-13 Blue Tag株式会社 部品の検査方法及び検査システム
CN109840889A (zh) * 2019-01-24 2019-06-04 华东交通大学 基于仿生算法的高精度视觉测量方法、装置和系统
JP2020187735A (ja) * 2019-05-13 2020-11-19 富士通株式会社 表面欠陥識別方法及び装置

Also Published As

Publication number Publication date
JP2021086208A (ja) 2021-06-03
JP7354790B2 (ja) 2023-10-03

Similar Documents

Publication Publication Date Title
JP6924413B2 (ja) データ生成装置、データ生成方法及びデータ生成プログラム
WO2023077404A1 (zh) 缺陷检测方法、装置和系统
JP6241576B1 (ja) 検査装置及び検査方法
Wan et al. Old photo restoration via deep latent space translation
CN107316047A (zh) 图像处理装置、图像处理方法以及存储介质
CN110706293B (zh) 基于surf特征匹配的电子元器件定位和检测方法
CN108052909B (zh) 一种基于心血管oct影像的薄纤维帽斑块自动检测方法和装置
JP7214432B2 (ja) 画像処理方法、画像処理プログラム、記録媒体、画像処理装置、生産システム、物品の製造方法
Liu et al. Reconstruction from edge image combined with color and gradient difference for industrial surface anomaly detection
JP2019158628A (ja) 検査装置、検査方法、及び検査プログラム
CN117191816B (zh) 基于多光谱融合的电子元器件表面缺陷检测方法和装置
CN110288040A (zh) 一种基于拓扑验证的图像相似评判方法及设备
WO2021106566A1 (ja) 画像検査装置
CN117274258A (zh) 主板图像的缺陷检测方法、系统、设备及存储介质
CN115984246B (zh) 基于机器视觉的缺陷快速检测方法及装置、设备、存储介质
CN114902280A (zh) 分析装置及分析方法
JP4814116B2 (ja) 実装基板外観検査方法
CN115564734A (zh) 一种产品检测方法、电子设备及存储介质
JP3800208B2 (ja) 画像処理方法
JP2000046749A (ja) 部品の接続良否検査方法
Elloumi et al. A locally weighted metric for measuring the perceptual quality of 3D objects
JP4027689B2 (ja) 画像の回転角度検出方法、装置および記録媒体
WO2022134304A1 (zh) 缺陷检测模型训练方法和缺陷检测方法及装置和设备
US20240161271A1 (en) Information processing apparatus, control program, and control method
WO2022201968A1 (ja) 情報処理装置、制御プログラム、および制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20892003

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20892003

Country of ref document: EP

Kind code of ref document: A1