WO2019117065A1 - データ生成装置、データ生成方法及びデータ生成プログラム - Google Patents

データ生成装置、データ生成方法及びデータ生成プログラム Download PDF

Info

Publication number
WO2019117065A1
WO2019117065A1 PCT/JP2018/045252 JP2018045252W WO2019117065A1 WO 2019117065 A1 WO2019117065 A1 WO 2019117065A1 JP 2018045252 W JP2018045252 W JP 2018045252W WO 2019117065 A1 WO2019117065 A1 WO 2019117065A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
data
learning
detection target
Prior art date
Application number
PCT/JP2018/045252
Other languages
English (en)
French (fr)
Inventor
雄希 半澤
真嗣 栗田
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2019117065A1 publication Critical patent/WO2019117065A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to a data generation device, a data generation method, and a data generation program.
  • the classifier may be learned using data (teacher data) including an image for learning and a label of the image.
  • data augmentation is performed to increase variation of the image by rotating or translating the image including the missed detection target site, and data for learning
  • the discriminator may be trained to make it more difficult for missing detection sites to occur.
  • data augmentation is performed by extracting difference data between a non-defective product image and a non-defective product image, setting synthesis conditions using random number values, and combining the difference data with the non-defective product image.
  • the synthesized image including the detection target portion which is imaged at the site is not necessarily generated. Therefore, even if learning data is increased by data augmentation to learn a classifier, when the classifier is used in the field, good discrimination performance can not always be obtained.
  • the present invention provides a data generation apparatus, data generation method, and data generation program for generating learning data from a composite image that includes a detection target portion that can actually occur for an inspection object.
  • a data generation device is a data generation device that generates learning data for learning a discriminator that identifies the presence or absence of a detection target portion included in an inspection object.
  • An acquisition unit that acquires an image, an input unit that is a part of the image and receives specification of a partial image including a detection target region, and a correction unit that corrects the partial image based on feature amounts of the detection target region;
  • a composite image is generated by combining the partial image corrected by the correction unit and an image different from the image including the partial image, and information indicating that the detection target portion is included is associated with the composite image to generate a classifier.
  • a generation unit that generates new learning data for causing the learning.
  • the learning data includes image data input to the classifier, and data indicating at least a correct determination result regarding the image data and data that can be compared with the output of the classifier.
  • the correction method by the correction unit may be, for example, a deformation method of the partial image, that is, a change of the shape of the detection target portion included in the partial image or a change method of the brightness of the partial image.
  • the method of generating a composite image by the generation unit may be, for example, a method of determining a portion to which a partial image is to be combined, or a method of selecting a background image to combine partial images.
  • the detection target site may be any site included in the test subject, and may be, for example, a site of a defect included in the test subject.
  • the detection target site by correcting the partial image based on the feature amount of the detection target site, it is possible to create variations of various detection target sites that may actually occur for the inspection target object, and the detection target that may actually occur.
  • a composite image can be generated that includes the site.
  • a discriminator capable of obtaining a good discrimination result when used in the field can be obtained.
  • information indicating that the detection target site is included is the correct determination result regarding the image data, such as information on the position at which the detection target site is included.
  • Information related to the presence or absence of the detection target site may be included.
  • the input unit may receive designation of at least one of the correction method by the correction unit and the generation method of the composite image by the generation unit.
  • the learning data so as to include the detection target portion that may actually be generated for the inspection object.
  • the image processing apparatus further includes a determination unit that determines whether the image acquired by the acquisition unit includes the detection target portion by the classifier learned using the learning data, the input unit including the determination unit If the determination unit determines that the image does not include the detection target portion, and the input unit determines that the determination result by the determination unit is not correct.
  • the partial image may be corrected.
  • the discriminator learns the feature amount of the image corresponding to the detection target portion by learning using data for learning, and the correction unit determines the feature amount different from the feature amount learned by the discriminator
  • the partial image may be corrected as it has.
  • the discriminator is, for example, a feature amount related to the shape of the detection target site such as the length of the detection target site, the area of the region including the detection target site, and the curvature of the detection target site; A feature amount relating to the appearance of the detection target site such as a change in brightness of the image along with the contrast of the detection target site and the periphery of the detection target site may be learned.
  • the determination unit determines whether the synthesized image includes the detection target region, and the determination unit determines whether the image including the partial image includes the detection target region.
  • the generation unit may further register the composite image as new learning data when the verification unit obtains a similar determination result.
  • the determination result of similarity for example, when the determination unit determines whether or not the detection target portion is included in the composite image, an image from which the partial image is extracted (that is, a measurement image of the inspection object) Similarly to the above, it is a determination result that an erroneous determination that the detection target site is not included occurs. That is, similar determination results include meanings such as similar determination results or corresponding determination results.
  • the generation unit generates a plurality of composite images in which the partial image corrected by the correction unit according to the plurality of correction methods and an image different from the image including the partial image are generated, and the detection target portion is included.
  • the information indicating the information may be associated with a plurality of composite images to generate a plurality of learning data.
  • the partial image including the detection target site is corrected by a plurality of correction methods, and a plurality of composite images are generated to detect the detection target sites of various aspects from a small number of images including the detection target site.
  • a plurality of combined images can be generated, and learning data that can further improve the generalization performance of the classifier can be generated.
  • the generation unit combines the partial image corrected by the correction unit with a plurality of images different from the image including the partial image to generate a plurality of composite images, and the detection target portion is included.
  • the information indicating “1” may be associated with a plurality of composite images to generate a plurality of learning data.
  • partial images including the detection target site are synthesized with respect to a plurality of images of the inspection target that do not include the detection target site, and the detection target site is generated by generating a plurality of composite images. From a small number of images included, it is possible to generate a composite image including a detection target site in various backgrounds, and it is possible to generate training data that can further improve the generalization performance of the classifier.
  • each of the plurality of learning data is applied to the learning of the different classifiers, and the plurality of classifiers are used to identify whether the inspection object includes the detection target portion based on the input image.
  • a selection unit for selecting one or a plurality of learning data from a plurality of learning data based on the discrimination performance of the plurality of learned classifiers learned by the learning unit. You may have.
  • the classifier it is possible to train the classifier by training the classifier using the plurality of generated training data independently, and selecting one or more training data based on the classification performance.
  • the generation unit may select the synthesis position of the partial image so as to generate a synthetic image so that the background pattern around the detection target portion is similar between the image including the partial image and the synthetic image.
  • the partial image is synthesized so as to look natural at the synthesis destination, and includes a detection target site that can actually occur for the inspection object.
  • the correction unit may correct the brightness of the partial image.
  • the correction unit may correct the shape of the partial image.
  • the shape of the detection target portion included in the partial image is changed by correcting the shape of the partial image.
  • the correction unit may correct the shape of the partial image so that the shape of the partial image approaches any of the plurality of shape templates.
  • the detection target portion that can actually occur for the inspection object can be easily synthesized, and it is unfamiliar with the designation of the shape. Even an operator can generate learning data that further improves the discrimination performance when using a discriminator in the field.
  • the generation unit combines the partial images corrected using the plurality of shape templates into an image different from the image including the partial image to generate a plurality of composite images, and the determination unit generates a plurality of combined images.
  • the correction unit determines whether the detection target portion is included in the composite image, and the correction unit selects one of the plurality of shape templates based on the reliability of the determination by the determination unit, and corrects the shape of the partial image You may
  • the degree of reliability indicates the certainty of the detection target portion likeness of the region (composite region) of the corrected partial image included in the composite image, and for example, the judgment result of “detection target region present” is from 0 It may be an index represented by a numerical value of 1, and the closer the numerical value is to 1, the higher the certainty of the determination result may be.
  • the generation unit may generate a combined image such that the partial image is combined with an image of a portion of the inspection object where a detection target site is likely to be generated statistically.
  • the detection target portion is a portion of the defect included in the inspection object
  • the feature amount includes the shape of the defect, the brightness of the image, the change in the brightness of the image along the defect, and the defect and the defect It may include at least one of the contrast with the surroundings.
  • the discriminator identifies the defect by capturing the feature amount of the defect that is likely to miss the defect by the discriminator, correct the partial image based on the feature amount, and generate a composite image. It is possible to increase the number of images including the hard defects, and to generate training data that can further improve the discrimination performance of the classifier.
  • a data generation method is a data generation method for generating learning data for learning a discriminator that identifies the presence or absence of a detection target portion included in an inspection object, which is an inspection object Acquiring an image of the image, accepting a designation of a partial image including a detection target portion that is a part of the image, correcting the partial image based on the feature amount of the detection target portion, and correcting For generating a composite image obtained by combining the partial image and an image different from the image including the partial image, and associating the information indicating that the detection target portion is included with the composite image to train the classifier. Generating new learning data.
  • the detection target site by correcting the partial image based on the feature amount of the detection target site, it is possible to create variations of various detection target sites that may actually occur for the inspection target object, and the detection target that may actually occur.
  • a composite image can be generated that includes the site.
  • a discriminator capable of obtaining a good discrimination result when used in the field can be obtained.
  • a data generation program includes an arithmetic device provided in a data generation device that generates learning data for learning a discriminator that identifies the presence or absence of a detection target portion included in an inspection object.
  • An acquisition unit that acquires an image of an inspection object, an input unit that is a part of the image and receives specification of a partial image including a detection target region, and a correction that corrects the partial image based on feature amounts of the detection target region
  • a composite image is generated by combining the partial image corrected by the unit and the correction unit with an image different from the image including the partial image, and information indicating that the detection target portion is included is associated with the composite image.
  • the controller operates as a generation unit that generates new learning data to make the classifier learn.
  • the detection target site by correcting the partial image based on the feature amount of the detection target site, it is possible to create variations of various detection target sites that may actually occur for the inspection target object, and the detection target that may actually occur.
  • a composite image can be generated that includes the site.
  • a discriminator capable of obtaining a good discrimination result when used in the field can be obtained.
  • a data generation device for generating learning data from a composite image that includes a detection target portion that can actually occur for an inspection object.
  • the present embodiment an embodiment according to one aspect of the present invention (hereinafter referred to as “the present embodiment”) will be described based on the drawings.
  • symbol in each figure has the same or same structure.
  • FIG. 1 is a functional block diagram schematically exemplifying an application scene of the data generation apparatus 100 according to the present embodiment.
  • the data generation apparatus 100 according to the present embodiment is a correction method of a partial image including a detection target portion by the user interface 170 and a generation method of a composite image when the detection target portion is included in the image of the inspection object.
  • a device that receives an input, corrects a partial image based on the feature amount of a detection target site, combines the corrected partial image with an image different from the image including the partial image, and generates new learning data is there.
  • the data generation device 100 corrects the partial image including the detection target portion in the image based on the feature amount of the detection target portion, and the imaging device 153 that acquires the image of the inspection target.
  • a composite image is generated by combining the correction unit 121, the corrected partial image, and an image different from the image including the partial image, and information indicating that the detection target portion is included is associated with the composite image,
  • a generation unit 122 that generates new learning data for causing the classifiers (a, b, c, A, B,...) To learn, a correction method of a partial image by the correction unit 121, and a composite image by the generation unit 122
  • a user interface 170 for receiving at least one of the generation methods.
  • the imaging device 153 is an example of the “acquisition unit” in the present invention
  • the user interface 170 is an example of the “input unit” in the present invention.
  • the image of the inspection object newly captured by the imaging device 153 is referred to as a “measurement image”, and is collected in advance to learn the classifiers (a, b, c, A, B,...)
  • the image of the inspection object is called a "sample image”.
  • the data generation device 100 may not necessarily include the imaging device 153, and may acquire a measurement image from a separately provided imaging device.
  • the detection target site is a site of a defect included in the inspection target will be described.
  • the detection target site is not limited to the site of the defect included in the test target, and may be any site included in the test target.
  • the measurement image of the inspection object captured by the imaging device 153 is displayed on the user interface 170 of the second operator.
  • the second operator designates, using the user interface 170, a partial image including a defect in the measurement image.
  • the second operator designates by the user interface 170 how to correct the partial image by the correction unit 121 (correction method), and the generation unit 122 converts the corrected partial image into another image. It is specified by the user interface 170 whether to synthesize (generation method).
  • the correction unit 121 changes the length of the defect, the area of the region including the defect, the shape of the defect such as the curvature of the defect, the brightness of the image, the change in the brightness of the image along the defect, and the defect and the periphery of the defect.
  • the partial image may be corrected based on the feature amount of the defect such as the contrast of the image.
  • the correction unit 121 may correct a partial image based on the feature amount by capturing a feature amount of a defect which is likely to miss a defect by a classifier (a, b, c, A, B,...) And an erroneous determination is likely to occur. .
  • the discriminator (a, b, c, A, B,%) Can discriminate if it is a relatively long defect, but if it misses a relatively short defect, the correction unit 121
  • the partial images may be corrected so as to be short to increase variations of defects that cause the classifiers (a, b, c, A, B,...) To be difficult to discriminate.
  • a detailed method may be designated by the user interface 170, or a rough method is designated by the user interface 170 or the details of the correction method by the correction unit 121 are not accepted. It may be determined automatically.
  • the generation unit 122 combines the partial image corrected by the correction unit 121 with an image different from the image including the partial image to generate a composite image, and associates information indicating that a defect is included with the composite image. And generate new learning data for causing the classifiers (a, b, c, A, B,...) To learn.
  • an image different from an image including a partial image may be an image in which a defect is hidden by a mask, in addition to an image not including any defect.
  • a method of generating a composite image by the generation unit 122 a detailed method may be designated by the user interface 170, or a rough method is designated by the user interface 170 or the generation is performed by the generation unit 122 without accepting the designation. The details of the method may be determined automatically.
  • the discriminator includes a defect that is difficult to be identified by a discriminator by capturing a feature amount of a defect that is likely to miss a defect and causing an erroneous determination, correct the partial image based on the feature amount, and generate a composite image.
  • learning data can be generated that can increase the number of images and can further improve the discrimination performance of the classifier.
  • the data generation apparatus 100 uses the learning data, and attribute information including the presence or absence of a defect of the inspection object, and the position of the defect and the type of the defect when the inspection object includes a defect It has a function of generating a discriminator that outputs (label).
  • the attribute information may include the presence or absence of the defects, the positions of the plurality of defects, and the types of the defects.
  • the data generation apparatus 100 has a function of acquiring a measurement image obtained by measuring an inspection object, and outputting attribute information of the inspection object using the generated discriminator. Therefore, the data generation apparatus 100 functions as an inspection apparatus or an inspection system which acquires the measurement image of the inspection object and outputs the measurement result including the information on the presence or absence of the defect of the inspection object based on the measurement image.
  • the data generation apparatus 100 corrects the measured image (measurement image) based on the image acquisition unit 110 which generates and stores learning data, and the designated correction method and generation method.
  • the image correction unit 120 the learning data generated by at least one of the image collection unit 110 and the image correction unit 120 are used, and there is a defect in the inspection object and the inspection object includes a defect, A first learning unit 130 and a second learning unit 140 for generating a classifier that outputs attribute information including the position of the defect and the type of the defect, and a measurement image obtained by measuring the inspection object;
  • a measuring unit 150 that outputs attribute information of an inspection object using a classifier generated by at least one of the first learning unit 130 and the second learning unit 140, a measurement image and the attribute information thereof Only in it provided with a measurement result management unit 160 for storing a measurement result.
  • the measurement result includes the measurement image, the attribute information of the inspection object output by the classifier, and the determination result by the determination unit 152.
  • the learning data may be not only a single learning data
  • the defect is an abnormality that the inspection object has, and includes, for example, unevenness such as flaws, colors, stains, chips, burrs, foreign matter, printing blur, positional deviation such as printing, and the like.
  • the attribute information includes at least information on the presence or absence of a defect included in each image, information indicating the position of the defect when the image includes a defect, and information indicating the type of the defect.
  • the attribute information is not limited to the presence or absence of the defect, the information on the position of the defect, and the information on the type of the defect, for example, the reliability of the information on the presence or absence of the defect output by the identifier, the information on the position of the defect and the type of the defect It may contain information on the degree.
  • the data generation apparatus 100 includes a storage unit (for example, the auxiliary storage units 102 and 103 shown in FIG. 4) for storing a software program and data used to execute the software program, and an operation unit (for example, for calling and executing the software program). , And the processor 104) shown in FIG. 4. That is, each of the functional blocks of the image collection unit 110, the image correction unit 120, the first learning unit 130, the second learning unit 140, the measuring unit 150, and the measurement result managing unit 160 stores the auxiliary storage units 102 and 103, etc.
  • the predetermined software program stored in the unit is realized by being executed by a hardware processor such as the processor 104.
  • a software program is executed by the hardware processor for each of the functions of the image collection unit 110, the image correction unit 120, the first learning unit 130, the second learning unit 140, the measurement unit 150, and the measurement result management unit 160. Shows a predetermined process implemented by each of the image collection unit 110, the image correction unit 120, the first learning unit 130, the second learning unit 140, the measurement unit 150, and the measurement result management unit 160 may be used alone or in combination. It is configured as a device. Note that the data generation device 100 may be configured by a single information processing device. The hardware configuration of the information processing apparatus in the present embodiment will be described later.
  • the image acquisition unit 110 acquires a sample image for generating learning data.
  • the sample image may be an image obtained by imaging an inspection object, or may be a CG image generated by a known image synthesis technique.
  • the attribute adding unit 111 adds attribute information to each image or to a plurality of images in the sample image acquired by the image collection unit 110. That is, the attribute assignment unit 111 assigns the attribute information to the sample image, thereby making the sample image into learning data.
  • assignment (labeling) of attribute information is performed by the first operator via an arbitrary user interface 180.
  • the first operator may use a display device (such as a liquid crystal display device) and an input device (such as a touch panel, a keyboard, or a mouse) as the user interface 180 to perform predetermined operations.
  • a display device such as a liquid crystal display device
  • an input device such as a touch panel, a keyboard, or a mouse
  • attribute information including the type of the defect can be added to the sample image using the user interface 180.
  • the method of provision of attribute information is not specifically limited.
  • the attribute information may be automatically added to the image using a classifier that has already learned the relationship between the image and the attribute information to be added to the image, or a known statistical method may be used.
  • a plurality of images may be clustered by a method and attribute information may be attached to the cluster.
  • the image (learning data) to which the attribute information is added by the attribute adding unit 111 is stored in the image database (hereinafter, referred to as "image DB") 112 and stored.
  • the image collection unit 110 includes an image correction unit 113 that expands learning data according to, for example, some of the sample images to be acquired and some of the learning data stored in the image DB 112.
  • the image correction unit 113 may extend the sample image based on the correction operation of the first operator performed via the user interface 180.
  • the image correction unit 113 is not necessarily an essential element of the image collection unit 110.
  • the extension of learning data refers to data augmentation in which data sets used for learning are increased.
  • learning data may be expanded (or augmented) by translating, rotating, changing colors, enlarging, or reducing a sample image.
  • the image correction unit 113 is not a component essential to the image collection unit 110, and may be appropriately provided according to the necessary amount of learning data required for the image measurement process realized using the data generation apparatus 100. Further, the augmentation may be realized by the worker himself instructing each processing such as extraction of a partial image, composition with a background image, and the like through an arbitrary user interface 180.
  • the learning data expanded by the image correction unit 113 is stored in the image DB 112 and stored.
  • the background image is an image to be combined with the partial image, and includes an image different from the measurement image from which the partial image is extracted.
  • the background image may be a measurement image, but when the measurement image is used as a background image, the synthesis location is set so that the partial image is synthesized in an area other than the partial image extracted from the measurement image. It can be used limited.
  • the background image may be generated based on an image other than the measurement image, and may or may not have the same pattern as the image of the area other than the defect of the measurement image.
  • the background image may be an image having a uniform background pattern, an image having a background pattern such as a hairline, or an image on which characters and the like are printed.
  • the image may be
  • the image DB 112 acquires learning data from the attribute assignment unit 111 and the image correction unit 113.
  • the image DB 112 may store learning data in a state of being classified based on the assigned attribute information.
  • attribute information is already added to the sample image acquired by the image collection unit 110
  • the image DB 112 acquires the sample image without passing through the attribute addition unit 111 and the image correction unit 113, May be stored.
  • the image DB 112 determines whether or not learning data for learning processing used in learning processing for generating a classifier to be described later, and the generated classifier outputs desired attribute information. Test data for evaluation processing for evaluating whether or not may be stored separately.
  • the learning data and the test data are stored separately in the image DB 112 without distinction between the data for testing and the data for testing, the data set stored in the image DB 112 is divided into one for learning and one for testing by an arbitrary method. You may do it.
  • FIG. 2 is a conceptual diagram showing the contents of processing in the first learning unit 130 and the second learning unit 140 of the data generation device according to the present embodiment.
  • the first learning unit 130 acquires learning data from the image collection unit 110.
  • the first learning unit 130 may acquire learning data from an image correction unit 120 described later.
  • the first learning unit 130 includes a first learning processing unit 131 that executes machine learning using the acquired learning data and generates classifiers (a, b, c,).
  • the classifier (a, b, c,9) Takes image data as an input, and is an attribute including the presence or absence of a defect included in the image, and the position and the type of one or more defects if any. It outputs information.
  • Data other than image data may be input to the classifiers (a, b, c,).
  • a condition a light amount, an exposure time of an imaging device, etc.
  • identification information of the inspection object is input It may be done.
  • the classifiers (a, b, c,%) are generated by performing learning processing and evaluation processing on an arbitrary machine learning model.
  • the machine learning model has a predetermined model structure and processing parameters that change due to learning processing, and the processing parameters are optimized based on the experience obtained from the learning data, thereby improving the identification accuracy. It is a model. That is, the machine learning model is a model that learns optimal processing parameters by learning processing.
  • the algorithm of the machine learning model may be, for example, support vector machine, logistic regression, neural network or the like, but the type is not particularly limited. In this embodiment, an example using a convolutional neural network suitable for image recognition among neural networks, in particular, deep neural networks having three or more layers will be described.
  • the first learning unit 130 may include a model generation unit (not shown) for generating a machine learning model. In addition, the first learning unit 130 may obtain a machine learning model generated in advance from the outside.
  • the discriminator learns a feature amount of an image corresponding to a defect, which has a predetermined width, by prior learning using learning data.
  • the feature amount having a predetermined width may be a feature amount having a predetermined numerical range. For example, if the feature amount represents the length of a defect, the feature amount is a numerical range of the length. You may have The type of feature to be learned can be set unique to the classifier. Further, the width of the feature value to be learned depends on the content of the learning data.
  • the feature amount refers to, for example, the feature length relating to the shape of the defect such as the length of the defect, the area of the region including the defect, the curvature of the defect, the brightness of the image, and the change of the image brightness along the defect. And / or a contrast between the defect and the periphery of the defect.
  • the feature amount may be classified into, for example, four points of white point, black point, white line, and black line according to the type of defect.
  • the measuring unit 150 which will be described later, uses the discriminator to discriminate whether or not there is a portion in the measurement image that matches the feature of the predetermined width learned by the discriminator, and based on the discrimination result And output the determination result including the information on the presence or absence of the defect.
  • the classifier may be expressed by processing parameters.
  • the processing parameter is information representing a discriminator, and the number of layers of the neural network and the number of nodes relating to each layer in the case of a neural network (hereinafter sometimes simply referred to as "network") as a discriminator.
  • the internal parameters define the width of the feature to be detected as a defect.
  • the first learning processing unit 131 learns the machine learning model so as to output an output value corresponding to the attribute of the measurement image represented by the attribute information when the data of the acquired image is input using the data for learning Perform learning processing.
  • the first learning processing unit 131 further uses the test data for the classifiers (a, b, c,%) Generated by the learning process to discriminate the classifiers (a, b, c,. • Perform evaluation processing to compare the output of) with the attribute information given to the test data.
  • the discriminator (a, b, c, 7) matches the attribute information given to the test data, the discriminator (a, b, c, %) It is determined that the generation condition is satisfied, and the generation processing of the classifiers (a, b, c,%) Is completed.
  • the first learning unit 130 uses the information including the generated model structure and processing parameters of the classifiers (a, b, c,%) As the learning result data to the measuring unit 150 and the second learning unit 140 described later. Output.
  • the second learning unit 140 performs additional learning (relearning) on the classifier generated by the predetermined generation processing.
  • the description of the elements in common with the first learning unit 130 in the second learning unit 140 is omitted.
  • the second learning unit 140 acquires learning result data of the learned classifiers (a, b, c,%) Generated by the first learning unit 130. Note that the second learning unit 140 may obtain learning result data related to a classifier generated by a predetermined generation process from the outside. The second learning unit 140 acquires learning data from the image collection unit 110. The second learning unit 140 may acquire learning data from the image correction unit 120 described later.
  • the second learning unit 140 has a second learning processing unit 141 that executes additional learning (relearning) by machine learning using learning data, and generates classifiers (A, B, C,%) .
  • the classifiers (A, B, C,%) Are generated by performing learning processing and evaluation processing on the classifiers (a, b, c,%) Generated by predetermined learning processing. Be done.
  • the second learning processing unit 141 uses the learning data to perform learning processing and evaluation processing on learning result data including the model structure and processing parameters of the classifier (a, b, c,%) To generate classifiers (A, B, C,).
  • the discriminators (A, B, C,...) Receive image data, and the presence or absence of a defect included in the image, the position and the type of the defect if one or more defects are included, To output attribute information including
  • the second learning processing unit 141 When the second learning processing unit 141 receives data of the acquired image using the data for learning, the second learning processing unit 141 outputs the output value corresponding to the attribute of the measurement image represented by the attribute information. ..)) is subjected to learning processing (learning processing of additional learning) for learning the machine learning model represented by the learning result data of b),.
  • learning processing learning processing of additional learning
  • the learning process of the additional learning performed by the second learning processing unit 141 may be performed using the learning data acquired from the image correction unit 120 described later. As a result, it is possible to use learning data that is newly generated based on an image obtained by imaging the inspection object, and it is possible to improve the discrimination accuracy of the classifier.
  • the second learning processing unit 141 further uses the test data for the classifiers (A, B, C,%) Generated by the learning process to discriminate the classifiers (A, B, C,. • Perform evaluation processing to compare the output of) with the attribute information given to the test data. If the output of the discriminator (A, B, C,%) Matches the attribute information given to the test data, the discriminator (A, B, C,%) It is determined that the generation condition is satisfied, and the generation process of the classifiers (A, B, C,%) Is completed.
  • the evaluation process performed by the second learning processing unit 141 may be performed using test data acquired from the image correction unit 120 described later. As a result, evaluation can be performed using learning data newly generated based on an image obtained by imaging the inspection object, and the recognition accuracy of the classifier can be improved.
  • the second learning unit 140 outputs information including the generated model structure of the classifiers (A, B, C, etc And processing parameters as learning result data to the measurement unit 150 described later.
  • the first learning unit 130 and the second learning unit 140 may be integrally configured, and the first learning processing unit 131 may perform the learning process and the evaluation process of the additional learning.
  • FIG. 3 is a conceptual diagram showing the contents of processing in the measurement unit 150 of the data generation apparatus 100 according to the present embodiment.
  • the measurement unit 150 causes the determination unit 152 to output attribute information of the measured image of the inspection object captured by the imaging device 153 using the classifier generated by the learning process and evaluation process using the learning data. It is determined whether the inspection object includes a defect, and a measurement result including a measurement image, attribute information, and a determination result is output.
  • the attribute information includes the presence or absence of a defect, and the position and type of the defect if one or more defects are included.
  • the measurement unit 150 acquires, as learning result data, information including the model structure of the classifier and the processing parameters from the first learning unit 130 and the second learning unit 140.
  • the measurement unit 150 has a learning result DB 151 that stores the acquired learning result data.
  • the measurement unit 150 also includes an imaging device 153 that images an inspection object.
  • the imaging device 153 is installed, for example, to image a factory production line, and constitutes a part of the production line.
  • the imaging device 153 captures an image of a part and a product (hereinafter, the part and the product may be collectively referred to as a “work”) as an inspection object flowing in the manufacturing line as a measurement image.
  • the measurement unit 150 includes a determination unit 152 that outputs attribute information of the measurement image using a classifier configured based on the learning result data stored in the learning result DB 151.
  • the determination unit 152 determines whether or not the measurement image captured by the imaging device 153 includes a defect by the classifiers (a, b, c, A, B,%) Learned using the learning data. judge.
  • the measurement unit 150 outputs the measurement result including the measurement image, the attribute information of the measurement image output by the discriminator, and the determination result by the determination unit 152 to the measurement result management unit 160.
  • the measuring unit 150 may output identification information for identifying the individual inspection object together with the measurement result to the measurement result management unit 160.
  • the identification information of the inspection object may be acquired from the measurement image, or may be acquired from the outside via a predetermined interface.
  • the identification information for example, a serial number or a graphic obtained by encoding the serial number can be used. Therefore, the identification information is preferably information that can identify an individual of the test object.
  • the measurement unit 150 may output the measurement result of the inspection object to other than the measurement result management unit 160.
  • the measurement result and the identification information may be output to a user interface 170 described later.
  • measurement results may be output directly or indirectly to a sorting device (not shown).
  • the sorting apparatus sorts the inspection object based on the acquired measurement result.
  • the measurement result management unit 160 includes a measurement result DB 161 that associates and stores the measurement image included in the measurement result, the attribute information output by the classifier and the determination result by the determination unit 152.
  • the measurement result management unit 160 may obtain identification information for identifying the inspection object together with the measurement result.
  • the identification information of the inspection object may be acquired from the measuring unit 150, or may be acquired from the outside through a predetermined interface.
  • the measurement result DB 161 may classify and store the measurement image in association with the attribute of the type of defect, for example, according to the type of attribute included in the attribute information.
  • the measurement result management unit 160 outputs the measurement result to the user interface 170. At this time, the measurement result management unit 160 may output identification information of the inspection object to the user interface 170. Also, the measurement result management unit 160 outputs the measurement result to the image correction unit 120 described later. At this time, the measurement result management unit 160 may output the identification information of the inspection object to the image correction unit 120 at the same time.
  • the user interface 170 is used by the second operator to confirm the determination result by the determination unit 152, or to specify a partial image including a defect included in the measurement image, It is used to receive an input as to whether the determination result by the determination unit 152 is correct, to be used to specify a correction method by the correction unit 121, or to specify a method to generate a composite image by the generation unit 122 .
  • the user interface 170 is at least a display unit (such as a liquid crystal display device) for displaying the measurement image and the measurement result by the measurement unit 150, and designation of a partial image by the second operator and determination result by the determination unit 152 It has an input part (a touch panel, a keyboard, a mouse, etc.) for performing the input of no, the specification of the correction method, and the specification of the generation method.
  • the second worker determines the correctness of the measurement result based on the measurement image displayed on the display unit and the measurement result of the measurement image, inputs the correctness of the measurement result using the input unit, and includes the part including the defect The area of the image may be input. Then, based on the measurement image displayed on the display unit and the measurement result of the measurement image, the second worker how to correct the designated partial image, the corrected partial image to another image It may be specified using the input unit whether to combine as described above.
  • the image correction unit 120 corrects the acquired partial image to generate learning data.
  • the image correction unit 120 includes a correction unit 121, a generation unit 122, a correction image database (hereinafter referred to as "correction image DB") 123, a verification unit 124, and a selection unit 125, and the partial image received by the user interface 170 Are corrected, and the corrected partial image is synthesized with another image to generate learning data.
  • the image correction unit 120 corrects the partial image received by the user interface 170 to generate new learning data, but corrects the partial image received by the user interface 180. , New training data may be generated.
  • the correction unit 121 corrects a partial image including a defect in the image based on the feature amount of the defect.
  • the correction unit 121 may correct the partial image when the determination unit 152 determines that the image does not contain a defect and the user interface 170 inputs that the determination result of the determination unit 152 is not correct. For example, the correction unit 121 compares the feature amount of the partial image of the defect with the feature amount learned by the classifier used by the determination unit 152, and has a feature amount different from the feature amount learned by the classifier. Thus, partial images may be corrected.
  • the correction unit 121 detects the feature of the defect as the discriminator
  • the partial image may be corrected so that it does not fall within the range of learned feature amounts.
  • the correction unit 121 deviates from the range of the length of the defect learned by the discriminator
  • partial images including defects may be corrected by scaling. As a result, a composite image can be generated based on an image that is misjudged by the discriminator as not containing a defect, and images including defects that are difficult to discriminate by the discriminator can be increased.
  • the correction unit 121 may perform a plurality of different corrections on the partial image specified by the user interface 170. More specifically, the correction unit 121 may correct the brightness of the partial image or correct the shape of the partial image. By correcting the brightness of the partial image, it is possible to obtain learning data that can learn the classifier so that the classifier does not miss the defect due to the difference in the illumination condition or the location of the defect. . Further, by correcting the shape of the partial image, it is possible to obtain learning data that can make the classifier learn so that the classifier does not miss the defect due to the difference in the shape of the defect.
  • the correction unit 121 may correct the shape of the partial image so that the shape of the partial image approaches any of the plurality of shape templates.
  • An example of such correction will be described more specifically using FIG.
  • the correction unit 121 may select any one of the plurality of shape templates based on the reliability of the determination by the determination unit 152 and correct the shape of the partial image.
  • the degree of reliability indicates the probability of defect likeness of the region (composite region) of the corrected partial image included in the composite image, and for example, the judgment result with “defective” is a numerical value of 0 to 1 It is an expressed index, and the closer the numerical value is to 1, the higher the certainty of the judgment result.
  • the determination unit 152 determines whether a defect is included in the plurality of composite images generated by combining the partial images corrected using the plurality of shape templates with an image different from the image including the partial image. It is judged whether or not it is not, and the reliability of each judgment is outputted.
  • the correction unit 121 may correct the shape of the partial image by selecting a shape template in which the reliability of the determination by the determination unit 152 is relatively low. In this manner, the shape of the partial image is corrected using the shape template suitable for improving the discrimination performance of the classifier, and the discrimination performance and learning efficiency of the classifier can be improved.
  • the generation unit 122 generates a composite image obtained by combining the partial image corrected by the correction unit 121 and an image different from the image including the partial image, and associates information indicating that a defect is included with the composite image. And generate new learning data to make the classifier learn.
  • the generation unit 122 generates a plurality of composite images obtained by combining the partial images corrected by the correction unit 121 according to the plurality of correction methods with the image of the inspection object different from the image including the partial images, and includes defects.
  • the information indicating the information may be associated with a plurality of composite images to generate a plurality of learning data candidates.
  • the generation unit 122 combines the partial image corrected by the correction unit 121 with a plurality of images different from the image including the partial image to generate a plurality of combined images, and indicates that a defect is included.
  • Information may be associated with a plurality of composite images to generate a plurality of learning data candidates.
  • the generation unit 122 may generate a composite image by selecting a combination position of the partial images such that the background pattern around the defect is similar between the image including the partial image and the composite image. More specifically, for example, in the image including the partial image and the composite image, the partial image such that the variation of the lightness / darkness of the pixel value of each image independent of the texture of the imaging object falls within a predetermined range.
  • the composite position of may be selected to generate a composite image.
  • partial images can be synthesized so as to look natural at the synthesis destination, and data augmentation can be performed so as to include defects that may actually occur in the inspection object.
  • the generation unit 122 may generate a composite image so that the partial image is composited at a position where defects are likely to be generated statistically among the inspection objects.
  • the portion of the inspection object that is likely to cause a defect may be identified based on the history of the portions of the inspection object that have occurred in the past.
  • the correction image DB 123 stores and stores the new learning data generated by the generation unit 122.
  • the correction image DB 123 may temporarily store the measurement image and the partial image received from the user interface 170, or may temporarily store the sample image and the partial image received from the user interface 180.
  • the verification unit 124 causes the determination unit 152 to determine whether a defect is included in the composite image and causes the determination unit 152 to determine whether a defect is included in the image that is the composition source of the composite image. Verify that a similar judgment result can be obtained. For example, when the determination unit 152 erroneously determines that a defect is not included in the measurement image which is the composition source of the composite image, the verification unit 124 determines whether the composite image includes a defect. The determination is made by 152, and the determination unit 152 verifies whether or not it is erroneously determined that no defect is included.
  • the image correction unit 120 applies each of the plurality of learning data candidates generated by the generation unit 122 to the learning of the different classifiers, and identifies a plurality of input image images including defects.
  • the classifiers (a, b, c, A, B,...) May be learned by the first learning unit 130 or the second learning unit 140.
  • the image correction unit 120 generates, for example, an N ⁇ M combination of a partial image corrected by the N correction methods by the correction unit 121 and M images of the inspection object not including a defect.
  • N classifiers (a, b, c, A, B,...) Using N ⁇ M learning data.
  • the learning may be performed by the first learning unit 130 or the second learning unit 140.
  • a plurality of classifiers (a, b, c, A, B,%) are learned by the first learning unit 130 or the second learning unit 140 using N ⁇ M learning data independently. You may Thereby, it is possible to try which correction method and generation method are optimal for improving the discrimination performance of a plurality of classifiers (a, b, c, A, B,).
  • the selection unit 125 selects one or more learning data from a plurality of learning data candidates based on the discrimination performance of the plurality of learned classifiers learned by the first learning unit 130 or the second learning unit 140. Choose The selection unit 125 selects one or a plurality of learning data based on the discrimination performance when the plurality of classifiers are trained using the plurality of generated training data candidates, thereby performing learning of the classifiers. When used in the above, it is possible to select learning data that improves the discrimination performance of the discriminator better, and the discrimination performance and the learning efficiency of the discriminator can be improved.
  • the data generation device 100 may include the arithmetic device 101, the output device 191, the input device 192, and the imaging device 153.
  • the output device 191 and the input device 192 constitute a user interface 170 and a user interface 180.
  • the arithmetic device 101 may include auxiliary storage units 102 and 103, a processor 104, a main storage unit 105, and an external interface (hereinafter referred to as "external I / F").
  • the arithmetic device 101 includes a central processing unit (CPU), a random access memory (RAM), a read only memory (ROM), and the like, and controls each component according to information processing.
  • the processor 104 may include a CPU, and the auxiliary storage units 102 and 103 and the main storage unit 105 may include a RAM and a ROM.
  • the auxiliary storage unit 102 may be, for example, a hard disk drive, a solid state drive, etc., and stores the data generation program 102a executed by the processor 104, the measurement image 102b captured by the imaging device 153, learning data 102c, etc.
  • the auxiliary storage unit 103 and the main storage unit 105 may be, for example, a hard disk drive or a solid state drive.
  • the data generation program 102 a performs processing for realizing the functions of the image collection unit 110, the image correction unit 120, the first learning unit 130, the second learning unit 140, the measurement unit 150, and the measurement result management unit 160 described above. Each function is realized by the program being executed by the processor 104.
  • the data generation program 102 a is for realizing some of the functions of the image collection unit 110, the image correction unit 120, the first learning unit 130, the second learning unit 140, the measurement unit 150, and the measurement result management unit 160. It may be a program for performing processing, or may include a program for performing processing for realizing functions other than these.
  • the external I / F 106 is a USB (Universal Serial Bus) port or the like, and is an interface for connecting to an external device such as the output device 191, the input device 192, and the imaging device 153.
  • the data generation apparatus may include an interface for performing wired or wireless communication via a network, such as a wired LAN (Local Area Network) module or a wireless LAN module.
  • a network such as a wired LAN (Local Area Network) module or a wireless LAN module.
  • a storage medium is a medium that stores information such as a program by electrical, magnetic, optical, mechanical or chemical action so that information such as a stored program can be read by a device such as a computer It is.
  • the storage medium is, for example, a CD (Compact Disk), a DVD (Digital Versatile Disk), or the like, and may store the data generation program 102a.
  • the data generation program 102 a stored in the storage medium may be copied to the auxiliary storage unit 103 and copied to the auxiliary storage unit 102 or the main storage unit 105.
  • FIG. 4 exemplifies a disk-type storage medium such as a CD and a DVD as an example of the storage medium.
  • the type of storage medium is not limited to the disc type, and may be other than the disc type.
  • a storage medium other than the disk type for example, a semiconductor memory such as a flash memory can be mentioned.
  • the data generation apparatus 100 may acquire data such as the data generation program 102 a via a network by wired or
  • the specific hardware configuration of the data generation apparatus 100 may omit, replace, and add components as appropriate according to the embodiment.
  • the computing device 101 may include a plurality of processors, or may include a GPU (Graphical Processing Unit) or an FPGA (Field Programmable Gate Array).
  • the data generation device 100 may be configured by a plurality of information processing devices.
  • the data generation apparatus 100 may be configured by a general-purpose desktop PC (Personal Computer), a tablet PC, or the like, in addition to an information processing apparatus designed specifically for the service to be provided.
  • FIG. 5 is a flowchart showing the contents of the first process executed by the data generation apparatus 100 according to the present embodiment.
  • the first process is a process of generating new learning data by the generation unit 122 when the user interface 170 inputs that the determination result by the determination unit 152 is not correct.
  • the data generation apparatus 100 first acquires an image of an inspection object (S10).
  • the image may be a sample image stored in advance in the image DB 112, or may be a measurement image newly captured by the imaging device 153.
  • the determination unit 152 of the data generation apparatus 100 determines whether a defect is included in the acquired image by the classifier learned using the learning data (S11).
  • the second worker confirms the image to be judged and the judgment result by the user interface 170, and the user interface 170 receives an input regarding whether or not the judgment result by the judgment unit 152 is correct (S12).
  • the determination unit 152 determines that the image does not contain a defect, and the user interface 170 inputs that the determination result by the determination unit 152 is not correct (S13: NO), that is, the defect is missed by the classifier
  • the user interface 170 receives specification of a partial image including a defect in the image (S14). If the determination unit 152 can correctly determine the presence or absence of a defect (S13: YES), the first process ends.
  • the correction unit 121 of the data generation device 100 corrects the designated partial image (S15). The details of the correction processing will be described in detail using the following figures. Further, the generation unit 122 of the data generation device 100 generates a composite image in which the partial image corrected by the correction unit 121 and an image different from the image including the partial image are synthesized (S16). Details of the synthesis process will be described in detail with reference to FIG.
  • the verification unit 124 of the data generation apparatus 100 causes the determination unit 152 to determine whether a defect is included in the generated composite image (S17). As a result of the determination, it is verified whether a determination result that no defect is included is obtained for a defect included in the synthesized partial image, similar to the case where the determination unit 152 determines an image including a partial image S18). Note that the verification unit 124 may verify the determination result by the determination unit 125 for the area of the combined image in which the partial image is combined, and the determination unit related to the area other than the area of the combined image in which the partial image is combined. Verification of the determination result by 125 may not necessarily be performed.
  • composition source image which is the combination source
  • the data generation apparatus 100 corrects the partial image (S15) and The combining process (S16) is performed again by a different method, and the determining unit 152 determines whether the generated combined image includes a defect (S17), and verifies whether a determination result similar to the combining source image can be obtained Do.
  • the generation unit 122 associates the information indicating that a defect is included with the combined image to learn a classifier. Learning data is generated and stored in the corrected image DB 123 (S19). Thus, the first process ends.
  • FIG. 6 is a flowchart showing the contents of the correction process (S15) executed by the data generation apparatus 100 according to the present embodiment.
  • the data generation apparatus 100 receives the selection of the correction method through the user interface 170 (S151).
  • the selection of the correction method may include at least one of the selection of the feature amount of the defect used for the correction, the selection of the correction of the shape of the partial image, and the selection of the correction of the brightness of the partial image.
  • the user interface 170 receives the selection of the shape template (S153).
  • a shape template is automatically selected by the data generation apparatus 100 (S152: YES)
  • the history in which it is determined whether a defect is included in the composite image generated using the plurality of shape templates by the determination unit 152 is used.
  • one of the plurality of shape templates is selected based on the reliability of the determination by the determination unit 152 (S155). For example, a shape template that can generate a composite image with a relatively low degree of reliability of the determination by the determination unit 152 may be selected. Such selection makes it possible to generate a composite image that is difficult to distinguish by the classifier, and to generate a composite image that can further improve the discrimination performance of the classifier.
  • the correction unit 121 corrects the shape of the partial image so that the shape of the partial image approaches the selected shape template (S156). After that, when the brightness of the partial image is corrected (S157: YES), the correction unit 121 corrects the partial image so that the brightness of the partial image changes (S158).
  • the change rate or change mode of the brightness may be specified by the user interface 170 or may be automatically adjusted by the correction unit 121.
  • the brightness correction method is automatically adjusted by the correction unit 121, as in the case of shape correction, the partial images corrected by a plurality of methods are respectively combined with the image of the inspection object containing no defect.
  • the plurality of composite images are generated, and the determination unit 152 determines whether or not a defect is included in the generated plurality of composite images, based on the reliability of the determination by the determination unit. One of them may be selected.
  • the correction process (S15) ends.
  • each correction method such as selection of feature amount of defect used for correction, selection of presence / absence of correction of shape of partial image, selection of presence / absence of correction of brightness of partial image, etc. may be performed alone or in combination. It can be used.
  • FIG. 7 is a flowchart showing the contents of the combining process (S16) executed by the data generation apparatus 100 according to the present embodiment.
  • the data generation apparatus 100 receives a selection of a background image (hereinafter referred to as a synthesis destination image) to be a synthesis destination through the user interface 170 (S161).
  • the synthesis destination image may be obtained by imaging the same inspection object as the inspection object captured in the image of the inspection object that is the synthesis source (synthesis source image), or the inspection that is captured in the synthesis source image It may be obtained by imaging an inspection object different from the object.
  • the user interface 170 receives a selection of a method of generating a composite image (S162).
  • the selection of the generation method is at least one of selection of whether to set a mask in the combination destination image, selection of whether to give priority to combination to a position where defects are likely to occur, selection of a combination position of partial images, etc. May be included.
  • the data generating apparatus 100 sets the mask on the combining destination image, and restricts the part where the partial image is to be combined (S164).
  • the shape of the mask may be received by the user interface 170.
  • the data generation apparatus 100 determines whether to give priority to combining the partial image to the part where defects are likely to occur (S165). In the case where priority is given to combining with a location where defects are likely to occur (S165: YES), the generation unit 122 statistically tends to cause defects among inspection objects based on the history of defect locations detected for the inspection object. The location is identified (S166). Then, the generation unit 122 synthesizes a partial image at a position where a defect is likely to occur statistically among the inspection objects, and generates a synthesized image (S167).
  • the generation unit 122 synthesizes the partial image with the specified synthesis portion, and generates a synthesized image (S169). Thus, the combining process (S16) is completed.
  • each generation method such as selection of whether or not to set a mask in the combination destination image, selection of whether or not to give priority to combination to a location where defects are likely to occur, and selection of a combination location of partial images are independent. Or can be used in combination.
  • FIG. 8 is a diagram showing an outline of correction processing and combination processing executed by the data generation apparatus 100 according to the present embodiment.
  • the data generation apparatus 100 acquires the compositing source image P1 and extracts the partial image P2 based on the designation from the user interface 170.
  • the composite original image P1 is an image of the inspection object that has been subjected to hairline processing and has a thin scratch on its surface.
  • the partial image P2 is an image obtained by cutting out a scratched part.
  • the correction unit 121 may correct the partial image P2 by a plurality of correction methods.
  • the partial image P2 is corrected to the first corrected image P3 by the first correction, and is corrected to the second corrected image P4 by the second correction.
  • the first correction and the second correction are corrections that are performed using different shape templates, as will be described using the following figures.
  • the generation unit 122 generates the first composite image P11 by combining the first corrected image P3 with the first composite destination image P10, which is an image of the inspection object whose surface is textured.
  • the generation unit 122 also generates the second composite image P21 by combining the second corrected image P4 with the second composite destination image P20, which is an image of the inspection object whose surface has been roughened and polished.
  • a plurality of composite images such as the first composite image P11 and the second composite image P21 can be generated from one composite source image P1 including a defect. . Then, a plurality of composite images are generated so as to include defects that may actually occur.
  • the data generation apparatus 100 can generate various composite images including defects that may actually occur by correcting the partial images by a plurality of correction methods and combining the partial images into a plurality of composite destination images.
  • FIG. 9 is a diagram showing an outline of the correction process performed by the data generation apparatus 100 according to the present embodiment.
  • the figure shows an example in which a plurality of composite images are generated by correcting the shape of one composite source image P1 so as to approach each of a plurality of shape templates.
  • the shape of the compositing source image P1 is corrected so as to approach the first shape template to generate the first corrected image P3, and the shape of the compositing source image P1 is approached to the second shape template
  • the case of correcting to generate the second corrected image P4 and the case of correcting the shape of the combining source image P1 so as to approach the third shape template to generate the third corrected image P5, and the shape of the combining source image P1 Is corrected to be closer to the fourth shape template to generate the fourth corrected image P6.
  • the correction based on the first shape template is a correction that applies a non-linear transformation to the shape of the partial image
  • the correction based on the first shape template is the thickness of the shape of the partial image
  • a correction based on the third shape template is a correction that duplicates and aligns the shapes of the partial images
  • a correction based on the fourth shape template changes the shapes of the partial images It is a correction that applies a linear transformation to it.
  • FIG. 10 is a diagram showing an outline of the mask process performed by the data generation apparatus 100 according to the present embodiment.
  • the mask process is a process of restricting the synthesis position of the partial image in the synthesis destination image, and is a process of preventing the synthesis of the partial image in the area hidden by the mask.
  • the image P30 before the mask in this example includes the defect D, and the edge of the inspection object is captured on the right side of the image.
  • the black area on the right side of the image is an area where no inspection object exists.
  • the data generation apparatus 100 receives the setting of the mask M through the user interface 170, and generates a third combined destination image P31.
  • the area hidden by the black mask M in the third combining target image P31 is an area excluded from the combining part of the partial image.
  • the area hidden by the black mask M covers the defect D and the area where no inspection object exists.
  • FIG. 11 is a flowchart showing the contents of the second process executed by the data generation apparatus 100 according to the present embodiment.
  • the second process is a process of generating new learning data by the generation unit 122 regardless of whether or not the determination result by the determination unit 152 is not correct by the user interface 170.
  • the data generation apparatus 100 first acquires an image of an inspection object (S20).
  • the image may be a sample image stored in advance in the image DB 112, or may be a measurement image newly captured by the imaging device 153.
  • the user interface 170 receives specification of a partial image including a defect in the image (S21). Thereafter, the correction unit 121 of the data generation apparatus 100 corrects the designated partial image (S22).
  • the details of the correction process may be the same as the contents shown in FIG.
  • the generation unit 122 of the data generation device 100 generates a composite image obtained by combining the partial image corrected by the correction unit 121 and an image different from the image including the partial image (S23).
  • the details of the combining process may be the same as the contents shown in FIG.
  • the verification unit 124 of the data generation apparatus 100 causes the determination unit 152 to determine whether the generated composite image includes a defect (S24). As a result of the determination, it is verified whether a determination result that no defect is included is obtained for defects included in the combined partial image, similar to the case where the determination unit 152 determines the image including the partial image S25). Note that the verification unit 124 may verify the determination result by the determination unit 125 for the area of the combined image in which the partial image is combined, and the determination unit related to the area other than the area of the combined image in which the partial image is combined. Verification of the determination result by 125 may not necessarily be performed.
  • the data generation apparatus 100 performs the partial image correction process (S22) and the composition process (S23) Is again performed by a different method, and the determination unit 152 determines whether or not a defect is included in the generated composite image (S24), and verifies whether a determination result similar to the composite source image can be obtained.
  • the generation unit 122 associates the information indicating that a defect is included with the composite image, and performs new learning for learning the classifier. Data is generated and stored in the corrected image DB 123 (S26). Thus, the second process ends.
  • a data generation apparatus (100) for generating learning data for learning classifiers (a, b, c, A, B) for identifying the presence or absence of a detection target part included in an inspection object An acquisition unit (153) for acquiring an image of the inspection object; An input unit (170, 180) which is a part of the image and receives specification of a partial image including a detection target site; A correction unit (121) for correcting the partial image based on the feature amount of the detection target portion; A composite image is generated by combining the partial image corrected by the correction unit (121) and an image different from the image including the partial image, and information indicating that the detection target portion is included is A generation unit (122) that generates new learning data for causing the classifiers (a, b, c, A, B) to be associated with the composite image; A data generator (100) comprising:
  • the input unit (170, 180) receives specification of at least one of a correction method by the correction unit (121) and a generation method of the composite image by the generation unit (122). Appendix A.
  • the data generation apparatus (100) according to appendix 1.
  • the classifiers (a, b, c, A, and B) learn feature amounts of an image corresponding to a detection target portion by learning using learning data.
  • the correction unit (121) corrects the partial image so as to have a feature amount different from the feature amount learned by the classifiers (a, b, c, A, B).
  • Appendix 3 The data generator (100) according to appendix 3.
  • the determination unit (152) determines whether the composite image includes the detection target region, and the determination unit (152) determines whether the detection target region is included in the image including the partial image. And a verification unit (124) for verifying whether or not a determination result similar to that determined by The generation unit (122) registers the composite image as new learning data when the verification unit (124) obtains a similar determination result.
  • Appendix 3 The data generator (100) according to appendix 3 or 4.
  • the generation unit (122) generates a plurality of combined images obtained by combining the partial image corrected by the correction unit (121) by a plurality of correction methods and an image different from the image including the partial image. And generating information for learning by associating information indicating that a detection target site is included with the plurality of composite images.
  • the data generation device according to any one of appendices 1 to 5.
  • the generation unit (122) combines the partial image corrected by the correction unit (121) into a plurality of images different from the image including the partial image to generate a plurality of composite images, and is a detection target. Information indicating that a part is included is associated with the plurality of composite images to generate a plurality of learning data.
  • the data generation device (100) according to any one of appendices 1 to 6.
  • each of the plurality of learning data is applied to the learning of different classifiers (a, b, c, A, B), and the inspection object includes the detection target portion based on the input image A learning unit (130, 140) for learning a plurality of classifiers (a, b, c, A, B) for discriminating whether or not Based on the discrimination performance of the plurality of learned classifiers (a, b, c, A, B) learned by the learning unit (130, 140), one or more learnings from the plurality of learning data And a selection unit (125) for selecting the The data generation device (100) according to appendix 6 or 7.
  • the generation unit (122) selects a synthesis position of the partial image such that a background pattern around the detection target portion is similar to the image including the partial image and the synthetic image, and the synthetic image To generate The data generation device (100) according to any one of appendices 1 to 8.
  • the correction unit (121) corrects the brightness of the partial image.
  • the data generation device (100) according to any one of appendices 1-9.
  • the correction unit (121) corrects the shape of the partial image.
  • the data generating device (100) according to any one of appendices 3 to 10.
  • the correction unit (121) corrects the shape of the partial image such that the shape of the partial image approaches any of a plurality of shape templates.
  • the data generation device according to appendix 11.
  • the generation unit (122) generates a plurality of combined images by respectively combining the partial images corrected using the plurality of shape templates into an image different from the image including the partial image;
  • the determination unit (152) determines whether the plurality of composite images include a detection target portion,
  • the correction unit (121) selects one of the plurality of shape templates based on the reliability of the determination by the determination unit (152), and corrects the shape of the partial image.
  • the data generation device according to appendix 12.
  • the generation unit (122) generates the combined image such that the partial image is combined with an image of a portion where the detection target site is likely to be generated statistically among the inspection objects.
  • the data generation device (100) according to any one of appendices 1 to 13.
  • the detection target site is a site of a defect included in the inspection target,
  • the feature amount includes at least one of a shape of the defect, a brightness of the image, a change in brightness of the image along the defect, and a contrast between the defect and the periphery of the defect.
  • the data generating device (100) according to any one of appendices 1-14.
  • a data generation method for generating learning data for causing a classifier (a, b, c, A, B) for identifying the presence or absence of a detection target portion included in an inspection object to be learned Obtaining an image of an inspection object; Accepting designation of a partial image that is part of the image and includes a detection target site; Correcting the partial image based on the feature amount of the detection target site; A composite image is generated by combining the corrected partial image and an image different from the image including the partial image, and information indicating that a detection target portion is included is associated with the composite image, Generating new learning data for causing the classifiers (a, b, c, A, B) to learn; Data generation method including:
  • An input unit (170, 180) that receives specification of a partial image that is a part of the image and includes a detection target site;
  • a correction unit (121) that corrects the partial image based on the feature amount of the detection target portion, and the partial image corrected by the correction unit (121) and an image different from the image including the partial image And a new image for causing the classifiers (a, b, c, A, B) to learn by associating information indicating that the detection target portion is included with the composite image.
  • a generation unit (122) that generates learning data; Data generator to operate as.
  • measurement result management unit 161 ... measurement result DB, 170 ... user interface, 180 ... user interface 191: output device, 192: input device, D: defect, M: mask, P1: composite source image, P2: partial image, P3: first correction image, P4: second correction image, P5: third correction image, P6: fourth correction image, P10: first composite destination image, P11: first composite image, P20: second composite destination image, P21: second composite image, P30: image before masking, P31: third composite destination image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

検査対象物について実際に生じ得る検出対象部位を含むような合成画像により学習用データを生成するデータ生成装置、データ生成方法及びデータ生成プログラムを提供する。データ生成装置は、検査対象物に含まれる検出対象部位の有無を識別する識別器を学習させるための学習用データを生成するデータ生成装置であって、検査対象物の画像を取得する取得部と、画像の一部であって、検出対象部位を含む部分画像の指定を受け付ける入力部と、前記部分画像を、検出対象部位の特徴量に基づいて補正する補正部と、補正部により補正された部分画像と、部分画像を含む画像とは異なる画像とを合成した合成画像を生成し、検出対象部位が含まれていることを示す情報を合成画像に関連付けて、識別器を学習させるための新たな学習用データを生成する生成部と、を備える。

Description

データ生成装置、データ生成方法及びデータ生成プログラム
 データ生成装置、データ生成方法及びデータ生成プログラムに関する。
 近年、ニューラルネットワーク等の識別器を用いて画像の識別を行う技術が研究されている。識別器は、学習用画像と、その画像のラベルとを含むデータ(教師データ)を用いて学習されることがある。
 効率的に学習用データを生成することに関して、下記特許文献1には、被検体の不良画像から良品との差分データを抽出し、良品画像と差分データとを合成して疑似不良画像を作成する疑似不良画像自動作成装置が記載されている。
特開2005-156334号公報
 例えば検査対象物の画像に欠陥等の検出対象部位が含まれているか否かを識別器によって判定する場合、検出対象部位を見逃してしまう誤判定が起こり得る。このような誤判定を減らすために、見逃された検出対象部位を含む画像を回転させたり、平行移動させたりして、画像のバリエーションを増やすデータオーグメンテーション(Data Augmentation)を行って学習用データを増やし、より検出対象部位の見逃しが起こりづらくなるように識別器を学習させることがある。例えば、特許文献1では、良品画像と不良品画像の差分データを抽出し、乱数値によって合成条件を設定して、差分データを良品画像に合成することでデータオーグメンテーションを行っている。
 しかしながら、乱数値によって合成条件を設定する場合、必ずしも現場で撮像されるような検出対象部位を含む合成画像が生成されるとは限らない。そのため、データオーグメンテーションによって学習用データを増やして識別器の学習を行っても、その識別器を現場で使用した場合に、必ずしも良い識別性能が得られるとは限らなかった。
 そこで、本発明は、検査対象物について実際に生じ得る検出対象部位を含むような合成画像により学習用データを生成するデータ生成装置、データ生成方法及びデータ生成プログラムを提供する。
 本開示の一態様に係るデータ生成装置は、検査対象物に含まれる検出対象部位の有無を識別する識別器を学習させるための学習用データを生成するデータ生成装置であって、検査対象物の画像を取得する取得部と、画像の一部であって、検出対象部位を含む部分画像の指定を受け付ける入力部と、部分画像を、検出対象部位の特徴量に基づいて補正する補正部と、補正部により補正された部分画像と、部分画像を含む画像とは異なる画像とを合成した合成画像を生成し、検出対象部位が含まれていることを示す情報を合成画像に関連付けて、識別器を学習させるための新たな学習用データを生成する生成部と、を備える。ここで、学習用データは、識別器に入力される画像データと、少なくとも当該画像データに関する正しい判定結果を示し、識別器の出力と比較可能なデータと、を含む。また、補正部による補正方法は、例えば、部分画像の変形方法、すなわち、部分画像に含まれる検出対象部位の形状の変更であったり、部分画像の明るさの変更方法であったりしてよい。また、生成部による合成画像の生成方法は、例えば、部分画像を合成する箇所を決定する方法であったり、部分画像を合成する背景画像を選択する方法であったりしてよい。また、検出対象部位は、検査対象物に含まれる任意の部位であってよく、例えば、検査対象物に含まれる欠陥の部位であってよい。
 この態様によれば、検出対象部位の特徴量に基づいて部分画像を補正することで、検査対象物について実際に生じ得る様々な検出対象部位のバリエーションを作り出すことができ、実際に生じ得る検出対象部位を含むような合成画像を生成することができる。また、生成された学習用データを用いることで、現場で使用した場合に良好な識別結果を得ることのできる識別器が得られる。なお、検出対象部位が含まれていることを示す情報、とは、検出対象部位の有無に関する情報に加えて、当該検出対象部位の含まれている位置の情報等の、画像データに関する正しい判定結果に関する情報であって、検出対象部位の有無に関する情報以外の情報を含んでいてよい。
 上記態様において、入力部は、補正部による補正方法及び生成部による合成画像の生成方法のうち少なくともいずれかの指定を受け付けてもよい。
 この態様によれば、入力部により補正方法及び生成方法のうち少なくともいずれかの入力を受け付けることで、検査対象物について実際に生じ得る検出対象部位を含むように学習用データを生成することができる。これにより、検査対象物について実際に生じ得る様々な検出対象部位のバリエーションを作り出すことができ、実際に生じ得る検出対象部位を含むような合成画像を生成することができる。
 上記態様において、学習用データを用いて学習された識別器によって、取得部で取得された画像に検出対象部位が含まれているか否かを判定する判定部をさらに備え、入力部は、判定部による判定結果が正しいか否かに関する入力を受け付け、補正部は、判定部により画像に検出対象部位が含まれていないと判定され、入力部により判定部による判定結果が正しくないと入力された場合に、部分画像を補正してもよい。
 この態様によれば識別器によって検出対象部位が含まれていないと誤判定された画像に基づいて合成画像を生成し、識別器によって識別しづらい検出対象部位を含んだ画像を増やすことができ、識別器の識別性能をより向上させることのできる学習用データが生成される。
 上記態様において、識別器は、学習用データを用いた学習によって、検出対象部位に対応する画像の特徴量を学習しており、補正部は、識別器が学習した特徴量とは異なる特徴量を有するように、部分画像を補正してもよい。ここで、識別器は、例えば、検出対象部位の長さ、検出対象部位を含む領域の面積、検出対象部位の曲率等の検出対象部位の形状に関する特徴量や、画像の明るさ、検出対象部位に沿った画像の明るさの変化及び検出対象部位と検出対象部位の周囲とのコントラスト等の検出対象部位の見え方に関する特徴量を学習していてよい。
 この態様によれば、学習用データを用いた学習によって識別器が学習することのできなかった特徴量を有する部分画像を生成することができ、識別器が学習できる特徴量のバリエーションを増やすような新たな学習用データを生成することができる。
 上記態様において、合成画像に検出対象部位が含まれているか否かを判定部により判定させ、部分画像を含む画像に検出対象部位が含まれているか否かを判定部により判定させた場合と類似の判定結果が得られるか検証する検証部をさらに備え、前記生成部は、前記検証部が類似の判定結果を得た場合に、前記合成画像を新たな学習データとして登録してもよい。ここで、類似の判定結果とは、例えば、合成画像に検出対象部位が含まれているか否かを判定部により判定させると、部分画像が抽出された画像(すなわち、検査対象物の計測画像)と同様に検出対象部位が含まれていないとの誤判定が生じる判定結果である。すなわち、類似の判定結果とは、同様の判定結果であったり、対応する判定結果といった意味を含む。
 この態様によれば、識別器によって検出対象部位が含まれていないと誤判定される合成画像が生成されたか検証され、識別器によって識別しづらい検出対象部位を含んだ画像を増やすことができ、識別器の識別性能をより向上させることのできる学習用データが生成される。
 上記態様において、生成部は、補正部により複数の補正方法で補正された部分画像と、部分画像を含む画像とは異なる画像とを合成した複数の合成画像を生成し、検出対象部位が含まれていることを示す情報を複数の合成画像に関連付けて、複数の学習用データを生成してもよい。
 この態様によれば、複数の補正方法で検出対象部位を含む部分画像を補正し、複数の合成画像を生成することで、検出対象部位を含む少数の画像から、様々な態様の検出対象部位を含む複数の合成画像を生成することができ、識別器の汎化性能をより向上させることのできる学習用データを生成することができる。
 上記態様において、生成部は、補正部により補正された部分画像を、部分画像を含む画像とは異なる複数の画像に合成して複数の合成画像を生成し、検出対象部位が含まれていることを示す情報を複数の合成画像に関連付けて、複数の学習用データを生成してもよい。
 この態様によれば、検出対象部位が含まれていない検査対象物の複数の画像に対して、検出対象部位を含む部分画像を合成し、複数の合成画像を生成することで、検出対象部位を含む少数の画像から、様々な背景において検出対象部位を含む合成画像を生成することができ、識別器の汎化性能をより向上させることのできる学習用データを生成することができる。
 上記態様において、複数の学習用データそれぞれを、異なる識別器の学習に適用して、入力された画像に基づいて検査対象物に検出対象部位が含まれているか否かを識別する複数の識別器を学習させる学習部と、学習部により学習された、複数の学習済みの識別器の識別性能に基づいて、複数の学習用データから1又は複数の学習用データを選択する選択部と、をさらに備えてもよい。
 この態様によれば、生成された複数の学習用データをそれぞれ独立に用いて識別器を学習させ、その識別性能に基づいて1又は複数の学習用データを選択することで、識別器の学習に用いた場合に識別器の識別性能をより良く向上させる学習用データを選択することができ、識別器の識別性能及び学習効率を向上させることができる。
 上記態様において、生成部は、検出対象部位の周囲の背景模様が、部分画像を含む画像と合成画像とで類似するように、部分画像の合成箇所を選択し、合成画像を生成してもよい。
 この態様によれば、部分画像が合成先において自然に見えるように合成され、検査対象物について実際に生じ得る検出対象部位を含むようにデータオーグメンテーションを行うことができる。
 上記態様において、補正部は、部分画像の明るさを補正してもよい。
 この態様によれば、照明条件の違いや、検出対象部位の発生箇所の違いによって識別器が検出対象部位を見逃すことのないように、識別器を学習させることのできる学習用データが得られる。
 上記態様において、補正部は、部分画像の形状を補正してもよい。
 この態様によれば、検出対象部位の形状の違いによって識別器が検出対象部位を見逃すことのないように、識別器を学習させることのできる学習用データが得られる。ここで、部分画像の形状を補正することにより、部分画像に含まれる検出対象部位の形状が変更されることが好ましい。
 上記態様において、補正部は、部分画像の形状が、複数の形状テンプレートのうちいずれかに近付くように、部分画像の形状を補正してもよい。
 この態様によれば、変更自在な状態で予め記憶され、複数用意された形状テンプレートに基づいて、検査対象物について実際に生じ得る検出対象部位を簡単に合成することができ、形状の指定に不慣れな作業者であっても、現場で識別器を使用した場合の識別性能がより向上する学習用データを生成することができる。
 上記態様において、生成部は、複数の形状テンプレートを用いて補正された部分画像を、部分画像を含む画像とは異なる画像にそれぞれ合成して複数の合成画像を生成し、判定部は、複数の合成画像に検出対象部位が含まれているか否かを判定し、補正部は、判定部による判定の信頼度に基づいて、複数の形状テンプレートのうちいずれかを選択し、部分画像の形状を補正してもよい。
 この態様によれば、識別器の識別性能を向上させるのに適した形状テンプレートを用いて部分画像の形状の補正が行われ、識別器の識別性能及び学習効率を向上させることができる。ここで、信頼度とは、合成画像に含まれる、補正された部分画像の領域(合成領域)の検出対象部位らしさの確度を示し、例えば、「検出対象部位有」とした判定結果を0から1の数値で表した指標であって、数値が1に近いほど、判定結果の確からしさが高いことを意味するものであってよい。
 上記態様において、生成部は、検査対象物のうち統計的に検出対象部位が生じやすい箇所の画像に部分画像が合成されるように、合成画像を生成してもよい。
 この態様によれば、検査対象物のうち統計的に検出対象部位が生じやすい箇所に部分画像を合成することで、現場で実際に発生しやすい箇所に部分画像を合成することができ、検査対象物について実際に生じ得る検出対象部位を含むようにデータオーグメンテーションを行うことができる。
 上記態様において、検出対象部位は、検査対象物に含まれる欠陥の部位であり、特徴量は、欠陥の形状、画像の明るさ、欠陥に沿った画像の明るさの変化、及び欠陥と欠陥の周囲とのコントラストのうち少なくともいずれかを含んでよい。
 この態様によれば、識別器によって欠陥を見逃す誤判定が起こりやすい欠陥の特徴量を捉えて、当該特徴量に基づいて部分画像を補正し、合成画像を生成することで、識別器によって識別しづらい欠陥を含んだ画像を増やすことができ、識別器の識別性能をより向上させることのできる学習用データが生成される。
 本開示の他の態様に係るデータ生成方法は、検査対象物に含まれる検出対象部位の有無を識別する識別器を学習させるための学習用データを生成するデータ生成方法であって、検査対象物の画像を取得することと、画像の一部であって、検出対象部位を含む部分画像の指定を受け付けることと、部分画像を、検出対象部位の特徴量に基づいて補正することと、補正された部分画像と、部分画像を含む画像とは異なる画像とを合成した合成画像を生成し、検出対象部位が含まれていることを示す情報を合成画像に関連付けて、識別器を学習させるための新たな学習用データを生成することと、を含む。
 この態様によれば、検出対象部位の特徴量に基づいて部分画像を補正することで、検査対象物について実際に生じ得る様々な検出対象部位のバリエーションを作り出すことができ、実際に生じ得る検出対象部位を含むような合成画像を生成することができる。また、生成された学習用データを用いることで、現場で使用した場合に良好な識別結果を得ることのできる識別器が得られる。
 本開示の他の態様に係るデータ生成プログラムは、検査対象物に含まれる検出対象部位の有無を識別する識別器を学習させるための学習用データを生成するデータ生成装置に備えられた演算装置を、検査対象物の画像を取得する取得部、画像の一部であって、検出対象部位を含む部分画像の指定を受け付ける入力部、部分画像を、検出対象部位の特徴量に基づいて補正する補正部、及び補正部により補正された部分画像と、部分画像を含む画像とは異なる画像とを合成した合成画像を生成し、検出対象部位が含まれていることを示す情報を合成画像に関連付けて、識別器を学習させるための新たな学習用データを生成する生成部、として動作させる。
 この態様によれば、検出対象部位の特徴量に基づいて部分画像を補正することで、検査対象物について実際に生じ得る様々な検出対象部位のバリエーションを作り出すことができ、実際に生じ得る検出対象部位を含むような合成画像を生成することができる。また、生成された学習用データを用いることで、現場で使用した場合に良好な識別結果を得ることのできる識別器が得られる。
 検査対象物について実際に生じ得る検出対象部位を含むような合成画像により学習用データを生成するデータ生成装置、データ生成方法及びデータ生成プログラムを提供する。
本発明の実施形態に係るデータ生成装置の機能ブロック図である。 本実施形態に係るデータ生成装置の第1学習部及び第2学習部における処理の内容を示す概念図である。 本実施形態に係るデータ生成装置の計測部における処理の内容を示す概念図である。 本実施形態に係るデータ生成装置のハードウェア構成を示すブロック図である。 本実施形態に係るデータ生成装置により実行される第1処理の内容を示すフローチャートである。 本実施形態に係るデータ生成装置により実行される補正処理の内容を示すフローチャートである。 本実施形態に係るデータ生成装置により実行される合成処理の内容を示すフローチャートである。 本実施形態に係るデータ生成装置により実行される補正処理及び合成処理の概要を示す図である。 本実施形態に係るデータ生成装置により実行される補正処理の概要を示す図である。 本実施形態に係るデータ生成装置により実行されるマスク処理の概要を示す図である。 本実施形態に係るデータ生成装置により実行される第2処理の内容を示すフローチャートである。
 以下、本発明の一側面に係る実施の形態(以下、「本実施形態」と表記する。)を、図面に基づいて説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
 §1 適用例
 まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係るデータ生成装置100の適用場面の一例を模式的に例示した機能ブロック図である。本実施形態に係るデータ生成装置100は、検査対象物の画像に検出対象部位が含まれている場合に、ユーザインタフェース170によって検出対象部位が含まれる部分画像の補正方法及び合成画像の生成方法の入力を受け付けて、検出対象部位の特徴量に基づいて部分画像を補正し、補正された部分画像を、部分画像を含む画像とは異なる画像に合成して新たな学習用データを生成する装置である。
 図1に示すように、データ生成装置100は、検査対象物の画像を取得する撮像装置153と、当該画像のうち検出対象部位を含む部分画像を、検出対象部位の特徴量に基づいて補正する補正部121と、補正された部分画像と、部分画像を含む画像とは異なる画像とを合成した合成画像を生成し、検出対象部位が含まれていることを示す情報を合成画像に関連付けて、識別器(a、b、c、A、B、…)を学習させるための新たな学習用データを生成する生成部122と、補正部121による部分画像の補正方法及び生成部122による合成画像の生成方法のうち少なくともいずれかの入力を受け付けるユーザインタフェース170と、を備える。ここで、撮像装置153は、本発明の「取得部」の一例であり、ユーザインタフェース170は、本発明の「入力部」の一例である。本明細書では、撮像装置153により新たに撮像される検査対象物の画像を「計測画像」と呼び、識別器(a、b、c、A、B、…)を学習するため予め収集される検査対象物の画像を「サンプル画像」と呼ぶ。なお、データ生成装置100は、必ずしも撮像装置153を備えていなくてもよく、別体で設けられた撮像装置から計測画像を取得するものであってもよい。本実施形態では、検出対象部位が、検査対象物に含まれる欠陥の部位である場合について説明する。しかしながら、検出対象部位は、検査対象物に含まれる欠陥の部位に限られず、検査対象物に含まれる任意の部位であってよい。
 撮像装置153により撮像された検査対象物の計測画像は、第2作業者のユーザインタフェース170に表示される。第2作業者は、計測画像のうち欠陥が含まれている部分画像をユーザインタフェース170によって指定する。また、第2作業者は、部分画像を補正部121によってどのように補正するか(補正方法)をユーザインタフェース170によって指定し、補正された部分画像を生成部122によってどのように他の画像に合成するか(生成方法)をユーザインタフェース170によって指定する。
 補正部121は、欠陥の長さ、欠陥を含む領域の面積、欠陥の曲率等の欠陥の形状や、画像の明るさ、欠陥に沿った画像の明るさの変化、及び欠陥と欠陥の周囲とのコントラスト等の欠陥の特徴量に基づいて、部分画像を補正してよい。補正部121は、識別器(a、b、c、A、B、…)によって欠陥を見逃す誤判定が起こりやすい欠陥の特徴量を捉えて、当該特徴量に基づいて部分画像を補正してよい。具体的には、識別器(a、b、c、A、B、…)が、比較的長い欠陥であれば識別できるが、比較的短い欠陥を見逃すような場合に、補正部121は、欠陥が短くなるように部分画像を補正して、識別器(a、b、c、A、B、…)が識別を苦手とするような欠陥のバリエーションを増やすこととしてよい。補正部121による補正方法は、ユーザインタフェース170によって詳細な方法が指定されてもよいし、ユーザインタフェース170によって大まかな方法が指定されるか又は指定を受け付けずに、補正部121によって補正方法の詳細を自動で判別することとしてもよい。
 生成部122は、補正部121により補正された部分画像を、部分画像を含む画像とは異なる画像に合成して合成画像を生成し、欠陥が含まれていることを示す情報を合成画像に関連付けて、識別器(a、b、c、A、B、…)を学習させるための新たな学習用データを生成する。ここで、部分画像を含む画像とは異なる画像は、欠陥が全く含まれていない画像の他に、欠陥をマスクによって隠した画像であってもよい。生成部122による合成画像の生成方法は、ユーザインタフェース170によって詳細な方法が指定されてもよいし、ユーザインタフェース170によって大まかな方法が指定されるか又は指定を受け付けずに、生成部122によって生成方法の詳細を自動で判別することとしてもよい。
 このように、欠陥の特徴量に基づいて部分画像を補正することで、検査対象物について実際に生じ得る様々な欠陥のバリエーションを作り出すことができ、実際に生じ得る欠陥を含むような合成画像を生成することができる。また、ユーザインタフェース170により補正部121による部分画像の補正方法及び生成部122による合成画像の生成方法のうち少なくともいずれかの入力を受け付けることで、検査対象物について実際に生じ得る欠陥を含むように学習用データを生成することができる。そして、生成された学習用データを用いることで、現場で使用した場合に良好な識別性能を得ることのできる識別器が得られる。本実施形態に係るデータ生成装置100によれば、現場で実際に発生するような欠陥を含む合成画像を生成することができるため、識別器の学習処理を行う場合に、比較的少ない演算量で現場での識別性能がより高くなるような識別器を生成することができる。また、識別器によって欠陥を見逃す誤判定が起こりやすい欠陥の特徴量を捉えて、当該特徴量に基づいて部分画像を補正し、合成画像を生成することで、識別器によって識別しづらい欠陥を含んだ画像を増やすことができ、識別器の識別性能をより向上させることのできる学習用データが生成される。
 §2 構成例
 [機能構成]
 次に、図1を用いて、本実施形態に係るデータ生成装置100の機能構成の一例を説明する。データ生成装置100は、学習用データを用いて、検査対象物の欠陥の有無と、検査対象物に欠陥が含まれる場合には、その欠陥の位置と、その欠陥の種類と、を含む属性情報(ラベル)を出力する識別器を生成する機能を備える。ここで、検査対象物に複数の欠陥が含まれる場合には、属性情報は、欠陥の有無と、複数の欠陥の位置と、それらの欠陥の種類と、を含んでよい。また、データ生成装置100は、検査対象物を測定した計測画像を取得し、生成された識別器を用いて、検査対象物の属性情報を出力する機能を備える。したがって、データ生成装置100は、検査対象物の計測画像を取得し、計測画像に基づいて検査対象物の欠陥の有無に関する情報を含む計測結果を出力する検査装置又は検査システムとして機能する。
 図1に示すように、データ生成装置100は、学習用データを生成及び格納する画像収集部110と、指定された補正方法及び生成方法に基づいて、計測した画像(計測画像)の修正を行う画像修正部120と、画像収集部110及び画像修正部120の少なくともいずれかにより生成された学習用データを用い、検査対象物の欠陥の有無と、検査対象物に欠陥が含まれる場合には、その欠陥の位置と、その欠陥の種類と、を含む属性情報を出力する識別器を生成する、第1学習部130及び第2学習部140と、検査対象物を測定した計測画像を取得し、第1学習部130及び第2学習部140の少なくともいずれかにより生成された識別器を用いて、検査対象物の属性情報を出力する計測部150と、計測画像とその属性情報とを関連付けて、計測結果として記憶する計測結果管理部160と、を備える。ここで、計測結果は、計測画像と、識別器により出力された検査対象物の属性情報と、判定部152による判定結果とを含む。なお、学習用データとは、単一の学習用データのみならず、複数の学習用データを有するデータセットであってよい。
 ここで、欠陥とは、検査対象物が有する異常であって、例えば、傷、色等のムラ、汚れ、欠け、バリ、異物、印字のかすれ、印字等の位置ずれ等を含む。
 また、属性情報とは、各画像に含まれる欠陥の有無に関する情報、画像に欠陥が含まれる場合には、当該欠陥の位置を示す情報及び当該欠陥の種類を示す情報を少なくとも含むものである。なお、属性情報は、欠陥の有無、欠陥の位置に関する情報及び欠陥の種類に関する情報に限られず、例えば、識別器により出力される欠陥の有無、欠陥の位置に関する情報及び欠陥の種類に関する情報の信頼度に関する情報を含んでいてもよい。
 データ生成装置100は、ソフトウェアプログラム及び当該ソフトウェアプログラムの実行に用いられるデータを記憶する記憶部(例えば、図4に示す補助記憶部102、103)と、ソフトウェアプログラムを呼び出し、実行する演算部(例えば、図4に示すプロセッサ104)と、を有する1又は複数の情報処理装置により構成される。すなわち、画像収集部110、画像修正部120、第1学習部130、第2学習部140、計測部150及び計測結果管理部160の各機能ブロックのそれぞれは、補助記憶部102、103等の記憶部に記憶された所定のソフトウェアプログラムがプロセッサ104等のハードウェアプロセッサによって実行されることで実現される。すなわち、画像収集部110、画像修正部120、第1学習部130、第2学習部140、計測部150及び計測結果管理部160の各機能のそれぞれは、ソフトウェアプログラムがハードウェアプロセッサによって実行されることにより実現される所定の処理を示す。また、画像収集部110、画像修正部120、第1学習部130、第2学習部140、計測部150及び計測結果管理部160のそれぞれは、単独で、又は、複数が組み合わされて、情報処理装置として構成される。なお、データ生成装置100を、単一の情報処理装置により構成してもよい。本実施形態における情報処理装置のハードウェア構成については後述する。
 <画像収集部の構成>
 画像収集部110は、学習用データを生成するためのサンプル画像を取得する。サンプル画像は、検査対象物を撮像した画像でもよく、また、公知の画像合成技術により生成されたCG画像であってもよい。画像収集部110が取得したサンプル画像は、属性付与部111にて、各画像に対して、又は、複数の画像に対して、属性情報の付与が行われる。すなわち、属性付与部111は、サンプル画像に対して属性情報を付与することで、サンプル画像を学習用データにする。
 本実施形態において、属性情報の付与(ラベル付け)は、任意のユーザインタフェース180を介して、第1作業者により行われる。例えば、サンプル画像に欠陥が含まれる場合には、第1作業者は、ユーザインタフェース180としての、表示装置(液晶表示装置等)及び入力装置(タッチパネル、キーボード、マウス等)を用いて、所定の形状の枠により当該欠陥を囲うことで、欠陥の有無及び欠陥の位置を含む属性情報を付与することができる。また、ユーザインタフェース180を用いて、当該欠陥の種類を含む属性情報をサンプル画像に付与することもできる。なお、属性情報の付与の方法は、特に限定されない。例えば、画像と、その画像に付与すべき属性情報との関係性を学習済みの識別器を用いて、画像に対して属性情報を自動的に付与するようにしてもよいし、公知の統計的手法により、複数の画像をクラスタリングして、クラスタに対して属性情報の付与を行うこととしてもよい。
 属性付与部111において属性情報が付与された画像(学習用データ)は、画像データベース(以下、「画像DB」と称す。)112に格納され、記憶される。
 画像収集部110は、例えば、取得するサンプル画像の多少や、画像DB112に格納されている学習用データの多少に応じて、学習用データの拡張を行う画像補正部113を備えている。画像補正部113は、ユーザインタフェース180を介して行われる第1作業者の補正操作に基づいて、サンプル画像の拡張を行ってよい。なお、画像補正部113は、画像収集部110に必ずしも必須の要素ではない。また、学習用データの拡張とは、学習に用いるデータセットを増やすデータオーグメンテーションのことをいう。
 学習用データの拡張(オーグメンテーション)は、例えば、サンプル画像を平行移動させたり、回転させたり、色を変えたり、拡大させたり、縮小させたりすることで行ってよい。なお、画像補正部113は、画像収集部110に必須の構成要素ではなく、データ生成装置100を用いて実現する画像計測処理に必要な学習用データの必要量に応じて、適宜設けてよい。また、上記オーグメンテーションは、任意のユーザインタフェース180を介して、作業者自らが、部分画像の抽出、背景画像との合成等の各処理の指示を行うことで実現されてもよい。画像補正部113により拡張された学習用データは、画像DB112に格納され、記憶される。
 ここで、背景画像は、部分画像に合成される画像であって、部分画像が抽出された計測画像とは異なる画像を含む。なお、背景画像は、計測画像であってもよいが、計測画像を背景画像として用いる場合には、計測画像から抽出された部分画像以外の領域に部分画像が合成されるように、合成箇所を制限して用いることができる。また、背景画像は、計測画像以外の画像に基づいて生成されてよく、計測画像の欠陥以外の領域の画像と同一の模様を有していてもよいし、また、有していなくてもよい。また、背景画像は一様な背景模様の画像の場合もあれば、ヘアラインのような背景模様を有する画像であったり、また、文字等が印字されている画像であったりしてよく、多種多様な画像であってよい。
 画像DB112は、属性付与部111及び画像補正部113から、学習用データを取得する。画像DB112は、学習用データを、付与された属性情報に基づいて分類した状態で記憶してよい。また、画像DB112は、画像収集部110が取得したサンプル画像にすでに属性情報が付与されている場合には、当該サンプル画像を、属性付与部111及び画像補正部113を介さずに取得して、記憶してよい。なお、画像DB112は、学習用データを、後述する識別器を生成するための学習処理に使用する学習処理用の学習用データと、生成された識別器が、所望の属性情報を出力するか否かを評価するための評価処理用のテスト用データと、に区別して記憶してもよい。もっとも、学習用データとテスト用データを区別せずに画像DB112に記憶しておき、学習処理を行う際に、画像DB112に記憶されたデータセットを任意の手法で学習用とテスト用等に分けることとしてもよい。
 <第1学習部の構成>
 図2は、本実施形態に係るデータ生成装置の第1学習部130及び第2学習部140における処理の内容を示す概念図である。第1学習部130は、画像収集部110から、学習用データを取得する。なお、第1学習部130は、後述する画像修正部120から、学習用データを取得してもよい。第1学習部130は、取得した学習用データを用いた機械学習を実行し、識別器(a、b、c、・・・)を生成する第1学習処理部131を有する。識別器(a、b、c、・・・)は、画像データを入力とし、当該画像に含まれる欠陥の有無、1又は複数の欠陥が含まれる場合にはその位置及びその種類、を含む属性情報を出力するものである。なお、識別器(a、b、c、・・・)には、画像データ以外のデータが入力されてもよい。例えば、識別器(a、b、c、・・・)には、検査対象物の画像を撮像した条件(光量や撮像装置の露光時間等)が入力されたり、検査対象物の識別情報が入力されたりしてもよい。
 識別器(a、b、c、・・・)は、任意の機械学習モデルに対して学習処理と評価処理とを行うことにより生成される。機械学習モデルは、所定のモデル構造と、学習処理によって変動する処理パラメータと、を有し、学習用データから得られる経験に基づいてその処理パラメータが最適化されることで、識別精度が向上するモデルである。すなわち、機械学習モデルは、学習処理によって、最適な処理パラメータを学習するモデルである。機械学習モデルのアルゴリズムは、例えば、サポートベクターマシン、ロジスティック回帰、ニューラルネットワーク等を用いることができるが、その種類は特に限定されない。本実施形態では、ニューラルネットワークであって、特に階層が3層以上であるディープニューラルネットワークのうち、画像認識に適したコンボリューショナルニューラルネットワーク(Convolutional Neural Network)を用いた例について説明する。なお、第1学習部130は、機械学習モデルを生成するためのモデル生成部(図示せず)を備えていてもよい。また、第1学習部130は、予め生成された機械学習モデルを、外部から取得してもよい。
 本実施の形態における識別器は、学習用データを用いた事前学習によって、欠陥に対応する画像の特徴量であって、所定の幅を有する特徴量を学習している。ここで、所定の幅を有する特徴量とは、所定の数値範囲を有する特徴量であってよく、例えば特徴量が欠陥の長さを表す量であれば、特徴量は、長さの数値範囲を有してよい。学習される特徴量の種別は、識別器に固有に設定することができる。また、学習される特徴量の幅は、学習用データの内容に依存する。ここで、特徴量とは、例えば、欠陥の長さ、欠陥を含む領域の面積、欠陥の曲率等の欠陥の形状に関する特徴量や、画像の明るさ、欠陥に沿った画像の明るさの変化、及び欠陥と欠陥の周囲とのコントラストのうち少なくともいずれかを含んでよい。また、特徴量を、欠陥の種類に応じて、例えば、白点、黒点、白線、黒線の4つに分類してもよい。後述する計測部150は、識別器を用いて、計測画像の中に、識別器が学習している所定の幅の特徴量に合致する部分があるか否かを識別させ、その識別結果に基づいて、欠陥の有無の情報を含む判定結果を出力する。
 なお、識別器は、処理パラメータにより表現されてよい。処理パラメータとは、識別器を表現する情報であって、識別器としてニューラルネットワーク(以下、単に「ネットワーク」ということもある。)を例にすれば、ニューラルネットワークのレイヤ数、各レイヤに関するノード数、ノード間を繋ぐリンクの重みパラメータ、各ノードに関するバイアスパラメータ及び各ノードに関する活性化関数の関数形に関する情報等、を示すものである。内部パラメータにより、欠陥として検出すべき特徴量の幅が規定される。
 第1学習処理部131は、学習用データを用いて、取得した画像のデータを入力すると、属性情報で表現される計測画像の属性に対応する出力値を出力するように、機械学習モデルを学習させる学習処理を行う。第1学習処理部131は、さらに、学習処理によって生成された識別器(a、b、c、・・・)に対し、テスト用データを用いて、識別器(a、b、c、・・・)の出力と、テスト用データに対して付与された属性情報とを比較する評価処理を行う。識別器(a、b、c、・・・)の出力と、テスト用データに付与された属性情報とが一致している場合には、識別器(a、b、c、・・・)の生成条件を満たしたと判断し、識別器(a、b、c、・・・)の生成処理を完了させる。
 第1学習部130は、生成した識別器(a、b、c、・・・)のモデル構造及び処理パラメータを含む情報を、学習結果データとして、後述する計測部150及び第2学習部140に出力する。
 <第2学習部の構成>
 引き続き、図2を用いて、第2学習部140における処理の内容を説明する。第2学習部140は、所定の生成処理によって生成された識別器に対する追加学習(再学習)を行う。なお、第2学習部140について、第1学習部130と共通する要素については、その記載を省略する。
 第2学習部140は、第1学習部130で生成された学習済みの識別器(a、b、c、・・・)の学習結果データを取得する。なお、第2学習部140は、所定の生成処理によって生成された識別器に関する学習結果データを、外部から取得してもよい。第2学習部140は、画像収集部110から、学習用データを取得する。なお、第2学習部140は、後述する画像修正部120から、学習用データを取得してもよい。
 第2学習部140は、学習用データを用いた機械学習による追加学習(再学習)を実行し、識別器(A、B、C、・・・)を生成する第2学習処理部141を有する。識別器(A、B、C、・・・)は、所定の学習処理により生成された識別器(a、b、c、・・・)に対して学習処理と評価処理とを行うことにより生成される。換言すれば、第2学習処理部141は、学習用データを用いて、識別器(a、b、c、・・・)のモデル構造及び処理パラメータを含む学習結果データに対する学習処理と評価処理とを実行することで、識別器(A、B、C、・・・)を生成する。識別器(A、B、C、・・・)は、画像データを入力とし、当該画像に含まれる欠陥の有無と、1又は複数の欠陥が含まれる場合には、その位置及びその種類と、を含む属性情報を出力するものである。
 第2学習処理部141は、学習用データを用いて、取得した画像のデータを入力すると、属性情報で表現される計測画像の属性に対応する出力値を出力するように、識別器(a、b、c、・・・)の学習結果データによって表現される機械学習モデルを学習させる学習処理(追加学習の学習処理)を行う。ここで、第2学習処理部141が行う追加学習の学習処理は、後述する画像修正部120から取得した学習用データを用いて行われてよい。これにより、検査対象物を撮像した画像に基づいて新たに生成された学習用データを用いることができ、識別器の識別精度を向上させることができるからである。
 第2学習処理部141は、さらに、学習処理によって生成された識別器(A、B、C、・・・)に対し、テスト用データを用いて、識別器(A、B、C、・・・)の出力と、テスト用データに対して付与された属性情報とを比較する評価処理を行う。識別器(A、B、C、・・・)の出力と、テスト用データに付与された属性情報とが一致している場合には、識別器(A、B、C、・・・)の生成条件を満たしたと判断し、識別器(A、B、C、・・・)の生成処理を完了させる。ここで、第2学習処理部141が行う評価処理は、後述する画像修正部120から取得したテスト用データを用いて行われてよい。これにより、検査対象物を撮像した画像に基づいて新たに生成された学習用データを用いて評価を行うことができ、識別器の認識精度を向上させることができるからである。
 第2学習部140は、生成した識別器(A、B、C、・・・)のモデル構造及び処理パラメータを含む情報を、学習結果データとして、後述する計測部150に出力する。
 なお、第1学習部130と第2学習部140とを一体に構成し、第1学習処理部131が、追加学習の学習処理と評価処理とを実行するようにしてもよい。
 <計測部の構成>
 図3は、本実施形態に係るデータ生成装置100の計測部150における処理の内容を示す概念図である。計測部150は、学習用データを用いた学習処理及び評価処理によって生成された識別器を用いて、撮像装置153により撮像された検査対象物の計測画像の属性情報を出力させ、判定部152により検査対象物に欠陥が含まれているか否かを判定して、計測画像、属性情報及び判定結果を含む計測結果を出力する。属性情報は、欠陥の有無、1又は複数の欠陥が含まれる場合にはその欠陥の位置及び種類、を含む。
 計測部150は、第1学習部130及び第2学習部140から、識別器のモデル構造及び処理パラメータを含む情報を、学習結果データとして取得する。計測部150は、取得した学習結果データを格納する学習結果DB151を有する。また、計測部150は、検査対象物を撮像する撮像装置153を有する。撮像装置153は、例えば、工場の製造ラインを撮像するように設置され、製造ラインの一部を構成する。撮像装置153は、製造ラインを流れる検査対象物としての部品及び製品(以下、部品と製品とを合わせて「ワーク」と称することがある。)の画像を計測画像として撮像する。
 計測部150は、学習結果DB151に格納された学習結果データに基づき構成される識別器を用いて、計測画像の属性情報を出力する判定部152を有する。判定部152は、学習用データを用いて学習された識別器(a、b、c、A、B、…)によって、撮像装置153で撮像された計測画像に欠陥が含まれているか否かを判定する。
 計測部150は、計測画像と、識別器により出力された計測画像の属性情報と、判定部152による判定結果と、を含む計測結果を、計測結果管理部160に出力する。なお、計測部150は、個々の検査対象物を識別するための識別情報を、計測結果とともに、計測結果管理部160に出力してもよい。このとき、検査対象物の識別情報は、計測画像から取得してもよく、所定のインタフェースを介して外部より取得してもよい。識別情報としては、例えば、製造番号や、製造番号を符号化した図形を用いることができる。よって、識別情報とは、検査対象物の個体を識別することができる情報であることが好ましい。なお、計測部150は、検査対象物の計測結果を、計測結果管理部160以外に出力してもよい。例えば、後述するユーザインタフェース170に対し、計測結果及び識別情報を出力するようにしてもよい。また、例えば、計測結果を仕分け装置(図示せず)に対して直接的または間接的に出力してもよい。仕分け装置は、取得した計測結果に基づいて、検査対象物の仕分けを行う。
 <計測結果管理部の構成>
 計測結果管理部160は、計測結果に含まれる計測画像と、識別器により出力された属性情報及び判定部152による判定結果とを関連付けて記憶する計測結果DB161を有する。なお、計測結果管理部160は、検査対象物を識別するための識別情報を、計測結果とともに取得してもよい。このとき、検査対象物の識別情報は、計測部150から取得してもよく、所定のインタフェースを介して外部より取得してもよい。また、計測結果DB161は、属性情報に含まれる属性の種別に応じて、例えば、欠陥の種別の属性に関連付けて、計測画像を分類して記憶してもよい。
 計測結果管理部160は、計測結果を、ユーザインタフェース170に対して出力する。このとき、計測結果管理部160は、あわせて、検査対象物の識別情報をユーザインタフェース170に対して出力してよい。また、計測結果管理部160は、計測結果を、後述する画像修正部120に対して出力する。このとき、計測結果管理部160は、あわせて検査対象物の識別情報を、画像修正部120に対して出力してもよい。
 <ユーザインタフェース>
 本実施形態において、ユーザインタフェース170は、第2作業者が、判定部152による判定結果を確認するために用いられたり、計測画像に含まれる欠陥を含む部分画像を指定するために用いられたり、判定部152による判定結果が正しいか否かに関する入力を受け付けたり、補正部121による補正方法を指定するために用いられたり、生成部122による合成画像の生成方法を指定するために用いられたりする。ユーザインタフェース170は、少なくとも計測画像及び計測部150による計測結果を表示するための表示部(液晶表示装置等)、及び、第2作業者による部分画像の指定、判定部152による判定結果が正しいか否かの入力、補正方法の指定及び生成方法の指定等を行うための入力部(タッチパネル、キーボード、マウス等)を有する。第2作業者は、表示部に表示された計測画像及び当該計測画像の計測結果に基づいて、計測結果の正誤を判断し、入力部を用いて計測結果の正誤を入力し、欠陥を含む部分画像の領域を入力してよい。そして、第2作業者は、表示部に表示された計測画像及び当該計測画像の計測結果に基づいて、指定した部分画像をどのように補正するか、補正された部分画像を他の画像にどのように合成するかを、入力部を用いて指定してよい。
 <画像修正部の構成>
 画像修正部120は、取得された部分画像を補正して、学習用データの生成を行う。画像修正部120は、補正部121、生成部122、修正画像データベース(以下、「修正画像DB」と称す。)123、検証部124及び選択部125を有し、ユーザインタフェース170によって受け付けた部分画像を補正して、補正した部分画像を他の画像に合成して学習用データを生成する。なお、以下では、画像修正部120は、ユーザインタフェース170によって受け付けた部分画像を補正して、新たな学習用データを生成する例について説明するが、ユーザインタフェース180によって受け付けた部分画像を補正して、新たな学習用データを生成してもよい。
 補正部121は、画像のうち欠陥を含む部分画像を、欠陥の特徴量に基づいて補正する。補正部121は、判定部152により画像に欠陥が含まれていないと判定され、ユーザインタフェース170により判定部152による判定結果が正しくないと入力された場合に、部分画像を補正してもよい。例えば、補正部121は、欠陥の部分画像が有する特徴量と、判定部152が使用した識別器が学習した特徴量とを比較して、識別器が学習した特徴量とは異なる特徴量を有するように、部分画像を補正してもよい。より具体的には、識別器が、学習用データを用いた事前学習によって、欠陥に対応する画像の特徴量の範囲を学習している場合に、補正部121は、欠陥の特徴が、識別器が学習した特徴量の範囲に含まれないように、部分画像を補正してよい。例えば、識別器が学習した欠陥に対応する画像の特徴量が、欠陥の長さの範囲を表すものである場合、補正部121は、識別器が学習した欠陥の長さの範囲から逸脱するように、伸縮により欠陥を含む部分画像を補正してよい。これにより、識別器によって欠陥が含まれていないと誤判定された画像に基づいて合成画像を生成し、識別器によって識別しづらい欠陥を含んだ画像を増やすことができ、識別器の識別性能をより向上させることのできる学習用データを生成することができる。また、学習用データを用いた学習によって識別器が学習することのできなかった特徴量を有する部分画像を生成することができ、識別器が学習できる特徴量のバリエーションを増やすような新たな学習用データを生成することができる。
 補正部121は、ユーザインタフェース170により指定された部分画像に対して複数の異なる補正を行ってもよい。より具体的には、補正部121は、部分画像の明るさを補正したり、部分画像の形状を補正したりしてよい。部分画像の明るさを補正することで、照明条件の違いや、欠陥の発生箇所の違いによって識別器が欠陥を見逃すことのないように、識別器を学習させることのできる学習用データが得られる。また、部分画像の形状を補正することで、欠陥の形状の違いによって識別器が欠陥を見逃すことのないように、識別器を学習させることのできる学習用データが得られる。
 また、補正部121は、部分画像の形状が、複数の形状テンプレートのうちいずれかに近付くように、部分画像の形状を補正してもよい。このような補正の例については、図9を用いてより具体的に説明する。複数の形状テンプレートを用意し、形状テンプレートを選択させて、選択された形状テンプレートに近付くように、部分画像の形状を補正することで、様々な変形のバリエーションを簡単に指定することができ、補正方法の指定を容易に行うことができる。これにより、検査対象物について実際に生じ得る形状の欠陥を簡単に合成することができ、形状の指定に不慣れな作業者であっても、現場で識別器を使用した場合の識別性能がより向上する学習用データを生成することができる。
 補正部121は、判定部152による判定の信頼度に基づいて、複数の形状テンプレートのうちいずれかを選択し、部分画像の形状を補正してもよい。ここで、信頼度とは、合成画像に含まれる、補正された部分画像の領域(合成領域)の欠陥らしさの確度を示し、例えば、「欠陥有」とした判定結果を0から1の数値で表した指標であって、数値が1に近いほど、判定結果の確からしさが高いことを意味する。この場合、判定部152は、複数の形状テンプレートを用いて補正された部分画像を、部分画像を含む画像とは異なる画像にそれぞれ合成して生成された複数の合成画像に欠陥が含まれているか否かを判定し、それぞれの判定の信頼度を出力する。例えば、補正部121は、判定部152による判定の信頼度が比較的低くなる形状テンプレートを選択し、部分画像の形状を補正してもよい。このようにして、識別器の識別性能を向上させるのに適した形状テンプレートを用いて部分画像の形状の補正が行われ、識別器の識別性能及び学習効率を向上させることができる。
 生成部122は、補正部121により補正された部分画像と、部分画像を含む画像とは異なる画像とを合成した合成画像を生成し、欠陥が含まれていることを示す情報を合成画像に関連付けて、識別器を学習させるための新たな学習用データを生成する。生成部122は、補正部121により複数の補正方法で補正された部分画像と、部分画像を含む画像とは異なる検査対象物の画像とを合成した複数の合成画像を生成し、欠陥が含まれていることを示す情報を複数の合成画像に関連付けて、複数の学習用データの候補を生成してよい。複数の補正方法で欠陥を含む部分画像を補正し、複数の合成画像を生成することで、欠陥を含む少数の画像から、様々な態様の欠陥を含む複数の合成画像を生成することができ、識別器の汎化性能をより向上させることのできる学習用データの候補を生成することができる。
 また、生成部122は、補正部121により補正された部分画像を、部分画像を含む画像とは異なる複数の画像に合成して複数の合成画像を生成し、欠陥が含まれていることを示す情報を複数の合成画像に関連付けて、複数の学習用データの候補を生成してもよい。欠陥が含まれていない検査対象物の複数の画像に対して、欠陥を含む部分画像を合成し、複数の合成画像を生成することで、欠陥を含む少数の画像から、様々な背景において欠陥を含む複数の合成画像を生成することができ、識別器の汎化性能をより向上させることのできる学習用データの候補を生成することができる。
 生成部122は、欠陥の周囲の背景模様が、部分画像を含む画像と合成画像とで類似するように、部分画像の合成箇所を選択し、合成画像を生成してもよい。より具体的には、例えば、部分画像を含む画像と合成画像とで、それぞれの画像の、撮像対象物のテクスチャに依存しない画素値の濃淡度の変動が所定の範囲に収まるように、部分画像の合成箇所を選択し、合成画像を生成してもよい。これにより、部分画像が合成先において自然に見えるように合成され、検査対象物について実際に生じ得る欠陥を含むようにデータオーグメンテーションを行うことができる。また、生成部122は、検査対象物のうち統計的に欠陥が生じやすい箇所に部分画像が合成さえるように、合成画像を生成してもよい。検査対象物のうち統計的に欠陥が生じやすい箇所は、検査対象物について過去に生じた欠陥の箇所の履歴に基づいて特定してよい。検査対象物のうち統計的に欠陥が生じやすい箇所に部分画像を合成することで、現場で実際に発生しやすい箇所に部分画像を合成することができ、検査対象物について実際に生じ得る欠陥を含むようにデータオーグメンテーションを行うことができる。
 修正画像DB123は、生成部122により生成された新たな学習用データを格納し、記憶する。修正画像DB123は、計測画像及びユーザインタフェース170から受け付けた部分画像を一時的に記憶してもよいし、サンプル画像及びユーザインタフェース180から受け付けた部分画像を一時的に記憶してもよい。
 検証部124は、合成画像に欠陥が含まれているか否かを判定部152により判定させ、合成画像の合成元となった画像に欠陥が含まれているか否かを判定部152により判定させた場合と類似の判定結果が得られるか検証する。例えば、合成画像の合成元となった計測画像について、判定部152によって欠陥が含まれていないと誤判定された場合、検証部124は、合成画像に欠陥が含まれているか否かを判定部152により判定させ、判定部152によって欠陥が含まれていないと誤判定されるか否かを検証する。これにより、識別器によって欠陥が含まれていないと誤判定される合成画像が生成されたか検証され、識別器によって識別しづらい欠陥を含んだ画像を増やすことができ、識別器の識別性能をより向上させることのできる学習用データが生成される。
 画像修正部120は、生成部122により生成した複数の学習用データの候補それぞれを、異なる識別器の学習に適用して、入力された画像に欠陥が含まれているか否かを識別する複数の識別器(a、b、c、A、B、・・・)を第1学習部130又は第2学習部140によって学習させてよい。画像修正部120は、例えば、補正部121によりN通りの方法で補正された部分画像と、欠陥が含まれていない検査対象物のM枚の画像と、のN×Mの組合せについて生成部122によって合成画像を生成して複数の学習用データの候補を生成し、N×Mの学習用データを用いて、複数の識別器(a、b、c、A、B、・・・)を第1学習部130又は第2学習部140によって学習させてよい。このとき、N×Mの学習用データをそれぞれ独立に用いて、複数の識別器(a、b、c、A、B、・・・)を第1学習部130又は第2学習部140によって学習させてよい。これにより、いずれの補正方法及び生成方法が複数の識別器(a、b、c、A、B、・・・)の識別性能を向上させるのに最適であるかを試行することができる。
 選択部125は、第1学習部130又は第2学習部140により学習された、複数の学習済みの識別器の識別性能に基づいて、複数の学習用データの候補から1又は複数の学習用データを選択する。選択部125は、生成された複数の学習用データの候補を用いて複数の識別器を学習させたときの識別性能に基づいて1又は複数の学習用データを選択することで、識別器の学習に用いた場合に識別器の識別性能をより良く向上させる学習用データを選択することができ、識別器の識別性能及び学習効率を向上させることができる。
 [ハードウェア構成]
 次に、図4を用いて、本実施形態に係るデータ生成装置100のハードウェア構成の一例を説明する。本実施形態に係るデータ生成装置100は、演算装置101、出力装置191、入力装置192及び撮像装置153を備えるものであってよい。ここで、出力装置191及び入力装置192は、ユーザインタフェース170及びユーザインタフェース180を構成する。
 演算装置101は、補助記憶部102、103、プロセッサ104、主記憶部105及び外部インタフェース(以下、「外部I/F」と称す。)を含むものであってよい。
 演算装置101は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。プロセッサ104は、CPUを含んでよく、補助記憶部102、103及び主記憶部105は、RAM及びROMを含んでよい。補助記憶部102は、例えば、ハードディスクドライブ、ソリッドステートドライブ等であってもよく、プロセッサ104で実行されるデータ生成プログラム102a、撮像装置153により撮像された計測画像102b及び学習用データ102c等を記憶してよい。補助記憶部103及び主記憶部105は、補助記憶部102と同様に、例えば、ハードディスクドライブやソリッドステートドライブ等であってもよい。データ生成プログラム102aは、前述の、画像収集部110、画像修正部120、第1学習部130、第2学習部140、計測部150及び計測結果管理部160の機能を実現するための処理を行うためのプログラムであり、当該プログラムがプロセッサ104によって実行されることにより、各機能が実現される。なお、データ生成プログラム102aは、画像収集部110、画像修正部120、第1学習部130、第2学習部140、計測部150及び計測結果管理部160のうち一部の機能を実現するための処理を行うためのプログラムであってもよいし、これら以外の機能を実現するための処理を行うためのプログラムを含んでもよい。
 外部I/F106は、USB(Universal Serial Bus)ポート等であり、出力装置191、入力装置192及び撮像装置153等の外部装置と接続するためのインタフェースである。なお、データ生成装置は、有線LAN(Local Area Network)モジュールや無線LANモジュール等、ネットワークを介した有線又は無線通信を行うためのインタフェースを備えてもよい。
 記憶媒体は、コンピュータ等の装置によって、記憶されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。記憶媒体は、例えば、CD(Compact Disk)やDVD(Digital Versatile Disk)等であり、データ生成プログラム102aを記憶したものであってよい。記憶媒体に記憶されたデータ生成プログラム102aは、補助記憶部103にコピーされ、補助記憶部102や主記憶部105にコピーされてよい。図4では、記憶媒体の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。また、データ生成装置100は、データ生成プログラム102a等のデータを、有線又は無線通信によってネットワークを介して取得してもよい。
 なお、データ生成装置100の具体的なハードウェア構成は、実施形態に応じて、適宜、構成要素を省略、置換及び追加されてもよい。例えば、演算装置101は、複数のプロセッサを含んでもよいし、GPU(Graphical Processing Unit)やFPGA(Field Programmable Gate Array)を含んでもよい。また、データ生成装置100は、複数台の情報処理装置で構成されてもよい。データ生成装置100は、提供されるサービス専用に設計された情報処理装置の他、汎用のデスクトップPC(Personal Computer)、タブレットPC等で構成されてもよい。
 §3 動作例
 図5は、本実施形態に係るデータ生成装置100により実行される第1処理の内容を示すフローチャートである。第1処理は、ユーザインタフェース170によって判定部152による判定結果が正しくないと入力された場合に、生成部122によって新たな学習用データを生成する処理である。データ生成装置100は、はじめに検査対象物の画像を取得する(S10)。ここで、画像は、予め画像DB112に記憶されたサンプル画像であってもよいし、撮像装置153によって新たに撮像された計測画像であってもよい。
 データ生成装置100の判定部152は、学習用データを用いて学習された識別器によって、取得された画像に欠陥が含まれているか否かを判定する(S11)。第2作業者は、ユーザインタフェース170によって判定対象となった画像及び判定結果を確認し、ユーザインタフェース170は、判定部152による判定結果が正しいか否かに関する入力を受け付ける(S12)。
 判定部152により画像に欠陥が含まれていないと判定され、ユーザインタフェース170により判定部152による判定結果が正しくないと入力された場合(S13:NO)、すなわち識別器によって欠陥が見逃された場合、ユーザインタフェース170は、画像のうち欠陥を含む部分画像の指定を受け付ける(S14)。なお、判定部152により欠陥の有無を正しく判定できた場合(S13:YES)、第1処理は終了する。
 データ生成装置100の補正部121は、指定された部分画像の補正を行う(S15)。補正処理の詳細については、次図を用いて詳細に説明する。また、データ生成装置100の生成部122は、補正部121により補正された部分画像と、部分画像を含む画像とは異なる画像とを合成した合成画像を生成する(S16)。合成処理の詳細については、図7を用いて詳細に説明する。
 データ生成装置100の検証部124は、生成された合成画像に欠陥が含まれているか否かを判定部152により判定させる(S17)。判定させた結果、部分画像を含む画像を判定部152により判定させた場合と類似して、合成した部分画像に含まれる欠陥について、欠陥が含まれていないという判定結果が得られるか検証する(S18)。なお、検証部124は、合成画像のうち部分画像が合成された領域について、判定部125による判定結果の検証を行えばよく、合成画像のうち部分画像が合成された領域以外の領域に関する判定部125による判定結果の検証は必ずしも行わなくてもよい。合成元となった検査対象物の画像(以下、合成元画像という。)と類似の判定結果が得られない場合(S18:NO)、データ生成装置100は、部分画像の補正処理(S15)及び合成処理(S16)を異なる方法で再度行い、生成された合成画像に欠陥が含まれているか否かを判定部152により判定させ(S17)、合成元画像と類似の判定結果が得られるか検証する。合成元画像と類似の判定結果が得られた場合(S18:YES)、生成部122は、欠陥が含まれていることを示す情報を合成画像に関連付けて、識別器を学習させるための新たな学習用データを生成し、修正画像DB123に格納する(S19)。以上により第1処理が終了する。
 図6は、本実施形態に係るデータ生成装置100により実行される補正処理(S15)の内容を示すフローチャートである。データ生成装置100は、はじめに、ユーザインタフェース170によって補正方法の選択を受け付ける(S151)。補正方法の選択は、補正に用いる欠陥の特徴量の選択、部分画像の形状の補正の有無の選択及び部分画像の明るさの補正の有無の選択等の少なくともいずれかを含んでよい。以下では、部分画像の形状の補正を行い、部分画像の明るさの補正を選択に応じて行う場合について説明する。
 部分画像の形状の補正においてデータ生成装置100によって形状テンプレートを自動選択しない場合(S152:NO)、ユーザインタフェース170は、形状テンプレートの選択を受け付ける(S153)。一方、データ生成装置100によって形状テンプレートを自動選択する場合(S152:YES)、判定部152によって複数の形状テンプレートを用いて生成された合成画像に欠陥が含まれているか否かを判定した履歴を参照し(S154)、判定部152による判定の信頼度に基づいて、複数の形状テンプレートのうちいずれかを選択する(S155)。例えば、判定部152による判定の信頼度が比較的低くなる合成画像を生成することのできる形状テンプレートを選択することとしてよい。そのような選択により、識別器による識別が難しい合成画像を生成することができ、識別器の識別性能をより向上させることのできる合成画像を生成することができる。
 補正部121は、部分画像の形状が、選択された形状テンプレートに近付くように、部分画像の形状を補正する(S156)。その後、部分画像の明るさの補正を行う場合(S157:YES)、補正部121は、部分画像の明るさが変化するように、部分画像を補正する(S158)。ここで、明るさの変化率や変化の態様は、ユーザインタフェース170によって指定されてもよいし、補正部121によって自動的に調整されてもよい。補正部121によって明るさの補正方法を自動で調整する場合、形状の補正の場合と同様に、複数の方法で補正された部分画像を欠陥が含まれていない検査対象物の画像にそれぞれ合成して複数の合成画像を生成し、生成された複数の合成画像に欠陥が含まれているか否かを判定部152によって判定させて、判定部による判定の信頼度に基づいて、複数の補正方法のうちいずれかを選択することとしてもよい。以上により、補正処理(S15)が終了する。なお、補正に用いる欠陥の特徴量の選択、部分画像の形状の補正の有無の選択及び部分画像の明るさの補正の有無の選択等のそれぞれの補正方法は、単独で、または、複数組み合わせて用いることができる。
 図7は、本実施形態に係るデータ生成装置100により実行される合成処理(S16)の内容を示すフローチャートである。データ生成装置100は、はじめに、ユーザインタフェース170によって合成先とする背景画像(以下、合成先画像という。)の選択を受け付ける(S161)。合成先画像は、合成元である検査対象物の画像(合成元画像)に写された検査対象物と同じ検査対象物を撮像したものであってもよいし、合成元画像に写された検査対象物と異なる検査対象物を撮像したものであってもよい。さらに、ユーザインタフェース170は、合成画像の生成方法の選択を受け付ける(S162)。生成方法の選択は、合成先画像にマスクを設定するか否かの選択、欠陥が生じやすい箇所への合成を優先するか否かの選択及び部分画像の合成箇所の選択等の少なくともいずれかを含んでよい。
 ユーザインタフェース170によりマスクの設定が選択された場合(S163:YES)、データ生成装置100は、合成先画像にマスクを設定し、部分画像を合成する箇所を制限する(S164)。マスクを設定する場合、マスクの形状をユーザインタフェース170によって受け付けることとしてもよい。
 その後、データ生成装置100は、欠陥が生じやすい箇所への部分画像の合成を優先するか否かを判定する(S165)。欠陥が生じやすい箇所への合成を優先する場合(S165:YES)、生成部122は、検査対象物について検出された欠陥の箇所の履歴に基づき、検査対象物のうち統計的に欠陥が生じやすい箇所を特定する(S166)。そして、生成部122は、検査対象物のうち統計的に欠陥が生じやすい箇所に部分画像を合成し、合成画像を生成する(S167)。
 一方、欠陥が生じやすい箇所への合成を優先しない場合(S165:NO)、欠陥の周囲の背景模様が合成元画像と合成先画像とで類似する箇所を特定する(S168)。例えば、合成元画像の欠陥の周囲にヘアライン加工が施されており、合成先画像においてもヘアライン加工がされている場合、合成元と合成先とでヘアラインの方向が一致するような合成箇所を特定してよい。また、合成元画像に含まれる欠陥が検査対象物のエッジや印字に重畳している場合、合成先画像においてもエッジや印字に重畳するように部分画像の合成箇所を特定してよい。生成部122は、特定された合成箇所に部分画像を合成し、合成画像を生成する(S169)。以上により、合成処理(S16)が終了する。なお、合成先画像にマスクを設定するか否かの選択、欠陥が生じやすい箇所への合成を優先するか否かの選択及び部分画像の合成箇所の選択等のそれぞれの生成方法は、単独で、または、複数組み合わせて用いることができる。
 図8は、本実施形態に係るデータ生成装置100により実行される補正処理及び合成処理の概要を示す図である。データ生成装置100は、合成元画像P1を取得し、ユーザインタフェース170からの指定に基づいて部分画像P2を抽出する。本例の場合、合成元画像P1は、ヘアライン加工され、表面に薄い傷が付いた検査対象物の画像である。部分画像P2は、傷の部分を切り出した画像である。
 補正部121は、部分画像P2を複数の補正方法で補正してよい。本例では、部分画像P2は、第1補正によって第1補正画像P3に補正され、第2補正によって第2補正画像P4に補正される。第1補正と第2補正は、次図を用いて説明するように、異なる形状テンプレートを用いて行われる補正である。
 生成部122は、第1補正画像P3を、表面が梨地加工された検査対象物の画像である第1合成先画像P10と合成して、第1合成画像P11を生成する。また、生成部122は、第2補正画像P4を、表面が粗く研磨された検査対象物の画像である第2合成先画像P20と合成して、第2合成画像P21を生成する。
 このように、本実施形態に係るデータ生成装置100によれば、欠陥を含む一つの合成元画像P1から、第1合成画像P11や第2合成画像P21といった複数の合成画像を生成することができる。そして、複数の合成画像は、それぞれ実際に生じ得る欠陥を含むように生成される。データ生成装置100は、部分画像を複数の補正方法で補正し、複数の合成先画像に合成することで、実際に生じ得る欠陥を含む多様な合成画像を生成することができる。
 図9は、本実施形態に係るデータ生成装置100により実行される補正処理の概要を示す図である。同図では、一つの合成元画像P1の形状を、複数の形状テンプレートにそれぞれ近付けるように補正して、複数の合成画像を生成する例を示している。
 本例では、合成元画像P1の形状を、第1形状テンプレートに近付けるように補正して第1補正画像P3を生成する場合と、合成元画像P1の形状を、第2形状テンプレートに近付けるように補正して第2補正画像P4を生成する場合と、合成元画像P1の形状を、第3形状テンプレートに近付けるように補正して第3補正画像P5を生成する場合と、合成元画像P1の形状を、第4形状テンプレートに近付けるように補正して第4補正画像P6を生成する場合と、を示している。同図に示すように、第1形状テンプレートに基づく補正は、部分画像の形状に対して非線形変換を施すような補正であり、第1形状テンプレートに基づく補正は、部分画像の形状の太さを変化させ、掠れを加えるような補正であり、第3形状テンプレートに基づく補正は、部分画像の形状を複製して並べるような補正であり、第4形状テンプレートに基づく補正は、部分画像の形状に対して線形変換を施すような補正である。
 図10は、本実施形態に係るデータ生成装置100により実行されるマスク処理の概要を示す図である。マスク処理は、合成先画像のうち部分画像の合成箇所を制限する処理であり、マスクで隠された領域には部分画像の合成を行わないようにする処理である。
 本例のマスク前の画像P30は、欠陥Dを含み、画像の右側に検査対象物のエッジが写されている。画像の右側の黒色の領域は、検査対象物が存在しない領域である。データ生成装置100は、ユーザインタフェース170によってマスクMの設定を受け付けて、第3合成先画像P31を生成する。第3合成先画像P31のうち黒色のマスクMで隠された領域は、部分画像の合成箇所から除外される領域である。黒色のマスクMで隠された領域は、欠陥Dと、検査対象物が存在しない領域を覆っている。このようにマスクMを設定することで、欠陥Dに重ねて部分画像が合成されたり、検査対象物が存在しない領域に部分画像が合成されたりすることが防止され、より現実的な態様で欠陥を含んだ合成画像を生成することができる。
 図11は、本実施形態に係るデータ生成装置100により実行される第2処理の内容を示すフローチャートである。第2処理は、ユーザインタフェース170によって判定部152による判定結果が正しくないと入力されるか否かに関わらず、生成部122によって新たな学習用データを生成する処理である。データ生成装置100は、はじめに検査対象物の画像を取得する(S20)。ここで、画像は、予め画像DB112に記憶されたサンプル画像であってもよいし、撮像装置153によって新たに撮像された計測画像であってもよい。
 次に、ユーザインタフェース170は、画像のうち欠陥を含む部分画像の指定を受け付ける(S21)。その後、データ生成装置100の補正部121は、指定された部分画像の補正を行う(S22)。補正処理の詳細は、図6に示す内容と同様であってよい。
 データ生成装置100の生成部122は、補正部121により補正された部分画像と、部分画像を含む画像とは異なる画像とを合成した合成画像を生成する(S23)。合成処理の詳細は、図7に示す内容と同様であってよい。
 データ生成装置100の検証部124は、生成された合成画像に欠陥が含まれているか否かを判定部152により判定させる(S24)。判定させた結果、部分画像を含む画像を判定部152により判定させた場合と類似して、合成した部分画像に含まれる欠陥について、欠陥が含まれてないという判定結果が得られるか検証する(S25)。なお、検証部124は、合成画像のうち部分画像が合成された領域について、判定部125による判定結果の検証を行えばよく、合成画像のうち部分画像が合成された領域以外の領域に関する判定部125による判定結果の検証は必ずしも行わなくてもよい。合成元である検査対象物の画像(合成元画像)と類似の判定結果が得られない場合(S25:NO)、データ生成装置100は、部分画像の補正処理(S22)及び合成処理(S23)を異なる方法で再度行い、生成された合成画像に欠陥が含まれているか否かを判定部152により判定させ(S24)、合成元画像と類似の判定結果が得られるか検証する。元画像と同様の判定結果が得られた場合(S25:YES)、生成部122は、欠陥が含まれていることを示す情報を合成画像に関連付けて、識別器を学習させるための新たな学習用データを生成し、修正画像DB123に格納する(S26)。以上により第2処理が終了する。
 以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
 [付記1]
 検査対象物に含まれる検出対象部位の有無を識別する識別器(a、b、c、A、B)を学習させるための学習用データを生成するデータ生成装置(100)であって、
 検査対象物の画像を取得する取得部(153)と、
 前記画像の一部であって、検出対象部位を含む部分画像の指定を受け付ける入力部(170、180)と、
 前記部分画像を、前記検出対象部位の特徴量に基づいて補正する補正部(121)と、
 前記補正部(121)により補正された前記部分画像と、前記部分画像を含む前記画像とは異なる画像とを合成した合成画像を生成し、検出対象部位が含まれていることを示す情報を前記合成画像に関連付けて、前記識別器(a、b、c、A、B)を学習させるための新たな学習用データを生成する生成部(122)と、
 を備えるデータ生成装置(100)。
 [付記2]
 前記入力部(170、180)は、前記補正部(121)による補正方法及び前記生成部(122)による前記合成画像の生成方法のうち少なくともいずれかの指定を受け付ける、
 付記1に記載のデータ生成装置(100)。
 [付記3]
 学習用データを用いて学習された前記識別器(a、b、c、A、B)によって、前記取得部(153)で取得された画像に検出対象部位が含まれているか否かを判定する判定部(152)をさらに備え、
 前記入力部(170、180)は、前記判定部(152)による判定結果が正しいか否かに関する入力を受け付け、
 前記補正部(121)は、前記判定部(152)により前記画像に検出対象部位が含まれていないと判定され、前記入力部(170、180)により前記判定部(152)による判定結果が正しくないと入力された場合に、前記部分画像を補正する、
 付記1又は2に記載のデータ生成装置(100)。
 [付記4]
 前記識別器(a、b、c、A、B)は、学習用データを用いた学習によって、検出対象部位に対応する画像の特徴量を学習しており、
 前記補正部(121)は、前記識別器(a、b、c、A、B)が学習した特徴量とは異なる特徴量を有するように、前記部分画像を補正する、
 付記3に記載のデータ生成装置(100)。
 [付記5]
 前記合成画像に検出対象部位が含まれているか否かを前記判定部(152)により判定させ、前記部分画像を含む前記画像に検出対象部位が含まれているか否かを前記判定部(152)により判定させた場合と類似の判定結果が得られるか検証する検証部(124)をさらに備え、
 前記生成部(122)は、前記検証部(124)が類似の判定結果を得た場合に、前記合成画像を新たな学習データとして登録する、
 付記3又は4に記載のデータ生成装置(100)。
 [付記6]
 前記生成部(122)は、前記補正部(121)により複数の補正方法で補正された前記部分画像と、前記部分画像を含む前記画像とは異なる画像とを合成した複数の合成画像を生成し、検出対象部位が含まれていることを示す情報を前記複数の合成画像に関連付けて、複数の学習用データを生成する、
 付記1から5のいずれか一項に記載のデータ生成装置。
 [付記7]
 前記生成部(122)は、前記補正部(121)により補正された前記部分画像を、前記部分画像を含む前記画像とは異なる複数の画像に合成して複数の合成画像を生成し、検出対象部位が含まれていることを示す情報を前記複数の合成画像に関連付けて、複数の学習用データを生成する、
 付記1から6のいずれか一項に記載のデータ生成装置(100)。
 [付記8]
 前記複数の学習用データそれぞれを、異なる識別器(a、b、c、A、B)の学習に適用して、入力された画像に基づいて前記検査対象物に検出対象部位が含まれているか否かを識別する複数の識別器(a、b、c、A、B)を学習させる学習部(130、140)と、
 前記学習部(130、140)により学習された、複数の学習済みの識別器(a、b、c、A、B)の識別性能に基づいて、前記複数の学習用データから1又は複数の学習用データを選択する選択部(125)と、をさらに備える、
 付記6又は7に記載のデータ生成装置(100)。
 [付記9]
 前記生成部(122)は、前記検出対象部位の周囲の背景模様が、前記部分画像を含む前記画像と前記合成画像とで類似するように、前記部分画像の合成箇所を選択し、前記合成画像を生成する、
 付記1から8のいずれか一項に記載のデータ生成装置(100)。
 [付記10]
 前記補正部(121)は、前記部分画像の明るさを補正する、
 付記1から9のいずれか一項に記載のデータ生成装置(100)。
 [付記11]
 前記補正部(121)は、前記部分画像の形状を補正する、
 付記3から10のいずれか一項に記載のデータ生成装置(100)。
 [付記12]
 前記補正部(121)は、前記部分画像の形状が、複数の形状テンプレートのうちいずれかに近付くように、前記部分画像の形状を補正する、
 付記11に記載のデータ生成装置。
 [付記13]
 前記生成部(122)は、前記複数の形状テンプレートを用いて補正された前記部分画像を、前記部分画像を含む前記画像とは異なる画像にそれぞれ合成して複数の合成画像を生成し、
 前記判定部(152)は、前記複数の合成画像に検出対象部位が含まれているか否かを判定し、
 前記補正部(121)は、前記判定部(152)による判定の信頼度に基づいて、前記複数の形状テンプレートのうちいずれかを選択し、前記部分画像の形状を補正する、
 付記12に記載のデータ生成装置。
 [付記14]
 前記生成部(122)は、前記検査対象物のうち統計的に検出対象部位が生じやすい箇所の画像に前記部分画像が合成されるように、前記合成画像を生成する、
 付記1から13のいずれか一項に記載のデータ生成装置(100)。
 [付記15]
 前記検出対象部位は、前記検査対象物に含まれる欠陥の部位であり、
 前記特徴量は、前記欠陥の形状、前記画像の明るさ、前記欠陥に沿った前記画像の明るさの変化、及び前記欠陥と前記欠陥の周囲とのコントラストのうち少なくともいずれかを含む、
 付記1から14のいずれか一項に記載のデータ生成装置(100)。
 [付記16]
 検査対象物に含まれる検出対象部位の有無を識別する識別器(a、b、c、A、B)を学習させるための学習用データを生成するデータ生成方法であって、
 検査対象物の画像を取得することと、
 前記画像の一部であって、検出対象部位を含む部分画像の指定を受け付けることと、
 前記部分画像を、前記検出対象部位の特徴量に基づいて補正することと、
 補正された前記部分画像と、前記部分画像を含む前記画像とは異なる画像とを合成した合成画像を生成し、検出対象部位が含まれていることを示す情報を前記合成画像に関連付けて、前記識別器(a、b、c、A、B)を学習させるための新たな学習用データを生成することと、
 を含むデータ生成方法。
 [付記17]
 検査対象物に含まれる検出対象部位の有無を識別する識別器(a、b、c、A、B)を学習させるための学習用データを生成するデータ生成装置(100)に備えられた演算装置を、
 検査対象物の画像を取得する取得部(153)、
 前記画像の一部であって、検出対象部位を含む部分画像をの指定を受け付ける入力部(170、180)、
 前記部分画像を、前記検出対象部位の特徴量に基づいて補正する補正部(121)、及び
 前記補正部(121)により補正された前記部分画像と、前記部分画像を含む前記画像とは異なる画像とを合成した合成画像を生成し、検出対象部位が含まれていることを示す情報を前記合成画像に関連付けて、識別器(a、b、c、A、B)を学習させるための新たな学習用データを生成する生成部(122)、
 として動作させるデータ生成プログラム。
 100…データ生成装置、101…演算装置、102…補助記憶部、102a…データ生成プログラム、102b…計測画像、102c…学習用データ、103…補助記憶部、104…プロセッサ、105…主記憶部、106…外部I/F、110…画像収集部、111…属性付与部、112…画像DB、113…画像補正部、120…画像修正部、121…補正部、122…生成部、123…修正画像DB、124…検証部、125…選択部、130…第1学習部、131…第1学習処理部、140…第2学習部、141…第2学習処理部、150…計測部、151…学習結果DB、152…判定部、153…撮像装置、160…計測結果管理部、161…計測結果DB、170…ユーザインタフェース、180…ユーザインタフェース、191…出力装置、192…入力装置、D…欠陥、M…マスク、P1…合成元画像、P2…部分画像、P3…第1補正画像、P4…第2補正画像、P5…第3補正画像、P6…第4補正画像、P10…第1合成先画像、P11…第1合成画像、P20…第2合成先画像、P21…第2合成画像、P30…マスク前の画像、P31…第3合成先画像

Claims (17)

  1.  検査対象物に含まれる検出対象部位の有無を識別する識別器を学習させるための学習用データを生成するデータ生成装置であって、
     検査対象物の画像を取得する取得部と、
     前記画像の一部であって、検出対象部位を含む部分画像の指定を受け付ける入力部と、
     前記部分画像を、前記検出対象部位の特徴量に基づいて補正する補正部と、
     前記補正部により補正された前記部分画像と、前記部分画像を含む前記画像とは異なる画像とを合成した合成画像を生成し、検出対象部位が含まれていることを示す情報を前記合成画像に関連付けて、前記識別器を学習させるための新たな学習用データを生成する生成部と、
     を備えるデータ生成装置。
  2.  前記入力部は、前記補正部による補正方法及び前記生成部による前記合成画像の生成方法のうち少なくともいずれかの指定を受け付ける、
     請求項1に記載のデータ生成装置。
  3.  学習用データを用いて学習された前記識別器によって、前記取得部で取得された画像に検出対象部位が含まれているか否かを判定する判定部をさらに備え、
     前記入力部は、前記判定部による判定結果が正しいか否かに関する入力を受け付け、
     前記補正部は、前記判定部により前記画像に検出対象部位が含まれていないと判定され、前記入力部により前記判定部による判定結果が正しくないと入力された場合に、前記部分画像を補正する、
     請求項1又は2に記載のデータ生成装置。
  4.  前記識別器は、学習用データを用いた学習によって、検出対象部位に対応する画像の特徴量を学習しており、
     前記補正部は、前記識別器が学習した特徴量とは異なる特徴量を有するように、前記部分画像を補正する、
     請求項3に記載のデータ生成装置。
  5.  前記合成画像に検出対象部位が含まれているか否かを前記判定部により判定させ、前記部分画像を含む前記画像に検出対象部位が含まれているか否かを前記判定部により判定させた場合と類似の判定結果が得られるか検証する検証部をさらに備え、
     前記生成部は、前記検証部が類似の判定結果を得た場合に、前記合成画像を新たな学習データとして登録する、
     請求項3又は4に記載のデータ生成装置。
  6.  前記生成部は、前記補正部により複数の補正方法で補正された前記部分画像と、前記部分画像を含む前記画像とは異なる画像とを合成した複数の合成画像を生成し、検出対象部位が含まれていることを示す情報を前記複数の合成画像に関連付けて、複数の学習用データを生成する、
     請求項1から5のいずれか一項に記載のデータ生成装置。
  7.  前記生成部は、前記補正部により補正された前記部分画像を、前記部分画像を含む前記画像とは異なる複数の画像に合成して複数の合成画像を生成し、検出対象部位が含まれていることを示す情報を前記複数の合成画像に関連付けて、複数の学習用データを生成する、
     請求項1から6のいずれか一項に記載のデータ生成装置。
  8.  前記複数の学習用データそれぞれを、異なる識別器の学習に適用して、入力された画像に基づいて前記検査対象物に検出対象部位が含まれているか否かを識別する複数の識別器を学習させる学習部と、
     前記学習部により学習された、複数の学習済みの識別器の識別性能に基づいて、前記複数の学習用データから1又は複数の学習用データを選択する選択部と、をさらに備える、
     請求項6又は7に記載のデータ生成装置。
  9.  前記生成部は、前記検出対象部位の周囲の背景模様が、前記部分画像を含む前記画像と前記合成画像とで類似するように、前記部分画像の合成箇所を選択し、前記合成画像を生成する、
     請求項1から8のいずれか一項に記載のデータ生成装置。
  10.  前記補正部は、前記部分画像の明るさを補正する、
     請求項1から9のいずれか一項に記載のデータ生成装置。
  11.  前記補正部は、前記部分画像の形状を補正する、
     請求項3から10のいずれか一項に記載のデータ生成装置。
  12.  前記補正部は、前記部分画像の形状が、複数の形状テンプレートのうちいずれかに近付くように、前記部分画像の形状を補正する、
     請求項11に記載のデータ生成装置。
  13.  前記生成部は、前記複数の形状テンプレートを用いて補正された前記部分画像を、前記部分画像を含む前記画像とは異なる画像にそれぞれ合成して複数の合成画像を生成し、
     前記判定部は、前記複数の合成画像に検出対象部位が含まれているか否かを判定し、
     前記補正部は、前記判定部による判定の信頼度に基づいて、前記複数の形状テンプレートのうちいずれかを選択し、前記部分画像の形状を補正する、
     請求項12に記載のデータ生成装置。
  14.  前記生成部は、前記検査対象物のうち統計的に検出対象部位が生じやすい箇所の画像に前記部分画像が合成されるように、前記合成画像を生成する、
     請求項1から13のいずれか一項に記載のデータ生成装置。
  15.  前記検出対象部位は、前記検査対象物に含まれる欠陥の部位であり、
     前記特徴量は、前記欠陥の形状、前記画像の明るさ、前記欠陥に沿った前記画像の明るさの変化、及び前記欠陥と前記欠陥の周囲とのコントラストのうち少なくともいずれかを含む、
     請求項1から14のいずれか一項に記載のデータ生成装置。
  16.  検査対象物に含まれる検出対象部位の有無を識別する識別器を学習させるための学習用データを生成するデータ生成方法であって、
     検査対象物の画像を取得することと、
     前記画像の一部であって、検出対象部位を含む部分画像の指定を受け付けることと、
     前記部分画像を、前記検出対象部位の特徴量に基づいて補正することと、
     補正された前記部分画像と、前記部分画像を含む前記画像とは異なる画像とを合成した合成画像を生成し、検出対象部位が含まれていることを示す情報を前記合成画像に関連付けて、前記識別器を学習させるための新たな学習用データを生成することと、
     を含むデータ生成方法。
  17.  検査対象物に含まれる検出対象部位の有無を識別する識別器を学習させるための学習用データを生成するデータ生成装置に備えられた演算装置を、
     検査対象物の画像を取得する取得部、
     前記画像の一部であって、検出対象部位を含む部分画像の指定を受け付ける入力部、
     前記部分画像を、前記検出対象部位の特徴量に基づいて補正する補正部、及び
     前記補正部により補正された前記部分画像と、前記部分画像を含む前記画像とは異なる画像とを合成した合成画像を生成し、検出対象部位が含まれていることを示す情報を前記合成画像に関連付けて、前記識別器を学習させるための新たな学習用データを生成する生成部、
     として動作させるデータ生成プログラム。
PCT/JP2018/045252 2017-12-15 2018-12-10 データ生成装置、データ生成方法及びデータ生成プログラム WO2019117065A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-240292 2017-12-15
JP2017240292A JP6573226B2 (ja) 2017-12-15 2017-12-15 データ生成装置、データ生成方法及びデータ生成プログラム

Publications (1)

Publication Number Publication Date
WO2019117065A1 true WO2019117065A1 (ja) 2019-06-20

Family

ID=66820305

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/045252 WO2019117065A1 (ja) 2017-12-15 2018-12-10 データ生成装置、データ生成方法及びデータ生成プログラム

Country Status (2)

Country Link
JP (1) JP6573226B2 (ja)
WO (1) WO2019117065A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112150398A (zh) * 2019-06-27 2020-12-29 杭州海康威视数字技术股份有限公司 图像合成方法、装置及设备
US20210080400A1 (en) * 2019-09-12 2021-03-18 Aisin Seiki Kabushiki Kaisha Image restoration apparatus, image restoration method, image restoration program, restorer generation apparatus, restorer generation method, restorer generation program, determiner generation apparatus, determiner generation method, determiner generation program, article determination apparatus, article determination method, and article determination program
WO2022172469A1 (ja) * 2021-02-12 2022-08-18 オムロン株式会社 画像検査装置、画像検査方法、及び学習済みモデル生成装置
EP4138035A4 (en) * 2020-04-21 2023-10-25 Shimadzu Corporation CELL IMAGE ANALYZER

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220277439A1 (en) * 2019-07-18 2022-09-01 Mitsubishi Electric Corporation Inspection device, inspection method, and recording medium
JP7335545B2 (ja) * 2019-09-30 2023-08-30 ブラザー工業株式会社 学習画像データの生成方法、予測モデル
KR20220062635A (ko) * 2019-10-18 2022-05-17 주식회사 히타치하이테크 검사 시스템, 및 비일시적 컴퓨터 판독 가능 매체
JP6744536B1 (ja) * 2019-11-01 2020-08-19 株式会社アップステアーズ 目線撮像方法及び目線撮像システム
JP2021096581A (ja) * 2019-12-16 2021-06-24 株式会社日立製作所 状態判定装置および状態判定方法
JP6898020B1 (ja) * 2020-02-17 2021-07-07 クリスタルメソッド株式会社 情報処理装置及び情報処理方法
WO2021193347A1 (ja) * 2020-03-26 2021-09-30 パナソニックIpマネジメント株式会社 データ生成システム、データ生成方法、データ生成装置および追加学習要否装置
JP7145440B2 (ja) 2020-03-26 2022-10-03 パナソニックIpマネジメント株式会社 学習データ生成方法、学習データ生成装置、及び、プログラム
WO2022065271A1 (ja) * 2020-09-25 2022-03-31 ファナック株式会社 画像作成装置
KR102509581B1 (ko) * 2020-11-19 2023-03-13 한양대학교 산학협력단 영상 판단 장치 및 그 판단 방법
US11521313B2 (en) * 2021-02-11 2022-12-06 Panasonic Intellectual Property Management Co., Ltd. Method and system for checking data gathering conditions associated with image-data during AI enabled visual-inspection process
WO2022173037A1 (ja) * 2021-02-15 2022-08-18 株式会社安川電機 画像生成方法、機械学習方法、画像生成装置、プログラム及び学習用画像生成方法
JP6955734B1 (ja) * 2021-03-08 2021-10-27 株式会社データグリッド 画像データ生成方法、学習方法、画像データ生成システム、学習システムおよびプログラム
WO2023175905A1 (ja) * 2022-03-18 2023-09-21 日本電気株式会社 メーター識別システム、メーター識別方法および記録媒体
JP2023183808A (ja) * 2022-06-16 2023-12-28 株式会社日立製作所 画像生成方法及び外観検査装置
KR102446658B1 (ko) * 2022-07-07 2022-09-26 주식회사 아이브 인공지능 기반의 영상 인식을 활용한 부품 결함 검사 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016109495A (ja) * 2014-12-03 2016-06-20 タカノ株式会社 分類器生成装置、外観検査装置、分類器生成方法、及びプログラム
WO2017154630A1 (ja) * 2016-03-09 2017-09-14 日本電気株式会社 画像処理装置、画像処理方法および記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016109495A (ja) * 2014-12-03 2016-06-20 タカノ株式会社 分類器生成装置、外観検査装置、分類器生成方法、及びプログラム
WO2017154630A1 (ja) * 2016-03-09 2017-09-14 日本電気株式会社 画像処理装置、画像処理方法および記録媒体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112150398A (zh) * 2019-06-27 2020-12-29 杭州海康威视数字技术股份有限公司 图像合成方法、装置及设备
CN112150398B (zh) * 2019-06-27 2024-03-22 杭州海康威视数字技术股份有限公司 图像合成方法、装置及设备
US20210080400A1 (en) * 2019-09-12 2021-03-18 Aisin Seiki Kabushiki Kaisha Image restoration apparatus, image restoration method, image restoration program, restorer generation apparatus, restorer generation method, restorer generation program, determiner generation apparatus, determiner generation method, determiner generation program, article determination apparatus, article determination method, and article determination program
US11815468B2 (en) * 2019-09-12 2023-11-14 Aisin Corporation Image restoration apparatus, image restoration method, image restoration program, restorer generation apparatus, restorer generation method, restorer generation program, determiner generation apparatus, determiner generation method, determiner generation program, article determination apparatus, article determination method, and article determination program
EP4138035A4 (en) * 2020-04-21 2023-10-25 Shimadzu Corporation CELL IMAGE ANALYZER
WO2022172469A1 (ja) * 2021-02-12 2022-08-18 オムロン株式会社 画像検査装置、画像検査方法、及び学習済みモデル生成装置

Also Published As

Publication number Publication date
JP6573226B2 (ja) 2019-09-11
JP2019109563A (ja) 2019-07-04

Similar Documents

Publication Publication Date Title
WO2019117065A1 (ja) データ生成装置、データ生成方法及びデータ生成プログラム
JP6924413B2 (ja) データ生成装置、データ生成方法及びデータ生成プログラム
JP6936957B2 (ja) 検査装置、データ生成装置、データ生成方法及びデータ生成プログラム
TWI737659B (zh) 半導體試樣的基於深度學習之檢查的方法及其系統
US11176650B2 (en) Data generation apparatus, data generation method, and data generation program
US20190012781A1 (en) Iterative defect filtering process
JP6544716B2 (ja) データ生成装置、データ生成方法及びデータ生成プログラム
TWI748242B (zh) 掃描晶圓的系統及方法
KR20230124713A (ko) 결함 검출 방법, 장치 및 시스템
KR20200089621A (ko) 표본에 대한 결함 검출 방법 및 그 시스템
JP2017049974A (ja) 識別器生成装置、良否判定方法、およびプログラム
TW202044067A (zh) 基於機器學習之半導體樣本中的缺陷分類
CN111401472B (zh) 基于深度卷积神经网络的红外目标分类方法和装置
CN113554630A (zh) 芯片表面缺陷检测方法、系统、计算机设备和存储介质
US20200279359A1 (en) Inspection apparatus, inspection method, and non-volatile storage medium
JP2021143884A (ja) 検査装置、検査方法、プログラム、学習装置、学習方法、および学習済みデータセット
JP7206892B2 (ja) 画像検査装置、画像検査のための学習方法および画像検査プログラム
WO2022172470A1 (ja) 画像検査装置、画像検査方法及び学習済みモデル生成装置
WO2022172468A1 (ja) 画像検査装置、画像検査方法及び学習済みモデル生成装置
JP2021179902A (ja) 画像検査装置、画像検査方法及び学習済みモデル生成装置
JP2022123218A (ja) 画像検査装置、画像検査方法、及び学習済みモデル生成装置
KR20220074021A (ko) 상품불량 선별을 위한 딥러닝 기반의 이미지 분석 방법 및 이를 위한 시스템
CN114266298A (zh) 基于一致流形逼近与投影聚类集成的图像分割方法及系统
CN112084728A (zh) 基于pix2pix的PCB灰度图像着色方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18889579

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18889579

Country of ref document: EP

Kind code of ref document: A1