WO2019039757A1 - 훈련 데이터를 생성하는 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램 - Google Patents

훈련 데이터를 생성하는 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램 Download PDF

Info

Publication number
WO2019039757A1
WO2019039757A1 PCT/KR2018/008619 KR2018008619W WO2019039757A1 WO 2019039757 A1 WO2019039757 A1 WO 2019039757A1 KR 2018008619 W KR2018008619 W KR 2018008619W WO 2019039757 A1 WO2019039757 A1 WO 2019039757A1
Authority
WO
WIPO (PCT)
Prior art keywords
mask
data
source domain
defect data
domain
Prior art date
Application number
PCT/KR2018/008619
Other languages
English (en)
French (fr)
Inventor
기홍도
김현준
Original Assignee
주식회사 수아랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 수아랩 filed Critical 주식회사 수아랩
Priority to US16/641,195 priority Critical patent/US11605003B2/en
Publication of WO2019039757A1 publication Critical patent/WO2019039757A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Definitions

  • This disclosure relates to image processing, and more specifically, to a method for generating training data.
  • Pattern recognition is a field of machine learning, which means a discipline that recognizes the regularity of patterns and data.
  • Pattern recognition techniques include supervised learning and unsupervised learning methods.
  • the supervised learning method refers to a method in which the algorithm learns pattern recognition using data (referred to as "training" data) for which the result of pattern recognition has already been determined.
  • the present disclosure is directed to providing a method for generating training data that is devised in response to the background art described above.
  • a method for generating defect data of a target domain using defect data of a source domain includes inputting defect data of a source domain to which a first mask is applied and defect data of a source domain to which a first mask is not applied to a restoration algorithm; Performing a first training of the restoration algorithm to generate defect data of the source domain in which the first mask is reconstructed; Inputting normal data of a source domain to which a second mask is applied and normal data of a source domain to which a second mask is not applied to the restoration algorithm; Performing a second training of the restoration algorithm to generate normal data of a source domain from which a second mask is reconstructed; Inputting normal data of a target domain to which a second mask is applied and normal data of a target domain to which a second mask is not applied to the restoration algorithm; And a third training of the restoration algorithm so that the second mask generates normal data of
  • the defect data and the normal data may be image data.
  • the first mask may be characterized by covering the defective portion of the defect data, and the first mask and the second mask may be characterized by different colors.
  • the first mask and the second mask may have any shape.
  • the source domain and the target domain may be characterized as having a different pattern.
  • the restoration algorithm may comprise a generating network and an identifying network, wherein the first training includes inputting defect data of a source domain to which the first mask is applied to the generating network; Generating defect data of a source domain in which the first mask is restored from defect data of a source domain to which the first mask is applied using the generation network; Inputting defect data of a source domain in which the first mask is not applied and defect data of a source domain in which the first mask is restored to the identification network; Comparing the defect data of the source domain in which the first mask is not used and the defect data of the source domain in which the first mask is restored by using the identification network, and outputting discrimination information; Learning the creation network and the identification network based on the identification information; And reproducing the defect data of the source domain from which the first mask is restored from the defect domain data of the source domain to which the first mask is applied using the learned generation network.
  • the step of comparing the maskless data with the masked restored data and outputting the discrimination information in the identification network may include: outputting the masked restored data and the masked data to an image patch of a predetermined size And comparing the image patches for each image patch.
  • the image patch may be characterized by a one pixel size.
  • the step of learning the creation network and the identification network based on the identification information may include calculating a value for the loss function of the restoration algorithm from the identification information.
  • the generation network is composed of a total of n layers, and is sequentially connected from the first layer to the n-th layer, and the i-th layer (i> 0, i ⁇ n / 2) 1 < th > layer are connected to each other.
  • a computer program stored on a computer readable storage medium includes a plurality of instructions executed by one or more processors of a computing device in accordance with another embodiment of the present disclosure.
  • the computer program causes the computer to execute the steps of: inputting fault data of a source domain to which an instruction 1 mask is applied and defect data of a source domain in which a first mask is not applied, To be input to the terminal; Instructions for a first training of the restoration algorithm to generate defect data of a source domain in which a first mask is reconstructed; Causing the restoration algorithm to input normal data of the source domain to which the second mask is applied and normal data of the source domain to which the second mask is not applied; Instructions for a second training of the restoration algorithm to generate normal data of a source domain in which a second mask is reconstructed; Command to cause normal data of the target domain to which the second mask is applied and normal data of the target domain to which the second mask is not applied to the restoration algorithm; And a third training the restoration algorithm so that the second mask generates normal data of the restored target domain
  • the computing device may include one or more processors and a memory for storing instructions executable on the one or more processors, wherein the one or more processors are further programmed to cause the computer to perform the steps of: And the first mask is used to perform a first training of the restoration algorithm to generate defect data of the restored source domain, and wherein the normal data of the source domain to which the second mask is applied and the normal data of the source domain to which the second mask is applied are not used
  • the restoration algorithm to generate normal data of the source domain in which the second mask is reconstructed, and normal data of the target domain to which the second mask is applied.
  • the normal data of the target domain To the restoration algorithm, and a third training the restoration algorithm to generate normal data of the restored target domain.
  • the present disclosure may provide a method of generating training data.
  • Figure 1 shows a block diagram of a computing device in accordance with one embodiment of the present disclosure.
  • FIGS. 2A to 2C are diagrams illustrating inputs and outputs during a training of a restoration algorithm for generating defect data of a target domain using defect data of a source domain according to an embodiment of the present disclosure
  • FIG. 3 is a diagram illustrating input and output in generating defective data of a target domain using a restoration algorithm trained according to one embodiment of the present disclosure
  • FIGS. 4-5 illustrate a method of first training a restoration algorithm in accordance with one embodiment of the present disclosure.
  • FIG. 6 is a schematic diagram illustrating a generation network in a restoration algorithm in accordance with one embodiment of the present disclosure
  • Figure 7 is an illustration of an image patch in accordance with one embodiment of the present disclosure.
  • Figure 8 illustrates a simplified, general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
  • component refers to a computer-related entity, hardware, firmware, software, combination of software and hardware, or execution of software.
  • a component may be, but is not limited to, a process, a processor, an object, an execution thread, a program, and / or a computer running on a processor.
  • an application running on a computing device and a computing device may be a component.
  • One or more components may reside within a processor and / or thread of execution, one component may be localized within one computer, or it may be distributed between two or more computers. Further, such components may execute from various computer readable media having various data structures stored therein.
  • the components may communicate, for example, via a network (e.g., a local system, data and / or signals from one component interacting with another component in a distributed system, and / or signals with one or more data packets) And / or < / RTI > transmitted data).
  • a network e.g., a local system, data and / or signals from one component interacting with another component in a distributed system, and / or signals with one or more data packets
  • And / or < / RTI > transmitted data e.g., a local system, data and / or signals from one component interacting with another component in a distributed system, and / or signals with one or more data packets
  • Figure 1 shows a block diagram of a computing device in accordance with one embodiment of the present disclosure.
  • the computing device 100 in accordance with one embodiment of the present disclosure may include a processor 110 and a memory 120.
  • the block diagram shown in FIG. 1 is a simplified representation of a computing device, and the present disclosure is not so limited and may include additional components necessary for driving.
  • the processor 110 may be comprised of one or more and may include a central processing unit (CPU) of the computing device.
  • the processor 110 may perform a method of reading a computer program stored in the memory 120 to generate defect data of the target domain using defect data of the source domain according to an embodiment of the present disclosure.
  • the computing device 100 inputs defect data of a source domain to which a first mask is applied and defect data of a source domain in which a first mask is not applied to a restoration algorithm
  • a restoration algorithm is firstly trained to generate defect data of the domain, normal data of the source domain to which the second mask is applied and normal data of the source domain to which the second mask is not applied is input to the restoration algorithm
  • the restoration algorithm is secondly trained to generate normal data of the source domain and the normal data of the target domain to which the second mask is applied and the normal data of the target domain to which the second mask is not applied are input to the restoration algorithm
  • a third training of the restoration algorithm may be performed to generate normal data of the restored target domain All.
  • the computing device 100 inputs normal data of the target domain to which the first mask is applied to the final trained restoration algorithm to generate the mask reconstructed data from the masked data,
  • the data may be generated using the last trained recovery algorithm.
  • the memory 120 may store a computer program for performing a method of generating defect data in a target domain using defect data in a source domain in accordance with an embodiment of the present disclosure, GPU or the like.
  • the computer program causes the computer to execute the steps of: causing the first mask to input defective data of a source domain and a defective data of a source domain in which a first mask is not applied to a restoration algorithm; Instructions for instructing the restoration algorithm to perform a first training; instructions for inputting normal data of a source domain to which a second mask is applied and normal data of a source domain for which a second mask is not yet applied to the restoration algorithm; A command to cause a second training of the restoration algorithm to generate normal data of the domain; a command to cause the restoration algorithm to input normal data of the target domain to which the second mask is applied and normal data of the target domain to which the second mask is not applied; And the second mask is the normal data of the restored target domain It may include a command for a third training the reconstruction algorithm to generate.
  • FIGS. 2A to 2C are diagrams illustrating inputs and outputs during a training of a restoration algorithm for generating defect data of a target domain using defect data of a source domain according to an embodiment of the present disclosure
  • the restoration algorithm 200 may be an image restoration algorithm.
  • the image restoration algorithm may include, for example, a Variational Autoencoder (VAE), a Generative Model, and the like.
  • VAE Variational Autoencoder
  • the image restoration algorithm may include Generative Adversarial Networks, Conditional Generative Adversarial Networks, and the like.
  • the image restoration algorithm is only an example, and the scope of right of the present disclosure is not limited thereto.
  • the domain may be a constant material or article, and may be a certain pattern or a particular pattern on the article.
  • the material can be, for example, fiber, leather, metal, glass, plastic, wood, and the like.
  • the article may be, for example, a garment, a lens, furniture, or the like.
  • the pattern may be, for example, stripes, flowers, dots, and the like. The scope of rights of the present disclosure is not limited to the above examples.
  • the source domain means a pattern having defect data 213, and the target domain means a pattern for which defect data is to be generated using defect data 213 in the source domain.
  • the source domain and the target domain may have different patterns from each other. For example, in FIG. 2, the source domain is striped and the target domain is a dot pattern, and defect data 305 (see FIG. 3) of the target domain is generated from defect data 213 of the source domain having defect 214 can do.
  • the source domain and the target domain shown in Fig. 2 are merely illustrative, and the scope of right of the present disclosure is not limited thereto.
  • the data may be image data.
  • the image data may be defective image data including defects or normal image data containing defects on the source domain or the target domain.
  • the image may be a 3D image, a monochrome image, an infrared image, an electronic image, or the like, and may be a film camera, a digital camera, a microscope, a magnifying glass, an infrared camera, an ultraviolet (UV) Device or the like.
  • the image data may be compressed data, RAW image, or image data file.
  • the image data format may include jpg, png, tif, psd, Ai, and the like.
  • the defect data 213 refers to data including the defect 214
  • the normal data 223 and 233 refer to data including no defect.
  • the defect may include an abnormal pattern generated due to process tearing, abrasion, pressing, etc., and the scope of right of the present disclosure is not limited thereto.
  • the mask may include a first mask 212 and a second mask 222, and the first mask 212 may mask the defect 214 of the defect data 213 .
  • the first mask 212 and the second mask 222 may be distinguished by different colors.
  • the mask can be any shape.
  • the mask may be manually applied by a human, or may be automatically applied by any program, and the scope of right of the present disclosure is not limited thereto.
  • the training of the restoration algorithm 200 may include at least one of the following exercises.
  • the training may be a process of causing the restoration algorithm 200 to learn the restoration algorithm 200 to restore data based on the input data. Specifically, the training is performed such that, when the restoration algorithm 200 receives masked data and masked data, the restoration algorithm 200 learns the restoration algorithm 200 to output the masked restored data Process. Learning of the restoration algorithm 200 may be to generate a regression equation that minimizes the error value between the output value and the target value based on the input data. The learning of the restoration algorithm 200 may be to adjust the value of at least one variable included in the restoration algorithm 200. [ By learning the restoration algorithm 200, the data restoration rate of the restoration algorithm 200 can be improved.
  • the data restoration rate may be, for example, a rate of increase in sharpness in image data, or a rate of concordance with input image data.
  • the final trained restoration algorithm can restore the data in the direction required by the user based on the input data. Specifically, the final trained restoration algorithm can output defect data of the target domain when the normal data of the target domain to which the first mask is applied is input.
  • the training of the restoration algorithm 200 may be performed by the computing device 100.
  • FIG. 2A is a diagram illustrating input / output during a first training of the restoration algorithm 200 according to an embodiment of the present disclosure.
  • the computing device 100 is configured to cause the recovery algorithm 200 to generate defect data 211 of the source domain to which the first mask 212 is applied,
  • the defect data 213 of the source domain can be input.
  • the computing device 100 may use the restoration algorithm 200 to generate defect data 215 of the source domain in which the first mask 212 has been restored 216.
  • the first mask may have different colors depending on the types of defects. That is, in one embodiment of the present disclosure, the mask may include a mask that masks the defective data and a mask that masks the normal data, and the mask that masks the defective data and the data that masks the normal data may include features that are identified , Color, pattern, etc.).
  • the mask for masking defect data may also have a feature (e.g., color, pattern, etc.) that is identified according to the type of defect masking. For example, leather imperfections and dye imperfections can be masked with masks of different colors.
  • a feature e.g., color, pattern, etc.
  • leather imperfections and dye imperfections can be masked with masks of different colors.
  • FIG. 2B is a diagram illustrating input / output in a second training of the restoration algorithm 200 according to an embodiment of the present disclosure.
  • the computing device 100 is configured such that the normal data 221 and the second mask 222 of the source domain to which the second mask 222 is applied to the restoration algorithm 200 are not applied
  • the normal data 223 of the source domain can be input.
  • the computing device 100 may use the restoration algorithm 200 to generate the normal data 225 of the source domain from which the second mask 222 has been restored 226.
  • 2C is a diagram illustrating input / output in the third training of the restoration algorithm 200 according to an embodiment of the present disclosure.
  • the computing device 100 is configured such that the normal data 231 of the target domain and the second mask 222 to which the second mask 222 is applied to the restoration algorithm 200 are not applied It is possible to input the normal data 233 of the target domain.
  • the computing device 100 may use the restoration algorithm 200 to generate the normal data 235 of the target domain in which the second mask 222 has been restored 236.
  • the first, second, and third drills of the present disclosure may be performed by inputting a patch obtained by dividing the entire image into a predetermined size, and may be performed by inputting a patch extracted from a portion corresponding to a defect in the image.
  • FIG. 3 is a diagram illustrating input and output in generating defective data of a target domain using a restoration algorithm trained according to one embodiment of the present disclosure
  • the final trained restoration algorithm 300 to generate the mask reconstructed data from the masked data receives the normal data 301 of the target domain to which the first mask 212 is applied, It is possible to generate the defective data 305 of the target domain. Specifically, as the first mask of the target domain is restored 306, a defect 214 of the source domain defect data 213 (see FIG. 2) is generated on the target domain to generate defect data 305 of the target domain can do.
  • the foregoing is merely an example, and the scope of right of the present disclosure is not limited thereto.
  • FIGS. 4-5 illustrate a method of first training a restoration algorithm in accordance with one embodiment of the present disclosure.
  • FIG. 4 is a flowchart of a method of first training a restoration algorithm in accordance with one embodiment of the present disclosure
  • FIG. 5 is an illustration of an example restoration algorithm for performing a first training in accordance with one embodiment of the present disclosure
  • the restoration algorithm 500 in accordance with one embodiment of the present disclosure may include a generating network 510 and an identifying network 520.
  • a network may consist of a collection of interconnected computation units, which may be referred to generally as " nodes ". These " nodes " may also be referred to as " neurons. &Quot;
  • the network comprises at least two nodes.
  • the nodes (or neurons) that make up the networks may be interconnected by one or more " links ".
  • two or more nodes connected through a link may form a relationship of input and output nodes relatively.
  • the concepts of the input node and the output node are relative, and any node in the output node relationship with respect to one node may be in the input node relationship with the other node, and vice versa.
  • the input node-to-output node relationship can be generated around the link.
  • One or more output nodes may be connected to one input node via a link, and vice versa.
  • the output node can be determined based on data input to the input node.
  • a node interconnecting an input node and an output node may have a weight.
  • the weights may be variable and may be varied by the user or algorithm to perform the desired function of the network. For example, if one or more input nodes to one output node are interconnected by respective links, then the output node is set to the values input to the input nodes connected to the output node and to the links corresponding to the respective input nodes The output node value can be determined based on the weight.
  • a network interconnects two or more nodes via one or more links to form an input node and an output node relationship within the network.
  • the nature of the network can be determined according to the number of nodes and links in the network, the association between nodes and links, and the value of the weight assigned to each of the links. For example, if there are the same number of nodes and links and there are two networks with different weight values between the links, then the two networks may be perceived as being different from each other.
  • the network may be configured to include more than one node. Some of the nodes that make up the network may configure one layer based on the distances from the original input node. For example, n layers can be configured. The distance from the original input node may be defined by the minimum number of links that must go through to reach that node from the original input node. However, the definition of such a layer is arbitrary for explanation, and the degree of the layer in the network can be defined in a manner different from the above. For example, the layer of nodes may be defined by distance from the final output node.
  • the first input node may refer to one or more nodes in the network directly inputting data without any link in relation to other nodes. Or nodes in the network that do not have other input nodes linked by a link in relation to the node based on the link.
  • the final output node may refer to one or more nodes that do not have an output node, in relation to other ones of the nodes in the network.
  • the hidden node may refer to nodes constituting the network other than the first input node and the last output node.
  • the network according to an embodiment of the present disclosure may be a network in which the number of nodes decreases as the layer progresses from the input layer to the hidden layer.
  • the computing device 100 may input the defect data 211 of the source domain to which the first mask is applied to the generation network 510 (S310).
  • the defect data is image data
  • the computing device 100 may enter the patch extracted from the entire image into the production network 510 to proceed with the training process, May be input to the generation network 510 to proceed with the training process.
  • the mask may be different in color depending on the kind of defect. That is, in one embodiment of the present disclosure, the mask may include a mask that masks the defective data and a mask that masks the normal data, and the mask that masks the defective data and the data that masks the normal data may include features that are identified , Color, pattern, etc.).
  • the mask for masking defect data may also have a feature (e.g., color, pattern, etc.) that is identified according to the type of defect masking. For example, leather imperfections and dye imperfections can be masked with masks of different colors.
  • a feature e.g., color, pattern, etc.
  • generation network 510 may comprise a convolution neural network (CNN), an auto encoder, etc., but the disclosure is not so limited.
  • CNN convolution neural network
  • auto encoder etc.
  • the generation network 510 is illustrated by way of example in FIG. 6, and the present disclosure is not limited to the example shown in FIG.
  • the computing device 100 generates defects data 211 of the source domain from which the first mask is restored from the defective data 211 of the source domain to which the first mask inputted using the generation network 510 is applied 515 (S320).
  • the generation method differs depending on the kind of the restoration algorithm, and can be generated, for example, by forming an arbitrary random number distribution or a random number distribution of the conditional part, and the scope of right of the present disclosure is not limited thereto.
  • the computing device 100 in accordance with an embodiment of the present disclosure may determine that defect data 213 of the source domain in which the first mask has not been applied to the identification network 520 and defect data 515 of the source domain in which the generated first mask is restored (S330).
  • the computing device 100 may use the identification network 520 to determine whether the first mask entered is the defective data 213 of the source domain for which the first mask has not been applied, It is possible to compare the defect data 515 and output the discrimination information 521 (S340).
  • the distinguishing information 521 indicates whether the identification network is capable of comparing the defect data 515 of the source domain from which the first mask has been restored with a probability value or a plurality of pieces of data to be recognized as the defect data 213 of the source domain in which the first mask is not used
  • the scope of the rights of the present disclosure is not limited thereto.
  • Unused data can be divided into image patches of a certain size and compared by image patches.
  • the above step has the effect of enhancing high-frequency information when an image is generated.
  • the image patch may be N pixels by N pixels in size, and may be one pixel in size.
  • the identification network 520 determines response values for image patches obtained by comparing the defect data 213 of the source domain in which the first mask is not applied and the defect data 515 of the source domain in which the generated first mask is restored, So that the final discrimination information 521 can be outputted.
  • the image patch is illustrated by way of example in FIG. 7, and the present disclosure is not limited to the example shown in FIG.
  • the comparison of the defect data 213 of the source domain in which the first mask has not been applied and the defect data 515 of the source domain in which the generated first mask is restored can be performed by, Comparing the defect data (211) of the source domain to which the first mask is applied and the defect data (211) of the source domain to which the first mask is applied; And comparing them.
  • the above comparison process is merely an example, and the scope of right of the present disclosure is not limited thereto.
  • the computing device 100 may learn the generating network 510 and the identifying network 520 based on the distinguishing information 521 at step S350.
  • the step of learning the generation network 510 and the identification network 520 based on the distinction information 521 may include calculating the value of the loss function of the restoration algorithm 500 from the distinction information 521 .
  • the loss function means a function expressing a value to be directly reduced or increased through learning.
  • the loss function may be, for example, as follows.
  • the above equations are merely illustrative, and the scope of rights of the present disclosure is not limited thereto.
  • the production network 510 learns to decrease the value for the loss function, and at the same time, the identification network 520 can learn to increase the value for the loss function. Learning can be performed through backward propagation, and the proposed learning method is merely an example, and the scope of right of the present disclosure is not limited thereto.
  • the computing device 100 can regenerate defect data of the source domain from which the first mask is restored from the defect domain data of the source domain to which the first mask is applied using the learned generation network ).
  • the defect data of the source domain in which the regenerated first mask is reconstructed can be compared with the defect data 213 of the source domain in which the first mask is not used by using the identification network 520 to repeat the above process by outputting the discrimination information have.
  • the iteration may be performed until the production network 510 learns to minimize the value for the loss function and at the same time the identification network 520 learns to maximize the value for the loss function, It is to be understood that the present disclosure is not limited thereto.
  • the above-described process can be equally applied to the second training and the third training.
  • FIG. 6 is a schematic diagram illustrating a generation network in a restoration algorithm in accordance with one embodiment of the present disclosure
  • the generation network 600 shown in FIG. 6 is composed of seven layers in total, and is sequentially connected (610) from the first layer to the seventh layer, and separately connected to the first layer, the seventh layer, The sixth layer, and the third layer and the sixth layer are connected (620).
  • the above structure has the effect of ensuring a high resolution of the generated image by preventing the dilution of the information on the input data by further constructing the short path in addition to the general sequential information delivery path.
  • the generation network 600 shown in Fig. 6 is only an example, and the present disclosure is not limited thereto.
  • Figure 7 is an illustration of an image patch in accordance with one embodiment of the present disclosure.
  • the masked restored data 700 and the masked Data in the step of comparing the masked data and the masked restored data 700 in the identification network to output the discrimination information, can be divided into image patches 710 of a predetermined size, and can be compared for each image patch 710.
  • the image patch 710 may be N pixels by N pixels in size, and may be one pixel in size.
  • the image patch of the present disclosure can be extracted from all or part of the data.
  • the image patch of the present disclosure can be extracted mainly from a defect portion in defect data.
  • the identification network synthesizes the response values for each image patch obtained by comparing the defect data 213 of the source domain in which the first mask is not applied and the defect data 515 of the source domain in which the generated first mask is restored for each image patch, It is possible to output discrimination information, and the scope of rights of the present disclosure is not limited thereto.
  • Figure 8 illustrates a simplified, general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.
  • program modules include routines, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • program modules include routines, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • program modules include routines, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types.
  • the described embodiments of the present disclosure may also be practiced in distributed computing environments where certain tasks are performed by remote processing devices connected through a communications network.
  • program modules may be located in both local and remote memory storage devices.
  • Computers typically include a variety of computer readable media. Any medium accessible by a computer may be a computer-readable medium, which may include volatile and non-volatile media, transitory and non-transitory media, removable and non-removable media, Removable media.
  • computer readable media can comprise computer readable storage media and computer readable transmission media.
  • Computer-readable storage media includes both volatile and nonvolatile media, both temporary and non-volatile media, both removable and non-removable, implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data Media.
  • Computer storage media includes, but is not limited to, RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage, magnetic cassettes, magnetic tape, magnetic disk storage or other magnetic storage devices, Or any other medium which can be accessed by a computer and used to store the desired information.
  • Computer readable transmission media typically embodies computer readable instructions, data structures, program modules or other data in a modulated data signal such as a carrier wave or other transport mechanism, It includes all information delivery media.
  • modulated data signal refers to a signal that has one or more of its characteristics set or changed to encode information in the signal.
  • computer readable transmission media include wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, or other wireless media. Combinations of any of the above described media are also intended to be included within the scope of computer readable transmission media.
  • FIG. 1100 There is shown an exemplary environment 1100 that implements various aspects of the present disclosure including a computer 1102 and a computer 1102 that includes a processing unit 1104, a system memory 1106, and a system bus 1108 do.
  • the system bus 1108 couples system components, including but not limited to, system memory 1106 to the processing unit 1104.
  • the processing unit 1104 may be any of a variety of commercially available processors. Dual processors and other multiprocessor architectures may also be used as the processing unit 1104.
  • the system bus 1108 may be any of several types of bus structures that may additionally be interconnected to a local bus using any of the memory bus, peripheral bus, and various commercial bus architectures.
  • System memory 1106 includes read only memory (ROM) 2110 and random access memory (RAM)
  • ROM read only memory
  • RAM random access memory
  • the basic input / output system (BIOS) is stored in a non-volatile memory 2110, such as a ROM, EPROM, or EEPROM, which is a basic (nonvolatile) memory device that aids in transferring information between components within the computer 1102, Routine.
  • RAM 2112 may also include a high speed RAM such as static RAM for caching data.
  • the computer 1102 may also be an internal hard disk drive (HDD) 2114 (e.g., EIDE, SATA).
  • This internal hard disk drive 2114 may also be configured for external use within a suitable chassis ,
  • a magnetic floppy disk drive (FDD) 2116 e.g., for reading from or writing to a removable diskette 2118
  • an optical disk drive 1120 e.g., a CD-ROM For reading disc 1122 or reading from or writing to other high capacity optical media such as DVD.
  • the hard disk drive 2114, magnetic disk drive 2116 and optical disk drive 1120 are connected to the system bus 1108 by a hard disk drive interface 1124, a magnetic disk drive interface 1126 and an optical drive interface 1128, respectively.
  • the interface 1124 for external drive implementation includes at least one or both of Universal Serial Bus (USB) and IEEE 1394 interface technologies.
  • drives and their associated computer-readable media provide non-volatile storage of data, data structures, computer-executable instructions, and the like.
  • the drives and media correspond to storing any data in a suitable digital format. While the above description of computer readable media refers to HDDs, removable magnetic disks, and removable optical media such as CDs or DVDs, those skilled in the art will appreciate that other types of storage devices, such as a zip drive, magnetic cassette, flash memory card, Or the like may also be used in the exemplary operating environment and any such medium may include computer-executable instructions for carrying out the methods of the present disclosure.
  • a number of program modules including an operating system 2130, one or more application programs 2132, other program modules 2134, and program data 2136, may be stored in the drive and RAM 2112. All or a portion of the operating system, applications, modules, and / or data may also be cached in RAM 2112. It will be appreciated that the disclosure may be implemented in a variety of commercially available operating systems or combinations of operating systems.
  • a user may enter commands and information into the computer 1102 via one or more wired / wireless input devices, e.g., a keyboard 2138, and a pointing device, such as a mouse 1140.
  • Other input devices may include a microphone, IR remote control, joystick, game pad, stylus pen, touch screen, etc.
  • input device interface 1142 is coupled to the system bus 1108, but may be a parallel port, an IEEE 1394 serial port, a game port, a USB port, an IR interface, ≪ / RTI > and so forth.
  • a monitor 1144 or other type of display device is also connected to the system bus 1108 via an interface, such as a video adapter 1146,
  • the computer typically includes other peripheral output devices (not shown) such as speakers, printers,
  • Computer 1102 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer (s) 1148, via wired and / or wireless communication.
  • the remote computer (s) 1148 may be a workstation, a computing device computer, a router, a personal computer, a portable computer, a microprocessor-based entertainment device, a peer device or other conventional network node, But for the sake of simplicity, only memory storage device 1150 is shown.
  • the logical connections depicted include a wired / wireless connection to a local area network (LAN) 1152 and / or a larger network, e.g., a wide area network (WAN)
  • LAN local area network
  • WAN wide area network
  • the computer 1102 When used in a LAN networking environment, the computer 1102 is connected to the local network 1152 via a wired and / or wireless communication network interface or adapter 1156.
  • the adapter 1156 may facilitate wired or wireless communication to the LAN 1152 and the LAN 1152 also includes a wireless access point installed therein to communicate with the wireless adapter 1156.
  • the computer 1102 When used in a WAN networking environment, the computer 1102 may include a modem 1158, or may be connected to a communications computing device on the WAN 1154, or to establish communications over the WAN 1154 And other means.
  • a modem 1158 which may be an internal or external and a wired or wireless device, is coupled to the system bus 1108 via a serial port interface 1142.
  • program modules described for the computer 1102, or portions thereof may be stored in the remote memory / storage device 1150. It will be appreciated that the network connections shown are exemplary and other means of establishing a communication link between the computers may be used.
  • the computer 1102 may be any wireless device or entity that is deployed and operable in wireless communication, such as a printer, a scanner, a desktop and / or portable computer, a portable data assistant (PDA) Any equipment or place, and communication with the telephone.
  • PDA portable data assistant
  • the communication may be a predefined structure, such as in a conventional network, or simply an ad hoc communication between at least two devices.
  • Wi-Fi Wireless Fidelity
  • Wi-Fi is a wireless technology such as a cell phone that allows such devices, e.g., computers, to transmit and receive data indoors and outdoors, i. E. Anywhere within the coverage area of a base station.
  • Wi-Fi networks use a wireless technology called IEEE 802.11 (a, b, g, etc.) to provide a secure, reliable, and high-speed wireless connection.
  • Wi-Fi can be used to connect computers to each other, the Internet, and a wired network (using IEEE 802.3 or Ethernet).
  • the Wi-Fi network may operate in unlicensed 2.4 and 5 GHz wireless bands, for example, at 11 Mbps (802.11a) or 54 Mbps (802.11b) data rates, or in products containing both bands have.
  • the various embodiments presented herein may be implemented as a method, apparatus, or article of manufacture using standard programming and / or engineering techniques.
  • article of manufacture includes a computer program, carrier, or media accessible from any computer-readable device.
  • the computer-readable medium can be a magnetic storage device (e.g., a hard disk, a floppy disk, a magnetic strip, etc.), an optical disk (e.g., CD, DVD, etc.), a smart card, But are not limited to, devices (e. G., EEPROM, cards, sticks, key drives, etc.).
  • the various storage media presented herein also include one or more devices and / or other machine-readable media for storing information.
  • This disclosure may be used to generate training data for an artificial neural network utilized in the field of processing images using a computing device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법이 개시된다. 상기 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법은 제 1 마스크가 적용된 소스 도메인의 결함 데이터 및 제 1 마스크가 미적용된 소스 도메인의 결함 데이터를 복원알고리즘에 입력시키는 단계; 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 생성하도록 상기 복원알고리즘을 제 1 훈련시키는 단계; 제 2 마스크가 적용된 소스 도메인의 정상 데이터 및 제 2 마스크가 미적용된 소스 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키는 단계; 제 2 마스크가 복원된 소스 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 2 훈련시키는 단계; 제 2 마스크가 적용된 타겟 도메인의 정상 데이터 및 제 2 마스크가 미적용된 타겟 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키는 단계; 및 제 2 마스크가 복원된 타겟 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 3 훈련시키는 단계;를 포함한다.

Description

훈련 데이터를 생성하는 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램
본 개시는 이미지 처리에 관한 것으로, 보다 구체적으로 훈련 데이터를 생성하는 방법에 관한 것이다.
패턴 인식(pattern recognition)은 머신 러닝(machine learning)의 일 분야로서, 패턴 및 데이터의 규칙성을 인식하는 학문을 의미한다. 패턴 인식 기술은 감독 학습(supervised learning) 및 비감독 학습(unsupervised learning) 방법을 포함한다. 감독 학습 방법은 이미 패턴 인식의 결과가 결정되어 있는 데이터("트레이닝" 데이터 라고 한다)를 이용하여 알고리즘이 패턴 인식을 학습하는 방법을 의미한다.
패턴 인식 기술을 구현하기 위해 다양한 방법이 제시되고 있으며, 미국 등록 특허 8, 873,856 는 이러한 패턴 인식 기술의 일 예를 도시한다.
그러나 패턴 인식 알고리즘의 종류와 방법에 무관하게, 상기 트레이닝 데이터가 다양하고 개수가 많을수록 양질의 학습이 수행되는 바, 트레이닝 데이터를 광범위하게 다량 확보하기 위한 기술이 요구된다. 특히, 상기 데이터가 제조 과정에서 발생하는 상이한 패턴 상 결함인 경우, 동일 제조 과정 하에 발생할 수 있는 결함은 상이한 패턴 상에서도 유사한 모양을 띠는 경향이 있음에도 불구하고, 상이한 패턴 별로 결함 데이터를 별개의 작업을 통해 획득해야하는 불편함이 존재한다.
이에 따라, 트레이닝 데이터로서 다양한 패턴 상의 결함 데이터를 효율적으로 획득하기 위한 당업계의 요구가 존재한다.
본 개시는 전술한 배경기술에 대응하여 안출된 것으로 훈련 데이터를 생성하는 방법을 제공하기 위한 것이다.
전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법이 개시된다. 상기 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법은 제 1 마스크가 적용된 소스 도메인의 결함 데이터 및 제 1 마스크가 미적용된 소스 도메인의 결함 데이터를 복원알고리즘에 입력시키는 단계; 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 생성하도록 상기 복원알고리즘을 제 1 훈련시키는 단계; 제 2 마스크가 적용된 소스 도메인의 정상 데이터 및 제 2 마스크가 미적용된 소스 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키는 단계; 제 2 마스크가 복원된 소스 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 2 훈련시키는 단계; 제 2 마스크가 적용된 타겟 도메인의 정상 데이터 및 제 2 마스크가 미적용된 타겟 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키는 단계; 제 2 마스크가 복원된 타겟 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 3 훈련시키는 단계를 포함한다.
대안적으로, 마스크가 적용된 데이터로부터 마스크가 복원된 데이터를 생성하도록 최종 훈련된 복원알고리즘에 제 1 마스크가 적용된 타겟 도메인의 정상 데이터 입력시키는 단계; 및 타겟 도메인의 결함 데이터를 상기 최종 훈련된 복원 알고리즘을 이용하여 생성하는 단계;를 포함할 수 있다.
대안적으로, 결함 데이터 및 정상 데이터는 이미지 데이터인 것을 특징으로 할 수 있다.
대안적으로, 제 1 마스크는 결함 데이터의 결함 부분을 가리는 것을 특징으로 할 수 있고, 제 1 마스크와 제 2 마스크는 상이한 색상으로 구분되는 것을 특징으로 할 수 있다.
대안적으로, 제 1 마스크 및 제 2 마스크는 임의의 모양인 것을 특징으로 할 수 있다.
대안적으로, 소스 도메인 및 타겟 도메인은 상이한 패턴을 가지는 것을 특징으로 할 수 있다.
대안적으로, 상기 복원알고리즘은 생성 네트워크 및 식별 네트워크를 포함할 수 있고, 상기 제 1 훈련은 상기 생성 네트워크에 상기 제 1 마스크가 적용된 소스 도메인의 결함 데이터를 입력시키는 단계; 상기 생성 네트워크를 이용하여 상기 제 1 마스크가 적용된 소스 도메인의 결함 데이터로부터 상기 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 생성하는 단계; 상기 식별 네트워크에 상기 제 1 마스크가 미적용된 소스 도메인의 결함 데이터 및 상기 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 입력시키는 단계; 상기 식별 네트워크를 이용하여 상기 제 1 마스크가 미적용된 소스 도메인의 결함 데이터 및 상기 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 비교하여 구별 정보를 출력하는 단계; 상기 구별 정보에 기초하여 상기 생성 네트워크 및 상기 식별 네트워크를 학습시키는 단계; 및 학습된 상기 생성 네트워크를 이용하여 상기 제 1 마스크가 적용된 소스 도메인의 결함 데이터로부터 상기 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 재생성하는 단계;를 포함할 수 있다.
대안적으로, 상기 식별 네트워크에서 상기 마스크가 미적용된 데이터와 상기 마스크가 복원된 데이터를 비교하여 구별 정보를 출력하는 단계는, 마스크가 복원된 데이터 및 마스크가 미적용된 데이터를 일정한 크기의 이미지 패치로 나누어 이미지 패치 별로 비교하는 것을 특징으로 할 수 있다.
대안적으로, 상기 이미지 패치는 1 픽셀 크기인 것을 특징으로 할 수 있다.
대안적으로, 상기 구별 정보에 기초하여 상기 생성 네트워크 및 상기 식별 네트워크를 학습시키는 단계는 상기 구별 정보로부터 상기 복원알고리즘의 손실함수에 대한 값을 계산하는 단계를 포함할 수 있다.
대안적으로, 상기 생성 네트워크는 총 n 개의 레이어로 구성되고, 1 번째 레이어부터 n 번째 레이어까지 순차적으로 연결되고, 그리고 별도로 i 번째 레이어 (i>0, i<n/2)와 n-i+1 번째 레이어가 연결되는 것을 특징으로 할 수 있다.
본 개시의 다른 일 실시예에 따라 컴퓨팅 장치의 하나 이상의 프로세서에 의해 실행되는 복수의 명령들을 포함하는, 컴퓨터 판독가능 저장 매체(computer readable storage medium)에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은, 정상 데이터 및 비정상 데이터를 포함하는 훈련 데이터를 신경망의 입력 레이어에 입력시키도록 하는 명령제 1 마스크가 적용된 소스 도메인의 결함 데이터 및 제 1 마스크가 미적용된 소스 도메인의 결함 데이터를 복원알고리즘에 입력시키도록 하는 명령; 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 생성하도록 상기 복원알고리즘을 제 1 훈련시키는 명령; 제 2 마스크가 적용된 소스 도메인의 정상 데이터 및 제 2 마스크가 미적용된 소스 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키도록 하는 명령; 제 2 마스크가 복원된 소스 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 2 훈련시키는 명령; 제 2 마스크가 적용된 타겟 도메인의 정상 데이터 및 제 2 마스크가 미적용된 타겟 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키도록 하는 명령; 및 제 2 마스크가 복원된 타겟 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 3 훈련시키는 명령을 포함한다.
본 개시의 다른 일 실시예에 따라 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하기 위한 컴퓨팅 장치가 개시된다. 상기 컴퓨팅 장치는, 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에서 실행가능한 명령들을 저장하는 메모리를 포함하고, 상기 하나 이상의 프로세서는, 제 1 마스크가 적용된 소스 도메인의 결함 데이터 및 제 1 마스크가 미적용된 소스 도메인의 결함 데이터를 복원알고리즘에 입력하고, 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 생성하도록 상기 복원알고리즘을 제 1 훈련시키고, 제 2 마스크가 적용된 소스 도메인의 정상 데이터 및 제 2 마스크가 미적용된 소스 도메인의 정상 데이터를 상기 복원알고리즘에 입력하고, 제 2 마스크가 복원된 소스 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 2 훈련시키고, 제 2 마스크가 적용된 타겟 도메인의 정상 데이터 및 제 2 마스크가 미적용된 타겟 도메인의 정상 데이터를 상기 복원알고리즘에 입력하고, 그리고 제 2 마스크가 복원된 타겟 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 3 훈련시킬 수 있다.
본 개시는 훈련 데이터를 생성하는 방법을 제공할 수 있다.
상기 언급된 본 발명 내용의 특징들이 상세하게, 보다 구체화된 설명으로, 이하의 실시예들을 참조하여 이해될 수 있도록, 실시예들 중 일부는 첨부되는 도면에서 도시된다. 또한, 도면과의 유사한 참조번호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭하는 것으로 의도된다. 그러나, 첨부된 도면들은 단지 본 발명 내용의 특정한 전형적인 실시예들만을 도시하는 것일 뿐, 본 개시의 범위를 한정하는 것으로 고려되지는 않으며, 동일한 효과를 갖는 다른 실시예들이 충분히 인식될 수 있다는 점을 유의하도록 한다.
도 1 은 본 개시의 일 실시예에 따라 컴퓨팅 장치의 블록 구성도를 도시한다.
도 2a 내지 2c 는 본 개시의 일 실시예에 따라 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 복원알고리즘의 훈련 시 입출력을 나타낸 도면이다.
도 3 는 본 개시의 일 실시예에 따라 훈련된 복원알고리즘을 이용하여 타겟 도메인의 결함 데이터 생성 시 입출력을 나타낸 도면이다.
도 4 내지 도 5 는 본 개시의 일 실시예에 따라 복원알고리즘을 제 1 훈련 시키는 방법을 나타낸 도면이다.
도 6 는 본 개시의 일 실시예에 따라 복원알고리즘 내 생성 네트워크를 나타낸 개략도이다.
도 7 은 본 개시의 일 실시예에 따른 이미지 패치의 예시도이다.
도 8 은 본 개시의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다. 다른 예들에서, 공지된 구조 및 장치들은 실시예들의 설명을 용이하게 하기 위해서 블록 다이어그램 형태로 제공된다.
본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있고, 일 컴포넌트는 하나의 컴퓨터 내에 로컬화될 수 있고, 또는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.
더불어, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에,본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.
제시된 실시예들에 대한 설명은 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.
도 1 은 본 개시의 일 실시예에 따라 컴퓨팅 장치의 블록 구성도를 도시한다.
본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 프로세서(110) 및 메모리(120)를 포함할 수 있다. 도 1 에 도시된 블록 구성도는 컴퓨팅 장치를 간소화한 구성으로 표현한 것으로서, 본 개시는 이에 제한되지 않고, 구동에 필요한 추가적인 구성 요소들을 포함할 수 있다.
프로세서(110)는 하나 이상으로 구성될 수 있으며, 컴퓨팅 장치의 중앙 처리 장치(CPU)를 포함할 수 있다. 프로세서(110)는 메모리(120)에 저장된 컴퓨터 프로그램을 판독하여 본 개시의 일 실시예에 따른 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법을 수행할 수 있다.
본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 제 1 마스크가 적용된 소스 도메인의 결함 데이터 및 제 1 마스크가 미적용된 소스 도메인의 결함 데이터를 복원알고리즘에 입력하고, 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 생성하도록 복원알고리즘을 제 1 훈련시키고, 제 2 마스크가 적용된 소스 도메인의 정상 데이터 및 제 2 마스크가 미적용된 소스 도메인의 정상 데이터를 복원알고리즘에 입력하고, 제 2 마스크가 복원된 소스 도메인의 정상 데이터를 생성하도록 복원알고리즘을 제 2 훈련시키고, 제 2 마스크가 적용된 타겟 도메인의 정상 데이터 및 제 2 마스크가 미적용된 타겟 도메인의 정상 데이터를 복원알고리즘에 입력하고, 그리고 제 2 마스크가 복원된 타겟 도메인의 정상 데이터를 생성하도록 복원알고리즘을 제 3 훈련시킬 수 있다.
본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 마스크가 적용된 데이터로부터 마스크가 복원된 데이터를 생성하도록 최종 훈련된 복원알고리즘에 제 1 마스크가 적용된 타겟 도메인의 정상 데이터 입력시키고, 타겟 도메인의 결함 데이터를 상기 최종 훈련된 복원 알고리즘을 이용하여 생성할 수 있다.
메모리(120)는 본 개시의 일 실시예에 따른 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법을 수행하기 위한 컴퓨터 프로그램을 저장할 수 있으며, 저장된 컴퓨터 프로그램은 프로세서(110), GPU 등에 의하여 판독되어 구동될 수 있다. 상기 컴퓨터 프로그램은 제 1 마스크가 적용된 소스 도메인의 결함 데이터 및 제 1 마스크가 미적용된 소스 도메인의 결함 데이터를 복원알고리즘에 입력시키도록 하는 명령, 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 생성하도록 상기 복원알고리즘을 제 1 훈련시키는 명령, 제 2 마스크가 적용된 소스 도메인의 정상 데이터 및 제 2 마스크가 미적용된 소스 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키도록 하는 명령, 제 2 마스크가 복원된 소스 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 2 훈련시키는 명령, 제 2 마스크가 적용된 타겟 도메인의 정상 데이터 및 제 2 마스크가 미적용된 타겟 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키도록 하는 명령, 및 제 2 마스크가 복원된 타겟 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 3 훈련시키는 명령을 포함할 수 있다.
이하 도면들을 참조하는 설명에서, 본 개시의 일 실시예에 따라 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법에 관해 구체적으로 개시한다.
도 2a 내지 도 2c 는 본 개시의 일 실시예에 따라 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 복원알고리즘의 훈련 시 입출력을 나타낸 도면이다.
본 개시의 실시예들에 따른 복원알고리즘(200)은 이미지 복원알고리즘일 수 있다. 여기서 이미지 복원알고리즘은, 예를 들어 Variational Autoencoder (VAE), Generative Model 등을 포함할 수 있고, 구체적으로, Generative Adversarial Networks, conditional Generative Adversarial Networks 등을 포함할 수 있다. 상기 이미지 복원알고리즘은 예시일뿐, 본 개시의 권리 범위는 이에 제한되지 않는다.
본 개시의 실시예들에서, 도메인은 일정 소재 또는 물품일 수 있고, 일정 소재 또는 물품 상의 특정 패턴일 수 있다. 소재는, 예를 들어, 섬유, 가죽, 금속, 유리, 플라스틱, 나무 등일 수 있다. 물품은, 예를 들어, 의류, 렌즈, 가구 등일 수 있다. 패턴은, 예를 들어, 줄무늬, 꽃무늬, 도트(dot)무늬 등일 수 있다. 본 개시의 권리 범위는 위 예시들에 제한되지 않는다.
본 개시의 실시예들에서, 소스 도메인은 결함 데이터(213)를 가지고 있는 패턴을 의미하고, 타겟 도메인은 소스 도메인의 결함 데이터(213)를 이용하여 결함 데이터를 생성하고자 하는 패턴을 의미한다. 소스 도메인 및 타겟 도메인은 서로 상이한 패턴을 가질 수 있다. 예를 들어, 도 2 에서 소스 도메인은 줄무늬이고 타겟 도메인은 도트무늬로서, 결함(214)을 갖고 있는 소스 도메인의 결함 데이터(213)로부터 타겟 도메인의 결함 데이터(305)(도 3 참조)를 생성할 수 있다. 도 2 에 도시된 소스 도메인 및 타겟 도메인은 예시일 뿐이며, 본 개시의 권리 범위는 이에 제한되지 않는다.
본 개시의 실시예들에서, 데이터는 이미지 데이터일 수 있다. 이미지 데이터는 소스 도메인 또는 타겟 도메인 상에서, 결함을 포함한 결함 이미지 데이터 또는 결함을 미포함한 정상 이미지 데이터일 수 있다. 이미지는 3D이미지, 흑백 이미지, 적외선 이미지, 전자 이미지 등 일 수 있고, 필름 카메라, 디지털 카메라, 현미경, 확대경, 적외선 카메라, 자외선(UV) 카메라, X-Ray, 자기 공명 영상 장치 및 임의의 이미지 획득 장치 등을 통해 획득할 수 있다. 이미지 데이터는 압축 데이터, RAW 이미지, 이미지 데이터 파일일 수 있다. 이미지 데이터 형식은 jpg, png, tif, psd, Ai 등을 포함할 수 있다. 전술한 내용은 예시일 뿐, 본 개시의 권리 범위는 이에 제한되지 않는다.
본 개시의 실시예들에서, 결함 데이터(213)는 결함(214)이 포함된 데이터를 의미하고 정상 데이터(223, 233)는 결함이 미포함된 데이터를 의미한다. 여기서 결함은 공정상의 찢어짐, 마모, 눌림 등으로 인하여 생성되는 비정상 패턴을 포함할 수 있으며, 본 개시의 권리 범위는 이에 제한되지 않는다.
본 개시의 실시예들에서, 마스크는 제 1 마스크(212) 및 제 2 마스크(222)를 포함할 수 있으며, 제 1 마스크(212)는 결함 데이터(213)의 결함(214)을 가릴 수 있다. 제 1 마스크(212)와 제 2 마스크(222)는 상이한 색상으로 구분될 수 있다. 마스크는 임의의 모양일 수 있다. 마스크는 인간에 의해 수작업으로 적용되거나, 임의의 프로그램에 의해 자동으로 적용될 수 있으며, 본 개시의 권리 범위는 이에 제한되지 않는다.
본 개시의 실시예에 따른 복원알고리즘(200)의 훈련은 하기에 설명되는 훈련들을 적어도 하나 포함할 수 있다.
상기 훈련은, 복원알고리즘(200)으로 하여금 입력 데이터에 기초하여 데이터를 복원하도록 복원알고리즘(200)을 학습시키는 과정일 수 있다. 구체적으로, 상기 훈련은, 복원알고리즘(200)이 마스크가 적용된 데이터 및 마스크가 미적용된 데이터를 입력받는 경우, 복원알고리즘(200)이 마스크가 복원된 데이터를 출력하도록 복원알고리즘(200)을 학습시키는 과정일 수 있다. 복원알고리즘(200)의 학습은, 입력 데이터를 기반으로 출력값과 목표값과의 오차값을 최소화하도록 회귀식을 생성하는 것일 수 있다. 복원알고리즘(200)의 학습은, 복원알고리즘(200)에 포함되는 적어도 하나의 변수의 값을 조정하는 것일 수 있다. 복원알고리즘(200)이 학습됨으로써 복원알고리즘(200)의 데이터 복원율이 향상될 수 있다. 데이터 복원율은, 예를 들어, 이미지 데이터에 있어 선명도 증가율, 입력 이미지 데이터와의 일치율일 수 있다. 최종 훈련된 복원알고리즘은 입력 데이터에 기초하여 사용자가 요구하는 방향으로 데이터를 복원할 수 있다. 구체적으로, 최종 훈련된 복원 알고리즘은 제 1 마스크가 적용된 타겟 도메인의 정상 데이터를 입력받는 경우, 타겟 도메인의 결함 데이터를 출력할 수 있다. 상기 복원알고리즘(200)의 훈련은 컴퓨팅 장치(100)에 의해 수행될 수 있다. 전술한 내용은 예시일 뿐, 본 개시의 권리 범위는 이에 제한되지 않는다.
도 2a 는 본 개시의 일 실시예에 따른 복원알고리즘(200)의 제 1 훈련 시 입출력을 나타낸 도면이다.
본 개시의 일 실시예에 따른 제 1 훈련에서, 컴퓨팅 장치(100)는 복원알고리즘(200)에 제 1 마스크(212)가 적용된 소스 도메인의 결함 데이터(211) 및 제 1 마스크(212)가 미적용된 소스 도메인의 결함 데이터(213)를 입력시킬 수 있다. 컴퓨팅 장치(100)는 복원알고리즘(200)을 이용하여 제 1 마스크(212)가 복원(216)된 소스 도메인의 결함 데이터(215)를 생성할 수 있다. 여기서 제 1 마스크는 결함의 종류에 따라 색상이 상이할 수 있다. 즉 본 개시의 일 실시예에서 마스크는 결함 데이터를 마스킹하는 마스크와 정상 데이터를 마스킹하는 마스크를 포함할 수 있으며, 결함 데이터를 마스킹하는 마스크와 정상 데이터를 마스킹하는 데이터는 식별되는 특징(예를 들어, 색상, 무늬 등)을 가질 수 있다. 또한 결함 데이터를 마스킹하는 마스크는 마스킹하는 결함의 종류에 따라 식별되는 특징(예를 들어, 색상, 무늬 등)을 가질 수 있다. 예를 들어, 가죽의 찍힘 결함과 이염 결함은 서로 상이한 색상의 마스크로 마스킹 될 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
도 2b 는 본 개시의 일 실시예에 따른 복원알고리즘(200)의 제 2 훈련 시 입출력을 나타낸 도면이다.
본 개시의 일 실시예에 따른 제 2 훈련에서, 컴퓨팅 장치(100)는 복원알고리즘(200)에 제 2 마스크(222)가 적용된 소스 도메인의 정상 데이터(221) 및 제 2 마스크(222)가 미적용된 소스 도메인의 정상 데이터(223)를 입력시킬 수 있다. 컴퓨팅 장치(100)는 복원알고리즘(200)을 이용하여 제 2 마스크(222)가 복원(226)된 소스 도메인의 정상 데이터(225)를 생성할 수 있다.
도 2c 는 본 개시의 일 실시예에 따른 복원알고리즘(200)의 제 3 훈련 시 입출력을 나타낸 도면이다.
본 개시의 일 실시예에 따른 제 3 훈련에서, 컴퓨팅 장치(100)는 복원알고리즘(200)에 제 2 마스크(222)가 적용된 타겟 도메인의 정상 데이터(231) 및 제 2 마스크(222)가 미적용된 타겟 도메인의 정상 데이터(233)를 입력시킬 수 있다. 컴퓨팅 장치(100)는 복원알고리즘(200)을 이용하여 제 2 마스크(222)가 복원(236)된 타겟 도메인의 정상 데이터(235)를 생성할 수 있다.
본 개시의 제 1, 2 및 제 3 훈련은 전체 이미지를 일정한 크기로 나눈 패치를 입력으로 하여 수행될 수 있고, 이미지에서 결함에 해당하는 부분에서 추출된 패치를 입력으로 하여 수행될 수 있다.
도 3 는 본 개시의 일 실시예에 따라 훈련된 복원알고리즘을 이용하여 타겟 도메인의 결함 데이터 생성 시 입출력을 나타낸 도면이다.
본 개시의 일 실시예에 따라 마스크가 적용된 데이터로부터 마스크가 복원된 데이터를 생성하도록 최종 훈련된 복원알고리즘(300)이 제 1 마스크(212)가 적용된 타겟 도메인의 정상 데이터(301)를 입력 받으면, 타겟 도메인의 결함 데이터(305)를 생성할 수 있다. 구체적으로, 타겟 도메인의 제 1 마스크가 복원(306)되면서, 소스 도메인의 결함 데이터(213)(도 2 참조)의 결함(214)이 타겟 도메인 위에 생성되어 타겟 도메인의 결함 데이터(305)를 생성할 수 있다. 전술한 내용은 예시일 뿐, 본 개시의 권리 범위는 이에 제한되지 않는다.
도 4 내지 도 5 는 본 개시의 일 실시예에 따라 복원알고리즘을 제 1 훈련 시키는 방법을 나타낸 도면이다.
도 4 은 본 개시의 일 실시예에 따라 복원알고리즘을 제 1 훈련 시키는 방법의 순서도이다.
도 5 는 본 개시의 일 실시예에 따라 제 1 훈련을 수행하는 복원알고리즘의 예시도이다.
본 개시의 일 실시예에 따른 복원알고리즘(500)은 생성 네트워크(510) 및 식별 네트워크(520)를 포함할 수 있다. 네트워크는 일반적으로 "노드"라 지칭될 수 있는 상호연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 "노드"들은 "뉴런(neuroun)"들로 지칭될 수 도 있다. 네트워크는 적어도 둘 이상의 노드들을 포함하여 구성된다. 네트워크들을 구성하는 노드(또는 뉴런)들은 하나 이상의 "링크"에 의해 상호 연결될 수 있다.
네트워크 내에서, 링크를 통해 연결된 둘 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 전술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호연결하는 노드는 가중치를 가질 수 있다. 가중치는 가변적일 수 있으며, 네트워크가 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.
전술한 바와 같이, 네트워크는 둘 이상의 노드들이 하나 이상의 링크를 통해 상호연결 되어 네트워크 내에서 입력 노드 및 출력 노드 관계를 형성한다. 네트워크 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 네트워크의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들 사이의 가중치 값이 상이한 두 네트워크가 존재하는 경우, 두 개의 네트워크들은 서로 상이한 것으로 인식될 수 있다.
네트워크는 둘 이상의 노드들을 포함하여 구성될 수 있다. 네트워크를 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다, 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 네트워크 내에서 레이어의 차수는 전술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.
최초 입력 노드는 네트워크 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 네트워크 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 네트워크를 구성하는 노드들을 의미할 수 있다. 본 개시의 일 실시예에 따른 네트워크는 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 네트워크일 수 있다.
본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 생성 네트워크(510)에 제 1 마스크가 적용된 소스 도메인의 결함 데이터(211)를 입력시킬 수 있다(S310). 본 개시의 일 실시예에서 컴퓨팅 장치(100)는 결함 데이터가 이미지 데이터인 경우 이미지 전체에서 추출된 패치를 생성 네트워크(510)에 입력시켜 훈련 과정을 진행할 수도 있고, 이미지의 결함 부분에서 추출된 패치를 생성 네트워크(510)에 입력시켜 훈련 과정을 진행할 수도 있다. 여기서 마스크는 결함의 종류에 따라 색상이 상이할 수 있다. 즉 본 개시의 일 실시예에서 마스크는 결함 데이터를 마스킹하는 마스크와 정상 데이터를 마스킹하는 마스크를 포함할 수 있으며, 결함 데이터를 마스킹하는 마스크와 정상 데이터를 마스킹하는 데이터는 식별되는 특징(예를 들어, 색상, 무늬 등)을 가질 수 있다. 또한 결함 데이터를 마스킹하는 마스크는 마스킹하는 결함의 종류에 따라 식별되는 특징(예를 들어, 색상, 무늬 등)을 가질 수 있다. 예를 들어, 가죽의 찍힘 결함과 이염 결함은 서로 상이한 색상의 마스크로 마스킹 될 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다. 생성 네트워크(510)는 컨볼루션 신경망(convolution neural network: CNN), 오토 인코더(auto encoder) 등으로 구성될 수 있으며, 본 개시는 이에 제한되지 않는다. 생성 네트워크(510)는 도 6에 예시로 도시되며, 본 개시는 도 6에 도시된 예시로 제한되지 않는다.
본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 생성 네트워크(510)를 이용하여 입력된 제 1 마스크가 적용된 소스 도메인의 결함 데이터(211)로부터 제 1 마스크가 복원된 소스 도메인의 결함 데이터(515)를 생성할 수 있다(S320). 생성 방법은 복원알고리즘 종류에 따라 상이하며, 예를 들어, 임의의 난수 분포 혹은 조건부의 난수 분포를 형성함으로써 생성할 수 있고, 본 개시의 권리 범위는 이에 제한되지 않는다.
본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 식별 네트워크(520)에 제 1 마스크가 미적용된 소스 도메인의 결함 데이터(213) 및 생성한 제 1 마스크가 복원된 소스 도메인의 결함 데이터(515)를 입력시킬 수 있다(S330).
본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 식별 네트워크(520)를 이용하여 입력된 제 1 마스크가 미적용된 소스 도메인의 결함 데이터(213) 및 생성한 제 1 마스크가 복원된 소스 도메인의 결함 데이터(515)를 비교하여 구별 정보(521)를 출력할 수 있다(S340). 여기서, 구별 정보(521)는 식별 네트워크가 제 1 마스크가 복원된 소스 도메인의 결함 데이터(515)를 제 1 마스크가 미적용된 소스 도메인의 결함 데이터(213)라고 인식할 확률값 또는 다수의 데이터를 비교하여 구분하는 임의의 정보일 수 있으며, 본 개시의 권리 범위는 이에 제한되지 않는다.
제 1 마스크가 미적용된 소스 도메인의 결함 데이터(213) 및 생성한 제 1 마스크가 복원된 소스 도메인의 결함 데이터(515)를 비교하여 구별 정보를 출력하는 단계에서, 마스크가 복원된 데이터 및 마스크가 미적용된 데이터를 일정한 크기의 이미지 패치로 나누어 이미지 패치 별로 비교할 수 있다. 상기 단계는 이미지 생성 시 고주파 정보를 강화하는 효과를 가진다. 여기서 이미지 패치는 N 픽셀 x N 픽셀 크기일 수 있고, 1 픽셀 크기일 수 있다. 식별 네트워크(520)는 각 이미지 패치 별로 제 1 마스크가 미적용된 소스 도메인의 결함 데이터(213) 및 생성한 제 1 마스크가 복원된 소스 도메인의 결함 데이터(515)를 비교한 이미지 패치 별 응답값들을 종합하여 최종 구별 정보(521)를 출력할 수 있다. 이미지 패치는 도 7에 예시로 도시되며, 본 개시는 도 7에 도시된 예시로 제한되지 않는다.
제 1 마스크가 미적용된 소스 도메인의 결함 데이터(213) 및 생성한 제 1 마스크가 복원된 소스 도메인의 결함 데이터(515)의 비교는, 예를 들어, 제 1 마스크가 복원된 소스 도메인의 결함 데이터(515)와 제 1 마스크가 적용된 소스 도메인의 결함 데이터(211)를 비교하는 단계 및 제 1 마스크 미적용된 소스 도메인의 결함 데이터(213)와 제 1 마스크가 적용된 소스 도메인의 결함 데이터(211)를 비교하는 단계를 포함할 수 있다. 상기 비교 과정은 예시일 뿐이며, 본 개시의 권리 범위는 이에 제한되지 않는다.
본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 구별 정보(521)에 기초하여 생성 네트워크(510) 및 식별 네트워크(520)를 학습시킬 수 있다(S350). 구별 정보(521)에 기초하여 상기 생성 네트워크(510) 및 상기 식별 네트워크(520)를 학습시키는 단계는, 상기 구별 정보(521)로부터 복원알고리즘(500)의 손실함수에 대한 값을 계산하는 단계를 포함할 수 있다. 여기서, 손실함수는 학습을 통해 직접적으로 감소시키거나 증가시키고자 하는 값을 표현한 함수를 의미한다. 손실함수는 예를 들어, 하기와 같을 수 있다.
Figure PCTKR2018008619-appb-img-000001
상기 수식에서,
Figure PCTKR2018008619-appb-img-000002
는 제 1 마스크가 복원된 소스 도메인의 결함 데이터(515)와 제 1 마스크가 미적용된 소스 도메인의 결함 데이터(213)의 차이값을 손실함수에 반영하는 가중치를 의미한다. 상기 수식은 예시일 뿐이며, 본 개시의 권리 범위는 이에 제한되지 않는다.
네트워크의 학습에 대하여, 생성 네트워크(510)는 손실함수에 대한 값이 감소하도록 학습하고, 동시에, 식별 네트워크(520)는 손실함수에 대한 값이 증가하도록 학습할 수 있다. 학습은 backward propagation 을 통해 수행할 수 있으며, 제시된 학습 방법은 예시일 뿐, 본 개시의 권리 범위는 이에 제한되지 않는다.
본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 학습된 생성 네트워크를 이용하여 제 1 마스크가 적용된 소스 도메인의 결함 데이터로부터 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 재생성할 수 있다(S460). 재생성된 제 1 마스크가 복원된 소스 도메인의 결함 데이터는 식별 네트워크(520)를 이용하여 제 1 마스크가 미적용된 소스 도메인의 결함 데이터(213)와 비교하여 구별 정보를 출력함으로써 위 과정을 반복할 수 있다. 반복은, 생성 네트워크(510)가 손실함수에 대한 값을 최소화하도록 학습하고, 동시에, 식별 네트워크(520)가 손실함수에 대한 값을 최대화하도록 학습할 때까지 수행할 수 있으나, 상기 훈련 종료 조건은 예시일뿐, 본 개시는 이에 제한되지 않는다. 전술한 과정은 제 2 훈련 및 제 3 훈련 시 동일하게 적용될 수 있다.
도 6 는 본 개시의 일 실시예에 따라 복원알고리즘 내 생성 네트워크를 나타낸 개략도이다.
본 개시의 일 실시예에 따른 생성 네트워크(600)가 총 n 개의 레이어로 구성된 경우, 1 번째 레이어부터 n 번째 레이어까지 순차적으로 연결되고, 별도로 i 번째 레이어 (i>0, i<n/2)와 n-i+1 번째 레이어가 연결될 수 있다. 예를 들어, 도 6 의 생성 네트워크(600)는 총 7 개의 레이어로 구성되어 있고, 1 번째 레이어부터 7 번째 레이어까지 순차적으로 연결(610)되고, 별도로 1 번째 레이어와 7 번째 레이어, 2 번째 레이어와 6 번째 레이어, 그리고 3 번째 레이어와 6 번째 레이어가 연결(620)되어 있다. 상기 구조는 일반적인 순차적 정보 전달 경로와 별도로, 단축 경로를 추가로 구축함으로써 입력 데이터에 대한 정보의 희석을 방지하여 생성 이미지의 고해상도를 보장하는 효과를 갖는다. 도 6 에 도시된 생성 네트워크(600)는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다.
도 7 은 본 개시의 일 실시예에 따른 이미지 패치의 예시도이다.
본 개시의 일 실시예에 따라, 식별 네트워크에서 마스크가 미적용된 데이터와 마스크가 복원된 데이터(700)를 비교하여 구별 정보를 출력하는 단계에서, 마스크가 복원된 데이터(700) 및 마스크가 미적용된 데이터를 일정한 크기의 이미지 패치(710)로 나누어 이미지 패치(710) 별로 비교할 수 있다. 이미지 패치(710)는 N 픽셀 x N 픽셀 크기일 수 있고, 1 픽셀 크기일 수 있다. 본 개시의 이미지 패치는 데이터의 전부 또는 일부에서 추출될 수 있다. 예를 들어, 본 개시의 이미지 패치는 결함 데이터에서 결함 부분을 위주로 추출될 수 있다. 식별 네트워크는 각 이미지 패치 별로 제 1 마스크가 미적용된 소스 도메인의 결함 데이터(213) 및 생성한 제 1 마스크가 복원된 소스 도메인의 결함 데이터(515)를 비교한 이미지 패치 별 응답값들을 종합하여 최종 구별 정보를 출력할 수 있으며, 본 개시의 권리 범위는 이에 제한되지 않는다.
도 8 은 본 개시의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
본 개시가 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시가 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다는 것을 잘 알 것이다.
일반적으로, 프로그램 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.
본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘다에 위치할 수 있다.
컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤 것이든지 컴퓨터 판독가능 매체가 될 수 있고, 이러한 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.
컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.
컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.
시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(2110) 및 랜덤 액세스 메모리(RAM)(2112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(2110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(2112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.
컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(2114)(예를 들어, EIDE, SATA)?이 내장형 하드 디스크 드라이브(2114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음?, 자기 플로피 디스크 드라이브(FDD)(2116)(예를 들어, 이동식 디스켓(2118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(2114), 자기 디스크 드라이브(2116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.
이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.
운영 체제(2130), 하나 이상의 애플리케이션 프로그램(2132), 기타 프로그램 모듈(2134) 및 프로그램 데이터(2136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(2112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(2112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용 가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.
사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(2138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.
모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.
컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 컴퓨팅 디바이스 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.
LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 컴퓨팅 디바이스에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.
컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.
Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.
여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다.
제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.
제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.
상기와 같은 발명의 실시를 위한 최선의 형태에서 관련 내용을 기술하였다.
본 개시는 컴퓨팅 장치를 이용하여 이미지를 처리하는 분야에서 활용되는 인공 신경망의 훈련 데이터 생성에 사용될 수 있다.

Claims (13)

  1. 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법으로서,
    제 1 마스크가 적용된 소스 도메인의 결함 데이터 및 제 1 마스크가 미적용된 소스 도메인의 결함 데이터를 복원알고리즘에 입력시키는 단계;
    제 1 마스크가 복원된 소스 도메인의 결함 데이터를 생성하도록 상기 복원알고리즘을 제 1 훈련시키는 단계;
    제 2 마스크가 적용된 소스 도메인의 정상 데이터 및 제 2 마스크가 미적용된 소스 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키는 단계;
    제 2 마스크가 복원된 소스 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 2 훈련시키는 단계;
    제 2 마스크가 적용된 타겟 도메인의 정상 데이터 및 제 2 마스크가 미적용된 타겟 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키는 단계; 및
    제 2 마스크가 복원된 타겟 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 3 훈련시키는 단계;
    를 포함하는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법.
  2. 제 1 항에 있어서,
    마스크가 적용된 데이터로부터 마스크가 복원된 데이터를 생성하도록 최종 훈련된 복원알고리즘에 제 1 마스크가 적용된 타겟 도메인의 정상 데이터 입력시키는 단계; 및
    타겟 도메인의 결함 데이터를 상기 최종 훈련된 복원 알고리즘을 이용하여 생성하는 단계;
    를 더 포함하는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법.
  3. 제 1 항에 있어서,
    결함 데이터 및 정상 데이터는 이미지 데이터인 것을 특징으로 하는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법.
  4. 제 1 항에 있어서,
    제 1 마스크는 결함 데이터의 결함 부분을 가리는 것을 특징으로 하고,
    제 1 마스크와 제 2 마스크는 상이한 색상으로 구분되는 것을 특징으로 하는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법.
  5. 제 1 항에 있어서,
    제 1 마스크 및 제 2 마스크는 임의의 모양인 것을 특징으로 하는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법.
  6. 제 1 항에 있어서,
    소스 도메인 및 타겟 도메인은 상이한 패턴(모양)을 가지는 것을 특징으로 하는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법.
  7. 제 1 항에 있어서,
    상기 복원알고리즘은,
    생성 네트워크; 및
    식별 네트워크;
    를 포함하고,
    상기 제 1 훈련은,
    상기 생성 네트워크에 상기 제 1 마스크가 적용된 소스 도메인의 결함 데이터를 입력시키는 단계;
    상기 생성 네트워크를 이용하여 상기 제 1 마스크가 적용된 소스 도메인의 결함 데이터로부터 상기 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 생성하는 단계;
    상기 식별 네트워크에 상기 제 1 마스크가 미적용된 소스 도메인의 결함 데이터 및 상기 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 입력시키는 단계;
    상기 식별 네트워크를 이용하여 상기 제 1 마스크가 미적용된 소스 도메인의 결함 데이터 및 상기 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 비교하여 구별 정보를 출력하는 단계;
    상기 구별 정보에 기초하여 상기 생성 네트워크 및 상기 식별 네트워크를 학습시키는 단계; 및
    학습된 상기 생성 네트워크를 이용하여 상기 제 1 마스크가 적용된 소스 도메인의 결함 데이터로부터 상기 제 1 마스크가 복원된 소스 도메인의 결함 데이터를 재생성하는 단계;
    를 포함하는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법.
  8. 제 7 항에 있어서,
    상기 식별 네트워크에서 상기 마스크가 미적용된 데이터와 상기 마스크가 복원된 데이터를 비교하여 구별 정보를 출력하는 단계는,
    마스크가 복원된 데이터 및 마스크가 미적용된 데이터를 일정한 크기의 이미지 패치로 나누어 이미지 패치 별로 비교하는 것을 특징으로 하는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법.
  9. 제 8 항에 있어서,
    상기 이미지 패치는,
    1 픽셀 크기인 것을 특징으로 하는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법.
  10. 제 7 항에 있어서,
    상기 구별 정보에 기초하여 상기 생성 네트워크 및 상기 식별 네트워크를 학습시키는 단계는,
    상기 구별 정보로부터 상기 복원알고리즘의 손실함수에 대한 값을 계산하는 단계;
    를 포함하는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법.
  11. 제 7 항에 있어서,
    상기 생성 네트워크는,
    총 n 개의 레이어로 구성되고,
    1 번째 레이어부터 n 번째 레이어까지 순차적으로 연결되고, 그리고
    별도로 i 번째 레이어 (i>0, i<n/2)와 n-i+1 번째 레이어가 연결되는 것을 특징으로 하는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하는 방법.
  12. 컴퓨팅 장치의 하나 이상의 프로세서에 의해 실행되는 복수의 명령들을 포함하는, 컴퓨터 판독가능 저장 매체(computer readable storage medium)에 저장된 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램은,
    제 1 마스크가 적용된 소스 도메인의 결함 데이터 및 제 1 마스크가 미적용된 소스 도메인의 결함 데이터를 복원알고리즘에 입력시키도록 하는 명령;
    제 1 마스크가 복원된 소스 도메인의 결함 데이터를 생성하도록 상기 복원알고리즘을 제 1 훈련시키는 명령;
    제 2 마스크가 적용된 소스 도메인의 정상 데이터 및 제 2 마스크가 미적용된 소스 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키도록 하는 명령;
    제 2 마스크가 복원된 소스 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 2 훈련시키는 명령;
    제 2 마스크가 적용된 타겟 도메인의 정상 데이터 및 제 2 마스크가 미적용된 타겟 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키도록 하는 명령; 및
    제 2 마스크가 복원된 타겟 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 3 훈련시키는 명령;
    을 포함하는,
    컴퓨터 판독가능 저장 매체(computer readable storage medium)에 저장된 컴퓨터 프로그램.
  13. 소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하기 위한 컴퓨팅 장치로서,
    하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에서 실행가능한 명령들을 저장하는 메모리;
    를 포함하고,
    상기 하나 이상의 프로세서는,
    제 1 마스크가 적용된 소스 도메인의 결함 데이터 및 제 1 마스크가 미적용된 소스 도메인의 결함 데이터를 복원알고리즘에 입력시키고,
    제 1 마스크가 복원된 소스 도메인의 결함 데이터를 생성하도록 상기 복원알고리즘을 제 1 훈련시키고,
    제 2 마스크가 적용된 소스 도메인의 정상 데이터 및 제 2 마스크가 미적용된 소스 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키고,
    제 2 마스크가 복원된 소스 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 2 훈련시키고,
    제 2 마스크가 적용된 타겟 도메인의 정상 데이터 및 제 2 마스크가 미적용된 타겟 도메인의 정상 데이터를 상기 복원알고리즘에 입력시키고, 그리고
    제 2 마스크가 복원된 타겟 도메인의 정상 데이터를 생성하도록 상기 복원알고리즘을 제 3 훈련시키는,
    소스 도메인의 결함 데이터를 이용하여 타겟 도메인의 결함 데이터를 생성하기 위한 컴퓨팅 장치.
PCT/KR2018/008619 2017-08-24 2018-07-30 훈련 데이터를 생성하는 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램 WO2019039757A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/641,195 US11605003B2 (en) 2017-08-24 2018-07-30 Method and device for generating training data and computer program stored in computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0107502 2017-08-24
KR1020170107502A KR101992239B1 (ko) 2017-08-24 2017-08-24 훈련 데이터를 생성하는 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램

Publications (1)

Publication Number Publication Date
WO2019039757A1 true WO2019039757A1 (ko) 2019-02-28

Family

ID=65438913

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/008619 WO2019039757A1 (ko) 2017-08-24 2018-07-30 훈련 데이터를 생성하는 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램

Country Status (3)

Country Link
US (1) US11605003B2 (ko)
KR (1) KR101992239B1 (ko)
WO (1) WO2019039757A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115168847A (zh) * 2022-07-27 2022-10-11 中国电信股份有限公司 应用补丁生成方法、装置、计算机设备及可读存储介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021052321A (ja) * 2019-09-25 2021-04-01 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および画像処理システム
KR20210057518A (ko) * 2019-11-12 2021-05-21 라온피플 주식회사 불량 이미지 생성 장치 및 방법
KR102263716B1 (ko) * 2020-01-22 2021-06-10 라이트비전 주식회사 인공지능 기반 재료 결함 이미지 생성 방법 및 결함 검출시스템
KR102430090B1 (ko) * 2020-04-20 2022-08-11 세이지리서치 주식회사 사용자 입력에 기반하여 생성된 인공지능 모델을 이용하여 가상 결함 이미지를 생성하기 위한 컴퓨터 프로그램, 방법, 및 장치
US20220301118A1 (en) * 2020-05-13 2022-09-22 Google Llc Image replacement inpainting
KR102475851B1 (ko) * 2020-07-14 2022-12-09 한국생산기술연구원 입출력 데이터 생성 및 변형을 이용한 딥러닝 기반 제품 결함 검사 시스템 및 방법
KR102532031B1 (ko) * 2020-08-25 2023-05-15 한국과학기술연구원 작물 영상 기반 작물 생육 계측 시스템, 및 방법
KR102531368B1 (ko) * 2020-11-26 2023-05-12 주식회사 딥핑소스 원본 의료 이미지의 영역별로 서로 다른 컨실링 프로세스가 수행되도록 하여 원본 의료 이미지를 컨실링 처리하는 변조 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고 이를 이용한 학습 장치 및 테스트 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1114553A (ja) * 1997-06-23 1999-01-22 Omron Corp 視覚欠陥検査装置における欠陥サンプルデータ出力方法および装置
JP2001202265A (ja) * 1999-10-08 2001-07-27 General Electric Co <Ge> 学習能力のある診断システム
JP2005156334A (ja) * 2003-11-25 2005-06-16 Nec Tohoku Sangyo System Kk 疑似不良画像自動作成装置及び画像検査装置
JP2008139074A (ja) * 2006-11-30 2008-06-19 Rozefu Technol:Kk 画像の欠陥検出方法
KR101688458B1 (ko) * 2016-04-27 2016-12-23 디아이티 주식회사 깊은 신경망 학습 방법을 이용한 제조품용 영상 검사 장치 및 이를 이용한 제조품용 영상 검사 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466314B1 (en) * 1998-09-17 2002-10-15 Applied Materials, Inc. Reticle design inspection system
US8620078B1 (en) 2009-07-14 2013-12-31 Matrox Electronic Systems, Ltd. Determining a class associated with an image
TWI737659B (zh) * 2015-12-22 2021-09-01 以色列商應用材料以色列公司 半導體試樣的基於深度學習之檢查的方法及其系統
JP6705777B2 (ja) * 2017-07-10 2020-06-03 ファナック株式会社 機械学習装置、検査装置及び機械学習方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1114553A (ja) * 1997-06-23 1999-01-22 Omron Corp 視覚欠陥検査装置における欠陥サンプルデータ出力方法および装置
JP2001202265A (ja) * 1999-10-08 2001-07-27 General Electric Co <Ge> 学習能力のある診断システム
JP2005156334A (ja) * 2003-11-25 2005-06-16 Nec Tohoku Sangyo System Kk 疑似不良画像自動作成装置及び画像検査装置
JP2008139074A (ja) * 2006-11-30 2008-06-19 Rozefu Technol:Kk 画像の欠陥検出方法
KR101688458B1 (ko) * 2016-04-27 2016-12-23 디아이티 주식회사 깊은 신경망 학습 방법을 이용한 제조품용 영상 검사 장치 및 이를 이용한 제조품용 영상 검사 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115168847A (zh) * 2022-07-27 2022-10-11 中国电信股份有限公司 应用补丁生成方法、装置、计算机设备及可读存储介质

Also Published As

Publication number Publication date
US20200380373A1 (en) 2020-12-03
US11605003B2 (en) 2023-03-14
KR101992239B1 (ko) 2019-06-25
KR20190021967A (ko) 2019-03-06

Similar Documents

Publication Publication Date Title
WO2019039757A1 (ko) 훈련 데이터를 생성하는 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램
WO2019074195A1 (ko) 딥러닝 기반 이미지 비교 장치, 방법 및 컴퓨터 판독가능매체에 저장된 컴퓨터 프로그램
WO2019027208A1 (ko) 인공 신경망의 훈련 방법
WO2020005049A1 (ko) 인공 신경망의 학습 방법
WO2022055100A1 (ko) 이상 탐지 방법 및 이를 위한 장치
EP3461290A1 (en) Learning model for salient facial region detection
WO2021054706A1 (en) Teaching gan (generative adversarial networks) to generate per-pixel annotation
WO2022005091A1 (ko) 골 연령 판독 방법 및 장치
WO2024085366A1 (ko) 가상 카메라를 이용한 카메라 움직임 구현 방법
WO2020004815A1 (ko) 데이터의 어노말리 감지 방법
WO2022149696A1 (ko) 딥러닝 모델을 사용한 분류 방법
WO2020032420A1 (en) Method for training and testing data embedding network to generate marked data by integrating original data with mark data, and training device and testing device using the same
WO2020111754A9 (ko) 세미 슈퍼바이즈드 학습을 이용한 진단 시스템 제공방법 및 이를 이용하는 진단 시스템
KR20190065989A (ko) 훈련 데이터를 생성하는 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램
WO2022119162A1 (ko) 의료 영상 기반의 질환 예측 방법
WO2022075678A2 (ko) 의사 정상 데이터를 이용한 자가 감독 학습 기반의 차량 이상징후 탐지 장치 및 방법
WO2024080791A1 (ko) 데이터셋을 생성하기 위한 방법
WO2024143909A1 (ko) 각도 변화를 고려하여 이미지를 단계적으로 변환하는 방법
WO2024058465A1 (ko) 연합 학습을 위한 지역 신경망 모델 학습 방법
WO2021040345A1 (ko) 전자 장치 및 전자 장치의 제어 방법
EP3803797A1 (en) Methods and systems for performing editing operations on media
WO2019039758A1 (ko) 개선된 뉴럴 네트워크를 생성하고 학습시키기 위한 방법
WO2023008811A2 (ko) 신경망 모델을 이용한 마스크 착용 얼굴 이미지 복원 방법
WO2020251172A1 (ko) 데이터 생성 방법
WO2019208869A1 (ko) 학습을 이용한 얼굴 특징점 검출 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18847731

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18847731

Country of ref document: EP

Kind code of ref document: A1