KR20230030259A - Deep learning-based data augmentation method for product defect detection learning - Google Patents

Deep learning-based data augmentation method for product defect detection learning Download PDF

Info

Publication number
KR20230030259A
KR20230030259A KR1020210112271A KR20210112271A KR20230030259A KR 20230030259 A KR20230030259 A KR 20230030259A KR 1020210112271 A KR1020210112271 A KR 1020210112271A KR 20210112271 A KR20210112271 A KR 20210112271A KR 20230030259 A KR20230030259 A KR 20230030259A
Authority
KR
South Korea
Prior art keywords
defect
image
learning
background
segmentation
Prior art date
Application number
KR1020210112271A
Other languages
Korean (ko)
Other versions
KR102600475B1 (en
Inventor
김태형
Original Assignee
금오공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 금오공과대학교 산학협력단 filed Critical 금오공과대학교 산학협력단
Priority to KR1020210112271A priority Critical patent/KR102600475B1/en
Publication of KR20230030259A publication Critical patent/KR20230030259A/en
Application granted granted Critical
Publication of KR102600475B1 publication Critical patent/KR102600475B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a deep learning-based data augmentation method for product defect detection learning, which can generate large amounts of defect data. According to the present invention, the deep learning-based data augmentation method for product defect detection learning comprises: a first step of labeling a small amount of given training data while generating a segmentation map of a defective object to remove the background along with a bounding box used for object detection; a second step of using a cropped image of the bounding box area of each object and a manually labeled defect object segmentation map to train a semantic segmentation model, and applying the semantic segmentation network to a bounding box area object image without a segmentation label when training of the semantic segmentation network is completed, thereby acquiring a segmentation map capable of segmenting the defective object; a third step of removing the background from the bounding box area image of each defect object with the segmentation map acquired in the first and second steps to generate a background-free defect image and then inputting the background-free defect image into a generative adversarial network (GAN)-based data generation model to learn the distribution of defect data; and a fourth step of inputting the generated defective object into a trained background color or density classification model to calculate the background color or density suitable for the generated object and pasting the generated defect object into the defect-free image data to generate a defect image.

Description

제품 결함 검출 학습을 위한 딥러닝 기반 데이터 증강 방법{Deep learning-based data augmentation method for product defect detection learning}Deep learning-based data augmentation method for product defect detection learning}

본 발명은 데이터 증강 방법에 관한 것으로서 더 상세하게는 의미 분할 및 GAN(Generative Adversarial Networks) 기반 객체 탐지 학습 데이터 증강 방법에 관한 것이다.The present invention relates to a method for augmenting data, and more particularly, to a method for augmenting object detection learning data based on semantic segmentation and generative adversarial networks (GAN).

최근 딥러닝 기술은 비약적인 발전을 거듭하면서 몇몇 분야에서 인간의 능력을 넘어서는 등 놀라운 성과를 보여주고 있다. 그러나 딥러닝 기술은 아직 많은 학습 데이터를 요구한다는 단점도 가지고 있다. 이러한 문제를 극복하기 위해 적은 데이터 환경에서 학습을 수행하는 기법인 few-shot 학습에 관한 다양한 연구가 이루어지고 있다. 데이터가 부족할 때 가장 손쉽게 사용할 수 있는 방법은 데이터 증강(data augmentation)이다. 이미지 데이터에 대한 학습의 경우, 이미지 회전이나 크롭(crop)과 같은 공간 수준 증강이나 밝기나 대비 등을 조정하는 픽셀 수준 증강이 통상적으로 사용되며 대개 딥러닝 플랫폼에 내장되어 학습 과정에서 자동으로 수행된다. Recently, deep learning technology has made remarkable progress, surpassing human capabilities in several fields. However, deep learning technology still has the disadvantage of requiring a lot of training data. To overcome these problems, various studies on few-shot learning, which is a technique for performing learning in a small data environment, are being conducted. The easiest method to use when data is scarce is data augmentation. In the case of learning on image data, spatial level augmentation such as image rotation or cropping, or pixel level augmentation that adjusts brightness or contrast, etc. is commonly used, and is usually built into deep learning platforms and automatically performed during the learning process. .

또한, 이러한 증강 기법은 모양이 다른 새로운 데이터를 생성할 수 없어서 GAN(Generative Adversarial Networks) 등의 생성 모델을 통해 학습데이터의 분포를 학습하여 분포 내의 새로운 데이터를 생성하는 방법도 제안되고 있다. 그러나, 이때도 학습데이터가 배경을 가지는 경우, 생성 데이터의 배경을 처리하는 문제 또는 지도학습을 위해 생성 데이터에 라벨(정답)을 붙이는 문제 등을 추가로 해결해야 한다. In addition, since this augmentation technique cannot generate new data with different shapes, a method of generating new data within the distribution by learning the distribution of training data through a generative model such as Generative Adversarial Networks (GAN) has also been proposed. However, even at this time, when the learning data has a background, it is necessary to additionally solve the problem of processing the background of the generated data or the problem of attaching a label (correct answer) to the generated data for supervised learning.

제조 현장에서 제품의 결함 데이터를 체계적으로 수집하고 라벨링하는(라벨을 붙이는) 작업은 비용이 많이 들기 때문에, 학습에 충분한 데이터를 확보하기 어려운 경우가 많다. 이에 따라 학습데이터를 확보하기 위해 이미지 편집 프로그램을 통해 수작업으로 결함 데이터를 만들기도 하고 가상 결함을 만드는 프로그램을 작성해서 사용하기도 하는데 수작업이나 프로그램 작업으로 인한 비용문제 등이 발생하게 된다.Systematically collecting and labeling (labeling) product defect data at manufacturing sites is expensive, so it is often difficult to obtain enough data for learning. Accordingly, in order to secure learning data, defect data may be manually created through an image editing program or a program for creating virtual defects may be created and used.

즉, 딥러닝을 통한 비전 검사 시스템에서 우수한 성능을 얻기 위해서는 충분한 양의 결함 데이터를 확보하는 것이 필수적이나 제조 현장에서 제품의 결함 데이터를 체계적으로 수집하고 라벨링하는 작업은 비용이 많이 들기 때문에, 학습에 필요한 데이터를 효과적으로 확보할 수 있는 방안이 요구된다. In other words, it is essential to secure a sufficient amount of defect data in order to obtain excellent performance in a vision inspection system using deep learning. A method to effectively secure the necessary data is required.

Shorten, C., Khoshgoftaar, T.M. A survey on Image Data Augmentation for Deep Learning.J Big Data 6, 60 (2019).Shorten, C., Khoshgoftaar, T.M. A survey on Image Data Augmentation for Deep Learning.J Big Data 6, 60 (2019).

본 발명은 상기와 같은 기술적 과제를 해결하기 위해 제안된 것으로, 딥러닝 기술을 이용해 소량의 결함 데이터가 존재할 때 최소한의 수작업을 기반으로 대량의 결함 데이터를 생성할 수 있는 딥러닝 기반 데이터 증강 방법을 제공한다.The present invention has been proposed to solve the above technical problems, and provides a deep learning-based data augmentation method capable of generating a large amount of defect data based on minimal manual work when a small amount of defect data exists using deep learning technology. to provide.

상기 문제점을 해결하기 위한 본 발명의 일 실시예에 따르면, 객체 탐지에 사용되는 경계상자(bounding box)와 함께 배경 제거를 위해 결함 객체의 분할 맵도 같이 생성하면서 주어진 소량의 학습데이터의 라벨링을 수행하는 제1 단계와, 각 객체의 경계상자 영역을 잘라낸 이미지와 수작업으로 라벨링한 결함 객체 분할 맵을 이용해 의미 분할 모델을 학습하되, 의미 분할 네트워크의 학습이 완료되면 이를 분할 라벨이 없는 경계상자 영역 객체 이미지에 적용하여 결함 객체를 분할할 수 있는 분할 맵을 얻는 제2 단계와, 각 결함 객체의 경계상자 영역 이미지에서 제1 단계와 제2 단계에서 얻어진 분할 맵을 이용해 배경을 제거하여 배경이 없는 결함 이미지를 생성하고, 이를 GAN(Generative Adversarial Networks) 기반 데이터 생성 모델에 입력하여 결함 데이터의 분포를 학습하는 제3 단계와, GAN 기반 데이터 생성 모델을 이용해 생성된 결함 객체를 학습된 배경 색상 또는 농도 분류 모델에 입력하여 생성 객체에 어울리는 배경 색상(컬러 이미지의 경우) 또는 농도(흑백 이미지의 경우)를 산출한 후, 생성된 결함 객체를 결함이 없는 이미지 데이터에 붙여넣어서 결함 이미지를 생성하는 제4 단계를 포함하는 제품 결함 검출 학습을 위한 딥러닝 기반 데이터 증강 방법이 제공된다.According to an embodiment of the present invention for solving the above problem, labeling of a given small amount of training data is performed while creating a segmentation map of a defective object for background removal along with a bounding box used for object detection. In the first step, the semantic segmentation model is learned using the image of the bounding box area of each object cut out and the manually labeled defective object segmentation map. The second step is to obtain a segmentation map that can be applied to the image to segment the defect object, and the background is removed by using the segmentation map obtained in the first and second stages in the bounding box area image of each defect object to obtain a defect without a background. A third step of generating an image and inputting it to a Generative Adversarial Networks (GAN)-based data generation model to learn the distribution of defect data, and classifying the defect object created using the GAN-based data generation model as the learned background color or density. The fourth step of creating a defect image by inputting it into the model to calculate the background color (in case of color image) or density (in case of black and white image) suitable for the created object, and then pasting the created defect object to image data without defects. There is provided a deep learning-based data augmentation method for product defect detection learning that includes.

또한, 본 발명의 다른 실시예에 따르면, 전체 데이터에서 결함 이미지와 정상 이미지를 분리하는 제1 단계와, 결함 이미지 내의 각 결함에 대해 결함의 종류와 부위(경계상자)를 표시하는 제2 단계와, 결함 이미지에서 결함이 위치한 부위를 잘라내어 결함 부위 이미지로 저장하는 제3 단계와, 결함 부위 이미지들 중 일부를 선택해 결함 분할 이미지로 표시하는 제4 단계와, 결함 부위 이미지와 결함 분할 이미지를 이용해 결함분할 모델을 학습하는 제5 단계와, 결함 영역 미 표시 결함 부위 이미지를 학습된 결함분할 모델에 넣어 결함 분할 이미지를 추출하는 제6 단계와, 제3 단계 내지 제6 단계를 통해 얻어진 결함 부위 이미지 및 결함 영역을 이용해 결함생성 모델을 학습하는 제7 단계와, 학습된 결함생성 모델을 통해 임의의 결함을 원하는 수만큼 생성하는 제8 단계와, 제3 단계 내지 제6 단계를 통해 얻어진 결함 부위 이미지 및 결함 영역을 이용해 결함 별 배경 평균색상 또는 농도를 도출하는 제9 단계와, 결함 영역과 배경 평균 색상 또는 농도를 이용해 배경색상 또는 농도 분류 모델을 학습하는 제10 단계와, 제8 단계에서 생성된 결함 하나를 학습된 배경 색상 또는 농도 분류 모델에 넣어 적정 색상 또는 농도 범위를 도출하는 제11 단계와, 제11 단계의 결함에 대해 정상 이미지를 가져와 적정 색상 또는 농도 범위를 가진 위치에 붙여 넣는 제12 단계를 포함하는 제품 결함 검출 학습을 위한 딥러닝 기반 데이터 증강 방법이 제공된다.In addition, according to another embodiment of the present invention, a first step of separating a defect image from a normal image in the entire data, a second step of displaying the type and location (bounding box) of each defect in the defect image, , The third step of cutting out the part where the defect is located in the defect image and saving it as a defect part image, the fourth step of selecting some of the defect part images and displaying them as a defect segmentation image, and the defect part image and the defect segmentation image. The fifth step of learning the segmentation model, the sixth step of extracting the defect segmentation image by inserting the defect region unmarked defect region image into the learned defect segmentation model, and the defect region images obtained through the third to sixth steps, and The seventh step of learning a defect generation model using the defect region, the eighth step of generating a desired number of random defects through the learned defect generation model, and defect part images obtained through the third to sixth steps, A ninth step of deriving the average background color or density for each defect using the defect area, a tenth step of learning a background color or density classification model using the defect area and the average background color or density, and a defect generated in the eighth step. An 11th step of deriving an appropriate color or density range by putting one of them into the learned background color or density classification model, and a 12th step of importing a normal image for the defect in the 11th step and pasting it into a position having an appropriate color or density range. There is provided a deep learning-based data augmentation method for product defect detection learning that includes.

또한, 본 발명에서 제8 단계에서 생성된 각 결함에 대해 제11 단계 내지 제12 단계를 반복 수행하는 것을 특징으로 한다.In addition, the present invention is characterized in that the 11th to 12th steps are repeatedly performed for each defect generated in the 8th step.

또한, 본 발명에서 상기 정상 이미지는 결함이 존재하지 않는 이미지이고, 상기 결함 이미지는 결함이 존재하는 이미지이고, 상기 결함 부위 이미지는 상기 결함 이미지에서 결함 부위를 직사각형으로 잘라낸 이미지이고, 상기 결함 분할 이미지는 상기 결함 부위 이미지에서 결함 영역은 검정색으로 그 외 부분은 흰색으로 표시한 이미지이고, 상기 결함 배경은 상기 결함 부위 이미지에서 결함 영역을 제외한 나머지를 표시한 이미지이고, 상기 결함 영역 이미지는 상기 결함 부위 이미지에서 결함 배경을 검은색으로 표시한 이미지를 의미하는 것을 특징으로 한다.Further, in the present invention, the normal image is an image without a defect, the defect image is an image with a defect, the defect area image is an image obtained by cutting out a defect area in a rectangle from the defect image, and the defect segmentation image Is an image in which the defective area in the defect area image is displayed in black and the other areas in white, the defect background is an image displaying the rest of the defect area image except for the defect area, and the defect area image is the defect area It is characterized in that it means an image in which the defect background is displayed in black in the image.

본 발명은 결함 객체 탐지를 위한 학습데이터의 원활한 증강을 위해 GAN(Generative Adversarial Networks) 기반 학습데이터 증강 기법과 의미 분할 모델 학습 기반 결함 배경 제거 및 분류 모델 학습 기반 배경 색상 또는 농도 선택 등을 함께 사용하는 객체 탐지 학습데이터 증강 기법을 제안한다. 추가된 의미 분할 학습과 색상 및 농도 분류 학습은 각각 생성된 결함 객체 이미지의 배경을 제거하고 적절한 색상 또는 농도의 배경을 선택하는 데 사용된다. 제안된 기법을 소량의 4가지 유형의 강판 결함 이미지 데이터셋에 적용한 결과 자연스러운 증강 이미지를 얻을 수 있었고 증강 이미지를 객체 탐지 학습에 적용한 결과 기하학적 방법을 이용해 가상 결함을 만드는 프로그램을 작성해 생성한 데이터셋보다 우수한 탐지 결과를 얻을 수 있었다.The present invention uses GAN (Generative Adversarial Networks)-based learning data augmentation techniques together with semantic segmentation model learning-based defect background removal and classification model learning-based background color or density selection for smooth augmentation of learning data for detecting defective objects. We propose an object detection learning data augmentation technique. The added semantic segmentation learning and color and density classification learning are used to remove the background of the generated defective object image and select a background of appropriate color or density, respectively. As a result of applying the proposed technique to a small amount of 4 types of steel plate defect image datasets, natural augmented images were obtained. As a result of applying the augmented images to object detection learning, a program to create virtual defects using a geometric method was written and generated a better data set. Excellent detection results were obtained.

도 1은 본 발명에서 용어의 의미를 도식화한 도면
도 2는 본 발명의 데이터 증강 기법의 전체과정을 나타낸 도면
도 2a는 f-DAGAN 네트워크 구조를 나타낸 도면
도 3은 도 2의 데이터 증강 기법의 전체과정을 좀 더 상세히 나타낸 흐름도
도 4는 결함 객체 샘플 이미지를 나타낸 도면
도 5는 배경이 제거된 결함 객체 샘플 이미지를 나타낸 도면
도 6은 생성된 결함 객체 샘플 이미지를 나타낸 도면
도 7은 배경이 결합된 결함 객체 샘플 이미지를 나타낸 도면
1 is a diagram illustrating the meaning of terms in the present invention
Figure 2 is a diagram showing the entire process of the data augmentation technique of the present invention
Figure 2a is a diagram showing the f-DAGAN network structure
Figure 3 is a flow chart showing the entire process of the data augmentation technique of Figure 2 in more detail
4 is a diagram showing a defective object sample image;
5 is a view showing a sample image of a defect object from which a background has been removed;
6 is a view showing a generated defective object sample image
7 is a view showing a sample image of a defect object in which a background is combined;

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시예를 첨부한 도면을 참조하여 설명하기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings in order to describe in detail enough for those skilled in the art to easily implement the technical idea of the present invention.

- 제안하는 데이터 증강 기법- Proposed data augmentation technique

도 1은 본 발명에서 용어의 의미를 도식화한 도면이다.1 is a diagram illustrating the meaning of terms in the present invention.

도 1을 참조하면, (1) 정상 이미지는 결함이 존재하지 않는 이미지, (2) 결함 이미지는 결함이 존재하는 이미지, (3) 결함 부위 이미지는 결함 이미지에서 결함 부위를 직사각형으로 잘라낸 이미지, (4) 결함 분할 이미지는 결함 부위 이미지에서 결함 영역은 검정색으로 그 외 부분은 흰색으로 표시한 이미지, (5)결함 배경은 결함 부위 이미지에서 결함 영역을 제외한 나머지, (6) 결함 영역 이미지는 결함 부위 이미지에서 결함 배경을 검은색으로 표시한 이미지를 의미한다.Referring to FIG. 1, (1) a normal image is an image without a defect, (2) a defect image is an image with a defect, (3) a defect image is a rectangular image of a defect region from a defect image, ( 4) The defect division image is an image in which the defect area is displayed in black and the other parts are white in the defect area image, (5) the defect background is the rest of the defect area image excluding the defect area, (6) the defect area image is the defect area In the image, it means an image in which the defect background is displayed in black.

제안하는 데이터 증강 기법은 소량의 주어진 학습데이터의 객체 분포를 학습하고 그 분포 안에서 객체를 생성하는 GAN(Generative Adversarial Networks) 기반 학습데이터 증강 기법을 기반으로 한다. 생성하는 결함 객체의 라벨 정보를 자동으로 생성하기 위해서는 학습에 사용되는 전체 이미지 대신 결함 객체의 영역 이미지를 생성 모델에 입력해야 한다. 그런데 생성 모델은 입력 이미지 전체의 분포를 학습하기 때문에 결함 객체뿐 아니라 배경의 분포도 학습하여 이미지를 생성하게 되고, 이렇게 생성된 이미지는 배경 불일치 문제가 생겨 증강 이미지로 사용하기 어렵게 된다. 본 발명에서는 이러한 문제를 해결하기 위해 부분 라벨링 및 의미 분할 네트워크를 통해 생성 모델 적용 이전에 결함 부위 이미지의 배경을 제거한다.The proposed data augmentation technique is based on GAN (Generative Adversarial Networks)-based learning data augmentation technique that learns the object distribution of a given small amount of training data and creates objects within the distribution. In order to automatically generate label information of a defective object to be created, the region image of the defective object should be input to the generation model instead of the entire image used for learning. However, since the generative model learns the distribution of the entire input image, it learns not only the defect object but also the background distribution to generate an image, and the generated image has a background mismatch problem, making it difficult to use it as an augmented image. In the present invention, to solve this problem, the background of the defective part image is removed before applying the generative model through partial labeling and semantic segmentation network.

도 2는 본 발명의 데이터 증강 기법의 전체과정을 나타낸 도면이다.2 is a diagram showing the entire process of the data augmentation technique of the present invention.

도 2를 참조하면, 전체 과정은(1) 결함 이미지에 대해 라벨링을 통해 결함 부위 이미지와 결함 분할 이미지를 만들고 이 데이터로 생성 모델을 학습하여 임의의 결함 영역 이미지를 생성하는 과정, (2) 수작업으로 진행되는 라벨링 비용을 줄이기 위해 일부만 수동 라벨링을 수행하고 이를 바탕으로 의미분할모델을 학습하여 결함 영역을 분할하는 자동 라벨링 과정, (3) 각 결함 부위 이미지에서 결함 영역과 결함 배경 평균 색상 또는 농도를 분류 모델로 학습하여 과정 (1)에서 생성된 결함에 적정 배경 색상 또는 농도를 도출하고, 정상 이미지를 가져와 적정 색상 또는 농도에 해당하는 위치에 결함을 붙여 넣음으로써 결함 이미지를 생성하는 과정으로 구성된다. 여기서 과정 (2)는 데이터 상황에 따라 선택적으로 실행 가능하다.Referring to FIG. 2, the entire process is (1) a process of creating a defect area image and a defect segmentation image through labeling of a defect image and learning a generation model with this data to generate an arbitrary defect area image, (2) manual work In order to reduce the labeling cost, manual labeling is performed on only a portion of the labeling process, and based on this, a semantic segmentation model is learned to segment the defect area. (3) The average color or density of the defect area and defect background It consists of a process of generating a defect image by learning with a classification model to derive an appropriate background color or density for the defect generated in step (1), importing a normal image and pasting the defect to a location corresponding to the appropriate color or density. . Here, process (2) is selectively executable according to the data situation.

다시, 본 발명의 데이터 증강 기법의 전체과정을 살펴보면,Again, looking at the entire process of the data augmentation technique of the present invention,

첫 번째로, 먼저 주어진 소량의 학습데이터의 라벨링을 수행한다. 이때 일반적으로 객체 탐지에 사용되는 경계상자(bounding box)와 함께 배경 제거를 위해 결함 객체의 분할 맵도 같이 생성한다. 단, 픽셀 단위의 객체 분할 라벨링은 경계상자 라벨링보다 비용이 훨씬 많이 들기 때문에 일부만 라벨링을 수행하게 된다.First, labeling of a given small amount of training data is performed. At this time, along with a bounding box generally used for object detection, a segmentation map of the defective object is also created for background removal. However, since object segmentation labeling in pixel units is much more expensive than bounding box labeling, only part of the labeling is performed.

두 번째로 각 객체의 경계상자 영역을 잘라낸 이미지와 수작업으로 라벨링한 결함 객체 분할 맵을 이용해 의미 분할 모델을 학습한다. 의미 분할 네트워크로는 Google의 DeepLabV3+ 등을 사용할 수 있다. 의미 분할 네트워크의 학습이 완료되면 이를 분할 라벨이 없는 경계상자 영역 객체 이미지에 적용하여 결함 객체를 분할할 수 있는 분할 맵을 얻는다.Second, a semantic segmentation model is trained using the image of each object's bounding box area cut out and the manually labeled defective object segmentation map. Google's DeepLabV3+ can be used as a semantic segmentation network. When the learning of the semantic segmentation network is completed, it is applied to the bounding box area object image without segmentation label to obtain a segmentation map capable of segmenting the defective object.

세 번째로 각 결함 객체의 경계상자 영역 이미지에서 첫 번째와 두 번째 단계에서 얻어진 분할 맵을 이용해 배경을 제거하여 배경이 없는 결함 이미지를 생성하고, 이를 GAN(Generative Adversarial Networks) 기반 데이터 생성 모델에 입력하여 결함 데이터의 분포를 학습한다. 본 발명에서는 데이터 생성 네트워크로 DAGAN(Data Augmentation GAN) 기반해 자체 개발한 f-DAGAN (feature-based DAGAN)을 사용하였다.Third, the background is removed from the bounding box area image of each defect object using the segmentation maps obtained in the first and second steps to create a defect image without a background, which is input to a GAN (Generative Adversarial Networks)-based data generation model. to learn the distribution of defect data. In the present invention, f-DAGAN (feature-based DAGAN), which was developed based on DAGAN (Data Augmentation GAN), was used as a data generation network.

도 2a는 f-DAGAN 네트워크 구조를 나타낸 도면이다. f-DAGAN은 도 2a의 구조를 가지며 2장의 이미지를 통해 분포를 학습하며 특징벡터(feature) 수준과 생성 이미지 수준에서 모두 판별자(discriminator) 학습을 수행하는 특징을 가지고 있다.Figure 2a is a diagram showing the f-DAGAN network structure. f-DAGAN has the structure of FIG. 2a and has the feature of learning the distribution through two images and performing discriminator learning at both the feature vector level and the generated image level.

네 번째로 생성된 결함 객체를 결함이 없는 이미지 데이터에 붙여 넣는다. 그런데 f-DAGAN에 의해 생성된 결함 객체는 학습데이터의 분포에 따라 생성되기 때문에 생성 객체의 색상 또는 농도가 다양하게 나타날 수 있다. 따라서 결함 객체를 임의의 위치에 붙여 넣게 되면 붙여 넣는 위치의 배경의 색상 또는 농도와 매칭되지 않을 경우 식별이 어렵거나 부자연스러운 결과를 얻을 수 있다. 이 문제를 해결하기 위해 학습데이터의 객체 영역에 대해 배경의 색상 또는 농도를 예측할 수 있는 분류 모델을 학습하는 단계가 추가된다. 이를 위해 배경이 제거된 객체 영역 이미지를 입력으로 제거된 배경의 평균 색상 또는 농도를 출력으로 분류 모델을 학습한다. 배경 색상 또는 농도 분류 모델로는 학습 특징을 중요도에 따라 재조정하여 우수한 성능을 보여주는 SE-Net 등을 사용할 수 있다. 세 번째 단계를 통해 생성된 결함 객체를 학습된 배경 색상 또는 농도 분류 모델에 입력하면 생성 객체에 어울리는 배경 색상 또는 농도를 얻을 수 있다.Fourth, the created defect object is pasted into the defect-free image data. However, since the defective object created by f-DAGAN is created according to the distribution of learning data, the color or density of the created object may appear in various ways. Therefore, if a defective object is pasted at an arbitrary location, it may be difficult to identify or an unnatural result may be obtained if it does not match the color or density of the background of the pasted location. To solve this problem, a step of learning a classification model capable of predicting the color or density of the background for the object area of the training data is added. To this end, a classification model is trained with the background-removed object area image as input and the average color or density of the removed background as output. As a background color or concentration classification model, SE-Net, etc., which shows excellent performance by readjusting learning features according to importance, can be used. If the defect object created through the third step is entered into the learned background color or density classification model, the background color or density suitable for the created object can be obtained.

마지막으로, 세 번째 단계에서 생성된 결함 객체를 결함이 없는 정상 제품 이미지에 붙여 넣어서 최종 이미지를 완성하게 된다. 이때 붙여 넣을 위치는 임의로 선택되는데 선택 위치의 배경 색상 또는 농도가 네 번째 단계에서 얻은 적정 배경 색상 또는 농도 범위에 있지 않으면 배경 색상 또는 농도 조건을 만족할 때까지 붙여 넣을 위치를 찾게 된다.Finally, the final image is completed by pasting the defective object created in the third step to the normal product image without defects. At this time, the position to be pasted is randomly selected. If the background color or density of the selected position is not within the appropriate background color or density range obtained in the fourth step, the position to be pasted is searched until the background color or density condition is satisfied.

도 3은 도 2의 데이터 증강 기법의 전체과정을 좀 더 상세히 나타낸 흐름도이다.3 is a flowchart showing the entire process of the data augmentation technique of FIG. 2 in more detail.

도 3을 참조하면, 전체 과정의 세부 단계를 흐름도로 표시한 것으로, 전체 단계는 (1) 전체 데이터에서 결함 이미지와 정상 이미지를 분리하는 단계, (2) 결함 이미지 내의 각 결함에 대해 결함의 종류와 부위(경계상자)를 표시하는 단계, (3) 결함 이미지에서 결함이 위치한 부위를 잘라내어 결함 부위 이미지로 저장하는 단계, (4) 결함 부위 이미지들 중 일부를 선택해 결함 분할 이미지로 표시하는 단계, (5) 결함 부위 이미지와 결함 분할 이미지를 이용해 결함분할 모델을 학습하는 단계, (6) 결함 영역 미 표시 결함 부위 이미지를 학습된 결함분할 모델에 넣어 결함 분할 이미지를 추출하는 단계, (7) 단계 (3)~(6)을 통해 얻어진 결함 부위 이미지 및 결함 영역을 이용해 결함생성 모델을 학습하는 단계, (8) 학습된 결함생성 모델을 통해 임의의 결함을 원하는 수 만큼 생성하는 단계, (9) 단계 (3)~(6)을 통해 얻어진 결함 부위 이미지 및 결함 영역을 이용해 결함 별 배경 평균색상 또는 농도를 도출하는 단계, (10) 결함 영역과 배경 평균 색상 또는 농도를 이용해 배경색상 또는 농도 분류 모델을 학습하는 단계, (11) 단계 8에서 생성된 결함 하나를 학습된 배경 색상 또는 농도 분류 모델에 넣어 적정 색상 또는 농도 범위를 도출하는 단계, (12) 단계 11의 결함에 대해 정상 이미지를 가져와 적정 색상 또는 농도 범위를 가진 위치에 붙여 넣는 단계로 구성된다. 여기서 단계 (8)에서 생성된 각 결함에 대해 단계 (11)~(12)를 반복하게 된다.Referring to FIG. 3, the detailed steps of the entire process are shown in a flowchart, which includes (1) separating a defect image and a normal image from the entire data, (2) the type of defect for each defect in the defect image. (3) cutting out the defect location from the defect image and saving it as a defect area image, (4) selecting some of the defect area images and displaying them as a defect segmentation image; (5) learning a defect segmentation model using the defect segmentation image and the defect segmentation image; (6) extracting the defect segmentation image by inserting the defect area unmarked defect segment image into the learned defect segmentation model; Steps of learning a defect generation model using the defect region images and defect regions obtained through (3) to (6), (8) generating a desired number of random defects through the learned defect generation model, (9) Deriving the average background color or density for each defect using the defect area image and defect area obtained through steps (3) to (6), (10) Background color or density classification model using the defect area and average background color or density , (11) putting one defect generated in step 8 into the learned background color or density classification model to derive an appropriate color or density range, (12) taking a normal image for the defect in step 11 and titrating It consists of pasting in a position with a range of colors or densities. Here, steps (11) to (12) are repeated for each defect created in step (8).

- 구현 결과 및 평가- Implementation results and evaluation

도 4는 결함 객체 샘플 이미지를 나타낸 도면이고, 도 5는 배경이 제거된 결함 객체 샘플 이미지를 나타낸 도면이다.4 is a diagram showing a defective object sample image, and FIG. 5 is a diagram showing a defect object sample image from which a background has been removed.

제안된 기법에서 의미 분할, 배경 농도 분류 모델은 Pytorch 플랫폼으로, f-DAGAN 모델은 TensorFlow 플랫폼으로 구현하였다. 학습은 AMD RYZEN Threadripper 1920x CPU, 2개의 Nvidia RTX 2080TI GPU 환경에서 진행하였다. In the proposed technique, the semantic segmentation and background concentration classification models were implemented with the Pytorch platform, and the f-DAGAN model was implemented with the TensorFlow platform. Training was conducted in an AMD RYZEN Threadripper 1920x CPU and two Nvidia RTX 2080TI GPU environments.

제안된 기법을 평가하기 위해 주어진 이미지는 총 100장으로 60장의 결함 포함 이미지와 40장의 결함 미포함 이미지로 구성되어 있다. 각 이미지는 1280×1280 크기로 256 농도의 그레이스케일을 가진다. 결함 이미지는 흑점, 백점, 긁힘, 오염의 4개의 유형으로 분류된다. 도 4는 좌측부터 흑점, 백점, 오염, 긁힘 유형의 결함 객체 에 대해 경계박스를 기준으로 잘라낸 샘플 이미지를 보여준다. 각 샘플 이미지를 1단계 및 2단계 수행을 통해 얻어진 의미 분할 맵을 이용해 배경을 제거한 결과는 도 5와 같다.A total of 100 images were given to evaluate the proposed technique, consisting of 60 images with defects and 40 images without defects. Each image is 1280×1280 in size and has 256 densities of grayscale. The defect images are classified into four types: black spots, white spots, scratches, and stains. Fig. 4 shows sample images cut from the left based on the bounding box for defect objects of black, white, contamination, and scratch types. The result of removing the background using the semantic segmentation map obtained through the first and second steps of each sample image is shown in FIG. 5 .

도 6은 생성된 결함 객체 샘플 이미지를 나타낸 도면이다.6 is a diagram illustrating a generated defective object sample image.

도 6은 f-DAGAN을 통해 생성한 각 유형의 결함 객체 샘플을 보여준다. 결함 유형의 순서는 도 4와 동일하다. 배경이 제거된 이미지를 학습하였기 때문에 생성된 이미지도 배경이 없음을 확인할 수 있다.6 shows samples of each type of defective object created through f-DAGAN. The order of defect types is the same as in FIG. 4 . Since the image with the background removed was learned, it can be confirmed that the generated image also has no background.

도 7은 배경이 결합된 결함 객체 샘플 이미지를 나타낸 도면이다.7 is a diagram illustrating a defective object sample image in which a background is combined.

마지막으로 도 7은 생성된 결함 객체 이미지를 정상 배경 이미지에 붙여넣고 경계박스 영역을 잘라낸 결과를 보여준다. 이때 학습한 배경 농도 분류 모델을 이용해 붙여넣을 위치를 찾는 과정을 통해 적정 농도의 배경이 선택된 것을 알 수 있다.Finally, Fig. 7 shows the result of pasting the created defect object image to the normal background image and cutting out the bounding box area. At this time, it can be seen that a background having an appropriate concentration has been selected through a process of finding a position to paste using the learned background concentration classification model.

<표 1><Table 1>

Figure pat00001
Figure pat00001

표 1은 생성 데이터로 학습한 모델의 객체 탐지 정확도를 나타낸 표이다.Table 1 is a table showing the object detection accuracy of the model trained with the generated data.

생성된 증강 이미지의 품질을 확인하기 위해 객체 탐지 네트워크 학습에 사용하여 성능 평가를 수행하였다. 객체탐지 네트워크로는 YOLOv5L6 모델을 사용하였고 자체적으로 개발해 사용하고 있던 데이터 생성 프로그램으로 생성한 데이터셋으로 학습한 결과와 비교하였다. 표 1은 생성된 증강 데이터의 객체 탐지 학습 정확도 결과를 보여준다. 제안된 데이터 증강 기법과 프로그램 기반 증강 기법 모두 각 결함 유형별로 10K 크기의 데이터를 생성하여 60 epoch 동안 학습하였다. 정확도 결과는 50%의 IoU threshold를 갖는 Box F1-Score를 사용하였다. 평가 결과 제안된 기법으로 생성한 데이터셋이 기하학적 방법을 이용해 가상 결함을 만드는 프로그램으로 생성한 데이터셋보다 학습 효율이 우수함을 알 수 있다.In order to check the quality of the generated augmented image, performance evaluation was performed by using it for object detection network training. The YOLOv5L6 model was used as the object detection network, and the results of learning with the dataset generated by the data generation program that was developed and used in-house were compared. Table 1 shows the object detection learning accuracy results of the generated augmented data. Both the proposed data augmentation technique and the program-based augmentation technique generated 10K size data for each defect type and trained for 60 epochs. For accuracy results, Box F1-Score with an IoU threshold of 50% was used. As a result of the evaluation, it can be seen that the dataset created by the proposed method has better learning efficiency than the dataset created by a program that creates virtual defects using a geometric method.

- 결론- conclusion

본 발명은 객체 탐지 학습데이터 부족 문제를 해결할 수 있는 우수한 품질의 데이터셋을 자동으로 생성하기 위해 GAN 기반 학습데이터 증강 기법과 의미 분할 기반 배경 처리, 색상 또는 농도 분류 기반 배경 선택 등을 함께 사용하는 학습데이터 증강 기법을 제안하였다. 제안된 기법은 생성 데이터셋의 학습 효율이 높다는 장점 외에도 다양한 유형의 객체에 대해서 자동으로 분포를 학습하고 증강을 수행하기 때문에 활용성이 높다는 장점이 있다. 제안된 기법은 현재 비교적 균질한 배경을 갖는 객체의 증강에 맞추어져 있지만 보다 복잡한 배경을 갖는 객체의 증강에도 적용할 수 있을 것이다.The present invention is a learning method using GAN-based training data augmentation technique, semantic segmentation-based background processing, color or density classification-based background selection, etc. together to automatically create a high-quality dataset that can solve the problem of insufficient object detection training data. A data augmentation technique is proposed. In addition to the high learning efficiency of the generated dataset, the proposed technique has the advantage of high usability because it automatically learns the distribution and performs augmentation for various types of objects. Although the proposed technique is currently geared toward augmenting objects with relatively homogeneous backgrounds, it could be applied to augmentation of objects with more complex backgrounds.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art to which the present invention pertains will be able to understand that the present invention may be embodied in other specific forms without changing its technical spirit or essential features. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

Claims (4)

객체 탐지에 사용되는 경계상자(bounding box)와 함께 배경 제거를 위해 결함 객체의 분할 맵도 같이 생성하면서 주어진 소량의 학습데이터의 라벨링을 수행하는 제1 단계;
각 객체의 경계상자 영역을 잘라낸 이미지와 수작업으로 라벨링한 결함 객체 분할 맵을 이용해 의미 분할 모델을 학습하되, 의미 분할 네트워크의 학습이 완료되면 이를 분할 라벨이 없는 경계상자 영역 객체 이미지에 적용하여 결함 객체를 분할할 수 있는 분할 맵을 얻는 제2 단계;
각 결함 객체의 경계상자 영역 이미지에서 제1 단계와 제2 단계에서 얻어진 분할 맵을 이용해 배경을 제거하여 배경이 없는 결함 이미지를 생성하고, 이를 GAN(Generative Adversarial Networks) 기반 데이터 생성 모델에 입력하여 결함 데이터의 분포를 학습하는 제3 단계; 및
생성된 결함 객체를 학습된 배경 색상 또는 농도 분류 모델에 입력하여 생성 객체에 어울리는 배경 색상 또는 농도를 산출한 후, 생성된 결함 객체를 결함이 없는 이미지 데이터에 붙여넣어서 결함 이미지를 생성하는 제4 단계;
를 포함하는 제품 결함 검출 학습을 위한 딥러닝 기반 데이터 증강 방법.
A first step of labeling a given small amount of training data while generating a segmentation map of a defective object for background removal along with a bounding box used for object detection;
A semantic segmentation model is trained using the image of the bounding box region of each object cut out and the manually labeled defective object segmentation map. a second step of obtaining a segmentation map capable of segmenting ;
In the bounding box area image of each defect object, the background is removed using the segmentation maps obtained in the first and second steps to create a defect image without a background, and the defect image is input to a GAN (Generative Adversarial Networks)-based data generation model to generate defects. a third step of learning the distribution of data; and
A fourth step of generating a defect image by inputting the generated defect object into the learned background color or density classification model to calculate the background color or density suitable for the generated object, and then pasting the generated defect object into image data without defects. ;
Deep learning-based data augmentation method for learning product defect detection, including a.
전체 데이터에서 결함 이미지와 정상 이미지를 분리하는 제1 단계;
결함 이미지 내의 각 결함에 대해 결함의 종류와 부위(경계상자)를 표시하는 제2 단계;
결함 이미지에서 결함이 위치한 부위를 잘라내어 결함 부위 이미지로 저장하는 제3 단계;
결함 부위 이미지들 중 일부를 선택해 결함 분할 이미지로 표시하는 제4 단계;
결함 부위 이미지와 결함 분할 이미지를 이용해 결함분할 모델을 학습하는 제5 단계;
결함 영역 미 표시 결함 부위 이미지를 학습된 결함분할 모델에 넣어 결함 분할 이미지를 추출하는 제6 단계;
제3 단계 내지 제6 단계를 통해 얻어진 결함 부위 이미지 및 결함 영역을 이용해 결함생성 모델을 학습하는 제7 단계;
학습된 결함생성 모델을 통해 임의의 결함을 원하는 수만큼 생성하는 제8 단계;
제3 단계 내지 제6 단계를 통해 얻어진 결함 부위 이미지 및 결함 영역을 이용해 결함 별 배경 평균색상 또는 농도를 도출하는 제9 단계;
결함 영역과 배경 평균 색상 또는 농도를 이용해 배경 색상 또는 농도 분류 모델을 학습하는 제10 단계;
제8 단계에서 생성된 결함 하나를 학습된 배경 색상 또는 농도 분류 모델에 넣어 적정 색상 또는 농도 범위를 도출하는 제11 단계; 및
제11 단계의 결함에 대해 정상 이미지를 가져와 적정 색상 또는 농도 범위를 가진 위치에 붙여 넣는 제12 단계;
를 포함하는 제품 결함 검출 학습을 위한 딥러닝 기반 데이터 증강 방법.
A first step of separating a defective image and a normal image from all data;
A second step of displaying the type and location (bounding box) of each defect in the defect image;
A third step of cutting out a region where a defect is located in a defect image and saving it as a defect region image;
A fourth step of selecting some of the defect part images and displaying them as a defect segmentation image;
A fifth step of learning a defect segmentation model using the defect region image and the defect segmentation image;
A sixth step of extracting a defect segmentation image by inserting the defect area image of the defect area unmarked into the learned defect segmentation model;
A seventh step of learning a defect generation model using the defect region image and the defect region obtained through the third to sixth steps;
An eighth step of generating a desired number of random defects through the learned defect generation model;
a ninth step of deriving an average background color or density for each defect using the defect area image and the defect area obtained through the third to sixth steps;
A tenth step of learning a background color or density classification model using the defect area and the average color or density of the background;
An eleventh step of deriving an appropriate color or density range by inserting the defect generated in the eighth step into the learned background color or density classification model; and
a twelfth step of taking a normal image of the defect of the eleventh step and pasting it into a position having an appropriate color or density range;
Deep learning-based data augmentation method for learning product defect detection, including a.
제2항에 있어서,
제8 단계에서 생성된 각 결함에 대해 제11 단계 내지 제12 단계를 반복 수행하는 것을 특징으로 하는 제품 결함 검출 학습을 위한 딥러닝 기반 데이터 증강 방법.
According to claim 2,
A deep learning-based data augmentation method for product defect detection learning, characterized in that steps 11 to 12 are repeatedly performed for each defect generated in step 8.
제2항 또는 제3항에 있어서,
상기 정상 이미지는 결함이 존재하지 않는 이미지이고, 상기 결함 이미지는 결함이 존재하는 이미지이고,
상기 결함 부위 이미지는 상기 결함 이미지에서 결함 부위를 직사각형으로 잘라낸 이미지이고,
상기 결함 분할 이미지는 상기 결함 부위 이미지에서 결함 영역은 검정색으로 그 외 부분은 흰색으로 표시한 이미지이고,
상기 결함 배경은 상기 결함 부위 이미지에서 결함 영역을 제외한 나머지를 표시한 이미지이고,
상기 결함 영역 이미지는 상기 결함 부위 이미지에서 결함 배경을 검은색으로 표시한 이미지를 의미하는 것을 특징으로 하는 제품 결함 검출 학습을 위한 딥러닝 기반 데이터 증강 방법.
According to claim 2 or 3,
The normal image is an image without a defect, and the defect image is an image with a defect,
The defect portion image is an image obtained by rectangularly cutting out a defect portion from the defect image,
The defect segmentation image is an image in which the defect area is displayed in black and the other portion is displayed in white in the defect portion image,
The defect background is an image displaying the rest of the defect area image except for the defect area,
The deep learning-based data augmentation method for product defect detection learning, characterized in that the defect area image means an image in which a defect background is displayed in black in the defect portion image.
KR1020210112271A 2021-08-25 2021-08-25 Deep learning-based data augmentation method for product defect detection learning KR102600475B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210112271A KR102600475B1 (en) 2021-08-25 2021-08-25 Deep learning-based data augmentation method for product defect detection learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210112271A KR102600475B1 (en) 2021-08-25 2021-08-25 Deep learning-based data augmentation method for product defect detection learning

Publications (2)

Publication Number Publication Date
KR20230030259A true KR20230030259A (en) 2023-03-06
KR102600475B1 KR102600475B1 (en) 2023-11-08

Family

ID=85510023

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210112271A KR102600475B1 (en) 2021-08-25 2021-08-25 Deep learning-based data augmentation method for product defect detection learning

Country Status (1)

Country Link
KR (1) KR102600475B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993721A (en) * 2023-09-26 2023-11-03 江苏康意德科技有限公司 Steel plate surface defect detection method based on weak supervision neural network
CN117495884A (en) * 2024-01-02 2024-02-02 湖北工业大学 Steel surface defect segmentation method and device, electronic equipment and storage medium
CN117635537A (en) * 2023-10-24 2024-03-01 上海贝特威自动化科技有限公司 Visual AI large model-based lithium battery appearance defect generation method
KR102642446B1 (en) * 2023-10-18 2024-03-04 한국철도기술연구원 Method and device for image augmentation with masking of invoice for classifying cargo according to damage
KR102703844B1 (en) * 2023-06-01 2024-09-09 주식회사 디월드 System for providing bigdata based optical inspection service using deep learning

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020101246A1 (en) * 2018-11-13 2020-05-22 Samsung Electronics Co., Ltd. Joint unsupervised object segmentation and inpainting
KR20200087310A (en) * 2018-12-28 2020-07-21 소프트온넷(주) System and method for generation and augmentation of annotation learning data for deep learning in artificial intelligence picture reading
KR20200108609A (en) * 2019-03-11 2020-09-21 연세대학교 산학협력단 Learning-data enhancement device for machine learning model and method for learning-data enhancement
KR20210003661A (en) * 2019-07-02 2021-01-12 주식회사 마키나락스 Systems and methods for detecting flaws on panels using images of the panels
KR20210041155A (en) * 2019-10-04 2021-04-15 현대자동차주식회사 GAN based training data including bad image generating apparatus and method therefor
KR20210081077A (en) * 2019-12-23 2021-07-01 주식회사 엘지씨엔에스 A method and apparatus for determining whether the product is defective or not

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020101246A1 (en) * 2018-11-13 2020-05-22 Samsung Electronics Co., Ltd. Joint unsupervised object segmentation and inpainting
KR20200087310A (en) * 2018-12-28 2020-07-21 소프트온넷(주) System and method for generation and augmentation of annotation learning data for deep learning in artificial intelligence picture reading
KR20200108609A (en) * 2019-03-11 2020-09-21 연세대학교 산학협력단 Learning-data enhancement device for machine learning model and method for learning-data enhancement
KR20210003661A (en) * 2019-07-02 2021-01-12 주식회사 마키나락스 Systems and methods for detecting flaws on panels using images of the panels
KR20210041155A (en) * 2019-10-04 2021-04-15 현대자동차주식회사 GAN based training data including bad image generating apparatus and method therefor
KR20210081077A (en) * 2019-12-23 2021-07-01 주식회사 엘지씨엔에스 A method and apparatus for determining whether the product is defective or not

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kim, Tae-Hyun, Hye-Rin Kim, and Yeong-Jun Cho. Product inspection methodology via deep learning: an overview. Sensors 21.15. 2021.7. *
Shorten, C., Khoshgoftaar, T.M. A survey on Image Data Augmentation for Deep Learning.J Big Data 6, 60 (2019).

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102703844B1 (en) * 2023-06-01 2024-09-09 주식회사 디월드 System for providing bigdata based optical inspection service using deep learning
CN116993721A (en) * 2023-09-26 2023-11-03 江苏康意德科技有限公司 Steel plate surface defect detection method based on weak supervision neural network
CN116993721B (en) * 2023-09-26 2023-11-28 江苏康意德科技有限公司 Steel plate surface defect detection method based on weak supervision neural network
KR102642446B1 (en) * 2023-10-18 2024-03-04 한국철도기술연구원 Method and device for image augmentation with masking of invoice for classifying cargo according to damage
CN117635537A (en) * 2023-10-24 2024-03-01 上海贝特威自动化科技有限公司 Visual AI large model-based lithium battery appearance defect generation method
CN117495884A (en) * 2024-01-02 2024-02-02 湖北工业大学 Steel surface defect segmentation method and device, electronic equipment and storage medium
CN117495884B (en) * 2024-01-02 2024-03-22 湖北工业大学 Steel surface defect segmentation method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
KR102600475B1 (en) 2023-11-08

Similar Documents

Publication Publication Date Title
KR102600475B1 (en) Deep learning-based data augmentation method for product defect detection learning
CN108562589B (en) Method for detecting surface defects of magnetic circuit material
CN105719243B (en) Image processing apparatus and method
JP2000137804A (en) Method and system for abnormality detection of digital image and storage medium for same
US20080080769A1 (en) Image processing method, image processing apparatus and image processing program
CN110880000B (en) Picture character positioning method and device, computer equipment and storage medium
US20090148043A1 (en) Method for extracting text from a compound digital image
CN110599453A (en) Panel defect detection method and device based on image fusion and equipment terminal
CN112465746A (en) Method for detecting small defects in radiographic film
CN111696079A (en) Surface defect detection method based on multi-task learning
CN114119949A (en) Method and system for generating enhanced text synthetic image
CN113642576A (en) Method and device for generating training image set in target detection and semantic segmentation task
CN112883926A (en) Identification method and device for table medical images
CN114612702A (en) Image data annotation system and method based on deep learning
CN113763384A (en) Defect detection method and defect detection device in industrial quality inspection
CN114596242A (en) Defect detection method, defect detection device, electronic equipment and computer readable storage medium
CN117541546A (en) Method and device for determining image cropping effect, storage medium and electronic equipment
CN113077438A (en) Cell nucleus region extraction method and imaging method for multi-cell nucleus color image
CN112597878A (en) Sample making and identifying method for scanning test paper layout analysis
CN115619799A (en) Grain image segmentation method and system based on transfer learning
CN113065407B (en) Financial bill seal erasing method based on attention mechanism and generation countermeasure network
CN114429573A (en) Data enhancement-based household garbage data set generation method
Vu et al. Automatic extraction of text regions from document images by multilevel thresholding and k-means clustering
CN114399670A (en) Control method for extracting characters in pictures in 5G messages in real time
CN113095400A (en) Deep learning model training method for machine vision defect detection

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant