KR20230116985A - System and method for detecting pit defects on film - Google Patents

System and method for detecting pit defects on film Download PDF

Info

Publication number
KR20230116985A
KR20230116985A KR1020220013066A KR20220013066A KR20230116985A KR 20230116985 A KR20230116985 A KR 20230116985A KR 1020220013066 A KR1020220013066 A KR 1020220013066A KR 20220013066 A KR20220013066 A KR 20220013066A KR 20230116985 A KR20230116985 A KR 20230116985A
Authority
KR
South Korea
Prior art keywords
image
film
region
pit
unit
Prior art date
Application number
KR1020220013066A
Other languages
Korean (ko)
Inventor
반근우
유준혁
배성호
Original Assignee
배성호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 배성호 filed Critical 배성호
Priority to KR1020220013066A priority Critical patent/KR20230116985A/en
Publication of KR20230116985A publication Critical patent/KR20230116985A/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/8422Investigating thin films, e.g. matrix isolation method
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/892Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles characterised by the flaw, defect or object feature examined
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T5/002
    • G06T5/007
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • G01N2021/8864Mapping zones of defects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/888Marking defects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/12Circuits of general importance; Signal processing
    • G01N2201/129Using chemometrical methods
    • G01N2201/1296Using chemometrical methods using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Textile Engineering (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은, 필름 피트 결함 검출 시스템에 관한 것으로서, 검사용 필름에 대한 이미지 정보를 포함하는 검사용 필름 이미지를 미리 정해진 룰 기반 머신 비전 기법에 따라 영상 처리하여, 상기 검사용 필름 이미지의 전체 영역 중 상기 검사용 필름의 피트 결함으로 예측되는 피트 결함 후보들이 존재하는 결함 후보 영역들을 추출하고, 상기 결함 후보 영역들에 대한 이미지 정보를 포함하는 결함 후보 영역 이미지들을 생성하는 전처리 모듈; 및 딥러닝 기반 머신 비전 기법이 적용된 CNN 알고리즘을 이용해 상기 결함 후보 영역 이미지들을 분류하여, 상기 결함 후보 영역 이미지들 중 상기 피트 결함이 실제로 존재하는 결함 후보 영역 이미지를 판별하는 CNN 이진 분류 모듈을 포함한다.
이러한 본 발명에 의하면, 약한 특징과 부족한 학습 데이터를 보유한 필름 제조 환경에서 피트 결함을 검출할 수 있도록, 룰 기반 머신 비전이 적용된 전처리 모듈을 이용해 지역화를 실시한 후 딥러닝 기반 머신 비전이 적용된 CNN 이진 분류 모듈을 이용해 분류를 실시하는 2-Stage 검출 모델을 구현함으로써, 지역화와 분류를 동시에 실시하는 1-Stage 검출 모델로 구성된 종래의 딥러닝 기반 머신 비전에 비해 안정적인 피트 결함 검출 성능을 확보할 수 있다.
The present invention relates to a film pit defect detection system, wherein an inspection film image including image information about the inspection film is image-processed according to a predetermined rule-based machine vision technique, so that of the entire area of the inspection film image a pre-processing module extracting defect candidate regions in which pit defect candidates predicted as pit defects of the inspection film exist, and generating defect candidate region images including image information on the defect candidate regions; and a CNN binary classification module for classifying the defect candidate region images using a CNN algorithm to which a deep learning-based machine vision technique is applied, and determining a defect candidate region image in which the pit defect actually exists among the defect candidate region images. .
According to the present invention, in order to detect pit defects in a film manufacturing environment with weak features and insufficient learning data, localization is performed using a preprocessing module to which rule-based machine vision is applied, CNN binary classification to which deep learning-based machine vision is applied By implementing a 2-Stage detection model that performs classification using modules, stable pit defect detection performance can be secured compared to conventional deep learning-based machine vision composed of a 1-Stage detection model that simultaneously performs localization and classification.

Description

필름 피트 결함 검출 시스템 및 방법{System and method for detecting pit defects on film}System and method for detecting pit defects on film}

본 발명은 필름 피트 결함 검출 시스템 및 방법에 관한 것이다.The present invention relates to a film pit defect detection system and method.

피트(Pit) 결함은, 디스플레이 패널에 사용되는 필름의 제조 공정에서 발생하는 여러 결함 중 미세한 찍힘 현상으로 인해 발생하는 결함으로서, 사람의 육안으로는 식별하기 힘든 미세한 크기를 갖는다. 이러한 피트 결함의 자동 검출은 필름 제조 공정을 자동화하는데 매우 중요한 기술이다.A pit defect is a defect that occurs due to a fine stamping phenomenon among various defects that occur in a manufacturing process of a film used for a display panel, and has a fine size that is difficult to identify with the naked eye. Automatic detection of these pit defects is a very important technology for automating the film manufacturing process.

전통적으로 제조 분야에서는, 제조 공정에서 제조물에 발생한 결함을 자동으로 검출하기 위하여, 미리 정해진 규칙에 따라 검사 작업을 진행하는 룰 기반 머신 비전(Rule based Machine Vision)이 주로 사용되고 있다. 그런데, 종래의 룰 기반 머신 비전은, 특징 정보가 한정적이고 뚜렷하게 나타날 때는 높은 성능을 보이지만, 필름 제조 공정에서의 피트 결함과 같이 다양한 형태의 결함이 불규칙적으로 발생하는 시스템에서는 사용하기에 부적합하다는 문제점이 있었다.Conventionally, in the manufacturing field, rule-based machine vision, which performs inspection work according to predetermined rules, is mainly used to automatically detect defects in a product during a manufacturing process. However, conventional rule-based machine vision shows high performance when feature information is limited and distinct, but is unsuitable for use in systems in which various types of defects such as pit defects in the film manufacturing process occur irregularly. there was.

최근에 들어, 제조 분야에서는, 미리 정해진 규칙 내에서만 검사 작업의 진행이 가능한 룰 기반 머신 비전과는 달리 데이터의 학습을 통해 비정형 항목의 검사를 진행 가능하며, 우수한 데이터 마이닝 성능을 통해 다양한 형태의 결함에 대해 정확하고 신속한 탐지가 가능한 딥러닝 기반의 머신 비전(Deep Learning based Machine Vision)의 보급이 증가되고 있다.Recently, in the manufacturing field, unlike rule-based machine vision, which allows inspection work to proceed only within predetermined rules, it is possible to inspect atypical items through data learning, and various types of defects can be detected through excellent data mining performance. The dissemination of deep learning based machine vision, which can accurately and quickly detect , is increasing.

이러한 딥러닝 기반 머신 비전은 발전을 거듭하며 많은 분야에서 사용되고 있다. 하지만, 딥러닝 기반 머신 비전의 학습을 위해 공개되어 있는 정제된 학습 데이터 셋과 달리, 실제 세계에서는 동일한 클래스일지라도 크기와 색상, 패턴이 불규칙한 데이터가 발생한다. 그 중에서, 특히 소형 객체(Small Object)에 대한 낮은 검출율은, 딥러닝 기반 머신 비전 분야에서 여전히 해결해야 할 문제로 남아있다.Machine vision based on deep learning continues to evolve and is used in many fields. However, unlike the refined training data set that is open to the public for deep learning-based machine vision learning, in the real world, data with irregular sizes, colors, and patterns occur even for the same class. Among them, a low detection rate for small objects, in particular, remains a problem to be solved in the field of deep learning-based machine vision.

객체 검출 분야에서 대중적으로 사용되는 Faster R-CNN 모델, 기타 종래의 딥러닝 기반 머신 비전은 반복적인 컨볼루션과 다운 샘플링 연산을 수행하여 특징맵을 생성한다. 이에, 종래의 딥러닝 기반 머신 비전은, 반복적인 컨볼루션과 다운 샘플링 과정에서 소형 객체에 대한 정보가 소실되어 정상적인 학습 진행이 어려웠다. 또한, 종래의 딥러닝 기반 머신 비전은, 앵커 박스(Anchor Box)가 중형 객체 및 대형 객체에 적합하게 설계되어 있는 바, 앵커 박스가 소형 객체의 크기 범위에 맞지 않아 수행률이 떨어졌다.The Faster R-CNN model, which is popularly used in the object detection field, and other conventional machine vision based on deep learning generate feature maps by performing iterative convolution and downsampling operations. Accordingly, in the conventional deep learning-based machine vision, information on small objects is lost in repetitive convolution and downsampling processes, making normal learning difficult. In addition, in the conventional deep learning-based machine vision, since the anchor box is designed to be suitable for medium and large objects, the anchor box does not fit within the size range of small objects, resulting in poor performance.

위와 같이, 종래의 딥러닝 기반 머신 비전은, 소형 객체를 탐지하기에 적합하지 않다는 문제점이 있었다. 이를 해결하기 위하여, 딥러닝 기반 머신 비전의 신경망 아키텍처를 수정하거나, 소형 객체 검출에 적합한 속성을 적용하여 검출 성능을 향상시키는 방법이 연구되었다.As described above, the conventional deep learning-based machine vision has a problem in that it is not suitable for detecting small objects. In order to solve this problem, methods for improving detection performance by modifying the neural network architecture of deep learning-based machine vision or applying properties suitable for small object detection have been studied.

소형 객체 검출용 딥러닝 기반 머신 비전에 대한 종래의 연구에서는 최소 300장 이상의 학습용 이미지를 포함하는 학습용 데이터 셋이 사용되며, 이러한 학습된 데이터 셋에 포함된 이미지들은 각각 색상, 질감, 패턴 등에서 뚜렷한 특징을 보이고 다양한 크기의 객체를 포함하도록 잘 정제된다.In conventional studies on machine vision based on deep learning for small object detection, a training data set containing at least 300 training images is used, and the images included in these trained data sets each have distinct features in color, texture, pattern, etc. and is well refined to include objects of various sizes.

그런데, 피트 결함은, 필름 투과 이미지에서 약 1/480,000의 매우 작은 비율로 존재한다. 이에, 종래의 소형 객체 검출용 딥러닝 기반 머신 비전은, 피트 결함의 특징이 소실될 확률이 높다는 문제점과, 뚜렷한 특징이 없는 피트 결함의 특성으로 인해 피트 결함의 위치와 클래스를 모두 예측해야 하는 검출 모델의 학습이 어렵다는 문제점과, 피트 결함의 낮은 발생 빈도로 인해 피트 결함의 검출에 요구되는 최소량의 학습 데이터를 확보하기 어렵다는 문제점 등이 있었다.However, pit defects exist at a very small ratio of about 1/480,000 in the film transmission image. Accordingly, conventional deep learning-based machine vision for detecting small objects has a high probability of feature loss of pit defects, and detection that requires predicting both the location and class of pit defects due to the characteristics of pit defects without distinct features. There are problems in that it is difficult to learn the model, and it is difficult to secure a minimum amount of training data required for detecting pit defects due to the low occurrence frequency of pit defects.

본 발명은, 필름 제조 공정에서 발생하는 피트 결함을 정밀하게 검출할 수 있도록 개선한 필름 피트 결함 검출 시스템 및 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide an improved film pit defect detection system and method to precisely detect pit defects occurring in a film manufacturing process.

상술한 과제를 해결하기 위한 본 발명의 바람직한 실시예에 따른 필름 피트 결함 검출 시스템은, 검사용 필름에 대한 이미지 정보를 포함하는 검사용 필름 이미지를 미리 정해진 룰 기반 머신 비전 기법에 따라 영상 처리하여, 상기 검사용 필름 이미지의 전체 영역 중 상기 검사용 필름의 피트 결함으로 예측되는 피트 결함 후보들이 존재하는 결함 후보 영역들을 추출하고, 상기 결함 후보 영역들에 대한 이미지 정보를 포함하는 결함 후보 영역 이미지들을 생성하는 전처리 모듈; 및 딥러닝 기반 머신 비전 기법이 적용된 CNN 알고리즘을 이용해 상기 결함 후보 영역 이미지들을 분류하여, 상기 결함 후보 영역 이미지들 중 상기 피트 결함이 실제로 존재하는 결함 후보 영역 이미지를 판별하는 CNN 이진 분류 모듈을 포함한다.A film pit defect detection system according to a preferred embodiment of the present invention for solving the above problems is image processing of an inspection film image including image information on a inspection film according to a predetermined rule-based machine vision technique, Defect candidate regions in which pit defect candidates predicted as pit defects of the test film exist are extracted from the entire region of the inspection film image, and defect candidate region images including image information on the defect candidate regions are generated. a pre-processing module; and a CNN binary classification module for classifying the defect candidate region images using a CNN algorithm to which a deep learning-based machine vision technique is applied, and determining a defect candidate region image in which the pit defect actually exists among the defect candidate region images. .

상술한 과제를 해결하기 위한 본 발명의 다른 바람직한 실시예에 따른 필름 피트 결함 검출 방법은, 검사용 필름에 대한 이미지 정보를 포함하는 검사용 필름 이미지를 미리 정해진 룰 기반 머신 비전 기법에 따라 영상 처리하여, 상기 검사용 필름 이미지의 전체 영역 중 상기 검사용 필름의 피트 결함으로 예측되는 피트 결함 후보들이 존재하는 결함 후보 영역들을 추출하고, 상기 결함 후보 영역들에 대한 이미지 정보를 포함하는 결함 후보 영역 이미지들을 생성하는 지역화 단계; 및 딥러닝 기반 머신 비전 기법이 적용된 CNN 알고리즘을 이용해 상기 결함 후보 영역 이미지들을 분류하여, 상기 결함 후보 영역 이미지들 중 상기 피트 결함이 실제로 존재하는 결함 후보 영역 이미지를 판별하는 분류 단계를 포함한다.A film pit defect detection method according to another preferred embodiment of the present invention for solving the above problems is image processing of an inspection film image including image information on a inspection film according to a predetermined rule-based machine vision technique, Extracting defect candidate regions in which pit defect candidates predicted as pit defects of the inspection film exist among the entire region of the inspection film image, and obtaining defect candidate region images including image information on the defect candidate regions localization step to create; and a classification step of classifying the defect candidate area images using a CNN algorithm to which a deep learning-based machine vision technique is applied, and discriminating a defect candidate area image in which the pit defect actually exists among the defect candidate area images.

본 발명은, 필름 피트 결함 검출 시스템 및 방법에 관한 것으로서, 다음과 같은 효과를 갖는다.The present invention relates to a film pit defect detection system and method, and has the following effects.

첫째, 본 발명은, 약한 특징과 부족한 학습 데이터를 보유한 필름 제조 환경에서 피트 결함을 검출할 수 있도록, 룰 기반 머신 비전이 적용된 전처리 모듈을 이용해 지역화를 실시한 후 딥러닝 기반 머신 비전이 적용된 CNN 이진 분류 모듈을 이용해 분류를 실시하는 2-Stage 검출 모델을 구현함으로써, 지역화와 분류를 동시에 실시하는 1-Stage 검출 모델로 구성된 종래의 딥러닝 기반 머신 비전에 비해 안정적인 피트 결함 검출 성능을 확보할 수 있다.First, in the present invention, in order to detect pit defects in a film manufacturing environment with weak features and insufficient learning data, localization is performed using a preprocessing module to which rule-based machine vision is applied, CNN binary classification to which deep learning-based machine vision is applied By implementing a 2-Stage detection model that performs classification using modules, stable pit defect detection performance can be secured compared to conventional deep learning-based machine vision composed of a 1-Stage detection model that simultaneously performs localization and classification.

둘째, 본 발명은, 피트 결함의 특성에 적합한 데이터 증강 기법을 실시하는 데이터 증강 모듈을 이용해 학습 데이터를 증감시킴으로써, 부족한 학습 데이터로 인한 CNN 이진 분류 모듈의 학습 오류를 감소시킬 수 있다.Second, the present invention can reduce training errors of the CNN binary classification module due to insufficient training data by increasing or decreasing the training data using a data augmentation module that implements a data augmentation technique suitable for the characteristics of pit defects.

도 1은 본 발명의 바람직한 실시예에 따른 필름 피트 결함 검출 시스템의 개략적인 구성을 나타내는 블록도.
도 2는 도 1에 도시된 전처리 모듈과 CNN 이진 분류 모듈의 개략적인 구성을 나타내는 블록도.
도 3은 검사용 필름 이미지.
도 4는 피트 결함의 특징을 설명하기 위한 필름 이미지.
도 5는 도 1에 도시된 데이터 증강 모듈의 개략적인 구성을 나타내는 블록도.
도 6은 도 1에 도시된 필름 피트 결함 검출 시스템을 이용한 필름 피트 결함 검출 방법을 설명하기 위한 블록도.
도 7은 도 6에 도시된 지역화 단계를 실시하는 방법을 설명하기 위한 블록도.
도 8은 도 6에 도시된 데이터 증강 단계를 실시하는 방법을 설명하기 위한 블록도.
1 is a block diagram showing a schematic configuration of a film pit defect detection system according to a preferred embodiment of the present invention.
2 is a block diagram showing a schematic configuration of a preprocessing module and a CNN binary classification module shown in FIG. 1;
Figure 3 is a film image for inspection.
Figure 4 is a film image for explaining the characteristics of pit defects.
5 is a block diagram showing a schematic configuration of the data augmentation module shown in FIG. 1;
6 is a block diagram for explaining a film pit defect detection method using the film pit defect detection system shown in FIG. 1;
Fig. 7 is a block diagram for explaining a method of implementing the localization step shown in Fig. 6;
8 is a block diagram for explaining a method of implementing the data augmentation step shown in FIG. 6;

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to components of each drawing, it should be noted that the same components have the same numerals as much as possible even if they are displayed on different drawings. In addition, in describing an embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function hinders understanding of the embodiment of the present invention, the detailed description will be omitted.

본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term. In addition, unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

도 1은 본 발명의 바람직한 실시예에 따른 필름 피트 결함 검출 시스템의 개략적인 구성을 나타내는 블록도이고, 도 2는 도 1에 도시된 전처리 모듈과 CNN 이진 분류 모듈의 개략적인 구성을 나타내는 블록도이며, 도 3은 검사용 필름 이미지이다.1 is a block diagram showing a schematic configuration of a film pit defect detection system according to a preferred embodiment of the present invention, and FIG. 2 is a block diagram showing a schematic configuration of a preprocessing module and a CNN binary classification module shown in FIG. 3 is a film image for inspection.

도 1 및 도 2를 참조하면, 본 발명의 바람직한 실시예에 따른 필름 피트 결함 검출 시스템(1)은, 피트 결함(F)의 검출이 필요한 검사용 필름에 대한 이미지 정보를 포함하는 검사용 필름 이미지(F0)를 미리 정해진 룰 기반 머신 비전 기법에 따라 영상 처리하여, 검사용 필름의 피트 결함(F)으로 예측되는 피트 결함 후보가 존재하는 결함 후보 영역들을 추출하고, 결함 후보 영역들 중 적어도 하나에 대한 이미지 정보를 각각 포함하는 결함 후보 영역 이미지들(F2)을 검사용 필름 이미지(F0)로부터 생성하는 전처리 모듈(10)과, 딥러닝 기반 머신 비전 기법이 적용된 CNN 알고리즘을 이용해 결함 후보 영역 이미지들(F2)을 분류하여, 결함 후보 영역 이미지들(F2) 중 피트 결함(F)이 실제로 존재하는 결함 후보 영역 이미지(F2)를 판별하는 CNN 이진 분류 모듈(20)과, 미리 정제된 학습용 필름 이미지로부터 CNN 이진 분류 모듈(20)의 학습을 위한 다수의 학습용 이미지 패치들을 생성하는 데이터 증강 모듈(30) 등을 포함할 수 있다.1 and 2, the film pit defect detection system 1 according to a preferred embodiment of the present invention includes an inspection film image including image information on the inspection film for which pit defects F need to be detected. (F0) is image-processed according to a predetermined rule-based machine vision technique to extract defect candidate regions in which pit defect candidates predicted as pit defects (F) of the film for inspection exist, and to at least one of the defect candidate regions. The pre-processing module 10 for generating defect candidate area images F2 each including image information for the test from the film image F0 for inspection, and the defect candidate area images using a CNN algorithm to which a deep learning-based machine vision technique is applied. A CNN binary classification module 20 for classifying (F2) and determining a defect candidate region image (F2) in which pit defect (F) actually exists among defect candidate region images (F2), and a pre-refined training film image It may include a data augmentation module 30 that generates a plurality of training image patches for training of the CNN binary classification module 20 from.

본 명세서에 있어서, 필름은 디스플레이 패널에 적용되는 필름인 것이 바람직하다. 다만, 이에 한정되는 것은 아니며, 본 명세서에 있어서, 필름은 디스플레이 패널 외에 다양한 제품에 적용 가능한 각종의 필름일 수 있다.In the present specification, the film is preferably a film applied to a display panel. However, it is not limited thereto, and in the present specification, the film may be a variety of films applicable to various products other than display panels.

또한, 본 명세서에 있어서, 필름 이미지는, 필름에 검사용 광을 투과시킨 상태에서 당해 필름을 카메라로 촬영하여 생성한 투과 이미지를 말한다.In addition, in the present specification, a film image refers to a transmission image generated by photographing the film with a camera in a state in which light for inspection is transmitted through the film.

먼저, 전처리 모듈(10)은, 룰 기반 머신 비전을 이용해, 검사용 필름 이미지(F0)로부터 피트 결함 후보가 각각 위치하는 결함 후보 영역 이미지들(F2)을 추출하는 지역화(Localization)을 실시하기 위한 장치이다.First, the preprocessing module 10 uses rule-based machine vision to perform localization to extract defect candidate region images F2 in which pit defect candidates are located, respectively, from a film image F0 for inspection. It is a device.

전처리 모듈(10)은, 검사용 필름 이미지(F0)를 미리 정해진 룰 기반 머신 비전 기법에 따라 영상 처리하여 결함 후보 영역 이미지들(F2)을 생성하는 지역화를 CNN 이진 분류 모듈(20)에 의한 분류(Classification) 이전에 미리 실시할 수 있도록 마련된다. 이를 통해, 전처리 모듈(10)은, 당해 전처리 모듈(10) 없이 CNN 이진 분류 모듈(20)이 지역화와 분류를 동시에 실시할 때 발생하는 피트 결함 정보의 소실 현상을 방지함과 함께, CNN 이진 분류 모듈(20)의 연산량을 줄이는 기능을 수행할 수 있다. 여기서, 검사용 필름 이미지(F0)는, 피트 결함(F)의 검출이 필요한 검사용 필름을 촬영하여 생성한 이미지를 말한다.The pre-processing module 10 image-processes the inspection film image F0 according to a predetermined rule-based machine vision technique to generate defect candidate region images F2. Classification by the CNN binary classification module 20 (Classification) is prepared so that it can be performed in advance. Through this, the preprocessing module 10 prevents loss of pit defect information that occurs when the CNN binary classification module 20 simultaneously performs localization and classification without the preprocessing module 10, and CNN binary classification It can perform a function of reducing the amount of calculation of the module 20. Here, the inspection film image F0 refers to an image generated by photographing an inspection film for which the pit defect F needs to be detected.

이러한 전처리 모듈(10)의 구조는 특별히 한정되지 않는다. 예를 들어, 도 2에 도시된 바와 같이, 전처리 모듈(10)은, 관심 영역 추출 유닛(12)과, 후보 영역 추출 유닛(14) 등을 구비할 수 있다.The structure of this preprocessing module 10 is not particularly limited. For example, as shown in FIG. 2 , the pre-processing module 10 may include a region-of-interest extraction unit 12, a candidate region extraction unit 14, and the like.

관심 영역 추출 유닛(12)은, 검사용 필름 이미지(F0)를 룰 기반 머신 비전 기법에 따라 영상 처리하여 검사용 필름 이미지(F0)의 전체 영역 중 검사용 필름에 대한 정보를 포함하는 관심 영역(A1)을 선택적으로 추출할 수 있도록 마련된다. 이를 통해, 관심 영역 추출 유닛(12)은, 검사용 필름 이미지(F0)로부터 관심 영역(A1)을 포함하는 관심 영역 이미지(F1)를 생성하는 기능을 수행할 수 있다.The ROI extracting unit 12 processes the inspection film image F0 according to a rule-based machine vision technique to obtain a region of interest including information about the inspection film among the entire area of the inspection film image F0. A1) is prepared to be selectively extracted. Through this, the ROI extracting unit 12 may perform a function of generating the ROI image F1 including the ROI A1 from the film image F0 for inspection.

도 3에 도시된 바와 같이, 검사용 필름을 촬영하여 검사용 필름 이미지(F0)를 생성할 경우에, 검사용 필름 이미지(F0)에는 검사용 필름이 존재하는 관심 영역(A1)에 대한 이미지 정보와 검사용 필름이 위치하지 않는 배경 영역(A2)에 대한 이미지 정보가 함께 포함될 수 있다. 이러한 배경 영역(A2)에 대한 이미지 정보를 포함하는 필름 이미지를 대상으로 피트 결함 검출 작업을 실시하면, 배경 영역(A2)에 대한 이미지 정보로 인해 피트 결함 검출 결과에 오류가 발생할 우려가 있다. 이에, 관심 영역 추출 유닛(12)은, 검사용 필름 이미지(F0)로부터 관심 영역(A1)에 대한 이미지 정보만 선택적으로 포함하는 관심 영역 이미지(F1)를 추출하는 것이다.As shown in FIG. 3 , when the inspection film image F0 is generated by photographing the inspection film, the inspection film image F0 includes image information about the region of interest A1 where the inspection film is present. and image information about the background area A2 where the inspection film is not located may be included together. When the pit defect detection operation is performed on the film image including the image information on the background area A2, errors may occur in the pit defect detection result due to the image information on the background area A2. Accordingly, the ROI extracting unit 12 extracts the ROI image F1 selectively including only the image information on the ROI A1 from the inspection film image F0.

이러한 관심 영역 추출 유닛(12)의 구성은 특별히 한정되지 않는다. 예를 들어, 도 2에 도시된 바와 같이, 관심 영역 추출 유닛(12)은, 리사이징부(12a)와, 흑백 변환부(12b)와, 이진화부(12c)와, 레이블링부(12d)와, 이미지 크롭핑부(12e) 등을 가질 수 있다.The configuration of this region-of-interest extraction unit 12 is not particularly limited. For example, as shown in FIG. 2 , the ROI extraction unit 12 includes a resizing unit 12a, a black and white conversion unit 12b, a binarization unit 12c, a labeling unit 12d, It may have an image cropping unit 12e or the like.

리사이징부(12a)는, 검사용 필름 이미지(F0)의 해상도를 미리 정해진 비율만큼 줄여, 제2 검사용 필름 이미지를 생성한다. 예를 들어, 리사이징부(12a)는, 검사용 필름 이미지(F0)가 8192*6000의 고해상도를 갖는 경우에, 검사용 필름 이미지(F0)의 해상도를 1/4 크기인 2048*1500로 줄여 줌으로써, 제2 검사용 필름 이미지를 생성할 수 있다.The resizing unit 12a generates a second inspection film image by reducing the resolution of the inspection film image F0 by a predetermined ratio. For example, the resizing unit 12a reduces the resolution of the film image F0 for inspection to 2048*1500, which is a quarter size, when the film image F0 for inspection has a high resolution of 8192*6000. , it is possible to generate a film image for the second inspection.

흑백 변환부(12b)는, 제2 검사용 필름 이미지를 흑백 변환하여, 흑백 이미지로 구성된 제3 검사용 필름 이미지를 생성한다.The black-and-white conversion unit 12b converts the second inspection film image into black and white to generate a third inspection film image composed of the black-and-white image.

이진화부(12c)는, 미리 정해진 임계치를 기준으로 제3 검사용 필름 이미지에 대한 이진화를 실시하여, 제4 검사용 필름 이미지를 생성한다. 이러한 이진부화에 의하면, 제4 검사용 필름 이미지의 전체 영역 중 검사용 필름이 존재하는 관심 영역(A1)은 배경 영역(A2)에 비해 밝게 표시된다.The binarization unit 12c generates a fourth inspection film image by performing binarization on the third inspection film image based on a predetermined threshold. According to this binary hatching, the region of interest (A1) where the test film is present among the entire regions of the fourth test film image is displayed brighter than the background region (A2).

레이블링부(12d)는, 이진화된 제4 검사용 필름 이미지에 대한 레이블링 연산을 실시하여, 제4 검사용 필름 이미지를 검사용 필름에 해당하는 밝은 영역과 배경 영역(A2)에 해당하는 어두운 영역으로 분할한다. 즉, 레이블링부(12d)는 이진화된 제4 검사용 필름 이미지를 밝기에 따라 분할하는 것이다.The labeling unit 12d performs a labeling operation on the binarized fourth inspection film image, and converts the fourth inspection film image into a bright area corresponding to the inspection film and a dark area corresponding to the background area A2. divide That is, the labeling unit 12d divides the binarized fourth inspection film image according to brightness.

이미지 크롭핑부(12e)는, 레이블링 연산된 제4 검사용 필름 이미지로부터 밝은 영역을 검사용 필름에 대한 이미지 정보를 포함하는 관심 영역(A1)으로서 잘라내어, 관심 영역(A1)에 대한 이미지 정보를 포함하는 관심 영역 이미지(F1)를 생성한다.The image cropping unit 12e cuts out a bright area from the fourth inspection film image subjected to the labeling operation as an area of interest A1 including image information on the inspection film, and includes the image information on the area of interest A1. A region-of-interest image F1 is created.

후보 영역 추출 유닛(14)은, 관심 영역 이미지(F1)를 미리 정해진 룰 기반 머신 비전 기법에 따라 영상 처리함으로써, 관심 영역 이미지(F1)에 포함된 잡음을 제거하여 피트 결함(F)의 일부일 것으로 예측되는 피트 결함 후보들을 선택적으로 추출함과 함께 피트 결함 후보들의 가시성을 향상시킬 수 있도록 마련된다. 이를 통해, 후보 영역 추출 유닛(14)은, 관심 영역 이미지(F1)로부터 적어도 하나의 피트 결함 후보에 대한 이미지 정보를 각각 포함하는 결함 후보 영역 이미지들(F2)을 생성하는 기능을 수행할 수 있다.The candidate region extraction unit 14 processes the region-of-interest image F1 according to a predetermined rule-based machine vision technique to remove noise included in the region-of-interest image F1 so as to be part of the pit defect F. It is provided to improve the visibility of pit defect candidates while selectively extracting predicted pit defect candidates. Through this, the candidate region extraction unit 14 may perform a function of generating defect candidate region images F2 each including image information on at least one pit defect candidate from the region of interest image F1. .

이러한 후보 영역 추출 유닛(14)의 구성은 특별히 한정되지 않는다. 예를 들어, 도 2에 도시된 바와 같이, 후보 영역 추출 유닛(14)은, 중간값 필터링부(14a)와, 모폴로지 연산부(14b)와, 이진화부(14c)와, 레이블링부(14d)와, 이미지 크롭핑부(14e) 등을 가질 수 있다.The configuration of this candidate region extraction unit 14 is not particularly limited. For example, as shown in FIG. 2 , the candidate region extraction unit 14 includes a median filtering unit 14a, a morphology calculation unit 14b, a binarization unit 14c, a labeling unit 14d, , an image cropping unit 14e, and the like.

중간값 필터링부(14a)는, 관심 영역 추출 유닛(12)으로부터 입력된 관심 영역 이미지(F1)에 대하여 픽셀 단위의 잡음을 완화하기 위한 중간값 필터링 내지는 이미지 블러링(blurring)를 실시함으로써, 제2 관심 영역 이미지를 생성한다.The median filtering unit 14a performs median filtering or image blurring to mitigate noise in units of pixels on the ROI image F1 input from the ROI extraction unit 12, 2 Create an image of the region of interest.

모폴로지 연산부(14b)는, 제2 관심 영역 이미지에 포함된 작은 영역 단위의 밝거나 어두운 잡음을 제거하기 위한 모폴로지 연산을 실시함으로써, 제3 관심 영역 이미지를 생성한다.The morphology calculation unit 14b generates a third ROI image by performing a morphology operation to remove light or dark noise in units of small regions included in the second ROI image.

이러한 모폴로지 연산부(14b)는, 밝은 잡음을 제거하기 위한 열림 연산 및 어두운 잡음을 제거하기 위한 닫힘 연산을 실시한 후, 열림 연산 결과 영상과 닫힌 연상 결과 영상을 차 연산함으로써, 제2 관심 영역 이미지로부터 피트 결함(F)의 일부일 것으로 예측되는 피트 결함 후보들을 픽셀 단위로 추출한다. 이를 통해, 모폴로지 연산부(14b)는, 피트 결함 후보들이 뚜렷하게 영상 처리됨과 함께 피트 결함 후보가 존재하지 않는 정상 영역(A3)에 포함된 잡음이 제거된 제3 관심 영역 이미지를 생성함으로써, 결함 후보 영역 이미지(F2)의 생성 개수를 최소화하여 CNN 이진 분류 모듈(20)의 연산을 감소시킬 수 있다.The morphology calculator 14b performs an opening operation to remove bright noise and a closing operation to remove dark noise, and then calculates the difference between the opening operation result image and the closed association result image, thereby performing a fit from the second region-of-interest image. Pit defect candidates predicted to be part of the defect F are extracted in units of pixels. Through this, the morphology calculation unit 14b generates a third region-of-interest image from which pit defect candidates are clearly image-processed and noise included in the normal region A3 in which pit defect candidates do not exist is removed, thereby generating a defect candidate region. The operation of the CNN binary classification module 20 may be reduced by minimizing the number of generated images F2.

이진화부(14c)는, 미리 정해진 임계치를 기준으로 제3 관심 영역 이미지에 대한 이진화를 실시하여, 제4 관심 영역 이미지를 생성한다. 이러한 이진화부(14c)에 의하면, 제4 관심 영역 이미지에 포함된 전체 픽셀들 중 피트 결함 후보에 속하는 픽셀들은 정상 영역(A3)에 속하는 픽셀들에 비해 밝게 표시된다.The binarization unit 14c generates a fourth ROI image by performing binarization on the third ROI image based on a predetermined threshold. According to the binarization unit 14c, pixels belonging to the pit defect candidate among all pixels included in the fourth region-of-interest image are displayed brighter than pixels belonging to the normal region A3.

레이블링부(14d)는, 이진화된 제4 관심 영역 이미지에 대한 레이블링 연산을 실시하여, 제4 관심 영역 이미지를 피트 결함 후보에 속하는 밝은 픽셀과 정상 영역(A3)에 속하는 어두운 픽셀로 분할한다.The labeling unit 14d performs a labeling operation on the binarized fourth ROI image, and divides the fourth ROI image into bright pixels belonging to pit defect candidates and dark pixels belonging to the normal region A3.

즉, 레이블링부(14d)는, 픽셀 단위를 갖는 피트 결함 후보들을 영역 별로 하나로 묶을 수 있도록, 이진화된 제4 관심 영역 이미지를 밝기에 따라 분할하는 것이다.That is, the labeling unit 14d divides the binarized fourth region-of-interest image according to brightness so that pit defect candidates having pixel units can be grouped into one region-by-region.

이러한 레이블링부(14d)는 4-방향 연결성 레이블링(4-way connectivity labeling)을 실시하는 것이 바람직하다. 이 경우에, 레이블링부(14d)는, 제4 관심 영역 이미지에 포함된 모든 픽셀들에 대하여, 각 픽셀의 상하좌우 픽셀들을 검사하여 중심 픽셀과 동일한 유형의 픽셀이라고 판단되면, 중심 픽셀과 상하좌우 픽셀들을 하나의 영역으로 묶는다. 예를 들어, 레이블링부(14d)는, 중심 픽셀과 상하좌우 픽셀들이 모두 밝은 픽셀에 해당하면 중심 픽셀과 상하좌우 픽셀들을 하나의 영역으로 묶어주고, 중심 픽셀과 상하좌우 픽셀들이 모두 어두운 픽셀에 해당하면 중심 픽셀과 상하좌우 픽셀들을 하나의 영역으로 묶어준다.It is preferable that the labeling unit 14d performs 4-way connectivity labeling. In this case, the labeling unit 14d examines the top, bottom, left, and right pixels of each pixel with respect to all pixels included in the fourth region-of-interest image, and if it is determined that they are pixels of the same type as the center pixel, the center pixel and the top, bottom, left, and right pixels of each pixel are examined. The pixels are grouped into one area. For example, if the center pixel and the top, bottom, left, and right pixels all correspond to bright pixels, the labeling unit 14d ties the center pixel and the top, bottom, left, and right pixels into one area, and the center pixel and the top, bottom, left, and right pixels all correspond to dark pixels. Then, the center pixel and the top, bottom, left and right pixels are grouped into one area.

이미지 크롭핑부(14e)는, 레이블링된 제4 관심 영역 이미지로부터 적어도 하나의 피트 결함 후보들을 영역 별로 하나로 묶어서 잘라내어, 제4 관심 영역 이미지에 포함된 전체 피트 결함 후보들 중 적어도 하나의 피트 결함 후보에 대한 이미지 정보를 각각 포함하는 결함 후보 영역 이미지들(F2)을 생성한다.The image cropping unit 14e groups and crops at least one pit defect candidate for each region from the labeled fourth region-of-interest image, and cuts out at least one pit defect candidate among all pit defect candidates included in the fourth region-of-interest image. Defect candidate area images F2 each including image information are generated.

전술한 바와 같이, 피트 결함은 크기가 현저하게 작은 소형 객체에 해당한다. 이에, 이미지 크롭핑부(14e)는, 레이블링부(14d)에 의해 밝은 픽셀들이 하나의 영역으로 묶여서 생성된 전체 영역들 중 미리 정해진 기준 크기 이하인 영역들만 결함 후보 영역 이미지(F2)로서 제4 관심 영역 이미지로부터 선택적으로 추출하고, 기준 크기를 초과하는 영역들은 노이즈로서 제거하는 것이 바람직하다. 여기서, 기준 크기는 특별히 한정되지 않는다. 예를 들어, 이미지 크롭핑부(14e)는, 픽셀 단위를 기준으로, 밝은 픽셀들이 하나의 영역으로 묶여서 생성된 영역들 중 면적이 10*10을 초과하거나, 가로 폭이 10을 초과하거나, 세로 폭이 10을 초과하는 영역들을 노이즈로서 제거할 수 있다.As described above, pit defects correspond to small objects that are remarkably small in size. Accordingly, the image cropping unit 14e uses only regions of a predetermined standard size or less among the entire regions generated by grouping bright pixels into one region by the labeling unit 14d as the defect candidate region image F2, and uses the fourth region of interest as the defect candidate region image F2. It is desirable to selectively extract from an image and remove regions exceeding a standard size as noise. Here, the standard size is not particularly limited. For example, the image cropping unit 14e may, on a per-pixel basis, determine if the area exceeds 10*10, the horizontal width exceeds 10, or the vertical width among regions generated by grouping bright pixels into one region. Areas exceeding 10 may be removed as noise.

다음으로, CNN 이진 분류 모듈(20)은, 딥러닝 기반 머신 비전이 적용된 CNN 기반 모델을 이용해, 전술한 전처리 모듈(10)로부터 입력된 결함 후보 영역 이미지들(F2) 각각에 포함된 피트 결함 후보가 실제로 피트 결함(F)인지 여부를 판별하는 분류(Classification)를 실시하기 위한 장치이다.Next, the CNN binary classification module 20 uses a CNN-based model to which deep learning-based machine vision is applied, and pit defect candidates included in each of the defect candidate area images F2 input from the preprocessing module 10 described above. It is a device for performing classification to determine whether or not is actually a pit defect (F).

CNN 이진 분류 모듈(20)로서 사용 가능한 CNN 기반 모델은 특별히 한정되지 않는다. 예를 들어, CNN 이진 분류 모듈(20)은, 레즈넷 모델(ResNet Model), 모바일넷 모델(MobileNet Model), 스퀴즈넷 모델(SqueezeNet Model) 등으로 구성될 수 있다.A CNN-based model usable as the CNN binary classification module 20 is not particularly limited. For example, the CNN binary classification module 20 may be composed of a ResNet Model, a MobileNet Model, a SqueezeNet Model, and the like.

레즈넷 모델은, 성능을 대폭 향상시킨 대표적인 CNN 기반 모델로서, 특정 레이어 L의 출력값이 F(x)라 가정할 때 L-1의 출력값 x가 더해져 F(x)+x의 형태로 다음 레이어에 전달되는 Skip-Connection 방식을 적용함으로써, 깊은 층의 모델이 가지는 학습에 관련된 문제를 해결할 수 있다.The Resnet model is a representative CNN-based model with significantly improved performance. Assuming that the output value of a specific layer L is F(x), the output value x of L-1 is added to the next layer in the form of F(x)+x. By applying the forwarded Skip-Connection method, problems related to learning of deep-layer models can be solved.

모바일넷 모델은, 대표적인 경량형 CNN 기반 모델로서, 출력맵을 채널별로 분할하여 계산한 후 다시 각 출력맵을 합산함으로써, 기존의 포인트 별(Point-Wise) 합산 방법에 비해 훨씬 적은 파라미터를 가지면서도 기존의 포인트 별(Point-Wise) 합산 방법과 동일한 이미지 분류 성능을 기록할 수 있다.The mobilenet model is a representative lightweight CNN-based model, which divides and calculates the output map for each channel and then sums each output map again. It can record the same image classification performance as the existing point-wise summation method.

스퀴즈넷 모델은, 또 다른 대표적인 경량형 CNN 모델로서, 1*1 컨볼루션을 이용하여 채널을 압축한 후 다시 1*1과 3*3 컨볼루션 커널을 이용해 원본 입력의 채널수와 동일하게 출력맵을 생성하는 Fire Module을 도입함으로써, 모델 사이즈를 큰 폭으로 감소시키면서도 기존의 CNN 기반 모델과 동일한 성능을 기록할 수 있다.The squeezenet model is another representative lightweight CNN model, which compresses channels using 1*1 convolution and then uses 1*1 and 3*3 convolution kernels again to make the output map the same as the number of channels in the original input. By introducing the Fire Module that generates , it is possible to record the same performance as the existing CNN-based model while greatly reducing the model size.

도 4는 피트 결함의 특징을 설명하기 위한 필름 이미지이고, 도 5는 도 1에 도시된 데이터 증강 모듈의 개략적인 구성을 나타내는 블록도이다.FIG. 4 is a film image for explaining characteristics of pit defects, and FIG. 5 is a block diagram showing a schematic configuration of the data augmentation module shown in FIG. 1 .

다음으로, 데이터 증강 모듈(30)은, 학습용 필름 이미지를 미리 정해진 데이터 증강 기법에 따라 처리하여, 학습용 필름 이미지로부터 CNN 이진 분류 모듈(20)의 학습을 위한 다수의 학습용 이미지 패치들을 생성하기 위한 장치이다.Next, the data augmentation module 30 processes the training film image according to a predetermined data augmentation technique, and generates a plurality of training image patches for learning of the CNN binary classification module 20 from the training film image. am.

필름 이미지가 8192*6000 크기의 고해상도를 갖는 경우에, 피트 결함(F)은 10*10 이하의 크기로 존재한다. 도 4에 도시된 바와 같이, 피트 결함(F)은 주로 둥근 점 모양을 띈다. 피트 결함(F)은, 밝은 값을 띄며 그 주위로 어두운 음영이 존재하는 것 외에 다른 색상 정보가 없다는 것이 특징이다.In the case where the film image has a high resolution of 8192*6000 size, pit defects F exist with a size of 10*10 or less. As shown in FIG. 4 , the pit defects F mainly have a round dot shape. The pit defect (F) is characterized by having a bright value and having no other color information other than having a dark shade around it.

이러한 피트 결함(F)은 필름의 제조 과정에서 매우 드물게 발생하는 바, CNN 이진 분류 모듈(20)은 소수의 학습용 필름 이미지들을 이용해 학습을 해야 하는 제한 조건이 있다. 여기서, 학습용 필름 이미지는, CNN 이진 분류 모듈(20)에 구비된 딥러닝 기반 CNN 알고리즘의 학습을 위해 미리 정해진 정제 방식에 따라 정제된 학습용 필름을 촬영하여 생성한 이미지를 말한다.This pit defect (F) occurs very rarely in the film manufacturing process, and there is a limiting condition that the CNN binary classification module 20 must learn using a small number of film images for learning. Here, the training film image refers to an image generated by taking a training film refined according to a predetermined refinement method for learning the deep learning-based CNN algorithm provided in the CNN binary classification module 20.

위와 같이 차별성이 낮은 피트 결함(F)의 특징 정보 및 부족한 학습 데이터양은, CNN 이진 분류 모듈(20)의 학습 성능을 떨어뜨리는 요인이 된다. 이를 해결하기 위하여, 필름 피트 결함 검출 시스템(1)은, 데이터 증강 기법을 이용해 소수의 학습용 필름 이미지들로부터 다수의 학습용 이미지 패치들을 추출하도록 마련된 데이터 증강 모듈(30)을 포함하는 것이다.As described above, the feature information of the pit defect (F) with low discrimination and the amount of insufficient training data become factors that degrade the learning performance of the CNN binary classification module 20. To solve this problem, the film pit defect detection system 1 includes a data augmentation module 30 arranged to extract a plurality of training image patches from a small number of training film images using a data augmentation technique.

데이터 증강과 관련하여, 피트 결함(F)과 당해 피트 결함(F)의 주변 영역 간의 밝기 차이로 인한 대비 차가 중요한 고려 사항이 될 수 있으며, 피트 결함(F)의 주변 영역에 존재하는 음영의 위치에 따라 피트 결함(F) 별로 조금씩 다른 특징을 갖는 점도 고려 사항이 될 수 있다. 이에, 데이터 증강 모듈(30)은, 학습용 필름 이미지로부터 원본 이미지 패치들을 추출한 후, 이러한 원본 이미지 패치들을 미리 정해진 데이터 증강 기법을 이용해 처리하여, 소수의 원본 이미지 패치들로부터 다수의 학습용 필름 이미지 패치들을 생성할 수 있다.Regarding data augmentation, a contrast difference due to a difference in brightness between a pit defect (F) and the surrounding area of the pit defect (F) may be an important consideration, and the location of shadows existing in the surrounding area of the pit defect (F) Depending on the pit defect (F), the fact that each pit defect (F) has slightly different characteristics may also be considered. Accordingly, the data augmentation module 30 extracts original image patches from the training film image, and then processes these original image patches using a predetermined data augmentation technique to generate a plurality of training film image patches from a small number of original image patches. can create

도 5에 도시된 바와 같이, 이러한 데이터 증강 모듈(30)은, 미리 정해진 추출 방식에 따라 학습용 필름 이미지로부터 원본 이미지 패치들을 추출하는 원본 추출부(32)와, 미리 정해진 데이터 증강 기법에 따라 원본 이미지 패치들을 적어도 포함하는 증강용 이미지 패치들로부터 다수의 학습용 필름 이미지 패치들을 생성하는 증강부(34)와, 원본 추출부(32)에 의해 생성된 원본 이미지 패치들과 증강부(34)에 의해 생성된 학습용 필름 이미지 패치들 등이 저장되는 저장부(36) 등을 구비할 수 있다.As shown in FIG. 5, the data augmentation module 30 includes an original extractor 32 for extracting original image patches from a film image for learning according to a predetermined extraction method, and an original image according to a predetermined data augmentation technique. An enhancement unit 34 that generates a plurality of film image patches for learning from enhancement image patches including at least patches, original image patches generated by the original extraction unit 32, and the enhancement unit 34 It may be provided with a storage unit 36, etc. in which the film image patches for learning, etc. are stored.

또한, 증강부(34)에서 이용 가능한 데이터 증강 기법은 특별히 한정되지 않는다. 예를 들어, 증강부(34)는, 밝기 변화 기법, 회전 기법, 반전 기법 중 적어도 하나의 데이터 증강 기법을 이용해, 소수의 증강용 이미지 패치들로부터 다수의 학습용 필름 이미지 패치들을 생성할 수 있다. 이 경우에, 도 5에 도시된 바와 같이, 증강부(34)는, 미리 정해진 밝기 변화 기법에 따라 증강용 이미지 패치들로부터 다수의 학습용 필름 이미지 패치들을 생성하는 밝기 변화부(34a)와, 미리 정해진 회전 기법에 따라 증강용 이미지 패치들로부터 다수의 학습용 필름 이미지 패치들을 생성하는 회전부(34b)와, 미리 정해진 반전 기법에 따라 증강용 이미지 패치들로부터 다수의 학습용 필름 이미지 패치들을 생성하는 반전부(34c) 등을 가질 수 있다.In addition, the data augmentation technique usable in the augmentation unit 34 is not particularly limited. For example, the augmentation unit 34 may generate a plurality of film image patches for learning from a small number of image patches for augmentation using at least one data augmentation technique among a brightness change technique, a rotation technique, and an inversion technique. In this case, as shown in FIG. 5, the enhancement unit 34 includes a brightness change unit 34a that generates a plurality of film image patches for learning from the image patches for enhancement according to a predetermined brightness change technique; A rotation unit 34b that generates a plurality of film image patches for learning from augmentation image patches according to a predetermined rotation technique, and an inversion unit that generates a plurality of film image patches for learning from the augmentation image patches according to a predetermined inversion technique ( 34c), etc.

여기서, 증강용 이미지 패치로서 사용 가능한 이미지 패치의 종류는 특별히 한정되지 않는다. 예를 들어, 증강용 이미지 패치는, 원본 이미지 패치와, 데이터 증강 기법들 중 특정의 데이터 증강 기법에 의해 미리 생성된 학습용 이미지 패치 등을 포함할 수 있다. 즉, 밝기 변화부(34a), 회전부(34b) 및 반전부(34c)는 각각, 밝기 변화 기법, 회전 기법, 반전 기법 중 특정의 데이터 증강 기법에 의해 미리 생성된 학습용 이미지 패치를 상기 특정의 데이터 증강 기법 외의 다른 데이터 증강 기법을 실시하기 위한 증강용 이미지 패치로서 사용할 수 있다.Here, the type of image patch usable as an image patch for augmentation is not particularly limited. For example, an image patch for augmentation may include an original image patch and an image patch for training previously generated by a specific data augmentation technique among data augmentation techniques. That is, the brightness changing unit 34a, the rotating unit 34b, and the inverting unit 34c convert an image patch for learning previously generated by a specific data augmentation technique among the brightness variation technique, the rotation technique, and the inversion technique to the specific data. It can be used as an image patch for augmentation to implement other data augmentation techniques other than augmentation techniques.

밝기 변화부(34a)는, 증강용 이미지 패치의 밝기를 미리 정해진 밝기 조절 범위 내에서 단계적으로 조절하면서 증강용 이미지 패치로부터 다수의 학습용 이미지 패치들을 생성할 수 있다. 증강용 이미지 패치의 밝기 조절 범위는 특별히 한정되지 않는다. 예를 들어, 밝기 변화부(34a)는, -30% 내지 +30%의 밝기 조절 범위 내에서 증강용 이미지 패치의 밝기를 조절하여, 증강용 이미지 패치로부터 다수의 학습용 이미지 패치들을 생성할 수 있다.The brightness change unit 34a may generate a plurality of training image patches from the augmentation image patch while gradually adjusting the brightness of the augmentation image patch within a predetermined brightness control range. A brightness control range of the augmentation image patch is not particularly limited. For example, the brightness change unit 34a may generate a plurality of training image patches from the augmentation image patch by adjusting the brightness of the augmentation image patch within a brightness control range of -30% to +30%. .

회전부(34b)는, 증강용 이미지 패치를 미리 정해진 회전 각도 범위내에서 단계적으로 회전하면서 증강용 이미지 패치로부터 서로 상이한 배치 각도를 갖는 다수의 학습용 이미지 패치들을 생성할 수 있다. 증강용 이미지 패치의 회전 각도 범위는 특별히 한정되지 않는다. 예를 들어, 회전부(34b)는, -180°내지 +180°의 회전 각도 범위 내에서 증강용 이미지 패치를 회전시켜, 증강용 이미지 패치로부터 다수의 학습용 이미지 패치들을 생성할 수 있다.The rotation unit 34b may generate a plurality of training image patches having different arrangement angles from the augmentation image patch while rotating the augmentation image patch step by step within a predetermined rotation angle range. A rotation angle range of the augmentation image patch is not particularly limited. For example, the rotation unit 34b may generate a plurality of training image patches from the augmentation image patch by rotating the augmentation image patch within a rotation angle range of -180° to +180°.

반전부(34c)는, 증강용 이미지 패치를 미리 정해진 반전 방향으로 반전시키면서 증강용 이미지 패치로부터 서로 상이한 방향으로 반전된 다수의 학습용 이미지 패치들을 생성할 수 있다. 증강용 이미지 패치의 반전 방향은 특별히 반전되지 않는다. 예를 들어, 반전부(34c)는, 증강용 이미지 패치를 좌우 반전시키거나 상하 반전시켜, 증강용 이미지 패치로부터 다수의 학습용 이미지 패치들을 생성할 수 있다.The reversing unit 34c may generate a plurality of training image patches inverted in different directions from the augmentation image patch while inverting the augmentation image patch in a predetermined inversion direction. The inversion direction of the augmentation image patch is not particularly inverted. For example, the reversing unit 34c may generate a plurality of training image patches from the augmentation image patch by horizontally inverting or vertically inverting the augmentation image patch.

아래의 표 1은 데이터 증강 모듈(30)이 학습용 필름 이미지로부터 다수의 학습용 이미지 패치를 생성한 예를 나타내는 표이다.Table 1 below is a table showing an example in which the data augmentation module 30 generates a plurality of training image patches from training film images.

TypeType PitPit No-PitNo-Pit TrainTrain TestTest TrainTrain TestTest OriginalOriginal 4545 55 4545 55 BB 780780 8585 780780 8585 RR 830830 9090 830830 9090 FF 140140 1515 140140 1515 B+R+FB+R+F 25,07025,070 2,7252,725 25,07025,070 2,7252,725

- Pit: 피트 결함에 대한 이미지 정보를 포함하는 이미지 패치- No-Pit: 피트 결함의 주변 영역에 대한 이미지 정보를 포함하는 이미지 패치- Pit: An image patch containing image information about a pit defect- No-Pit: Image patch containing image information about the area around the pit defect.

- Train: CNN 이진 분류 모델(20)의 학습에만 사용되는 이미지 패치- Train: image patch used only for training of CNN binary classification model (20)

- Test: CNN 이진 분류 모듈(20)의 성능 평가에만 사용되는 이미지 패치- Test: image patch used only for performance evaluation of CNN binary classification module (20)

- O: 원본 이미지 패치- O: Original image patch

- B: 밝기 변화(Brightness) 기법에 따라 생성된 이미지 패치- B: Image patches created according to the Brightness technique

- R: 회전(Rotation) 기법에 따라 생성된 이미지 패치- R: image patch created according to the Rotation technique

- F: 반전(Flip) 기법에 따라 생성된 이미지 패치- F: Image patch created according to Flip technique

- B+R+F: 데이터 증강 기법에 따라 생성된 총 이미지 패치- B+R+F: total image patch generated according to the data augmentation technique

표 1을 참조하면, 원본 추출부(32)는, 총 20장의 학습용 필름 이미지로부터 피트 결함(F)에 대한 이미지 정보를 포함하는 50장의 제1 원본 이미지 패치와 피트 결함(F)과 혼동될 수 있는 피트 결함(F)의 주변 영역에 대한 50장의 제2 원본 이미지 패치를 각각 추출할 수 있다. 또한, 증강부(34)는, 원본 추출부(32)가 추출한 제1 원본 이미지 패치와 제2 원본 이미지 패치 각각에 대해 전술한 데이터 증강 기법을 적용할 수 있다. 이를 통해, 증강부(34)는, 제1 원본 이미지 패치 50장으로부터 피트 결함(F)에 대한 약 28,000장의 제1 학습용 이미지 패치를 생성할 수 있고, 제2 원본 이미지 패치 50장으로부터 피트 결함(F)과 혼동될 수 있는 주변 영역에 대한 약 28,000장의 제2 학습용 이미지 패치를 생성할 수 있다.Referring to Table 1, the original extractor 32 may be confused with 50 first original image patches including image information on pit defects (F) from a total of 20 training film images and pit defects (F). 50 second original image patches for the surrounding area of the pit defect F may be extracted respectively. Also, the augmentation unit 34 may apply the aforementioned data augmentation technique to each of the first original image patch and the second original image patch extracted by the original extractor 32 . Through this, the augmentation unit 34 can generate about 28,000 first training image patches for pit defects F from 50 first original image patches, and pit defects from 50 second original image patches ( It is possible to generate about 28,000 second training image patches for peripheral areas that may be confused with F).

일반적으로, 제조물로부터 결함을 검출하기 위한 종래의 딥러닝 기반 머신 비전은, 지역화(Localization)와 분류(Classification)를 동시에 수행하는 1-Stage 검출 모델로 구성된다. 이러한 종래의 딥러닝 기반 머신 비전을 이용해 고해상도 검사용 필름 이미지로부터 피트 결함을 검출하면, 반복적인 컨볼루션 및 다운 샘플링 과정에서 검사용 필름 이미지의 전체 크기에 비해 크기가 현저하게 소형인 피트 결함에 대한 정보가 소실되는 문제점과, 고해상도 검사용 필름 이미지를 딥러닝 기반으로 처리함에 따른 방대한 연산량으로 인해 피트 결함의 검출 속도가 현저히 떨어진다는 문제점 등이 발생한다.In general, a conventional deep learning-based machine vision for detecting defects from a product is composed of a 1-Stage detection model that simultaneously performs localization and classification. If pit defects are detected from high-resolution inspection film images using such conventional deep learning-based machine vision, pit defects that are remarkably small in size compared to the overall size of the inspection film images in the process of repetitive convolution and down-sampling are detected. Problems such as loss of information and a problem that the detection speed of pit defects is significantly reduced due to the enormous amount of calculation due to the processing of high-resolution inspection film images based on deep learning.

그런데, 필름 피트 결함 검출 시스템(1)은, 검사용 필름 이미지(F0)에 대해 룰 기반 머신 비전을 이용해 지역화를 실시하여, 검사용 필름 이미지(F0)로부터 피트 결함 후보가 위치하는 저해상도의 결함 후보 영역 이미지들(F2)을 추출하는 전처리 모듈(10)과, 딥러닝 기반 머신 비전을 이용해 결함 후보 영역 이미지들(F2)에 대한 분류를 실시하여, 결함 후보 영역 이미지들(F2) 중 피트 결함(F)이 실제로 존재하는 결함 후보 영역 이미지(F2)를 판별하는 CNN 이진 분류 모듈(20)을 포함한다. 이처럼 필름 피트 결함 검출 시스템(1)은, 지역화와 분류를 개별적으로 실시하는 2-Stage 검출 모델로 구성되는 바, IPCNN(Image Processing & Convolution Neural Networks)이라고도 명명될 수 있다. 이를 통해, 필름 피트 결함 검출 시스템(1)은, 지역화와 분류를 동시에 실시하는 종래의 딥러닝 기반 머신 비전의 1-Stage 검출 동작을 전처리 모듈(10)에 따른 지역화와 CNN 이진 분류 모듈(20)에 따른 분류를 순차적으로 실시하는 2-Stage 검출 동작으로 대체할 수 있다.By the way, the film pit defect detection system 1 localizes the film image F0 for inspection using rule-based machine vision to obtain a low-resolution defect candidate where the pit defect candidate is located from the film image F0 for inspection. A pit defect ( F) includes a CNN binary classification module 20 that determines the defect candidate region image F2 that actually exists. As such, the film pit defect detection system 1 is composed of a 2-Stage detection model that individually performs localization and classification, and thus may be referred to as IPCNN (Image Processing & Convolution Neural Networks). Through this, the film pit defect detection system 1 performs the localization and CNN binary classification module 20 according to the preprocessing module 10 for the 1-Stage detection operation of the conventional deep learning-based machine vision, which simultaneously performs localization and classification. It can be replaced with a 2-Stage detection operation that sequentially performs classification according to

이하에서는, 필름 피트 결함 검출 시스템(1)의 피트 결함 검출 성능의 평가를 위한 실험 결과에 대해 설명하기로 한다.Hereinafter, experimental results for evaluation of the pit defect detection performance of the film pit defect detection system 1 will be described.

필름 피트 결함 검출 시스템(1)의 피트 결함 검출 성능을 평가하기 위하여, 총 20장의 피트 결함(F)이 포함된 학습용 필름 이미지에 대하여 피트 결함 검출 실험을 수행하였다. 여기서, 학습용 필름 이미지는, 실제 피트 결함(F)이 포함되도록 정제된 필름 이미지를 말한다.In order to evaluate the pit defect detection performance of the film pit defect detection system 1, a pit defect detection experiment was performed on a total of 20 training film images including pit defects F. Here, the film image for learning refers to a film image refined to include the actual pit defect F.

필름 피트 결함 시스템의 경우에, CNN 이진 분류 모듈(20)이 레즈넷 모델, 모바일넷 모델, 스퀴즈넷 모델 중 어느 하나로 구성된 3가지 실시예에 대해 피트 결함 검출 시험을 실시하였다. 또한, 1-Stage 검출 모델로 구성된 종래의 딥러닝 기반 머신 비전의 경우에, 딥러닝 기반 머신 비전이 Faster R-CNN 모델, YOLO-V3 모델 중 어느 하나로 구성된 2가지 비교예에 대해 피트 결함 검출 시험을 실시하였다.In the case of the film pit defect system, the CNN binary classification module 20 performed a pit defect detection test on three embodiments composed of any one of the Resnet model, the Mobilenet model, and the Squeezenet model. In addition, in the case of a conventional deep learning-based machine vision composed of a 1-Stage detection model, pit defect detection tests for two comparative examples in which the deep learning-based machine vision is composed of either a Faster R-CNN model or a YOLO-V3 model was carried out.

피트 결함 검출 성능의 평가는, 예측된 바운딩 박스(bounding box)와 레이블링된 정답 GT(Ground Truth)이 겹치는 정도를 계산하여 임계 값이 50% 이상임과 동시에 클래스 예측 값이 정답 값과 일치하면 옳은 예측이라고 판단하여 실시하였다. 이러한 피트 결함 검출 성능의 평가에서 사용되는 평가 지표는, 정답 값을 정확히 예측할 경우인 TP(True Positive)와 정답이 아닌 것을 오답으로 예측했을 경우인 TN(True Negative), 오답을 정답으로 예측한 FP(False Positive), 정답을 예측하지 못한 FN(False Negative) 등이 있다. 또한, 상기 4가지 지표를 사용하여, 아래 수학식 1 및 수학식 2와 같이, 정확도(Precision)와 검출율(Recall)을 계산하였다.The evaluation of the pit defect detection performance calculates the degree of overlap between the predicted bounding box and the labeled correct answer GT (Ground Truth), and if the threshold value is 50% or more and the class prediction value matches the correct answer value, the correct prediction is made. It was judged and carried out. The evaluation indexes used in the evaluation of such pit defect detection performance are TP (True Positive), when correct values are accurately predicted, TN (True Negative), when incorrect answers are predicted as incorrect, and FP, when incorrect answers are predicted as correct. (False Positive), and FN (False Negative) that did not predict the correct answer. In addition, using the above four indicators, precision and recall were calculated as shown in Equations 1 and 2 below.

아래의 표 2는 전처리 모듈(10)의 피트 결함 검출 성능을 나타낸다.Table 2 below shows pit defect detection performance of the preprocessing module 10 .

TPTP TNTN FPFP FNFN PrecisionPrecision RecallRecall 9797 00 193193 55 33.4%33.4% 95.1%95.1%

표 2에 있어서, 각 지표 별 결과는 총 20장의 학습용 필름 이미지에 대한 결과의 평균 값을 나타낸다. 전처리 모듈(10)은, 학습용 필름 이미지 내 피트 결함(F)을 찾는 검출율은 약 95%로 높게 나왔지만, 오검출인 FP의 비율이 매우 높아 정확도 측면에서 매우 낮은 성능을 보였다. 그러나, 실제 피트 결함(F) 중 95%를 찾을 수 있다는 측면에서는, 전처리 모듈(10)의 성능이 뛰어나다고 볼 수 있다.In Table 2, the results for each indicator represent the average value of the results for a total of 20 learning film images. The preprocessing module 10 had a high detection rate of about 95% for finding pit defects (F) in the learning film image, but showed very low performance in terms of accuracy because the rate of falsely detected FPs was very high. However, in terms of finding 95% of the actual pit defects F, it can be seen that the performance of the preprocessing module 10 is excellent.

아래의 표 3은, 레즈넷 모델, 모바일넷 모델, 스퀴즈넷 모델 중 어느 하나로 구성된 3가지 실시예에 따른 CNN 이진 분류 모듈(20)과, Faster R-CNN 모델, YOLO-V3 모델 중 어느 하나의 1-Stage 검출 모델로 구성된 2가지 비교예에 따른 종래의 딥러닝 기반 머신 비전 각각의 학습용 필름 이미지에 대한 피트 결함 검출 성능 결과를 나타낸다.Table 3 below shows the CNN binary classification module 20 according to three embodiments composed of any one of the Resnet model, the Mobilenet model, and the Squeezenet model, and any one of the Faster R-CNN model and the YOLO-V3 model. Pit defect detection performance results for each training film image of conventional deep learning-based machine vision according to two comparative examples composed of 1-Stage detection models are shown.

ModelModel TPTP TNTN FPFP FNFN Precision[%]Precision[%] Recall[%]Recall[%] Time[s]Time[s] IPCNN_ResNetIPCNN_ResNet 121121 179179 8282 2929 59.659.6 80.780.7 1.511.51 IPCNN_MobileNetIPCNN_MobileNet 123123 200200 7676 2828 61.661.6 81.381.3 0.420.42 IPCNN_SqueezeNetIPCNN_SqueezeNet 127127 182182 8383 2626 59.959.9 82.782.7 1.331.33 Faster R-CNNFaster R-CNN 00 00 150150 150150 00 00 1.251.25 YOLO-V3YOLO-V3 00 00 00 150150 00 00 0.30.3

3가지 실시예에 따른 CNN 이진 분류 모듈(20)의 경우에, 데이터 증강 모듈(30)에 의해 학습용 필름 이미지로부터 추출 및 증강된 학습용 필름 이미지 패치들을 이용하는 것을 기준으로 피트 결함 검출 성능을 실험하였다.In the case of the CNN binary classification module 20 according to the three embodiments, the pit defect detection performance was tested based on using the training film image patches extracted and augmented from the training film image by the data augmentation module 30.

또한, 표 3에서는, 3가지 실시예에 따른 CNN 이진 분류 모듈(20) 및 2가지 비교예에 따른 종래의 딥러닝 기반 머신 비전의 피트 결함 검출 성능 결과 중 지표 별 최고 성능을 굵은 글씨체로 표시하였다.In addition, in Table 3, among the pit defect detection performance results of the CNN binary classification module 20 according to the three embodiments and the conventional deep learning-based machine vision according to the two comparative examples, the highest performance for each index is indicated in bold font .

먼저, 2가지 비교예에 따른 종래의 딥러닝 기반 머신 비전은, 피트 결함(F)을 전혀 검출하지 못하였고, 특히 YOLO-V3 모델은 단 하나의 피트 결함(F)도 예측하지 못하였다.First, the conventional deep learning-based machine vision according to the two comparative examples did not detect any pit defects (F), and in particular, the YOLO-V3 model could not predict even one pit defect (F).

YOLO-V3 모델의 경우에, 순전파 과정에서 컨볼루션으로 인해 발생하는 객체 정보의 손실과 피트 결함(F)에 비해 큰 앵커 박스 크기가 주요 원인으로 분석되며, 8192*6000의 고해상도 학습용 필름 이미지로부터 10*10 미만의 소형 피트 결함(F)을 검출할 경우에 20장의 학습용 필름 이미지만으로는 학습 데이터가 부족하다는 것이 부가적인 원인으로 분석된다.In the case of the YOLO-V3 model, the loss of object information caused by convolution in the forward propagation process and the large anchor box size compared to the fit defect (F) are analyzed as the main causes, and from the 8192*6000 high-resolution learning film image In the case of detecting a small pit defect (F) of less than 10*10, the lack of learning data with only 20 learning film images is analyzed as an additional cause.

Faster R-CNN 모델의 경우에, 피트 결함(F)을 포함하는 바운딩 상자를 예측하지만, 큰 앵커 박스로 인해 IoU(Intersection over Union)가 매우 낮은 값으로 계산되며, 낮은 지역화 성능으로 인해 모든 바운딩 박스가 오검출로 분류된다.In the case of Faster R-CNN model, it predicts bounding boxes containing fit defects (F), but the Intersection over Union (IoU) is calculated with very low values due to large anchor boxes, and all bounding boxes due to poor localization performance. is classified as false detection.

다음으로, 3가지 실시예에 따른 CNN 이진 분류 모듈(20)은, 약 60% 이상의 정확도와 약 80% 이상의 검출율로 피트 결함(F)을 검출한다.Next, the CNN binary classification module 20 according to the three embodiments detects the pit defect F with an accuracy of about 60% or more and a detection rate of about 80% or more.

각 실시예 별 특징을 살펴보면, 모바일넷 모델과 스퀴즈넷 모델은 학습 파라미터가 가장 많은 레즈넷 모델에 비해 정확도와 검출율 측면에서 더 우수한 성능을 보였다. 이와 관련하여, 필름 피트 결함 검출 시스템(1)은, 데이터 증강 모듈(30)을 이용해 부족한 학습 데이터를 증강시키는 것은 가능하지만, 실질적으로 다양한 패턴의 피트 결함(F)을 위한 것은 아니므로, 발생 가능한 모든 유형의 피트 결함(F)들의 패턴을 특정하여 일반화하기는 어렵다는 특성을 갖는다. 그런데, 표 3에 따르면, 이러한 필름 피트 결함 검출 시스템(1)의 데이터에 대한 부족한 일반화 성능이 모바일넷 모델과 스퀴즈넷 모델의 경량화 과정에서 향상된 것으로 분석된다.Looking at the characteristics of each embodiment, the MobileNet model and the SqueezeNet model showed better performance in terms of accuracy and detection rate than the ResNet model with the most learning parameters. In this regard, the film pit defect detection system 1, although it is possible to augment insufficient learning data using the data augmentation module 30, is not substantially for various patterns of pit defects F, so that possible occurrence It has a characteristic that it is difficult to generalize by specifying patterns of all types of pit defects F. However, according to Table 3, it is analyzed that the poor generalization performance of the data of the film pit defect detection system 1 is improved in the process of reducing the weight of the MobileNet model and the SqueezeNet model.

또한, 속도와 검출 성능을 모두 고려하였을 때, 모바일넷 모델은, 나머지 2가지 모델에 비해 약 3배 이상 빠른 속도와 가장 높은 정확도를 갖는 바, CNN 이진 분류 모듈(20)에 가장 적합하다는 것을 알 수 있다.In addition, considering both speed and detection performance, it can be seen that the mobilenet model is most suitable for the CNN binary classification module 20 as it has about 3 times faster speed and the highest accuracy compared to the other two models. can

또한, 모바일넷 모델은, 빠른 검출 속도(Time)에 특화된 YOLO-V3 모델과의 검출 속도 차이가 단 0.1 s인 바, 피트 결함 검출 성능뿐만 아니라 연산 속도 측면에서도 우수하다는 것을 알 수 있다.In addition, it can be seen that the mobilenet model is excellent in terms of calculation speed as well as pit defect detection performance because the difference in detection speed from the YOLO-V3 model, which is specialized for fast detection speed (time), is only 0.1 s.

또한, 모바일넷 모델은, 전처리 모듈(10)이 추출한 결함 후보 영역 이미지들(F2) 중 약 70%를 피트 결함(F)이 아닌 주변 영역으로 분류한 바, 이를 통해 피트 결함 분류 성능이 뛰어나다는 것을 알 수 있다.In addition, the mobilenet model classifies about 70% of the defect candidate area images F2 extracted by the preprocessing module 10 as peripheral areas rather than pit defects F, which indicates that the pit defect classification performance is excellent. can know that

위와 같이, 필름 피트 결함 검출 시스템(1)은, 약한 특징과 부족한 학습 데이터를 보유한 필름 제조 환경에서 피트 결함(F)을 검출하기 위한 2-Stage 검출 모델을 구현한다. 이러한 필름 피트 결함 검출 시스템(1)은, 1-Stage 검출 모델로 구성된 종래의 딥러닝 기반 머신 비전의 소형 객체에 대한 검출 성능 저하와 부족한 학습 데이터로 인한 학습 오류를 감소시키기 위하여, 지역화와 분류를 전처리 모듈(10)과 CNN 이진 분류 모듈(20)을 이용해 개별적으로 실시하고, 피트 결함(F)의 특성에 적합한 데이터 증강 기법을 실시하는 데이터 증강 모듈(30)을 이용해 학습 데이터를 증감시킴으로써, 안정적인 피트 결함 검출 성능을 확보할 수 있다.As described above, the film pit defect detection system 1 implements a 2-Stage detection model for detecting pit defects F in a film manufacturing environment having weak features and insufficient learning data. This film pit defect detection system 1 is based on localization and classification in order to reduce the detection performance degradation of small objects of the conventional deep learning-based machine vision composed of a 1-Stage detection model and learning errors due to insufficient training data. It is individually performed using the preprocessing module 10 and the CNN binary classification module 20, and by increasing or decreasing the learning data using the data augmentation module 30 that implements a data augmentation technique suitable for the characteristics of the pit defect (F), stable Pit defect detection performance can be secured.

도 6은 도 1에 도시된 필름 피트 결함 검출 시스템(1)을 이용한 필름 피트 결함 검출 방법을 설명하기 위한 블록도이고, 도 7은 도 6에 도시된 지역화 단계를 실시하는 방법을 설명하기 위한 블록도이며, 도 8은 도 6에 도시된 데이터 증강 단계를 실시하는 방법을 설명하기 위한 블록도이다.6 is a block diagram for explaining a film pit defect detection method using the film pit defect detection system 1 shown in FIG. 1, and FIG. 7 is a block diagram for explaining a method for performing the localization step shown in FIG. , and FIG. 8 is a block diagram for explaining a method of implementing the data augmentation step shown in FIG. 6 .

도 6을 참조하면, 필름 피트 결함 검출 시스템(1)을 이용한 필름 피트 결함 검출 방법은, 지역화 단계(S 10)와, 분류 단계(S 20)와, 데이터 증강 단계(S 30) 등을 포함할 수 있다.Referring to FIG. 6 , the film pit defect detection method using the film pit defect detection system 1 may include a localization step (S 10), a classification step (S 20), and a data augmentation step (S 30). can

먼저, 지역화 단계(S 10)에서는, 검사용 필름에 대한 이미지 정보를 포함하는 검사용 필름 이미지(F0)를 미리 정해진 룰 기반 머신 비전 기법에 따라 영상 처리하여, 검사용 필름 이미지(F0)의 전체 영역 중 검사용 필름의 피트 결함(F)으로 예측되는 피트 결함 후보들이 존재하는 결함 후보 영역들을 추출하고, 결함 후보 영역들에 대한 이미지 정보를 포함하는 결함 후보 영역 이미지들(F2)을 생성한다. 이를 위하여, 도 7에 도시된 바와 같이, 지역화 단계(S 10)는, 관심 영역(A1) 추출 단계(S 12)와, 후보 영역 추출 단계(S 14) 등을 포함할 수 있다.First, in the localization step (S 10), the inspection film image F0 including image information on the inspection film is image-processed according to a predetermined rule-based machine vision technique, so that the entire inspection film image F0 Among the regions, defect candidate regions in which pit defect candidates predicted as pit defects F of the inspection film exist are extracted, and defect candidate region images F2 including image information on the defect candidate regions are generated. To this end, as shown in FIG. 7 , the localization step ( S10 ) may include a region of interest ( A1 ) extraction step ( S12 ), a candidate region extraction step ( S14 ), and the like.

관심 영역(A1) 추출 단계(S 12)에서는, 검사용 필름 이미지(F0)의 전체 영역 중 검사용 필름이 존재하는 관심 영역(A1)을 선택적으로 추출하여, 관심 영역(A1)에 대한 이미지 정보를 포함하는 관심 영역 이미지(F1)를 생성한다. 이를 위하여, 관심 영역(A1) 추출 단계(S 12)는, 리사이징 단계(S 121)와, 흑백 변환 단계(S 123)와, 이진화 단계(S 125)와, 레이블링 단계(S 127)와, 이미지 크롭핑 단계(S 129) 등을 포함할 수 있다.In the step of extracting the region of interest (A1) (S 12), the region of interest (A1) in which the film for inspection exists is selectively extracted from among the entire regions of the film image (F0) for inspection, and image information on the region of interest (A1) is extracted. A region of interest image F1 including a is generated. To this end, the step of extracting the region of interest A1 (S 12) includes a resizing step (S 121), a black and white conversion step (S 123), a binarization step (S 125), a labeling step (S 127), and an image A cropping step (S 129) and the like may be included.

리사이징 단계(S 121)에서는, 검사용 필름 이미지(F0)의 해상도를 미리 정해진 비율만큼 줄여, 검사용 필름 이미지(F0)로부터 제2 검사용 필름 이미지를 생성한다.In the resizing step (S 121), a second inspection film image is generated from the inspection film image F0 by reducing the resolution of the inspection film image F0 by a predetermined ratio.

흑백 단계(S 123)에서는, 제2 검사용 필름 이미지를 흑백 변환하여, 제2 검사용 필름 이미지로부터 흑백 이미지로 구성된 제3 검사용 필름 이미지를 생성한다.In the black and white step ( S 123 ), the second inspection film image is converted to black and white to generate a third inspection film image composed of black and white images from the second inspection film image.

이진화 단계(S 125)에서는, 미리 정해진 임계치를 기준으로 제3 검사용 필름 이미지에 대한 이진화를 실시하여, 제3 검사용 필름 이미지로부터 관심 영역(A1)이 검사용 필름이 존재하지 않는 배경 영역(A2)에 비해 밝게 표시된 제4 검사용 필름 이미지를 생성한다.In the binarization step (S125), binarization is performed on the third inspection film image based on a predetermined threshold, so that the area of interest A1 from the third inspection film image is the background area where the inspection film does not exist ( A fourth inspection film image marked brighter than that of A2) is generated.

레이블링 단계(S 127)에서는, 제4 검사용 필름 이미지에 대한 레이블링 연산을 실시하여, 제4 검사용 필름 이미지를 관심 영역(A1)과 배경 영역(A2)으로 분할한다.In the labeling step ( S127 ), a labeling operation is performed on the fourth inspection film image, and the fourth inspection film image is divided into a region of interest A1 and a background region A2.

이미지 크롭핑 단계(S 129)에서는, 레이블링 단계(S 127)에서 레이블링 연산된 제4 검사용 필름 이미지로부터 관심 영역(A1)을 잘라내어, 관심 영역(A1)에 대한 이미지 정보를 포함하는 관심 영역 이미지(F1)를 생성한다.In the image cropping step (S 129), the region of interest A1 is cut out from the fourth inspection film image subjected to the labeling operation in the labeling step (S 127), and the region of interest image including image information on the region of interest A1. (F1).

후보 영역 추출 단계(S 14)에서는, 관심 영역 이미지(F1)로부터 피트 결함 후보들이 존재하는 결함 후보 영역들을 추출하여, 결함 후보 영역들 중 적어도 하나에 대한 이미지 정보를 포함하는 결함 후보 영역 이미지들(F2)을 생성한다. 이를 위하여, 도 7에 도시된 바와 같이, 후보 영역 추출 단계(S 14)는, 중간값 필터링 단계(S 141), 모폴로지 연산 단계(S 143), 이진화 단계(S 145), 레이블링 단계(S 147), 이미지 크롭핑 단계(S 149) 등을 포함할 수 있다.In the candidate region extraction step (S 14), defect candidate regions in which pit defect candidates exist are extracted from the region of interest image F1, and defect candidate region images including image information on at least one of the defect candidate regions ( F2) is created. To this end, as shown in FIG. 7 , the candidate region extraction step (S 14) includes a median filtering step (S 141), a morphology calculation step (S 143), a binarization step (S 145), and a labeling step (S 147). ), an image cropping step (S 149), and the like.

중간값 필터링 단계(S 141)에서는, 관심 영역 이미지(F1)에 대하여 픽셀 단위의 잡음을 완화하기 위한 중간값 필터링을 실시하여, 관심 영역 이미지(F1)로부터 제2 관심 영역 이미지를 생성한다.In the median filtering step ( S141 ), a second ROI image is generated from the ROI image F1 by performing median filtering to mitigate noise in units of pixels on the ROI image F1 .

모폴로지 연산 단계(S 143)에서는, 제2 관심 영역 이미지에 대한 모폴로지 연산을 실시하여, 제2 관심 영역 이미지에 포함된 잡음을 제거함으로써, 제2 관심 영역 이미지로부터 제3 관심 영역 이미지를 생성한다.In the morphology calculation step S143, a third ROI image is generated from the second ROI image by performing morphology calculation on the second ROI image to remove noise included in the second ROI image.

이진화 단계(S 145)에서는, 제3 관심 영역 이미지에 대한 이진화를 실시하여, 제3 관심 영역 이미지에 포함된 피트 결함 후보들을 당해 피트 결함 후보들이 존재하지 않는 정상 영역(A3)에 비해 밝게 표시함으로써, 제3 관심 영역 이미지로부터 제4 관심 영역 이미지를 생성한다.In the binarization step (S 145), binarization is performed on the third region-of-interest image, and pit defect candidates included in the third region-of-interest image are brightly displayed compared to the normal region A3 where the pit defect candidates do not exist. , A fourth ROI image is generated from the third ROI image.

레이블링 단계(S 147)에서는, 제4 관심 영역 이미지에 대한 레이블링 연산을 실시하여, 제4 관심 영역 이미지를 피트 결함 후보들과 정상 영역(A3)으로 분할한다.In the labeling step ( S147 ), a labeling operation is performed on the fourth ROI image to divide the fourth ROI image into pit defect candidates and the normal region A3 .

이미지 크롭핑 단계(S 149)에서는, 레이블링 단계(S 147)에서 레이블링된 제4 관심 영역 이미지로부터 적어도 하나의 피트 결함 후보들을 영역 별로 묶어서 잘라내어, 결함 후보 영역 이미지들(F2)을 적어도 하나의 피트 결함 후보들에 대한 이미지 정보를 각각 포함하도록 생성한다.In the image cropping step (S 149), at least one pit defect candidate is grouped and cut out from the fourth region-of-interest image labeled in the labeling step (S 147) by region, and the defect candidate region images F2 are formed into at least one pit defect candidate region. It is created to include image information for each of the defect candidates.

다음으로, 분류 단계(S 20)에서는, 딥러닝 기반 머신 비전 기법이 적용된 CNN 알고리즘을 이용해 결함 후보 영역 이미지들(F2)을 분류하여, 결함 후보 영역 이미지들(F2) 중 피트 결함(F)이 실제로 존재하는 결함 후보 영역 이미지(F2)를 판별한다.Next, in the classification step (S20), the defect candidate region images F2 are classified using the CNN algorithm to which the deep learning-based machine vision technique is applied, and the pit defect F among the defect candidate region images F2 is determined. A defect candidate region image F2 that actually exists is determined.

이러한 분류 단계는, 레즈넷 모델(ResNet Model), 모바일넷 모델(MobileNet Model), 스퀴즈넷 모델(SqueezeNet Model) 등의 CNN 기반 모델을 이용해 실시할 수 있다.This classification step may be performed using a CNN-based model such as a ResNet Model, a MobileNet Model, or a SqueezeNet Model.

다음으로, 데이터 증강 단계(S 30)에서는, 미리 정해진 학습용 필름에 대한 이미지 정보를 포함하는 학습용 필름 이미지를 미리 정해진 데이터 증강 기법에 따라 처리하여, 분류 단계에서 사용되는 CNN 알고리즘의 학습을 위한 다수의 학습용 이미지 패치들을 생성한다. 이를 위하여, 도 8에 도시된 바와 같이, 데이터 증강 단계(S 30)는, 원본 추출 단계(S 32)와, 학습용 패치 생성 단계(S 34) 등을 포함할 수 있다.Next, in the data augmentation step (S30), a learning film image including image information on a predetermined learning film is processed according to a predetermined data augmentation technique, and a number of data for learning the CNN algorithm used in the classification step are processed. Create image patches for training. To this end, as shown in FIG. 8 , the data augmentation step (S 30) may include an original extraction step (S 32) and a learning patch generation step (S 34).

원본 추출 단계(S 32)에서는, 미리 정해진 추출 방식에 따라 상기 학습용 필름 이미지로부터 원본 이미지 패치들을 추출한다.In the original extraction step (S32), original image patches are extracted from the training film image according to a predetermined extraction method.

학습용 패치 생성 단계(S 34)에서는, 미리 정해진 데이터 증강 기법에 따라 상기 원본 이미지 패치들을 적어도 포함하는 증강용 이미지 패치들로부터 다수의 학습용 필름 이미지 패치들을 생성한다. 여기서, 증강용 이미지 패치들은, 원본 추출 단계에서 생성한 원본 이미지 패치들과, 이전에 실시한 학습용 패치 생성 단계에서 미리 생성된 학습용 이미지 패치들을 포함할 수 있다.In the training patch generation step (S34), a plurality of training film image patches are generated from the augmentation image patches including at least the original image patches according to a predetermined data augmentation technique. Here, the augmentation image patches may include original image patches generated in the original extraction step and training image patches previously generated in the learning patch generation step previously performed.

이러한 학습용 패치 생성 단계(S 34)는, 밝기 변화 단계(S 342), 회전 단계(S 344), 반전 단계(S 346) 등을 생성할 수 있다.In the learning patch generation step (S 34), a brightness change step (S 342), a rotation step (S 344), an inversion step (S 346), and the like may be generated.

밝기 변화 단계(S 342)에서는, 증강용 이미지 패치들의 밝기를 미리 정해진 밝기 조절 범위 내에서 단계적으로 조절하여, 증강용 이미지 패치로부터 다수의 학습용 이미지 패치들을 생성한다.In the brightness change step (S342), a plurality of training image patches are generated from the augmentation image patches by stepwise adjusting the brightness of the augmentation image patches within a predetermined brightness control range.

회전 단계(S 344)에서는, 증강용 이미지 패치를 미리 정해진 회전 각도 범위내에서 단계적으로 회전시켜, 증강용 이미지 패치들로부터 서로 상이한 배치 각도를 갖는 다수의 학습용 이미지 패치들을 생성한다.In the rotation step (S344), a plurality of training image patches having different arrangement angles are generated from the augmentation image patches by stepwise rotation of the augmentation image patches within a predetermined rotation angle range.

반전 단계(S 346)에서는, 증강용 이미지 패치를 미리 정해진 반전 방향으로 반전시켜, 증강용 이미지 패치들로부터 서로 상이한 방향으로 반전된 다수의 학습용 이미지 패치들을 생성한다.In the inversion step (S346), a plurality of training image patches inverted in different directions are generated from the augmentation image patches by inverting the augmentation image patches in a predetermined inversion direction.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.The above description is merely an example of the technical idea of the present invention, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

1: 필름 피트 결함 검출 시스템
10: 전처리 모듈
12: 관심 영역 추출 유닛 12a: 리사이징부
12b: 흑백 변환부 12c: 이진화부
12d: 레이블링부 12e: 이미지 크롭핑부
14: 후보 영역 추출 유닛 14a: 중간값 필터링부
14b: 모폴로지 연산부 14c: 이진화부
14d: 레이블링부 14e: 이미지 크롭핑부
20: CNN 이진 분류 모듈
30: 데이터 증강 모듈
32: 원본 추출부
34: 증강부 34a: 밝기 변화부
34b: 회전부 34c: 반전부
36: 저장부
F0: 검사용 필름 이미지
A1: 관심 영역 A2: 배경 영역
F1: 관심 영역 이미지
F2: 결함 후보 영역 이미지
F: 피트 결함
1: Film Pit Defect Detection System
10: preprocessing module
12: region of interest extraction unit 12a: resizing unit
12b: black and white conversion unit 12c: binarization unit
12d: labeling unit 12e: image cropping unit
14: candidate area extraction unit 14a: median filtering unit
14b: morphology calculation unit 14c: binarization unit
14d: labeling unit 14e: image cropping unit
20: CNN binary classification module
30: data augmentation module
32: original extraction unit
34: augmenting unit 34a: brightness changing unit
34b: rotating part 34c: inverting part
36: storage unit
F0: film image for inspection
A1: region of interest A2: background region
F1: region of interest image
F2: Defect Candidate Area Image
F: pit defect

Claims (26)

검사용 필름에 대한 이미지 정보를 포함하는 검사용 필름 이미지를 미리 정해진 룰 기반 머신 비전 기법에 따라 영상 처리하여, 상기 검사용 필름 이미지의 전체 영역 중 상기 검사용 필름의 피트 결함으로 예측되는 피트 결함 후보들이 존재하는 결함 후보 영역들을 추출하고, 상기 결함 후보 영역들에 대한 이미지 정보를 포함하는 결함 후보 영역 이미지들을 생성하는 전처리 모듈; 및
딥러닝 기반 머신 비전 기법이 적용된 CNN 알고리즘을 이용해 상기 결함 후보 영역 이미지들을 분류하여, 상기 결함 후보 영역 이미지들 중 상기 피트 결함이 실제로 존재하는 결함 후보 영역 이미지를 판별하는 CNN 이진 분류 모듈을 포함하는, 필름 피트 결함 검출 시스템.
Pit defect candidates predicted as pit defects of the inspection film among the entire area of the inspection film image by image processing the inspection film image including image information on the inspection film according to a predetermined rule-based machine vision technique a pre-processing module that extracts the existing defect candidate regions and generates defect candidate region images including image information on the defect candidate regions; and
A CNN binary classification module for classifying the defect candidate area images using a CNN algorithm to which a deep learning-based machine vision technique is applied, and determining a defect candidate area image in which the pit defect actually exists among the defect candidate area images, Film pit defect detection system.
제1항에 있어서,
상기 전처리 모듈은,
상기 검사용 필름 이미지의 전체 영역 중 상기 검사용 필름이 존재하는 관심 영역을 선택적으로 추출하여, 상기 관심 영역에 대한 이미지 정보를 포함하는 관심 영역 이미지를 생성하는 관심 영역 추출 유닛; 및
상기 관심 영역 이미지로부터 상기 피트 결함 후보들이 존재하는 상기 결함 후보 영역들을 추출하여, 상기 결함 후보 영역 이미지들을 생성하는 후보 영역 추출 유닛을 구비하는, 필름 피트 결함 검출 시스템.
According to claim 1,
The preprocessing module,
a region-of-interest extracting unit configured to selectively extract a region of interest in which the film for examination is present from among entire regions of the film image for examination, and generate a region-of-interest image including image information on the region of interest; and
and a candidate region extraction unit that extracts the defect candidate regions in which the pit defect candidates exist from the region-of-interest image, and generates the defect candidate region images.
제2항에 있어서,
상기 관심 영역 추출 유닛은,
미리 정해진 임계치를 기준으로 상기 검사용 필름 이미지에 대한 이진화를 실시하여, 상기 검사용 필름 이미지의 전체 영역 중 상기 관심 영역을 상기 검사용 필름이 존재하지 않는 배경 영역에 비해 밝게 표시하는 이진화부;
상기 이진화부에 의해 이진화된 검사용 필름 이미지에 대한 레이블링 연산을 실시하여, 상기 검사용 필름 이미지를 상기 관심 영역과 상기 배경 영역으로 분할하는 레이블링부; 및
상기 레이블링부에 의해 레이블링 연산된 검사용 필름 이미지로부터 상기 관심 영역을 잘라내어, 상기 관심 영역 이미지를 생성하는 이미지 크롭핑부를 갖는, 필름 피트 결함 검출 시스템.
According to claim 2,
The region of interest extraction unit,
a binarization unit that performs binarization on the inspection film image based on a predetermined threshold value, and brightens the ROI among the entire area of the inspection film image compared to a background area in which the inspection film does not exist;
a labeling unit dividing the inspection film image into the ROI and the background area by performing a labeling operation on the inspection film image binarized by the binarization unit; and
and an image cropping unit configured to generate the ROI image by cutting out the ROI from the inspection film image subjected to the labeling operation by the labeling unit.
제3항에 있어서,
상기 관심 영역 추출 유닛은, 상기 검사용 필름 이미지의 해상도를 미리 정해진 비율만큼 줄이는 리사이징부를 더 갖고,
상기 이진화부는 상기 리사이징부에 의해 리사이징된 검사용 필름 이미지에 대해 이진화를 실시하는, 필름 피트 결함 검출 시스템.
According to claim 3,
The ROI extraction unit further has a resizing unit that reduces the resolution of the inspection film image by a predetermined ratio,
The film pit defect detection system of claim 1 , wherein the binarization unit performs binarization on the inspection film image resized by the resizing unit.
제4항에 있어서,
상기 관심 영역 추출 유닛은, 상기 리사이징부에 의해 리사이징된 검사용 필름 이미지를 흑백 변환하는 흑백 변환부를 더 갖고,
상기 이진화부는 상기 흑백 변환부에 의해 흑백 변환된 검사용 필름 이미지에 대해 이진화를 실시하는, 필름 피트 결함 검출 시스템.
According to claim 4,
The ROI extracting unit further has a black and white conversion unit for converting the inspection film image resized by the resizing unit to black and white;
The binarization unit performs binarization on the inspection film image converted to black and white by the black and white conversion unit, the film pit defect detection system.
제2항에 있어서,
상기 후보 영역 추출 유닛은,
상기 관심 영역 이미지에 대한 모폴로지 연산을 실시하여, 상기 관심 영역 이미지에 포함된 잡음을 제거하는 모폴로지 연산부;
상기 모폴로지 연산부에 의해 모폴로지 연산된 관심 영역 이미지에 대한 이진화를 실시하여, 상기 관심 영역 이미지에 포함된 피트 결함 후보들을 당해 피트 결함 후보들이 존재하지 않는 정상 영역에 비해 밝게 표시하는 이진화부;
상기 이진화부에 의해 이진화된 관심 영역 이미지에 대한 레이블링 연산을 실시하여, 상기 관심 영역 이미지를 상기 피트 결함 후보들과 상기 정상 영역으로 분할하는 레이블링부; 및
상기 레이블링부에 의해 레이블링된 관심 영역 이미지로부터 적어도 하나의 피트 결함 후보들을 영역 별로 묶어서 잘라내어, 상기 결함 후보 영역 이미지들을 상기 피트 결함 후보들 중 적어도 하나의 피트 결함 후보들에 대한 이미지 정보를 각각 포함하도록 생성하는 이미지 크롭핑부를 갖는, 필름 피트 결함 검출 시스템.
According to claim 2,
The candidate region extraction unit,
a morphology calculation unit to remove noise included in the ROI image by performing a morphology operation on the ROI image;
a binarization unit that performs binarization on the morphology-operated region-of-interest image by the morphology calculation unit, and brightens pit defect candidates included in the region-of-interest image compared to a normal region in which the pit defect candidates do not exist;
a labeling unit performing a labeling operation on the ROI image binarized by the binarization unit, and dividing the ROI image into the pit defect candidates and the normal region; and
At least one pit defect candidate region is grouped and cut out from the region of interest image labeled by the labeling unit, and the defect candidate region images are generated to include image information for at least one pit defect candidate among the pit defect candidates. A film pit defect detection system having an image cropping unit.
제6항에 있어서,
상기 후보 영역 추출 유닛은,
상기 관심 영역 이미지에 대하여 픽셀 단위의 잡음을 완화하기 위한 중간값 필터링을 실시하는 중간값 필터링부를 더 갖고,
상기 모폴로지 연산부는, 상기 중간값 필터링부에 의해 중간값 필터링된 관심 영역 이미지에 대해 모폴로지 연산을 실시하는, 필름 피트 결함 검출 시스템.
According to claim 6,
The candidate region extraction unit,
Further comprising a median filtering unit performing median filtering for mitigating noise in units of pixels with respect to the ROI image;
The film pit defect detection system of claim 1 , wherein the morphology calculation unit performs morphology calculation on the region-of-interest image median-filtered by the median-value filtering unit.
제1항에 있어서,
미리 정제된 학습용 필름에 대한 이미지 정보를 포함하는 학습용 필름 이미지를 미리 정해진 데이터 증강 기법에 따라 처리하여, 상기 CNN 이진 분류 모듈의 학습을 위한 다수의 학습용 이미지 패치들을 생성하는 데이터 증강 모듈을 더 포함하는, 필름 피트 결함 검출 시스템.
According to claim 1,
A data augmentation module for generating a plurality of training image patches for learning of the CNN binary classification module by processing a training film image including image information on a pre-refined training film according to a predetermined data augmentation technique. , film pit defect detection system.
제8항에 있어서,
상기 데이터 증강 모듈은,
미리 정해진 추출 방식에 따라 상기 학습용 필름 이미지로부터 원본 이미지 패치들을 추출하는 원본 추출부; 및
미리 정해진 데이터 증강 기법에 따라 상기 원본 이미지 패치들을 적어도 포함하는 증강용 이미지 패치들로부터 다수의 학습용 필름 이미지 패치들을 생성하는 증강부를 갖는, 필름 피트 결함 검출 시스템.
According to claim 8,
The data augmentation module,
an original extractor extracting original image patches from the learning film image according to a predetermined extraction method; and
A film pit defect detection system having an enhancement unit generating a plurality of film image patches for learning from image patches for enhancement including at least the original image patches according to a predetermined data augmentation technique.
제9항에 있어서,
상기 증강부는, 상기 증강용 이미지 패치들의 밝기를 미리 정해진 밝기 조절 범위 내에서 단계적으로 조절하여, 상기 증강용 이미지 패치로부터 상기 학습용 이미지 패치들을 생성하는 밝기 변화부를 갖는, 필름 피트 결함 검출 시스템.
According to claim 9,
The enhancement unit has a brightness change unit for generating the learning image patches from the enhancement image patches by stepwise adjusting the brightness of the enhancement image patches within a predetermined brightness control range. Film pit defect detection system.
제9항에 있어서,
상기 증강부는, 상기 증강용 이미지 패치를 미리 정해진 회전 각도 범위내에서 단계적으로 회전시켜, 상기 증강용 이미지 패치들로부터 서로 상이한 배치 각도를 갖는 상기 학습용 이미지 패치들을 생성하는 회전부를 갖는, 필름 피트 결함 검출 시스템.
According to claim 9,
The enhancement unit has a rotation unit configured to generate the training image patches having different arrangement angles from the enhancement image patches by stepwise rotation of the enhancement image patch within a predetermined rotation angle range, and film pit defect detection. system.
제9항에 있어서,
상기 증강부는, 상기 증강용 이미지 패치를 미리 정해진 반전 방향으로 반전시켜, 상기 증강용 이미지 패치들로부터 서로 상이한 방향으로 반전된 상기 학습용 이미지 패치들을 생성하는 반전부를 갖는, 필름 피트 결함 검출 시스템.
According to claim 9,
The enhancement unit has an inversion unit for inverting the enhancement image patch in a predetermined inversion direction and generating the learning image patches inverted in different directions from the enhancement image patches. Film pit defect detection system.
제9항에 있어서,
상기 증강용 이미지 패치들은, 상기 원본 이미지 패치들과, 상기 증강부에 의해 미리 생성된 학습용 이미지 패치들을 포함하는, 필름 피트 결함 검출 시스템.
According to claim 9,
The image patches for enhancement include the original image patches and image patches for learning previously generated by the enhancement unit, the film pit defect detection system.
검사용 필름에 대한 이미지 정보를 포함하는 검사용 필름 이미지를 미리 정해진 룰 기반 머신 비전 기법에 따라 영상 처리하여, 상기 검사용 필름 이미지의 전체 영역 중 상기 검사용 필름의 피트 결함으로 예측되는 피트 결함 후보들이 존재하는 결함 후보 영역들을 추출하고, 상기 결함 후보 영역들에 대한 이미지 정보를 포함하는 결함 후보 영역 이미지들을 생성하는 지역화 단계; 및
딥러닝 기반 머신 비전 기법이 적용된 CNN 알고리즘을 이용해 상기 결함 후보 영역 이미지들을 분류하여, 상기 결함 후보 영역 이미지들 중 상기 피트 결함이 실제로 존재하는 결함 후보 영역 이미지를 판별하는 분류 단계를 포함하는, 필름 피트 결함 검출 방법.
Pit defect candidates predicted as pit defects of the inspection film among the entire area of the inspection film image by image processing the inspection film image including image information on the inspection film according to a predetermined rule-based machine vision technique a localization step of extracting the existing defect candidate regions and generating defect candidate region images including image information on the defect candidate regions; and
and a classification step of classifying the defect candidate area images using a CNN algorithm to which a deep learning-based machine vision technique is applied, and determining a defect candidate area image in which the pit defect actually exists among the defect candidate area images. Fault detection method.
제14항에 있어서,
상기 지역화 단계는,
상기 검사용 필름 이미지의 전체 영역 중 상기 검사용 필름이 존재하는 관심 영역을 선택적으로 추출하여, 상기 관심 영역에 대한 이미지 정보를 포함하는 관심 영역 이미지를 생성하는 관심 영역 추출 단계; 및
상기 관심 영역 이미지로부터 상기 피트 결함 후보들이 존재하는 상기 결함 후보 영역들을 추출하여, 상기 결함 후보 영역 이미지들을 생성하는 후보 영역 추출 단계를 포함하는, 필름 피트 결함 검출 방법.
According to claim 14,
The localization step is
a region of interest extracting step of selectively extracting a region of interest in which the film for examination is present from among entire regions of the film image for examination, and generating a region of interest image including image information on the region of interest; and
and a candidate region extraction step of extracting the defect candidate regions in which the pit defect candidates exist from the ROI image to generate the defect candidate region images.
제15항에 있어서,
상기 관심 영역 추출 단계는,
미리 정해진 임계치를 기준으로 상기 검사용 필름 이미지에 대한 이진화를 실시하여, 상기 검사용 필름 이미지의 전체 영역 중 상기 관심 영역을 상기 검사용 필름이 존재하지 않는 배경 영역에 비해 밝게 표시하는 이진화 단계;
상기 이진화 단계에서 이진화된 검사용 필름 이미지에 대한 레이블링 연산을 실시하여, 상기 검사용 필름 이미지를 상기 관심 영역과 상기 배경 영역으로 분할하는 레이블링 단계; 및
상기 레이블링 단계에서 레이블링 연산된 검사용 필름 이미지로부터 상기 관심 영역을 잘라내어, 상기 관심 영역 이미지를 생성하는 이미지 크롭핑 단계를 갖는, 필름 피트 결함 검출 방법.
According to claim 15,
In the step of extracting the region of interest,
A binarization step of performing binarization on the inspection film image based on a predetermined threshold value and brightly displaying the ROI of the entire area of the inspection film image compared to a background area in which the inspection film does not exist;
a labeling step of dividing the film image for inspection into the region of interest and the background region by performing a labeling operation on the film image for inspection binarized in the binarization step; and
and an image cropping step of generating an image of the region of interest by cutting out the region of interest from the inspection film image subjected to the labeling operation in the labeling step.
제16항에 있어서,
상기 관심 영역 추출 단계는, 상기 검사용 필름 이미지의 해상도를 미리 정해진 비율만큼 줄이는 리사이징 단계를 더 포함하고,
상기 이진화 단계에서는, 상기 리사이징 단계에서 리사이징된 검사용 필름 이미지에 대해 이진화를 실시하는, 필름 피트 결함 검출 방법.
According to claim 16,
The step of extracting the region of interest further includes a resizing step of reducing the resolution of the film image for inspection by a predetermined ratio,
In the binarization step, the film pit defect detection method of performing binarization on the inspection film image resized in the resizing step.
제17항에 있어서,
상기 관심 영역 추출 단계는, 상기 리사이징 단계에서 리사이징된 검사용 필름 이미지를 흑백 변환하는 흑백 변환 단계를 더 포함하고,
상기 이진화 단계에서는, 상기 흑백 변환 단계에서 흑백 변환된 검사용 필름 이미지에 대해 이진화를 실시하는, 필름 피트 결함 검출 방법.
According to claim 17,
The step of extracting the region of interest further includes a black and white conversion step of converting the film image for inspection resized in the resizing step to black and white,
In the binarization step, the film pit defect detection method of performing binarization on the inspection film image converted to black and white in the black and white conversion step.
제15항에 있어서,
상기 후보 영역 추출 단계는,
상기 관심 영역 이미지에 대한 모폴로지 연산을 실시하여, 상기 관심 영역 이미지에 포함된 잡음을 제거하는 모폴로지 연산 단계;
상기 모폴로지 연산된 관심 영역 이미지에 대한 이진화를 실시하여, 상기 관심 영역 이미지에 포함된 피트 결함 후보들을 당해 피트 결함 후보들이 존재하지 않는 정상 영역에 비해 밝게 표시하는 이진화 단계;
상기 이진화된 관심 영역 이미지에 대한 레이블링 연산을 실시하여, 상기 관심 영역 이미지를 상기 피트 결함 후보들과 상기 정상 영역으로 분할하는 레이블링 단계;
상기 레이블링된 관심 영역 이미지로부터 적어도 하나의 피트 결함 후보들을 영역 별로 묶어서 잘라내어, 상기 결함 후보 영역 이미지들을 상기 피트 결함 후보들 중 적어도 하나의 피트 결함 후보들에 대한 이미지 정보를 각각 포함하도록 생성하는 이미지 크롭핑 단계를 포함하는, 필름 피트 결함 검출 방법.
According to claim 15,
In the step of extracting the candidate region,
a morphology calculation step of removing noise included in the ROI image by performing a morphology calculation on the ROI image;
a binarization step of performing binarization on the morphologically calculated region-of-interest image, and brightly displaying pit defect candidates included in the region-of-interest image compared to a normal region in which the pit defect candidates do not exist;
a labeling step of dividing the ROI image into the pit defect candidates and the normal region by performing a labeling operation on the binarized ROI image;
An image cropping step of grouping and cropping at least one pit defect candidate by region from the labeled region-of-interest image, and generating the defect candidate region images to include image information about at least one pit defect candidate among the pit defect candidates, respectively. Including, film pit defect detection method.
제19항에 있어서,
상기 후보 영역 추출 단계는, 상기 관심 영역 이미지에 대하여 픽셀 단위의 잡음을 완화하기 위한 중간값 필터링을 실시하는 중간값 필터링 단계를 더 포함하고,
상기 모폴로지 연산부는, 상기 중간값 필터링된 관심 영역 이미지에 대해 모폴로지 연산을 실시하는, 필름 피트 결함 검출 방법.
According to claim 19,
The step of extracting the candidate region further includes a median filtering step of performing median filtering for mitigating noise in units of pixels with respect to the ROI image;
Wherein the morphology calculation unit performs a morphology calculation on the median-filtered region-of-interest image.
제14항에 있어서,
미리 정해진 학습용 필름에 대한 이미지 정보를 포함하는 학습용 필름 이미지를 미리 정해진 데이터 증강 기법에 따라 처리하여, 상기 CNN 알고리즘의 학습을 위한 다수의 학습용 이미지 패치들을 생성하는 데이터 증강 단계를 더 포함하는, 필름 피트 결함 검출 방법.
According to claim 14,
Further comprising a data augmentation step of generating a plurality of training image patches for learning of the CNN algorithm by processing a training film image including image information on a predetermined training film according to a predetermined data augmentation technique, film pit Fault detection method.
제21항에 있어서,
상기 데이터 증강 단계는,
미리 정해진 추출 방식에 따라 상기 학습용 필름 이미지로부터 원본 이미지 패치들을 추출하는 원본 추출 단계; 및
미리 정해진 데이터 증강 기법에 따라 상기 원본 이미지 패치들을 적어도 포함하는 증강용 이미지 패치들로부터 다수의 학습용 필름 이미지 패치들을 생성하는 학습용 패치 생성 단계를 포함하는, 필름 피트 결함 검출 방법.
According to claim 21,
The data augmentation step,
an original extraction step of extracting original image patches from the learning film image according to a predetermined extraction method; and
A film pit defect detection method comprising a learning patch generating step of generating a plurality of training film image patches from augmentation image patches including at least the original image patches according to a predetermined data augmentation technique.
제22항에 있어서,
상기 학습용 패치 생성 단계는, 상기 증강용 이미지 패치들의 밝기를 미리 정해진 밝기 조절 범위 내에서 단계적으로 조절하여, 상기 증강용 이미지 패치로부터 상기 학습용 이미지 패치들을 생성하는 밝기 변화 단계를 포함하는, 필름 피트 결함 검출 방법.
The method of claim 22,
The generating of the training patches includes a brightness changing step of generating the training image patches from the augmentation image patches by stepwise adjusting the brightness of the augmentation image patches within a predetermined brightness control range. detection method.
제22항에 있어서,
상기 학습용 패치 생성 단계는, 상기 증강용 이미지 패치를 미리 정해진 회전 각도 범위내에서 단계적으로 회전시켜, 상기 증강용 이미지 패치들로부터 서로 상이한 배치 각도를 갖는 상기 학습용 이미지 패치들을 생성하는 회전 단계를 포함하는, 필름 피트 결함 검출 방법.
The method of claim 22,
The generating patch for learning step includes a rotation step of generating the learning image patches having different arrangement angles from the augmentation image patches by stepwise rotating the augmentation image patch within a predetermined rotation angle range. , Film pit defect detection method.
제22항에 있어서,
상기 학습용 패치 생성 단계는, 상기 증강용 이미지 패치를 미리 정해진 반전 방향으로 반전시켜, 상기 증강용 이미지 패치들로부터 서로 상이한 방향으로 반전된 상기 학습용 이미지 패치들을 생성하는 반전 단계를 포함하는, 필름 피트 결함 검출 방법.
The method of claim 22,
The generating of the training patches includes a reversing step of inverting the augmentation image patches in a predetermined inversion direction to generate the training image patches inverted in different directions from the augmentation image patches, the film pit defect detection method.
제22항에 있어서,
상기 증강용 이미지 패치들은, 상기 원본 이미지 패치들과, 상기 학습용 패치 생성 단계에서 미리 생성된 학습용 이미지 패치들을 포함하는, 필름 피트 결함 검출 방법.
The method of claim 22,
Wherein the augmentation image patches include the original image patches and training image patches generated in advance in the learning patch generation step.
KR1020220013066A 2022-01-28 2022-01-28 System and method for detecting pit defects on film KR20230116985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220013066A KR20230116985A (en) 2022-01-28 2022-01-28 System and method for detecting pit defects on film

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220013066A KR20230116985A (en) 2022-01-28 2022-01-28 System and method for detecting pit defects on film

Publications (1)

Publication Number Publication Date
KR20230116985A true KR20230116985A (en) 2023-08-07

Family

ID=87561313

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220013066A KR20230116985A (en) 2022-01-28 2022-01-28 System and method for detecting pit defects on film

Country Status (1)

Country Link
KR (1) KR20230116985A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117132563A (en) * 2023-08-24 2023-11-28 广东理工学院 Glass defect detection method and device, electronic equipment and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117132563A (en) * 2023-08-24 2023-11-28 广东理工学院 Glass defect detection method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
CN110232380A (en) Fire night scenes restored method based on Mask R-CNN neural network
CN111862143B (en) Automatic monitoring method for river dike collapse
CN110853005A (en) Immunohistochemical membrane staining section diagnosis method and device
Saini et al. Object detection in underwater image by detecting edges using adaptive thresholding
CN111079955A (en) GIS (geographic information System) equipment defect detection method based on X-ray imaging
CN109462999B (en) Visual inspection method based on learning through data balance and visual inspection device using same
CN114742799A (en) Industrial scene unknown type defect segmentation method based on self-supervision heterogeneous network
US5237621A (en) Product appearance inspection methods and apparatus employing low variance filter
KR101813223B1 (en) Method and apparatus for detecting and classifying surface defect of image
CN106951863A (en) A kind of substation equipment infrared image change detecting method based on random forest
KR20230116985A (en) System and method for detecting pit defects on film
Rhee Detection of spliced image forensics using texture analysis of median filter residual
CN107545557A (en) Egg detecting method and device in excrement image
CN111967345A (en) Method for judging shielding state of camera in real time
CN115035081A (en) Metal internal defect danger source positioning method and system based on industrial CT
CN113298086A (en) Red tide multispectral detection method based on U-Net network
CN111666811A (en) Method and system for extracting traffic sign area in traffic scene image
CN116824135A (en) Atmospheric natural environment test industrial product identification and segmentation method based on machine vision
CN116228659A (en) Visual detection method for oil leakage of EMS trolley
CN113537253B (en) Infrared image target detection method, device, computing equipment and storage medium
CN116152191A (en) Display screen crack defect detection method, device and equipment based on deep learning
CN112560929B (en) Oil spilling area determining method and device and storage medium
CN113034432B (en) Product defect detection method, system, device and storage medium
CN112750113B (en) Glass bottle defect detection method and device based on deep learning and linear detection
Fatichah et al. Optical flow feature based for fire detection on video data