KR101677070B1 - System and Method for Automatically Detecting a Mura Defect using Morphological Image Processing and Labeling - Google Patents

System and Method for Automatically Detecting a Mura Defect using Morphological Image Processing and Labeling Download PDF

Info

Publication number
KR101677070B1
KR101677070B1 KR1020140153068A KR20140153068A KR101677070B1 KR 101677070 B1 KR101677070 B1 KR 101677070B1 KR 1020140153068 A KR1020140153068 A KR 1020140153068A KR 20140153068 A KR20140153068 A KR 20140153068A KR 101677070 B1 KR101677070 B1 KR 101677070B1
Authority
KR
South Korea
Prior art keywords
image
unit
labeling
smoothing
histogram
Prior art date
Application number
KR1020140153068A
Other languages
Korean (ko)
Other versions
KR20160054150A (en
Inventor
이승호
조성제
Original Assignee
한밭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한밭대학교 산학협력단 filed Critical 한밭대학교 산학협력단
Priority to KR1020140153068A priority Critical patent/KR101677070B1/en
Publication of KR20160054150A publication Critical patent/KR20160054150A/en
Application granted granted Critical
Publication of KR101677070B1 publication Critical patent/KR101677070B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/958Inspecting transparent materials or objects, e.g. windscreens
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템 및 방법에 관한 것으로서,
대상물의 이미지를 취득하는 영상 획득부, 형태학적 영상 처리를 이용하여 상기 영상 획득부가 취득한 상기 이미지에서 조명 성분을 제거하는 전처리부와, 상기 전처리부에서 조명 성분이 제거된 이미지의 히스토그램을 획득한 후 히스토그램 평활화를 통해 전체 그레이 레벨로 확장시켜 이미지를 재구성하는 히스토그램 평활화부를 구비하는 영상 처리부 및 상기 영상 처리부에서 변환된 상기 이미지에 가버 필터를 적용하여 얼룩 후보 영역을 구성하는 얼룩 후보 생성부와, 상기 얼룩 후보 생성부에서 구성된 얼룩 후보 영역에 레이블링을 이용하여 얼룩을 검출하는 얼룩 검출부를 구비하는 영상 해석부를 포함함으로써, 높은 검출률과 높은 신뢰도를 갖는 얼룩 결함 자동 검출 시스템 및 방법을 제공할 수 있다.
The present invention relates to a system and a method for automatically detecting a spot defect using morphological image processing and labeling,
A preprocessing unit for removing an illumination component from the image acquired by the image acquiring unit using morphological image processing; and a histogram acquisition unit for acquiring a histogram of the image from which the illumination component has been removed in the preprocessing unit A histogram smoothing unit for reconstructing an image by expanding to a whole gray level through histogram smoothing and a smoothing candidate generating unit for forming a smoothing candidate region by applying a Gabor filter to the image transformed by the image processing unit; It is possible to provide a system and a method for automatically detecting odd defect by using a video analyzing unit having a smear detecting unit for detecting a smear by using labeling in a smear candidate region formed in the candidate generating unit.

Description

형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템 및 방법{System and Method for Automatically Detecting a Mura Defect using Morphological Image Processing and Labeling}Technical Field [0001] The present invention relates to a system and a method for automatically detecting blur defects using morphological image processing and labeling,

본 발명은 얼룩 결함 자동 검출 시스템 및 방법에 관한 것으로, 더욱 상세하게는 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템 및 방법에 관한 것이다.More particularly, the present invention relates to a system and method for automatically detecting blur defects using morphological image processing and labeling.

IT 산업이 발전함에 따라 스마트폰(smart phone)이나 태블릿 PC(tablet pc) 등의 휴대용 전자제품과 LCD 모니터, TV 등 가전제품 등의 사용이 증가함에 따라 다양한 종류와 크기에 따른 디스플레이에 관한 연구도 활발히 진행되고 있다.As the IT industry develops, the use of portable electronic products such as smart phones and tablet PCs, and LCD monitors, TVs, and other household appliances, It is actively proceeding.

이러한 디스플레이 표면에 이물이나 얼룩이 포함된 경우 백라이트 모듈(backlight module)에서 발생되는 빛이 왜곡되기 때문에 상품화 단계까지 진행되어 사용자가 이용하게 되면 디스플레이 화면이 흐릿해지거나 번지는 현상을 가진 휘도 불균일성(brightness non-uniformity)이 나타나게 되어 상품성이 떨어지고 사용자의 불편함을 느끼는 결과를 초래함과 동시에 수리하는 방법도 없으므로 제조 공정에서 디스플레이 표면의 품질 검사 작업이 중요하다. 따라서, 출고 전 디스플레이 표면의 얼룩(mura)을 확실하게 확인하는 작업을 수행해야 한다.If the display surface is contaminated with light or dirt, the light emitted from the backlight module is distorted. Therefore, when the display is blurred or worn by the user, the luminance non-uniformity -uniformity) is displayed, resulting in a drop in merchantability and inconvenience to the user, and there is no way to repair it. Therefore, quality inspection of the display surface is important in the manufacturing process. Therefore, it is necessary to confirm the mura of the display surface before shipment.

이때, 얼룩은 제조 공정 간 먼지나 이물, 검사자의 부주의로 인한 스크래치, 지문 등 많은 이유에 의해 생길 수가 있다. 현재까지는 이러한 얼룩들을 직접 육안으로 디스플레이 필름의 얼룩을 검사하여 불량을 판별하였으나, 육안으로 검사하게 되면 사람마다 완벽하게 똑같은 기준이 없을 뿐만 아니라 인건비와 시간이 많이 걸리는 단점이 있다.At this time, the unevenness may be caused by dust and foreign matter during the manufacturing process, scratches caused by the carelessness of the inspector, fingerprints, and the like. Until now, these stains have been directly inspected by the naked eye to determine the stain of the display film. However, when the stain is visually inspected, there is a disadvantage in that not only the same standards are not perfectly available for each person but also labor and time are required.

이러한 단점을 극복하기 위해 이미지 프로세싱을 이용하여 자동으로 얼룩을 검출하는 머신 비전 시스템의 중요성이 점점 증가하고 있다. 머신 비전 시스템이란 이러한 디스플레이 표면을 자동으로 검사하는 시스템으로서, 사람이 아닌 컴퓨터로 검사하려는 생산 제품의 영상을 촬영하여 컴퓨터로 가져오는 영상 획득 단계, 소프트웨어를 활용하여 입력된 영상에 필요한 처리를 수행하는 영상 처리 단계 및 영상 처리 결과를 바탕으로 검사 대상 제품이 불량이 있는지 판별하는 영상 해석 단계를 통해 디스플레이 표면을 자동으로 검사한다.  To overcome these drawbacks, machine vision systems that automatically detect stains using image processing have become increasingly important. The machine vision system is a system that automatically inspects the surface of the display. It is a system that captures an image of a product to be inspected by a non-human computer and fetches it to a computer, Based on the image processing step and the image processing result, the display surface is automatically inspected through an image analyzing step to determine whether the inspection target product is defective.

이러한 머신 비전 시스템을 이용하여 전문가 수준의 검출 알고리즘을 적용시킨다면 사람이 직접 얼룩을 검출하는 것보다 시간적인 측면이나 비용적인 측면에서 큰 효과를 볼 수 있을 것으로 전망된다.Applying a professional - level detection algorithm using such a machine vision system is expected to have a significant effect on time and cost in comparison with human direct spot detection.

최근, 디스플레이 필름의 얼룩 검출 자동화를 위해 머신 비전 시스템을 이용하여 영상을 획득하고 처리하는 알고리즘 방법에 대해서 다양한 방법으로 제안되고 있다. 얼룩 검출에 대한 방법은 크게 공간 영역(spatial domain)에서의 검출과 주파수 영역(frequency domain)에서의 검출, 그리고 공간영역과 주파수 영역 모두에서의 검출 등이 있다.In recent years, various algorithms have been proposed for an algorithm for acquiring and processing images using a machine vision system to automate spot blot detection of a display film. Methods for detecting spots include detection in a spatial domain, detection in a frequency domain, and detection in both a spatial domain and a frequency domain.

먼저, 공간 영역 영상 처리로 연구한 방법으로는 Wang과 Ling의 다항식 근사화를 이용한 면 정합(surface fitting) 기법으로 Region-Mura를 찾는 방법을 제안되었지만 이는 다양한 종류의 얼룩을 검출하지 못하는 단점이 있다. Chen과 Chiang는 임계값을 이용하여 얼룩을 검출하는 방법을 제안하였다. 이 방법은 얼룩 검출 시 같은 그레이 레벨 값에 대한 얼룩과 배경이 있으면 같이 찾는 경우가 생겨 얼룩 검출에 한계가 있다. Song 외 2명은 형태학적 처리를 통한 전처리 후 다양한 레벨의 임계값을 설정하여 얼룩을 검출하는 방법을 제안하였지만 다양한 얼룩을 검출하지 못하는 단점이 있다. Baek 외 3명은 다항식 근사화를 이용한 면 정합을 이용하여 배경의 명암을 추정하는 방법을 사용하였으나 임계값에 따라 결과 차이가 많이 나는 단점이 있다.First, as a method of spatial domain image processing, a method of finding a Region-Mura by a surface fitting method using a polynomial approximation of Wang and Ling has been proposed, but it has a disadvantage in that it can not detect various types of stains. Chen and Chiang proposed a method of detecting stains using threshold values. This method has a limitation in detection of a smear when detecting a smear, if there is a smear and background in the same gray level value. Song et al. Proposed a method of detecting a stain by setting thresholds at various levels after preprocessing through morphological processing, but it has a drawback in that it can not detect various stains. Baek et al. [3] used a method of estimating the background contrast using face matching using polynomial approximation, but there is a disadvantage in that there are many differences in results depending on the threshold value.

주파수 영역에서의 얼룩 검출 방법으로 Chen과 Kuo는 DCT 변환 후 차단 주파수로 배경 이미지를 추출하여 얼룩을 찾는 방법은 배경 제거에 효과적이나 차단 주파수 설정이 정확하게 되어야 얼룩을 검출할 수 있다. C. J. Chen 외 2명은 고주파보다 저주파에서 일어나는 변화에 민감한 인간의 특성을 수학적 모델링한 CSF(contrast sensitivity function)으로 얼룩을 검출하였으나 얼룩이 배경과 가까운 성분이면 검출력이 낮아질 수 있다. S.J. Kim외 5명은 웨이블릿 변환을 이용하여 얼룩을 검출하였으나 속도는 빠르지만 전처리나 후처리 과정이 부족하여 얼룩이 아닌 부분을 찾을 수도 있다. Nakano와 Mori는 웨이블릿 영역에서의 영역 개선 방법과 공간 영역에서의 임계값을 기반으로 얼룩검출을 제안하였으나 모든 얼룩의 종류를 찾을 수 없다는 단점이 있다.In the frequency domain, Chen and Kuo extract the background image at the cutoff frequency after the DCT conversion. The method of finding the stain is effective for background removal, but the stain can be detected by setting the cutoff frequency correctly. C.J.Chen et al. Detected the stain with a CSF (contrast sensitivity function) that mathematically modeled human characteristics that are sensitive to changes occurring at low frequencies rather than high frequencies. However, if the stain is close to the background, the detection power may be lowered. S.J. Kim et al. [5] used wavelet transform to detect blotches, but the speed is fast, but the preprocessing or post-processing process is insufficient to find non-spots. Nakano and Mori proposed speckle detection based on the area improvement method in the wavelet domain and the threshold value in the spatial domain, but it has a disadvantage in that it can not find all kinds of speckles.

한편, Xin Bi는 가버 필터와 Level set 방법으로 얼룩을 검출하였는데 가버 필터링 후 전체 영역을 탐색하는 Active contour model을 사용하여 얼룩을 검출력이 우수하나 Active contour 방법은 속도가 느리다는 단점이 있고, Jiang 외 2명은 휘도 와 분산에 대한 분석 및 EWMA(exponentially weighted moving average)를 이용한 방법을 제안하였으나 이 방법은 시행착오에 의해 값이 결정되어 얼룩을 찾는 단점이 있다.  Meanwhile, Xin Bi detects smear by Gabor filter and Level set method. However, it has disadvantage in that smear is detected by using active contour model which searches whole area after Gabor filtering, but active contour method is slow. Two of them proposed an analysis of brightness and dispersion and a method using exponentially weighted moving average (EWMA). However, this method has disadvantages in that it determines the value by trial and error and finds stains.

따라서, 본 발명에서는 형태학적 영상처리(morphology image processing)와 레이블링(labeling)을 이용하여 디스플레이 필름 표면의 얼룩을 자동으로 검출하는 기법을 제안한다.Accordingly, the present invention proposes a technique for automatically detecting a spot on a display film surface by using morphology image processing and labeling.

대한민국 공개특허공보 제10-2014-0006582호(공개일 2014.01.16.)Korean Patent Publication No. 10-2014-0006582 (Publication date 2014.01.16.) 대한민국 공개특허공보 제10-2011-0123512호(공개일 2011.11.15.)Korean Patent Publication No. 10-2011-0123512 (published on November 15, 2011).

따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 형태학적 영상 처리를 이용한 전처리 과정(preprocessing)을 거쳐 이미지에 포함되어 있는 조명을 제거하고, 가버 필터로 얼룩의 후보 영역을 구성하며, 레이블링을 통해 최종 얼룩을 검출하는 얼룩 결함 자동 검출 시스템 및 방법을 제공하는데 있다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art. Accordingly, an object of the present invention is to provide an image processing apparatus, And detecting a final smear through labeling. The present invention also provides a system and method for automatically detecting a stain defect.

상기와 같은 목적을 달성하기 위한 본 발명의 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템은, 대상물의 이미지를 취득하는 영상 획득부, 형태학적 영상 처리를 이용하여 상기 영상 획득부가 취득한 상기 이미지에서 조명 성분을 제거하는 전처리부와, 상기 전처리부에서 조명 성분이 제거된 이미지의 히스토그램을 획득한 후 히스토그램 평활화를 통해 전체 그레이 레벨로 확장시켜 이미지를 재구성하는 히스토그램 평활화부를 구비하는 영상 처리부 및 상기 영상 처리부에서 변환된 상기 이미지에 가버 필터를 적용하여 얼룩 후보 영역을 구성하는 얼룩 후보 생성부와, 상기 얼룩 후보 생성부에서 구성된 얼룩 후보 영역에 레이블링을 이용하여 얼룩을 검출하는 얼룩 검출부를 구비하는 영상 해석부를 포함한다.According to another aspect of the present invention, there is provided a system for automatically detecting a spot defect by using morphological image processing and labeling. The system includes an image obtaining unit for obtaining an image of an object, A histogram smoothing unit for obtaining a histogram of an image from which the illumination component has been removed by the preprocessing unit and then expanding the histogram to a whole gray level through histogram smoothing to reconstruct an image; A smoothing candidate generating unit configured to apply a Gabor filter to the image transformed by the processing unit to construct a smoothing candidate region and a smoothing detecting unit configured to detect smoothing using the labeling in the smoothing candidate region formed by the smoothing candidate generating unit .

한편, 본 발명의 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 방법은, 영상 획득부가 대상물 상면의 이미지를 획득하는 단계, 전처리부가 형태학적 영상 처리를 이용하여 상기 영상 획득부가 취득한 상기 이미지에서 조명 성분을 제거하는 단계, 히스토그램 평활화부가 상기 전처리부에서 조명 성분이 제거된 이미지의 히스토그램을 획득한 후 히스토그램 평활화를 통해 전체 그레이 레벨로 확장시켜 이미지를 재구성하는 단계, 얼룩 후보 생성부가 상기 히스토그램 평활화부에서 재구성된 변환된 이미지에 가버 필터를 적용하여 얼룩 후보 영역을 구성하는 단계 및 얼룩 검출부가 상기 얼룩 후보 생성부에서 구성된 얼룩 후보 영역에 레이블링을 이용하여 얼룩을 검출하는 단계를 포함한다.Meanwhile, the automatic detection method of blotch defects using morphological image processing and labeling of the present invention includes a step of acquiring an image of an object top surface of an object to be imaged by the image acquiring unit, The histogram smoothing unit acquires a histogram of the image from which the illumination component has been removed from the preprocessing unit, and then reconstructs the image by expanding the histogram to the entire gray level through histogram smoothing, Constructing a smear candidate region by applying a Gabor filter to the reconstructed transformed image, and detecting the smear using the labeling in the smear candidate region formed in the smear candidate generating section.

상술한 바와 같이, 본 발명에 의한 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템 및 방법은 다음과 같은 효과를 제공한다.As described above, the system and method for automatically detecting blur defects using morphological image processing and labeling according to the present invention provide the following effects.

1. 전처리 과정에서 형태학적 영상 처리를 이용해 배경을 추정하여 원본 이미지에서 조명 성분을 제거시킨 후 알고리즘을 적용시키기 때문에 조명이 있는 이미지에서도 얼룩을 검출할 수 있다.1. In the preprocessing process, the background is estimated using the morphological image processing, and the illumination is removed from the original image, and then the algorithm is applied so that the stain can be detected even in the illuminated image.

2. 레이블링으로 후보 영역을 얼룩으로 선정하는 단계에서는 얼룩 비교 알고리즘을 통해 얼룩으로만 영상을 구성할 수 있어서 검출력이 우수하다는 장점이 있다.2. In the step of selecting a candidate area as a stain by labeling, the stain comparison algorithm has an advantage in that the image can be formed only by stain, and thus the detection power is excellent.

3. 얼룩 모양이나 복합적인 얼룩 등 다양한 형태의 얼룩 검출과 색상에 영향 받지 않고 검출 가능한 결과를 도출할 수 있다.3. Detectable results can be obtained without being influenced by various types of stain detection and color such as stain or complex stain.

도 1은 본 발명의 바람직한 일 실시예에 따른 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템을 개략적으로 나타낸 블록 구성도이다.
도 2는 본 발명의 바람직한 일 실시예에 따른 얼룩 결함 자동 검출 방법을 설명하기 위한 흐름도이다.
도 3에 전처리부가 형태학적 영상 처리 기법을 이용하여 조명 성분을 제거하는 과정을 도시한 그림이다.
도 4a는 전처리부에서 조명 성분이 제거된 전처리 이미지의 히스토그램을 예시한 그래프이고, 도 4b는 전처리 이미지에 히스토그램 평활화를 수행한 후 이미지의 히스토그램을 예시한 그래프이다.
도 4a는 전처리부에서 조명 성분이 제거된 전처리 이미지의 히스토그램을 예시한 그래프이고, 도 4b는 전처리 이미지에 히스토그램 평활화를 수행한 후 이미지의 히스토그램을 예시한 그래프이다.
도 5는 이미지 상에 흰색 얼룩과 검은색 얼룩 두 가지가 포함되어 있는 경우 흰색 및 검은색 얼룩에 대한 히스토그램 평활화 과정을 나타내는 그림이다.
도 6은 본 발명의 바람직한 일 실시예에 따른 얼룩 후보 생성부의 가버 필터링 과정을 나타낸 그림이다.
도 7은 형태학적 전처리 후 가버 필터링을 적용한 이미지 상에 8-인접관계를 이용해 레이블링하는 과정을 나타내는 그림이다.
도 8은 가버 필터링 후 이미지의 후보 영역을 레이블링하여 번호를 매긴 이미지이다.
도 9는 레이블링을 통해 얼룩으로 판단된 객체들로 구성된 최종 얼룩 이미지이다.
도 10은 FPD 얼룩 샘플 이미지이다.
도 11은 도 10의 이미지를 이용하여 본 발명의 실시예에 따른 방법으로 얼룩을 검출한 결과를 나타낸다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram schematically showing a system for detecting an automatic blur defect using morphological image processing and labeling according to a preferred embodiment of the present invention.
2 is a flowchart illustrating a method of automatically detecting a spot defect according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating a process of removing illumination components using a preprocessing morphological image processing technique.
FIG. 4A is a graph illustrating a histogram of a preprocessed image in which the illumination component is removed from the preprocessing unit, and FIG. 4B is a graph illustrating a histogram of the image after histogram smoothing is performed on the preprocessed image.
FIG. 4A is a graph illustrating a histogram of a preprocessed image in which the illumination component is removed from the preprocessing unit, and FIG. 4B is a graph illustrating a histogram of the image after histogram smoothing is performed on the preprocessed image.
FIG. 5 is a diagram illustrating a histogram smoothing process for white and black spots when both white spots and black spots are included on an image. FIG.
6 is a diagram illustrating a Gabor filtering process of a smudge candidate generating unit according to an exemplary embodiment of the present invention.
FIG. 7 is a diagram illustrating a process of labeling using an 8-adjacent relation on an image to which Gabor filtering is applied after morphological preprocessing.
8 is a labeled image of a candidate region of an image after Gabor filtering.
FIG. 9 is a final smear image composed of objects judged to be smear through labeling.
10 is an FPD stain sample image.
Fig. 11 shows the result of detection of the blob by the method according to the embodiment of the present invention using the image of Fig.

얼룩은 모양과 색에 따라 분류하는데 본 명세서에서는 그림 1과 같이 종류에 따라 점 같은 얼룩을 spot 얼룩, 지문같이 한 영역에 나타나는 얼룩을 region 얼룩, 머리카락 같은 이물질이 포함 되어 있는 얼룩의 경우에는 foreign Substance, 3가지 얼룩이 두 종류 이상 복합적으로 있으면 complex 얼룩이라고 분류하였다.In the present specification, as shown in Fig. 1, spot stains are spot stains, spot stains appearing in a region such as a fingerprint are region stains, and foreign stains in the case of stains containing foreign substances such as hair, , And complex stains if there were more than two types of stains.

[그림 1] 얼룩의 종류[Figure 1] Types of stains

Figure 112014106740254-pat00001
Figure 112014106740254-pat00001

이하, 본 발명의 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an auto blotch detection system using morphological image processing and labeling according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 일 실시예에 따른 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템을 개략적으로 나타낸 블록 구성도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram schematically showing a system for detecting an automatic blur defect using morphological image processing and labeling according to a preferred embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 얼룩 결함 자동 검출 시스템은 제품의 생산 과정에서 발생하는 얼룩을 빠르고 정확하게 검사할 수 있도록, 대상물의 이미지를 취득하는 영상 획득부(100), 영상 획득부(100)가 취득한 대상물의 영상에 이미지 처리 소프트웨어를 활용하여 필요한 처리를 수행하는 영상 처리부(200) 및 상기 영상 처리부(200)의 영상 처리 결과를 바탕으로 대상물에 얼룩 결함이 있는지 여부를 판별하는 영상 해석부(300)를 포함하여 이루어진다.Referring to FIG. 1, an auto-blur defect detection system according to an exemplary embodiment of the present invention includes an image acquisition unit 100 for acquiring an image of an object, An image processing unit 200 for performing necessary processing using image processing software on the image of the object acquired by the acquisition unit 100 and a determination unit for determining whether or not there is a spot defect in the object based on the image processing result of the image processing unit 200 And an image analyzing unit (300).

영상 획득부(100)는 검사하려는 대상물의 상면 이미지를 획득하고 획득한 이미지를 영상 처리부(200)에 전송하는 구성으로서, 대상물의 상면으로부터 이격되어 배치되고 대상물의 상면을 향해 빛을 조사하는 조명부(110), 대상물의 상면으로부터 이격되어 배치되고 조명부로부터 조사되어 대상물의 상면에서 반사된 빛을 이용하여 영상을 촬영하는 촬영부(120), 조명부 및 촬영부를 대상물의 상면과 이격되고 평행한 평면상에서 움직이도록 구동하는 구동부(미도시)를 포함할 수 있다.The image acquiring unit 100 acquires an image of a top surface of an object to be inspected and transmits the acquired image to the image processing unit 200. The image acquiring unit 100 includes an illumination unit arranged to be apart from the upper surface of the object, An image capturing unit 120 that is disposed apart from the upper surface of the object and captures an image using the light reflected from the upper surface of the object, the illumination unit and the image capturing unit are moved on a plane spaced apart from the upper surface of the object, (Not shown) for driving the photoreceptor.

영상 처리부(200)는 영상 획득부(100)가 취득한 대상물의 영상에 이미지 처리 소프트웨어를 활용하여 필요한 처리를 수행하고 그러한 이미지를 영상 해석부(300)에 전송하는 구성으로서, 형태학적 영상 처리를 이용하여 영상 획득부(100)로부터 전송된 대상물의 이미지에서 조명을 제거하는 전처리부(210) 및 전처리부(220)에서 조명 성분이 제거된 이미지의 픽셀 값들을 히스토그램 평활화를 통해 전체 그레이 레벨로 분포시켜 가버 필터를 적용할 수 있는 형태로 재구성하는 히스토그램 평활화부(220)를 포함하여 이루어진다.The image processing unit 200 performs a necessary process using the image processing software on the image of the object acquired by the image obtaining unit 100 and transmits the image to the image analyzing unit 300 using morphological image processing The pre-processing unit 210 and the preprocessing unit 220 for removing illumination from the image of the object transmitted from the image acquiring unit 100 distribute the pixel values of the image from which the illumination component is removed to the entire gray level through histogram smoothing And a histogram smoothing unit 220 for reconstructing the image data into a shape that can apply a Gabor filter.

영상 해석부(300)는 영상 처리부(200)에서 전송된 대상물의 이미지로부터 얼룩 결함을 추출함으로써 불량 유무를 판별하는 구성으로서, 영상 처리부(200)에서 전송된 이미지에 가버 필터를 통해 얼룩 성분을 강조하여 얼룩 후보 영역을 구성하는 얼룩 후보 생성부(310), 및 얼룩 후보 생성부(310)에서 구성된 얼룩 후보 영역 이미지의 각 객체에 번호를 매기는 레이블링 방법으로 각 객체가 얼룩인지 아닌지 판단하여 이미지를 재구성하는 최종 얼룩 검출부(320)를 포함하여 이루어진다.The image analyzing unit 300 determines whether there is a defect by extracting a blur defect from an image of an object transmitted from the image processing unit 200. The image analyzing unit 300 emphasizes a blur component through a garber filter on an image transmitted from the image processing unit 200 A smear candidate generating unit 310 and a smoothing candidate generating unit 310. The smoothing candidate generating unit 310 generates a smoothing candidate region image by assigning a number to each object in the smoothing candidate region image, And a final blob detection unit 320 for reconstructing the image.

그러면, 여기서 상기와 같이 구성된 시스템을 이용한 본 발명의 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 방법에 대해 설명하기로 한다.Here, a description will be made of a method for automatically detecting blur defects using morphological image processing and labeling of the present invention using the system constructed as described above.

도 2는 본 발명의 바람직한 일 실시예에 따른 얼룩 결함 자동 검출 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method of automatically detecting a spot defect according to an embodiment of the present invention.

도 2를 참조하면, 먼저 영상 획득부(100)는 검사하려는 대상물의 상면 이미지를 획득하여 영상 처리부(200)에 전송한다. 예를 들면, 영상 획득부(100)는 촬영부(120)로 대상물의 상면을 촬영하여 촬영된 영상을 영상 처리부(200)에 입력할 수 있다.Referring to FIG. 2, the image acquisition unit 100 acquires a top image of an object to be inspected and transmits the image to the image processing unit 200. For example, the image acquiring unit 100 may photograph the image of the upper surface of the object with the photographing unit 120 and input the photographed image to the image processing unit 200.

다음으로, 대상물의 영상을 입력받은 영상 처리부(200)의 전처리부(210)는 1단계로 대상물의 이미지가 불균일한 조명 성분을 포함하고 있는 경우 형태학적 영상 처리를 통해 조명을 제거하는 전처리 과정을 수행한다(단계 1).Next, the preprocessing unit 210 of the image processing unit 200 receiving the image of the object performs a preprocessing process of removing illumination through morphological image processing when the image of the object includes non-uniform illumination components in one step (Step 1).

그리고, 영상 처리부(200)의 평활화부(220)는 2단계로 조명 성분이 제거된 영상에 히스토그램 평활화를 통해 전 범위의 그레이 레벨로 확장시켜 영상을 재구성한다(단계 2).The smoothing unit 220 of the image processing unit 200 reconstructs the image by expanding the gray level of the entire range through the histogram smoothing to the image in which the illumination components are removed in two stages (Step 2).

이어서, 영상 해석부(300)는 3단계에서 영상 처리부(200)에서 전송된 대상물의 이미지로부터 얼룩 결함을 추출함으로써 불량 유무를 판별한다. 이러한 얼룩의 검출은 얼룩 후보 생성부(310)가 영상 처리부(200)에서 전송된 이미지에 가버 필터를 적용함으로써 얼룩 성분을 강조하여 얼룩 후보 영역을 구성하고(단계 3.1), 최종 얼룩 검출부(320)가 얼룩 후보 생성부(310)에서 구성된 얼룩 후보 영역 이미지의 각 객체에 번호를 매기는 방법으로 각 객체가 얼룩인지 아닌지 판단하여 이미지를 재구성한다(단계 3.2).
Then, the image analyzing unit 300 determines whether or not there is a defect by extracting a spot defect from the image of the object transmitted from the image processing unit 200 in step 3. The detection of such a speck is performed by the smoothing candidate generating unit 310 by applying a Gabor filter to the image transmitted from the image processing unit 200 to form a smoothing candidate region (Step 3.1) The number of each object in the unevenness candidate region image formed by the unevenly-classified candidate generation unit 310 is numbered to determine whether or not each object is blotted, and the image is reconstructed (Step 3.2).

이하, 상술한 각 단계들에 대해서 보다 상세하게 설명하기로 한다.Hereinafter, each of the above-described steps will be described in detail.

1. 형태학적 영상 처리를 이용한 조명 성분 제거1. Elimination of illumination using morphological image processing

1) 형태학적 영상 처리1) Morphological image processing

형태학(morphology)이란 영상 내의 형태들을 분석하고 처리하는 기법이다. 형태학적 영상 처리는 영상의 경계, 블록, 골격 등 형태를 표현하거나 서술하는데 필요한 영상 요소를 추출하는데 사용되고, 영상의 객체 간 경계가 일정하지 않거나 단절되었을 때 연결하는데도 사용된다. 팽창과 침식은 형태학에 대해 필수적인 연산으로 사실상 대부분의 형태학적 영상 처리는 이 두 연산을 기반으로 한다.Morphology is a technique for analyzing and processing shapes in an image. Morphological image processing is used to extract image elements necessary for expressing or describing shapes such as boundaries, blocks, and skeletons of images, and is also used to connect when the boundaries between images are not constant or disconnected. Expansion and erosion are essential operations for morphology, and virtually all morphological image processing is based on these two operations.

침식(erosion)은 이미지 내의 객체의 크기를 구조요소를 이용하여 일정하게 줄여주는 것으로서 객체의 크기는 줄어들고 배경은 확대되는 결과를 나타낼 수 있다. 따라서 영상의 객체와 배경 사이에 잡음을 제거하거나 아주 작은 객체를 제거하는데 유용하다.Erosion reduces the size of an object in an image constantly using a structural element, thereby reducing the size of the object and enlarging the background. It is therefore useful to remove noise or remove very small objects between objects in the image.

침식은 Z2의 공간에서 집합 A와 B가 있을 때 이를 수식으로 표현하면 수학식 1과 같다. 여기서, A는 객체이고 B는 구조요소이다. 이 식은 B에 의한 A의 침식이 Z에 의해 이동된 B가 A에 포함되는 모든 점 Z의 집합임을 의미한다. 그림 2는 침식 과정을 나타낸 것이다. 그림 2a는 원본 이미지, 그림 2b는 구조요소, 그림 2c는 원본 이미지에 구조요소로 침식 연산을 수행하는 과정이고, 그림 2d는 최종 침식이미지이다.The erosion is expressed by Equation (1) when there are sets A and B in the space of Z 2 . Here, A is an object and B is a structure element. This equation implies that the erosion of A by B is a set of all points Z contained in A by B moved by Z. Figure 2 shows the erosion process. Figure 2a is the original image, Figure 2b is the structural element, Figure 2c is the erosion operation to the original image, and Figure 2d is the final erosion image.

[수학식 1][Equation 1]

Figure 112014106740254-pat00002
Figure 112014106740254-pat00002

[그림 2] 침식 연산[Figure 2] Erosion Operation

Figure 112014106740254-pat00003
Figure 112014106740254-pat00003

팽창(dilation)은 객체 내부의 돌출부를 제거하고 외부의 돌출부는 증가시켜 객체의 크기를 확장하고 배경은 축소하는 결과를 나타낼 수 있다. 객체 내부에 발생한 구멍과 같은 공간을 채우거나 짧게 끊어진 영역을 연결하는데 사용된다.Dilation can result in enlarging the object size and reducing the background by removing the protrusion inside the object and increasing the protrusion outside. It is used to fill the hole-like space inside the object or connect short-cut areas.

팽창을 Z2의 공간에서 집합 A와 B 가 있을 때 수식으로 표현하면 수학식 2와 같다. 그림 3은 팽창 과정을 그림을 나타낸 것이다. 그림 3a는 원본 이미지, 그림 3b는 구조요소, 그림 3c는 원본 이미지에 구조요소로 팽창 연산을 수행하는 과정이고, 그림 3d는 최종 팽창 이미지이다.Expression when expansion A is in the space of Z 2 and B is in the space of Z 2 is expressed by Equation (2). Figure 3 shows the expansion process. Figure 3a is the original image, Figure 3b is the structural element, Figure 3c is the process of performing the expansion operation with the structural element in the original image, and Figure 3d is the final expansion image.

[수학식 2]&Quot; (2) "

Figure 112014106740254-pat00004
Figure 112014106740254-pat00004

[그림 3] 팽창 연산[Figure 3] Expansion operation

Figure 112014106740254-pat00005
Figure 112014106740254-pat00005

열기(opening)는 침식 연산 후 팽창 연산을 하는 것을 말하는데 볼록한 부분을 제거하고 좁은 연결을 끊어 영상의 외곽선을 부드럽게 만든다. 객체의 형상과 크기는 보존되며 돌출 부분과 좁은 연결 부위를 제거하므로 제거 연산이라고도 한다.Opening is an expansion operation after an erosion operation, removing the convexity and breaking the narrow connection to smooth out the outline of the image. The shape and size of the object is preserved and is called an elimination operation because it removes the protrusion and the narrow connection.

구조요소 B에 의한 집합 A의 열기는 수학식 3과 같이 B에 의한 A의 침식 연산 후 그 결과를 B에 의해 팽창시키는 것이다. 그림 4는 열기 과정을 그림을 나타낸 것이다. 그림 4a는 원본 이미지, 그림 4b는 구조요소, 그림 4c는 원본 이미지에 침식 연산을 수행한 결과이고, 그림 4d는 팽창 과정을 거쳐 최종적으로 열기 연산을 수행한 이미지이다.The heat of assembly A by the structural element B is the expansion of the result by B after the erosion operation of A by B as shown in Equation 3. [ Figure 4 shows the opening process. Fig. 4a shows the original image, Fig. 4b shows the structure element, Fig. 4c shows the result of erosion operation on the original image, and Fig. 4d shows the image after the expansion process.

[수학식 3]&Quot; (3) "

Figure 112014106740254-pat00006
Figure 112014106740254-pat00006

[그림 4] 열기 연산[Figure 4] Open computation

Figure 112014106740254-pat00007
Figure 112014106740254-pat00007

닫기(closing)는 열림 연산과 반대로 팽창 연산 후 침식 연산을 수행하는 것을 말한다. 오목하게 들어간 부분이나 작은 구멍을 채워 열림 연산과 마찬가지로 영상의 외곽선 부분을 부드럽게 만들며, 객체의 형태와 크기는 보존된다. 작은 구멍이나 틈을 채우는 역할도 하므로 채움 연산이라도 한다.Closing refers to performing an erosion operation after an expansion operation as opposed to an open operation. Like the opening operation, filling the concave part or the small hole smooths the outline part of the image, and the shape and size of the object are preserved. It is also a filling operation because it also serves to fill small holes and gaps.

마찬가지로 구조요소 B에 의한 집합 A의 닫기는 B에 의한 A의 팽창 연산 후 그 결과를 B에 의해 침식시키는 것이다. 닫기 연산을 식으로 나타내면 수학식 4와 같다. 그림 5는 닫기 과정을 그림을 나타낸 것이고 그림 5a는 원본 이미지, 그림 5b는 구조요소, 그림 5c는 원본 이미지에 팽창 연산을 수행한 결과이고 그림 5d는 침식 과정을 거쳐 최종적으로 닫기 연산을 수행한 이미지이다.Similarly, the closing of set A by structure element B is to erode the result by B after the expansion operation of A by B. The close operation can be expressed by Equation (4). Figure 5 shows the close process, Figure 5a shows the original image, Figure 5b shows the structure element, Figure 5c shows the result of the expansion operation on the original image, Figure 5d shows the result of the close operation after the erosion process, to be.

[수학식 4]&Quot; (4) "

Figure 112014106740254-pat00008
Figure 112014106740254-pat00008

[그림 5] 닫기 연산[Figure 5] Close operation

Figure 112014106740254-pat00009
Figure 112014106740254-pat00009

2) 형태학적 영상처리를 이용한 전처리 방법2) Pretreatment method using morphological image processing

본 발명의 일 실시예에 따른 얼룩 검출 방법에서는 조명 성분이 포함되어 있는 경우 조명 성분을 얼룩이라 판단하여 잘못된 결과가 나올 수 있기 때문에 얼룩 검출 알고리즘을 적용하기 전에 조명 성분을 제거하는 전처리 과정을 수행한다. 이하에서는 열기와 닫기 연산을 통한 얼룩 이미지의 전처리 방법에 관하여 살펴보기로 한다.In the smear detection method according to an embodiment of the present invention, when an illumination component is included, an illumination component is determined as smear and an erroneous result may be obtained. Therefore, a preprocessing process is performed to remove the illumination component before applying the smear detection algorithm . Hereinafter, the preprocessing method of the smear image through the open and close operations will be described.

동일한 조명 조건을 가진 두 이미지 즉, 얼룩이 포함된 영상과 얼룩이 없는 두 영상을 나누게 되면 같은 그레이 스케일 성분을 가지는 픽셀 값은 같은 그레이스케일 성분으로 처리되므로 조명 성분이 제거되는 효과를 얻을 수 있지만, 그렇지 않은 경우 조명 성분을 제거하기 위해서 이미지 자체에서 조명을 추정하여 제거하는 방법을 이용해야 한다.If two images having the same illumination condition, that is, the image including the smear and the image without the smear, are divided, the pixel value having the same gray scale component is treated as the same gray scale component, so that the effect of removing the illumination component can be obtained. , It is necessary to use a method of estimating and removing illumination from the image itself in order to remove the illumination component.

본 발명의 실시예에서는 형태학적 영상처리 기법을 이용하여 이미지의 조명성분을 제거하는 방법을 사용한다. 이에, 전처리부(210)는 원본과 똑같은 후보 이미지를 만들어 조명 성분을 추정하여 원본 이미지와 추정 이미지를 차연산하여 조명을 제거한다. 구체적으로, 형태학적 영상 처리 방법 중 구조요소를 사용하는 열기 연산 및 닫기 연산을 이용하여 이미지에 적용시키게 되면 원 이미지에서 조명을 추정할 수 있고, 이 영상을 원 영상과 차연산하게 되면 조명 성분을 제거하는 효과를 낼 수 있으며 원래 얼룩 성분은 그대로 남게 된다.In the embodiment of the present invention, a method of removing an illumination component of an image using a morphological image processing technique is used. The preprocessing unit 210 generates a candidate image identical to the original image, estimates an illumination component, and subtracts the original image from the estimated image to remove illumination. More specifically, when the image is applied to an image using an open operation and a close operation using a structural element among the morphological image processing methods, the illumination can be estimated from the original image. The effect of elimination can be achieved and the original stain component remains intact.

도 3에 전처리부가 형태학적 영상 처리 기법을 이용하여 조명 성분을 제거하는 과정이 도시되었다. 도 3에 도시된 바와 같이, 영상 획득부(100)로부터 전송된 원본 이미지에서 도 3a와 같이 열기 연산을 하게 되면 원본 이미지에서 작은 돌출부나 잡음 조각이 제거되고 그 이미지에 도 3b와 같이 닫기 연산을 하면 작은 구멍이나 틈새가 제거된다. 도 3c는 열기-닫기 연산 후 조명 성분을 추정하여 나타낸 그림이다. 도 3d는 원 이미지와 도 3c 이미지를 차연산하여 재구성된 영상을 나타내는 이미지이다.
FIG. 3 shows a process of removing illumination components using a preprocessing morphological image processing technique. As shown in FIG. 3, when an open operation is performed on the original image transmitted from the image obtaining unit 100, a small protrusion or a noise piece is removed from the original image, and a close operation is performed on the image as shown in FIG. 3B The small holes and gaps are removed. FIG. 3C is a diagram showing an estimation of illumination components after the open-close operation. FIG. 3D is an image representing a reconstructed image obtained by performing a subtraction between the original image and the image of FIG. 3C.

2. 히스토그램 평활화2. Histogram Smoothing

히스토그램 평활화부(220)는 전처리부(210)에서 조명 성분이 제거된 영상에 후술하는 얼룩 후보 생성부(310)의 가버 필터를 효율적으로 적용시키기 위해 히스토그램 평활화를 통해 전 범위의 그레이 레벨로 확장시켜 영상을 재구성한다.The histogram smoothing unit 220 extends histogram smoothing to a gray level of the entire range in order to efficiently apply the Gabor filter of the smoothing candidate generating unit 310, which will be described later, to the image from which the illumination component has been removed by the preprocessing unit 210 Reconstruct the image.

도 4a는 전처리부에서 조명 성분이 제거된 전처리 이미지의 히스토그램을 예시한 그래프이고, 도 4b는 전처리 이미지에 히스토그램 평활화를 수행한 후 이미지의 히스토그램을 예시한 그래프이다.FIG. 4A is a graph illustrating a histogram of a preprocessed image in which the illumination component is removed from the preprocessing unit, and FIG. 4B is a graph illustrating a histogram of the image after histogram smoothing is performed on the preprocessed image.

도 4에 도시된 바와 같이, 히스토그램 평활화부(220)는 원 이미지에서 조명 성분을 추정한 이미지와 차연산을 하게 되면 배경 성분은 같은 값을 가지므로 0에 가까운 값이 되고 얼룩 성분은 도 4a와 같이 배경 성분의 그레이 스케일 값을 뺀 값이 나오게 되므로 도 4b와 같이 히스토그램 평활화를 통해 전체 그레이 레벨로 확장시켜 얼룩을 두드러지게 하는 효과를 적용한다.As shown in FIG. 4, when the histogram smoothing unit 220 performs a difference operation with the image obtained by estimating the illumination component in the original image, the background components have the same value, The value obtained by subtracting the grayscale value of the background component is obtained as shown in FIG. 4B. Therefore, the histogram smoothing is performed to expand the entire gray level to emphasize the stain as shown in FIG. 4B.

한편, 도 5는 이미지 상에 흰색 얼룩과 검은색 얼룩 두 가지가 포함되어 있는 경우 흰색 및 검은색 얼룩에 대한 히스토그램 평활화 과정을 나타내는 그림으로서, 도 5를 참조하여 히스토그램 평활화부(220)는 이미지 상에 흰색 얼룩과 검은색 얼룩 두 가지가 포함되어있는 경우 한쪽 측면으로만 전처리 과정을 거치게 되면 검은색이나 흰색 얼룩 중 한 가지만 찾게 되므로 히스토그램 평활화를 두 가지 방법으로 한다. 이에, 첫 번째 이미지는 영상 그대로에 대해서 히스토그램 평활화 과정을 진행하고 두 번째 이미지는 히스토그램을 이미지 반전시킨 후 평활화를 하게 된다.
5 illustrates histogram smoothing processes for white and black spots when both white spots and black spots are included on the image. Referring to FIG. 5, the histogram smoothing unit 220 calculates a histogram If there are two white spots and one black speckle, if only one side is preprocessed, only one of the black spots or white speckles will be found. Histogram smoothing can be done in two ways. Thus, the first image is subjected to the histogram smoothing process as it is, and the second image is smoothed after the image is inverted.

3. 얼룩 결함 추출3. Stain defect extraction

3.1 3.1 가버Gover 필터를 이용한 얼룩 후보 영역 구성 Construct a candidate region for unevenness using a filter

1) 가버 필터링1) Gabor filtering

가버 필터는 주파수 및 방위들이 인간의 시각 시스템과 유사하여 무늬의 표현이나 식별을 위해 적합한 필터이다. 2D 가버 필터는 2D 가우시안 함수와 복소수 함수에 의해 수학식 5와 같이 정의된다. 단, 수학식 5에서 u0, v0는 특정 공간 주파수이고, g(x,y)는 가우시안 함수이다.The Gabor filter is a filter that is similar in frequency and orientation to the human visual system and is suitable for representation or identification of the pattern. The 2D gauge filter is defined by the 2D Gaussian function and the complex function as shown in equation (5). In Equation (5), u 0 and v 0 are specific spatial frequencies, and g (x, y) is a Gaussian function.

[수학식 5]&Quot; (5) "

Figure 112014106740254-pat00010
Figure 112014106740254-pat00010

가우시안 함수는 수학식 6과 같이 나타난다. 여기서,

Figure 112014106740254-pat00011
는 표준편차이다.The Gaussian function is expressed by Equation (6). here,
Figure 112014106740254-pat00011
Is the standard deviation.

[수학식 6]&Quot; (6) "

Figure 112014106740254-pat00012
Figure 112014106740254-pat00012

2D 가버 필터 함수는 복소수 함수이므로 다음과 같이 실수부와 허수부로 나눌 수 있다. 가버 필터의 실수부는 수학식 7과 같이 나타내고 그림 6과 같다. 허수 부분은 수학식 8과 같고 그림 7과 같이 나타낸다.Since the 2D Gabor filter function is a complex function, it can be divided into a real part and an imaginary part as follows. The real part of the Gabor filter is shown in Equation 7 and is shown in Fig. The imaginary part is expressed by Equation 8 and is shown in FIG.

[수학식 7]&Quot; (7) "

Figure 112014106740254-pat00013
Figure 112014106740254-pat00013

[그림 6] 공간 도메인 가버 필터[Figure 6] Spatial Domain Gabor Filter

Figure 112014106740254-pat00014
Figure 112014106740254-pat00014

[수학식 8]&Quot; (8) "

Figure 112014106740254-pat00015
Figure 112014106740254-pat00015

[그림 7] 주파수 도메인 가버 필터[Figure 7] Frequency domain Gabor filter

Figure 112014106740254-pat00016
Figure 112014106740254-pat00016

2) 가버 필터를 이용한 얼룩 후보 영역 구성2) Configuration of unevenness candidate region using Gabor filter

본 발명의 실시예에 따른 영상 해석부(300)의 얼룩 후보 생성부(310)는 이중 허수 부분의 가버 필터보다 실수 부분 가버 필터가 얼룩 강조에 유용하므로 실수 가버 필터링을 사용하여 얼룩을 강조하여 얼룩 후보 영역을 구성한다. 실수 가버 필터의 수식은 수학식 9와 같다.The blur candidate generation unit 310 of the image analysis unit 300 according to the embodiment of the present invention uses real gauge filtering to emphasize the blurring, And constitute a candidate region. The formula of the real number Garber filter is as shown in equation (9).

[수학식 9]&Quot; (9) "

Figure 112014106740254-pat00017
Figure 112014106740254-pat00017

단, 수학식 9에서

Figure 112014106740254-pat00018
는 주파수,
Figure 112014106740254-pat00019
는 회전각, u0
Figure 112014106740254-pat00020
, v0
Figure 112014106740254-pat00021
이다.In Equation 9,
Figure 112014106740254-pat00018
Is the frequency,
Figure 112014106740254-pat00019
Is the rotation angle, u 0 is
Figure 112014106740254-pat00020
, v 0
Figure 112014106740254-pat00021
to be.

한편, 얼룩 후보 생성부(320)는 전처리 과정을 거친 후 생성된 두 개의 이미지에 대해 각각 가버 필터링을 한 후 두 개의 이미지를 AND 연산을 통해 하나의 이미지로 재구성을 하게 된다.On the other hand, the smudge candidate generating unit 320 performs Gabor filtering on the two images generated after the preprocessing process, and reconstructs the two images into one image through an AND operation.

도 6은 본 발명의 바람직한 일 실시예에 따른 얼룩 후보 생성부의 가버 필터링 과정을 나타낸 그림이다. 도 6을 참조하면, 얼룩 후보 생성부(320)는 먼저 형태학적 전처리 후 히스토그램 평활화로 두 부분으로 나뉜 영상을 각각 가버 필터링 하여 나타내고 두 이미지를 AND 연산을 통해 한 이미지로 표현한다.
6 is a diagram illustrating a Gabor filtering process of a smudge candidate generating unit according to an exemplary embodiment of the present invention. Referring to FIG. 6, the smear candidate generating unit 320 first displays the images divided into two parts by histogram smoothing after morphological preprocessing, and expresses the two images as an image through an AND operation.

3.2 후보 영역 3.2 Candidate Area 레이블링Labeling 후 얼룩 선정 After stain selection

1) 레이블링1) Labeling

레이블링은 가버 필터링 후 이진화된 이미지의 모든 화소를 탐색하여 4-연결성(4-connected)이나 8-연결성(8-connected) 등으로 연결 관계를 이용함으로써 번호를 매기는 방법으로 각 객체를 구분하는 방법이다.The labeling method is to divide each object in the binarized image by 4-connected or 8-connected by using the connection relation. to be.

레이블링시 4-연결성과 8-연결성은 그림 8과 같이 나타낼 수 있다.When labeling, 4-connectivity and 8-connectivity are shown in Fig.

이미지상의 (x, y)에 있는 한 화소 p는 좌표가 (x + 1 , y), (x - 1, y), (x, y + 1), (x, y-1)인 두 개의 수평 이웃과 두 개의 수직 이웃을 갖는데 p의 4 이웃 집합을 N4(p)로 표기하고 그림 8a와 같이 나타낸다. 화소 p의 네 개의 대각선 이웃은 (x + 1, y + 1), (x + 1, y - 1), (x - 1, y + 1), (x - 1, y -1)이고 수직 및 수평 성분과 함께 p의 8 이웃 집합이라 하고 N8(p)와 같이 표기하고 그림 8b와 같이 나타낸다.A pixel p in (x, y) on the image has two horizontal lines whose coordinates are (x + 1, y), (x-1, y), (x, y + The neighbors have two vertical neighbors, and the four neighboring sets of p are denoted by N 4 (p), as shown in Figure 8a. The four diagonal neighbors of pixel p are (x + 1, y + 1), (x + 1, y - 1), It is called 8-neighbors of p and 8 (p) together with the horizontal component.

한편, 이미지 상의 두 화소 p와 주변 화소가 만일 주변 화소 N4(p)이면 4-인접(4-adjacent)한다고 하고, 마찬가지로 p와 주변 화소가 만일 주변 화소 N8(p)이면 8-인접(8-adjacent)한다고 한다. 그림 8c와 같이 4-인접관계는 4-인접과 동시에 8-인접한다고 할 수 있지만 그림 8d는 4-인접하지 않고 8-인접한다고 할 수 있다.If two pixels p on the image and neighboring pixels N 4 (p) are 4-adjacent to each other and p and neighboring pixels are adjacent to N 8 (p) 8-adjacent). As shown in Fig. 8c, the 4-adjacency relation can be said to be 8-adjacency with 4-adjacency, but Fig. 8d can be said to be 8-adjacency without 4-adjacency.

[그림 8] 4-연결성과 8-연결성[Figure 8] 4-Connectivity and 8-Connectivity

Figure 112014106740254-pat00022
Figure 112014106740254-pat00022

4-인접관계와 8-인접관계에 따라 레이블링 결과가 달라지는데 4-인접관계를 이용하여 레이블링을 하게 되면 수직과 수평 성분에 관해서만 연결이 유지되므로 그림 9a와 같이 레이블링이 1부터 4까지 4단계로 나타내어지고, 8-인접관계를 이용하여 레이블링을 하면 수직, 수평 및 대각선 방향의 화소까지 인접관계에 포함되므로 그림 9b와 같이 2단계로 나타내어진다.The labeling results are different according to the 4-adjacent relation and the 8-adjacent relation. If the labeling is performed using the 4-adjacent relation, the connection is maintained only for the vertical and horizontal components. When labeling is performed using the 8-adjacent relationship, pixels in the vertical, horizontal, and diagonal directions are included in the adjacent relationship, and thus are represented in two steps as shown in FIG. 9b.

[그림 9] 4-연결성과 8-연결성을 이용한 레이블링[Figure 9] Labeling with 4-connectivity and 8-connectivity

Figure 112014106740254-pat00023
Figure 112014106740254-pat00023

2) 후보영역 레이블링2) Label candidate regions

본 발명의 실시예에 따른 얼룩 검출부(320)에서는 가버 필터링 후 이진화한 후보영역을 레이블링을 사용하여 최종적으로 얼룩인지를 판별하여 판단한다.In the speckle detection unit 320 according to the embodiment of the present invention, the candidate region binarized after Gabor filtering is finally determined to be speckle using labeling and determined.

도 7은 형태학적 전처리 후 가버 필터링을 적용한 이미지 상에 8-인접관계를 이용해 레이블링하는 과정을 나타내는 그림으로서, 도 7a 내지 도 7d는 각각 하기 단계 701 내지 단계 704의 이미지를 나타낸다.FIG. 7 is a diagram illustrating a process of labeling using an 8-adjacent relationship on an image to which Gabor filtering is applied after morphological preprocessing, and FIGS. 7A to 7D respectively show images of the following steps 701 to 704.

도 7c와 같이 1번 레이블링 영역의 평균값과 주변 영역의 평균값을 계산하여 97.5~100% 일치하게 되면 배경으로 인식하여 레이블링 영역에서 제외하고, 97.5%미만이면 얼룩이라 판단되어 레이블링 객체를 이미지에 유지한다. 최종 레이블링 이미지는 도 7d와 같고, 수학식 10은 레이블링 객체의 판단 기준을 나타내었다.As shown in FIG. 7C, if the average value of the first labeling area and the average value of the surrounding area are 97.5 to 100% identical, the background is recognized as the background and excluded from the labeling area. If the average value is less than 97.5% . The final labeling image is shown in FIG. 7D, and the formula (10) represents a criterion for determining the labeling object.

<단계 701> 가버 필터링 이미지 후보를 8-연결성을 이용해 레이블링한다.&Lt; Step 701 > Gabor filtering image candidates are labeled using 8-connectivity.

<단계 702> 전체 레이블링 객체의 픽셀수가 3픽셀 이하인 경우 얼룩이라 판단하지 않고 레이블링 이미지에서 삭제하여 얼룩 후보에서 제외한다.&Lt; Step 702 > When the number of pixels of the entire labeling object is 3 pixels or less, it is not determined as a spot, but is deleted from the labeling image and excluded from the smear candidate.

<단계 703> 각 레이블링한 객체에 대해 수학식 10과 같이 주변값 비교식을 적용하여 얼룩인지 배경인지 판단하여 배경이라 판단된 영역은 레이블링된 이미지에서 제외하고 얼룩이라 판단된 영역은 얼룩이라 판단하여 최종이미지를 구성한다.&Lt; Step 703 > For each labeled object, a surrounding value comparison formula is applied as shown in Equation (10) to determine whether the background is a spot or background. The region determined as background is excluded from the labeled image. Construct the final image.

<단계 704> 얼룩으로 판단된 객체들로 최종 이미지를 구성한다.&Lt; Step 704 > The final image is composed of objects determined to be stains.

[수학식 10]&Quot; (10) &quot;

Figure 112014106740254-pat00024
Figure 112014106740254-pat00024

도 8은 가버 필터링 후 이미지의 후보 영역을 레이블링하여 번호를 매긴 이미지이고, 도 9는 레이블링을 통해 얼룩으로 판단된 객체들로 구성된 최종 얼룩 이미지이다. 번이 배경 성분이라 판단하고 나머지 , , 번은 얼룩이라 판단하였다면 최종 얼룩 이미지는 도 9와 같이 , , 번으로만 구성하게 된다.
FIG. 8 is a labeled image of a candidate region of an image after Gabor filtering, and FIG. 9 is a final smear image composed of objects determined to be smear through labeling. If it is determined that the number of the background blur is a background component and the number of remaining blur is determined to be blur, then the final blur image is composed only of the number of blur, as shown in FIG.

표 1은 실험에 사용된 이미지 얼룩의 종류 및 본 발명의 실시예에 따른 검출 결과를 나타낸다.Table 1 shows the types of image stains used in the experiment and the detection results according to the embodiment of the present invention.

형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 방법에 대한 검출 평가를 위하여, 각 이미지는 크기와 얼룩의 종류에 따라 구분하였고 모든 이미지는 410X410으로 총 168,100픽셀로 구성하였다. 표 1에 보인 것과 같이 검출률을 산출하기 위하여 사용된 샘플은 spot 얼룩, region 얼룩, foreign 얼룩, complex 얼룩 등으로 총 200장의 얼룩 샘플을 사용하였다. spot 얼룩점 형태로 된 얼룩을 말하고, region 얼룩은 지문 같은 모양을 가지는 얼룩이다. foreign substance는 머리카락 같은 이물이 포함된 이미지이고 complex 얼룩은 복합적으로 두 개 이상의 종류의 얼룩이 합쳐진 것을 사용하였다. 각 얼룩 이미지는 이미지 상에서 흰색과 검은색 두 가지 종류로 나누어 분류하여 실험을 진행하였다.For detection and evaluation of automatic detection method of stain defect using morphological image processing and labeling, each image was classified by size and stain type. All images were composed of 410,401 pixels, totaling 168,100 pixels. As shown in Table 1, the samples used to calculate the detection rate were a total of 200 stain samples, such as spot stain, region stain, foreign stain, and complex stain. A spot is a speck in the form of a speckle, and a region speckle is a speckle with a fingerprint. The foreign substance is an image containing a hair-like foreign substance, and complex stains are used in combination of two or more kinds of stains. The images were classified into two types of white and black on the image.

얼룩 종류Stain type 실험 이미지 수Number of experimental images 검출 이미지 수Number of detected images 검출률Detection rate spotspot 3232 2626 81.25%81.25% regionregion 135135 134134 99.3%99.3% foreign substance유산 1414 1414 100%100% complexcomplex 1919 1717 88.2%88.2% 총 계sum 200200 191191 95.5%95.5%

표 1에 보인 바와 같이, 본 발명의 실시예에 따른 얼룩 검출 방법은 실험을 수행한 결과 총 200장의 이미지에서 미 검출된 이미지는 9장으로써 95.5% 정도의 높은 검출률을 나타내었다.As shown in Table 1, in the method of detecting a stain according to an embodiment of the present invention, nine images were not detected in a total of 200 images, and the detection rate was as high as 95.5%.

본 명세서에서는 Semu 지수("Definition of measurement index (SEMU) for luminance Mura in FPD image quality inspection", SEMI D31-1102, 2002.)를 적용하여 객관적인 신뢰도를 평가하였다. Semu 지수는 2002년에 SEMI에서 FPD 얼룩에 대한 평가를 객관적으로 평가하기 위해 만든 지수이다. Semu 지수는 인간의 시각으로 인지할 수 있는 최소 식별 차이인 CJND와 얼룩의 평균명암인 Cx의 비로 나타낸다.In this specification, the objective reliability was evaluated by applying the Semu index (SEMI D31-1102, 2002.) to the SEMU for luminance Mura in FPD image quality inspection. The Semu Index was created in 2002 to provide an objective assessment of the evaluation of FPD stains in SEMI. The Semu index is expressed as the ratio of C JND , the minimum identification difference that can be perceived by human vision, and C x , the average contrast of the stain.

여기서 CJND는 검출된 얼룩의 면적 Sx에 반비례하며 수학식 11과 같이 나타낸다.Here, C JND is inversely proportional to the area Sx of the detected smear and is expressed by Equation (11).

[수학식 11]&Quot; (11) &quot;

Figure 112014106740254-pat00025
Figure 112014106740254-pat00025

Semu는 Cx와 CJND의 비율로 수학식 12와 같이 정의된다. 검출된 얼룩과 배경간의 명암의 차이 Cx는 검출된 얼룩의 면적 Sx에 비례하며 검출된 얼룩과 배경 간의 명암의 차이와 검출된 얼룩의 면적이 증가할수록 Semu값이 증가하고, 검출된 얼룩과 배경간의 명암의 차이와 검출된 얼룩의 면적이 감소할수록 Semu값도 감소한다.The Semu is defined by the ratio of C x and C JND to Equation (12). The difference C x between the detected stain and the background is proportional to the area S x of the detected stain, and as the difference between the detected stain and background lightness and the detected stain area increases, the semu value increases, As the difference in contrast between the background and the area of the detected stain decreases, the Semu value also decreases.

[수학식 12]&Quot; (12) &quot;

Figure 112014106740254-pat00026
Figure 112014106740254-pat00026

여기서, CJND는 얼룩 검출을 위한 최소대비, Cx는 측정된 얼룩의 평균 대비, Sx는 측정된 얼룩의 표면적을 나타낸다.Where C JND is the minimum contrast for spot detection, C x is the average of the measured stain, and S x is the surface area of the measured stain.

한편, 객관적인 신뢰도 평가를 위해 표 2 및 표 3에 보인 바와 같이 본 발명에 따른 방법과 종래의 방법(L. C. Chen, C. C. Kuo, Automatic TFT-LCD mura defect inspection using discrete cosine transform-based background filtering and just noticeable difference quantification strategies, Meas. Sci. Technol., vol. 19, pp. 110, 2008)의 Semu 평가 결과를 비교하였다. 종래의 방법과 동일한 실험 조건에서 제안된 방법으로 검출이 가능한 얼룩과 배경의 최소 명암 차이를 확인하여 Semu값을 평가하였다.As shown in Table 2 and Table 3, the method according to the present invention and the conventional method (LC Chen, CC Kuo, Automatic TFT-LCD mura defect inspection using discrete cosine transform-based background filtering and just noticeable The results of the Semu evaluation are compared with the results of the difference quantification strategies, Meas. Sci. Technol., vol.19, pp. 110, 2008). In the same experimental conditions as the conventional method, the difference between the detectable stain and the minimum contrast of the background was evaluated to evaluate the Semu value.

종래의 방법의 실험 이미지 크기는 256256이고, 얼룩의 크기는 약 1,800픽셀이며 얼룩과 배경의 평균값의 명암 차이를 1씩 차이나는 얼룩을 총 10장을 만들어 사용하였다. 한편, 종래의 방법의 실험 이미지의 배경 값을 추정하기 위해 수학식 12에 대입하여 그레이 레벨이 120~125 사이인 것을 확인하였다.The experimental image size of the conventional method was 256256, the size of the blot was about 1,800 pixels, and 10 blotches of difference in contrast between the average value of the blot and the background were used. On the other hand, in order to estimate the background value of the experimental image of the conventional method, it is confirmed that the gray level is between 120 and 125 by substituting into the expression (12).

본 발명의 실험예에서는 종래의 방법과 일치성을 확보하기 위해 410410 크기에 얼룩의 크기는 약 1800픽셀에 평균 그레이 레벨이 125인 실험 이미지를 사용하였다. 도 10은 FPD 얼룩 샘플 이미지로서, 도 10a는 얼룩과 배경의 명암 차이가 10인 픽셀값 135의 얼룩 이미지를 나타내고, 도 10b 내지 도 10j는 얼룩과 배경의 명암 차이를 1씩 감소시킨 얼룩 이미지를 나타낸다.In the experimental example of the present invention, in order to ensure consistency with the conventional method, the size of the stain on the size 410410 was used as an experimental image with an average gray level of about 1,800 pixels. 10A and 10B illustrate an FPD smear sample image, in which FIG. 10A shows a smear image with a pixel value of 135 with a contrast difference of 10 between a smear and a background, and FIGS. 10B to 10J show a smear image with a difference of light and dark .

도 11은 도 10의 이미지를 이용하여 본 발명의 실시예에 따른 방법으로 얼룩을 검출한 결과를 나타낸다. 도 11g와 같이 명암 차이 4부터 얼룩을 검출하였지만 도 11h에서 얼룩을 검출하지 못한 것으로 비추어 보아, 본 발명의 실시예에 따른 검출 방법은 명암 차이 4부터 얼룩을 검출하는 것을 확인할 수 있다.Fig. 11 shows the result of detection of the blob by the method according to the embodiment of the present invention using the image of Fig. As shown in FIG. 11G, the speckle is detected from the difference of intensity 4, but the speckle is not detected in FIG. 11H. Therefore, the detection method according to the embodiment of the present invention detects speckles from the difference of intensity 4.

표 2는 본 발명의 실시예에 따른 신뢰도를 나타내고, 표 3은 종래의 방법(L. C. Chen, C. C. Kuo, Automatic TFT-LCD mura defect inspection using discrete cosine transform-based background filtering and just noticeable difference quantification strategies, Meas. Sci. Technol., vol. 19, pp. 110, 2008)에 따른 신뢰도를 나타낸다.Table 2 shows the reliability according to an embodiment of the present invention, and Table 3 shows the reliability of the conventional method (LC Chen, CC Kuo, Automatic TFT-LCD mura defect inspection using discrete cosine transform-based background filtering and just noticeable difference quantification strategies, Meas Sci. Technol., Vol. 19, pp. 110, 2008).

표 2는 본 발명의 실시예에 따른 Semu 평가를 나타낸다. 배경 성분이 밝은 이미지일수록 사람의 눈으로 인지하기 어려우므로 |Cx|값은 작아지고, 어두운 이미지일수록 |Cx|값은 커진다. CJND는 사람의 눈으로 인식할 수 있는 최소 명암 차이를 얼룩의 크기에 대한 비율로 나타낸다. 따라서, 얼룩의 크기가 클수록 CJND 항목의 값은 작아진다. 따라서 |Cx|/CJND와 같이 Semu값이 큰 얼룩일수록 얼룩 검출이 용이함을 나타낸다. 표 3의 종래의 방법의 얼룩과 배경의 명암 차이의 Semu 평가 결과는 명암 차이 5이고 본 발명의 실시예에 따른 방법은 명암 차이 4이므로 종래의 방법보다 향상된 결과를 나타내는 것을 확인할 수 있다.Table 2 shows the Semu evaluation according to an embodiment of the present invention. The larger the background image is, the more difficult it is for the human eye to recognize it, so the value of | C x | becomes smaller and the value of | C x | becomes larger for a darker image. C JND represents the minimum contrast difference that can be perceived by the human eye as a ratio to the size of the stain. Therefore, the larger the size of the smear, the smaller the value of the C JND item. Therefore, it is easy to detect a stain with a larger staining value such as | C x | / C JND . Table 3 shows the results of the semu evaluation of the difference between the unevenness of the conventional method and the background darkness difference, and the method according to the embodiment of the present invention shows an improved result as compared with the conventional method.

한편, 표 3의 배경 이미지의 그레이 레벨 120~125에서 명암 차이 5에 대한 |Cx| 항목은 약 4.16으로 4에 근접한 값으로 예상하였으나, 종래의 방법의 Semu 평가 결과는 명암 차이 5에 대한 |Cx| 항목이 3.07로 3과 4정도의 Semu값으로 명암 차이 5에서 얼룩 검출이 제대로 되지 않았음을 알 수 있다.On the other hand, at the gray level 120 to 125 of the background image in Table 3, | C x | The item was expected to be close to 4 at about 4.16, but the Semu evaluation result of the conventional method is | C x | The item is 3.07, and the semu value is about 3 and 4. It can be seen that the detection of the smear is not performed properly at the difference of intensity 5.

명암 차이Contrast difference

Figure 112014106740254-pat00027
(%)
Figure 112014106740254-pat00027
(%)
Figure 112014106740254-pat00028
(%)
Figure 112014106740254-pat00028
(%)
SemuSemu 평가evaluation 1010 8.13668.1366 0.89580.8958 9.08309.0830 성공success 99 7.32747.3274 0.90800.9080 8.07018.0701 성공success 88 6.53756.5375 0.90560.9056 7.21917.2191 성공success 77 5.73845.7384 0.90340.9034 6.35216.3521 성공success 66 4.94164.9416 0.89900.8990 5.49695.4969 성공success 55 4.14534.1453 0.89780.8978 4.61724.6172 성공success 44 3.34653.3465 0.89720.8972 3.72983.7298 성공success 33 2.84472.8447 1.64141.6414 1.73301.7330 실패failure 22 2.85402.8540 1.64141.6414 1.73871.7387 실패failure 1One 2.86362.8636 1.64141.6414 1.74461.7446 실패failure

명암 차이Contrast difference

Figure 112014106740254-pat00029
(%)
Figure 112014106740254-pat00029
(%)
Figure 112014106740254-pat00030
(%)
Figure 112014106740254-pat00030
(%)
SemuSemu 평가evaluation 1010 8.328.32 0.880.88 9.39.3 성공success 99 7.427.42 0.880.88 8.398.39 성공success 88 6.616.61 0.880.88 7.487.48 성공success 77 5.795.79 0.880.88 6.556.55 성공success 66 4.784.78 0.880.88 5.395.39 성공success 55 3.073.07 0.890.89 3.443.44 성공success 44 0.520.52 1.221.22 0.430.43 실패failure 33 0.480.48 1.281.28 0.310.31 실패failure 22 0.370.37 1.281.28 0.290.29 실패failure 1One 0.180.18 1.51.5 0.120.12 실패failure

이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것이 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the invention.

100 : 영상 획득부 200 : 영상 처리부
210 : 전처리부 220 : 히스토그램 평활화부
300 : 영상 해석부 310 : 얼룩 후보 생성부
320 : 얼룩 검출부
100: image acquisition unit 200: image processing unit
210: preprocessing unit 220: histogram smoothing unit
300: image analyzing unit 310: smear candidate generating unit
320:

Claims (10)

대상물의 이미지를 취득하는 영상 획득부,
형태학적 영상 처리를 이용하여 상기 영상 획득부가 취득한 상기 이미지에서 조명 성분을 제거하는 전처리부와, 상기 전처리부에서 조명 성분이 제거된 이미지의 히스토그램을 획득한 후 히스토그램 평활화를 통해 전체 그레이 레벨로 확장시켜 이미지를 재구성하는 히스토그램 평활화부를 구비하는 영상 처리부 및
상기 영상 처리부에서 변환된 상기 이미지에 가버 필터를 적용하여 얼룩 후보 영역을 구성하는 얼룩 후보 생성부와, 상기 얼룩 후보 생성부에서 구성된 얼룩 후보 영역에 레이블링을 이용하여 얼룩을 검출하는 얼룩 검출부를 구비하는 영상 해석부를 포함하는 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템.
An image acquiring unit for acquiring an image of an object,
A preprocessor for removing an illumination component from the image acquired by the image acquiring unit using morphological image processing; and a processor for acquiring a histogram of the image from which the illumination component has been removed in the preprocessing unit and then expanding the histogram to the entire gray level through histogram smoothing An image processing unit having a histogram smoothing unit for reconstructing an image;
A smoothing candidate generating unit for applying a Gabor filter to the image converted by the image processing unit to form a smoothing candidate region; and a smoothing detecting unit for detecting smoothing using the labeling in the smoothing candidate region formed by the smoothing candidate generating unit An automatic detection system for blotch defects using morphological image processing and labeling including image analysis unit.
청구항 제1항에서,
상기 전처리부는,
구조요소를 사용하는 열기 연산 및 닫기 연산을 이용하여 이미지에 적용시킴으로써 조명 성분을 추정하고, 상기 이미지로부터 상기 조명 성분을 차연산하여 조명 성분을 제거하는 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템.
The method according to claim 1,
The pre-
An illumination operation is applied to an image by using an open operation and a close operation using a structural element, and morphological image processing for removing illumination components by subtracting the illumination component from the image, system.
청구항 제1항 또는 제2항에서,
상기 히스토그램 평활화부는,
상기 대상물의 이미지에 흰색 및 검은색 얼룩이 포함된 경우, 흰색 얼룩 이미지와 검은색 얼룩 이미지를 구분하여 검은색 얼룩은 히스토그램을 반전시킨 후 평활화를 수행하는 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템.
The method according to claim 1 or 2,
The histogram smoothing unit may include:
If the image of the object includes white and black speckles, the white speck image is distinguished from the black speckle image, and the black speckle is automatically detected by inverting the histogram and then performing smoothing. system.
청구항 제1항에서,
상기 얼룩 후보 생성부는,
하기 수식 1의 실수 가버 필터링을 사용하는 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템.
(수식 1)
Figure 112014106740254-pat00031

단, 여기서
Figure 112014106740254-pat00032
는 주파수,
Figure 112014106740254-pat00033
는 회전각, u0
Figure 112014106740254-pat00034
, v0
Figure 112014106740254-pat00035
이다.
The method according to claim 1,
Wherein the smear candidate generating unit comprises:
An automatic detection system for blotch defects using morphological image processing and labeling using the real number Gabor filtering of Equation 1 below.
(Equation 1)
Figure 112014106740254-pat00031

However,
Figure 112014106740254-pat00032
Is the frequency,
Figure 112014106740254-pat00033
Is the rotation angle, u 0 is
Figure 112014106740254-pat00034
, v 0
Figure 112014106740254-pat00035
to be.
청구항 제1항에서,
상기 얼룩 검출부는,
상기 얼룩 후보 영역에 8-연결성을 이용하여 레이블링하고, 전체 레이블링 객체의 픽셀 수가 3픽셀 이하인 경우 얼룩이라 판단하지 않고 얼룩 후보에서 제외하며, 레이블링 객체의 각각에 대해 수식 2를 통해 얼룩인지 배경인지 판단하여 배경은 얼룩 후보에서 제외하는 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 시스템.
(수식 2)
Figure 112014106740254-pat00036
The method according to claim 1,
The above-
If the number of pixels of the entire labeling object is 3 pixels or less, it is not determined as a spot and is excluded from the unevenness candidates. If the number of pixels of the entire labeling object is 3 pixels or less, The automatic detection system of stain defect using morphological image processing and labeling.
(Equation 2)
Figure 112014106740254-pat00036
영상 획득부가 대상물 상면의 이미지를 획득하는 단계,
전처리부가 형태학적 영상 처리를 이용하여 상기 영상 획득부가 취득한 상기 이미지에서 조명 성분을 제거하는 단계,
히스토그램 평활화부가 상기 전처리부에서 조명 성분이 제거된 이미지의 히스토그램을 획득한 후 히스토그램 평활화를 통해 전체 그레이 레벨로 확장시켜 이미지를 재구성하는 단계,
얼룩 후보 생성부가 상기 히스토그램 평활화부에서 재구성된 변환된 이미지에 가버 필터를 적용하여 얼룩 후보 영역을 구성하는 단계 및
얼룩 검출부가 상기 얼룩 후보 생성부에서 구성된 얼룩 후보 영역에 레이블링을 이용하여 얼룩을 검출하는 단계를 포함하는 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 방법.
The image acquiring unit acquiring an image of the object upper surface,
Removing an illumination component from the image acquired by the image acquisition unit using a preprocessing additive morphological image processing,
The histogram smoothing unit acquires a histogram of the image from which the illumination component is removed from the preprocessing unit, and then reconstructs the image by expanding the histogram to a whole gray level through histogram smoothing,
Forming a smudge candidate region by applying a Gabor filter to the transformed image reconstructed by the histogram smoothing unit;
And detecting a blob by using a labeling in a blob candidate region formed in the blob candidate generating unit by the blob detecting unit.
청구항 제6항에서,
상기 조명 성분을 제거하는 단계는,
구조요소를 사용하는 열기 연산 및 닫기 연산을 이용하여 이미지에 적용시킴으로써 조명 성분을 추정하는 단계 및
상기 이미지로부터 상기 조명 성분을 차연산하여 조명 성분을 제거하는 단계를 포함하는 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 방법.
The method of claim 6,
Wherein the step of removing the illumination component comprises:
Estimating an illumination component by applying an open operation and a close operation using a structure element to an image, and
And subtracting the illumination component from the image to subtract the illumination component from the image, thereby automatically detecting the blotch defect using the morphological image processing and labeling.
청구항 제6항 또는 제7항에서,
상기 히스토그램 평활화를 통해 전체 그레이 레벨로 확장시켜 이미지를 재구성하는 단계는,
상기 대상물의 이미지에 흰색 및 검은색 얼룩이 포함된 경우, 흰색 얼룩 이미지와 검은색 얼룩 이미지를 구분하여 검은색 얼룩은 히스토그램을 반전시킨 후 평활화를 수행하는 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 방법.
The method according to claim 6 or 7,
Wherein the step of reconstructing an image by expanding the entire gray level through the histogram smoothing comprises:
If the image of the object includes white and black speckles, the white speck image is distinguished from the black speckle image, and the black speckle is automatically detected by inverting the histogram and then performing smoothing. Way.
청구항 제6항에서,
상기 얼룩 후보 영역을 구성하는 단계는,
하기 수식 3의 실수 가버 필터링을 사용하는 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 방법.
(수식 3)
Figure 112016076053394-pat00037

단, 여기서
Figure 112016076053394-pat00038
는 주파수,
Figure 112016076053394-pat00039
는 회전각, u0
Figure 112016076053394-pat00040
, v0
Figure 112016076053394-pat00041
이다.
The method of claim 6,
Wherein the step of constructing the smear candidate region comprises:
A method of automatic detection of blur defects using morphological image processing and labeling using the real number Gabor filtering of Equation (3) below.
(Equation 3)
Figure 112016076053394-pat00037

However,
Figure 112016076053394-pat00038
Is the frequency,
Figure 112016076053394-pat00039
Is the rotation angle, u 0 is
Figure 112016076053394-pat00040
, v 0
Figure 112016076053394-pat00041
to be.
청구항 제6항에서,
상기 얼룩을 검출하는 단계는,
상기 얼룩 후보 영역에 8-연결성을 이용하여 레이블링하는 단계,
전체 레이블링 객체의 픽셀 수가 3픽셀 이하인 경우 얼룩이라 판단하지 않고 얼룩 후보에서 제외하는 단계 및
레이블링 객체의 각각에 대해 수식 4를 통해 얼룩인지 배경인지 판단하여 배경은 얼룩 후보에서 제외하는 단계를 포함하는 형태학적 영상 처리와 레이블링을 이용한 얼룩 결함 자동 검출 방법.
(수식 4)
Figure 112014106740254-pat00042
The method of claim 6,
Wherein the step of detecting the smear comprises:
Labeling the unevenness candidate region using 8-connectivity,
A step of excluded from the smear candidates without judging that the number of pixels of the entire labeling object is 3 pixels or less,
Determining whether each of the labeling objects is a speckle or background through Equation 4, and excluding the background from the speckle candidates; and automatically detecting the speckle defect using the morphological image processing and labeling.
(Equation 4)
Figure 112014106740254-pat00042
KR1020140153068A 2014-11-05 2014-11-05 System and Method for Automatically Detecting a Mura Defect using Morphological Image Processing and Labeling KR101677070B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140153068A KR101677070B1 (en) 2014-11-05 2014-11-05 System and Method for Automatically Detecting a Mura Defect using Morphological Image Processing and Labeling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140153068A KR101677070B1 (en) 2014-11-05 2014-11-05 System and Method for Automatically Detecting a Mura Defect using Morphological Image Processing and Labeling

Publications (2)

Publication Number Publication Date
KR20160054150A KR20160054150A (en) 2016-05-16
KR101677070B1 true KR101677070B1 (en) 2016-11-18

Family

ID=56108944

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140153068A KR101677070B1 (en) 2014-11-05 2014-11-05 System and Method for Automatically Detecting a Mura Defect using Morphological Image Processing and Labeling

Country Status (1)

Country Link
KR (1) KR101677070B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11587235B2 (en) 2020-06-29 2023-02-21 Samsung Electronics Co., Ltd. Method and apparatus for detecting defects on substrate

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101899242B1 (en) * 2017-03-27 2018-09-14 고려대학교 세종산학협력단 Method and Apparatus for Pig's Room Background Removal using Texture Information
KR102210137B1 (en) * 2018-03-30 2021-02-02 한국전력공사 Apparatus and method for discrimiating high temperature equipment degradation level using artificial intelligence
CN113838012A (en) * 2021-09-13 2021-12-24 全芯智造技术有限公司 Mura detection method and device, computer readable storage medium and terminal
DE202022100786U1 (en) 2022-02-11 2022-03-03 Gaurav Kumar Arora Intelligent processed image recognition system with artificial intelligence and machine learning

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080098852A (en) * 2007-05-07 2008-11-12 엘지전자 주식회사 Apparatus and method for detecting spotted defect and method for manufacturing flat display panel
KR101375567B1 (en) 2010-05-07 2014-03-17 울산대학교 산학협력단 Partial image extractor and its partial image extracting method
KR101993654B1 (en) 2012-07-06 2019-10-01 엘지디스플레이 주식회사 Inspecting apparatus mura of display panel and method thereof
KR101977647B1 (en) * 2012-11-15 2019-05-14 엘지디스플레이 주식회사 Apparatus and Method for Detection MURA in Display Device
KR101966075B1 (en) * 2012-12-06 2019-04-05 엘지디스플레이 주식회사 Apparatus and Method for Detection MURA in Display Device
KR20140087606A (en) * 2012-12-31 2014-07-09 엘지디스플레이 주식회사 Method and apparatus of inspecting mura of flat display

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11587235B2 (en) 2020-06-29 2023-02-21 Samsung Electronics Co., Ltd. Method and apparatus for detecting defects on substrate

Also Published As

Publication number Publication date
KR20160054150A (en) 2016-05-16

Similar Documents

Publication Publication Date Title
KR101635461B1 (en) System and Method for Automatically Detecting a Mura Defect using Mask Filtering in Wavelet Transform
CN108460757B (en) Mobile phone TFT-LCD screen Mura defect online automatic detection method
KR101677070B1 (en) System and Method for Automatically Detecting a Mura Defect using Morphological Image Processing and Labeling
WO2017067342A1 (en) Board card position detection method and apparatus
CN115908269B (en) Visual defect detection method, visual defect detection device, storage medium and computer equipment
KR20160006852A (en) Vision inspection apparatus and method of detecting mura thereof
CN110596120A (en) Glass boundary defect detection method, device, terminal and storage medium
JP2007285754A (en) Flaw detection method and flaw detector
CN114881915A (en) Symmetry-based mobile phone glass cover plate window area defect detection method
KR102242996B1 (en) Method for atypical defects detect in automobile injection products
CN111242888A (en) Image processing method and system based on machine vision
JP5088165B2 (en) Defect detection method and defect detection apparatus
KR101966075B1 (en) Apparatus and Method for Detection MURA in Display Device
KR20190023374A (en) Method for testing display pannel
KR101608843B1 (en) System and Method for Automatically Detecting a Mura Defect using Advanced Weber&#39;s Law
JP4320990B2 (en) Screen defect detection method and apparatus, and screen defect detection program
KR20160097651A (en) Apparatus and Method for Testing Pattern of Sample using Validity Image Processing Technique, and computer-readable recording medium with program therefor
Chen et al. An effective image segmentation method for noisy low-contrast unbalanced background in Mura defects using balanced discrete-cosine-transfer (BDCT)
WO2022153852A1 (en) Image analysis device, image analysis method, and program
KR101993654B1 (en) Inspecting apparatus mura of display panel and method thereof
Di Leo et al. Online visual inspection of defects in the assembly of electromechanical parts
JP5452035B2 (en) Defect inspection method and defect inspection apparatus
JP4115378B2 (en) Defect detection method
KR20140082335A (en) Method and apparatus of inspecting mura of flat display
JP2007285868A (en) Luminance gradient detection method, flaw detection method, luminance gradient detector and flaw detector

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191105

Year of fee payment: 4