KR102172768B1 - System for inspecting substrate defects by bubbles and Method for inspecting substrate defects by bubbles - Google Patents

System for inspecting substrate defects by bubbles and Method for inspecting substrate defects by bubbles Download PDF

Info

Publication number
KR102172768B1
KR102172768B1 KR1020190003058A KR20190003058A KR102172768B1 KR 102172768 B1 KR102172768 B1 KR 102172768B1 KR 1020190003058 A KR1020190003058 A KR 1020190003058A KR 20190003058 A KR20190003058 A KR 20190003058A KR 102172768 B1 KR102172768 B1 KR 102172768B1
Authority
KR
South Korea
Prior art keywords
image
bubble
substrate
roi
defect
Prior art date
Application number
KR1020190003058A
Other languages
Korean (ko)
Other versions
KR20200086812A (en
Inventor
조철훈
윤정삼
Original Assignee
(주)펨트론
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)펨트론 filed Critical (주)펨트론
Priority to KR1020190003058A priority Critical patent/KR102172768B1/en
Publication of KR20200086812A publication Critical patent/KR20200086812A/en
Application granted granted Critical
Publication of KR102172768B1 publication Critical patent/KR102172768B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

본 발명의 일 실시예에 있어서, 기판이 촬영된 촬영영상에서 기판의 코팅시 발생된 기포에 의한 기판의 불량을 검사하는 기포에 의한 기판불량 검사방법은, (A) 딥러닝결함판단부에서, 기포존재영상과 기포부존재영상이 학습데이터로 학습되는 단계;(B) 영상처리부에서, 복수의 촬영영상이 영상조합에 의해 생성된 기판영상에서 기포로 예측되는 지점이 후보위치로 탐색되고, 후보위치에 대한 후보영역이 기판영상에서 추출되어 ROI영상으로 출력되는 단계; (C) 딥러닝결함판단부에서, 입력된 ROI영상이 기저장된 학습데이터를 기반으로 딥러닝되면서, ROI영상에서의 기포의 유무가 판단되고, ROI영상에 기포결함영역이 표시된 결과이미지가 출력되는 단계; 및 (D) 특징추출기반검사부에서, 결과이미지가 기설정된 기반검사 알고리즘에 따라 기포결함영역에 대한 특징값이 산출되고, 특징값이 기설정된 불량판정범위에 포함되면 "불량"으로 최종판단되고, 특징값이 불량판정범위에 포함되지 않으면 "정상"으로 최종판단되는 단계를 포함하는 것이 바람직하다.In an embodiment of the present invention, a method for inspecting substrate defects due to bubbles for inspecting defects of a substrate due to bubbles generated during coating of a substrate in a photographed image of a substrate, (A) in the deep learning defect determination unit, Step of learning the bubble-existing image and the bubble-free image as learning data; (B) In the image processing unit, a point where a plurality of photographed images are predicted as bubbles in the substrate image generated by the image combination is searched as a candidate position, and the candidate position Extracting a candidate region for a from the substrate image and outputting the ROI image; (C) In the deep learning defect determination unit, the input ROI image is deep-learned based on pre-stored learning data, and the presence or absence of bubbles in the ROI image is determined, and the result image displaying the bubble defect area in the ROI image is output. step; And (D) in the feature extraction-based inspection unit, a feature value for the bubble defect region is calculated according to a preset base inspection algorithm in the result image, and if the feature value falls within a preset defect determination range, it is finally judged as “defective”, If the feature value is not included in the defective determination range, it is preferable to include the step of final determination as "normal".

Description

기포에 의한 기판불량 검사시스템 및 기포에 의한 기판불량 검사방법{System for inspecting substrate defects by bubbles and Method for inspecting substrate defects by bubbles}System for inspecting substrate defects by bubbles and Method for inspecting substrate defects by bubbles}

본 발명은 기포에 의한 기판불량 검사시스템 및 기포에 의한 기판불량 검사방법에 관한 것이며, 상세하게는 기판영상 중 기포로 예측되는 부분만을 ROI영상으로 추출하고, 딥러닝방식으로 ROI영상으로부터 기포의 유무판단 및 기포결함영역의 도출이 수행되어, 기포에 의한 기판의 불량을 신속하게 검사할 수 있는 기포에 의한 기판불량 검사시스템 및 기포에 의한 기판불량 검사방법을 제공하는 것을 목적으로 한다. The present invention relates to a substrate defect inspection system due to bubbles and a method for inspecting substrate defects due to bubbles, and in detail, only a portion of the substrate image predicted as a bubble is extracted as an ROI image, and the presence or absence of bubbles from the ROI image by a deep learning method. It is an object of the present invention to provide a substrate defect inspection system by bubbles and a method of inspecting substrate defects due to bubbles, by which the determination and derivation of the bubble defect area are performed.

일반적으로 전자부품이 실장된 인쇄회로기판(PCB: Printed Circuit Board)에는 코팅용액이 도포된다. 이는, 전자부품이 실장된 인쇄회로기판이 주변 환경에 민감하므로 코팅을 통해 수분, 먼지, 고온환경, 전자파 등으로부터 보호하기 위함이다. 다만, 코팅 시 PCB 표면의 온도, 이물, 주변습도, 부품의 실장 상태 등에 따라 기포가 발생할 수 있다. In general, a coating solution is applied to a printed circuit board (PCB) on which electronic components are mounted. This is to protect from moisture, dust, high temperature environment, electromagnetic waves, etc. through coating because the printed circuit board on which the electronic component is mounted is sensitive to the surrounding environment. However, when coating, air bubbles may occur depending on the temperature of the PCB surface, foreign matter, ambient humidity, and the mounting condition of the component.

인쇄회로기판에 코팅되어 응고된 코팅용액에 존재하는 기포는 온도가 증가하면 부풀어 올라 코팅용액의 탈락을 유발할 수 있다. 그리고, 코팅용액의 벗겨짐은 습기에 의한 전자부품의 손상을 발생시켜 인쇄회로기판이 장착된 기기의 오동작을 유발할 수 있다. 그리고, 적정 수준 이하의 코팅 두께는 인쇄회로기판에 실장된 전자부품이 진동에 의하여 탈락되게 할 수 있다.Bubbles present in the coating solution coated on the printed circuit board and solidified may swell when the temperature increases, causing the coating solution to fall off. In addition, peeling of the coating solution may cause damage to electronic components due to moisture and may cause malfunction of a device on which a printed circuit board is mounted. In addition, a coating thickness of less than an appropriate level may cause the electronic component mounted on the printed circuit board to be removed due to vibration.

종래에는, 인쇄회로기판의 코팅 상태를 머신 비전을 이용하여 검사해 왔으나 기술적으로 정밀한 검사가 어려운 한계가 있었다. Conventionally, the coating state of a printed circuit board has been inspected using machine vision, but there is a limitation in technically precise inspection.

일 예로 납땜(Solder)면에서의 유사한 밝기 변화와 유사한 형상의 패턴 특히 홀(Hole)의 경우 머신 비전 기술로 기포와 구분하기 어려우므로 검출된 것 모두를 NG뷰어에 표시해서 추후 작업자가 판단하는 반자동 시스템(Semi-Auto system)이 되거나 작업자가 한번 더 육안 검사해야 하는 불편함이 있었다.For example, in the case of a pattern of similar shape with a similar change in brightness on the solder surface, especially the hole, it is difficult to distinguish it from air bubbles with machine vision technology, so all detected items are displayed on the NG viewer and the operator determines it later. There was an inconvenience of becoming a system (Semi-Auto system) or requiring an operator to visually inspect it once more.

최근에 많은 연구가 이루어지고 있는 딥러닝 기반으로 검사를 하게 되면 전자부품이 실장된 인쇄회로기판의 불량을 정확하게 잡을 수 있는 장점이 있다. 다만, 딥러닝 검사 시스템을 구성하는데 소요되는 비용이 크고, 딥러닝 방식만을 사용하는 기판의 불량을 검사하는 경우에는 검사속도가 매우 느려, 속도가 빨라야 하는 공정에는 딥러닝 방식을 적용하는데 어려움이 따른다. 특히, 딥러닝 방식에 따른 기판의 불량검사는, 공정 상황에 따라 미세하게 검사 조건을 변경해야 하는 경우에 대응하지 못하는 단점이 있다.If the inspection is conducted based on deep learning, which has been recently studied, there is an advantage in that it is possible to accurately detect defects of a printed circuit board on which electronic components are mounted. However, the cost required to construct the deep learning inspection system is high, and the inspection speed is very slow in the case of inspecting the defects of the substrate using only the deep learning method, and it is difficult to apply the deep learning method to processes that require high speed. . In particular, the defect inspection of the substrate according to the deep learning method has a disadvantage in that it cannot cope with the case where the inspection conditions need to be finely changed according to the process situation.

한국 등록특허 10-1848173에는 인쇄회로기판 코팅 검사 장치 및 방법이 개시되어 있다.Korean Patent Registration No. 10-1848173 discloses a printed circuit board coating inspection apparatus and method.

본 발명은 기판영상 중 기포로 예측되는 부분만을 ROI영상으로 추출하고, 딥러닝방식으로 ROI영상으로부터 기포의 유무판단 및 기포결함영역의 도출이 수행되어, 기포에 의한 기판의 불량을 신속하게 검사할 수 있는 기포에 의한 기판불량 검사시스템 및 기포에 의한 기판불량 검사방법을 제공하는 것을 목적으로 한다. The present invention extracts only the portion of the substrate image predicted as a bubble as an ROI image, and determines the presence or absence of a bubble from the ROI image and derivation of the bubble defect area from the ROI image by a deep learning method, so that the defect of the board due to the bubble can be quickly inspected. It is an object of the present invention to provide a substrate defect inspection system due to possible air bubbles and a method for inspecting substrate defects due to air bubbles.

아울러, 본 발명은 ROI영상에 기포결함영역이 표시된 결과이미지를 이용하여, 공정조건이 반영된 특징추출기반검사를 수행함으로써, 문제가 되는 부분을 집중적으로 검사하는 동시에 공정조건에 부합하게 기포에 의한 기판의 불량을 검사할 수 있는 기포에 의한 기판불량 검사시스템 및 기포에 의한 기판불량 검사방법을 제공하는 것을 목적으로 한다. In addition, the present invention performs a feature extraction-based inspection reflecting the process conditions using the result image in which the bubble defect area is displayed on the ROI image, thereby intensively inspecting the problem area and at the same time, the substrate caused by bubbles in accordance with the process conditions. It is an object of the present invention to provide a substrate defect inspection system and a method for inspecting defects due to bubbles, which can inspect the defects of

본 발명의 일 실시예에 있어서, 기판이 촬영된 촬영영상에서 기판의 코팅시 발생된 기포에 의한 기판의 불량을 검사하는 기포에 의한 기판불량 검사시스템은, 복수의 촬영영상이 영상조합에 의해 생성된 기판영상에서 기포로 예측되는 지점이 후보위치로 탐색되고, 후보위치에 대한 후보영역이 기판영상에서 추출되어 ROI영상으로 출력되는 영상처리부; 입력된 ROI영상이 기저장된 학습데이터를 기반으로 딥러닝되면서, ROI영상에서의 기포의 유무가 판단되고, ROI영상에 기포결함영역이 표시된 결과이미지가 출력되는 딥러닝결함판단부; 및 입력된 결과이미지가 기설정된 기반검사 알고리즘에 따라 기포결함영역에 대한 특징값이 산출되고, 특징값이 기설정된 불량판정범위에 포함되면 "불량"으로 최종판단되고, 특징값이 불량판정범위에 포함되지 않으면 "정상"으로 최종판단되는 특징추출기반검사부를 포함하는 것이 바람직하다. In an embodiment of the present invention, a substrate defect inspection system due to bubbles for inspecting defects of a substrate due to bubbles generated during coating of a substrate in a photographed image in which a substrate is photographed, a plurality of photographed images is generated by image combination. An image processing unit in which a point predicted as a bubble in the resulting substrate image is searched as a candidate position, and a candidate region for the candidate position is extracted from the substrate image and output as an ROI image; A deep learning defect determination unit that determines the presence or absence of bubbles in the ROI image while the input ROI image is deep-learned based on the previously stored learning data, and outputs a result image in which the bubble defect region is displayed on the ROI image; And the input result image is calculated as a feature value for the bubble defect region according to a preset base inspection algorithm, and if the feature value falls within the preset defect determination range, it is finally judged as "defective", and the feature value falls within the defect determination range. If not included, it is preferable to include a feature extraction-based inspection unit that is finally judged as "normal".

본 발명의 일 실시예에 있어서, 딥러닝결함판단부는, ROI영상이 신경망 입력데이터 형태로 정규화 처리되고, 다운-샘플링되어 특징맵(feature map)으로 변환되는 공통네트워크; 입력된 특징맵이 기저장된 학습데이터를 기반으로 딥러닝되면서, 기포의 유무가 판단되는 판정네트워크; 및 특징맵이 ROI영상의 크기로 업-샘플링되어 판독용 ROI영상으로 변환되고, 판독용 ROI영상이 학습데이터를 기반으로 딥러닝되면서 기포결함영역이 도출되면, 판독용 ROI영상에 기포결함영역이 표시된 결과이미지가 출력되는 영역분할네트워크를 포함하고, 판독용 ROI영상은 ROI영상크기로, 각 픽셀이 기설정된 조건에 따라 0과 1로 이진화 처리된 것이 바람직하다. In one embodiment of the present invention, the deep learning defect determination unit includes: a common network in which the ROI image is normalized in the form of neural network input data, down-sampled, and converted into a feature map; A decision network in which the input feature map is deep-learned based on pre-stored learning data, and the presence or absence of bubbles is determined; And the feature map is up-sampled to the size of the ROI image and converted into an ROI image for reading, and when the bubble defect region is derived while the ROI image for reading is deep-learned based on the learning data, the bubble defect region is found in the ROI image for reading. It is preferable that a region division network in which the displayed result image is output is included, and the ROI image for reading is an ROI image size, and each pixel is binarized into 0 and 1 according to a preset condition.

본 발명의 일 실시예에 있어서, 공통네트워크와 판정네트워크는 기포존재영상과 기포부존재영상이 학습데이터로 학습되고, 영역분할네트워크는 기포존재영상만 학습데이터로 학습되고, 기포존재영상에는 판정네트워크에서 기포가 존재하는 것으로 판단된 영상이 포함되는 것이 바람직하다. In one embodiment of the present invention, in the common network and the judgment network, the bubble-existing image and the bubble-free-existing image are learned as learning data, and the domain division network learns only the bubble-existing image as learning data, and the bubble-existing image is learned from the judgment network. It is preferable that an image determined to have air bubbles is included.

본 발명의 일 실시예에 있어서, 영상처리부는, 기설정된 영상처리 알고리즘에 따라, 서로 다른 파장의 조명에서 촬영된 복수의 촬영영상이 영상조합되어 기판영상이 생성되는 기판영상생성부; 영상처리 알고리즘에 따라, 기판영상에서 후보위치가 탐색되고, 탐색된 후보위치에 나열된 리스트가 산출되는 후보위치탐색부; 및 리스트에 따라, 후보위치를 중심점으로 하여 후보영역이 산출되고, 기판영상에서 후보영역이 추출되어 ROI영상이 출력되는 ROI영상생성부를 포함하는 것이 바람직하다.In an embodiment of the present invention, the image processing unit includes: a substrate image generator configured to generate a substrate image by combining a plurality of photographed images photographed under illumination of different wavelengths according to a preset image processing algorithm; A candidate location search unit for searching for a candidate location in the substrate image and calculating a list listed in the searched candidate location according to the image processing algorithm; And an ROI image generator that calculates a candidate region based on the candidate location as a center point, extracts the candidate region from the substrate image, and outputs the ROI image according to the list.

한편, 본 발명의 일 실시예에 있어서, 기판이 촬영된 촬영영상에서 기판의 코팅시 발생된 기포에 의한 기판의 불량을 검사하는 기포에 의한 기판불량 검사방법은, (A) 딥러닝결함판단부에서, 기포존재영상과 기포부존재영상이 학습데이터로 학습되는 단계;(B) 영상처리부에서, 복수의 촬영영상이 영상조합에 의해 생성된 기판영상에서 기포로 예측되는 지점이 후보위치로 탐색되고, 후보위치에 대한 후보영역이 기판영상에서 추출되어 ROI영상으로 출력되는 단계; (C) 딥러닝결함판단부에서, 입력된 ROI영상이 기저장된 학습데이터를 기반으로 딥러닝되면서, ROI영상에서의 기포의 유무가 판단되고, ROI영상에 기포결함영역이 표시된 결과이미지가 출력되는 단계; 및 (D) 특징추출기반검사부에서, 결과이미지가 기설정된 기반검사 알고리즘에 따라 기포결함영역에 대한 특징값이 산출되고, 특징값이 기설정된 불량판정범위에 포함되면 "불량"으로 최종판단되고, 특징값이 불량판정범위에 포함되지 않으면 "정상"으로 최종판단되는 단계를 포함하는 것이 바람직하다.On the other hand, in an embodiment of the present invention, a method for inspecting substrate defects due to bubbles for inspecting defects of a substrate due to bubbles generated during coating of a substrate in a photographed image in which the substrate is photographed includes: (A) a deep learning defect determination unit In the step of learning the bubble-existing image and the bubble-free image as learning data; (B) In the image processing unit, a point where a plurality of photographed images are predicted as bubbles in the substrate image generated by the image combination is searched as a candidate position, Extracting the candidate region for the candidate position from the substrate image and outputting the ROI image; (C) In the deep learning defect determination unit, the input ROI image is deep-learned based on pre-stored learning data, and the presence or absence of bubbles in the ROI image is determined, and the result image displaying the bubble defect area in the ROI image is output. step; And (D) in the feature extraction-based inspection unit, a feature value for the bubble defect region is calculated according to a preset base inspection algorithm in the result image, and if the feature value falls within a preset defect determination range, it is finally judged as “defective”, If the feature value is not included in the defective determination range, it is preferable to include the step of final determination as "normal".

본 발명의 일 실시예에 있어서, (B)단계는, (B1) 기설정된 영상처리 알고리즘에 따라 기판영상이 서로 다른 파장의 조명에서 촬영된 복수의 촬영영상들의 조합에 의해 생성되는 단계; (B2) 영상처리 알고리즘에 따라, 기판영상에서 후보위치가 탐색되고, 각각의 후보위치에 나열된 리스트가 산출되는 단계; 및(B3) 리스트에 따라, 후보위치를 중심점으로 하여 기설정된 크기를 가진 후보영역이 산출되고, 기설정된 중첩영역제거 알고리즘에 따라, 리스트에서 임의로 후보위치가 선택되면, 선택된 후보위치에 대한 선택후보영역의 중첩범위 내에서 미선택된 후보위치가 탐색되고, 탐색된 후보위치가 리스트에서 제거되는 단계; 및 (B4) B3단계 후 리스트에 따라, 기판영상에서 후보영역이 추출되어 ROI영상이 출력되는 단계를 포함하는 것이 바람직하다. In an embodiment of the present invention, step (B) includes: (B1) generating a substrate image by a combination of a plurality of photographed images photographed under illumination of different wavelengths according to a preset image processing algorithm; (B2) searching for candidate positions in the substrate image according to the image processing algorithm, and calculating a list listed in each candidate position; And (B3) according to the list, a candidate region having a preset size is calculated using the candidate position as the center point, and if a candidate position is randomly selected from the list according to the preset overlapping region removal algorithm, the selection candidate for the selected candidate position Searching for an unselected candidate position within the overlapping range of the region, and removing the searched candidate position from the list; And (B4) extracting a candidate region from the substrate image and outputting an ROI image according to the list after step B3.

본 발명의 일 실시예에 있어서, 중첩범위는 선택된 후보위치를 중심점으로 하여, 선택후보영역의 면적의 1/2 범위 내로 영상처리부에 기설정된 것이 바람직하다.In an embodiment of the present invention, it is preferable that the overlapping range is preset in the image processing unit within a range of 1/2 of the area of the selected candidate region, with the selected candidate position as the center point.

본 발명의 일 실시예에 있어서, C단계는, (C1) 공통네트워크로 ROI영상이 입력되고, ROI영상이 신경망 입력데이터 형태로 정규화 처리되고, 다운-샘플링되어 특징맵(feature map)으로 변환되는 단계; (C2) 공통네트워크에서 판정네트워크로 특징맵이 입력되고, 특징맵이 학습데이터를 기반으로 딥러닝되면서, 기포의 유무가 판단되는 단계; 및 (C3) 공통네트워크에서 영역분할네트워크로 특징맵이 입력되고, 특징맵이 공통네트워크로 입력된 영상크기로 업-샘플링된 판독용 ROI영상으로 변환되고, 판독용 ROI영상이 학습데이터를 기반으로 딥러닝되면서 기포결함영역이 도출되면, 판독용 ROI영상에 기포결함영역이 표시된 결과이미지로 출력되는 단계를 포함하고, 판독용 ROI영상은 ROI영상의 각 픽셀이 기설정된 조건에 따라 0과 1로 이진화 처리된 것이 바람직하다.In an embodiment of the present invention, in step C, (C1) an ROI image is input to a common network, the ROI image is normalized in the form of neural network input data, down-sampled, and converted into a feature map. step; (C2) determining the presence or absence of bubbles while a feature map is input from the common network to the decision network, and the feature map is deep-learned based on the learning data; And (C3) a feature map is input from the common network to the area division network, the feature map is converted into an up-sampled ROI image for reading to the image size input to the common network, and the ROI image for reading is based on the learning data When the bubble defect area is derived during deep learning, the step of outputting the bubble defect area as a result image displayed on the reading ROI image is included, and in the reading ROI image, each pixel of the ROI image is set to 0 and 1 according to a preset condition. The binarization treatment is preferred.

본 발명의 일 실시예에 있어서, C2단계 및 C3단계는 C1 단계 후 병렬처리되어, 기포의 유무판단과 기포결함영역의 도출이 개별적으로 수행되는 것이 바람직하다.In an embodiment of the present invention, it is preferable that steps C2 and C3 are processed in parallel after step C1, so that the determination of the presence or absence of bubbles and derivation of the bubble defect regions are performed separately.

본 발명의 일 실시예에 있어서, C2단계에서, 판정네트워크는 입력된 복수의 특징맵이 병렬구조로 딥러닝되어, 복수의 특징맵에서의 기포의 유무에 대한 판단이 일괄적으로 수행되는 것이 바람직하다. In an embodiment of the present invention, in step C2, it is preferable that the determination network is deep-learning the inputted plurality of feature maps in a parallel structure, so that the determination of the presence or absence of bubbles in the plurality of feature maps is performed collectively. Do.

본 발명의 일 실시예에 있어서, C3단계에서, 영역분할네트워크는 입력된 복수의 판독용 ROI영상이 병렬구조로 딥러닝되어, 복수의 판독용 ROI영상에서의 기포결함영역의 도출이 일괄적으로 수행되는 것이 바람직하다.In one embodiment of the present invention, in step C3, the region division network deep-learns a plurality of input ROI images for reading in a parallel structure, so that the derivation of bubble defect regions in a plurality of reading ROI images is collectively performed. It is preferably carried out.

본 발명의 일 실시예에 있어서, C 단계에서, 공통네트워크 및 판정네트워크는 기포존재영상과 기포부존재영상이 학습데이터로 학습되고, 영역분할네트워크는 기포존재영상만 학습데이터로 학습되고, 기포존재영상에는 판정네트워크에서 기포가 존재하는 것으로 판단된 상이 포함된 것이 바람직하다.In an embodiment of the present invention, in step C, in the common network and the determination network, the bubble-existing image and the bubble-existing image are learned as learning data, and the domain division network learns only the bubble-existing image as learning data, and the bubble-existing image. It is preferable that the phase which is judged to have air bubbles in the judgment network is included.

본 발명은 기판영상 중 기포로 예측되는 부분만을 ROI영상으로 추출하고, 딥러닝방식으로 ROI영상으로부터 기포의 유무판단 및 기포결함영역의 도출이 수행되어, 기포에 의한 기판의 불량을 신속하게 검사할 수 있다. The present invention extracts only the portion of the substrate image predicted as a bubble as an ROI image, and determines the presence or absence of a bubble from the ROI image and derivation of the bubble defect area from the ROI image by a deep learning method, so that the defect of the board due to the bubble can be quickly inspected. I can.

아울러, 본 발명은 ROI영상에 기포결함영역이 표시된 결과이미지를 이용하여, 공정조건이 반영된 특징추출기반검사를 수행함으로써, 문제가 되는 부분을 집중적으로 검사하는 동시에 공정조건에 부합하게 기포에 의한 기판의 불량을 검사할 수 있다. In addition, the present invention performs a feature extraction-based inspection reflecting the process conditions using the result image in which the bubble defect area is displayed on the ROI image, thereby intensively inspecting the problem area and at the same time, the substrate caused by bubbles in accordance with the process conditions. You can check the defects.

즉, 본 발명은 기포에 의한 기판의 불량 검사를, 기판영상에서 기포로 예측되는 부분만을 ROI영상으로 생성하는 과정, ROI영상으로부터 기포의 유무판단 및 기포결함영역의 도출이 수행되는 과정, 마지막으로, ROI영상에 기포결함영역이 표시된 결과이미지가 특징추출기반검사가 수행됨에 공정조건에 부합하게 기포에 의한 기판의 불량을 최종판단하는 과정으로 세분화함으로써, 기판영상 전체를 대상으로 기포에 따른 기판불량을 검사하는 것이 아니라 결함이 예측되는 부분에 대해서는 기판불량검사가 수행되어, 기포에 의한 기판의 불량을 신속 및 정확하게 검사할 수 있다. That is, the present invention is a process in which defect inspection of a substrate due to bubbles is performed, a process of generating only a portion predicted as a bubble in a substrate image as an ROI image, a process of determining the presence or absence of bubbles from the ROI image, and a process of deriving a bubble defect area, and finally , As the result image with the bubble defect area displayed on the ROI image is subdivided into the process of final judgment of the defect of the substrate due to the bubble in accordance with the process conditions, the result image is carried out by feature extraction-based inspection. Instead of inspecting, substrate defect inspection is performed on a portion where defects are predicted, so that defects of the substrate due to air bubbles can be quickly and accurately inspected.

본 발명은 기판영상과 비교하여 적은 데이터용량을 가진 ROI영상이 딥러닝됨에 따라, 기판영상이 딥러닝되는 것과 비교하여 딥러닝 작업효율을 향상시킬 수 있는 동시에, 딥러닝결함판독부를 구현하는 시스템비용을 저비용으로 구현할 수 있다. In the present invention, as an ROI image having a small data capacity compared to a substrate image is deep-learned, it is possible to improve deep learning work efficiency compared to a deep-learning of the substrate image, and at the same time, the system cost of implementing the deep learning defect reading unit. Can be implemented at low cost.

이와 더불어, 본 발명은 기포결함영역이 표시된 결과이미지에 대한 특징추출기반검사시, 공정조건에 반영되어 기포에 의한 기판의 불량유무가 판단됨에 따라, 딥러닝에 의해 기판 불량으로 판단된 기판에 대해, 작업자가 공정조건을 반영하여 육안으로 기판의 불량을 추가적으로 판단할 필요없어, 기포에 의한 기판의 불량을 자동으로 구현할 수 있다. In addition, the present invention is reflected in the process conditions during the feature extraction-based inspection of the resultant image in which the bubble defect area is displayed, and as it is determined whether the substrate is defective due to the bubble, the substrate judged as a substrate defect by deep learning , It is not necessary for the operator to additionally determine the defect of the substrate with the naked eye by reflecting the process conditions, so that the defect of the substrate due to air bubbles can be automatically implemented.

도 1 및 도 2는 본 발명의 일 실시예에 따른 기포에 의한 기판불량 검사시스템을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 기포에 의한 기판불량 검사방법의 순서도이다.
도 4는 본 발명의 일 실시예에서, 영상처리 알고리즘이다.
도 5는 본 발명의 일 실시예에 따른 중첩영역제거 알고리즘이다.
도 6은 본 발명의 일 실시예에서, 기판영상에서 ROI영상을 추출하는 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시에에서, ROI영상으로부터 기포에 의한 기판의 불량을 판단하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에서, ROI영상이 신경망의 입력데이터로 변환되어, 판정네트워크와 영역분할네트워크에 적용되는 과정을 설명하기 위한 도면이다.
1 and 2 are views for explaining a system for inspecting substrate defects due to air bubbles according to an exemplary embodiment of the present invention.
3 is a flowchart of a method for inspecting substrate defects due to air bubbles according to an embodiment of the present invention.
4 is an image processing algorithm according to an embodiment of the present invention.
5 is an algorithm for removing an overlapped area according to an embodiment of the present invention.
6 is a view for explaining a process of extracting an ROI image from a substrate image in an embodiment of the present invention.
7 is a diagram illustrating a process of determining a defect of a substrate due to bubbles from an ROI image in an embodiment of the present invention.
8 is a diagram for explaining a process in which an ROI image is converted into input data of a neural network and applied to a decision network and a region division network in an embodiment of the present invention.

이하에서는 첨부도면을 참조하여, 본 발명의 바람직한 실시예에 따른 기포에 의한 기판불량 검사시스템 및 기포에 의한 기판불량 검사방법에 대해 설명하기로 한다. Hereinafter, with reference to the accompanying drawings, a description will be made of a substrate defect inspection system and a substrate defect inspection method due to bubbles according to a preferred embodiment of the present invention.

본 발명의 일 실시예에 따른 기포에 의한 기판불량 검사시스템(100)은, 기포에 의한 기판의 불량을 신속 및 정확하게 검사하기 위한 목적을 구현하기 위한 것이다. 이를 위해, 본 발명은 기판영상 중 기포가 존재하는 곳으로 예측되는 부분만 ROI영상으로 추출하고, 딥러닝방식으로 ROI영상으로부터 기포의 유무판단, 기포결함영역의 도출, 그리고, 기포결함영역에 대한 특징추출기반검사로 세분화되어 기포에 의한 기판불량검사가 수행되어, 기판영상 전체를 대상으로 기포에 따른 기판불량을 검사하는 것이 아니라 결함이 예측되는 부분에 대해서는 기판불량검사가 수행되게, 각 구성요소가 구성된다. The substrate defect inspection system 100 due to bubbles according to an embodiment of the present invention is to implement the purpose of quickly and accurately inspecting the defects of the substrate due to bubbles. To this end, the present invention extracts only the portion of the substrate image that is predicted to be where bubbles exist as an ROI image, and determines the presence or absence of bubbles from the ROI image by a deep learning method, derivation of the bubble defect area, and the bubble defect area. Subdivided into feature extraction-based inspection, substrate defect inspection is performed by air bubbles, so that substrate defect inspection is performed on parts where defects are predicted, rather than inspection of substrate defects due to bubbles for the entire substrate image. Is composed.

도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 기포에 의한 기판불량 검사시스템(100)은 영상처리부(110), 딥러닝결함판단부(120), 특징추출기반검사부(130) 및 데이터저장부(140)를 포함한다. 1 and 2, the substrate defect inspection system 100 due to bubbles according to an embodiment of the present invention includes an image processing unit 110, a deep learning defect determination unit 120, and a feature extraction-based inspection unit 130. And a data storage unit 140.

영상처리부(110)는 기판영상에서 기포로 예측되는 지점이 후보위치로 탐색되고, 각각의 후보위치에 대한 각각의 후보영역이 기판영상에서 추출되어 ROI영상이 생성된다. 도 2를 참조하면, 영상처리부(110)는 기판영상생성부(111), 후보위치탐색부(113) 및 ROI영상생성부(115)로 구성된다. The image processing unit 110 searches for a point predicted as a bubble in the substrate image as a candidate position, and each candidate region for each candidate position is extracted from the substrate image to generate an ROI image. Referring to FIG. 2, the image processing unit 110 includes a substrate image generation unit 111, a candidate location search unit 113, and an ROI image generation unit 115.

영상처리부(110)에서 기판영상을 생성하기 전에, 머신비전부(160)에 의해 기판이 촬영된여러 장의 촬영영상이 획득된다. 머신비전부(160)는 조명(161), 카메라(165) 및 조명조절부(163)를 포함한다. 머신비전부(160)는 기판이동부(150)을 따라 이동하는 기판을 촬영한다. Before the image processing unit 110 generates the substrate image, several photographed images in which the substrate is photographed by the machine vision unit 160 are acquired. The machine vision unit 160 includes a lighting 161, a camera 165 and a lighting control unit 163. The machine vision unit 160 photographs a substrate moving along the substrate moving unit 150.

복수의 촬영영상은 서로 다른 파장이 조사될 때, 카메라(165)에서 각각 촬영된 영상이다. 조명(161)은 조명조절부(163)에 의해 파장이 조절되어, 기판으로 서로 다른 파장을 조사한다. 카메라(165)는 조명조절부(163)에 기설정된 파장에 따라, 조명(161)이 기판으로 조사될 때 기판을 촬영한다. 복수의 촬영영상은 머신비전부(160)에서 기판영상생성부(111)로 제공된다. The plurality of photographed images are images photographed by the camera 165 when different wavelengths are irradiated. The illumination 161 is controlled by the illumination control unit 163, and irradiates different wavelengths to the substrate. The camera 165 photographs the substrate when the illumination 161 is irradiated onto the substrate according to the wavelength preset in the illumination control unit 163. The plurality of photographed images are provided from the machine vision unit 160 to the substrate image generation unit 111.

기판영상생성부(111)는 복수의 촬영영상을 영상처리하여, 기판영상을 생성한다. 본 실시예에서, 기판영상은 같은 위치에서 기판이 서로 다른 파장의 조명(161)으로 촬영된 복수의 촬영영상들을 논리 또는 산술적으로 조합되어 기포가 도드라지게 표현된 것이다. 예를 들어, 복수의 촬영영상 중 어느 한 개의 촬영영상은 UV파장이 기판으로 조사될 때 촬영된 촬영영상이 사용된다. 그리고, 다른 촬영영상은 R빔, G빔, B빔 중 적어도 하나 이상의 파장에서 촬영된 것이다. The substrate image generation unit 111 generates a substrate image by image processing a plurality of photographed images. In the present embodiment, the substrate image is formed by logically or arithmetically combining a plurality of photographed images photographed by the substrate having different wavelengths of illumination 161 at the same location, thereby expressing bubbles. For example, any one of the plurality of photographed images is a photographed image taken when a UV wavelength is irradiated onto the substrate. In addition, the other photographed image is photographed at at least one wavelength of R beam, G beam, and B beam.

후보위치탐색부(113)는 기설정된 영상처리 알고리즘에 따라 기판영상에서 후보위치가 탐색되고, 각각의 후보위치에 나열된 리스트가 산출된다. The candidate location search unit 113 searches for candidate locations in the substrate image according to a preset image processing algorithm, and calculates a list listed in each candidate location.

ROI영상생성부(115)는 리스트에 따라, 후보위치를 중심점으로 하여 기설정된 크기를 가진 후보영역이 산출되고, 기판영상에서 각각의 후보영역이 추출되어 ROI영상이 생성된다. 여기서, 기설정된 크기는 ROI영상 크기이다. ROI는 후보영역(Region Of Interest)의 약자이다. According to the list, the ROI image generator 115 calculates a candidate region having a predetermined size based on the candidate position as a center point, and extracts each candidate region from the substrate image to generate an ROI image. Here, the preset size is the size of the ROI image. ROI stands for Region Of Interest.

딥러닝결함판단부(120)는 ROI영상이 기저장된 학습데이터를 기반으로 딥러닝되면서, 기포의 유무가 판단되고, 기포결함영역이 도출되면 ROI영상에 기포결함영역이 표시된 결과이미지가 출력된다. The deep learning defect determination unit 120 determines the presence or absence of bubbles while deep learning based on the learning data previously stored in the ROI image, and when the bubble defect area is derived, the resulting image displaying the bubble defect area on the ROI image is output.

딥러닝결함판단부(120)는, 공통네트워크(121), 판정네트워크(123) 및 영역분할네트워크(125)로 구성된다. 공통네트워크(121)와 판정네트워크(123)는 기포존재영상과 기포부존재영상이 학습데이터로 학습된다. 영역분할네트워크(125)는 기포존재영상만 학습데이터로 학습되고, 기포존재영상에는 판정네트워크(123)에서 기포가 존재하는 것으로 판단된 것이 포함된다. The deep learning defect determination unit 120 is composed of a common network 121, a determination network 123, and an area division network 125. In the common network 121 and the determination network 123, the bubble presence image and the bubble absence image are learned as learning data. The region division network 125 learns only the bubble-existing image as the learning data, and the bubble-existing image includes the one determined by the determination network 123 to have a bubble.

공통네트워크(121)에서, 영상처리부(110)에서 입력된 ROI영상은 신경망 입력데이터 형태로 정규화 처리된다. 이후, ROI영상은 다운-샘플링되어 특징맵(feature map)으로 변환된다. 특징맵은 공통네트워크(121)에서 출력되어, 판정네트워크(123) 및 영역분할네트워크(125)로 각각 입력된다. In the common network 121, the ROI image input from the image processing unit 110 is normalized in the form of neural network input data. Thereafter, the ROI image is down-sampled and converted into a feature map. The feature map is output from the common network 121 and input to the decision network 123 and the area division network 125, respectively.

본 실시예에서, ROI영상의 정규화 처리는 ROI영상이 신경망인 판정네트워크(123) 및/또는 영역분할네트워크(125)으로 입력되기 전의 영상을 전처리하는 것이다. ROI영상의 정규화처리는 영상평균이 0이거나 0에 가깝고 데이터 분포가 양수와 음수로 적절하게 분포되면서 기포가 잘 표현될 수 있는 형태로 한다. 예를 들어 영상평균의 빼기 또는 나누기나 Z-Score계산을 통해 정규화할 수 있다.In this embodiment, the normalization process of the ROI image is to pre-process the image before the ROI image is input to the decision network 123 and/or the region division network 125 which is a neural network. In the normalization process of the ROI image, the image mean is 0 or close to 0, and the data distribution is properly distributed in positive and negative numbers, so that bubbles can be well expressed. For example, it can be normalized by subtracting or dividing the image mean or by calculating the Z-Score.

판정네트워크(123)는 딥러닝방식으로 특징맵으로부터 기포의 유무만을 판단한다. 공통네트워크(121)에서 판정네트워크(123)로 입력된 특징맵은 기저장된 학습데이터를 기반으로 딥러닝되면서 기포의 유무가 판단된다. The decision network 123 determines only the presence or absence of bubbles from the feature map in a deep learning method. The feature map input from the common network 121 to the determination network 123 is deep-learned based on the previously stored learning data to determine the presence or absence of bubbles.

예컨대, 판정네트워크(123)는 입력된 특징맵이 기포존재영상의 특징맵에 매칭되면 기포 존재라고 판단한다. 또는 판정네트워크(123)는 입력된 특징맵이 기포부존재영상의 특징맵에 매칭되면 기포부존재라고 판단한다. For example, when the input feature map matches the feature map of the bubble presence image, the determination network 123 determines that a bubble exists. Alternatively, when the input feature map matches the feature map of the bubble-free image, the determination network 123 determines that there is no bubble.

즉, 판정네트워크(123)는 입력된 특징맵이 딥러닝 방식에 의해 기포의 유무만 판단된다. 판정네트워크(123)에서 기포존재라고 판단된 것은 학습데이터로 활용하기 위해 데이터저장부(140)에 저장된다. 그리고, 판정네트워크(123)는 기포부존재라고 판단된 것을 쓰레기데이터로 처리된다. That is, the determination network 123 determines only the presence or absence of bubbles in the input feature map by the deep learning method. What is determined as the presence of bubbles in the decision network 123 is stored in the data storage unit 140 to be used as learning data. Then, the determination network 123 treats the determination as the absence of air bubbles as garbage data.

영역분할네트워크(125)는, 딥러닝방식으로 특징맵으로부터 기판결함영역을 도출한다. 공통네트워크(121)에서 영역분할네트워크(125)로 입력된 특징맵은 공통네트워크(121)로 입력된 ROI영상크기로 업-샘플링된 판독용 ROI영상으로 변환되고, 판독용 ROI영상이 학습데이터를 기반으로 딥러닝되면서 기포결함영역이 도출되면, 판독용 ROI영상에 기포결함영역이 표시된 결과이미지가 출력된다. 판독용 ROI영상은 ROI영상의 각 픽셀이 기설정된 조건에 따라 0과 1로 이진화 처리된 것이다. The area division network 125 derives a substrate defect area from a feature map in a deep learning method. The feature map input from the common network 121 to the area division network 125 is converted into an up-sampled ROI image for reading to the size of the ROI image input to the common network 121, and the ROI image for reading is the learning data. Based on the deep learning, when the bubble defect area is derived, the result image displaying the bubble defect area on the reading ROI image is output. In the ROI image for reading, each pixel of the ROI image is binarized into 0 and 1 according to a preset condition.

특징추출기반검사부(130)는 기설정된 기반검사 알고리즘에 따라 결과이미지가 영상처리되면서 기포결함영역의 특징이 추출되어, 기판에 대한 최종 불량 유무가 판단된다. 기반검사 알고리즘으로는 BLOB알고리즘이 사용될 수 있다. The feature extraction-based inspection unit 130 extracts the features of the bubble defect region as the result image is image-processed according to a preset base inspection algorithm, and determines whether there is a final defect on the substrate. BLOB algorithm can be used as the base inspection algorithm.

이하에서는 도 2 내지 도 8을 참조하여 기포에 의한 기판불량 검사방법에 대해 설명하기로 한다. Hereinafter, a method for inspecting substrate defects due to bubbles will be described with reference to FIGS. 2 to 8.

본 발명의 일 실시예에 따른 기포에 의한 기판불량 검사방법은 기판이 촬영된 기판영상에서 기판의 코팅시 발생된 기포에 의한 기판의 불량을 검사하는 방법이다. The method for inspecting substrate defects due to bubbles according to an exemplary embodiment of the present invention is a method of inspecting defects in a substrate due to bubbles generated during coating of a substrate in a substrate image in which a substrate is photographed.

우선, 딥러닝결함판단부(120)에서, 기포존재영상과 기포부존재영상이 학습데이터로 학습된다(A 단계). 여기서, 기포존재영상과 기포부존재영상은 코팅된 기판을 촬영한 것이다. First, in the deep learning defect determination unit 120, the bubble-existing image and the bubble-free image are learned as learning data (step A). Here, the bubble presence image and the bubble absence image are photographs of the coated substrate.

다음으로, 머신비전방식으로 기판이 촬영된다. 같은 위치에서 기판이 서로 다른 파장의 조명(161)으로 촬영된 복수의 촬영영상들이 영상처리부(110)로 제공되어, 영상처리부(110)에서 ROI영상이 생성된다(B 단계). Next, the substrate is photographed using a machine vision method. A plurality of photographed images photographed with illumination 161 of different wavelengths on the substrate at the same location are provided to the image processing unit 110, and the ROI image is generated by the image processing unit 110 (step B).

도 4에 따른 영상처리 알고리즘에 따라, 복수의 촬영영상은 기판영상생성부(111)에서 영상조합 및 노이즈가 제거되어, 한 개의 기판영상으로 변환된다. 상술했듯이, 기판영상은 같은 위치에서 기판이 서로 다른 파장의 조명(161)으로 촬영된 복수의 촬영영상들을 논리 또는 산술적으로 조합되어 기포가 도드라지게 표현된 것이다. According to the image processing algorithm according to FIG. 4, the image combination and noise are removed from the substrate image generator 111, and a plurality of photographed images are converted into one substrate image. As described above, in the substrate image, a plurality of photographed images photographed by the substrate having different wavelengths of illumination 161 at the same position are logically or arithmetically combined, thereby expressing bubbles.

이어서, 후보위치탐색부(113)에 의해, 기판영상에서 기포로 예측되는 지점이 후보위치로 탐색된다. 후보위치탐색부(113)에서, 각 후보위치가 나열된 리스트가 산출된다. Subsequently, a point predicted as a bubble in the substrate image is searched as a candidate position by the candidate position search unit 113. In the candidate location search unit 113, a list listing each candidate location is calculated.

ROI영상생성부(115)에서, 리스트에 따라, 후보위치를 중심점으로 하여 기설정된 크기를 가진 후보영역이 산출된다. In the ROI image generator 115, a candidate region having a predetermined size is calculated based on the candidate position as a center point according to the list.

이후, ROI영상생성부(115)에 기설정된 중첩영역제거 알고리즘(도 5참조)에 따라, 리스트에서 임의로 후보위치가 선택되면, 선택된 후보위치에 대한 선택후보영역의 중첩범위 내에서 미선택된 후보위치가 탐색되고, 탐색된 후보위치가 리스트에서 제거된다. 중첩범위는 선택된 후보위치를 중심점으로 하여, 선택후보영역의 면적의 1/2 범위 내로 ROI영상생성부(115)에 기설정된다.Thereafter, when a candidate position is randomly selected from the list according to the overlapping region removal algorithm preset in the ROI image generator 115 (see Fig. 5), an unselected candidate position within the overlapping range of the selected candidate region for the selected candidate position Is searched, and the searched candidate position is removed from the list. The overlapping range is preset in the ROI image generation unit 115 within a range of 1/2 of the area of the selected candidate region, using the selected candidate position as the center point.

도 5에 도시된 바와 같이, 중첩영역제거 알고리즘은 검사하고자 하는 후보영역의 면적의 1/2범위 내의 가까운 위치에 다른 후보 위치가 있는지 확인하여 제거하는 것을 반복하는 알고리즘이다. 이후 기준이 되었던 선택된 후보위치는 다른 후보위치를 계산할 때 영향을 받지 않도록 이미 계산한 위치로서 플래그(Flag)로 셋팅된다. 중첩영역제거 알고리즘은 리스트에 나열된 모든 후보위치가 계산될 때까지 반복된다. As shown in FIG. 5, the overlapping region removal algorithm is an algorithm that repeatedly removes and checks whether there is another candidate position at a position close to 1/2 of the area of the candidate region to be inspected. Subsequently, the selected candidate position, which has become a reference, is set as a flag as a previously calculated position so as not to be affected when calculating other candidate positions. The overlapping area elimination algorithm is repeated until all candidate positions listed in the list have been calculated.

이후, ROI영상생성부(115)에서, 리스트에 따라, 후보위치를 중심점으로 하여, 기판영상에서 일정 크기의 후보영역이 컷팅되어 ROI영상이 생성된다. 예컨대, ROI영상크기는 영상크기가 다운샘플링되는 중간과정에서 홀수가 되지 않게 선정된다. 예컨대, ROI영상 크기가 176이고, 4번의 다운샘플링을 한다고 가정하면, 각 단계에서의 ROI영상 크기는 176->88->44->22->11이 되며 시작부터 중간단계는 모두 짝수 크기임을 알 수 있다. 또는, ROI영상 크기가 112이고, 4번의 다운샘플링을 한다고 가정하면, 112->56->28->14->7로 영상크기가 작아진다(도 8참조). 도 8을 참조하여, 입력된 ROI영상크기가 112×112인 ROI영상은 공통네트워크(121)에서 영상처리되어 7×7의 영상크기의 특징맵으로 변환된다. Thereafter, the ROI image generation unit 115 cuts a candidate region of a predetermined size from the substrate image using the candidate position as the center point according to the list to generate the ROI image. For example, the ROI image size is selected so that it does not have an odd number during an intermediate process in which the image size is downsampled. For example, assuming that the ROI image size is 176 and downsampling is performed four times, the ROI image size in each step is 176->88->44->22->11, and all intermediate steps from the start are even-numbered. Able to know. Alternatively, assuming that the ROI image size is 112 and downsampling is performed four times, the image size is reduced to 112->56->28->14->7 (see FIG. 8). Referring to FIG. 8, an ROI image having an input ROI image size of 112×112 is image-processed in the common network 121 and converted into a feature map having an image size of 7×7.

기판영상에서 ROI영상을 추출하는 과정에 대해 도 6을 참조하여 설명하면 다음과 같다. A process of extracting an ROI image from a substrate image will be described with reference to FIG. 6 as follows.

도 6(a)에 도시된 바와 같이, 기판영상은 상술한 바와 같은 복수의 촬영영상들의 조합에 의해 기포가 예측되는 지점이 도드라지게 표시된 것이다. 도 6(a)에 도시된 번호 1 내지 번호6은 후보위치를 나타낸 것이다. 후보위치는 BLOB알고리즘에 의해 산출될 수 있다. 후보위치는 기포일 수도 있고, 홀(hole)일 수도 있다. 배경기술에서 설명했듯이, 홀(hole)은 기포의 패턴과 비교하여, 납땜면에서의 유사한 밝기 변화와 유사한 형상의 패턴을 가져, 머신비전방식에 의한 영상처리방식으로는 구분하기 어려워 후보위치로 탐색될 가능성이 높다. As shown in FIG. 6(a), the substrate image is a point where a bubble is predicted by a combination of a plurality of photographed images as described above. Numbers 1 to 6 shown in Fig. 6(a) indicate candidate positions. The candidate position can be calculated by the BLOB algorithm. The candidate position may be a bubble or a hole. As explained in the background art, a hole has a pattern of a similar shape with a similar change in brightness on the soldering surface compared to the pattern of air bubbles, so it is difficult to distinguish it with the image processing method by machine vision, so it is searched as a candidate position. Is likely to be.

이후, 도 6(b)에 도시된 바와 같이, 각각의 후보위치를 중심점으로 하여 기설정된 크기로 후보영역이 도출된다. 본 발명은 설명의 편의를 위해, 후보영역에 대해 다음과 같이 지칭한다. 후보영역1(11A)은 후보위치1를 중심점으로 기설정된 크기를 가진 영역이다. 후보영역2(12A) 내지 후보영역6(16A)은 각각의 후보위치2 내지 후보위치6을 중심점으로 기설정된 크기를 가진 영역이다. Thereafter, as shown in Fig. 6(b), a candidate region is derived with a predetermined size using each candidate position as a center point. In the present invention, for convenience of description, a candidate region is referred to as follows. Candidate 1 (11A) is an area having a predetermined size based on candidate position 1 as a center point. Candidate regions 2 (12A) to 6 (16A) are regions having a predetermined size based on each of the candidate positions 2 to 6 as a center point.

도 6(b)를 참조하면, 각각의 후보위치마다 후보영역이 도출되면, 후보영역간에 중첩되는 경우가 발생될 수도 있다. 본 예에서, 후보영역2(12A)와 후보영역3(13A)이 중첩되고, 후보영역4(14A)와 후보영역5(15A)가 중첩된다. Referring to FIG. 6B, when a candidate region is derived for each candidate position, a case of overlapping between the candidate regions may occur. In this example, candidate area 2 (12A) and candidate area 3 (13A) are overlapped, and candidate area 4 (14A) and candidate area 5 (15A) are overlapped.

이후, 도 6(c)에 도시된 바와 같이, 중첩영역제거 알고리즘에 따라, 중첩된 후보영역이 제거되는 과정에 수행된다. 도 6(c)를 참조하여, 중첩영역제거 알고리즘이 수행되는 과정을 설명하면, 리스트에 나열된 후보위치1이 선택되면, 후보영역1(11A)의 1/2의 면적(11B) 내에서 다른 후보위치가 존재하는지 여부가 탐색되고, 다른 후보위치가 탐색되지 않으면 후보위치1은 탐색완료 후보위치로 리스트에 셋팅된다.Thereafter, as shown in FIG. 6(c), it is performed in the process of removing the overlapped candidate regions according to the overlapping region removal algorithm. Referring to FIG. 6(c), the process of performing the overlapping region removal algorithm will be described. When a candidate position 1 listed in the list is selected, another candidate within the area 11B of 1/2 of the candidate region 1 11A Whether a location exists is searched, and if no other candidate location is searched, candidate location 1 is set to the list as a searched candidate location.

리스트에 나열된 후보위치2가 선택되면, 후보영역2(12A)의 1/2의 범위 내에 다른 후보위치가 존재하는지 여부가 탐색된다. 이 과정에서, 후보영역2(12A)의 1/2면적(12B) 내에서 다른 후보위치인 후보위치3이 탐색되면, 리스트에서 후보위치3이 제거된다. 이 과정은 후보영역의 1/2범위 내에서 다른 후보위치가 탐색되지 않을 때까지 반복된다. When the candidate position 2 listed in the list is selected, it is searched for whether another candidate position exists within the range of 1/2 of the candidate area 2 12A. In this process, if another candidate location, which is a candidate location 3, is searched within the 1/2 area 12B of the candidate area 2 (12A), the candidate location 3 is removed from the list. This process is repeated until no other candidate positions are searched within 1/2 of the candidate region.

이후, 리스트에 나열된 후보위치4 내지 후보위치6에 대해 상기와 같은 과정이 반복수행되어, 도 6(d)와 같은 후보영역이 확정된다. 후보영역4(14A) 및 후보영역5(15A)와 같이 후보영역이 중첩되더라도, 에컨대, 후보위치4가 후보영역5(15A)의 1/2의 면적(15A) 내에 속하지 않으면 후보영역4(14A)에 후보위치4 및 후보위치5가 모두 존재하고, 후보영역5(15A)에 후보위치4 및 후보위치5가 모두 존재하더라도, 별개의 후보영역으로 산출된다. 본 실시예에서, 도면번호 11A 내지 도면번호 16A는 후보영역을 지시한 것이고, 도면번호 11B 내지 16B는 각 후보영역의 1/2면적 범위를 지시한다. Thereafter, the above-described process is repeatedly performed for the candidate positions 4 to 6 listed in the list, and a candidate region as shown in FIG. 6(d) is determined. Even if candidate regions overlap like candidate regions 4 (14A) and candidate region 5 (15A), for example, if candidate position 4 does not fall within the area (15A) of 1/2 of candidate region 5 (15A), candidate region 4 ( Even if both candidate positions 4 and 5 are present in 14A) and both candidate positions 4 and 5 are present in candidate region 5 (15A), they are calculated as separate candidate regions. In this embodiment, reference numerals 11A to 16A designate candidate regions, and reference numerals 11B to 16B designate a half area range of each candidate region.

도 6(e)에는 기판영상에서 각각의 후보영역이 추출된 ROI영상이 도시된다. 본 실시예에서는 설명의 편의를 위해, 후보위치1이 중심점인 영상을 ROI영상1(21)이라 지칭하고, 후보위치2가 중심점인 영상을 ROI영상2(22)이라 지칭하고, 후보위치4가 중심점인 영상을 ROI영상3(23)이라 지칭하고, 후보위치5가 중심점인 영상을 ROI영상4(24)이라 지칭하고, 후보위치6이 중심점인 영상을 ROI영상5(25)이라 지칭한다. 6(e) shows an ROI image from which each candidate region is extracted from the substrate image. In this embodiment, for convenience of explanation, an image in which candidate position 1 is the center point is referred to as ROI image 1 (21), an image in which candidate position 2 is the central point is referred to as ROI image 2 (22), and candidate position 4 is The image as the central point is referred to as ROI image 3(23), the image in which candidate position 5 is the central point is referred to as ROI image 4(24), and the image in which candidate position 6 is the central point is referred to as ROI image 5(25).

이후, ROI영상1(21) 내지 ROI영상5(25)는 딥러닝결함판단부(120)로 입력되어, 기포의 유무 또는 기포결함영역이 표시된 결과이미지로 출력된다(C 단계). Thereafter, ROI image 1 (21) to ROI image 5 (25) are input to the deep learning defect determination unit 120, and the presence or absence of bubbles or bubble defect regions are displayed as a result image (step C).

우선, 도 7을 참조하면, ROI영상1(21) 내지 ROI영상5(25)이 공통네트워크(121)로 입력된다. 공통네트워크(121)에서, ROI영상1(21) 내지 ROI영상5(25)는 신경망 입력데이터 형태로 정규화 처리되고, 다운-샘플링되어 특징맵(feature map)으로 변환된다. 본 실시예에서는 설명의 편의를 위해, ROI영상1(21)에 대한 특징맵을 특징맵1(31)이라 지칭하고, ROI영상2(22)에 대한 특징맵을 특징맵2(32)라 지칭한다. 그리고, ROI영상3(23) 내지 ROI영상5(25)에 대한 특징맵을 특징맵3 내지 특징맵5(33, 34, 35)라 각각 지칭한다. First, referring to FIG. 7, ROI image 1 (21) to ROI image 5 (25) are input to the common network 121. In the common network 121, ROI images 1 (21) to ROI images 5 (25) are normalized in the form of neural network input data, down-sampled, and transformed into a feature map. In this embodiment, for convenience of explanation, the feature map for the ROI image 1 (21) is referred to as a feature map 1 (31), and the feature map for the ROI image 2 (22) is referred to as the feature map 2 (32). do. In addition, the feature maps for the ROI image 3 (23) to the ROI image 5 (25) are referred to as feature maps 3 to 5 (33, 34, 35), respectively.

도 7을 참조하면, 특징맵1내지 특징맵5(31, 32, 33, 34, 35)는 판정네트워크(123) 및 영역분할네트워크(125)로 각각 입력된다. Referring to FIG. 7, feature maps 1 to 5 (31, 32, 33, 34, 35) are input to the decision network 123 and the area division network 125, respectively.

판정네트워크(123)는 공통네트워크(121)에서 입력된 특징맵1(31) 내지 특징맵5(35)에 대해 기저장된 학습데이터를 기반으로 딥러닝되면서, 기포의 유무가 판단된다. 판정네트워크(123)는 기포존재영상과 기포부존재영상이 학습데이터로 학습된다. The decision network 123 is deep-learning based on the learning data previously stored for the feature maps 1 (31) to the feature maps 5 (35) input from the common network 121 to determine the presence or absence of bubbles. The determination network 123 learns the bubble-existing image and the bubble-free image as learning data.

판정네트워크(123)는 입력된 복수의 특징맵이 병렬구조로 딥러닝되어, 복수의 특징맵에서의 기포의 유무에 대한 판단이 일괄적으로 수행한다. 즉, 판단네트워크는 특징맵1(31) 내지 특징맵5(35)이 동시에 학습데이터를 기반으로 동시에 딥러닝되면서, 각각의 특징맵에 대한 결과값을 출력한다. 판단네트워크에서, 입력된 특징맵에 대해 기포의 존재유무에 따라, "정상" 또는 "불량" 두 가지 값 중 어느 한 개가 결과값으로 출력된다. 그리고, 판정네트워크(123)는 한 개의 ROI영상에 두 개의 후보위치가 존재하더라도 딥러닝 결과 한 개라도 기포가 존재하면 불량으로 판단되도록 설계된 것이 바람직하다.The decision network 123 deep-learns the inputted plurality of feature maps in a parallel structure, and collectively determines the presence or absence of bubbles in the plurality of feature maps. That is, the decision network outputs result values for each feature map while the feature maps 1 (31) to 5 (35) are simultaneously deep-learned based on the learning data. In the judgment network, one of two values of "normal" or "defective" is output as a result value according to the presence or absence of bubbles in the input feature map. In addition, it is preferable that the decision network 123 is designed so that even if two candidate positions exist in one ROI image, if even one bubble exists as a result of the deep learning, it is determined to be defective.

예컨대, 판정네트워크(123)는 입력된 특징맵1(31) 내지 특징맵5(35)가 기포존재영상 또는 기포부존재영상 중 어느 것에 더 근접한 특징을 가진지로 특징맵1(31) 내지 특징맵5(35)에 대한 기포의 유무를 판단한다. 본 실시예에서는 설명의 편의를 위해, 후보위치1, 후보위치3 및 후보위치5에 홀(hole)이 존재하고, 후보위치2, 후보위치4 및 후보위치6에 기포가 존재한다고 가정한다. For example, the decision network 123 determines whether the input feature map 1 (31) to feature map 5 (35) has a feature that is closer to any of the bubble-existing image or the bubble-free image. The presence or absence of air bubbles for (35) is judged. In the present embodiment, for convenience of explanation, it is assumed that holes exist in candidate positions 1, 3 and 5, and bubbles exist in candidate positions 2, 4 and 6.

판정네트워크(123)는 특징맵1(31)에 대해 학습데이터를 기반으로 딥러닝되면서 기포부존재영상의 특징맵과 매칭되면, 특징맵1(31)에 대해 "정상"으로 결과값을 출력한다. 또한, 판정네트워크(123)DPT 특징맵2(32)는 학습데이터를 기반으로 딥러닝되면서 기포존재영상의 특징맵과 매칭되면, 특징맵2(32)에 대해 "불량"으로 결과값이 산출된다. 이와 같은 과정이, 판정네트워크(123)에서 특징맵3 내지 특징맵5(33, 34, 35)에 대해서도 일괄적을 수행된다. 결과적으로, 후보위치4가 존재하는 특징맵3(33)은 "불량"으로, 후보위치5가 존재하는 특징맵4(34)는 "정상"으로, 후보위치6이 존재하는 특징맵5(35)는 "불량"으로 결과값이 산출된다. When the feature map 1 (31) is deep-learned based on the learning data and matches the feature map of the bubble-free image, the decision network 123 outputs a result value as "normal" to the feature map 1 (31). In addition, when the decision network 123 and DPT feature map 2 (32) are matched with the feature map of the bubble-existing image while deep learning based on the learning data, a result value is calculated as "defective" for the feature map 2 (32). . Such a process is performed collectively for the feature map 3 to the feature map 5 (33, 34, 35) in the decision network 123. As a result, feature map 3 (33) in which candidate location 4 exists is "bad", feature map 4 (34) in which candidate location 5 exists is "normal", and feature map 5 (35) in which candidate location 6 exists ) Is calculated as "bad".

한편, 영역분할네트워크(125)는 공통네트워크(121)에서 입력된 특징맵을 판독용 ROI영상으로 변환하여, 판독용 ROI영상을 기저장된 학습데이터를 기반으로 딥러닝하여 기포결함영역을 도출한다. 영역분할네트워크(125)는 기포존재영상만 학습데이터로 학습되고, 기포존재영상에는 판정네트워크(123)에서 기포가 존재하는 것으로 판단된 영상이 포함된다. On the other hand, the region division network 125 converts the feature map input from the common network 121 into an ROI image for reading, and deep-learns the ROI image for reading based on the previously stored learning data to derive a bubble defect region. The region division network 125 learns only the bubble-existing image as the learning data, and the bubble-existing image includes the image determined by the determination network 123 that the bubble exists.

구체적으로, 특징맵1(31) 내지 특징맵5(35)가 공통네트워크(121)에서 영역분할네트워크(125)로 입력된다. 특징맵이 공통네트워크(121)로 입력된 ROI영상크기로 업-샘플링된 판독용 ROI영상으로 변환된다. 도 8을 참조하면, 영역분할네트워크(125)에서, 7×7의 영상크기의 특징맵은 112×112의 ROI영상크기의 판독용 ROI영상으로 업샘플링된다. 판독용 ROI영상은 ROI영상의 각 픽셀이 기설정된 조건에 따라 0과 1로 이진화 처리된 것이다. Specifically, feature maps 1 (31) to feature maps 5 (35) are input from the common network 121 to the area division network 125. The feature map is converted into an ROI image for reading that is up-sampled to the size of the ROI image input to the common network 121. Referring to FIG. 8, in the area division network 125, a feature map of a 7×7 image size is upsampled to a read ROI image of a 112×112 ROI image size. In the ROI image for reading, each pixel of the ROI image is binarized into 0 and 1 according to a preset condition.

본 실시예에서는 설명의 편의를 위해, 특징맵1(31)이 업샘플링된 영상을 판독용 ROI영상1(41)이라 지칭하고, 특징맵2(32)가 업샘플링된 영상을 판독용 ROI영상2(42)라 지칭한다. 이와 동일한 방식으로, 특징맵3 내지 특징맵5(33, 34, 35)가 업샘플링된 영상을 판독용 ROI영상3 내지 ROI영상5(43, 44, 45)라 지칭한다. In this embodiment, for convenience of explanation, the image in which the feature map 1 (31) is up-sampled is referred to as a reading ROI image 1 (41), and the image in which the feature map 2 (32) is up-sampled is referred to as a reading ROI image. Referred to as 2(42). In the same manner, an image in which the feature maps 3 to 5 (33, 34, 35) are up-sampled is referred to as a reading ROI image 3 to ROI image 5 (43, 44, 45).

그리고, 영역분할네트워크(125)에서, 판독용 ROI영상1 내지 판독용 ROI영상5(41, 42, 43, 44, 45)는 학습데이터를 기반으로 딥러닝된다. 본실시예에서, 판독용 ROI영상1 내지 판독용 ROI영상5(41, 42, 43, 44, 45)는 영역분할네트워크(125)에서 병렬구조로 딥러닝되어, 판독용 ROI영상1 내지 판독용 ROI영상5(41, 42, 43, 44, 45) 각각에서의 기포결함영역이 일괄적으로 도출된다. 이에 따라, 본 발명은 기포결함영역을 도출하는 검사속도를 향상시킬 수 있다. And, in the region division network 125, the reading ROI image 1 to the reading ROI image 5 (41, 42, 43, 44, 45) are deep-learned based on the learning data. In this embodiment, the reading ROI image 1 to the reading ROI image 5 (41, 42, 43, 44, 45) are deep-learned in a parallel structure in the area division network 125, and the reading ROI image 1 to the reading The bubble defect regions in each of the ROI images 5 (41, 42, 43, 44, 45) are collectively derived. Accordingly, the present invention can improve the inspection speed for deriving the bubble defect area.

이어서, 영역분할네트워크(125)는 판독용 ROI영상1 내지 판독용 ROI영상5(41, 42, 43, 44, 45)에서 기포결함영역이 도출되면, 기포결함영역이 표시된 결과이미지가 출력된다. 결과이미지는 판독용 ROI영상에서 기포결함영역이 주변과 구분되게 이미지처리된 것이다. 예시적으로, 결과이미지는 판독용 ROI영상에 기포결함영역이 주변과 다른 색상으로 표시된 것이다. Subsequently, when the bubble defect area is derived from the read ROI image 1 to the read ROI image 5 (41, 42, 43, 44, 45), the area division network 125 outputs a result image displaying the bubble defect area. The resulting image is image-processed so that the bubble defect area is distinguished from the surrounding area in the reading ROI image. Exemplarily, the resulting image is a bubble defect area displayed in a different color from the surroundings on the reading ROI image.

영역분할네트워크(125)는 특징맵1(31)에 대해 기저장된 학습데이터인 기포존재영상을 기반으로 딥러닝되어, 후보위치1(홀)이 기포존재영상에 매칭되지 않으면 쓰레기데이터로 처리된다. 이는, 후보위치1이 홀로 기판의 불량에 해당되지 않기 때문이다.The region division network 125 is deep-learned based on the bubble-existing image, which is the learning data previously stored for the feature map 1 (31), and if the candidate location 1 (hole) does not match the bubble-existing image, it is treated as garbage data. This is because candidate position 1 alone does not correspond to the defect of the substrate.

영역분할네트워크(125)는 특징맵2(32)에 대해 학습데이터를 기반으로 딥러닝되면서, 후보위치2(기포)가 기포존재영상과 매칭되면, 후보위치2에 대한 부분이 기포결함영역으로 표시된다. 예컨대, 특징맵2(32)에 대한 판독용 ROI영상에 후보위치2에 대한 부분과 나머지 부분이 구분되게, 후보위치2에 대해 기판결함영역으로 표시된다. The area division network 125 is deep-learning based on the learning data on the feature map 2 (32), and when the candidate location 2 (bubble) matches the bubble-existing image, the part for the candidate location 2 is displayed as a bubble defect area. do. For example, in the ROI image for reading on the feature map 2 (32), a portion for the candidate position 2 and the remaining portion are displayed as a substrate defect area for the candidate position 2 so that the portion for the candidate position 2 and the rest are distinguished.

이와 같은 과정이 특징맵3 내지 특징맵5(33, 34, 35)에 대해서도 수행된다. 특징맵3(33) 및 특징맵5(35)는 기포가 존재하는 데이터로, 특징맵3(33)에 대한 판독용 ROI영상은 후보위치4에서 해당되는 부분이 기판결함영역으로 표시된다. 그리고, 특징맵5(35)에 대한 판독용 ROI영상은 후보위치6에 해당되는 부분이 기판결함영역으로 표시된다. 특징맵4(34)는 홀이 존재하는 데이터로, 특징맵4(34)에 대한 특징맵3 내지 특징맵5(33, 34, 35)특징맵3 내지 특징맵5(33, 34, 35)상은 쓰레기데이터로 처리된다. This process is also performed for feature maps 3 to 5 (33, 34, 35). The feature map 3 (33) and the feature map 5 (35) are data in which bubbles are present, and the ROI image for reading on the feature map 3 (33) is displayed as a substrate defect region in a corresponding portion at the candidate position 4. In addition, in the ROI image for reading on the feature map 5 (35), a portion corresponding to the candidate position 6 is displayed as a substrate defect area. Feature map 4 (34) is data with holes, and feature map 3 to feature map 5 (33, 34, 35) for feature map 4 (34) feature map 3 to feature map 5 (33, 34, 35) Prizes are treated as garbage data.

영역분할네트워크(125)는 특징맵1(31) 내지 특징맵5(35)에 대해 병렬방식으로, 학습데이터를 기반으로 동시에 딥러닝되면서, 각각의 특징맵에 대한 결과이미지를 출력한다. 즉, 기포가 존재하는 것으로 판단된 특징맵2(32), 특징맵3(33) 및 특징맵5(35)에 대해서는 각각 기포결함영역이 표시된 결과이미지를 출력한다. 반면, 기포가 없는 것으로 판단된 특징맵1(31) 및 특징맵4(34)에 대해서는 쓰레기데이터로, 결과이미지가 출력되지 않는다.The domain division network 125 outputs a result image for each feature map while deep learning at the same time based on the learning data in a parallel manner for feature maps 1 (31) to feature maps 5 (35). That is, with respect to the feature map 2 (32), feature map 3 (33), and feature map 5 (35) determined to have bubbles, each of the result images in which the bubble defect regions are displayed is output. On the other hand, the feature map 1 (31) and the feature map 4 (34) determined to be free of air bubbles are garbage data, and the result image is not output.

본 발명은 딥러닝 방식으로 입력데이터를 판단하는 구성을 판단네트워크와 영역분할네트워크(125)로 세분화하고, 판단네트워크와 영역분할네트워크(125)가 앞단인 공통네트워크(121)를 공유하게 설계됨에 따라, 입력데이터를 판단하는 속도를 향상시킬 수 있다. 이와 동시에, 본 발명은 네트워크의 구성을 단순화시켜 저비용으로 딥러닝을 수행토록 할 수 있다.As the present invention is designed to subdivide a configuration for determining input data by a deep learning method into a judgment network and an area division network 125, and the judgment network and the area division network 125 share a common network 121 at the front end, , It is possible to improve the speed of determining the input data. At the same time, the present invention simplifies the configuration of a network and enables deep learning to be performed at low cost.

한편, 결과이미지는 특징추출기반검사부(130)로 입력된다. 특징추출기반검사부(130)에서, 결과이미지는 기설정된 기반검사 알고리즘에 따라 영상처리되면서 기포결함영역에 대한 특징값이 산출된다. Meanwhile, the result image is input to the feature extraction-based inspection unit 130. In the feature extraction-based inspection unit 130, the resulting image is image-processed according to a preset base inspection algorithm, and a feature value for the bubble defect region is calculated.

특징추출기반검사부(130)는 결과이미지가 기설정된 기반검사 알고리즘에 따라 기포결함영역에 대한 특징값이 산출되고, 특징값이 기설정된 불량판정범위에 포함되면 "불량"으로 최종판단되고, 특징값이 불량판정범위에 포함되지 않으면 "정상"으로 최종판단된다. 여기서, 불량판정범위는 기판에 따라 공정조건이 반영된 것으로서, 작업공정에 따라 조절된다. The feature extraction-based inspection unit 130 calculates a feature value for the bubble defect region according to a preset base inspection algorithm in the result image, and if the feature value falls within the preset defect determination range, it is finally judged as "defective", and the feature value If it is not included in this defect judgment range, it is finally judged as "normal". Here, the defect determination range reflects the process conditions according to the substrate and is adjusted according to the work process.

기반검사 알고리즘은 결과이미지를 수치화하는 알고리즘으로, BLOB알고리즘이 적용될 수 있으나 반드시 이에 한정되는 것은 아니며, 영상을 수치화할 수 있는 알고리즘이면 다양한 알고리즘이 적용가능하다.The base inspection algorithm is an algorithm that quantifies the result image, and the BLOB algorithm may be applied, but is not limited thereto, and various algorithms may be applied as long as it is an algorithm capable of quantifying an image.

상기와 같은 과정에 의해, 본 발명은 기판영상 중 기포로 예측되는 부분만을 ROI영상으로 추출하고, 딥러닝방식으로 ROI영상으로부터 기포의 유무판단 및 기포결함영역의 도출이 수행되어, 기포에 의한 기판의 불량을 신속하게 검사할 수 있다. By the process as described above, the present invention extracts only the part predicted to be bubbles in the substrate image as an ROI image, and determines the presence or absence of bubbles from the ROI image and derivation of the bubble defect area from the ROI image by a deep learning method. Can be quickly inspected for defects.

아울러, 본 발명은 ROI영상에 기포결함영역이 표시된 결과이미지를 이용하여, 공정조건이 반영된 특징추출기반검사를 수행함으로써, 문제가 되는 부분을 집중적으로 검사하는 동시에 공정조건에 부합하게 기포에 의한 기판의 불량을 검사할 수 있다. In addition, the present invention performs a feature extraction-based inspection reflecting the process conditions using the result image in which the bubble defect area is displayed on the ROI image, thereby intensively inspecting the problem area and at the same time, the substrate caused by bubbles in accordance with the process conditions. You can check the defects.

즉, 본 발명은 기포에 의한 기판의 불량 검사를, 기판영상에서 기포로 예측되는 부분만을 ROI영상으로 생성하는 과정, ROI영상으로부터 기포의 유무판단 및 기포결함영역의 도출이 수행되는 과정, 마지막으로, ROI영상에 기포결함영역이 표시된 결과이미지가 특징추출기반검사가 수행됨에 공정조건에 부합하게 기포에 의한 기판의 불량을 최종판단하는 과정으로 세분화함으로써, 기판영상 전체를 대상으로 기포에 따른 기판불량을 검사하는 것이 아니라 결함이 예측되는 부분에 대해서는 기판불량검사가 수행되어, 기포에 의한 기판의 불량을 신속 및 정확하게 검사할 수 있다. That is, the present invention is a process in which defect inspection of a substrate due to bubbles is performed, a process of generating only a portion predicted as a bubble in a substrate image as an ROI image, a process of determining the presence or absence of bubbles from the ROI image, and a process of deriving a bubble defect area , As the result image with the bubble defect area displayed on the ROI image is subdivided into the process of final judgment of the defect of the substrate due to the bubble in accordance with the process conditions, the result image is carried out by feature extraction-based inspection. Instead of inspecting, substrate defect inspection is performed on a portion where defects are predicted, so that defects of the substrate due to bubbles can be quickly and accurately inspected.

본 발명은 기판영상과 비교하여 적은 데이터용량을 가진 ROI영상이 딥러닝됨에 따라, 기판영상이 딥러닝되는 것과 비교하여 딥러닝 작업효율을 향상시킬 수 있는 동시에, 딥러닝결함판독부를 구현하는 시스템비용을 저비용으로 구현할 수 있다. In the present invention, as an ROI image having a small data capacity compared to a substrate image is deep-learned, it is possible to improve deep learning work efficiency compared to a deep-learning of the substrate image, and at the same time, the system cost of implementing the deep learning defect reading unit. Can be implemented at low cost.

이와 더불어, 본 발명은 딥러닝방식으로 기포결함영역이 도출된 후, 기포결함영역이 표시된 결과이미지에 대한 특징추출기반검사시, 공정조건에 반영되어 기포에 의한 기판의 불량유무가 판단됨에 따라, 딥러닝에 의해 기판 불량으로 판단된 기판에 대해, 작업자가 공정조건을 반영하여 육안으로 기판의 불량을 추가적으로 판단할 필요없어, 기포에 의한 기판의 불량을 자동으로 구현할 수 있다. In addition, according to the present invention, after the bubble defect area is derived by the deep learning method, when the feature extraction-based inspection of the result image in which the bubble defect area is displayed is reflected in the process condition, it is determined whether or not the substrate is defective due to bubbles, For a substrate determined as a substrate defect by deep learning, the operator does not need to additionally determine the defect of the substrate by visually reflecting the process conditions, so that the defect of the substrate due to bubbles can be automatically implemented.

즉, 본 발명은 기포가 기판의 전체적인 결함에 문제가 되는 것인지 또는 기포가 존재하기는 하나 기판의 결함에 문제가 되지 않을 정도인지 여부를 세밀하게 파악할 수 있다. 이에 따라, 본 발명은 기포에 의한 기판의 불량을 신속 및 정확하게 검사할 수 있다. That is, in the present invention, it is possible to determine in detail whether the air bubbles are a problem to the overall defect of the substrate or whether the air bubbles are present but do not cause a problem of the defect of the substrate. Accordingly, the present invention can quickly and accurately inspect the defect of the substrate due to air bubbles.

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능함은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명백할 것이다.The present invention described above is not limited to the above-described embodiments and the accompanying drawings, and various substitutions, modifications and changes are possible within the scope of the technical spirit of the present invention. It will be obvious to those who have the knowledge of.

100: 기포에 의한 기판불량 검사시스템
110: 영상처리부 111: 기판영상생성부
113: 후보위치탐색부 115: ROI영상생성부
120: 딥러닝결함판단부 121: 공통네트워크
123: 판정네트워크 125: 영역분할네트워크
130: 특징추출기반검사부 140: 데이터저장부
150: 기판이동부 160: 머신비전부
161: 조명 163: 조명조절부
165: 카메라
100: board defect inspection system due to air bubbles
110: image processing unit 111: substrate image generation unit
113: candidate location search unit 115: ROI image generation unit
120: deep learning defect determination unit 121: common network
123: decision network 125: area division network
130: feature extraction-based inspection unit 140: data storage unit
150: substrate moving unit 160: machine vision unit
161: lighting 163: lighting control unit
165: camera

Claims (12)

기판이 촬영된 촬영영상에서 상기 기판의 코팅시 발생된 기포에 의한 상기 기판의 불량을 검사하는 기포에 의한 기판불량 검사시스템에 있어서,
복수의 상기 촬영영상이 영상조합에 의해 생성된 기판영상에서 상기 기포로 예측되는 지점이 후보위치로 탐색되고, 상기 후보위치에 대한 후보영역이 상기 기판영상에서 추출되어 ROI영상으로 출력되는 영상처리부;
입력된 상기 ROI영상이 기저장된 학습데이터를 기반으로 딥러닝되면서, 상기 ROI영상에서의 상기 기포의 유무가 판단되고, 상기 ROI영상에 기포결함영역이 표시된 결과이미지가 출력되는 딥러닝결함판단부; 및
입력된 상기 결과이미지가 기설정된 기반검사 알고리즘에 따라 상기 기포결함영역에 대한 특징값이 산출되고, 상기 특징값이 기설정된 불량판정범위에 포함되면 "불량"으로 최종판단되고, 상기 특징값이 상기 불량판정범위에 포함되지 않으면 "정상"으로 최종판단되는 특징추출기반검사부를 포함하며,
상기 영상처리부는,
기설정된 영상처리 알고리즘에 따라, 서로 다른 파장의 조명에서 촬영된 상기 복수의 촬영영상이 영상조합되어 상기 기판영상이 생성되는 기판영상생성부;
상기 영상처리 알고리즘에 따라, 상기 기판영상에서 상기 후보위치가 탐색되고, 탐색된 상기 후보위치에 나열된 리스트가 산출되는 후보위치탐색부; 및
상기 리스트에 따라, 상기 후보위치를 중심점으로 하여 상기 후보영역이 산출되고, 상기 기판영상에서 상기 후보영역이 추출되어 상기 ROI영상이 출력되는 ROI영상생성부를 포함하는 것을 특징으로 하는 기포에 의한 기판불량 검사시스템.
In the substrate defect inspection system due to bubbles for inspecting the defect of the substrate due to bubbles generated during coating of the substrate in a photographed image of the substrate,
An image processing unit in which a point predicted as the bubble in the substrate image generated by the image combination of the plurality of photographed images is searched as a candidate position, and a candidate region for the candidate position is extracted from the substrate image and output as an ROI image;
A deep learning defect determination unit configured to determine the presence or absence of the bubbles in the ROI image while the input ROI image is deep-learning based on pre-stored learning data, and output a result image in which the bubble defect region is displayed on the ROI image; And
In the input result image, a feature value for the bubble defect region is calculated according to a preset base inspection algorithm, and if the feature value falls within a preset defect determination range, it is finally judged as "defective", and the feature value is the It includes a feature extraction-based inspection unit that is finally judged as "normal" if it is not included in the defective determination range,
The image processing unit,
A substrate image generator configured to generate the substrate image by combining the plurality of photographed images photographed under illumination of different wavelengths according to a preset image processing algorithm;
A candidate location search unit for searching for the candidate location in the substrate image and calculating a list listed in the searched candidate location according to the image processing algorithm; And
According to the list, the candidate region is calculated based on the candidate position as a center point, the candidate region is extracted from the substrate image, and an ROI image generator for outputting the ROI image. Inspection system.
제 1 항에 있어서, 상기 딥러닝결함판단부는,
상기 ROI영상이 신경망 입력데이터 형태로 정규화 처리되고, 다운-샘플링되어 특징맵(feature map)으로 변환되는 공통네트워크;
입력된 상기 특징맵이 기저장된 학습데이터를 기반으로 딥러닝되면서, 상기 기포의 유무가 판단되는 판정네트워크; 및
상기 특징맵이 상기 ROI영상의 크기로 업-샘플링되어 판독용 ROI영상으로 변환되고, 상기 판독용 ROI영상이 상기 학습데이터를 기반으로 딥러닝되면서 기포결함영역이 도출되면, 상기 판독용 ROI영상에 상기 기포결함영역이 표시된 결과이미지가 출력되는 영역분할네트워크를 포함하고,
상기 판독용 ROI영상은 상기 ROI영상크기로, 각 픽셀이 기설정된 조건에 따라 0과 1로 이진화 처리된 것을 특징으로 하는 기포에 의한 기판불량 검사시스템.
The method of claim 1, wherein the deep learning defect determination unit,
A common network in which the ROI image is normalized into neural network input data, down-sampled, and converted into a feature map;
A determination network in which the input feature map is deep-learned based on pre-stored learning data, and the presence or absence of the bubble is determined; And
When the feature map is up-sampled to the size of the ROI image and converted into an ROI image for reading, and the ROI image for reading is deep-learned based on the learning data and a bubble defect region is derived, the ROI image for reading And an area division network in which a result image in which the bubble defect area is displayed is output,
The ROI image for reading is the size of the ROI image, and each pixel is binarized into 0 and 1 according to a preset condition.
제 2 항에 있어서,
상기 공통네트워크와 상기 판정네트워크는 기포존재영상과 기포부존재영상이 상기 학습데이터로 학습되고,
상기 영역분할네트워크는 상기 기포존재영상만 상기 학습데이터로 학습되고, 상기 기포존재영상에는 상기 판정네트워크에서 상기 기포가 존재하는 것으로 판단된 영상이 포함되는 것을 특징으로 하는 기포에 의한 기판불량 검사시스템.
The method of claim 2,
In the common network and the determination network, a bubble-existing image and a bubble-free image are learned as the learning data,
In the region division network, only the bubble-existing image is learned with the learning data, and the bubble-existing image includes an image determined by the determination network as the existence of the bubble.
삭제delete 기판이 촬영된 촬영영상에서 상기 기판의 코팅시 발생된 기포에 의한 상기 기판의 불량을 검사하는 기포에 의한 기판불량 검사방법에 있어서,
(A) 딥러닝결함판단부에서, 기포존재영상과 기포부존재영상이 학습데이터로 학습되는 단계;
(B) 영상처리부에서, 복수의 상기 촬영영상이 영상조합에 의해 생성된 기판영상에서 상기 기포로 예측되는 지점이 후보위치로 탐색되고, 상기 후보위치에 대한 후보영역이 상기 기판영상에서 추출되어 ROI영상으로 출력되는 단계;
(C) 상기 딥러닝결함판단부에서, 입력된 상기 ROI영상이 기저장된 학습데이터를 기반으로 딥러닝되면서, 상기 ROI영상에서의 상기 기포의 유무가 판단되고, 상기 ROI영상에 기포결함영역이 표시된 결과이미지가 출력되는 단계; 및
(D) 특징추출기반검사부에서, 상기 결과이미지가 기설정된 기반검사 알고리즘에 따라 상기 기포결함영역에 대한 특징값이 산출되고, 상기 특징값이 기설정된 불량판정범위에 포함되면 "불량"으로 최종판단되고, 상기 특징값이 상기 불량판정범위에 포함되지 않으면 "정상"으로 최종판단되는 단계를 포함하며,
상기 (B)단계는,
(B1) 기설정된 영상처리 알고리즘에 따라 상기 기판영상이 서로 다른 파장의 조명에서 촬영된 복수의 촬영영상들의 조합에 의해 생성되는 단계;
(B2) 상기 영상처리 알고리즘에 따라, 상기 기판영상에서 상기 후보위치가 탐색되고, 각각의 상기 후보위치에 나열된 리스트가 산출되는 단계;
(B3) 상기 리스트에 따라, 상기 후보위치를 중심점으로 하여 기설정된 크기를 가진 상기 후보영역이 산출되고, 기설정된 중첩영역제거 알고리즘에 따라, 상기 리스트에서 임의로 후보위치가 선택되면, 선택된 후보위치에 대한 선택후보영역의 중첩범위 내에서 미선택된 후보위치가 탐색되고, 탐색된 후보위치가 상기 리스트에서 제거되는 단계; 및
(B4) 상기 B3단계 후 상기 리스트에 따라, 상기 기판영상에서 상기 후보영역이 추출되어 상기 ROI영상이 출력되는 단계를 포함하는 것을 특징으로 하는 기포에 의한 기판불량 검사방법.
In the substrate defect inspection method due to bubbles for inspecting the defect of the substrate due to bubbles generated during coating of the substrate in a photographed image of the substrate,
(A) in the deep learning defect determination unit, the step of learning the bubble-existing image and the bubble-free image as learning data;
(B) In the image processing unit, a point predicted as the bubble in the substrate image generated by the image combination of a plurality of the photographed images is searched as a candidate position, and a candidate region for the candidate position is extracted from the substrate image to be ROI Outputting as an image;
(C) In the deep learning defect determination unit, while deep learning the input ROI image based on pre-stored learning data, the presence or absence of the bubble in the ROI image is determined, and the bubble defect region is displayed on the ROI image. Outputting a result image; And
(D) In the feature extraction-based inspection unit, the result image is calculated as a feature value for the bubble defect region according to a preset base inspection algorithm, and if the feature value falls within a preset defect determination range, it is determined as "defective". And, if the feature value is not included in the defective determination range, including the step of finally determining as "normal",
The (B) step,
(B1) generating the substrate image by a combination of a plurality of photographed images photographed under illumination of different wavelengths according to a preset image processing algorithm;
(B2) searching for the candidate positions in the substrate image according to the image processing algorithm, and calculating a list listed in each of the candidate positions;
(B3) According to the list, the candidate region having a preset size is calculated using the candidate position as a center point, and if a candidate position is arbitrarily selected from the list according to a preset overlapping region removal algorithm, Searching for an unselected candidate position within the overlapping range of the selection candidate region for the selected candidate region, and removing the searched candidate position from the list; And
(B4) after the step B3, according to the list, the candidate region is extracted from the substrate image and the ROI image is output.
삭제delete 제 5 항에 있어서,
상기 중첩범위는 상기 선택된 후보위치를 중심점으로 하여, 상기 선택후보영역의 면적의 1/2 범위 내로 상기 영상처리부에 기설정된 것을 특징으로 하는 기포에 의한 기판불량 검사방법.
The method of claim 5,
And the overlapping range is preset to the image processing unit within a range of 1/2 of the area of the selected candidate region, with the selected candidate position as a center point.
제 5 항에 있어서, 상기 C단계는,
(C1) 공통네트워크로 상기 ROI영상이 입력되고, 상기 ROI영상이 신경망 입력데이터 형태로 정규화 처리되고, 다운-샘플링되어 특징맵(feature map)으로 변환되는 단계;
(C2) 상기 공통네트워크에서 판정네트워크로 상기 특징맵이 입력되고, 상기 특징맵이 상기 학습데이터를 기반으로 딥러닝되면서, 상기 기포의 유무가 판단되는 단계; 및
(C3) 상기 공통네트워크에서 영역분할네트워크로 상기 특징맵이 입력되고, 상기 특징맵이 상기 공통네트워크로 입력된 영상크기로 업-샘플링된 판독용 ROI영상으로 변환되고, 상기 판독용 ROI영상이 상기 학습데이터를 기반으로 딥러닝되면서 기포결함영역이 도출되면, 상기 판독용 ROI영상에 상기 기포결함영역이 표시된 결과이미지로 출력되는 단계를 포함하고,
상기 판독용 ROI영상은 상기 ROI영상의 각 픽셀이 기설정된 조건에 따라 0과 1로 이진화 처리된 것을 특징으로 하는 기포에 의한 기판불량 검사방법.
The method of claim 5, wherein the step C,
(C1) the ROI image is input to a common network, the ROI image is normalized in the form of neural network input data, down-sampled, and converted into a feature map;
(C2) determining the presence or absence of the bubble while the feature map is input from the common network to the decision network, and the feature map is deep-learned based on the learning data; And
(C3) The feature map is input from the common network to an area division network, the feature map is converted into a read ROI image up-sampled to the image size input to the common network, and the read ROI image is When the bubble defect area is derived while deep learning based on the learning data, the step of outputting the bubble defect area as a result image displayed on the reading ROI image,
The ROI image for reading is characterized in that each pixel of the ROI image is binarized into 0 and 1 according to a preset condition.
제 8 항에 있어서,
상기 C2단계 및 상기 C3단계는 상기 C1 단계 후 병렬처리되어, 상기 기포의 유무판단과 상기 기포결함영역의 도출이 개별적으로 수행되는 것을 특징으로 하는 기포에 의한 기판불량 검사방법.
The method of claim 8,
The step C2 and step C3 are processed in parallel after the step C1 to determine the presence or absence of the bubble and the derivation of the bubble defect area separately.
제 8 항에 있어서, 상기 C2단계에서,
상기 판정네트워크는 입력된 복수의 상기 특징맵이 병렬구조로 딥러닝되어, 상기 복수의 특징맵에서의 상기 기포의 유무에 대한 판단이 일괄적으로 수행되는 것을 특징으로 하는 기포에 의한 기판불량 검사방법.
The method of claim 8, wherein in step C2,
The determination network is characterized in that the plurality of input feature maps are deep-learned in a parallel structure, and the determination of the presence or absence of the bubbles in the plurality of feature maps is collectively performed. .
제 8 항에 있어서, 상기 C3단계에서,
상기 영역분할네트워크는 입력된 복수의 상기 판독용 ROI영상이 병렬구조로 딥러닝되어, 상기 복수의 판독용 ROI영상에서의 상기 기포결함영역의 도출이 일괄적으로 수행되는 것을 특징으로 하는 기포에 의한 기판불량 검사방법.
The method of claim 8, wherein in step C3,
In the region division network, the plurality of input ROI images for reading are deep-learned in a parallel structure, and the derivation of the bubble defect regions in the plurality of reading ROI images is performed collectively. Board defect inspection method.
제 8 항에 있어서, 상기 C 단계에서,
상기 공통네트워크 및 상기 판정네트워크는 상기 기포존재영상과 상기 기포부존재영상이 상기 학습데이터로 학습되고,
상기 영역분할네트워크는 상기 기포존재영상만 학습데이터로 학습되고, 상기 기포존재영상에는 상기 판정네트워크에서 상기 기포가 존재하는 것으로 판단된 영상이 포함되는 것을 특징으로 하는 기포에 의한 기판불량 검사방법.
The method of claim 8, wherein in step C,
In the common network and the determination network, the bubble-existing image and the bubble-free image are learned as the learning data,
Wherein the region division network learns only the bubble-existing image as learning data, and the bubble-existing image includes an image determined by the determination network as the existence of the bubble.
KR1020190003058A 2019-01-10 2019-01-10 System for inspecting substrate defects by bubbles and Method for inspecting substrate defects by bubbles KR102172768B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190003058A KR102172768B1 (en) 2019-01-10 2019-01-10 System for inspecting substrate defects by bubbles and Method for inspecting substrate defects by bubbles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190003058A KR102172768B1 (en) 2019-01-10 2019-01-10 System for inspecting substrate defects by bubbles and Method for inspecting substrate defects by bubbles

Publications (2)

Publication Number Publication Date
KR20200086812A KR20200086812A (en) 2020-07-20
KR102172768B1 true KR102172768B1 (en) 2020-11-02

Family

ID=71831913

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190003058A KR102172768B1 (en) 2019-01-10 2019-01-10 System for inspecting substrate defects by bubbles and Method for inspecting substrate defects by bubbles

Country Status (1)

Country Link
KR (1) KR102172768B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023027931A1 (en) * 2021-08-25 2023-03-02 Kla Corporation Methods and systems for selecting wafer locations to characterize cross-wafer variations based on high-throughput measurement signals

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112085715A (en) * 2020-09-01 2020-12-15 工业互联网创新中心(上海)有限公司 Novel tin bead detection system and detection method
KR102554282B1 (en) * 2020-12-04 2023-07-11 서울과학기술대학교 산학협력단 Device, method and system for recommending object
KR102346676B1 (en) * 2021-07-23 2022-01-03 주원씨엔시 주식회사 Method for creating damage figure using the deep learning-based damage image classification of facility

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101711073B1 (en) * 2016-07-25 2017-02-28 (주)제이엘케이인스펙션 Micro cracks detection device and method of flexible touch screen panel using deep learning algorithm
KR101863196B1 (en) * 2017-07-24 2018-06-01 한국생산기술연구원 An Apparatus and A Method For Detecting A Defect On Surfaces Based On Deep Learning

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101848173B1 (en) 2016-11-24 2018-05-24 한양대학교 산학협력단 Apparatus and method for printed circuit board coating inspection
KR102058427B1 (en) * 2017-12-21 2019-12-23 동우 화인켐 주식회사 Apparatus and method for inspection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101711073B1 (en) * 2016-07-25 2017-02-28 (주)제이엘케이인스펙션 Micro cracks detection device and method of flexible touch screen panel using deep learning algorithm
KR101863196B1 (en) * 2017-07-24 2018-06-01 한국생산기술연구원 An Apparatus and A Method For Detecting A Defect On Surfaces Based On Deep Learning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023027931A1 (en) * 2021-08-25 2023-03-02 Kla Corporation Methods and systems for selecting wafer locations to characterize cross-wafer variations based on high-throughput measurement signals

Also Published As

Publication number Publication date
KR20200086812A (en) 2020-07-20

Similar Documents

Publication Publication Date Title
KR102172768B1 (en) System for inspecting substrate defects by bubbles and Method for inspecting substrate defects by bubbles
KR101319682B1 (en) Automatic repair of electric circuits
US8131058B2 (en) Method and apparatus for visual inspection
TWI412739B (en) Defect detection method and defect detection apparatus
JP6189127B2 (en) Soldering inspection apparatus, soldering inspection method, and electronic component
US20050195389A1 (en) System and method for inspecting electrical circuits utilizing reflective and fluorescent imagery
US7970201B2 (en) Method and system for defect detection
JP2020106461A (en) Image generation device and appearance inspection device
JP2006284471A (en) Pattern inspection method, pattern inspection device and pattern inspecting program
JP2021128097A (en) Defect detector, defect detection method, and defect correction device
JP4910128B2 (en) Defect inspection method for object surface
JP7151426B2 (en) Tube glass inspection method, learning method and tube glass inspection device
KR101320037B1 (en) Method and system for defect detection
JP3047881B2 (en) Semiconductor device manufacturing system and semiconductor device manufacturing method
JP4885590B2 (en) Semiconductor wafer inspection method and apparatus
JP3233205B2 (en) Circuit inspection method and device
JP2006145228A (en) Unevenness defect detecting method and unevenness defect detector
JP5096940B2 (en) Inspection method and apparatus for printed wiring board
US20230028335A1 (en) Abnormality inspection system, abnormality inspection method and program
JP3271622B2 (en) Method for manufacturing semiconductor device
JPH04319649A (en) Through hole inspecting device
JP2003065970A (en) Foreign matter inspection method and apparatus therefor
JP2002314982A (en) Method for detecting defect
JP4009085B2 (en) Pattern inspection apparatus and pattern inspection method
JP2002181718A (en) Method and apparatus for inspecting hologram sheet

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant